WO2021153355A1 - 医用情報処理システム、医用情報処理装置、医用情報処理システムの制御方法、及びプログラム - Google Patents

医用情報処理システム、医用情報処理装置、医用情報処理システムの制御方法、及びプログラム Download PDF

Info

Publication number
WO2021153355A1
WO2021153355A1 PCT/JP2021/001717 JP2021001717W WO2021153355A1 WO 2021153355 A1 WO2021153355 A1 WO 2021153355A1 JP 2021001717 W JP2021001717 W JP 2021001717W WO 2021153355 A1 WO2021153355 A1 WO 2021153355A1
Authority
WO
WIPO (PCT)
Prior art keywords
determination
medical information
evaluation
notification
machine learning
Prior art date
Application number
PCT/JP2021/001717
Other languages
English (en)
French (fr)
Inventor
嶺一 田中
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Publication of WO2021153355A1 publication Critical patent/WO2021153355A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • the present invention relates to a medical information processing system, a medical information processing device, a control method of the medical information processing system, and a program.
  • Patent Document 1 discloses a technique of calculating the determination accuracy of a classifier created by machine learning and using the classifier having the highest determination accuracy for the determination process.
  • the present invention has been made in view of the above problems, and an object of the present invention is to provide a medical information processing technique capable of limiting notification of a judgment result when the evaluation of judgment accuracy is equal to or less than a threshold value.
  • the medical information processing system includes a determination means for performing determination processing on medical information and a determination means.
  • a notification means for notifying the determination result by the determination means, and
  • An evaluation means for evaluating the determination accuracy of the determination process based on the comparison between the determination result of the determination process and the reference information is provided.
  • the notification means is characterized in that when the evaluation of the determination accuracy by the evaluation means is equal to or less than a threshold value, the notification of the determination result is restricted.
  • the present invention it is possible to limit the notification of the determination result when the evaluation of the determination accuracy is equal to or less than the threshold value.
  • the user is notified of the judgment result when the judgment accuracy is higher than the threshold value. Therefore, it is possible to reduce the time and effort required for the user to confirm and correct the determination result when the determination result with low determination accuracy is provided.
  • the accompanying drawings are included in the specification and are used to form a part thereof, show an embodiment of the present invention, and explain the principle of the present invention together with the description thereof.
  • radiation includes not only X-rays but also ⁇ -rays, ⁇ -rays, ⁇ -rays, various particle beams, and the like.
  • FIG. 1 is a diagram showing a configuration example of a radiography system according to the first embodiment of the present invention.
  • the radiography system 10 includes a radiography control device 101 and a determination accuracy evaluation device 113.
  • the radiography control device 101 and the determination accuracy evaluation device 113 are communicably connected to the HIS 117, the RIS 118, the PACS 119, the printer 120, and the report server 121 via the network 122.
  • HIS117 Hospital Information System
  • HIS Hospital Information System
  • RIS118 Radiology Information System
  • PACS119 Picture Archiving and Communication Systems
  • the report server 121 may include a server that manages accounting information in HIS 117 in which an interpretation report created by an interpretation doctor is stored.
  • an inspection instruction is input from the terminal of HIS117 and transmitted to the radiology department, which is the request destination.
  • This request information is called an inspection order, and this inspection order includes the department name of the requesting source, inspection items, personal data of the subject 130, and the like.
  • the radiology department receives the inspection order transmitted from the RIS 118, it adds imaging conditions and the like and transfers it to the radiography control device 101.
  • the radiography control device 101 performs radiography according to the received inspection order. Examination information and diagnostic support information that assists the doctor's judgment acquired by image analysis are added to the image taken based on the radiography control of the radiography control device 101, and the image is transferred to the PACS 119 or the printer 120. Print output is performed at. In addition, the information on the inspection performed by the radiography control device 101 is transferred to the HIS 117. The inspection implementation information transferred to HIS117 is used not only for inspection progress management but also for post-inspection accounting.
  • the image interpreting doctor confirms the image transferred to the PACS 119 and the image printed by the printer 120, and creates an image interpretation report in which the image interpretation result is described by a report creating device (not shown). The created interpretation report is saved in the report server 121. After that, the determination accuracy evaluation device 113 acquires the diagnosis support information and the interpretation report. The determination accuracy evaluation device 113 analyzes the interpretation report and evaluates whether or not the diagnostic support information is correct based on the analysis result.
  • Each of these devices is connected via, for example, a network 122 composed of a LAN (Local Area Network), a WAN (Wide Area Network), or the like.
  • Each of these devices includes one or more computers.
  • the computer is provided with, for example, a main control unit such as a CPU, and a storage unit such as a ROM (Read Only Memory) and a RAM (Random Access Memory).
  • the computer may be provided with a communication unit such as a network card, an input / output unit such as a keyboard, a display or a touch panel, and the like.
  • a bus or the like is controlled by the main control unit reading and executing a program stored in the storage unit.
  • the radiography control device 101 includes a display unit 102, an operation unit 103, a determination unit 104, a radiation generation control unit 105, a display control unit 106, and an imaging control unit 107.
  • the radiation generation control unit 105 is connected to the radiation generation unit 110 via a cable 111, and controls the irradiation of radiation from the radiation generation unit 110.
  • the radiation generating unit 110 is realized by, for example, a radiation tube, and irradiates the subject 130 (for example, a specific portion of the subject) with radiation.
  • the imaging control unit 107 controls the processing in the radiography control device 101 in an integrated manner.
  • the display unit 102 is realized by, for example, a liquid crystal display or the like, and displays various information to a user (photographer, doctor, etc.).
  • the operation unit 103 is realized by, for example, a mouse, an operation button, or the like, and inputs various instructions from the user into the device.
  • the display unit 102 and the operation unit 103 may be realized by a touch panel in which they are integrated.
  • the determination unit 104 is a discriminator that makes inferences by machine learning using medical information obtained in the past diagnosis, and infers a disease by performing determination processing on the medical information.
  • the medical information is information included in an examination order, an image, and an interpretation report, and may be a combination of a plurality of pieces of information.
  • the imaging control unit 107 is connected to the radiation detector 109 via a cable 112, and a power supply, an image signal, a control signal, etc. are exchanged between the two by the cable 112.
  • the radiation detector 109 functions as a detector that detects the radiation transmitted through the subject 130 and acquires an image (radiation image) based on the radiation transmitted through the subject 130. That is, the radiation photographing unit is realized by operating the radiation generating unit 110 and the radiation detector 109 in cooperation with each other.
  • the radiation detector 109 is installed on, for example, a standing or lying position imaging table 108.
  • the imaging control unit 107 functions as an instruction unit for instructing the start of radiological imaging corresponding to at least one of the order information received from the RIS 118.
  • the order information received from the RIS 118 includes, for example, subject information and one or more imaging sites for the subject.
  • the operation unit 103 receives an input from the user and is instructed to start radiography.
  • the photographing control unit 107 may select the order information to be photographed and instruct the start of photographing.
  • radiography When radiography is performed, an image (radiation image) is displayed on the display unit 102.
  • the user can perform image processing, cropping, annotation, geometric transformation, and other image editing on the displayed image via the operation unit 103. These image edits may be automatically performed by the determination unit 104.
  • FIG. 1 is merely an example and can be changed as appropriate.
  • various devices are connected to the radiography control device 101 via a network 122, but the radiography control device 101 does not necessarily have to be connected to such a device.
  • the diagnostic image may be output to a portable medium such as a DVD and input to various devices via the portable medium.
  • the network 122 may be configured by wire or may be partially configured by a wireless signal transmission line. Further, a part of the communication performed by the cable 111 and the cable 112 may be performed by the wireless signal transmission line.
  • ⁇ Shooting process> 2A to 2C are diagrams illustrating an input screen for a new inspection in the radiography control device according to the first embodiment, and are diagrams illustrating an imaging screen in the radiography control device according to the first embodiment.
  • FIGS. 1 to 3 a procedure of imaging processing when capturing a radiographic image according to the flow of inspection by the radiographic imaging system 10 will be described.
  • the subject information and the inspection information are input to the radiography control device 101 by the inspection request form or the inspection request from the RIS 118.
  • the subject information includes subject name (patient name), subject identification information (subject ID), and the like as information for identifying the subject
  • the inspection information includes inspection identification information (inspection ID) and subject. Includes shooting information that defines the content of shooting to be performed on.
  • the radiography control device 101 displays an input screen for a new inspection as shown in FIG. 2A on the display unit 102 by the display control of the display control unit 106.
  • the configuration of the input screen for the new inspection includes the subject information input area 201, the subject information confirmation button 202, and the requested inspection list 203.
  • the configuration of the input screen for the new inspection includes a subject information display area 204, a shooting information display area 205, a shooting information input button 206, and an inspection start button 207.
  • the display control unit 106 arranges the inspection information (subject information and inspection information) received from the RIS 118 on the request inspection list 203, and performs display control so as to display it in a list display format.
  • the subject information display area 204 contains the subject information (subject ID, subject name, birth year) corresponding to the selected inspection. Date, etc.) is displayed.
  • the inspection ID corresponding to the selected inspection is displayed in the shooting information display area 205, and the shooting information corresponding to the inspection ID is displayed in the area below the inspection ID.
  • the display control unit 106 can display shooting information based on the information received from the RIS 118.
  • the display control unit 106 controls the display so that the shooting method button 209 (for example, the chest front button 209a and the chest side button 209b) corresponding to the shooting information is displayed in the shooting information display area 205. conduct.
  • the display control unit 106 performs display control so that the shooting information input area 208 is displayed on the display unit 102 in accordance with the pressing of the shooting information input button 206. Further shooting methods can be added by selecting the plurality of shooting method selection buttons 210 displayed in the shooting information input area 208.
  • the display control unit 106 controls the display so that the chest front button 209a and the chest side button 209b are displayed side by side in the shooting information display area 205 of the added shooting method.
  • Each shooting method is associated with a shooting method ID.
  • the user presses the inspection start button 207. This confirms the inspection to be performed.
  • the display control unit 106 of the radiography control device 101 displays an imaging screen as shown in FIG. 3 on the display unit 102.
  • the shooting screen shown in FIG. 3 is a screen used at the time of shooting.
  • the shooting screen shown in FIG. 3 is basically configured to have a display area similar to the input screen for the new inspection described with reference to FIGS. 2A to 2C.
  • Examples of the newly added display area include an image display area 301, a message area 302, an image processing setting area 303, and an inspection end button 304, as shown in FIG.
  • the display control unit 106 displays the shooting method button 209 (for example, the chest front button 209a) arranged at the top of the shooting information display area 205 in a state of being selected by default. Display control is performed as follows. Along with this, the imaging control unit 107 of the radiation imaging control device 101 generates radiation for imaging conditions (tube voltage, tube current, irradiation time, etc.) set corresponding to the selected imaging method button (imaging method). It is transmitted to the control unit 105. Then, the imaging control unit 107 controls the radiation detector 109 according to the set imaging conditions to prepare for imaging.
  • the imaging control unit 107 controls the radiation detector 109 according to the set imaging conditions to prepare for imaging.
  • the radiography control unit 107 of the radiography control device 101 shifts the state of the radiation detector 109 to the radiography-capable state.
  • the display control unit 106 performs display control so as to display a "Ready message” indicating that shooting is possible in the message area 302.
  • the user confirms the shooting method, sets the shooting, and positions the subject.
  • the user refers to the message area 302 to confirm that shooting is possible, and then presses the irradiation switch (not shown).
  • the radiography control unit 107 of the radiography control device 101 irradiates the subject 130 (specific part of the patient) with radiation by the radiation generation unit 110, and detects the radiation transmitted through the subject 130 by the radiation detector 109. As a result, a radiographic image is taken.
  • the imaging control unit 107 of the radiation imaging control device 101 acquires a captured image from the radiation detector 109, and performs image processing on the acquired captured image based on predetermined image processing conditions.
  • the predetermined image processing conditions are predetermined in advance corresponding to the selected shooting method button (shooting method).
  • the radiography control device 101 makes an inference in the determination unit 104, and the display control unit 106 presents the diagnosis support information to the display area of the display unit 102 based on the inference result of the determination unit 104. Display control is performed.
  • a computer-aided diagnosis system for notifying the name of a disease will be described as an example.
  • the determination unit 104 acquires the image findings by analyzing the captured image, and infers the disease name from the image findings by using a discriminator that has learned the relationship between the image findings and the disease name.
  • the inference result of the determination unit 104 is displayed on the display unit 102 based on the display control of the display control unit 106, or the determination unit 104 reports the inference result in a structured report according to the DICOM (Digital Imaging and Communications in Medicine) standard.
  • DICOM Digital Imaging and Communications in Medicine
  • the user may be notified by outputting it as a key image object.
  • the display control unit 106 of the radiography control device 101 performs display control so as to display the image-processed captured image in the image display area 301.
  • the user confirms the captured image displayed in the image display area 301 and changes the contrast or the like of the captured image, the user operates buttons such as contrast and brightness provided in the image processing setting area 303.
  • the user when changing the cutout area of the output image, the user operates the cutout button 307, the cutout frame 312, and the like to specify the desired cutout area.
  • the user When assigning a character string to be diagnostic information, the user operates the annotation button 308 or the like to superimpose a graphic object, a character string, or the like on the image. If the orientation of the image is not suitable for diagnosis, the user performs geometric transformation using the rotation button 305, the reverse button 306, and the like. As described above, the user can perform additional image editing on the captured image displayed in the image display area 301 by operating various buttons.
  • the user repeats the above procedure to shoot all the shooting methods in the shooting information display area 205.
  • the user presses the inspection end button 304.
  • a series of inspections is completed, and the radiography control device 101 displays the input screen for the new inspection again (FIG. 2A).
  • the radiography control unit 107 of the radiography control device 101 adds the inspection information, the radiography conditions, and the like to the diagnostic image that was not treated as a photo loss as incidental information, and the report information in which the inference result is recorded ( After associating with a structured report) or a key image object, it is output to, for example, a PACS119, a printer 120, a ROM in the own device, or the like.
  • PACS119, ROM, etc. the captured image and the subject information are stored in association with each other.
  • the evaluation data acquisition unit 114 acquires evaluation data via the network 122.
  • the evaluation data is composed of the inference result by the determination unit 104 and the correct answer data indicating the correct answer in the inference process (determination process).
  • the evaluation data acquisition unit 114 can acquire the inference result from the radiography control device 101 as a structured report, and acquire the correct answer data from the interpretation report held in the report server 121.
  • the inference result and the correct answer data acquired by the evaluation data acquisition unit 114 are associated with the inspection information (inspection ID, image ID) and are held in the evaluation data storage unit 116.
  • Judgment accuracy The evaluation unit 115 reads evaluation data (inference result and correct answer data) from the evaluation data storage unit 116, compares the inference result with the correct answer data, and calculates the accuracy (determination accuracy) in the inference result.
  • FIG. 4 is a flowchart showing a processing procedure for evaluating the judgment accuracy by the judgment accuracy evaluation unit 115, and the flow of the process for evaluating the judgment accuracy executed by the judgment accuracy evaluation unit 115 will be described with reference to FIG.
  • step S401 the determination accuracy evaluation unit 115 acquires correct answer data (hereinafter, also referred to as a correct disease name) from the evaluation data storage unit 116.
  • step S402 the determination accuracy evaluation unit 115 acquires an inference result (hereinafter, inference disease name) from the evaluation data storage unit 116.
  • step S403 the determination accuracy evaluation unit 115 compares the correct disease name and the inferred disease name, and if the correct disease name and the inferred disease name match, evaluates as the correct answer, and the correct disease name and the inferred disease name are one. If not, it will be evaluated as incorrect.
  • step S404 the determination accuracy evaluation unit 115 determines whether or not there is an uncompared inference result for which comparison processing has not been performed. When there is an uncompared inference result (S404-Yes), the determination accuracy evaluation unit 115 returns the process to step S401 and repeatedly executes the same process. On the other hand, if there is no uncompared inference result in the determination in step S404 (S404-No), the determination accuracy evaluation unit 115 advances the process to step S405.
  • the processing procedure for evaluating the determination accuracy has been described using all the evaluation data, but the date when the evaluation data was created and the number of evaluation data stored in the evaluation data storage unit 116, for example, .
  • the judgment accuracy is calculated by limiting the range of the correct answer data (correct answer disease name) and the inference result (inferred disease name) acquired by the judgment accuracy evaluation unit 115, such as calculating the judgment accuracy in the latest 200 cases. It is also possible to limit the range of evaluation data.
  • FIG. 5A is a flowchart showing a determination result notification processing procedure by the determination unit 104, and the flow of the determination result notification processing executed by the determination unit 104 will be described with reference to FIG. 5A.
  • step S501 the determination unit 104 analyzes the captured image and acquires the image findings.
  • step S502 the determination unit 104 performs a determination process on the medical information.
  • the determination unit 104 infers the disease name from the image findings using a discriminator that has learned the relationship between the image findings and the disease name.
  • step S503 the determination unit 104 compares the determination accuracy calculated in the determination accuracy evaluation process described above with the threshold value.
  • the threshold value is an arbitrary value set in advance.
  • the determination unit 104 advances the process to step S504.
  • the display control unit 106 functions as a notification unit that notifies the user of the determination result by the determination unit 104.
  • the display control unit 106 causes the display unit 102 to display the inference result, or the shooting control unit 107 inputs the inference result into the report information (structured report) or the key image object and outputs the inference result to the PACS 119. Notify the user of the inference result.
  • step S503 if the determination accuracy is equal to or less than the threshold value (S503-No), the process proceeds to step S505.
  • the display control unit 106 (notification unit) limits the notification of the determination result to the user when the evaluation of the determination accuracy by the determination accuracy evaluation unit 115 is equal to or less than the threshold value.
  • the display control unit 106 (notification unit) limits the notification of the determination result to the medical information input to the determination unit 104 in a state where the evaluation of the determination accuracy is equal to or less than the threshold value.
  • step S505 the photographing control unit 107 inputs the inference result into the report information (structured report) or the key image object, and notifies the determination accuracy evaluation device 113 of the inference result. For example, when the threshold value is set to 95% and the latest determination accuracy is 90% (S503-No), the processing in step S504 is skipped, the inference result is not notified to the user, and in step S505. Only the determination accuracy evaluation device 113 is notified.
  • the user may, for example, change the radiation dose at the time of shooting to improve the image quality, or operate the cutout button 307, the cutout frame 312, or the like.
  • the determination accuracy can be improved by removing unnecessary parts in the image. Even while the inference result is not notified to the user, in step S505, the inference result is notified to the determination accuracy evaluation device 113, and the latest determination accuracy is updated.
  • the determination accuracy calculated in the determination accuracy evaluation process in the determination accuracy evaluation device 113 is improved, and when the determination accuracy becomes higher than the threshold value, the inference result is notified to the user.
  • the inference result is notified to the user in a state where the judgment accuracy of the discriminator is higher than the threshold value (only during the period when the judgment accuracy is higher than the threshold value). Therefore, it is possible to reduce the time and effort required for the user to confirm and correct the inference result when the inference result with low determination accuracy is provided.
  • determination result notification processing procedure described with reference to FIG. 5A it has been described that whether or not to notify the user of the inference result is automatically switched, but the determination result notification processing in the present embodiment is limited to this example. However, for example, it is also possible to perform the determination result notification process as shown in FIG. 5B.
  • FIG. 5B is a flowchart showing a modified example of the determination result notification processing procedure.
  • the processing content of steps S501 to S505 is the same processing content as that of the flowchart of FIG. 5A, and the restriction on the notification of the determination result (inference result) of the determination unit 104 is released (notification). It differs from the flowchart of FIG. 5A in that it has a step (S506) for switching whether or not to allow).
  • step S506 the display control unit 106 performs display control so that the alert screen 601 of FIG. 6 is displayed on the display unit 102, and switches whether or not to notify the user of the inference result.
  • FIG. 6 is a diagram illustrating an alert screen for notifying that the determination accuracy is low, and the latest determination accuracy 602 and the currently set threshold value 603 are displayed on the alert screen 601. By changing the threshold value 603, the user can change whether or not to notify the user of the inference result from the next time.
  • a setting unit (check box 604) capable of setting whether or not to notify the current determination result (inference result) of the determination unit 104 is displayed.
  • the display control unit 106 causes the display unit 102 to display the evaluation result of the determination accuracy by the determination accuracy evaluation unit 115 and the setting unit (check box 604).
  • the setting unit (check box 604) can set whether or not to allow the notification of the restricted determination result based on the operation input, and check the input field of the setting unit (check box 604).
  • the state in which the check box 604 is enabled by inputting is the state in which the notification is permitted.
  • the setting unit (check box 604) and the setting confirmation unit (OK button 605) function as a release unit for releasing the restriction on the notification of the determination result by the display control unit 106 (notification unit), and the setting unit (check box 604).
  • step S504 the display control unit 106 causes the display unit 102 to display the inference result, or the photographing control unit 107 inputs the inference result to the report information (structured report) or the key image object and outputs the inference result to the PACS 119. By doing so, the user is notified of the inference result.
  • step S505 the photographing control unit 107 inputs the inference result into the report information (structured report) or the key image object, and notifies the determination accuracy evaluation device 113 of the inference result.
  • the user is notified of the inference result in a state where the determination accuracy of the discriminator is higher than the threshold value. Therefore, it is possible to reduce the time and effort required for the user to confirm and correct the inference result when the inference result with low determination accuracy is provided.
  • a computer-aided diagnosis system for notifying a disease name has been described as an example, but the embodiment of the present invention is not limited to this example, and for example, a function of recognizing an area of interest, an irradiation field, and an imaging site. It can be applied to various medical information processing systems and medical information processing devices using a machine learning system, such as a function of providing diagnostic support information such as the position and / or malignancy of a mass.
  • FIG. 7 is a diagram showing a configuration example of the radiography system 20 according to the second embodiment.
  • the same reference number as in FIG. 1 is assigned to the configuration similar to that of the first embodiment (FIG. 1).
  • the configuration of the radiation imaging system 20 of the second embodiment is the radiation of FIG. 1 in that the determination accuracy evaluation device 113 has the machine learning unit 123 in addition to the configuration of the first embodiment (FIG. 1). It is different from the configuration of the photographing system 10.
  • the evaluation data acquisition unit 114 acquires evaluation data via the network 122.
  • the evaluation data is composed of an inference result by the determination unit 104, an image used for inference, and correct answer data indicating a correct answer in the inference process (determination process).
  • the evaluation data acquisition unit 114 acquires the image used for inference and the inference result from the radiography control device 101 as a photographed image and a structured report associated with the photographed image, and acquires the correct answer data as a report server. It can be obtained from the interpretation report held in 121.
  • the inference result acquired by the evaluation data acquisition unit 114 and the image and correct answer data used for inference are associated with the inspection information (inspection ID, image ID) and are stored in the evaluation data storage unit 116.
  • the determination accuracy evaluation unit 115 evaluates the determination accuracy of the determination process based on the comparison between the determination result (inference result) of the determination process and the reference information (correct answer data). Specifically, the judgment accuracy evaluation unit 115 reads evaluation data (inference result, image used for inference and correct answer data) from the evaluation data storage unit 116, and determines the judgment result (inference result) and reference information. (Correct answer data) is compared, and the accuracy (judgment accuracy) in the inference result is calculated.
  • the machine learning unit 123 acquires the parameters set in the classifier of the determination unit 104 by machine learning using medical information.
  • the machine learning unit 123 reads the evaluation data from the evaluation data storage unit 116, acquires the image findings by analyzing the image used for the inference, and learns the relationship between the image findings and the disease name included in the correct answer data.
  • FIG. 8 is a flowchart showing a processing procedure for updating the parameters of the classifier in the determination unit 104 according to the second embodiment.
  • the judgment accuracy evaluation unit 115 compares the calculated current judgment accuracy with the arbitrarily set threshold value, and when the current judgment accuracy is higher than the threshold value (S801-Yes), the judgment accuracy evaluation unit 115 This process is terminated.
  • the determination in step S801 if the current determination accuracy is equal to or less than the threshold value (S801-No), the determination accuracy evaluation unit 115 advances the process to step S802.
  • step S802 the machine learning unit 123 carries out machine learning using medical information.
  • the combination of the image data and the disease name is used as the learning data.
  • the machine learning unit 123 acquires image findings by analyzing the image used for inference, and learns the relationship between the image findings and the disease name included in the correct answer data.
  • step S803 the determination accuracy evaluation unit 115 calculates the determination accuracy after machine learning using the parameters acquired by the machine learning unit 123, and compares the determination accuracy after machine learning with the determination accuracy before machine learning. do.
  • the determination accuracy evaluation unit 115 ends this process. In this case, the parameters of the classifier in the determination unit 104 of the radiography control device 101 are not updated.
  • step S803 when the determination accuracy after learning is higher than the determination accuracy before learning (S803-Yes), the determination accuracy evaluation unit 115 advances the process to step S804.
  • step S804 when the determination accuracy after machine learning is higher than the determination accuracy before machine learning by the comparison of the determination accuracy evaluation unit 115, the determination unit 104 uses the parameters acquired by the machine learning unit 123 to use the determination unit. Update the 104 classifier parameter settings.
  • the determination accuracy evaluation unit 115 transmits the parameters acquired by the machine learning unit 123 to the radiography control device 101 via the network 122, and the determination unit 104 identifies based on the parameters transmitted from the determination accuracy evaluation unit 115. Update the parameters of the vessel.
  • machine learning is performed so as to automatically improve the determination accuracy when the determination accuracy is equal to or less than the threshold value. Therefore, the determination accuracy of the discriminator of the determination unit 104 can be improved by machine learning. It will be possible. As a result, the state in which the judgment accuracy is lower than the threshold value (the period in which the judgment accuracy is lower than the threshold value) is shortened, that is, the state in which the judgment accuracy of the discriminator is higher than the threshold value (the judgment accuracy is higher than the threshold value). Higher period) can be made longer.
  • step S801 of FIG. 8 it was determined whether or not to perform machine learning based on the comparison result between the determination accuracy and the threshold value, but the determination criteria for performing machine learning is not limited to this example.
  • whether or not to implement machine learning is based on the progress information (elapsed days, elapsed time, etc.) from the previous machine learning implementation date and the quantity information (number of sheets, number, etc.) of unlearned images. It is also possible to judge.
  • the third embodiment a configuration for notifying the serviceman that the determination accuracy of the discriminator of the determination unit 104 is low will be described.
  • the basic configuration of the radiography system according to the present embodiment is the same as the configuration described with reference to FIG. 1 of the first embodiment and the configuration described with reference to FIG. 7 of the second embodiment.
  • the configuration of the radiography system different from the configuration in the second embodiment will be mainly described.
  • FIG. 9 is a diagram showing a configuration example of the radiography system 30 according to the third embodiment.
  • the same reference number as in FIG. 7 is assigned to the configuration similar to that of the second embodiment (FIG. 7).
  • the configuration of the radiography system 30 of the third embodiment is that the external device 124 is connected to the network 122 via the external network 125 in addition to the configuration of the second embodiment (FIG. 7). This is different from the configuration of the radiography system 20 shown in FIG.
  • the external device 124 is connected to the network 122 via the external network 125.
  • the judgment accuracy evaluation unit 115 compares the current judgment accuracy with the arbitrarily set threshold value, and when the current judgment accuracy is equal to or less than the threshold value, the judgment accuracy evaluation unit 115 evaluates the current judgment accuracy and the threshold value. Notify the external device 124 via the network 122.
  • the external device 124 Based on the operation input of the maintenance person (serviceman) who received the notification, the external device 124 causes the machine learning unit 123 to perform machine learning by remote control (remote control) via the network 122, and determines the determination accuracy. Try to improve.
  • the machine learning unit 123 performs machine learning based on the control (remote control) from the external device 124.
  • the serviceman who receives the notification operates the machine learning unit 123 to cause the machine learning unit 123 to perform machine learning to improve the determination accuracy.
  • the machine learning unit 123 performs machine learning based on control by remote control (remote control) or operation by a maintenance person.
  • a combination of image data and a disease name is used as learning data.
  • the machine learning unit 123 acquires image findings by analyzing the image used for inference, and learns the relationship between the image findings and the disease name included in the correct answer data.
  • the processing after machine learning is, for example, the same as the processing after step S803 of FIG. 8 described in the second embodiment, and when the determination accuracy after learning is higher than the determination accuracy before learning (S803-Yes), the determination The accuracy evaluation unit 115 transmits the parameters obtained by machine learning to the radiography control device 101 via the network 122, and the determination unit 104 sets the parameters of the classifier based on the parameters transmitted from the determination accuracy evaluation unit 115. Update (S804).
  • the determination accuracy when the determination accuracy is lower than the threshold value, the determination accuracy can be quickly improved by the control based on the remote operation by the maintenance person from the external device 124 (remote control) or the direct operation by the maintenance person. Can be planned.
  • the state in which the judgment accuracy is lower than the threshold value (the period in which the judgment accuracy is lower than the threshold value) is shortened, that is, the state in which the judgment accuracy of the discriminator is higher than the threshold value (the judgment accuracy is higher than the threshold value). Higher period) can be made longer.
  • the present invention is not limited to this example.
  • It can be applied even when the determination accuracy is not improved even if the machine learning by the machine learning unit 123 is performed.
  • the determination accuracy evaluation unit 115 can notify the external device 124 of the evaluation result of the determination accuracy after machine learning. .. For example, in step S803 of FIG.
  • the determination accuracy evaluation unit 115 when the determination accuracy after learning is equal to or less than the determination accuracy before learning (S803-No), the determination accuracy evaluation unit 115 outputs the evaluation result of the determination accuracy after machine learning to the network 122. It may be transmitted to the external device 124 via the above to notify the maintenance person.
  • the machine learning unit 123 improves the determination accuracy by performing machine learning again by the control (remote control) based on the remote control from the external device 124 by the maintenance person or the direct operation of the maintenance person. It is also possible to plan.
  • the configuration having the radiography control device 101 and the determination accuracy evaluation device 113 as the medical information processing system has been described, but the configuration is not limited to this configuration, and the medical information processing of the device alone is not limited to this. It can also be configured as a device.
  • the functional configuration of the determination accuracy evaluation device 113 shown in FIG. 1 can be provided inside the radiography control device 101. It is also possible to provide the functional configuration of the radiography control device 101 inside the determination accuracy evaluation device 113. In this case, when the device is configured as a single medical information processing device, it is possible to obtain the same effect as that realized by the above-mentioned medical information processing system.
  • the present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
  • a circuit for example, ASIC

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Primary Health Care (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Data Mining & Analysis (AREA)
  • Epidemiology (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Databases & Information Systems (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

医用情報処理システムは、医用情報に対して判定処理を行う判定部と、判定部による判定結果を通知する通知部と、判定処理の判定結果と、基準となる情報との比較に基づいて、判定処理の判定精度を評価する評価部と、を備える。通知部は、評価部による判定精度の評価が閾値以下の場合に、判定結果の通知を制限する。

Description

医用情報処理システム、医用情報処理装置、医用情報処理システムの制御方法、及びプログラム
 本発明は、医用情報処理システム、医用情報処理装置、医用情報処理システムの制御方法、及びプログラムに関するものである。
 医用情報処理システムにおいて、機械学習を用いてユーザーの傾向や嗜好に沿った情報を提供する機能や、画像解析精度を向上させる機能等が提案されている。特許文献1には機械学習により作成した識別器の判定精度を算出し、最も判定精度に優れた識別器を判定処理に使用する技術が開示されている。
特許第5533662号明細書
 しかしながら、識別器を用いた判定処理において、いずれの識別器も判定精度が十分ではない場合には間違った判定結果がユーザーに頻繁に通知されることになる。これにより、ユーザーは判定結果の確認作業や修正作業を行う頻度が増え、作業効率が低下する場合が生じ得る。
 本発明は上記の課題に鑑みてなされたもので、判定精度の評価が閾値以下の場合に、判定結果の通知を制限することが可能な医用情報処理技術の提供を目的とする。
 本発明の目的を達成するために、本発明の一態様による医用情報処理システムは、医用情報に対して判定処理を行う判定手段と、
 前記判定手段による判定結果を通知する通知手段と、
 前記判定処理の判定結果と、基準となる情報との比較に基づいて、前記判定処理の判定精度を評価する評価手段と、を備え、
 前記通知手段は、前記評価手段による前記判定精度の評価が閾値以下の場合に、前記判定結果の通知を制限することを特徴とする。
 本発明によれば、判定精度の評価が閾値以下の場合に、判定結果の通知を制限することが可能になる。判定精度が閾値に比べて高い状態でユーザーに判定結果が通知される。このため、判定精度の低い判定結果が提供された場合に必要とされる、ユーザーによる判定結果の確認作業や修正作業を行う手間を低減することが可能になる。
 添付図面は明細書に含まれ、その一部を構成し、本発明の実施形態を示し、その記述と共に本発明の原理を説明するために用いられる。
第1実施形態に係る放射線撮影システムの構成例を示す図。 第1実施形態の放射線撮影制御装置における新規検査の入力画面を例示する図。 第1実施形態の放射線撮影制御装置における新規検査の入力画面を例示する図。 第1実施形態の放射線撮影制御装置における新規検査の入力画面を例示する図。 第1実施形態に係る放射線撮影制御装置における撮影画面を例示する図。 第1実施形態に係る判定精度を評価する処理手順を示すフローチャート。 第1実施形態に係る判定結果の通知処理手順を示すフローチャート。 第1実施形態に係る判定結果の通知処理手順の変形例を示すフローチャート。 第1実施形態に係る判定精度が低い旨を通知するアラート画面を例示する図。 第2実施形態に係る放射線撮影システムの構成例を示す図。 第2実施形態に係る識別器のパラメータを更新する処理手順を示すフローチャート。 第3実施形態に係る放射線撮影システムの構成例を示す図。
 以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。以下の実施形態及び特許請求の範囲において、放射線は、X線の他、α線、β線、γ線、及び各種粒子線なども含む。
 図1~図5Bを参照して、本発明の第1実施形態による放射線撮影システムの構成および動作について説明する。
 [第1実施形態]
 <放射線撮影システムの構成>
 図1は、本発明の第1実施形態に係る放射線撮影システムの構成例を示す図である。放射線撮影システム10は、放射線撮影制御装置101、および判定精度評価装置113を有する。放射線撮影システム10において、放射線撮影制御装置101および判定精度評価装置113は、ネットワーク122を介して、HIS117、RIS118、PACS119、プリンタ120、レポートサーバ121と通信可能に接続している。HIS117(Hospital Information System)は放射線撮影の進捗を管理するHIS(Hospital Information System:院内情報システム)である。
 また、RIS118(Radiology Information System)は放射線部門内情報システムであり、PACS119(Picture Archiving and Communication Systems)は画像サーバである。レポートサーバ121には、読影医によって作成された読影レポートが保存される
 HIS117は、会計情報を管理するサーバを含んでいても良い。放射線撮影が必要と判断されると、HIS117の端末より検査指示を入力し、依頼先である放射線部門に伝達する。この依頼情報を検査オーダといい、この検査オーダには依頼元の部門名や、検査項目、被写体130の個人データなどが含まれる。放射線部門はRIS118から送信された検査オーダを受信すると、撮影条件などを付加し、放射線撮影制御装置101へ転送する。
 放射線撮影制御装置101では受信した検査オーダに従って放射線撮影を実施する。放射線撮影制御装置101の撮影制御に基づいて撮影された画像に、検査情報と、画像の解析により取得された医師の判断の補助となる診断支援情報とが付与され、PACS119への転送やプリンタ120でのプリント出力が行われる。また、放射線撮影制御装置101での検査の実施情報は、HIS117へ転送される。HIS117へ転送された検査の実施情報は、検査の進捗管理以外に、検査後の会計処理にも用いられる。読影医はPACS119に転送された画像やプリンタ120でプリントされた画像を確認して読影結果を記載した読影レポートをレポート作成装置(不図示)で作成する。作成された読影レポートはレポートサーバ121で保存される。その後、判定精度評価装置113は、診断支援情報と読影レポートを取得する。判定精度評価装置113は、読影レポートを解析し、解析の結果に基づいて診断支援情報が正しかったか否かを評価する。
 これら各装置間は、例えば、LAN(Local Area Network)やWAN(Wide Area Network)等で構成されるネットワーク122を介して接続されている。なお、これら各装置には、1又は複数のコンピュータが含まれる。コンピュータには、例えば、CPU等の主制御部、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶部が設けられている。また、コンピュータには、ネットワークカード等の通信部、キーボード、ディスプレイ又はタッチパネル等の入出力部等が設けられていてもよい。これら各構成要素は、バス等により接続され、主制御部が記憶部に記憶されたプログラムを読み出して実行することで制御される。
 <放射線撮影制御装置101の構成>
 放射線撮影制御装置101は、表示部102と、操作部103と、判定部104と、放射線発生制御部105と、表示制御部106と、撮影制御部107とを有する。
 放射線発生制御部105は、ケーブル111を介して放射線発生部110と接続されており、放射線発生部110からの放射線の照射を制御する。放射線発生部110は、例えば、放射線管球により実現され、被写体130(例えば、被写体の特定部位)に向けて放射線を照射する。
 撮影制御部107は、放射線撮影制御装置101における処理を統括制御する。表示部102は、例えば、液晶ディスプレイ等で実現され、各種情報をユーザー(撮影技師、医師等)に向けて表示する。操作部103は、例えば、マウスや操作ボタン等で実現され、ユーザーからの各種指示を装置内に入力する。なお、表示部102及び操作部103は、それらが一体となったタッチパネルで実現されてもよい。
 判定部104は過去の診断で得られた医用情報を用いた機械学習による推論を行う識別器であり、医用情報に対して判定処理を行うことにより疾患の推論を行う。ここで医用情報とは検査オーダや画像、読影レポートに含まれる情報であり、複数の情報の組み合わせでもよい。
 また、撮影制御部107は、ケーブル112を介して放射線検出器109と接続されており、ケーブル112により両者の間では、電源、画像信号や制御信号等が授受される。放射線検出器109は、被写体130を透過した放射線を検出し、被写体130を透過した放射線に基づく画像(放射線画像)を取得する検出器として機能する。すなわち、放射線発生部110及び放射線検出器109が連携して動作することにより放射線撮影部が実現される。放射線検出器109は、例えば立位または臥位の撮影台108に設置されている。
 撮影制御部107は、RIS118から受信したオーダ情報のうち少なくとも1つに対応する放射線撮影の開始を指示する指示部として機能する。RIS118から受信したオーダ情報には、例えば被検者情報と被検者についての1または複数の撮影部位が含まれる。ここで、放射線撮影の開始の指示は、例えば、操作部103がユーザーの入力を受けて指示される。あるいは、撮影制御部107が撮影すべきオーダ情報を選択して撮影の開始を指示してもよい。
 放射線撮影を実施すると、表示部102に画像(放射線画像)が表示される。ユーザーは表示された画像に対し、操作部103を介して画像処理、切り出し、アノテーションの付与、幾何変換等の画像編集を実施することが可能である。これらの画像編集は判定部104によって自動で行われてもよい。
 以上が、第1実施形態に係る放射線撮影システムの構成の一例についての説明である。なお、図1に示す構成は、あくまで一例であり、適宜変更することが可能である。例えば、図1では、放射線撮影制御装置101に対してネットワーク122を介して各種装置が接続されているが、必ずしも放射線撮影制御装置101は、このような装置と接続される必要はない。診断画像がDVDのような可搬媒体へ出力され、可搬媒体を介して各種装置へ入力されても良い。また、このネットワーク122は有線で構成されていても、一部が無線信号伝送路で構成されていても良い。また、ケーブル111とケーブル112で行っている通信についても一部が無線信号伝送路で行われても良い。
 <撮影処理>
 図2A~図2Cは、第1実施形態の放射線撮影制御装置における新規検査の入力画面を例示する図であり、第1実施形態に係る放射線撮影制御装置における撮影画面を例示する図である。以下、図1~図3を参照して、放射線撮影システム10による検査の流れに沿って放射線画像を撮影する際の撮影処理の手順を説明する。
 まず、検査依頼書またはRIS118からの検査依頼により放射線撮影制御装置101に対して被写体情報および検査情報が入力される。ここで、被写体情報には、被写体を特定する情報として、被写体名(患者名)、被写体の識別情報(被写体ID)などが含まれ、検査情報には、検査の識別情報(検査ID)、被写体に対して実施する撮影の内容を規定した撮影情報などが含まれる。
 放射線撮影制御装置101は、表示制御部106の表示制御により、図2Aに示すような新規検査の入力画面を表示部102に表示する。新規検査の入力画面の構成には、図2Aに示すように、被写体情報の入力領域201と、被写体情報の確定ボタン202と、依頼検査リスト203とが含まれる。また、新規検査の入力画面の構成には、被写体情報の表示領域204と、撮影情報の表示領域205と、撮影情報入力ボタン206と、検査開始ボタン207とが含まれる。
 表示制御部106は、依頼検査リスト203に、RIS118より受信した検査の情報(被写体情報および検査情報)を並べ、一覧表示の形式で表示するように表示制御を行う。依頼検査リスト203の表示からいずれかの検査が選択されると、図2Bに示すように、被写体情報の表示領域204には、選択された検査に対応する被写体情報(被写体ID、被写体名、生年月日等)が表示される。また、撮影情報の表示領域205には、選択された検査に対応する検査IDが表示され、その下方の領域には、検査IDに対応する撮影情報が表示される。表示制御部106は、上述した通り、RIS118から受信した情報に基づいた撮影情報を表示することが可能である。
 図2Bの例の場合、表示制御部106は、撮影情報に対応した撮影方法ボタン209(例えば、胸部正面ボタン209a、胸部側面ボタン209b)を撮影情報の表示領域205に表示するように表示制御を行う。撮影情報入力ボタン206の押下に従って、図2Cに示すように、表示制御部106は、撮影情報入力領域208を表示部102に表示するように表示制御を行う。撮影情報入力領域208に表示された複数の撮影方法の選択ボタン210が選択されることにより、さらに撮影方法を追加することもできる。表示制御部106は、追加された撮影方法を撮影情報の表示領域205に、胸部正面ボタン209aと、胸部側面ボタン209bとを並べて表示するように表示制御を行う。各撮影方法は撮影方法IDと対応付けられている。
 ユーザーは、被写体情報(被写体情報の表示領域204)及び撮影情報(撮影情報の表示領域205)を確認した後、検査開始ボタン207を押下する。これにより、実施する検査が確定する。検査開始ボタン207の押下に従って、放射線撮影制御装置101の表示制御部106は、図3に示すような撮影画面を表示部102に表示する。図3に示す撮影画面は、撮影時に用いられる画面である。
 図3に示す撮影画面は、基本的には、図2A~図2Cで説明した新規検査の入力画面と同様の表示領域を有して構成される。新たに追加される表示領域としては、図3に示すように、画像表示領域301と、メッセージ領域302と、画像処理設定領域303と、検査終了ボタン304とが挙げられる。
 撮影画面が表示されると、表示制御部106は、撮影情報の表示領域205内で最も上部に配された撮影方法ボタン209(例えば、胸部正面ボタン209a)をデフォルトで選択された状態で表示するように表示制御を行う。これに伴って、放射線撮影制御装置101の撮影制御部107は、選択された撮影方法ボタン(撮影方法)に対応して設定された撮影条件(管電圧、管電流、照射時間等)を放射線発生制御部105に向けて送信する。そして、撮影制御部107は、設定された撮影条件に従って放射線検出器109を制御して撮影の準備を整える。
 準備が整うと、放射線撮影制御装置101の撮影制御部107は、放射線検出器109の状態を撮影可能状態へ遷移させる。このとき、表示制御部106はメッセージ領域302に、撮影可能状態であることを示す「Readyメッセージ」を表示するように表示制御を行う。
 続いて、ユーザーは、撮影方法を確認し、撮影のセッティング及び被写体のポジショニングを行う。一連の撮影準備が完了すると、ユーザーは、メッセージ領域302を参照して撮影可能状態であることを確認した後、放射線照射スイッチ(不図示)を押下する。すると、放射線撮影制御装置101の撮影制御部107は、放射線発生部110により被写体130(患者の特定部位)に向けて放射線を照射させ、放射線検出器109により被写体130を透過した放射線を検出させる。これにより、放射線画像の撮影が行われる。
 撮影が完了すると、放射線撮影制御装置101の撮影制御部107は、放射線検出器109から撮影画像を取得するとともに、取得した撮影画像に対して所定の画像処理条件に基づいて画像処理を実施する。所定の画像処理条件は、選択された撮影方法ボタン(撮影方法)に対応して予め規定されている。
 画像処理が終了すると、放射線撮影制御装置101は、判定部104で推論を行い、判定部104の推論結果に基づいて、表示制御部106は表示部102の表示領域に診断支援情報を提示するように表示制御を行う。実施形態では疾患名を通知するコンピュータ支援診断システムを例に挙げて説明する。具体的には、判定部104は、撮影した画像を解析することで画像所見を取得し、画像所見と疾患名との関係を学習した識別器を用いて、画像所見から疾患名を推論する。判定部104の推論結果は、表示制御部106の表示制御に基づいて表示部102に表示したり、判定部104が、DICOM(Digigal Imaging and Communications in Medicine)規格に従い、推論結果を構造化レポートやキー画像オブジェクトとして出力したりすることでユーザーに通知してもよい。
 また、放射線撮影制御装置101の表示制御部106は、画像処理された撮影画像を画像表示領域301に表示するように表示制御を行う。ユーザーは、画像表示領域301に表示された撮影画像を確認し、撮影画像のコントラスト等を変更する場合、画像処理設定領域303に設けられたコントラストや輝度等のボタンを操作する。
 同様に、出力画像の切り出し領域を変更する場合、ユーザーは、切り出しボタン307および切り出し枠312等を操作し、所望の切り出し領域を指定する。診断情報となる文字列を付与する場合、ユーザーは、アノテーションボタン308等を操作し、図形オブジェクトや文字列などを画像上に重ねる。画像の向きが診断に適さない場合、ユーザーは、回転ボタン305、反転ボタン306等を使って幾何変換を行う。以上のように、ユーザーは、各種のボタンを操作することにより、画像表示領域301に表示された撮影画像に対して追加の画像編集を実施することが可能である。
 ユーザーは、上述した手順を繰り返して撮影情報の表示領域205内の全撮影方法の撮影を実施する。全ての撮影が終了すると、ユーザーは、検査終了ボタン304を押下する。これにより、一連の検査が終了し、放射線撮影制御装置101は、再度、新規検査の入力画面を表示する(図2A)。
 このとき、放射線撮影制御装置101の撮影制御部107は、写損として扱われなかった診断画像に、その検査情報、及び撮影条件等を付帯情報として付与し、推論結果が記録されたレポート情報(構造化レポート)やキー画像オブジェクトと関連付けたうえで、例えば、PACS119、プリンタ120、自装置におけるROM等に出力する。なお、PACS119やROM等においては、撮影画像と被写体情報とは関連付けて格納される。
 <判定精度評価処理>
 図1に示す判定精度評価装置113によって判定部104における推論結果における精度(判定精度)を評価する際の処理の手順を説明する。評価データ取得部114はネットワーク122を経由して評価データを取得する。評価データは、判定部104による推論結果と、推論処理(判定処理)における正解を示す正解データとから構成される。例えば、評価データ取得部114は、推論結果を放射線撮影制御装置101から構造化レポートとして取得し、正解データをレポートサーバ121に保持されている読影レポートから取得することが可能である。評価データ取得部114で取得された推論結果と正解データは、検査情報(検査ID、画像ID)に関連付けられて、評価データ記憶部116に保持される。判定精度評価部115は評価データ記憶部116から評価データ(推論結果および正解データ)を読み出し、推論結果と正解データを比較し、推論結果における精度(判定精度)を算出する。
 図4は、判定精度評価部115により判定精度を評価する処理手順を示すフローチャートであり、図4を参照して、判定精度評価部115が実行する判定精度を評価する処理の流れを説明する。
 ステップS401において、判定精度評価部115は、評価データ記憶部116から正解データ(以下、正解疾患名ともいう)を取得する。
 ステップS402において、判定精度評価部115は、評価データ記憶部116から推論結果(以下、推論疾患名)を取得する。
 ステップS403において、判定精度評価部115は、正解疾患名と推論疾患名とを比較し、正解疾患名と推論疾患名とが一致すれば正解と評価し、正解疾患名と推論疾患名とが一致しなければ不正解と評価する。
 ステップS404において、判定精度評価部115は、比較処理が行われていない未比較の推論結果があるか否かを判定する。未比較の推論結果が有る場合(S404-Yes)、判定精度評価部115は処理をステップS401に戻し、同様の処理を繰り返し実行する。一方、ステップS404の判定で、未比較の推論結果が無い場合(S404-No)、判定精度評価部115は処理をステップS405に進める。
 すべての比較が完了すると(S404-No)、ステップS405において、判定精度評価部115は、全ての比較結果の判定精度を算出する。例えば、推論結果が100例の場合において、推論結果と正解データとの比較に基づいて、100例中90例が正解であった場合、判定精度評価部115は、判定精度として、90%(=90/100×100)を算出する。判定精度評価部115は、算出した判定精度を、ネットワーク122を介して放射線撮影制御装置101に通知する。
 なお、本実施形態ではすべての評価データを用いて、判定精度を評価する処理手順を説明したが、評価データが作成された日付や、評価データ記憶部116に記憶されている評価データ数、例えば、最新の200件で判定精度を算出するなど、判定精度評価部115が取得する、正解データ(正解疾患名)及び推論結果(推論疾患名)の範囲を限定することにより、判定精度を算出する評価データの範囲を限定することも可能である。
 <判定結果通知処理>
 図1に示す放射線撮影制御装置101の判定部104における判定結果を通知する処理の手順の詳細を説明する。図5Aは判定部104による判定結果の通知処理手順を示すフローチャートであり、図5Aを参照して、判定部104が実行する判定結果の通知処理の流れを説明する。
 ステップS501において、判定部104は、撮影された画像を解析し、画像所見を取得する。
 ステップS502において、判定部104は、医用情報に対して判定処理を行う。本ステップで、判定部104は画像所見と疾患名との関係を学習した識別器を用いて画像所見から疾患名を推論する。
 ステップS503において、判定部104は、先述の判定精度評価処理で算出された判定精度と閾値とを比較する。ここで閾値とは事前に設定された任意の値である。判定精度が閾値より高い場合、例えば、閾値に80%が設定されており、最新の判定精度が90%であった場合(S503-Yes)、判定部104は処理をステップS504に進める。そして、ステップS504において、表示制御部106は判定部104による判定結果をユーザーに通知する通知部として機能する。例えば、表示制御部106は、表示部102に推論結果を表示させたり、撮影制御部107がレポート情報(構造化レポート)やキー画像オブジェクトに推論結果を入力してPACS119に出力したりすることでユーザーに推論結果を通知する。
 一方、ステップS503の判定処理で、判定精度が閾値以下の場合(S503-No)、処理はステップS505に進められる。表示制御部106(通知部)は、判定精度評価部115による判定精度の評価が閾値以下の場合に、ユーザーに対する判定結果の通知を制限する。表示制御部106(通知部)は、判定精度の評価が閾値以下の状態で、判定部104に入力される医用情報に対する判定結果の通知を制限する。
 そして、ステップS505において、撮影制御部107はレポート情報(構造化レポート)やキー画像オブジェクトに推論結果を入力して判定精度評価装置113に推論結果を通知する。例えば、閾値に95%が設定されており、最新の判定精度が90%であった場合(S503-No)、ステップS504の処理はスキップされ、推論結果はユーザーには通知されず、ステップS505で判定精度評価装置113のみに通知される。
 判定精度が閾値以下であり、推論結果がユーザーに通知されない場合、ユーザーは、例えば、撮影時の放射線量を変更して画質を改善したり、切り出しボタン307および切り出し枠312等を操作して、画像中の不要な部分を除いたりすることで、判定精度の向上を図ることができる。ユーザーに推論結果が通知されない間も、ステップS505において、判定精度評価装置113へ推論結果が通知され、最新の判定精度が更新される。判定精度評価装置113における判定精度評価処理において算出される判定精度が向上し、判定精度が閾値より高くなった場合、推論結果がユーザーに通知されるようになる。
 判定結果通知処理の結果、識別器の判定精度が閾値に比べて高い状態で(判定精度が閾値に比べて高い期間のみ)ユーザーに推論結果が通知される。このため、判定精度の低い推論結果が提供された場合に必要とされる、ユーザーによる推論結果の確認作業や修正作業を行う手間を低減することが可能になる。
 なお、図5Aで説明した判定結果の通知処理手順では、ユーザーへの推論結果の通知をするか否かを自動で切り替える説明をしたが、本実施形態における判定結果通知処理は、この例に限定されず、例えば、図5Bに示すように判定結果通知処理を行うことも可能である。
 図5Bは判定結果の通知処理手順の変形例を示すフローチャートである。図5Bのフローチャートにおいて、ステップS501~S505の処理内容は図5Aのフローチャートと同様の処理内容であり、ユーザーに対して、判定部104の判定結果(推論結果)の通知の制限を解除(通知を許可)するか否か切り替えるステップ(S506)を有する点で、図5Aのフローチャートと相違する。
 ステップS506において、表示制御部106は、図6のアラート画面601を表示部102に表示するように表示制御を行い、ユーザーに推論結果を通知するか否か切り替える。ここで、図6は判定精度が低い旨を通知するアラート画面を例示する図であり、アラート画面601には、最新の判定精度602と、現在設定されている閾値603とが表示されている。ユーザーは閾値603を変更することで、次回からの推論結果のユーザー通知をするか否かを変更することができる。また、図6のアラート画面601には、判定部104の今回の判定結果(推論結果)を通知するか否かを設定することが可能な設定部(チェックボックス604)が表示されている。表示制御部106は、判定精度評価部115による判定精度の評価結果と、設定部(チェックボックス604)とを、表示部102に表示させる。
 設定部(チェックボックス604)は、制限されている判定結果の通知を許可するか否かを操作入力に基づいて設定することが可能であり、設定部(チェックボックス604)の入力欄にチェックを入力してチェックボックス604を有効にした状態は、通知を許可する設定がされている状態である。ユーザーが設定確定部(OKボタン605)を押下すると(S506-Yes)、処理はステップS504に進められ、判定部104の今回の判定結果(推論結果)がユーザーに通知される。ここで、設定部(チェックボックス604)および設定確定部(OKボタン605)は表示制御部106(通知部)による判定結果の通知の制限を解除する解除部として機能し、設定部(チェックボックス604)により通知を許可する設定がされている場合、表示制御部106(通知部)による判定結果の通知の制限が解除される。すなわち、ステップS503の判定処理で、判定精度が閾値以下の場合(S503-No)であっても、ステップS506の判定処理を行うことにより、ユーザーに推論結果を通知するか否か切り替えることができる。
 そして、ステップS504において、表示制御部106は表示部102に推論結果を表示させたり、撮影制御部107がレポート情報(構造化レポート)やキー画像オブジェクトに推論結果を入力してPACS119に出力したりすることでユーザーに推論結果を通知する。
 一方、ユーザーがキャンセルボタン(Cancelボタン606)を押下した場合、表示制御部106はアラート画面601の表示を初期値に戻され(S506-No)、処理はステップS505に進められる。そして、ステップS505において、撮影制御部107はレポート情報(構造化レポート)やキー画像オブジェクトに推論結果を入力して判定精度評価装置113に推論結果を通知する。
 本実施形態によれば、識別器の判定精度が閾値に比べて高い状態でユーザーに推論結果が通知される。このため、判定精度の低い推論結果が提供された場合に必要とされる、ユーザーによる推論結果の確認作業や修正作業を行う手間を低減することが可能になる。
 尚、本実施形態では疾患名を通知するコンピュータ支援診断システムを例として説明したが、本発明の実施形態は、この例に限定されず、例えば、関心領域や照射野、撮影部位を認識する機能、腫瘤の位置および/または悪性度等の診断支援情報を提供する機能等、機械学習システムを用いた種々の医用情報処理システムや医用情報処理装置に適用可能である。
 [第2実施形態]
 第2実施形態では、判定部104の識別器の判定精度を機械学習によって向上させる構成について説明する。本実施形態に係る放射線撮影システムの基本的な構成は、第1実施形態の図1で説明した構成と同様である。以下の説明では、放射線撮影システムにおいて、第1実施形態における構成と異なる放射線撮影システムの構成を中心に説明する。
 図7は第2実施形態に係る放射線撮影システム20の構成例を示す図である。図7において、第1実施形態(図1)と同様の構成には図1と同一の参照番号を付してある。図7に示す通り、第2実施形態の放射線撮影システム20の構成は第1実施形態の構成(図1)に加えて、判定精度評価装置113が機械学習部123を有する点で図1の放射線撮影システム10の構成と相違する。
 図7において、評価データ取得部114はネットワーク122を経由して評価データを取得する。評価データは、判定部104による推論結果と、推論を行うために用いられた画像と、推論処理(判定処理)における正解を示す正解データとから構成される。例えば、評価データ取得部114は、推論を行うために用いられた画像と推論結果を放射線撮影制御装置101から撮影画像と、撮影画像に関連付けられた構造化レポートとして取得し、正解データをレポートサーバ121に保持されている読影レポートから取得することが可能である。
 評価データ取得部114で取得された推論結果と推論を行うために用いられた画像と正解データは、検査情報(検査ID、画像ID)に関連付けられて、評価データ記憶部116に保持される。判定精度評価部115は、判定処理の判定結果(推論結果)と、基準となる情報(正解データ)との比較に基づいて、判定処理の判定精度を評価する。具体的には、判定精度評価部115は評価データ記憶部116から評価データ(推論結果、推論を行うために用いられた画像および正解データ)を読み出し、判定結果(推論結果)と基準となる情報(正解データ)を比較し、推論結果における精度(判定精度)を算出する。
 機械学習部123は医用情報を用いた機械学習により、判定部104の識別器に設定するパラメータを取得する。機械学習部123は評価データ記憶部116から評価データを読み出し、推論に用いられた画像を解析することで画像所見を取得し、画像所見と正解データに含まれる疾患名との関係を学習する。
 図8は第2実施形態に係る判定部104における識別器のパラメータを更新する処理手順を示すフローチャートである。ステップS801において、判定精度評価部115は算出された現在の判定精度と任意に設定された閾値とを比較し、現在の判定精度が閾値より高い場合(S801-Yes)、判定精度評価部115は本処理を終了させる。一方、ステップS801の判定で、現在の判定精度が閾値以下の場合(S801-No)、判定精度評価部115は処理をステップS802に進める。
 ステップS802において、機械学習部123は医用情報を用いた機械学習を実施する。画像データと疾患名の組み合わせを学習用データとする。機械学習部123は推論に用いられた画像を解析することで画像所見を取得して、画像所見と正解データに含まれる疾患名との関係を学習する。
 ステップS803において、判定精度評価部115は、機械学習部123により取得されたパラメータを用いて、機械学習後の判定精度を算出し、機械学習後の判定精度と機械学習前の判定精度とを比較する。学習後の判定精度が学習前の判定精度以下の場合(S803-No)、判定精度評価部115は本処理を終了させる。この場合、放射線撮影制御装置101の判定部104における識別器のパラメータの更新は行われない。
 一方、ステップS803の判定で、学習後の判定精度が学習前の判定精度より高い場合(S803-Yes)、判定精度評価部115は処理をステップS804に進める。
 ステップS804において、判定精度評価部115の比較により、機械学習後の判定精度が機械学習前の判定精度より高い場合、判定部104は、機械学習部123により取得されたパラメータを用いて、判定部104の識別器のパラメータの設定を更新する。判定精度評価部115は、機械学習部123により取得されたパラメータを、ネットワーク122を介して放射線撮影制御装置101に送信し、判定部104は判定精度評価部115から送信されたパラメータに基づいて識別器のパラメータを更新する。
 第2実施形態によれば、判定精度が閾値以下の場合に自動で判定精度を改善するように機械学習が実施されるため、判定部104の識別器の判定精度を機械学習によって向上させることが可能になる。これにより、判定精度が閾値に比べて低い状態(判定精度が閾値に比べて低い期間)を短縮化すること、すなわち、識別器の判定精度が閾値に比べて高い状態(判定精度が閾値に比べて高い期間)を、より長くすることが可能になる。
 本実施形態では、画像データと疾患名の組み合わせを学習用データとした例を説明したが、この例に限定されるものではない。例えば、画像データ、診断情報、遺伝子情報、複数のモダリティの検査情報、被写体情報(性別、年齢、身長など)のいずれかを機械学習の学習用データとして用いる、種々のシステムにも適用可能である。また、図8のステップS801において、判定精度と閾値との比較結果に基づいて、機械学習を実施するか否かを判定したが、機械学習を実施する判定基準は、この例に限定されず、例えば、前回の機械学習の実施日からの経過情報(経過日数や経過時間など)や、未学習画像の数量情報(枚数、個数など)を判断基準にして、機械学習を実施するか否かを判定することも可能である。
 [第3実施形態]
 第3実施形態では、判定部104の識別器の判定精度が低いことをサービスマンに通知する構成について説明する。本実施形態に係る放射線撮影システムの基本的な構成は、第1実施形態の図1で説明した構成や第2実施形態の図7で説明した構成と同様である。以下の説明では、放射線撮影システムにおいて、第2実施形態における構成と異なる放射線撮影システムの構成を中心に説明する。
 図9は第3実施形態に係る放射線撮影システム30の構成例を示す図である。図9において、第2実施形態(図7)と同様の構成には図7と同一の参照番号を付してある。図9に示す通り、第3実施形態の放射線撮影システム30の構成は第2実施形態の構成(図7)に加えて、外部装置124が外部ネットワーク125を介してネットワーク122に接続している点で図7の放射線撮影システム20の構成と相違する。
 図9において、外部装置124は外部ネットワーク125を経由してネットワーク122に接続されている。判定精度評価部115が現在の判定精度と任意に設定された閾値とを比較し、現在の判定精度が閾値以下の場合、判定精度評価部115は現在の判定精度と閾値との評価結果を、ネットワーク122を介して外部装置124に報知する。
 報知を受けた保守者(サービスマン)の操作入力に基づいて、外部装置124は、ネットワーク122を介したリモート操作による制御(遠隔制御)により機械学習部123に機械学習を実施させ、判定精度の改善を図る。機械学習部123は、外部装置124からの制御(遠隔制御)に基づいて機械学習を行う。または、報知を受けたサービスマンが機械学習部123を操作して機械学習部123に機械学習を実施させ判定精度の改善を図る。機械学習部123は、リモート操作による制御(遠隔制御)または保守者の操作に基づいて、機械学習を実施する。機械学習部123による機械学習では、画像データと疾患名の組み合わせを学習用データとする。機械学習部123は推論に用いられた画像を解析することで画像所見を取得して、画像所見と正解データに含まれる疾患名との関係を学習する。
 機械学習後の処理は、例えば、第2実施形態で説明した図8のステップS803以降の処理と同様であり、学習後の判定精度が学習前の判定精度より高い場合(S803-Yes)、判定精度評価部115は機械学習によって得られたパラメータを、ネットワーク122を介して放射線撮影制御装置101に送信し、判定部104は判定精度評価部115から送信されたパラメータに基づいて識別器のパラメータを更新する(S804)。
 第3実施形態によれば、判定精度が閾値に比べて低い場合、保守者による外部装置124からのリモート操作に基づいた制御(遠隔制御)や保守者の直接操作により迅速に判定精度の向上を図ることができる。これにより、判定精度が閾値に比べて低い状態(判定精度が閾値に比べて低い期間)を短縮化すること、すなわち、識別器の判定精度が閾値に比べて高い状態(判定精度が閾値に比べて高い期間)を、より長くすることが可能になる。
 尚、本実施形態では、判定精度が閾値を下回った場合(図8のS801で説明した判定精度が閾値以下の場合)に、保守者に通知する例を説明したが、この例に限定されず、機械学習部123による機械学習を実施しても判定精度が上がらなかった場合にも適用することができる。判定精度評価部115は、機械学習部123の機械学習後の判定精度が機械学習前の判定精度以下の場合、機械学習後の判定精度の評価結果を外部装置124に報知することも可能である。例えば、図8のステップS803において、学習後の判定精度が学習前の判定精度以下の場合(S803-No)に、判定精度評価部115が、機械学習後の判定精度の評価結果を、ネットワーク122を介して外部装置124へ送信し、保守者に報知するようにしてもよい。
 この場合においても、保守者による外部装置124からのリモート操作に基づいた制御(遠隔制御)や保守者の直接操作により、機械学習部123は機械学習を再度実施することにより、判定精度の改善を図ることも可能である。
 [第4実施形態]
 第1実施形態~第3実施形態では、医用情報処理システムとして、放射線撮影制御装置101、および判定精度評価装置113を有する構成について説明したが、この構成に限定されず、装置単体の医用情報処理装置として構成することも可能である。例えば、図1に示す判定精度評価装置113の機能構成を放射線撮影制御装置101の内部に設けることも可能である。また、放射線撮影制御装置101の機能構成を判定精度評価装置113の内部に設けることも可能である。この場合、装置単体の医用情報処理装置として構成した場合、上述の医用情報処理システムにより実現される効果と同様の効果を得ることが可能である。
 すなわち、上記の各実施形態によれば、判定精度の評価が閾値以下の場合に、判定結果の通知を制限することが可能になる。判定精度が閾値に比べて高い状態でユーザーに判定結果が通知される。このため、判定精度の低い判定結果が提供された場合に必要とされる、ユーザーによる判定結果の確認作業や修正作業を行う手間を低減することが可能になる。
 [その他の実施形態]
 本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
 本発明は上記実施形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
 本願は、2020年1月29日提出の日本国特許出願特願2020-012888を基礎として優先権を主張するものであり、その記載内容の全てを、ここに援用する。
 101 放射線撮影制御装置
 102 表示部
 104 判定部
 106 表示制御部
 107 撮影制御部
 109 放射線検出器
 113 機械学習制御装置
 114 学習・評価用データ取得部
 115 学習・評価用データ記憶部
 116 判定精度評価部
 122 ネットワーク
 123 条件設定部
 124 機械学習部

Claims (13)

  1.  医用情報に対して判定処理を行う判定手段と、
     前記判定手段による判定結果を通知する通知手段と、
     前記判定処理の判定結果と、基準となる情報との比較に基づいて、前記判定処理の判定精度を評価する評価手段と、を備え、
     前記通知手段は、前記評価手段による前記判定精度の評価が閾値以下の場合に、前記判定結果の通知を制限することを特徴とする医用情報処理システム。
  2.  前記通知手段は、前記判定精度の評価が閾値以下の状態で、前記判定手段に入力される医用情報に対する判定結果の通知を制限することを特徴とする請求項1に記載の医用情報処理システム。
  3.  前記判定結果の通知を許可するか否かを操作入力に基づいて設定する設定手段と、
     前記設定手段の設定に基づいて、前記通知手段による前記判定結果の通知の制限を解除する解除手段と、を更に備えることを特徴とする請求項1または2に記載の医用情報処理システム。
  4.  前記解除手段は、前記設定手段により前記通知を許可する設定がされている場合、前記通知手段による前記判定結果の通知の制限を解除することを特徴とする請求項3に記載の医用情報処理システム。
  5.  前記医用情報を用いた機械学習により、前記判定手段に設定するパラメータを取得する機械学習手段を更に備え、
     前記評価手段は、前記機械学習手段により取得された前記パラメータを用いて、機械学習後の判定精度を算出し、当該機械学習後の判定精度と機械学習前の判定精度とを比較することを特徴とする請求項1乃至4のいずれか1項に記載の医用情報処理システム。
  6.  前記評価手段の前記比較により、前記機械学習後の判定精度が前記機械学習前の判定精度より高い場合、前記判定手段は、前記機械学習手段により取得された前記パラメータを用いて、当該判定手段の設定を更新することを特徴とする請求項5に記載の医用情報処理システム。
  7.  前記評価手段は、前記判定精度と閾値とを比較し、前記判定精度が閾値以下の場合、当該判定精度と前記閾値との評価結果を外部装置に報知することを特徴とする請求項5または6に記載の医用情報処理システム。
  8.  前記評価手段は、前記機械学習後の判定精度が前記機械学習前の判定精度以下の場合、当該機械学習後の判定精度の評価結果を外部装置に報知することを特徴とする請求項5または6に記載の医用情報処理システム。
  9.  前記機械学習手段は、前記外部装置からの制御に基づいて前記機械学習を行うことを特徴とする請求項7または8に記載の医用情報処理システム。
  10.  前記評価手段による前記判定精度の評価結果と、前記設定手段とを、表示手段に表示させる表示制御手段を更に備えることを特徴とする請求項3に記載の医用情報処理システム。
  11.  医用情報に対して判定処理を行う判定手段と、
     前記判定手段による判定結果を通知する通知手段と、
     前記判定処理の判定精度を基準となる情報との比較に基づいて評価する評価手段と、を備え、
     前記通知手段は、前記評価手段による前記判定精度の評価が閾値以下の場合に、前記判定結果の通知を制限することを特徴とする医用情報処理装置。
  12.  医用情報処理システムの制御方法であって、
     判定手段が、医用情報に対して判定処理を行う判定工程と、
     通知手段が、前記判定工程による判定結果を通知する通知工程と、
     評価手段が、前記判定処理の判定結果と、基準となる情報との比較に基づいて、前記判定処理の判定精度を評価する評価工程と、
     前記通知手段が、前記評価工程による前記判定精度の評価が閾値以下の場合に、前記判定結果の通知を制限する制限工程と、
     を有することを特徴とする医用情報処理システムの制御方法。
  13.  コンピュータに、請求項12に記載の医用情報処理システムの制御方法の各工程を実行させるプログラム。
PCT/JP2021/001717 2020-01-29 2021-01-19 医用情報処理システム、医用情報処理装置、医用情報処理システムの制御方法、及びプログラム WO2021153355A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-012888 2020-01-29
JP2020012888A JP2021117927A (ja) 2020-01-29 2020-01-29 医用情報処理システム、医用情報処理装置、医用情報処理システムの制御方法、及びプログラム

Publications (1)

Publication Number Publication Date
WO2021153355A1 true WO2021153355A1 (ja) 2021-08-05

Family

ID=77078537

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/001717 WO2021153355A1 (ja) 2020-01-29 2021-01-19 医用情報処理システム、医用情報処理装置、医用情報処理システムの制御方法、及びプログラム

Country Status (2)

Country Link
JP (1) JP2021117927A (ja)
WO (1) WO2021153355A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010050333A1 (ja) * 2008-10-30 2010-05-06 コニカミノルタエムジー株式会社 情報処理装置
JP2018509962A (ja) * 2015-02-26 2018-04-12 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 医療用モニタリングのためのコンテキスト検出
JP2019093137A (ja) * 2017-11-22 2019-06-20 ゼネラル・エレクトリック・カンパニイ 放射線学的所見のためのポイントオブケア警報を送達するためのシステムおよび方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010050333A1 (ja) * 2008-10-30 2010-05-06 コニカミノルタエムジー株式会社 情報処理装置
JP2018509962A (ja) * 2015-02-26 2018-04-12 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 医療用モニタリングのためのコンテキスト検出
JP2019093137A (ja) * 2017-11-22 2019-06-20 ゼネラル・エレクトリック・カンパニイ 放射線学的所見のためのポイントオブケア警報を送達するためのシステムおよび方法

Also Published As

Publication number Publication date
JP2021117927A (ja) 2021-08-10

Similar Documents

Publication Publication Date Title
JP6397178B2 (ja) 制御装置、制御装置の動作方法およびプログラム
CN110338823B (zh) 信息处理装置及方法、放射线摄影装置及系统和存储介质
JP2011050518A (ja) 放射線撮影装置及びその処理方法
KR20130103689A (ko) 정보처리장치 및 정보처리방법
JP2003245270A (ja) 医用画像処理装置、医用画像処理方法、及びプログラム
JP2013215273A (ja) 放射線撮影システム、制御装置、及び制御方法
JP6132483B2 (ja) 放射線撮影制御装置および方法
WO2021153355A1 (ja) 医用情報処理システム、医用情報処理装置、医用情報処理システムの制御方法、及びプログラム
JP7094691B2 (ja) 放射線撮影システム、放射線撮影方法、制御装置及びプログラム
JP2017192453A (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP2006000376A (ja) 医用画像撮影システム、情報処理装置
WO2021153314A1 (ja) 医用情報処理システム、医用情報処理装置、医用情報処理システムの制御方法、及びプログラム
JP6871687B2 (ja) 放射線撮影制御装置、放射線撮影制御装置の制御方法及びプログラム
JP5968153B2 (ja) 制御装置、制御方法、及びプログラム
JP2004073421A (ja) 医用画像管理装置、医用画像管理方法及びプログラム
JP2006102044A (ja) 医用画像処理システム及び医用画像処理方法
JP2004305272A (ja) 医用画像表示方法及び医用画像表示システム
CN113164130A (zh) 医学信息处理系统、医学信息处理方法和程序
JP2006122304A (ja) 放射線画像撮影システム
CN110881989A (zh) 放射线摄影系统、放射线摄影方法以及存储介质
JP5019933B2 (ja) コンテンツ提供装置、及びその作動方法
JP2013210966A (ja) 医療用検査装置および方法
JP2013180064A (ja) 放射線撮影装置及び放射線撮影装置の制御方法、放射線撮影情報の処理装置及び放射線撮影情報の表示処理方法
JP2007117574A (ja) 小規模診断システム
JP2023184160A (ja) 制御装置、制御方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21747510

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21747510

Country of ref document: EP

Kind code of ref document: A1