WO2024090585A1 - 解析装置、解析方法、解析プログラム及び記録媒体 - Google Patents

解析装置、解析方法、解析プログラム及び記録媒体 Download PDF

Info

Publication number
WO2024090585A1
WO2024090585A1 PCT/JP2023/039051 JP2023039051W WO2024090585A1 WO 2024090585 A1 WO2024090585 A1 WO 2024090585A1 JP 2023039051 W JP2023039051 W JP 2023039051W WO 2024090585 A1 WO2024090585 A1 WO 2024090585A1
Authority
WO
WIPO (PCT)
Prior art keywords
analysis
image data
identification information
data
unit
Prior art date
Application number
PCT/JP2023/039051
Other languages
English (en)
French (fr)
Inventor
健一 渡辺
信太郎 本多
貴朗 白鳥
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Publication of WO2024090585A1 publication Critical patent/WO2024090585A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS

Definitions

  • This disclosure relates to an analysis device, an analysis method, an analysis program, and a recording medium.
  • Patent Document 1 discloses a medical system having a medical device for observing a subject and a network device capable of communicating with the medical device.
  • An analysis device includes an acquisition unit that acquires medical data of a subject and second identification information, which is an encrypted version of the subject's first identification information, from a user terminal, an analysis unit that analyzes the acquired medical data, and a transmission unit that transmits the analysis results of the analysis by the analysis unit and the second identification information to the user terminal.
  • An analysis method includes at least one processor acquiring, from a user terminal, medical data of a subject and second identification information obtained by encrypting the first identification information of the subject, analyzing the acquired medical data, and transmitting the analysis results and the second identification information to the user terminal.
  • the analysis device may be realized by a computer.
  • the control program of the analysis system that causes the computer to operate as each part (software element) of the analysis system to realize the analysis system, and the computer-readable non-transitory recording medium on which it is recorded, also fall within the scope of the present disclosure.
  • FIG. 1 is a block diagram showing a configuration of an analysis system according to a first embodiment of the present disclosure.
  • FIG. 2 is a schematic diagram showing a part of the flow of data transmitted and received between an analysis device and a user terminal.
  • 10 is a flowchart showing a process flow of an analysis method executed by a control unit.
  • FIG. 11 is a block diagram showing a configuration of an analysis system according to a second embodiment of the present disclosure.
  • FIG. 13 is a diagram illustrating an example of a browser image.
  • FIG. 1 is a diagram showing an example of X-ray image data for which a bone density analysis is requested.
  • 13 is a schematic diagram showing an example of a browser image of an analysis result transmitted by a transmitting unit;
  • FIG. 13 is a diagram showing an example of a browser image on which derivation basis data is added in addition to analysis result data.
  • FIG. 9 is an enlarged schematic diagram of an image of the area shown in FIG. 8 .
  • FIG. 13 is a diagram showing an example of a browser image displaying a patient's current and future risk of fracture.
  • FIG. 1 is a block diagram showing a configuration of an analysis system 70 according to a first embodiment of the present disclosure.
  • the analysis system 70 can be used in a system for remotely analyzing images.
  • the analysis system 70 includes, for example, an analysis device 1 that analyzes medical data and a user terminal 20.
  • the analysis device 1 and the user terminal 20 are connected to be able to communicate with each other via the Internet.
  • the analysis system 70 accepts image analysis requests from the user terminal 20 via an information and communication network such as the Internet.
  • the analysis device 1 is a system that analyzes medical data to be analyzed that is sent from the user terminal 20, and returns the analysis results to the user terminal 20 via the Internet.
  • a user may be anyone who requests the analysis of medical data from the analysis system 70. Users are, for example, medical personnel such as doctors, medical technicians, and nurses, but are not limited to these.
  • the medical data is image data 301.
  • the medical data is not limited to image data 301, and for example, blood data, blood flow data, walking data, etc. may be used as medical data.
  • the analysis system 70 may analyze, for example, the blood data to perform a movement analysis of the patient.
  • each medical institution may have its own user terminal 201, 202, 203.
  • the user accesses the analysis device 1, for example, via the Internet, and requests analysis of the image data 301 from a screen displayed on a webpage. If a request for analysis of the same image data 301 is made from different user terminals 20, each image data 301 may be linked to the identification information of that terminal, saved, and analyzed.
  • the image data may be in a format that complies with DICOM (Digital Imaging and Communications in Medicine).
  • User terminal 20 may be, for example, a stationary personal computer equipped with a communication function, or a mobile terminal such as a tablet terminal. Since there may be multiple users, multiple user terminals are illustrated as 201, 202, 203, etc., but hereinafter, unless otherwise specified, the target terminal representing all terminals will be referred to as user terminal 20.
  • the analysis device 1 includes a control unit 16 that controls each part of the analysis device 1, a memory unit 17 that stores various data used by the control unit 16, and a communication unit 15 for communicating with other devices.
  • the control unit 16 includes a communication control unit 11 (transmission unit) that controls the communication unit 15, an acquisition unit 12 that acquires data transmitted from the user terminal 20 via the communication control unit 11, and an analysis unit 13 that analyzes the image data 301.
  • a communication control unit 11 transmission unit
  • an acquisition unit 12 acquisition unit 12 that acquires data transmitted from the user terminal 20 via the communication control unit 11
  • an analysis unit 13 that analyzes the image data 301.
  • the control unit 16 has at least one processor and at least one memory.
  • the processor can be configured using a general-purpose processor such as at least one MPU (Micro Processing Unit) or CPU (Central Processing Unit).
  • the memory may have multiple types of memory such as ROM (Read Only Memory) and RAM (Random Access Memory).
  • the processor realizes the function of the control unit 16 by expanding various control programs recorded in the ROM of the memory into the RAM and executing them.
  • the processor may also include a processor configured as an ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array), PLD (Programmable Logic Device), or the like.
  • the storage unit 17 stores a browser image 200, acquired information 172, and analysis result data 173 (analysis results), which will be described later.
  • FIG. 2 is a schematic diagram showing part of the flow of data transmitted and received between the analysis device 1 and the user terminal 20.
  • the communication control unit 11 retrieves a browser image 200, which is an input screen, from the storage unit 17 via the communication unit 15 and displays it on a web page.
  • the user inputs acquired information 172, which includes image data 301 to be analyzed, patient identification information 320 (first identification information), and attribute information 303, into the browser image 200 and sends it to the analysis device 1.
  • the user can input the acquired information 172 in the browser image 200 and send the acquired information 172 to the analysis device 1 by clicking the "Send" button 204 described later.
  • the method of input by the user is not limited to this, and for example, the user may input the information by drag and drop or by specifying a directory.
  • the image data may be uploaded to the server while maintaining the state of the DICOM file, or only the pixel values and array information of the image extracted from the DICOM file, or the minimum attribute information 303 embedded in the DICOM file may be sent. By doing so, anonymity can be more assured.
  • the image data 301 and attribute information 303 are not encrypted, but the patient identification information 320 is encrypted and sent, as described in detail later. Not limited to this, the image data 301 does not need to be encrypted in particular, but the image data 301 may also be encrypted and sent.
  • a specific example of the browser image 200 will be described later.
  • the type of data of the image data 301 may be any data that can be transmitted via the Internet.
  • the content of the image is not particularly limited, and may be, for example, a medical X-ray image, a micrograph, a CT (Computer Tomography) image, an MRI (Magnetic Resonance Imaging) image, an ultrasound image, a PET image, or the like, depending on the application of the analysis system 70.
  • the analysis system 70 estimates bone density or the like
  • the type of the image data 301 is a bone X-ray image, a CT image, an MRI image, or the like.
  • the estimation may include calculation.
  • the type of the image data 301 is data of a micrograph of cells, or the like.
  • the bone density may be represented by at least one of bone mineral density per unit area (g/cm 2 ), bone mineral density per unit volume (g/cm 3 ), YAM (%), T-score, and Z-score.
  • YAM (%) is an abbreviation for “Young Adult Mean” and may be called young adult average percent.
  • the bone mineral density may be a value expressed as bone mineral density per unit area (g/cm 2 ) and YAM (%).
  • the bone mineral density may be an index determined by the guidelines or an original index.
  • Patient identification information 320 is, for example, information indicating whose image data 301 being analyzed belongs to, and may be an ID number, or information including age, address, name, and image identification number.
  • the ID number may be any combination of multiple alphanumeric characters, for example.
  • the image identification number may be a number assigned by the imaging device when the image is captured.
  • the patient identification information 320 is encrypted when it is sent to the analysis device 1, for example, and encrypted patient information 302 (second identification information) is generated. This allows the image data 301 to be transmitted and analyzed while keeping personal information confidential.
  • the encryption process may be performed by the user terminal 20 that transmits the patient identification information 320, or by the analysis device 1 that receives it.
  • the method of encryption may be a known method and is not limited.
  • the communications control unit 11 may transmit an encryption application to the user terminal 20 when accessed by the user terminal 20 via the Internet.
  • This encryption application is an application that encrypts the patient identification information 320 entered in the browser image 200, and decrypts the encrypted patient information 302 transmitted to the user terminal 20 after the image data 301 is analyzed.
  • the patient identification information 320 can be automatically encrypted and decrypted without the user having to encrypt and decrypt the patient identification information 320 themselves.
  • the encrypted second identification information does not have to be displayed on the user terminal 20. The user can use the identification information without being aware that it is encrypted.
  • the attribute information 303 includes, for example, the name and address of the hospital where the image data 301 was captured, the hospital's ID number, the hospital's email address, etc.
  • the acquisition unit 12 acquires encrypted patient information 302, which is the encrypted image data 301, attribute information 303, and patient identification information 320 contained in the acquisition information 172 transmitted from the user terminal 20, and sends the encrypted patient information 302 to the analysis unit 13.
  • the acquisition unit 12 stores the acquired image data 301, encrypted patient information 302, and attribute information 303 in the storage unit 17 while linking them to each other.
  • the analysis unit 13 analyzes the image data 301 acquired from the acquisition unit 12 using the machine model 131.
  • the analysis unit 13 includes the machine model 131.
  • the machine model 131 is a trained machine model that has learned to output predetermined information, which is an analysis result, from the input image data 301.
  • the analysis content based on the output of the machine model 131 will be referred to as the "analysis result derived by the machine model” or simply as the “analysis result”.
  • data including the analysis result will be referred to as the analysis result data 173.
  • the analysis result data 173 is linked to the encrypted patient information 302 and the attribute information 303 and stored in the storage unit 17.
  • the image data 301 may be analyzed in a format compliant with DICOM (Digital Imaging and Communications in Medicine), or may be analyzed as the pixel values and array information of an image extracted from a file compliant with DICOM. Alternatively, it may be converted into another image format before being analyzed.
  • the other image format may be a general-purpose image format such as JPG, BMP, TIF, or PNG. In this way, a machine model created for images in a general-purpose format can be used as is.
  • the machine model 131 is not limited to any particular one, but may include, for example, a convolutional neural network model (NNM; Neural Network Model) for image analysis. Specific examples of the machine model 131 and the analysis result data 173 will be described in detail in embodiment 2.
  • NVM convolutional neural network model
  • the communication control unit 11 links the analysis result data 173 analyzed by the analysis unit 13, the encrypted patient information 302, and the attribute information 303 together and transmits them to the user terminal 20 via the communication unit 15.
  • the encrypted patient information 302 is decrypted and patient identification information 320 is generated.
  • the analysis device 1 has sent an encryption application to the user terminal 20, the encryption application automatically decrypts the encrypted patient information 302, so there is no need for the user to decrypt it.
  • decryption means, for example, restoring the encrypted encrypted patient information 302 to the original patient identification information 320.
  • the user terminal 20 can receive the decrypted patient identification information 320, the analysis result data 173, and the attribute information 303. This allows the user terminal 20 to store the analysis result data 173 in association with the patient identification information 320.
  • the analysis device 1 is shown as being arranged together in a single housing. However, the analysis device 1 does not have to be arranged together in a single housing. For example, some of the components included in the analysis device 1 may be arranged as separate devices. In addition, some or all of the components included in the analysis device 1 may be arranged on the cloud.
  • the analysis system 70 having the above configuration can analyze image data 301 requested for analysis by a user while keeping personal information confidential. Therefore, even when analysis requests are received from an unspecified number of users, it is possible to analyze each user's image data 301 while protecting personal information.
  • the image data 301 may be, for example, medical image data of the subject photographed with an endoscope. More specifically, the image data 301 may include medical image data of the subject's nasal cavity, esophagus, stomach, duodenum, rectum, large intestine, small intestine, anus, and colon photographed with an endoscope. By inputting the medical image data of these areas into the machine model 131, an analysis result indicating, for example, an area of interest including at least one of inflammation, polyps, and cancer may be output.
  • the machine model 131 may be, for example, a model trained based on a first learning image including an image with an area of interest and first teacher data indicating the presence of the area of interest, and a second learning image including an image without an area of interest and second teacher data indicating the absence of the area of interest.
  • the first teacher data may include information indicating the degree of inflammation (degree of inflammation) or malignancy (degree of malignancy) of the area of interest.
  • the analysis result may be, for example, a display surrounding the area of interest, a display indicating the area of interest, or a display in which a color is superimposed on the area of interest.
  • derivation basis information showing the basis on which the analysis results were derived may also be displayed.
  • the image data 301 may be, for example, image data of the subject's eyes, skin, etc., captured by a digital camera.
  • an analysis result indicating the sign of interest may be output.
  • the sign of interest may include, for example, a sign indicating a disease including at least one of glaucoma, cataracts, age-related macular degeneration, conjunctivitis, styes, retinopathy, and blepharitis in the case of the eyes.
  • the sign of interest may include, for example, a sign including skin cancer, urticaria, atopic dermatitis, and herpes in the case of the skin.
  • the analysis result may be a display that surrounds these signs of interest, a display that indicates the signs of interest, a display that superimposes a color on the signs of interest, or a display that displays the name of the disease.
  • the machine model 131 for example, a model that has been trained based on a first learning image having an image including these parts of interest and first teacher data indicating the presence of the sign of interest, and a second learning image including an image without the sign of interest and second teacher data indicating the absence of the sign of interest can be used.
  • derivation basis information showing the basis on which the analysis results were derived may also be displayed.
  • FIG. 3 is a flowchart showing the flow of processing of analysis method S1 executed by control unit 16. As shown in the figure, analysis method S1 includes steps S11 to S14.
  • the communication control unit 11 displays on a web page via the communication unit 15 a browser image 200, which is an input screen for inputting acquired information 172 including image data 301 to be analyzed, patient identification information 320, and attribute information 303 (S11).
  • the acquisition unit 12 acquires encrypted patient information 302, which is the encrypted image data 301, attribute information 303, and patient identification information 320 contained in the acquisition information 172 input to the browser image 200 and transmitted from the user terminal 20 (S11).
  • the analysis unit 13 analyzes the image data 301 sent from the acquisition unit 12 using the machine model 131 (S13).
  • the communication control unit 11 transmits the analysis result data 173 analyzed by the analysis unit 13, the encrypted patient information 302, and the attribute information 303 to the user terminal 20 via the communication unit 15 (S14).
  • (Configuration of analysis system 70A) 4 is a block diagram showing a configuration of an analysis system 70A according to the second embodiment of the present disclosure.
  • the control unit 16 of the analysis device 1A includes a communication control unit 11, an acquisition unit 12, an analysis unit 13, a generation unit 18, and a determination unit 19.
  • the communication control unit 11, the acquisition unit 12, and the analysis unit 13 have the same functions as those of the respective units described in the first embodiment, and therefore will not be described here.
  • the storage unit 17 stores the image data 301 (medical data), encrypted patient information 302, and attribute information 303 acquired by the acquisition unit 12 in association with each other.
  • the generating unit 18 generates information on the basis for deriving the analysis result analyzed by the analyzing unit 13 (hereinafter referred to as "derivation basis data 311").
  • the derivation basis data 311 means at least one of the reasons why the machine model 131 derived such an analysis result.
  • the derivation basis data 311 may be information that mainly indicates which part of the image was used to derive the analysis result.
  • the derivation basis data 311 is linked to at least the encrypted patient information 302 and stored in the memory unit 17. Specific examples of the functions of the generating unit 18 will be described later.
  • the determination unit 19 determines whether the encrypted patient information 302 acquired by the acquisition unit 12 is the patient identification information 320 that has actually been encrypted. If it is determined that the encrypted patient information 302 is not the encrypted patient information, the acquisition unit 12 may delete the acquired encrypted patient information 302. By providing such a determination unit 19, if the encrypted patient information 302 transmitted from the user terminal 20 is not the encrypted patient identification information 320, the acquired image data 301 is deleted together with the encrypted patient information 302 and the attribute information 303 without being analyzed. Therefore, the acquired information 172 including the image data 301 is not stored inside the analysis device 1A. The determination of whether the information is encrypted may be made, for example, from the extension of the encrypted data.
  • control unit 16 may send a message to the user terminal 20 via the communication control unit 11 requesting that the patient identification information 320 be re-encrypted and sent.
  • the analysis device 1A includes a determination unit 19
  • the determination unit 19 may be included in at least one of the analysis device 1A and a hospital-side server that mediates the transmission of encrypted patient information 302 from the user terminal 20 to the analysis device 1A.
  • both the analysis device 1A and the hospital-side server may be configured to include the determination unit 19.
  • the user terminal 20, which is the source of the encrypted patient information 302 may be configured to include the determination unit 19.
  • FIG. 5 is a diagram showing an example of a browser image 200 displayed on a web page for inputting image data 301 and the like when a user accesses the analysis device 1 via the Internet.
  • the words ⁇ Bone Density Analysis> indicating the subject of image analysis, are displayed at the top of the browser image 200.
  • the words ⁇ Reception> indicating that this is an input-accepting screen, are displayed in the upper left corner of the browser image 200.
  • the words "Place the image to be analyzed here” to prompt the user to input image data to be analyzed, and a frame 205 indicating the area (basis area) into which the image data is pasted (drag-and-dropped).
  • the words “Enter attribute information here” to prompt the user to enter patient identification information 320 and attribute information 303, etc.
  • a box 206 for input A "Send” button 204 is displayed in the lower right corner of the browser image 200 to prompt the user to send the data
  • a "Back” button 207 is displayed in the upper right corner to return to the initial screen of the website.
  • X-ray image data 300 may be a lumbar X-ray image, a chest X-ray image, or an X-ray image taken with a DXA (Dual energy X-ray Absorptiometry) device.
  • DXA Direct energy X-ray Absorptiometry
  • a DXA device that measures bone density using the DXA method, when the bone density of the lumbar vertebrae is measured, X-rays are irradiated from the front of the lumbar vertebrae of the subject.
  • X-rays are irradiated from the front of the proximal femur of the subject.
  • the front of the lumbar vertebrae and “the front of the proximal femur” refer to the direction that correctly faces the imaging site such as the lumbar vertebrae and the proximal femur, and may be the ventral side of the subject's body or the back side of the subject.
  • MD micro densitometry
  • the ultrasound method measures bone density by applying ultrasound to bones such as the lumbar vertebrae, femur, heel, or tibia.
  • the image data does not have to be X-ray images, as long as it is an image that contains bone information.
  • it can be estimated from MRI (magnetic resonance imaging) images, CT (computed tomography) images, PET images, and ultrasound images.
  • the subject for which an estimation is made regarding a bone condition is a human (i.e., a "subject") is given as an example for explanation, but the subject is not limited to humans.
  • the subject for which an estimation is made regarding a bone condition may also be, for example, a mammal other than a human, such as an equine, feline, canine, bovine, or porcine animal.
  • this disclosure also includes embodiments in which "subject” is replaced with "animal” if the embodiment is applicable to these animals.
  • the communication control unit 11 may display a browser image 200 on a web page and transmit an encrypted application via the communication unit 15.
  • the user inputs image data 301, patient identification information 320, and attribute information 303 to be analyzed and clicks the "Send" button 204, the patient identification information 320 is encrypted, and the encrypted patient information 302 is transmitted to the analysis device 1A together with the image data 301 and attribute information 303. Therefore, the user does not need to perform encryption processing of the patient identification information 320.
  • the encryption processing may be performed after the user clicks the "Send" button 204, rather than when the user clicks it.
  • the encryption method may be a known method, and is not limited to this. For example, it may be an encryption method that combines a public key and a private key.
  • the encryption may be a method that cannot be decrypted even by the operator of analysis system 70A. This reduces the risk that the combination of image data 301 and patient identification information 320 will be leaked to the operator, even if a user requests image analysis from the operator of analysis system 70A.
  • the acquisition unit 12 acquires the X-ray image data 300, encrypted patient information 302, and attribute information 303 sent from the user terminal 20, and transmits them to the analysis unit 13.
  • the analysis unit 13 inputs the X-ray image data 300 sent from the acquisition unit 12 to the machine model 131, processes the output data from the machine model 131 as necessary, and generates analysis result data 173.
  • the generated analysis result data 173 is linked to at least the encrypted patient information 302 and attribute information 303, and stored in the memory unit 17.
  • the communication control unit 11 acquires the analysis result data 173 linked to the encrypted patient information 302 and attribute information 303 from the storage unit 17, and transmits it to the user terminal 20 via the communication unit 15.
  • the encrypted patient information 302 is automatically decrypted and the patient identification information 320 is generated.
  • the encrypted patient information 302 may be decrypted when the analysis result data 173 is transmitted, or the user may decrypt it themselves.
  • FIG. 7 is a diagram showing an example of a browser image 400 displayed on the screen of the user terminal 20 that has received the analysis result data 173.
  • the words ⁇ Bone Density Analysis> which indicate the contents of the image analysis, are displayed at the top.
  • the words ⁇ Analysis Result> which indicates that the screen displays the analysis result, are displayed. Below that, patient information may be displayed. Below that, the words "Your bone density is ⁇ / cm2 " are displayed. In a box 401, an estimated bone density value is displayed. Further below that, the words "Compared to young people, it is ⁇ %" may be displayed.
  • the ratio to the bone density average of young adults (YAM, Young Adult Mean) is displayed. Further below that, the words “Judgment” and words such as “Bone mass reduction” may be displayed in a box 403. For example, if the ratio to YAM is below 80%, it is determined to be “bone mass reduction", and if it is below 70%, it is determined to be possible "osteoporosis”.
  • the browser image 400 may have an "Exit” button 404 and a "Back” button 405.
  • the "Back” button 405 may be, for example, a button for returning to a previous screen, a button for returning to a home screen, or a button for returning to a specified screen.
  • the generating unit 18 generates derivation basis data 311 of the analysis result analyzed by the analyzing unit 13.
  • the communication control unit 11 may transmit the derivation basis data 311 generated by the generating unit 18 to the user terminal 20.
  • the analysis result data 173 is based on the output from the machine model 131, but the output from the machine model 131 does not include the analysis process. Therefore, it is generally not possible to determine the reliability of the output from the machine model 131 by looking at only the output. Therefore, by transmitting the analysis result data 173 including the derivation basis data 311 to the user terminal 20, the user can improve their confidence in the analysis result.
  • the derivation basis data 311 may be processed image data 310 (basis image data) in which new information has been added to the image data 301 input to the machine model 131.
  • the new information may be information indicating an area in the image data 301 that served as the main basis for deriving the analysis result.
  • the processed image may be an image in which information indicating the area that served as the main basis has been added to the input image data.
  • Information indicating an area is information that indicates the range of the area, such as coloring or framing. In image analysis, a certain area of an image is often the main basis for estimation, so such information indicating the area allows the user to confirm the area that served as the basis for the estimation.
  • the edited image data 310 does not need to include all of the information in the image data 301 input by the user.
  • the edited image data 310 may be image data that has been cropped from the input image data 301, or may be an image with a lower resolution than the input image data 301. In this way, the amount of data to be sent and received can be reduced.
  • FIG. 8 is a diagram showing an example of a browser image 500 that transmits derived basis data 311 to the user terminal 20 in addition to the analysis result data 173.
  • derived basis data 311 processed image data 502 including area 503 is added to the analysis result data 173 shown in FIG. 7.
  • browser image 500 displays processed image data 502, which is input image data (X-ray image data 300 in FIG. 6) with a rectangular area 503 added and processed, together with analysis result 501.
  • analysis result 501 derived by machine model 131 that analyzes image data
  • processed image data 502 including derivation basis data 311 are displayed on one screen.
  • Browser image 500 may also display a "Back" button 506, an "Exit” button 507, and a "Future Prediction” button 505. The role of "Future Prediction” button 505 will be described later.
  • FIG. 9 is an enlarged schematic diagram of the image of area 503 in FIG. 8.
  • Area 503 includes four lumbar vertebrae, indicated as L1 to L4. This indicates that lumbar vertebrae L1 to L4 are the area on which the analysis results are based.
  • the bone density of lumbar vertebrae L1 to L4 is related to the average bone density of the entire body.
  • the framed area 503 indicates that the analysis results of the mechanical model 131 are derived based on the bone density of these lumbar vertebrae L1 to L4.
  • the region on which the analysis result is based may include a segmented region. Segmentation is the division of an image into several regions. Segmentation is performed to reduce the amount of analysis processing of the mechanical model 131. That is, the mechanical model 131 may analyze only the segmented region.
  • the segmented region may be set to any range. The segmented region may be, for example, rectangular, square, or circular. When the segmented region is a square, the amount of analysis processing of the mechanical model 131 can be reduced.
  • a range including the lumbar vertebrae L1 to L4 is segmented.
  • the size of the segmentation region may change depending on the size of the lumbar vertebrae L1 to L4 in the image.
  • the segmentation region may be set, for example, slightly larger than the lumbar vertebrae L1 to L4 in the arrangement direction of the lumbar vertebrae L1 to L4, or may be set so as to overlap with the sides of the lumbar vertebrae L1 to L4.
  • the segmentation region may always have a predetermined dimension, or the dimension may be set according to the medical image.
  • the segmentation region may be determined by identifying the positions of the lumbar vertebrae L1 to L4, setting the lengths of the lumbar vertebrae L1 to L4 in the arrangement direction, and then setting the lengths of the lumbar vertebrae L1 to L4 in the vertical direction. Segmentation may be performed by the machine model 131.
  • the machine model 131 may learn images with annotations of the analysis region in order to perform segmentation.
  • the generating unit 18 may also generate a heat map of the area on which the analysis result is based.
  • the outer edge of the heat map indicates the segmentation area.
  • a heat map is a method of expressing the magnitude of bone density with an arbitrary color intensity.
  • the generating unit 18 may generate a heat map that indicates the degree of attention.
  • the generating unit 18 may generate a heat map that indicates the numerical value of bone density.
  • the generating unit 18 may generate a heat map that indicates the possibility (probability) of a fracture.
  • the image used for the heat map may be a still image or a video. By showing it as a video, for example, by fading various heat maps in order, it becomes easier to visually recognize the relationship between each heat map.
  • the analysis result is a bone density heat map that includes areas other than the segmentation area, a part of the segmentation area may be surrounded by a frame.
  • the generating unit 18 may obtain information on the region on which the analysis result is based from the analyzing unit 13. Specifically, the generating unit 18 may obtain the region on which the analysis result is based from the analyzing unit 13, and generate information indicating the region (such as a frame surrounding the region 503). The generating unit 18 may obtain information indicating the degree of attention data, bone density data, or the possibility of fracture within the region from the analyzing unit 13, and generate a heat map. The generating unit 18 may generate any one or more of a heat map indicating the degree of attention data, a heat map indicating bone density data, and a heat map indicating the possibility of fracture.
  • the generating unit 18 may cause the color of the heat map indicating the degree of attention data to be different from the color of the heat map indicating the bone density data, and the color of the heat map indicating the possibility of fracture.
  • the machine model 131 analyzes the X-ray image data 300 using NNM.
  • NNM the image is first divided into small regions, each of which is quantified, and then the multiple regions are pooled to combine them into larger regions, which are then quantified again, repeating this process. Therefore, the machine model 131 may extract regions that have numerical values that affect the processing results (for example, relatively large numerical values) as regions that serve as the basis.
  • processed image data 502 is described in which an area 503 that is the basis of the analysis result is superimposed on the X-ray image data 300 to be analyzed.
  • the processed image data is not limited to this.
  • the analysis device 1 may transmit position information (such as coordinates) of the area that is the basis of the analysis result in the image to be analyzed to the user terminal 20, and cause the user terminal 20 to display the processed image data with the area displayed on the image to be analyzed.
  • a screen like the one shown in Figure 8 can be used when a doctor explains the analysis results to a patient.
  • the analysis result 501 and the processed image data 502 including the derivation basis data 311 are displayed on one screen.
  • “one screen” does not have to be displayed on the screen at the same time.
  • the screen may be displayed by scrolling up and down or left and right.
  • the range displayed by scrolling up and down or left and right is referred to as "one screen”.
  • FIG. 10 is a schematic diagram showing an example of a browser image 700 that displays the patient's current possibility of fracture, estimated from image data analyzed by the analysis unit 13, and the possibility of the patient having a fracture three years from now.
  • the future time is not limited to three years from now, and may be any time (e.g., X years from now). This is displayed by clicking the "Future prediction" button 505 at the bottom right of the browser image 500 shown in FIG. 8.
  • the words ⁇ Bone Density Analysis> indicating the subject of image analysis, are displayed at the top of browser image 700.
  • the words ⁇ Future Prediction> are displayed in the upper left corner of browser image 700, indicating that this is a screen for displaying future predictions. Below that, patient information may be displayed. Below that, the words "Your femur fracture probability is ⁇ %" are displayed. Box 701 displays the currently estimated fracture probability. Further below that, the words "Your femur fracture probability in 3 years is ⁇ %" may be displayed. Box 702 displays the predicted fracture probability in 3 years' time. Information regarding the basis for the estimation or prediction may also be displayed in this image.
  • This type of screen can be used by doctors when explaining to patients the current and future possibility of fractures. If information on the basis of estimation or prediction is also displayed, it can be more persuasive to patients.
  • the machine model 131 is a model that estimates the state of bones, and the input image data is an image that includes bones, and outputs an estimation result regarding the state of the bone as an analysis result.
  • the machine model 131 is a trained model that has been trained to output an estimation result or a calculation result regarding the state of bones, such as bone density, a relative comparison of bone density, the presence or absence of a fracture, and the possibility of a fracture, from an X-ray image of a bone.
  • the bone density may be a calculated bone density of a bone part included in the image data, or may be an average bone density of the whole body estimated from the image data.
  • a known method can be used to calculate bone density from an image.
  • the relative comparison of bone density is the ratio of the estimated bone density to the YAM.
  • the presence or absence of a fracture is information indicating whether or not there is a fracture in the input image data.
  • the possibility of a fracture is the possibility that a bone in a specific part (for example, the femoral neck) will be fractured.
  • the estimation result regarding the state of the bone may be an estimation result at the time when the image is taken, or may be a prediction at a time when a predetermined period has passed since that time.
  • the mechanical model 131 may output as an estimation result at least one of the following: bone density estimated at the time the image data was captured, bone density predicted when a specified period of time has passed since the image data was captured, fracture site and possibility estimated at the time the image data was captured, and fracture site and possibility predicted when a specified period of time has passed since the image data was captured.
  • the learning of the machine model 131 may be performed using an X-ray image of a bone with a specified bone density as training data.
  • Learning to estimate the possibility of fracture may be performed using an X-ray image of a bone and data on whether the patient subsequently fractured within a specified period as training data. Relative comparison of bone density does not need to be learned, and is obtained by dividing the estimated bone density by YAM.
  • learning of future prediction may be performed using an X-ray image of a bone with a specified bone density and data on how much bone density the patient had after a specified period or whether the patient subsequently fractured as training data.
  • the mechanical model 131 has been described by taking as an example a mechanical model that has been trained to estimate bone conditions such as bone density.
  • the input image data is an X-ray image of the bone
  • the output is an estimation result regarding the bone condition.
  • the mechanical model 131 is not limited to such a model.
  • the mechanical model 131 may be a cellular pathology analysis model.
  • the input image data may be a microscopic image of a cell, and the output may be the presence or absence of a pathological mutation in the cell.
  • the image data may be an X-ray image, a CT image, a mammography image, or the like, and the output may be the presence or absence of cancer.
  • the above-described configuration of the analysis system 70A according to the second embodiment makes it possible to provide the user with the derivation basis data 311 together with the analysis result data 173. Therefore, in addition to the effects of the analysis system 70 according to the first embodiment, it is possible to achieve the effect of improving the user's confidence in the analysis results. Furthermore, it is possible to achieve the effect of making it easier for the patient to understand the analysis results when explaining them to the patient.
  • Analysis method S2 includes steps S21 to S24. Steps S21 to S23 are the same as steps S11 to S13 described in the analysis method S1 described in the first embodiment.
  • step S24 the communication control unit 11 transmits the analysis result data 173 analyzed by the analysis unit 13, the derivation basis data 311, and the encrypted patient information 302 to the user terminal 20 (not shown).
  • the derivation basis data 311 can be provided to the user together with the analysis result data 173. Therefore, in addition to the effect of the analysis method S1 according to the first embodiment, the effect of improving the user's confidence in the analysis result can be obtained. Furthermore, the effect of making it easier for the patient to understand the analysis result when explaining it to the patient can be obtained.
  • the functions of analysis systems 70, 70A are programs for causing a computer to function as the system, and can be realized by programs for causing a computer to function as each part of the system.
  • the system includes a computer having at least one control device (e.g., a processor) and at least one storage device (e.g., a memory) as hardware for executing the program.
  • the program is executed by the control device and storage device, thereby realizing each of the functions described in each of the above embodiments.
  • the program may be recorded on one or more computer-readable recording media, not on a temporary basis.
  • the recording media may or may not be included in the device. In the latter case, the program may be supplied to the device via any wired or wireless transmission medium.
  • each of the above-mentioned parts can be realized by a logic circuit.
  • the scope of this disclosure also includes an integrated circuit in which a logic circuit that functions as each of the above-mentioned parts is formed.
  • the analysis device comprises an acquisition unit that acquires medical data of a subject and second identification information, which is encrypted first identification information of the subject, from a user terminal, an analysis unit that analyzes the acquired medical data, and a transmission unit that transmits the analysis results analyzed by the analysis unit and the second identification information to the user terminal.
  • the analysis device may transmit the analysis result and the second identification information to the user terminal that decodes the second identification information.
  • An analysis device is based on the first or second aspect, wherein the user terminal is provided with an application that performs decryption, and the application has a function of performing the encryption.
  • the analysis device may be configured in such a way that, in the above-mentioned aspect 3, the application body that performs the decryption is transmitted to the user terminal.
  • the second identification information may not be displayed on the user terminal.
  • An analysis device in any one of aspects 1 to 5 above, further includes a determination unit that determines whether the acquired second identification information is the first identification information encrypted using a predetermined method, and the acquisition unit may delete the acquired second identification information if it is determined that the second identification information is not encrypted using a predetermined method.
  • the medical data may be image data.
  • An analysis device is any one of aspects 1 to 7 above, wherein the medical data is image data of the bones of the subject, and the analysis unit may output an estimated result regarding the condition of the bones of the subject as the analysis result.
  • An analysis device in any one of aspects 1 to 8 above, may further include a generation unit that generates basis information regarding the basis for deriving the analysis result, and the transmission unit may include the basis information in the analysis result and transmit it to the user terminal.
  • the medical data is image data
  • the basis information may be basis image data obtained by adding information to the medical data indicating the basis area that was the basis for deriving the analysis result.
  • An analysis device may be such that, in the tenth aspect, the basis image data is image data showing the basis region on the image data.
  • the analysis unit may output as an estimation result at least one of the bone density of the subject's bone at the time the image data was captured, the bone density of the subject's bone at a predetermined time after the medical image data was captured, the site where a fracture is estimated at the time the medical image data was captured and the possibility of the fracture occurring, and the site where a fracture is estimated to occur within a predetermined time after the medical image data was captured and the possibility of the fracture occurring.
  • An analysis method includes at least one processor acquiring medical data of a subject and second identification information of the subject, which is encrypted from a user terminal, analyzing the acquired medical data, and transmitting analysis results and the second identification information to the user terminal.
  • the analysis program of aspect 14 of the present disclosure is an analysis program for causing a computer to function as the analysis device described in any one of aspects 1 to 12 above, and is a computer program for causing a computer to function as the acquisition unit, the analysis unit, and the transmission unit.
  • a recording medium according to aspect 15 of the present disclosure is a computer-readable non-transitory recording medium having the analysis program according to aspect 14 recorded therein.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

個人情報を秘匿した状態で医用データを解析することが可能なシステムを提供する。解析装置は暗号化されていない医用データ及び対象者の第1識別情報を暗号化した第2識別情報をユーザ端末から取得する取得部と、取得された医用データを解析する解析部と、解析部が解析した解析結果と、第2識別情報とをユーザ端末に送信する送信部とを備える。

Description

解析装置、解析方法、解析プログラム及び記録媒体
 本開示は、解析装置、解析方法、解析プログラム及び記録媒体に関する。
 例えば、特許文献1には、被検体を観察する医療装置と、医療装置と通信可能なネットワーク装置と、を有する医療システムが開示されている。
WO2020/066076号公報
 本開示の一態様に係る解析装置は、対象者の医用データ、及び、該対象者の第1識別情報を暗号化した第2識別情報を、ユーザ端末から取得する取得部と、取得された前記医用データを解析する解析部と、前記解析部が解析した解析結果と、前記第2識別情報と、を前記ユーザ端末に送信する送信部と、を備える。
 本開示の一態様に係る解析方法は、少なくとも1つのプロセッサが、少なくとも1つのプロセッサが、対象者の医用データ、及び、該対象者の第1識別情報を暗号化した第2識別情報を、ユーザ端末から取得することと、取得された前記医用データを解析することと、解析結果と、前記第2識別情報と、を前記ユーザ端末に送信することと、を含む。
 本開示の各態様に係る解析装置は、コンピュータによって実現してもよく、この場合には、コンピュータを前記解析システムが備える各部(ソフトウェア要素)として動作させることにより前記解析システムをコンピュータにて実現させる解析システムの制御プログラム、およびそれを記録したコンピュータ読み取り可能な非一時的記録媒体も、本開示の範疇に入る。
本開示の実施形態1に係る解析システムの構成を示すブロック図である。 解析装置とユーザ端末との間で送受信されるデータの流れの一部を示す模式図である。 制御部が実行する解析方法の処理の流れを示すフローチャートである。 本開示の実施形態2に係る解析システムの構成を示すブロック図である。 ブラウザ画像の一例を示す図である。 骨密度解析を依頼するX線画像データの一例を示す図である。 送信部が送信する解析結果のブラウザ画像の一例を示す模式図である。 解析結果データに加えて導出根拠データを追加したブラウザ画像の一例を示す図である。 図8に示す領域の画像の拡大模式図である。 現時点及び将来における患者の骨折の虞を表示するブラウザ画像の一例を示す図である。
 〔実施形態1〕
 (解析システム70の構成)
 以下、本開示の一実施形態について、図面を参照して詳細に説明する。図1は、本開示の実施形態1に係る解析システム70の構成を示すブロック図である。解析システム70は、遠隔で画像を解析するシステムに用いることができる。解析システム70は、例えば、医用データを解析する解析装置1およびユーザ端末20を備える。解析システム70は、解析装置1とユーザ端末20とが、インターネットを介して通信可能に接続される。
 解析システム70は、インターネット等の情報通信ネットワークを介してユーザ端末20から画像解析依頼を受け付ける。解析装置1は、ユーザ端末20から送信された解析対象の医用データを解析し、その解析結果を、インターネットを介してユーザ端末20に返送するシステムである。ユーザとは、医用データの解析を解析システム70に依頼する者であれば誰でもよい。ユーザは、例えば、医師、検査技師、看護師等の医療関係者であるが、これに限定されない。
 本開示では、医用データが、画像データ301である場合を例に挙げて説明する。しかし医用データは画像データ301に限定されず、例えば、医用データとして血液データ、血流データ、又は歩行データ等を用いてもよい。解析システム70は、例えば血液データを解析して、患者の運動解析などを行ってもよい。
 ユーザ端末20は複数存在してもよく、例えば、医療機関ごとに、それぞれユーザ端末201,202,203があってもよい。ユーザは、例えばインターネットを介して解析装置1にアクセスし、ウェブページに表示される画面から画像データ301の解析を依頼する。仮に同じ画像データ301の解析依頼が異なるユーザ端末20からあった場合は、それぞれの画像データ301はその端末ごとの識別情報と紐付けられて保存され、解析されてもよい。画像データはDICOM(Digital Imaging and Communications in Medicine)に準拠した形式などであればよい。
 ユーザ端末20は、例えば通信機能を備えた据置型のパーソナルコンピュータ、あるいはタブレット端末等のモバイル端末であってもよい。ユーザは複数存在してもよいためユーザ端末201,202,203…と複数図示しているが、以下では特に記載しない限り、すべての端末を代表して対象となる端末をユーザ端末20と称する。
 解析装置1は、解析装置1の各部を統括して制御する制御部16と、制御部16が使用する各種データを記憶する記憶部17と、他の装置と通信するための通信部15とを備える。
 制御部16は、通信部15を制御する通信制御部11(送信部)、通信制御部11を介してユーザ端末20から送信されたデータを取得する取得部12、画像データ301を解析する解析部13を備える。
 制御部16は、少なくとも1つのプロセッサと少なくとも1つのメモリを備える。プロセッサは、例えば、少なくとも1つのMPU(Micro Processing Unit)、CPU(Central Processing Unit)等の汎用プロセッサを用いて構成することができる。メモリは、ROM(Read Only Memory)、RAM(Random Access Memory)等の複数種類のメモリを備えていてもよい。一例として、プロセッサは、メモリのROMに記録された各種の制御プログラムをRAMに展開して実行することにより、制御部16としての機能を実現する。また、プロセッサは、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)又はPLD(Programmable Logic Device)等で構成されるプロセッサを含んでいてもよい。
 記憶部17は、後述するブラウザ画像200、取得情報172、及び解析結果データ173(解析結果)を格納する。
 図2は、解析装置1とユーザ端末20との間で送受信されるデータの流れの一部を示す模式図である。通信制御部11は、ユーザが画像データ301の解析依頼のため、インターネットを介して解析装置1にアクセスしたとき、通信部15を介して、入力画面であるブラウザ画像200を、記憶部17から取得してウェブページに表示する。ユーザは、ブラウザ画像200に、解析対象の画像データ301、患者識別情報320(第1識別情報)、属性情報303を含む取得情報172を入力して解析装置1に送信する。
 ユーザは、ブラウザ画像200に取得情報172を入力し、後述する「送信」ボタン204をクリックすることにより、取得情報172を解析装置1に送信することができる。ユーザが入力する方法はこれに限定されず、例えばドラッグ&ドロップで入力しても良いし、ディレクトリを指定することにより入力してもよい。画像データはDICOMファイルの状態を維持したままサーバにアップロードされてもよいし、DICOMファイルから抽出された画像の画素値と配列情報、またはDICOMファイルに埋め込まれた最小限の属性情報303のみを送信するのでもよい。そうすることで、匿名性をより確実にすることができる。解析装置1に取得情報172を送信するとき、画像データ301および属性情報303は暗号化されないが、患者識別情報320は、詳しくは後述するように、暗号化されて送信される。これに限らず、画像データ301は特に暗号化する必要はないが、画像データ301も暗号化して送信してもよい。ブラウザ画像200の具体例については後述する。
 画像データ301のデータの種類は、インターネットで送信可能なデータであればよい。画像の内容は特に限定されないが、解析システム70の用途により、例えば医療用のX線画像、顕微鏡写真、CT(Computer Tomography)画像、MRI(Magnetic Resonance Imaging)画像、超音波画像、PET画像等であってもよい。例えば、解析システム70が骨密度等を推定する場合は、画像データ301の種類は骨のX線画像、CT画像、MRI画像などである。推定は、計算を含んでもよい。また、解析システム70が細胞の病理判定を行う場合は、画像データ301の種類は細胞の顕微鏡写真のデータなどである。骨密度は、単位面積当りの骨ミネラル密度(g/cm)、単位体積当りの骨ミネラル密度(g/cm)、YAM(%)、Tスコア及びZスコアの少なくとも1種類によって表されてよい。YAM(%)は、“Young Adult Mean”の略であって、若年成人平均パーセントと呼ばれることがある。例えば、骨密度は、単位面積当りの骨ミネラル密度(g/cm)及びYAM(%)で表された値であってよい。骨密度は、ガイドラインで定められた指標であってもよいし、独自指標であってもよい。
 患者識別情報320とは、例えば、解析対象の画像データ301が誰の画像データであるかを示す情報であり、ID番号でもよく、年齢、住所、氏名、および画像の識別番号などを含む情報であってもよい。ID番号は、例えば、英数字を複数組み合わせた任意のものを用いることができる。画像の識別番号は、撮影機器において撮影時に付与される番号であってもよい。
 患者識別情報320は、上述したように、例えば、解析装置1に送信されるとき暗号化され、暗号化患者情報302(第2識別情報)が生成される。これにより、個人情報を秘匿した状態で画像データ301を送信し、解析することができる。
 当該暗号化処理は、患者識別情報320を送信するユーザ端末20によって行われてもよいし、受信する解析装置1によって行われてもよい。暗号化処理の方法は公知の方法でよく、限定されない。
 例えば、通信制御部11は、インターネットを介してユーザ端末20からアクセスを受けた際に、暗号化アプリケーションをユーザ端末20に送信してもよい。この暗号化アプリケーションは、ブラウザ画像200に入力された患者識別情報320の暗号化と、画像データ301の解析後にユーザ端末20に送信される暗号化患者情報302の復号とを行うアプリケーションである。このような構成によれば、ユーザが自ら患者識別情報320の暗号化・復号をしなくても、自動的に患者識別情報320の暗号化・復号をすることができる。また、暗号化された第2識別情報はユーザ端末20に表示されなくてもよい。ユーザは、識別情報が暗号化されていることを意識せず使うことができる。
 属性情報303は、例えば、画像データ301を撮像した病院の名称や住所、病院のID番号、病院のメールアドレスの情報等を含む情報である。
 取得部12は、ユーザ端末20から送信された取得情報172に含まれる画像データ301、属性情報303、患者識別情報320が暗号化された暗号化患者情報302を取得して解析部13に送る。取得部12は、取得した画像データ301、暗号化患者情報302、属性情報303を、互いに紐づけて記憶部17に格納する。
 解析部13は、取得部12から取得した画像データ301を、機械モデル131を用いて解析する。図1に示すように、解析部13は、機械モデル131を備える。機械モデル131は、入力された画像データ301から解析結果である所定の情報を出力するように学習した学習済(trained)機械モデルである。以下、機械モデル131の出力に基づく解析内容を「機械モデルにより導出された解析結果」又は単に「解析結果」とも称する。また、解析結果を含むデータを解析結果データ173と称する。解析結果データ173は、暗号化患者情報302、属性情報303と紐づけて記憶部17に格納される。画像データ301はDICOM(Digital Imaging and Communications in Medicine)に準拠した形式の状態として解析されてもよいし、DICOMに準拠したファイルから抽出された画像の画素値と配列情報の状態として解析されてもよい。または、解析される前に別の画像形式に変換されてもよい。別の画像形式は、JPG、BMP、TIF、またはPNGなどの汎用的な画像形式などであればよい。そうすることで、汎用的な形式の画像を対象とするように作成された機械モデルをそのまま使用することができる。
 機械モデル131は限定されないが、例えば画像解析用の畳み込みニューラルネットワークモデル(NNM;Neural Network Model)を含んでもよい。機械モデル131および解析結果データ173の具体例については実施形態2において詳しく説明する。
 通信制御部11は、解析部13が解析した解析結果データ173、暗号化患者情報302、および属性情報303を、互いに紐づけて、通信部15を介してユーザ端末20に送信する。
 ユーザ端末20が解析結果データ173と、暗号化患者情報302、および属性情報303を受信したとき、暗号化患者情報302は復号され、患者識別情報320が生成される。このとき、解析装置1が暗号化アプリケーションをユーザ端末20に送信していた場合は、暗号化アプリケーションが暗号化患者情報302を自動的に復号するため、ユーザが復号する必要はない。ここで復号とは、例えば、暗号化された暗号化患者情報302を、元の患者識別情報320を復元することをいう。
 このように、ユーザ端末20は復号された患者識別情報320、解析結果データ173、および属性情報303を受け取ることができる。これにより、ユーザ端末20は、解析結果データ173を患者識別情報320と紐付けて保存することができる。
 図1においては、解析装置1は、1つの筐体にまとめて配置されているように記載している。しかし、解析装置1は、1つの筐体にまとめて配置されている必要はない。例えば、解析装置1に含まれる構成要素の一部が、別個の装置として配置されていてもよい。また、解析装置1に含まれる構成要素の一部又は全部がクラウド上に配置されていてもよい。
 以上の構成を有する解析システム70によれば、個人情報を秘匿した状態でユーザから解析依頼された画像データ301を解析することができる。そのため、不特定多数のユーザから解析依頼を受ける場合であっても、個人情報の保護を図りつつ、各ユーザの画像データ301の解析を行うことができる。
 画像データ301は、例えば、対象者を内視鏡で撮影した医用画像データであってもよい。より具体的には、画像データ301は、対象者の鼻腔、食道、胃、十二指腸、直腸、大腸、小腸、肛門および結腸の少なくとも一つを含む部位を内視鏡で撮影した医用画像データを含んでいてもよい。これらの部位を撮像した医用画像データを機械モデル131に入力することによって、例えば、炎症、ポリープおよび癌の少なくとも1つを含む注目部位を明示する解析結果を出力させてもよい。このような場合、機械モデル131としては、例えば、注目部位のある画像を含む第1学習用画像と注目部位の存在を示す第1教師データと、注目部位のない画像を含む第2学習用画像と注目部位の存在が無いことを示す第2教師データとに基づいて学習されたモデルを用いることができる。第1教師データには、注目部位の炎症度(炎症の程度)もしくは悪性度(悪性の程度)を示す情報が含まれていてもよい。解析結果は、例えば、注目部位を囲む表示であってもよいし、注目部位を指し示す表示であってもよいし、着目部位に色を重畳するような表示であってもよい。このような解析結果とともに、解析結果が導出された根拠を示す導出根拠情報を表示する構成であってもよい。
 あるいは、画像データ301は、例えば、対象者の眼部、皮膚等をデジタルカメラで撮影した画像データであってもよい。これらの部位を撮像した画像データ301を機械モデル131に入力することによって、例えば、注目兆候を明示する解析結果を出力させてもよい。注目兆候には、眼部であれば、例えば、緑内障、白内障、加齢黄斑変性、結膜炎、麦粒腫、網膜症および眼瞼炎の少なくとも一つを含む疾病を示す兆候が含まれていてもよい。もしくは、注目兆候には、皮膚であれば、例えば、皮膚癌、じんましん、アトピー性皮膚炎、およびヘルペス等を含む兆候が含まれていてもよい。解析結果は、これらの注目兆候を囲む表示であってもよいし、注目兆候を指し示す表示であってもよいし、注目兆候に色を重畳するような表示であってもよいし、疾病名を表示してもよい。機械モデル131としては、例えば、これらの注目部位を含む画像を有する第1学習用画像と注目兆候の存在を示す第1教師データと、注目兆候のない画像を含む第2学習用画像と注目兆候の存在が無いことを示す第2教師データとに基づいて学習されたモデルを用いることができる。このような解析結果とともに、解析結果が導出された根拠を示す導出根拠情報を表示する構成であってもよい。
 次に、本実施形態に係る解析方法S1の流れについて、図面を参照して説明する。図3は、制御部16が実行する解析方法S1の処理の流れを示すフローチャートである。図示するように、解析方法S1は、ステップS11からステップS14を含む。
 通信制御部11は、ユーザが解析装置1にアクセスしたとき、通信部15を介して、解析対象の画像データ301、患者識別情報320、属性情報303を含む取得情報172を入力する入力画面であるブラウザ画像200をウェブページに表示する(S11)。
 取得部12は、ブラウザ画像200に入力され、ユーザ端末20から送信された取得情報172に含まれる画像データ301、属性情報303、患者識別情報320が暗号化された暗号化患者情報302を取得する(S11)。
 解析部13は、取得部12から送られた画像データ301を、機械モデル131を用いて解析する(S13)。
 通信制御部11は、解析部13が解析した解析結果データ173、暗号化患者情報302、および属性情報303を、通信部15を介してユーザ端末20に送信する(S14)。
 以上の解析方法S1によれば、個人情報を秘匿した状態でユーザから解析依頼された画像データ301を解析することができる。そのため、不特定多数のユーザから解析依頼を受ける場合であっても、個人情報の保護を図りつつ、解析を行うことができる。
 〔実施形態2〕
 本開示の他の実施形態について、以下に説明する。説明の便宜上、上記実施形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。本実施形態では、解析システム70Aが、骨のX線画像を解析して、骨密度、骨密度の相対的な比較、骨折の可能性(%)などを出力する場合を例にとって説明する。
 (解析システム70Aの構成)
 図4は、本開示の実施形態2に係る解析システム70Aの構成を示すブロック図である。図示するように、解析装置1Aの制御部16は、通信制御部11、取得部12、解析部13、生成部18及び判定部19を備える。これらのうち、通信制御部11、取得部12、および解析部13、については、実施形態1で説明したこれらの各部と同様の機能を有するので、ここでの説明は省略する。
 記憶部17は、取得部12が取得した画像データ301(医用データ)、暗号化患者情報302、属性情報303を紐付けて格納する。
 生成部18は、解析部13が解析した解析結果の導出根拠に関する情報(以下「導出根拠データ311」という)を生成する。導出根拠データ311とは、機械モデル131がなぜそのような解析結果を導出したのかという根拠の少なくとも1つを意味する。例えば、導出根拠データ311とは、主に画像のどの箇所をもとに解析結果を導出したかを示す情報であってもよい。導出根拠データ311は、少なくとも暗号化患者情報302と紐づけられ、記憶部17に格納される。生成部18の機能の具体例については後述する。
 (判定部19)
 判定部19は、取得部12が取得した暗号化患者情報302が、患者識別情報320が実際に暗号化されたものであるか否かを判定する。暗号化患者情報302が実際に暗号化されたものではないと判定された場合は、取得部12は、取得した暗号化患者情報302を削除してもよい。このような判定部19を備えることにより、仮に、ユーザ端末20から送信された暗号化患者情報302が、患者識別情報320を暗号化したものではなかった場合、取得した画像データ301は解析されることなく、暗号化患者情報302および属性情報303とともに削除される。そのため、画像データ301を含む取得情報172が解析装置1Aの内部で保存されることはない。暗号化されたものであるか否かの判定は、例えば、暗号化されたデータの拡張子などから判定してよい。
 暗号化患者情報302が実際に暗号化されたものではないと判定された場合は、制御部16は、改めて患者識別情報320を暗号化して送付することを依頼するメッセージを、通信制御部11を介してユーザ端末20に送信してもよい。
 本開示では、解析装置1Aが判定部19を備える構成について説明するが、この構成に限定されない。例えば、解析システム70Aにおいて、判定部19は、解析装置1A、ユーザ端末20から解析装置1Aへの暗号化患者情報302の送信を仲介する病院側サーバの少なくともいずれかが備えていてもよい。一例において、解析装置1Aおよび病院側サーバが、共に判定部19を備える構成であってもよい。さらに、暗号化患者情報302の送信元であるユーザ端末20が判定部19を備える構成であってもよい。
 (ブラウザ画像200)
 図5は、ユーザがインターネットを介して解析装置1にアクセスしたとき、画像データ301等を入力するために、ウェブページに表示されるブラウザ画像200の一例を示す図である。
 図示するように、ブラウザ画像200には、画像解析の対象を示す<骨密度解析>という文字が最上部に表示される。ブラウザ画像200の左上部には、入力を受け付ける画面であることを示す<受付>という文字が表示される。その下部には、解析する画像データの入力を促す「解析する画像をここに置いて下さい」という文字と、画像データを貼り付ける(ドラッグアンドドロップする)領域(根拠領域)を示す枠205が表示される。さらにその下部には、患者識別情報320および属性情報303等の入力を促す「属性情報をここに入力して下さい」という文字と、入力するボックス206が表示される。ブラウザ画像200の右下には、送信を促す「送信」ボタン204が表示され、右上にはウェブサイトの初期画面に戻る「戻る」ボタン207が表示されている。
 図6は、画像データ301の一例として、骨密度解析を依頼するX線画像データ300を示す図である。X線画像データ300は、腰部X線画像、胸部X線画像等でもよく、あるいはDXA(Dual energy X-ray Absorptiometry)装置などで撮影されたX線画像であってもよい。DXA法を用いて骨密度を測定するDXA装置では、腰椎の骨密度が測定される場合、対象者の腰椎に対してその正面からX線が照射される。また、DXA装置では、大腿骨近位部の骨密度が測定される場合、対象者の大腿骨近位部に対してその正面からX線が照射される。ここで、「腰椎に対してその正面」および「大腿骨近位部に対してその正面」とは、腰椎および大腿骨近位部等の撮影部位に正しく向き合う方向を意図しており、対象者の体の腹側であってもよいし、対象者の背中側であってもよい。MD(micro densitometry)法は手部にX線が照射される。超音波法は、腰椎、大腿骨、踵または脛等の骨に超音波を当てて骨密度を測定する方法である。また、画像データはX線画像でなくとも、骨の情報が含まれる画像であればよい。例えば、MRI(magnetic resonance imaging)画像、CT(computed tomography)画像、PET画像、および超音波画像等から推定され得る。
 本開示では、骨の状態に関する推定を行う対象がヒトである場合(すなわち、「対象者」)を例に挙げて説明するが、対象はヒトには限られない。骨の状態に関する推定を行う対象は、例えば、ウマ科、ネコ科、イヌ科、ウシ科またはブタ科等のヒト以外の哺乳動物であってもよい。そして、本開示は、これらの動物に対しても適用可能な実施形態であれば、「対象者」を「動物」と言い換えた実施形態も含むものである。
 本実施形態では、通信制御部11は、ユーザがインターネットを介して解析装置1Aにアクセスしたとき、ウェブページにブラウザ画像200を表示するとともに、通信部15を介して、暗号化アプリケーションを送信してもよい。ユーザが解析を依頼する画像データ301、患者識別情報320、および属性情報303を入力して「送信」ボタン204をクリックすると、患者識別情報320が暗号化され、画像データ301、属性情報303とともに、暗号化された暗号化患者情報302が解析装置1Aに送信される。そのため、ユーザが患者識別情報320の暗号化処理を行う必要はない。暗号化処理は、ユーザが「送信」ボタン204をクリックしたときに実行されるのではなく、クリックした後に暗号化処理が実行されてもよい。
 暗号化の手法は公知の手法でよく、限定されない。例えば、公開鍵と秘密鍵を組み合わせた暗号化手法であってもよい。暗号化は、解析システム70Aの運営者であっても復号できない方法であってもよい。これにより、ユーザが解析システム70Aの運営者に画像解析を依頼した場合でも、画像データ301と患者識別情報320との組み合わせが運営者側に流出する虞を低減することができる。
 取得部12は、ユーザ端末20から送信されたX線画像データ300と暗号化患者情報302、および属性情報303を取得して、解析部13に送信する。
 解析部13は、取得部12から送信されたX線画像データ300を機械モデル131に入力し、機械モデル131からの出力データを必要に応じて処理して、解析結果データ173を生成する。生成された解析結果データ173は、少なくとも暗号化患者情報302および属性情報303と紐づけられ、記憶部17に格納される。
 通信制御部11は、暗号化患者情報302および属性情報303と紐づけられた解析結果データ173を記憶部17から取得し、通信部15を介して、ユーザ端末20に送信する。
 ユーザ端末20が解析結果データ173を受信したとき、暗号化患者情報302は自動的に復号され、患者識別情報320が生成される。暗号化患者情報302が復号されるのは、解析結果データ173が送信されたときでもよいし、ユーザが自分で復号してもよい。
 これにより、ユーザ端末20は、解析結果データ173を患者の名前又は識別番号等を含む患者識別情報320とともに、画面に表示することができる。
 図7は、解析結果データ173を受信したユーザ端末20の画面に表示されるブラウザ画像400の一例を示す図である。ブラウザ画像400には、画像解析の内容を示す<骨密度解析>という文字が最上部に表示される。ブラウザ画像400の左上部には、解析結果を表示する画面であることを示す<解析結果>という文字が表示される。その下部には、患者の情報が表示されてもよい。その下部には、「あなたの骨密度は□/cm2です」という文字が表示される。ボックス401には、推定された骨密度の数値が表示される。さらにその下部に「若い人と比較して□%です」という文字が表示されてもよい。ボックス402には、若い成年の骨密度平均(YAM, Young Adult Mean)に対する比率が表示される。さらにその下部に「判定」の文字と、ボックス403に「骨量減少」などの文字が表示されてもよい。例えば、YAMに対する比率が80%を下回ると、「骨量減少」と判定され、70%以下であると「骨粗鬆症」の可能性があると判定される。ブラウザ画像400には、「終了」ボタン404、「戻る」ボタン405があってもよい。「戻る」ボタン405は、例えば、前画面に戻るものであってもよいし、ホーム画面に戻るものであってもよいし、所定の画面に戻るものであってもよい。
 (生成部18)
 次に、生成部18の詳細について説明する。本実施形態では、生成部18が、解析部13が解析した解析結果の導出根拠データ311を生成する。通信制御部11は、生成部18が生成した導出根拠データ311を含めてユーザ端末20に送信してもよい。
 解析結果データ173は機械モデル131からの出力に基づいているが、機械モデル131からの出力には、解析の過程は含まれない。そのため、機械モデル131からの出力だけを見ても、その出力の信頼性は判断できないことが一般的である。そこで、導出根拠データ311を含めて解析結果データ173をユーザ端末20に送信することで、ユーザは解析結果に対する信頼感を向上させる一助とすることができる。
 例えば、導出根拠データ311は、機械モデル131に入力した画像データ301に新たな情報が追加された加工画像データ310(根拠画像データ)であってもよい。例えば、新たな情報は、画像データ301の中で解析結果を導出する主要な根拠となった領域を示す情報であってもよい。つまり、加工画像は、入力した画像データに、主要な根拠となった領域を示す情報を追加した画像であってもよい。領域を示す情報とは、例えば着色又は枠囲いなど、領域の範囲がわかる情報である。画像解析では、画像のある領域が主な推定根拠になるケースが多いため、このような領域を示す情報により、推定の根拠になった領域をユーザが確認することができる。
 加工画像データ310は、ユーザが入力した画像データ301の全ての情報を含む必要はない。例えば、加工画像データ310は、入力した画像データ301をトリミングした画像データであってもよく、あるいは、入力した画像データ301よりも解像度が低い画像であってもよい。このようにすることで、送受信するデータの容量を少なくすることができる。
 図8は、解析結果データ173に加えて、導出根拠データ311をユーザ端末20に送信するブラウザ画像500の一例を示す図である。ブラウザ画像500は、図7で示す解析結果データ173に、導出根拠データ311(領域503を含む加工画像データ502)が追加されている。
 具体的には、ブラウザ画像500には、解析結果501とともに、入力した画像データ(図6のX線画像データ300)に、四角形の領域503が追加加工された加工画像データ502が表示されている。図8に示すように、本実施形態では、画像データを解析する機械モデル131により導出された解析結果501と、導出根拠データ311とを含む加工画像データ502と、が1つの画面に表示されている。ブラウザ画像500には、「戻る」ボタン506、「終了」ボタン507、および「将来予測」ボタン505が表示されてもよい。「将来予測」ボタン505の役割については後述する。
 図9は、図8の領域503の画像の拡大模式図である。領域503には、L1からL4に示す4つの腰椎が含まれている。これは、腰椎L1~L4が解析結果の根拠となった領域であることを示している。実際に、腰椎L1~L4は、その骨密度が全身の骨密度の平均値と関連していることが知られている。即ち、枠囲いされた領域503は、機械モデル131の解析結果が、この腰椎L1~L4の骨密度に基づいて導出されていることを示している。
 解析結果の根拠となった領域は、セグメンテーションされた領域を含んでいてもよい。セグメンテーションとは、画像をいくつかの領域に分割することである。セグメンテーションは、機械モデル131の解析処理量を低減するために行われる。即ち、機械モデル131は、セグメンテーションされた領域のみを解析してもよい。セグメンテーションされた領域は、任意の範囲に設定すればよい。セグメンテーションされた領域は、例えば矩形、正方形、円形であってもよい。セグメンテーションされた領域が正方形の場合、機械モデル131の解析処理量を低減することができる。腰椎のX線画像を解析する場合は、例えば、腰椎L1~L4を含む範囲がセグメンテーションされる。そのため、セグメンテーション領域の大きさは画像中の腰椎L1~L4の大きさにより変化してもよい。セグメンテーション領域は、腰椎L1~L4の配列方向において、例えば、腰椎L1~L4よりも少し大きく設定してもよいし、腰椎L1~L4の辺と重なるように設定してもよい。セグメンテーション領域は、例えば、常に所定の寸法であってもよいし、医用画像に応じて寸法を設定してもよい。例えば、セグメンテーション領域は、腰椎L1~4の位置を特定し、当該腰椎L1~L4の配列方向の長さを設定した後に腰椎L1~L4の垂直方向の長さを設定してもよい。セグメンテーションは、機械モデル131が実行してもよい。機械モデル131は、セグメンテーションを行うために、解析領域のアノテーションが付与された画像を学習していてもよい。
 また、生成部18は、解析結果の根拠となった領域のヒートマップを生成してもよい。この場合、例えば、ヒートマップの外縁がセグメンテーション領域を指すことになる。ヒートマップは、骨密度の大きさを任意の色の濃度で表す方法である。例えば、生成部18は、着目の度合を示すヒートマップを生成してもよい。また、骨密度の数値を示すヒートマップを生成してもよい。また、生成部18は、骨折する可能性(確率)を示すヒートマップを生成してもよい。ヒートマップに用いる画像は、静止画でもよく、動画であってもよい。動画で示すことで、例えば、様々なヒートマップを順番にフェードさせることで、各ヒートマップ間の関係を視覚的に認識することが容易となる。また、解析結果が、セグメンテーション領域以外も含む骨密度のヒートマップである場合には、その一部のセグメンテーション領域を枠で囲んでもよい。
 生成部18は、解析結果の根拠となった領域の情報を解析部13から取得してもよい。具体的には、生成部18は、解析部13から解析結果の根拠となった領域を取得し、その領域を示す情報(領域503を囲む枠線など)を生成してもよい。生成部18は、解析部13から領域内の着目の度合データ、骨密度データ、又は骨折する可能性を示す情報を取得し、ヒートマップを生成してもよい。生成部18は、着目の度合データを示すヒートマップと骨密度データを示すヒートマップと骨折する可能性を示すヒートマップのいずれか複数を生成してもよい。着目の度合データを示すヒートマップと骨密度データを示すヒートマップと骨折する可能性を示すヒートマップを重ねて表示する場合、生成部18は、着目の度合データを示すヒートマップの色と骨密度データを示すヒートマップの色と骨折する可能性を示すヒートマップの色とを異ならせてもよい。
 機械モデル131は、例えばX線画像データ300をNNMによって解析する。NNMでは、画像をいったん細かい領域に分割してそれぞれを数値化し、複数の領域をプーリング処理してより大きい領域に統合してまた数値化するという処理を繰り返している。そこで、機械モデル131は、処理結果に影響を与える数値(例えば相対的に大きな数値)をもつ領域を根拠となる領域であるとして抽出してもよい。
 図8に示す例では、解析の対象となるX線画像データ300に、解析結果の根拠となった領域503を重畳して表示した加工画像データ502を説明した。しかし、加工画像データはこれに限定されない。例えば、解析装置1は、解析対象の画像における解析結果の根拠となった領域の位置情報(座標など)をユーザ端末20に送信し、ユーザ端末20に解析対象の画像に領域表示した加工画像データを表示させてもよい。
 図8に示すような画面は、医師が患者に解析結果を説明する場合に用いることができる。つまり、単に解析結果を患者に説明するだけではなく、画像データのどの領域を根拠にこのような解析結果が出されたのかを説明することができる。そのため、医師の解析結果に対する信頼感を向上させることができるだけでなく、患者も解析結果に納得しやすくなるという効果が得られる。
 図8に示す例では、解析結果501と、導出根拠データ311を含む加工画像データ502とが1つの画面に表示されている。しかし、「1つの画面」とは、画面に同時に表示されなくてもよい。例えば、画面を上下又は左右にスクロールして表示されるものであってもよい。つまり、画面を上下又は左右にスクロールして表示される範囲を「1つの画面」と称する。
 図10は、解析部13が解析した、画像データから推定される患者の現時点における骨折の可能性と、その患者が3年後に骨折する可能性とを表示するブラウザ画像700の一例を示す模式図である。将来の時期は3年後に限定されず、任意の時期(例えばX年後)でもよい。これは、図8に示すブラウザ画像500の右下にある「将来予測」ボタン505をクリックすることで表示される。
 ブラウザ画像700は、画像解析の対象を示す<骨密度解析>という文字が最上部に表示される。ブラウザ画像700の左上部には、将来予測を表示する画面であることを示す<将来予測>という文字が表示される。その下部には、患者の情報が表示されてもよい。その下部には、「あなたの大腿骨の骨折可能性は□%です」という文字が表示される。ボックス701には、現時点で推定された骨折可能性の数値が表示される。さらにその下部に「3年後の大腿骨の骨折可能性は□%です」という文字が表示されてもよい。ボックス702には、3年後に予測された骨折可能性の数値が表示される。また、この画像に、推定根拠又は予測根拠に関する情報を併せて表示してもよい。
 このような画面は、医師が患者に現時点及び将来の骨折可能性を説明する場合に用いることができる。推定根拠又は予測根拠に関する情報を併せて表示した場合は、患者への説得力が増加する効果が得られる。
 (機械モデル131)
 次に、機械モデル131について説明する。機械モデル131は、骨の状態に関する推定を行うモデルであり、入力する画像データは骨が含まれる画像であり、解析結果として当該骨の状態に関する推定結果を出力する。例えば、機械モデル131は、骨のX線画像から、骨密度、骨密度の相対的な比較、骨折の有無、骨折の可能性などの、骨の状態に関する推定結果又は計算結果を出力するように学習された学習済モデルである。骨密度は、画像データに含まれる骨部位の計算された骨密度でもよく、画像データから推定された、全身の平均的な骨密度でもよい。画像から骨密度を計算する方法は、公知の方法を用いることができる。骨密度の相対的な比較とは、推定された骨密度の、YAMに対する比率である。骨折の有無は、入力された画像データのなかに骨折があるかないかの何れかを示す情報である。骨折の可能性とは、特定の部位(例えば大腿骨頸部など)の骨が骨折する可能性である。骨の状態に関する推定結果は、画像が撮影された時点での推定結果でもよく、その時点から所定の期間が経過した時点での予測であってもよい。
 機械モデル131は、画像データを撮像した時点で推定される骨密度、画像データを撮像した時点から所定の期間が経過した時点で予測される骨密度、画像データを撮像した時点で推定される骨折部位とその可能性、及び画像データを撮像した時点から所定の期間が経過した時点で予測される骨折部位とその可能性、のうちの少なくともいずれかを推定結果として出力してもよい。
 (機械モデル131の学習方法)
 次に、機械モデル131の学習方法について説明する。機械モデル131の学習、例えば、骨密度を推定する学習は、骨密度が特定された骨のX線画像を教師データとして行ってもよい。骨折の可能性を推定する学習は、骨のX線画像とその患者がその後所定の期間内に骨折したかどうかのデータを教師データとして行ってもよい。骨密度の相対的な比較は学習する必要はなく、推定された骨密度をYAMで割って求める。また、将来的な予測の学習は、骨密度が特定された骨のX線画像とその患者がその後所定の期間後にどの程度の骨密度となったか、あるいは骨折したか否かのデータを教師データとして用いて行ってもよい。教師データに、教師データとなった患者の、運動量、食事内容、喫煙、飲酒等の生活習慣を含めることにより、さらに精度の良い推定又は予測が可能な機械モデル131を構築することができる。
 実施形態2では、機械モデル131として骨密度などの骨の状態に関する推定を行うように学習した機械モデルを例にとって説明した。この場合は、入力する画像データは骨のX線画像であり、出力は当該骨の状態に関する推定結果である。しかし、機械モデル131はこのようなモデルに限られない。例えば、機械モデル131は、細胞病理解析モデルであってもよい。この場合、入力する画像データは細胞の顕微鏡画像であり、出力は当該細胞の病的変異の有無であってもよい。あるいは、画像データは、X線画像、CT画像またはマンモグラフィ画像等であり、出力は癌の有無であってもよい。
 以上の実施形態2に係る解析システム70Aの構成によれば、導出根拠データ311を解析結果データ173と併せてユーザに提供することができる。そのため、実施形態1に係る解析システム70の効果に加えて、ユーザの解析結果に対する信頼感を向上させることができるという効果を奏する。また、患者に説明する際に、患者が解析結果に納得しやすいという効果が得られる。
 次に、実施形態2に係る、制御部16が実行する解析方法S2の流れについて説明する。解析方法S2は、ステップS21からステップS24を含む。ステップS21からステップS23までは、実施形態1で説明した解析方法S1で説明したステップS11からステップS13までと同様である。
 ステップS24は、通信制御部11は、解析部13が解析した解析結果データ173と、導出根拠データ311と、暗号化患者情報302とをユーザ端末20に送信するステップである(図示せず)。
 以上の解析方法S2によれば、導出根拠データ311を解析結果データ173と併せてユーザに提供することができる。そのため、実施形態1に係る解析方法S1の効果に加えて、ユーザの解析結果に対する信頼感を向上させることができるという効果を奏する。また、患者に説明する際に、患者が解析結果に納得しやすいという効果が得られる。
 〔ソフトウェアによる実現例〕
 解析システム70,70A(以下、「システム」と呼ぶ)の機能は、当該システムとしてコンピュータを機能させるためのプログラムであって、当該システムの各部としてコンピュータを機能させるためのプログラムにより実現することができる。
 この場合、上記システムは、上記プログラムを実行するためのハードウェアとして、少なくとも1つの制御装置(例えばプロセッサ)と少なくとも1つの記憶装置(例えばメモリ)を有するコンピュータを備えている。この制御装置と記憶装置により上記プログラムを実行することにより、上記各実施形態で説明した各機能が実現される。
 上記プログラムは、一時的ではなく、コンピュータ読み取り可能な、1または複数の記録媒体に記録されていてもよい。この記録媒体は、上記装置が備えていてもよいし、備えていなくてもよい。後者の場合、上記プログラムは、有線または無線の任意の伝送媒体を介して上記装置に供給されてもよい。
 また、上記各部の機能の一部または全部は、論理回路により実現することも可能である。例えば、上記各部として機能する論理回路が形成された集積回路も本開示の範疇に含まれる。この他にも、例えば量子コンピュータにより上記各部の機能を実現することも可能である。
 以上、本開示に係る発明について、諸図面および実施例に基づいて説明してきた。しかし、本開示に係る発明は上述した各実施形態に限定されるものではない。すなわち、本開示に係る発明は本開示で示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本開示に係る発明の技術的範囲に含まれる。つまり、当業者であれば本開示に基づき種々の変形または修正を行うことが容易であることに注意されたい。また、これらの変形または修正は本開示の範囲に含まれることに留意されたい。
 (まとめ)
 (態様1)
 本開示の態様1に係る解析装置は、対象者の医用データ、及び、該対象者の第1識別情報を暗号化した第2識別情報を、ユーザ端末から取得する取得部と、取得された前記医用データを解析する解析部と、前記解析部が解析した解析結果と、前記第2識別情報と、を前記ユーザ端末に送信する送信部と、を備える。
 (態様2)
 本開示の態様2に係る解析装置は、上記態様1において、前記第2識別情報の復号を行う前記ユーザ端末に前記解析結果および前記第2識別情報を送信してもよい。
 (態様3)
 本開示の態様3に係る解析装置は、上記態様1又は2において、前記ユーザ端末は、復号を行うアプリケーションを備え、当該アプリケーションは、前記暗号化を行う機能を備えてもよい。
 (態様4)
 本開示の態様4に係る解析装置は、上記態様3において、前記復号を行うアプリケーション本体を、前記ユーザ端末に対して送信してもよい。
 (態様5)
 本開示の態様5に係る解析装置は、上記態様1から4のいずれか1つにおいて、前記第2識別情報は、前記ユーザ端末上では表示されなくてもよい。
 (態様6)
 本開示の態様6に係る解析装置は、上記態様1から5のいずれか1つにおいて、取得した前記第2識別情報が前記第1識別情報を所定の方式で暗号化されたものであるか否かを判定する判定部をさらに備え、前記取得部は、前記第2識別情報が所定の方式で暗号化されたものではないと判定され場合、取得した前記第2識別情報を削除してもよい。
 (態様7)
 本開示の態様7に係る解析装置は、上記態様1から6のいずれか1つにおいて、前記医用データは画像データであってもよい。
 (態様8)
 本開示の態様8に係る解析装置は、上記態様1から7のいずれか1つにおいて、前記医用データは前記対象者の骨を撮像した画像データであり、前記解析部は、前記解析結果として前記対象者の骨の状態に関する推定結果を出力してもよい。
 (態様9)
 本開示の態様9に係る解析装置は、上記態様1から8のいずれか1つにおいて、前記解析結果の導出根拠に関する根拠情報を生成する生成部をさらに備え、前記送信部は、前記根拠情報を該解析結果に含めて前記ユーザ端末に送信してもよい。
 (態様10)
 本開示の態様10に係る解析装置は、上記態様9において、前記医用データは画像データであり、前記根拠情報は、前記医用データに、前記解析結果を導出する根拠となった根拠領域を前記医用データ中に示す情報を加えた根拠画像データであってもよい。
 (態様11)
 本開示の態様11に係る解析装置は、上記態様10において、前記根拠画像データは、前記根拠領域を前記画像データ上に示した画像データであってもよい。
 (態様12)
 本開示の態様12に係る解析装置は、上記態様8において、前記解析部は、前記画像データを撮像した時点における前記対象者の骨の骨密度、前記医用画像データを撮像した時点から所定の期間が経過した時点における該対象者の骨の骨密度、前記医用画像データを撮像した時点で骨折が推定される部位と該骨折が生じている可能性、及び前記医用画像データを撮像した時点から所定の期間が経過するまでに骨折することが推定される部位と該骨折が生じる可能性、のうちの少なくともいずれかを推定結果として出力してもよい。
 (態様13)
 本開示の態様13に係る解析方法は、少なくとも1つのプロセッサが、対象者の医用データ、及び、該対象者の第1識別情報を暗号化した第2識別情報を、ユーザ端末から取得することと、取得された前記医用データを解析することと、解析結果と、前記第2識別情報と、を前記ユーザ端末に送信することと、を含む。
 (態様14)
 本開示の態様14に係る解析プログラムは、上記態様1から12のいずれか1つに記載の解析装置としてコンピュータを機能させるための解析プログラムであって、上記取得部、上記解析部および上記送信部としてコンピュータを機能させるためのコンピュータプログラムである。
 (態様15)
 本開示の態様15に係る記録媒体は、上記態様14に記載の解析プログラムを記録したコンピュータ読み取り可能な非一時的な記録媒体である。
1、1A 解析装置
11 通信制御部(送信部)
12 取得部
13 解析部
18 生成部
19 判定部
20 ユーザ端末
131 機械モデル
173 解析結果データ(解析結果)
301 画像データ(医用画像データ)
302 暗号化患者情報(第2識別情報)
310 加工画像データ(根拠画像データ)
311 導出根拠データ(解析結果の導出根拠に関する情報)
320 患者識別情報(第1識別情報)
503 領域(根拠領域)

Claims (15)

  1.  対象者の医用データ、及び、該対象者の第1識別情報を暗号化した第2識別情報を、ユーザ端末から取得する取得部と、
     取得された前記医用データを解析する解析部と、
     前記解析部が解析した解析結果と、前記第2識別情報と、を前記ユーザ端末に送信する送信部と、
    を備える解析装置。
  2. 前記第2識別情報の復号を行う前記ユーザ端末に前記解析結果および前記第2識別情報を送信する、
    請求項1に記載の解析装置。
  3.  前記ユーザ端末は、復号を行うアプリケーションを備え、当該アプリケーションは、前記暗号化を行う機能を備える、
    請求項1又は2に記載の解析装置。
  4.  前記復号を行うアプリケーション本体を、前記ユーザ端末に対して送信する、
    請求項3に記載の解析装置。
  5.  前記第2識別情報は、前記ユーザ端末上では表示されない、
    請求項1から4のいずれか1項に記載の解析装置。
  6.  取得した前記第2識別情報が前記第1識別情報を所定の方式で暗号化されたものであるか否かを判定する判定部をさらに備え、
     前記取得部は、前記第2識別情報が所定の方式で暗号化されたものではないと判定された場合、取得した前記第2識別情報を削除する、
    請求項1から5のいずれか1項に記載の解析装置。
  7.  前記医用データは画像データである、
    請求項1から6のいずれか1項に記載の解析装置。
  8.  前記医用データは前記対象者の骨を撮像した画像データであり、
     前記解析部は、前記解析結果として前記対象者の骨の状態に関する推定結果を出力する、
    請求項1から7のいずれか1項に記載の解析装置。
  9.  前記解析結果の導出根拠に関する根拠情報を生成する生成部をさらに備え、
     前記送信部は、前記根拠情報を該解析結果に含めて前記ユーザ端末に送信する、
    請求項1から8のいずれか1項に記載の解析装置。
  10.  前記医用データは画像データであり、
     前記根拠情報は、前記画像データに、前記解析結果を導出する根拠となった根拠領域を前記画像データ中に示す情報を加えた根拠画像データである、
    請求項9に記載の解析装置。
  11.  前記根拠画像データは、前記根拠領域を前記画像データ上に示した画像データである、
    請求項10に記載の解析装置。
  12.  前記解析部は、前記画像データを撮像した時点における前記対象者の骨の骨密度、前記画像データを撮像した時点から所定の期間が経過した時点における該対象者の骨の骨密度、前記画像データを撮像した時点で骨折が推定される部位と該骨折が生じている可能性、及び前記画像データを撮像した時点から所定の期間が経過するまでに骨折することが推定される部位と該骨折が生じる可能性、のうちの少なくともいずれかを推定結果として出力する、
    請求項8に記載の解析装置。
  13.  少なくとも1つのプロセッサが、
     対象者の医用データ、及び、該対象者の第1識別情報を暗号化した第2識別情報を、ユーザ端末から取得することと、
     取得された前記医用データを解析することと、
     解析結果と、前記第2識別情報と、を前記ユーザ端末に送信することと、
    を含む解析方法。
  14.  請求項1から12のいずれか1項に記載の解析装置としてコンピュータを機能させるための解析プログラムであって、上記取得部、上記解析部および上記送信部としてコンピュータを機能させるための解析プログラム。
  15.  請求項14に記載の解析プログラムを記録したコンピュータ読み取り可能な非一時的な記録媒体。
PCT/JP2023/039051 2022-10-28 2023-10-30 解析装置、解析方法、解析プログラム及び記録媒体 WO2024090585A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-173782 2022-10-28
JP2022173782 2022-10-28

Publications (1)

Publication Number Publication Date
WO2024090585A1 true WO2024090585A1 (ja) 2024-05-02

Family

ID=90831071

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/039051 WO2024090585A1 (ja) 2022-10-28 2023-10-30 解析装置、解析方法、解析プログラム及び記録媒体

Country Status (1)

Country Link
WO (1) WO2024090585A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004290240A (ja) * 2003-03-25 2004-10-21 New Industry Research Organization 遺伝子検査システム
JP2005518832A (ja) * 2002-02-27 2005-06-30 イメージング セラピューティクス,インコーポレーテッド X線画像の定量解析の方法と装置
JP2019057822A (ja) * 2017-09-21 2019-04-11 三菱スペース・ソフトウエア株式会社 医療データ検索システム、医療データ検索方法および医療データ検索プログラム
WO2020027228A1 (ja) * 2018-07-31 2020-02-06 株式会社Lily MedTech 診断支援システム及び診断支援方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005518832A (ja) * 2002-02-27 2005-06-30 イメージング セラピューティクス,インコーポレーテッド X線画像の定量解析の方法と装置
JP2004290240A (ja) * 2003-03-25 2004-10-21 New Industry Research Organization 遺伝子検査システム
JP2019057822A (ja) * 2017-09-21 2019-04-11 三菱スペース・ソフトウエア株式会社 医療データ検索システム、医療データ検索方法および医療データ検索プログラム
WO2020027228A1 (ja) * 2018-07-31 2020-02-06 株式会社Lily MedTech 診断支援システム及び診断支援方法

Similar Documents

Publication Publication Date Title
CN108806766B (zh) 针对基于能量的治疗设备的基于个人化图像的指导
Blau et al. Disaster victim identification: new applications for postmortem computed tomography
JP2022509995A (ja) 整形外科インプラントのためのシステム及び方法
Lewis et al. Telemedicine in acute-phase injury management: a review of practice and advancements
Struffert et al. Imaging of cochlear implant electrode array with flat-detector CT and conventional multislice CT: comparison of image quality and radiation dose
Dalchow et al. Value of digital volume tomography in patients with conductive hearing loss
Yoshimura et al. Epidemiology of locomotive organ disorders and symptoms: an estimation using the population-based cohorts in Japan
Arriaga et al. Telemedicine-assisted neurotology in post-Katrina Southeast Louisiana
WO2024090584A1 (ja) 画像生成装置、画像生成方法、表示装置、画像生成プログラム及び記録媒体
Biggs et al. Dental identification using 3D printed teeth following a mass fatality incident
Deshmukh et al. Preplanning and simulation of surgery using rapid modelling
Kong et al. Evaluation of the implanted cochlear implant electrode by CT scanning with three-dimensional reconstruction
WO2024090585A1 (ja) 解析装置、解析方法、解析プログラム及び記録媒体
KR20180105284A (ko) 원격 진료 방법
Bettoni et al. Bilateral bifid condyles: A rare etiology of temporomandibular joint disorders
Prado et al. Cutting edge technology in dermatology: Virtual reality and artificial intelligence
Bougher et al. Interobserver and intraobserver agreement of three-dimensionally printed models for the classification of proximal humeral fractures
Zafra et al. Analysis of equine cervical spine using three-dimensional computed tomographic reconstruction
Johnson et al. Transferring medical images on the world wide web for emergency clinical management: a case report
Trojanowska et al. How to reliably evaluate middle ear diseases? Comparison of different methods of post-processing based on multislice computed tomography examination
EP4125094A1 (en) Pseudonymized storage and retrieval of medical data and information
Kishore et al. Application tool for assisting diagnosis and forecast progression of abnormality and medical condition of patients
Chen et al. The positional relationship between facial nerve and round window niche in patients with congenital aural atresia and stenosis
Tolsdorff et al. Individual models for virtual bone drilling in mastoid surgery
Sahin et al. Cone-beam computed tomographic evaluation of styloid process in patients with temporomandibular disorders and asymptomatic individuals

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23882786

Country of ref document: EP

Kind code of ref document: A1