WO2022113587A1 - 画像表示装置、方法およびプログラム - Google Patents

画像表示装置、方法およびプログラム Download PDF

Info

Publication number
WO2022113587A1
WO2022113587A1 PCT/JP2021/039013 JP2021039013W WO2022113587A1 WO 2022113587 A1 WO2022113587 A1 WO 2022113587A1 JP 2021039013 W JP2021039013 W JP 2021039013W WO 2022113587 A1 WO2022113587 A1 WO 2022113587A1
Authority
WO
WIPO (PCT)
Prior art keywords
interest
image
region
information
display
Prior art date
Application number
PCT/JP2021/039013
Other languages
English (en)
French (fr)
Inventor
晶路 一ノ瀬
佳児 中村
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to EP21897565.4A priority Critical patent/EP4252663A4/en
Priority to JP2022565121A priority patent/JPWO2022113587A1/ja
Publication of WO2022113587A1 publication Critical patent/WO2022113587A1/ja
Priority to US18/314,796 priority patent/US20230281810A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B6/468Arrangements for interfacing with the operator or the patient characterised by special input means allowing annotation or message recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1601Constructional details related to the housing of computer displays, e.g. of CRT monitors, of flat displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/016Exploded view
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Definitions

  • This disclosure relates to image display devices, methods and programs.
  • CT Computer Tomography
  • MRI Magnetic Resonance Imaging
  • CAD Computer-Aided Diagnosis
  • CAD Computer-Aided Diagnosis
  • the analysis result generated by the CAD analysis process is associated with the test information such as the patient name, gender, age, and the modality obtained from the medical image, stored in the database, and used for diagnosis.
  • the doctor interprets the medical image by referring to the delivered medical image and the analysis result on his / her own image interpretation terminal. At this time, on the image interpretation terminal, the annotation is superimposed and displayed on the region of interest including the disease included in the medical image based on the analysis result.
  • Annotation is a general term for figures, characters, and symbols attached to medical images. For example, a rectangle surrounding the region of interest, a figure such as an arrow indicating the region of interest, and text such as the type and size of the disease are superimposed and displayed as annotations.
  • the interpretation doctor creates an interpretation report by referring to the annotations given to the region of interest.
  • the present disclosure has been made in view of the above circumstances, and an object of the present disclosure is to allow an image interpreter to refer only to annotations about an area of interest without performing troublesome operations.
  • the image display device comprises at least one processor.
  • the processor superimposes and displays the relevant information related to each of the multiple regions of interest contained in the medical image on the medical image so that it can be displayed or hidden. Identify at least one region of interest based on specific information that includes other information than dedicated information for identifying the region of interest of the user. Switch to view related information about the identified area of interest.
  • the processor may switch the related information related to the region of interest other than the region of interest to non-display or weak display.
  • other information may be observation conditions for medical images.
  • the other information may be the detection result of other operations related to the display or interpretation of the medical image.
  • the processor displays a medical image in which all related information is hidden.
  • related information about the region of interest may be displayed.
  • the medical image is a three-dimensional image including a plurality of tomographic images.
  • the other operation is a tomographic image paging operation.
  • the processor may identify the region of interest contained in the paging-manipulated tomographic image as the region of interest.
  • another operation is an operation of inputting a finding regarding a medical image.
  • the processor may specify the region of interest related to the term contained in the finding as the region of interest.
  • another operation is an operation of further adding related information to the region of interest included in the medical image.
  • the processor may specify the region of interest to which the relevant information is attached as the region of interest.
  • another operation is an operation of changing the size of the medical image based on the designated region of interest.
  • the processor may specify the designated region of interest as the region of interest.
  • the processor may switch to hide the related information superimposed on the region of interest by another operation.
  • the specific information may include only other information.
  • the related information may include annotations related to the region of interest.
  • the annotation may include at least one of the recognition result of the region of interest and the character information regarding the region of interest.
  • the region of interest may be a lesion or an organ included in a medical image.
  • the information processing method superimposes and displays related information related to each of a plurality of regions of interest contained in a medical image on the medical image so as to be switchable between display and non-display. Identify at least one region of interest based on specific information that includes other information than dedicated information for identifying the region of interest of the user. Switch to view related information about the identified area of interest.
  • image display method according to the present disclosure may be provided as a program for executing the computer.
  • the image interpreter can refer only to the annotation of the area of interest without performing troublesome operations.
  • FIG. 1 The figure which shows the schematic structure of the medical information system to which the image display device by embodiment of this disclosure is applied.
  • Functional configuration diagram of the image display device according to this embodiment A diagram schematically showing the relationship between the target image and the annotation
  • Diagram to explain the identification of the area of interest Diagram showing an enlarged target image A diagram showing a tomographic image with annotations displayed
  • a diagram showing a tomographic image with annotations displayed A diagram showing a tomographic image with annotations displayed
  • Flow chart showing processing performed in this embodiment A diagram showing a tomographic image in which a part of the annotation is weakly displayed.
  • a diagram showing a tomographic image in which part of the annotation is hidden A diagram showing a tomographic image in which part of the annotation is hidden A diagram showing a tomographic image in which part of the annotation is hidden A diagram showing a state in which a mask showing the area extraction result is superimposed and displayed on the image as related information. Diagram showing adjacent regions of interest A diagram showing a tomographic image in which part of the annotation is hidden
  • FIG. 1 is a diagram showing a schematic configuration of a medical information system 1.
  • the medical information system 1 shown in FIG. 1 is based on an inspection order from a doctor in a clinical department using a known ordering system, photographs of a part to be inspected of a subject, storage of a medical image acquired by the imaging, and an image interpreter. It is a system for interpreting medical images and creating interpretation reports, and for viewing the interpretation reports by the doctor of the requesting clinical department and observing the details of the medical images to be interpreted.
  • the medical information system 1 includes a plurality of imaging devices 2, a plurality of image interpretation WS (WorkStation) 3, a medical treatment WS4, an image server 5, and an image database (hereinafter, image DB (DataBase)) which are image interpretation terminals.
  • image DB DataBase
  • the report server 7 and the report database (hereinafter referred to as report DB) 8 are connected and configured so as to be able to communicate with each other via a wired or wireless network 10.
  • Each device is a computer on which an application program for functioning as a component of the medical information system 1 is installed.
  • the application program is stored in the storage device of the server computer connected to the network 10 or in the network storage in a state of being accessible from the outside, and is downloaded and installed in the computer as requested. Alternatively, it is recorded and distributed on a recording medium such as a DVD (Digital Versatile Disc) and a CD-ROM (Compact Disc Read Only Memory), and is installed in a computer from the recording medium.
  • the imaging device 2 is a device (modality) that generates a medical image representing the diagnosis target portion by photographing the diagnosis target portion of the subject. Specifically, it is a simple X-ray imaging apparatus, a CT apparatus, an MRI apparatus, a PET (Positron Emission Tomography) apparatus, and the like.
  • the medical image generated by the photographing apparatus 2 is transmitted to the image server 5 and stored in the image DB 6.
  • the image interpretation WS3 is a computer used by, for example, a radiology interpreter to interpret a medical image and create an image interpretation report, and includes an image display device according to the present embodiment.
  • a request for viewing a medical image to the image server 5 various image processing for the medical image received from the image server 5, display of the medical image, input acceptance of a finding sentence related to the medical image, and the like are performed.
  • the image interpretation WS3 creates an image interpretation report, requests registration and viewing of the image interpretation report to the report server 7, displays the image interpretation report received from the report server 7, and the like. These processes are performed by the interpretation WS3 executing a software program for each process.
  • the medical care WS4 is a computer used by doctors in the clinical department for detailed observation of images, viewing of interpretation reports, creation of electronic medical records, etc., and is a processing device, a display device such as a display, and an input device such as a keyboard and a mouse. It is composed of.
  • an image viewing request is made to the image server 5
  • an image received from the image server 5 is displayed
  • an image interpretation report viewing request is made to the report server 7
  • an image interpretation report received from the report server 7 is displayed.
  • the image server 5 is a general-purpose computer in which a software program that provides a database management system (DataBase Management System: DBMS) function is installed. Further, the image server 5 includes a storage in which the image DB 6 is configured. This storage may be a hard disk device connected by the image server 5 and the data bus, or a disk device connected to NAS (Network Attached Storage) and SAN (Storage Area Network) connected to the network 10. It may be. Further, when the image server 5 receives the request for registration of the medical image from the photographing apparatus 2, the image server 5 arranges the medical image in a format for a database and registers the medical image in the image DB 6.
  • DBMS Database Management System
  • the image data and incidental information of the medical image acquired by the imaging device 2 are registered in the image DB 6.
  • the incidental information includes, for example, an image ID (identification) for identifying an individual medical image, a patient ID for identifying a subject, an examination ID for identifying an examination, and a unique ID assigned to each medical image ( UID: unique identification), examination date when the medical image was generated, examination time, type of imaging device used in the examination to acquire the medical image, patient information such as patient name, age, gender, examination site (imaging) Information such as site), imaging information (imaging protocol, imaging sequence, imaging method, imaging conditions, use of contrast medium, etc.), series number or collection number when multiple medical images are acquired in one examination. ..
  • the image server 5 when the image server 5 receives the browsing request from the image interpretation WS3 and the medical examination WS4 via the network 10, the image server 5 searches for the medical image registered in the image DB 6, and uses the searched medical image as the requesting image interpretation WS3 and the medical examination. Send to WS4.
  • the report server 7 incorporates a software program that provides the functions of a database management system to a general-purpose computer.
  • the report server 7 receives the image interpretation report registration request from the image interpretation WS3, the report server 7 prepares the image interpretation report in a database format and registers the image interpretation report in the report DB 8.
  • the image interpretation report created by the image interpretation doctor using the image interpretation WS3 is registered in the report DB8.
  • the interpretation report is for accessing, for example, a medical image to be interpreted, an image ID for identifying the medical image, an image interpretation doctor ID for identifying the image interpretation doctor who performed the image interpretation, a disease name, a disease location information, and a medical image. Information and the like may be included.
  • the report server 7 when the report server 7 receives the image interpretation report viewing request from the image interpretation WS3 and the medical treatment WS4 via the network 10, the report server 7 searches for the image interpretation report registered in the report DB 8 and uses the searched image interpretation report as the requester's image interpretation. It is transmitted to WS3 and medical treatment WS4.
  • the diagnosis target is the chest and abdomen of the human body
  • the medical image is a three-dimensional CT image consisting of a plurality of tomographic images including the chest and abdomen.
  • the interpretation doctor interprets the CT image to create an interpretation report including findings on diseases such as lungs and liver contained in the thoracoabdomen.
  • the medical image is not limited to the CT image, and any medical image such as an MRI image and a simple X-ray image acquired by a simple X-ray imaging apparatus can be used.
  • the medical image when creating the interpretation report, the medical image is analyzed and the region of interest contained in the medical image is detected.
  • the image interpreter interprets the image while referring to the detection result. The detection of the region of interest will be described later.
  • Network 10 is a wired or wireless local area network that connects various devices in the hospital.
  • the network 10 may be configured such that the local area networks of each hospital are connected to each other by the Internet or a dedicated line.
  • FIG. 2 describes the hardware configuration of the image display device according to the present embodiment.
  • the image display device 20 includes a CPU (Central Processing Unit) 11, a non-volatile storage 13, and a memory 16 as a temporary storage area.
  • the image display device 20 includes a display 14 such as a liquid crystal display, an input device 15 including a pointing device such as a keyboard and a mouse, and a network I / F (InterFace) 17 connected to the network 10.
  • the CPU 11, the storage 13, the display 14, the input device 15, the memory 16, and the network I / F 17 are connected to the bus 18.
  • the CPU 11 is an example of the processor in the present disclosure.
  • the storage 13 is realized by an HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory, or the like.
  • the image display program 12 is stored in the storage 13 as a storage medium.
  • the CPU 11 reads the image display program 12 from the storage 13, expands it into the memory 16, and executes the expanded image display program 12.
  • FIG. 3 is a diagram showing a functional configuration of an image display device according to the present embodiment.
  • the image display device 20 includes an image acquisition unit 21, an analysis unit 22, a display control unit 23, and a specific unit 24. Then, when the CPU 11 executes the image display program 12, the CPU 11 functions as an image acquisition unit 21, an analysis unit 22, a display control unit 23, and a specific unit 24.
  • the image acquisition unit 21 acquires a medical image to be read for creating an image interpretation report from the image server 5 in response to an instruction from the input device 15 by the image interpretation doctor who is the operator.
  • the medical image to be read is referred to as a target image G0 in the following description.
  • a plurality of images may be acquired in one inspection. Since all the images acquired in one inspection are interpreted, there may be a plurality of target images G0. Further, with respect to the patient to be inspected for interpreting the target image G0, a plurality of images may have been acquired and stored in the image server 5 in the past.
  • the target image G0 of the patient to be inspected when the target image G0 of the patient to be inspected is to be read, all the images acquired by photographing the patient to be inspected including the target image G0 are acquired from the image server 5.
  • the images other than the target image G0 are acquired before the target image G0 in a timely manner, and thus are referred to as past images GP0.
  • the target image G0 is a three-dimensional CT image composed of a plurality of tomographic images acquired by photographing the chest and abdomen of the patient to be inspected. Further, when a plurality of target images G0 are acquired in one inspection, each target image G0 may include an X-ray image acquired by simple X-ray photography in addition to a CT image. Further, the past image GP0 may include an X-ray image or the like acquired by simple X-ray photography in addition to the CT image.
  • the analysis unit 22 detects the region of the abnormal shadow included in the target image G0 as the region of interest, and derives the annotation for the detected region of interest.
  • the analysis unit 22 detects a region of shadow of a plurality of types of diseases as a region of interest from the target image G0 by using a known computer-aided image diagnosis (that is, CAD) algorithm, and derives the properties of the region of interest. , Derivation of annotations.
  • the analysis unit 22 detects abnormal shadows of a plurality of types of diseases as regions of interest from the target image G0, and machine learning is performed to derive the properties of the abnormal shadows. It has a learning model 22A.
  • deep learning is performed using teacher data so as to determine whether or not each pixel (voxel) in the target image G0 represents a shadow or an abnormal shadow of various diseases. It consists of a convolutional neural network (CNN (Convolutional Neural Network)).
  • CNN Convolutional Neural Network
  • the learning model 22A uses, for example, a teacher image including an abnormal shadow, a teacher data consisting of correct answer data representing a region of the abnormal shadow in the teacher image and the nature of the abnormal shadow, and a teacher data consisting of a teacher image not including the abnormal shadow. Is constructed by learning.
  • the learning model 22A derives a certainty (likelihood) indicating that each pixel in the medical image is an abnormal shadow, and uses a region consisting of pixels whose certainty is equal to or higher than a predetermined threshold value as a region of interest. To detect.
  • the certainty is a value of 0 or more and 1 or less.
  • the learning model 22A derives the properties of the detected region of interest.
  • the properties include the position, size, type of disease, etc. of the region of interest.
  • the learning model 22A may detect the region of interest from the three-dimensional target image G0, but may also detect the region of interest from each of the plurality of tomographic images constituting the target image G0. good. Further, as the learning model 22A, in addition to the convolutional neural network, any learning model such as a support vector machine (SVM (Support Vector Machine)) can be used.
  • SVM Support Vector Machine
  • the analysis unit 22 derives a figure surrounding the region of interest detected by the learning model, a text representing the property, a line connecting the figure and the text, and the like as annotations.
  • the annotation is derived as an image of a channel different from the target image G0 and is attached to the target image G0. Therefore, if the image of the channel of the annotation is superimposed and displayed on the target image G0, the annotation is superimposed and displayed on the target image G0.
  • FIG. 4 is a diagram schematically showing the relationship between the target image G0 and the annotation.
  • the target image G0 includes a plurality of tomographic images Dj. Further, it is assumed that an abnormal shadow is detected as a region of interest in each of the tomographic image groups GA1, GA2, and GA3 among the plurality of tomographic images Dj, and annotations are added to the detected region of interest.
  • the tomographic image Dj represents an axial cross section of a human body, but is not limited thereto.
  • FIG. 5 is a diagram showing annotations given to the tomographic image groups GA1 to GA3 shown in FIG.
  • the region of interest R1 is detected in the tomographic image DA1 included in the tomographic image group GA1, and the annotation 31 is added to the region of interest R1.
  • the annotation 31 is character information relating to the region of interest R1, and the content thereof is "recognize a SOL of 10 mm in S1.” SOL is an abbreviation for Space Occupying Lesion.
  • the annotation 31 is attached to all tomographic images in which the region of interest R1 is detected, which is included in the tomographic image group GA1.
  • the region of interest R2 is detected in the left lung, and the region of interest R3 is detected in the right lung.
  • the annotation 32 for the region of interest R2 of the left lung and the annotation 33 for the region of interest R3 of the right lung are added, respectively.
  • the annotation 32 includes a graphic 32A surrounding the region of interest of the left lung included in the tomographic image DA2, a text 32B representing the properties of the region of interest surrounded by the graphic 32A, and a leader line 32C connecting the graphic 32A and the text 32B.
  • the annotation 33 includes a figure 33A surrounding the area of interest of the right lung included in the tomographic image DA2, a text 33B representing the properties of the area of interest surrounded by the figure 33A, and a leader line 33C connecting the figure 33A and the text 33B.
  • the texts 32B and 33B relating to the region of interest are, for example, the position, size and properties of the region of interest.
  • the annotations 32 and 33 are added to all the tomographic images in which the regions of interest R2 and R3 are detected, which are included in the tomographic image group GA2.
  • the region of interest R4 contained in the liver is detected, and the annotation 34 for the region of interest R4 in the liver is added.
  • the annotation 34 includes a figure 34A surrounding the area of interest of the liver included in the tomographic image DA3, a text 34B representing the properties of the area of interest surrounded by the figure 34A, and a leader line 34C connecting the figure 34A and the text 34B.
  • the annotation 34 is attached to all tomographic images in which the region of interest R4 is detected, which is included in the tomographic image group GA3.
  • the display control unit 23 displays the image of the patient to be inspected including the target image G0 and the past image GP0 on the display 14.
  • FIG. 6 is a diagram showing an image display screen. As shown in FIG. 6, the display screen 40 has a test list area 41 for displaying a test list, a target image G0 included in the selected test, and a thumbnail image area 42 for displaying thumbnail images of past images of the patient to be tested. , Includes an image display area 43 for displaying images.
  • the patient name, patient ID, and examination date and time are displayed for each examination.
  • the operator can select the patient to be examined by clicking the desired examination list.
  • diagonal lines are added to the rows of patients to be examined selected in the examination list area 41.
  • thumbnail images of the target image G0 of the selected patient to be examined and the representative image of the past image GP0 are displayed.
  • the thumbnail image area 42 has six thumbnail images C1 to C6 as shown in FIG. Is displayed.
  • the image is a three-dimensional image
  • a reduced image of a tomographic image of a predetermined tomographic surface included in the three-dimensional image can be used as a representative image.
  • the reduced image can be used as a representative image.
  • the thumbnail images C1 and C2 are the thumbnail images of the target images G1 and G2
  • the thumbnail images C3 to C6 are the thumbnail images of the past images GP1 to GP4.
  • the target image G1 corresponds to the target image G0 shown in FIG. 4, and abnormal shadows are detected as a region of interest in the tomographic image groups GA1, GA2, and GA3 among the plurality of tomographic images Dj included in the target image G1. , It is assumed that the detected region of interest is annotated.
  • the image selected in the thumbnail image area 42 is displayed in the image display area 43.
  • the image display area 43 includes four display areas 43A to 43D.
  • representative images of the four images selected from the six thumbnail images C1 to C6 are displayed in the display areas 43A to 43D of the image display area 43, respectively.
  • the thumbnail images other than the images displayed in the image display area 43 are provided with diagonal lines in order to clearly indicate that they are not displayed in the image display area 43.
  • the thumbnail images C1 and C2 correspond to the target images G1 and G2
  • the target images G1 and G2 are displayed in the display areas 43A and 43B, respectively.
  • the past images GP1 and GP2 are displayed in the display areas 43C and 43D.
  • the target image G1 is annotated as shown in FIG. 4, the annotation is added to the representative image of the target image G1 displayed on the initial display screen 40 immediately after being displayed on the display 14. Not superimposed.
  • the image interpreter interprets the target image G1 displayed on the display screen 40 to confirm the region of interest detected by the analysis unit 22, and newly creates an abnormal shadow that the analysis unit 22 could not detect. Do the work to identify to.
  • the image interpreter can perform a paging operation for switching the tomographic plane of the target image G1 displayed in the display area 43A by moving the mouse cursor 45 to the display area 43A and rotating the mouse wheel. Further, the image interpreting doctor can perform an operation of changing the size of the displayed target image G1 by performing a predetermined size change operation using the input device 15.
  • Examples of the size change operation include moving the mouse cursor 45 to a reference position where the size of the target image G1 is desired to be changed, and rotating the mouse wheel while pressing the CTRL key. In this case, the size of the target image G1 being displayed is changed around the cursor position.
  • the paging operation and the resizing operation are examples of other operations related to the display of medical images.
  • the image interpreter may perform an operation of adding tag information indicating the nature of the newly found abnormal shadow to the target image, or an operation of inputting a finding sentence about the target image G1. Can be done.
  • the operation of adding tag information and the operation of inputting a finding sentence are examples of other operations related to the interpretation of medical images.
  • the operation of assigning the tag information indicating the property to the target image is, for example, by specifying the newly found abnormal shadow with the mouse cursor 45 and right-clicking the specified abnormal shadow, the property input window 50 shown in FIG. 7 is used. Is an operation that pops up.
  • the properties of abnormal shadows of the lung include border, shape, serration, spicula, lobation, straight line, absorption value, bronchial translucency image, cavity, calcification, fat, pleural invagination and pleural contact. Item is shown.
  • Negative (-) and positive (+) can be selected for the items of boundary, serrated, spicula, lobation, straight line, bronchial translucency, cavity, calcification, fat, pleural invagination and pleural contact. ..
  • shape item irregular and shaped items can be selected.
  • absorption value a solid type or a ground glass type can be selected.
  • the operation of inputting the finding text is an operation of popping up the finding text input window 51 shown in FIG. 8 by right-clicking the mouse on the displayed target image.
  • the specifying unit 24 identifies the region of interest that the image interpreting doctor pays attention to among the plurality of regions of interest included in the target image.
  • the specifying unit 24 identifies at least one region of interest based on specific information including information other than the dedicated information for identifying the region of interest.
  • the detection result of other operations related to the display or interpretation of the medical image shall be used as other information.
  • the identification unit 24 identifies the region of interest based on the specific information including the detection result of another operation as other information.
  • the dedicated information for specifying the region of interest includes, for example, the detection result of an operation of clicking the region of interest using a mouse.
  • a paging operation is performed to repeatedly read the tomographic images before and after the tomographic image including the abnormal shadow.
  • the paging operation for repeatedly reading an image is an operation in which the tomographic surface is reciprocated in the direction of the body axis of the human body by rotating the mouse wheel back and forth to repeatedly switch.
  • the specific unit 24 detects such a paging operation, if the tomographic image repeatedly displayed during the paging operation contains annotations, the identification unit 24 identifies the annotated region of interest as the region of interest that the image interpreter pays attention to. do.
  • the specifying unit 24 specifies the region of interest R1 included in the tomographic image DA1 shown in FIG. 5 as the region of interest.
  • the specific unit 24 pays attention to the region of interest R2 and the region R3 included in the tomographic image DA2 shown in FIG. Specific to the area.
  • the specifying unit 24 specifies the region of interest R4 included in the tomographic image DA3 shown in FIG. 5 as the region of interest. ..
  • the display control unit 23 displays the annotation attached to the region of interest specified by the specific unit 24 on the display screen 40. That is, in the target image G1 displayed in the display area 43A, when the paging operation is performed in the vicinity of the tomographic image group GA1, the annotation 31 is superimposed and displayed on the target image G1 (tomographic image DA1) as shown in FIG. do. Further, when the paging operation is performed in the vicinity of the tomographic image group GA2 in the target image G1, the annotations 32 and 33 are superimposed and displayed on the target image G1 (tomographic image DA2) as shown in FIG. When the paging operation is performed in the vicinity of the tomographic image group GA3 in the target image G1, the annotation 34 is superimposed and displayed on the target image G1 (tomographic image DA3) as shown in FIG.
  • the display control unit 23 may continue to display the annotation or hide the annotation when the paging operation is stopped. Further, the annotation may be displayed for a predetermined time and then hidden.
  • the image interpreter finds an abnormal shadow in the target image G1, the abnormal shadow may be enlarged and displayed.
  • the image interpreting doctor performs an operation to enlarge the displayed target image G1.
  • the target image G1 tomographic image DA2 on which the annotations 32 and 33 are superimposed and displayed as shown in FIG. 10
  • the image interpreter wants to enlarge the target image G1 with reference to the region of interest R3 to which the annotation 33 is attached
  • the image interpreter As shown in FIG. 12, the mouse cursor 45 is moved to the region of interest R3, and the mouse wheel is rotated while pressing a specific key such as the CTRL key.
  • the specifying unit 24 identifies the region of interest R3 where the mouse cursor 45 is located as the region of interest based on the detection result of such an operation of changing the size.
  • the display control unit 23 displays the annotation attached to the region of interest specified by the specific unit 24 on the display screen 40.
  • the region of interest R3 is the region of interest.
  • the display control unit 23 displays only the annotation 33 for the region of interest R3 and hides the annotation 32 for the region of interest R2.
  • the target image G1 tomographic image DA2
  • the annotation 32 is hidden and assigned to the area of interest R3. Only the annotation 33 that has been added will be displayed.
  • the display control unit 23 may continue to display the annotation or hide the annotation when the operation of changing the size is stopped. Further, the annotation may be displayed for a predetermined time and then hidden.
  • the reading input window 51 shown in FIG. 8 may be displayed in a pop-up and the finding about the abnormal shadow may be input.
  • the specifying unit 24 may specify the region of interest based on the detection result of the operation of inputting the finding by the image interpreting doctor. Specifically, the specifying unit 24 may analyze the input finding sentence and specify the region of interest corresponding to the term included in the finding sentence as the region of interest.
  • FIG. 8 shows that the region of interest corresponding to the term included in the finding sentence as the region of interest.
  • the input findings are "There is a nodule in the left lung.”
  • the specific part 24 analyzes the findings and identifies a part called "left lung”.
  • the identification unit 24 identifies the region of interest R2 of the left lung included in the tomographic image DA2 as the region of interest based on the specified term “left lung”.
  • the specific unit 24 identifies the term "nodule” included in the finding, refers to the description of the texts 32B and 33B of the annotations 32 and 33 given to the regions of interest R2 and R3, and describes the nodule.
  • the region of interest to which the inclusion annotation is attached may be specified as the region of interest.
  • the display control unit 23 displays only the annotation 32 for the region of interest R2 and hides the annotation 33 for the region of interest R3.
  • the finding text input window 51 is displayed in the display area 43A, and is based on the finding text of "a nodule is seen in the left lung" input in the finding text input window 51. Therefore, the annotation 33 assigned to the region of interest R3 is hidden, and only the annotation 32 assigned to the region of interest R2 is displayed.
  • the specifying unit 24 analyzes the newly input finding sentence and identifies the term "cavity".
  • the text 33B of the annotation 33 assigned to the region of interest R3 contains a description regarding the cavity
  • the annotation 33 assigned to the region of interest R3 may be further displayed.
  • the display control unit 23 displays "a cavity is also seen” as shown in FIG.
  • the annotation 33 given to the region of interest R3 corresponding to the finding sentence of ".” May be displayed, and the annotation 32 given to the region of interest R2 may be hidden.
  • the display control unit 23 corresponds to the finding sentence of "Nodule is seen in the left lung.”
  • the annotation 32 given to the area of interest R2 may be displayed, and the annotation 33 given to the area of interest R3 may be hidden.
  • the display control unit 23 may continue to display the annotation or hide the annotation when the operation for inputting the finding sentence is stopped. Further, the annotation may be hidden after being displayed for a predetermined time.
  • the image interpreter may perform an operation of inputting the properties when an abnormal shadow is found in the target image G1.
  • the interpreting doctor identifies the found abnormal shadow with the mouse cursor 45, and right-clicks the identified abnormal shadow to pop up the property input window 50 shown in FIG. 7.
  • the specifying unit 24 identifies the region of interest in which the mouse cursor 45 is located as the region of interest based on the detection result of this operation. For example, when an operation of inputting a property to the region of interest R2 is performed in the target image G1 (tomographic image DA2) on which the annotations 32 and 33 are superimposed and displayed as shown in FIG. Move the mouse cursor 45 to R2 and right-click.
  • the specifying unit 24 detects this operation, it identifies the region of interest R2 where the mouse cursor 45 is located as the region of interest.
  • the display control unit 23 hides the annotation 33 given to the region of interest R3 in the target image G0 (tomographic image DA2), and only the annotation 32 given to the region of interest R2. Will be displayed.
  • the interpreter can see the annotation 32 displayed for the region of interest R2 to add missing properties or correct incorrect properties.
  • the display control unit 23 may continue to display the annotation or hide the annotation when the operation for inputting the property is stopped. Further, the annotation may be hidden after being displayed for a predetermined time.
  • FIG. 18 is a flowchart showing the processing performed in the present embodiment. It is assumed that a plurality of images including the target image G0 and the past image GP0 of the patient to be inspected are acquired from the image server 5 and stored in the storage 13. Further, it is assumed that the display control unit 23 displays the display screen 40 on the display 14, the inspection list is selected on the display screen 40, and is displayed in the thumbnail image area 42 of the image related to the selected inspection. When the image to be displayed in the image display area 43 is selected in the thumbnail image area 42 (step ST1; affirmative), the display control unit 23 displays the selected image in the image display area 43 (step ST2). At this time, even if the image has an area of interest detected, the display control unit 23 first hides the annotation (step ST3).
  • the image interpreter can perform operations such as paging operations, inputting findings, and adding property tags to newly found abnormal shadows.
  • step ST4 determines whether or not another operation related to the display of the target image or another operation related to image interpretation is detected.
  • step ST4 other operation detection
  • step ST5 the specific unit 24 identifies a region of interest among a plurality of regions of interest based on specific information including other information that is a detection result of another operation.
  • the display control unit 23 switches the annotation for the specified region of interest to display (step ST6).
  • the image interpreter can interpret the area of interest by referring to the displayed annotation.
  • the entered finding is stored in the storage 13 as an interpretation report.
  • the property tag is attached to the target image G0 as tag information.
  • step ST7 determines whether or not another operation has been completed (step ST7), and if step ST7 is denied, the process returns to step ST6.
  • step ST7 affirmed, the annotation is hidden (step ST8).
  • step ST4 is denied and after step ST8, it is determined whether or not an instruction to end image interpretation has been given (step ST9), and when step ST9 is denied, the process returns to step ST4.
  • step ST9 is affirmed, the process ends.
  • the image interpretation report generated by the image interpretation of the target image G0 and the target image G0 to which the property tag is attached are transferred to the report server 7. In the report server 7, the transferred image interpretation report is saved together with the target image G0.
  • step ST7 the annotation may be hidden after a predetermined time has elapsed. Further, the display of the annotation may be continued. When the display of the annotation is continued, another operation is detected, the region of interest is specified according to the detected operation, and the annotation related to the identified region of interest is displayed.
  • At least one attention area is specified and the specified attention is specified based on the specific information including other information other than the dedicated information for specifying the attention area to be noticed by the user. Changed to switch the annotation about the area to display. Therefore, the image interpreter can refer only to the annotation about the region of interest without performing a troublesome operation.
  • the interpreting doctor can perform the region of interest without performing a dedicated operation for identifying the region of interest. It can be specified to display annotations related to the area of interest.
  • all annotations are hidden when the target image G0 is displayed, but the present invention is not limited to this.
  • all annotations may be displayed.
  • the display control unit 23 switches the annotation related to the region of interest other than the region of interest to non-display to hide the region of interest. It is only necessary to display the annotations related to.
  • the annotation related to the region of interest is displayed and the annotation related to the region of interest other than the region of interest is hidden, but the present invention is not limited to this.
  • Annotations related to areas of interest other than the area of interest may be weakly displayed.
  • the weak display is displayed more than the displayed annotation by increasing the transparency of the annotation, displaying it with a broken line, lowering the density than the displayed annotation, making it a lighter color, and so on. It means to weaken the degree of.
  • the annotation 32 related to the region of interest R2 is displayed and the annotation 33 related to the region of interest R3 is displayed as shown in FIG. May be displayed as a broken line.
  • the detection result of another operation is used as other information included in the specific information, but the present invention is not limited to this.
  • the region of interest may be specified.
  • the target image G0 is a CT image
  • the window level (WL) and the window width (WW) are used as the observation conditions when displaying the CT image.
  • the WL is a CT value that is the center of the portion to be observed in the gradation that can be displayed by the display 14 when the CT image is displayed on the display 14.
  • WW is the width between the lower limit value and the upper limit value of the CT value of the part to be observed.
  • observation conditions according to the site such as mediastinal conditions in which bones and abdominal organs can be easily observed and lung field conditions in which lung fields can be easily observed are known. Further, not only the CT image but also other medical images such as an MRI image or a radiographic image acquired by simple radiography are displayed under observation conditions that make it easy to observe a specific part. Therefore, in the specific unit 24, the organ to be observed may be specified according to the observation conditions, and the region of interest included in the specified organ may be specified as the region of interest.
  • the region of interest R5 is detected in the left lung and the region of interest R6 is detected in the liver in the tomographic image DA4 including a part of the liver and the left lung as shown in FIG.
  • the annotation 35 is attached to the region of interest R5 of the left lung and the annotation 36 is attached to the region of interest R6 of the liver.
  • the specific unit 24 specifies the region of interest R6 of the liver as the region of interest. Therefore, as shown in FIG. 21, the display control unit 23 displays the annotation 36 assigned to the region of interest R6 and hides the annotation 35 assigned to the region of interest R5.
  • the annotation related to the region of interest is displayed, but in the annotation related to the region of interest, the annotation superimposed on the region of interest may be switched to non-display.
  • the region of interest R4 included in the tomographic image DA3 is specified as the region of interest
  • the figure 34A and the leader line 34C surrounding the region of interest R4 are hidden from the annotation 34, and the human body is displayed. Only the text 34B outside the area of may be displayed.
  • annotations are used as related information, but the present invention is not limited to this.
  • the related information related to the region of interest include, in addition to the annotation, the region extraction result of the structure included in the target image G0.
  • the mask 60 for the liver region included in the target image G0 may be superimposed and displayed on the tomographic image DA5 of the target image as the region extraction result.
  • the mask 60 is displayed on the liver based on the detection results of other operations related to image display or other operations related to image interpretation. You may try to do it.
  • the display and non-display of the annotation only for the target image G0 (G1) displayed in the display area 43A is described, but the annotations are displayed in the other display areas 43B to 43D. If the annotation is also attached to the image, the display / non-display of the annotation may be switched in the same manner as in the display area 43A.
  • the area of interest is specified based on information other than the dedicated information for specifying the area of interest that the user pays attention to, but the specific information is not limited to this. do not have.
  • the detection result of a dedicated operation for specifying a region of interest such as a mouse click by an image interpreter may also be used as specific information.
  • a dedicated operation for specifying a region of interest such as a mouse click by an image interpreter may also be used as specific information.
  • the pleura of the lung field included in the tomographic image DA6 contains the region of interest R7
  • the mediastinum contains the region of interest R8 adjacent to the region of interest R7.
  • the interpreter selects the region of interest R7 in the lung field by clicking the mouse
  • the region of interest R8 adjacent to the region of interest R7 may be erroneously selected.
  • the specific unit 24 annotates using the detection result of the operation of the image interpreter to select the region of interest by clicking the mouse and the observation condition of the target image G0 including the tomographic image DA6 as specific information. May be displayed.
  • the region of interest 24 selected is the region of interest R7 included in the lung field based on the detection result of the observation condition and the operation of selecting the region of interest. Is determined, and the region of interest R7 is specified as the region of interest. In this case, as shown in FIG. 25, the annotation 37 attached to the region of interest R7 is displayed.
  • the observation condition is the mediastinum condition
  • the specific unit 24 determines that the selected region of interest is the region of interest R8 included in the mediastinum based on the detection result of the observation condition and the operation of selecting the region of interest. Judgment is made and the region of interest R8 is specified as the region of interest. In this case, only the annotation attached to the region of interest R8 may be displayed.
  • a plurality of images are displayed on the display screen 40 at the same time, but the present invention is not limited to this.
  • the technique of the present disclosure can also be applied when displaying only one image on the display screen 40.
  • the image display device included in the image interpretation WS3 according to the present embodiment is provided with an analysis unit 22 so that the image interpretation WS3 analyzes the target image, but the present invention is not limited to this.
  • the target image may be analyzed by an external analysis device different from the image interpretation WS3, and the analysis result may be acquired by the image interpretation WS3.
  • the annotation may already be superimposed on the image stored in the image server 5. Even in such a case, as in the above embodiment, the image on which the annotation is superimposed is displayed in the image interpretation WS3, and based on the detection result of another operation related to image display or another operation related to image interpretation. , Annotations can be hidden.
  • the hardware structure of the processing unit (Processing Unit) that executes various processes such as the image acquisition unit 21, the analysis unit 22, the display control unit 23, and the specific unit 24 is as follows.
  • Various processors (Processors) shown in the above can be used.
  • various processors as described above, in addition to the CPU, which is a general-purpose processor that executes software (program) and functions as various processing units, circuits after manufacturing FPGA (Field Programmable Gate Array) and the like are used.
  • Dedicated electricity which is a processor with a circuit configuration specially designed to execute specific processing such as programmable logic device (PLD), ASIC (Application Specific Integrated Circuit), which is a processor whose configuration can be changed. Circuits etc. are included.
  • One processing unit may be composed of one of these various processors, or a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs or a combination of a CPU and an FPGA). ) May be configured. Further, a plurality of processing units may be configured by one processor.
  • one processor is configured by a combination of one or more CPUs and software. There is a form in which this processor functions as a plurality of processing units.
  • SoC System On Chip
  • the various processing units are configured by using one or more of the above-mentioned various processors as a hardware-like structure.
  • circuitry in which circuit elements such as semiconductor elements are combined can be used.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Animal Behavior & Ethology (AREA)
  • Optics & Photonics (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Architecture (AREA)
  • Pulmonology (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

プロセッサは、医用画像に含まれる複数の関心領域のそれぞれに関連する関連情報を、表示および非表示を切り替え可能に医用画像に重畳表示し、複数の関心領域のうち、ユーザが注目する注目領域を特定するための専用の情報以外の他の情報を含む特定情報に基づいて、少なくとも1つの注目領域を特定し、特定された注目領域についての関連情報を表示に切り替える。

Description

画像表示装置、方法およびプログラム
 本開示は、画像表示装置、方法およびプログラムに関する。
 近年、CT(Computed Tomography)装置およびMRI(Magnetic Resonance Imaging)装置等の医療機器の進歩により、より質の高い高解像度の医用画像を用いての画像診断が可能となってきている。とくに、CT画像およびMRI画像等を用いた画像診断により、病変の領域を精度よく特定することができるため、特定した結果に基づいて適切な治療が行われるようになってきている。
 また、ディープラーニング等により機械学習がなされた学習モデルを用いたCAD(Computer-Aided Diagnosis)により医用画像を解析して、医用画像に含まれる病変等の疾患領域を、関心領域として医用画像から検出することも行われている。このように、CADの解析処理により生成される解析結果は、患者名、性別、年齢および医用画像を取得したモダリティ等の検査情報と対応づけられて、データベースに保存され、診断に供される。医師は、自身の読影端末において、配信された医用画像および解析結果を参照して医用画像の読影を行う。この際、読影端末においては、解析結果に基づいて、医用画像に含まれる疾患を含む関心領域にアノテーションが重畳されて表示される。アノテーションとは、医用画像に付される図形、文字および記号の総称である。例えば、関心領域を囲む矩形および関心領域を示す矢印等の図形、並びに疾患の種類およびサイズ等のテキストがアノテーションとして重畳表示される。読影医は、関心領域に付与されたアノテーションを参照して、読影レポートを作成する。
 ところで、医用画像に複数の病変が含まれる場合、病変のそれぞれに対してアノテーションが付与される。このため、アノテーションが付与された医用画像を表示した場合、複数のアノテーションが医用画像に重ね合わせられて表示されることとなる。このように、複数のアノテーションが重ね合わせられて表示されると、表示されたアノテーションが示す病変の位置を明確に把握することが困難となる。このため、複数のアノテーションをグループ分けし、医用画像とグループ単位で関連付けることにより、複数のアノテーションと医用画像との関連付けを明確にする手法が提案されている(例えば特開2013-132514号公報参照)。また、特開2013-132514号公報に記載された手法においては、読影レポートに含まれる所見の文字列と、医用画像およびアノテーションとをさらに関連付ける手法も提案されている。
 一方、複数のアノテーションが付与された医用画像を読影する場合、医用画像において注目する領域に付与されたアノテーション以外のアノテーションは、読影医にとって読影の邪魔になる。特開2013-132514号公報に記載された手法を用いた場合、特定のグループに含まれるアノテーションのみを表示することも可能であるが、その中に読影には不要なアノテーションが含まれる場合もある。このような場合、不要なアノテーションをクリックしたり、不要なアノテーションが付与された領域をクリックしたりする操作を行うことにより、不要なアノテーションを非表示とし、必要なアノテーションのみを表示することができる。しかしながら、読影医は日々非常に多くの医用画像の読影を行うため、そのような操作は読影医にとって非常に煩わしいものとなる。
 本開示は上記事情に鑑みなされたものであり、煩わしい操作を行わなくても、注目する領域についてのアノテーションのみを読影医が参照できるようにすることを目的とする。
 本開示による画像表示装置は、少なくとも1つのプロセッサを備え、
 プロセッサは、医用画像に含まれる複数の関心領域のそれぞれに関連する関連情報を、表示および非表示を切り替え可能に医用画像に重畳表示し、
 複数の関心領域のうち、ユーザが注目する注目領域を特定するための専用の情報以外の他の情報を含む特定情報に基づいて、少なくとも1つの注目領域を特定し、
 特定された注目領域についての関連情報を表示に切り替える。
 なお、本開示による情報処理装置においては、プロセッサは、注目領域以外の関心領域に関連する関連情報を非表示または弱表示に切り替えるものであってもよい。
 また、本開示による情報処理装置においては、他の情報は、医用画像の観察条件であってもよい。
 また、本開示による情報処理装置においては、他の情報は、医用画像の表示または読影に関わる他の操作の検知結果であってもよい。
 また、本開示による情報処理装置においては、プロセッサは、全ての関連情報を非表示とされた医用画像を表示し、
 他の操作の検知結果に基づいて注目領域が特定されると、注目領域についての関連情報を表示するものであってもよい。
 また、本開示による情報処理装置においては、医用画像が複数の断層画像を含む3次元画像であり、
 他の操作は断層画像のページング操作であり、
 プロセッサは、ページング操作されている断層画像に含まれる関心領域を注目領域に特定するものであってもよい。
 また、本開示による情報処理装置においては、他の操作は、医用画像に関する所見文を入力する操作であり、
 プロセッサは、所見文に含まれる用語に関連する関心領域を注目領域に特定するものであってもよい。
 また、本開示による情報処理装置においては、他の操作は、医用画像に含まれる関心領域にさらに関連情報を付与する操作であり、
 プロセッサは、関連情報が付与されている関心領域を注目領域に特定するものであってもよい。
 また、本開示による情報処理装置においては、他の操作は、指定された関心領域を基準として医用画像のサイズを変更する操作であり、
 プロセッサは、指定された関心領域を注目領域に特定するものであってもよい。
 また、本開示による情報処理装置においては、プロセッサは、他の操作により注目領域に重畳される関連情報を非表示に切り替えるものであってもよい。
 また、本開示による情報処理装置においては、特定情報は、他の情報のみを含むものであってもよい。
 また、本開示による情報処理装置においては、関連情報は、関心領域に関するアノテーションを含むものであってもよい。
 また、本開示による情報処理装置においては、アノテーションは、関心領域の認識結果および関心領域に関する文字情報の少なくとも一方を含むものであってもよい。
 また、本開示による情報処理装置においては、関心領域は、医用画像に含まれる病変または臓器であってもよい。
 本開示による情報処理方法は、医用画像に含まれる複数の関心領域のそれぞれに関連する関連情報を、表示および非表示を切り替え可能に医用画像に重畳表示し、
 複数の関心領域のうち、ユーザが注目する注目領域を特定するための専用の情報以外の他の情報を含む特定情報に基づいて、少なくとも1つの注目領域を特定し、
 特定された注目領域についての関連情報を表示に切り替える。
 なお、本開示による画像表示方法をコンピュータに実行させるためのプログラムとして提供してもよい。
 本開示によれば、読影医は、煩わしい操作を行わなくても、注目する領域についてのアノテーションのみを参照できる
本開示の実施形態による画像表示装置を適用した医療情報システムの概略構成を示す図 本実施形態による画像表示装置の概略構成を示す図 本実施形態による画像表示装置の機能構成図 対象画像とアノテーションとの関係を模式的に示す図 図4に示す断層画像群に付与されたアノテーションを示す図 表示画面を示す図 性状入力ウィンドウを示す図 所見文入力ウィンドウを示す図 アノテーションが表示された表示画面を示す図 アノテーションが表示された表示画面を示す図 アノテーションが表示された表示画面を示す図 注目領域の特定を説明するための図 拡大された対象画像を示す図 アノテーションが表示された断層画像を示す図 アノテーションが表示された断層画像を示す図 アノテーションが表示された断層画像を示す図 アノテーションが表示された断層画像を示す図 本実施形態において行われる処理を示すフローチャート アノテーションの一部が弱表示とされた断層画像を示す図 アノテーションの一部が非表示とされた断層画像を示す図 アノテーションの一部が非表示とされた断層画像を示す図 アノテーションの一部が非表示とされた断層画像を示す図 関連情報として領域抽出結果を表すマスクが画像に重畳表示された状態を示す図 隣接する関心領域を示す図 アノテーションの一部が非表示とされた断層画像を示す図
 以下、図面を参照して本開示の実施形態について説明する。まず、本実施形態による画像表示装置を適用した医療情報システム1の構成について説明する。図1は、医療情報システム1の概略構成を示す図である。図1に示す医療情報システム1は、公知のオーダリングシステムを用いた診療科の医師からの検査オーダに基づいて、被写体の検査対象部位の撮影、撮影により取得された医用画像の保管、読影医による医用画像の読影と読影レポートの作成、および依頼元の診療科の医師による読影レポートの閲覧と読影対象の医用画像の詳細観察とを行うためのシステムである。
 図1に示すように、医療情報システム1は、複数の撮影装置2、読影端末である複数の読影WS(WorkStation)3、診療WS4、画像サーバ5、画像データベース(以下、画像DB(DataBase)とする)6、レポートサーバ7およびレポートデータベース(以下レポートDBとする)8が、有線または無線のネットワーク10を介して互いに通信可能な状態で接続されて構成されている。
 各機器は、医療情報システム1の構成要素として機能させるためのアプリケーションプログラムがインストールされたコンピュータである。アプリケーションプログラムは、ネットワーク10に接続されたサーバコンピュータの記憶装置、若しくはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じてコンピュータにダウンロードされ、インストールされる。または、DVD(Digital Versatile Disc)およびCD-ROM(Compact Disc Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体からコンピュータにインストールされる。
 撮影装置2は、被写体の診断対象となる部位を撮影することにより、診断対象部位を表す医用画像を生成する装置(モダリティ)である。具体的には、単純X線撮影装置、CT装置、MRI装置、およびPET(Positron Emission Tomography)装置等である。撮影装置2により生成された医用画像は画像サーバ5に送信され、画像DB6に保存される。
 読影WS3は、例えば放射線科の読影医が、医用画像の読影および読影レポートの作成等に利用するコンピュータであり、本実施形態による画像表示装置を内包する。読影WS3では、画像サーバ5に対する医用画像の閲覧要求、画像サーバ5から受信した医用画像に対する各種画像処理、医用画像の表示、および医用画像に関する所見文の入力受け付け等が行われる。また、読影WS3では、読影レポートの作成、レポートサーバ7に対する読影レポートの登録要求と閲覧要求、およびレポートサーバ7から受信した読影レポートの表示等が行われる。これらの処理は、読影WS3が各処理のためのソフトウェアプログラムを実行することにより行われる。
 診療WS4は、診療科の医師が、画像の詳細観察、読影レポートの閲覧、および電子カルテの作成等に利用するコンピュータであり、処理装置、ディスプレイ等の表示装置、並びにキーボードおよびマウス等の入力装置により構成される。診療WS4では、画像サーバ5に対する画像の閲覧要求、画像サーバ5から受信した画像の表示、レポートサーバ7に対する読影レポートの閲覧要求、およびレポートサーバ7から受信した読影レポートの表示が行われる。これらの処理は、診療WS4が各処理のためのソフトウェアプログラムを実行することにより行われる。
 画像サーバ5は、汎用のコンピュータにデータベース管理システム(DataBase Management System: DBMS)の機能を提供するソフトウェアプログラムがインストールされたものである。また、画像サーバ5は画像DB6が構成されるストレージを備えている。このストレージは、画像サーバ5とデータバスとによって接続されたハードディスク装置であってもよいし、ネットワーク10に接続されているNAS(Network Attached Storage)およびSAN(Storage Area Network)に接続されたディスク装置であってもよい。また、画像サーバ5は、撮影装置2からの医用画像の登録要求を受け付けると、その医用画像をデータベース用のフォーマットに整えて画像DB6に登録する。
 画像DB6には、撮影装置2において取得された医用画像の画像データと付帯情報とが登録される。付帯情報には、例えば、個々の医用画像を識別するための画像ID(identification)、被写体を識別するための患者ID、検査を識別するための検査ID、医用画像毎に割り振られるユニークなID(UID:unique identification)、医用画像が生成された検査日、検査時刻、医用画像を取得するための検査で使用された撮影装置の種類、患者氏名、年齢、性別等の患者情報、検査部位(撮影部位)、撮影情報(撮影プロトコル、撮影シーケンス、撮像手法、撮影条件、造影剤の使用等)、1回の検査で複数の医用画像を取得した場合のシリーズ番号あるいは採取番号等の情報が含まれる。
 また、画像サーバ5は、読影WS3および診療WS4からの閲覧要求をネットワーク10経由で受信すると、画像DB6に登録されている医用画像を検索し、検索された医用画像を要求元の読影WS3および診療WS4に送信する。
 レポートサーバ7には、汎用のコンピュータにデータベース管理システムの機能を提供するソフトウェアプログラムが組み込まれる。レポートサーバ7は、読影WS3からの読影レポートの登録要求を受け付けると、その読影レポートをデータベース用のフォーマットに整えてレポートDB8に登録する。
 レポートDB8には、読影医が読影WS3を用いて作成した読影レポートが登録される。読影レポートは、例えば、読影対象の医用画像、医用画像を識別する画像ID、読影を行った読影医を識別するための読影医ID、疾患名、疾患の位置情報、および医用画像にアクセスするための情報等を含んでいてもよい。
 また、レポートサーバ7は、読影WS3および診療WS4からの読影レポートの閲覧要求をネットワーク10経由で受信すると、レポートDB8に登録されている読影レポートを検索し、検索された読影レポートを要求元の読影WS3および診療WS4に送信する。
 なお、本実施形態においては、診断対象を人体の胸腹部とし、医用画像を胸腹部を含む複数の断層画像からなる3次元のCT画像とする。そして読影WS3において、読影医がCT画像を読影することにより、胸腹部に含まれる肺および肝臓等の疾患についての所見文を含む読影レポートを作成するものとする。なお、医用画像はCT画像に限定されるものではなく、MRI画像および単純X線撮影装置により取得された単純X線画像等の任意の医用画像を用いることができる。
 本実施形態においては、読影レポートの作成に際しては、医用画像は解析されて、医用画像に含まれる関心領域が検出される。読影医はその検出結果を参照しつつ読影を行う。関心領域の検出については後述する。
 ネットワーク10は、病院内の各種機器を接続する有線または無線のローカルエリアネットワークである。読影WS3が他の病院あるいは診療所に設置されている場合には、ネットワーク10は、各病院のローカルエリアネットワーク同士をインターネットまたは専用回線で接続した構成としてもよい。
 次いで、本実施形態による画像表示装置について説明する。図2は、本実施形態による画像表示装置のハードウェア構成を説明する。図2に示すように、画像表示装置20は、CPU(Central Processing Unit)11、不揮発性のストレージ13、および一時記憶領域としてのメモリ16を含む。また、画像表示装置20は、液晶ディスプレイ等のディスプレイ14、キーボードおよびマウス等のポインティングデバイス等からなる入力デバイス15、並びにネットワーク10に接続されるネットワークI/F(InterFace)17を含む。CPU11、ストレージ13、ディスプレイ14、入力デバイス15、メモリ16およびネットワークI/F17は、バス18に接続される。なお、CPU11は、本開示におけるプロセッサの一例である。
 ストレージ13は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、およびフラッシュメモリ等によって実現される。記憶媒体としてのストレージ13には、画像表示プログラム12が記憶される。CPU11は、ストレージ13から画像表示プログラム12を読み出してメモリ16に展開し、展開した画像表示プログラム12を実行する。
 次いで、本実施形態による画像表示装置の機能的な構成を説明する。図3は、本実施形態による画像表示装置の機能的な構成を示す図である。図3に示すように画像表示装置20は、画像取得部21、解析部22、表示制御部23および特定部24を備える。そして、CPU11が、画像表示プログラム12を実行することにより、CPU11は、画像取得部21、解析部22、表示制御部23および特定部24として機能する。
 画像取得部21は、操作者である読影医による入力デバイス15からの指示により、画像サーバ5から読影レポートを作成するための読影対象となる医用画像を取得する。読影対象となる医用画像を、以降の説明において対象画像G0と称する。なお、1回の検査で複数の画像が取得される場合がある。1回の検査で取得される画像は全て読影されることから、対象画像G0は複数存在する場合がある。また、対象画像G0を読影する検査対象の患者に関して、過去に複数の画像が取得されて画像サーバ5に保存されている場合がある。本実施形態においては、検査対象の患者の対象画像G0を読影する場合には、対象画像G0を含む、検査対象の患者を撮影することにより取得した全ての画像を画像サーバ5から取得する。以降の説明において、画像サーバ5から取得した患者の全ての画像のうち、対象画像G0以外の画像は対象画像G0よりも時期的に前に取得されていることから過去画像GP0と称する。
 なお、本実施形態においては、対象画像G0は、検査対象の患者の胸腹部を撮影することにより取得された複数の断層画像からなる3次元のCT画像とする。また、1回の検査で複数の対象画像G0が取得される場合、各対象画像G0には、CT画像の他、単純X線撮影により取得したX線画像等が含まれる場合もある。また、過去画像GP0も、CT画像の他、単純X線撮影により取得したX線画像等が含まれる場合もある。
 解析部22は、対象画像G0に含まれる異常陰影の領域を関心領域として検出し、検出した関心領域についてのアノテーションを導出する。解析部22は、公知のコンピュータ支援画像診断(すなわちCAD)のアルゴリズムを用いて、対象画像G0から複数種類の疾患の陰影の領域を関心領域として検出し、関心領域についての性状を導出することにより、アノテーションを導出する。
 関心領域の検出およびアノテーションの導出のために、解析部22は、対象画像G0から複数種類の疾患の異常陰影を関心領域として検出し、さらに異常陰影の性状を導出するように機械学習がなされた学習モデル22Aを有する。
 学習モデル22Aは、対象画像G0における各画素(ボクセル)が、各種疾患の陰影あるいは異常陰影を表すものであるか否かを判別するように、教師データを用いてディープラーニング(深層学習)がなされた畳み込みニューラルネットワーク(CNN(Convolutional Neural Network))からなる。
 学習モデル22Aは、例えば異常陰影を含む教師画像および教師画像における異常陰影の領域および異常陰影の性状を表す正解データからなる教師データ、並びに異常陰影を含まない教師画像からなる教師データを用いてCNNを学習することにより構築される。学習モデル22Aは、医用画像における各画素が異常陰影であることを表す確信度(尤度)を導出し、その確信度が予め定められたしきい値以上となる画素からなる領域を関心領域として検出する。ここで、確信度は0以上1以下の値となる。また、学習モデル22Aは、検出した関心領域についての性状を導出する。なお、性状は、関心領域の位置、サイズ、疾患の種類等を含む。
 なお、学習モデル22Aは、3次元の対象画像G0から関心領域を検出するものであってもよいが、対象画像G0を構成する複数の断層画像のそれぞれから関心領域を検出するものであってもよい。また、学習モデル22Aとしては、畳み込みニューラルネットワークの他、例えばサポートベクタマシン(SVM(Support Vector Machine))等の任意の学習モデルを用いることができる。
 なお、解析部22は、学習モデルが検出した関心領域を囲む図形、性状を表すテキスト、図形とテキストとを結ぶ線等をアノテーションとして導出する。アノテーションは、対象画像G0とは別のチャンネルの画像として導出され、対象画像G0に付与されている。このため、アノテーションのチャンネルの画像を対象画像G0と重ね合わせて表示すれば、対象画像G0にアノテーションが重畳表示されることとなる。
 図4は対象画像G0とアノテーションとの関係を模式的に示す図である.図4に示すように、対象画像G0は複数の断層画像Djを含む。また、複数の断層画像Djのうちの断層画像群GA1,GA2,GA3のそれぞれにおいて異常陰影が関心領域として検出され、検出された関心領域に対してアノテーションが付与されているものとする。なお、本実施形態においては、断層画像Djは人体のアキシャル断面を表すものとするが、これに限定されるものではない。
 図5は図4に示す断層画像群GA1~GA3に付与されたアノテーションを示す図である。図5に示すように、断層画像群GA1に含まれる断層画像DA1においては関心領域R1が検出されており、関心領域R1に対してアノテーション31が付与されている。アノテーション31は関心領域R1に関する文字情報であり、その内容は「S1に10mmのSOLを認める。」である。SOLとは、Space Occupying Lesionの略称である。なお、アノテーション31は、断層画像群GA1に含まれる、関心領域R1が検出された全ての断層画像に付与される。
 また、断層画像群GA2に含まれる断層画像DA2には、左肺において関心領域R2が検出され、右肺において関心領域R3が検出されている。また、断層画像DA2においては、左肺の関心領域R2に対するアノテーション32および右肺の関心領域R3に対するアノテーション33がそれぞれ付与されている。アノテーション32は、断層画像DA2に含まれる左肺の関心領域を囲む図形32A、図形32Aにより囲まれる関心領域の性状を表すテキスト32B、および図形32Aとテキスト32Bとを結ぶ引出線32Cからなる。アノテーション33は、断層画像DA2に含まれる右肺の関心領域を囲む図形33A、図形33Aにより囲まれる関心領域の性状を表すテキスト33B、および図形33Aとテキスト33Bとを結ぶ引出線33Cからなる。関心領域に関するテキスト32B,33Bは、例えば、関心領域の位置、サイズおよび性状等である。なお、アノテーション32,33は、断層画像群GA2に含まれる、関心領域R2,R3のそれぞれが検出された全ての断層画像に付与される。
 また、断層画像群GA3に含まれる断層画像DA3においては、肝臓に含まれる関心領域R4が検出されており、肝臓の関心領域R4に対するアノテーション34が付与されている。アノテーション34は、断層画像DA3に含まれる肝臓の関心領域を囲む図形34A、図形34Aにより囲まれる関心領域の性状を表すテキスト34B、および図形34Aとテキスト34Bとを結ぶ引出線34Cからなる。なお、アノテーション34は、断層画像群GA3に含まれる、関心領域R4が検出された全ての断層画像に付与される。
 表示制御部23は、対象画像G0および過去画像GP0を含む検査対象の患者の画像をディスプレイ14に表示する。図6は画像の表示画面を示す図である。図6に示すように表示画面40には、検査リストを表示する検査リストエリア41、選択された検査に含まれる対象画像G0および検査対象の患者の過去画像のサムネイル画像を表示するサムネイル画像エリア42、画像を表示する画像表示エリア43を含む。
 検査リストエリア41には、検査毎に患者氏名、患者IDおよび検査日時が表示される。操作者は所望とする検査リストをクリックすることにより、検査対象の患者を選択することができる。なお、図6において、検査リストエリア41において選択されている検査対象の患者の行に斜線を付与している。
 サムネイル画像エリア42には、選択した検査対象の患者の対象画像G0および過去画像GP0の代表画像のサムネイル画像が表示される。ここで、検査対象の患者について2つの対象画像G1,G2および4つの過去画像GP1~GP4が取得されたとすると、サムネイル画像エリア42には、図6に示すように、6つのサムネイル画像C1~C6が表示される。なお、画像が3次元画像である場合には3次元画像に含まれる予め定められた断層面の断層画像の縮小画像を代表画像とすることができる。単純X線画像である場合はその縮小画像を代表画像とすることができる。また、本実施形態においては、サムネイル画像C1,C2が対象画像G1,G2のサムネイル画像であり、サムネイル画像C3~C6が過去画像GP1~GP4のサムネイル画像であるものとする。なお、対象画像G1は図4に示す対象画像G0に対応するものとし、対象画像G1に含まれる複数の断層画像Djのうちの断層画像群GA1,GA2,GA3において異常陰影が関心領域として検出され、検出された関心領域に対してアノテーションが付与されているものとする。
 画像表示エリア43には、サムネイル画像エリア42において選択された画像が表示される。図6に示すように、画像表示エリア43には4つの表示エリア43A~43Dが含まれる。図6においては、6つのサムネイル画像C1~C6から選択された4つの画像の代表画像が画像表示エリア43の表示エリア43A~43Dにそれぞれに表示されている。また、サムネイル画像エリア42において、画像表示エリア43に表示された画像以外のサムネイル画像には、画像表示エリア43に表示されていないことを明示するために、斜線が付与されている。なお、本実施形態においては、サムネイル画像C1,C2が対象画像G1,G2にそれぞれ対応することから、表示エリア43A,43Bには対象画像G1,G2がそれぞれ表示される。また、表示エリア43C,43Dには過去画像GP1,GP2が表示されたものとする。
 なお、対象画像G1には、図4に示すようにアノテーションが付与されているが、ディスプレイ14に表示された直後の初期の表示画面40に表示される対象画像G1の代表画像には、アノテーションは重畳表示されない。
 本実施形態においては、読影医は表示画面40に表示された対象画像G1を読影して、解析部22が検出した関心領域の確認をしたり、解析部22が検出できなかった異常陰影を新たに特定したりする作業を行う。この際、読影医は、マウスカーソル45を表示エリア43Aに移動して、マウスホイールを回転させることにより、表示エリア43Aに表示される対象画像G1の断層面を切り替えるページング操作を行うことができる。また、読影医は、予め定められたサイズ変更操作を入力デバイス15を用いて行うことにより、表示された対象画像G1のサイズを変更する操作を行うことができる。サイズ変更操作としては、例えば対象画像G1におけるサイズの変更を所望する基準位置にマウスカーソル45を移動して、ctrlキーを押しつつ、マウスホイールを回転させる操作が挙げられる。この場合、カーソル位置を中心として表示中の対象画像G1のサイズが変更される。ページング操作およびサイズを変更する操作は、医用画像の表示に関わる他の操作の一例である。
 また、必要であれば、読影医は、新たに見つけた異常陰影の性状を表すタグ情報を対象画像に付与する操作を行ったり、対象画像G1についての所見文を入力する操作を行ったりすることができる。タグ情報を付与する操作および所見文を入力する操作は、医用画像の読影に関わる他の操作の一例である。
 なお、性状を表すタグ情報を対象画像に付与する操作は、例えば新たに見つけた異常陰影をマウスカーソル45により特定し、特定した異常陰影を右クリックすることにより、図7に示す性状入力ウィンドウ50をポップアップ表示する操作である。性状入力ウィンドウ50には、例えば肺の異常陰影の性状として、境界、形状、鋸歯状、スピキュラ、分葉、直線、吸収値、気管支透亮像、空洞、石灰化、脂肪、胸膜陥入および胸膜接触の項目が示されている。境界、鋸歯状、スピキュラ、分葉、直線、気管支透亮像、空洞、石灰化、脂肪、胸膜陥入および胸膜接触の項目については、陰性(-)および陽性(+)が選択可能とされている。形状の項目については、不整形および整形の項目が選択可能とされている。吸収値に対しては充実型およびすりガラス状が選択可能とされている。また、所見文を入力する操作は、表示された対象画像においてマウスを右クリックすることにより、図8に示す所見文入力ウィンドウ51をポップアップ表示する操作である。
 特定部24は、対象画像に含まれる複数の関心領域のうちの読影医が注目する注目領域を特定する。本実施形態においては、特定部24は、注目領域を特定するための専用の情報以外の他の情報を含む特定情報に基づいて、少なくとも1つの注目領域を特定する。本実施形態においては、医用画像の表示または読影に関わる他の操作の検知結果を他の情報として使用するものとする。特定部24は、他の操作の検知結果を他の情報として含む特定情報に基づいて注目領域を特定する。なお、注目領域を特定する専用の情報としては、例えばマウスを用いて注目領域をクリックする操作の検知結果が挙げられる。
 例えば、対象画像G1の読影中、ある断層画像において読影医が異常陰影を見つけると、その異常陰影を含む断層画像の前後の断層画像を繰り返し読影するページング操作を行う。なお、繰り返し読影するページング操作とは、マウスホイールを前後に回転させることにより断層面を人体の体軸方向に往復させて繰り返し切り替える操作である。特定部24は、このようなページング操作を検知すると、ページング操作中に繰り返し表示される断層画像にアノテーションが含まれている場合、アノテーションが付与された関心領域を読影医が注目する注目領域に特定する。
 例えば、図4に示す対象画像G1の断層画像群GA1付近においてページング操作が行われている場合、特定部24は、図5に示す断層画像DA1に含まれる関心領域R1を注目領域に特定する。また、図4に示す対象画像G1において、断層画像群GA2付近においてページング操作が行われている場合、特定部24は、図5に示す断層画像DA2に含まれる関心領域R2および関心領域R3を注目領域に特定する。また、図4に示す対象画像G1において、断層画像群GA3付近においてページング操作が行われている場合、特定部24は、図5に示す断層画像DA3に含まれる関心領域R4を注目領域に特定する。
 表示制御部23は、特定部24が特定した注目領域に付与されているアノテーションを表示画面40に表示する。すなわち、表示エリア43Aに表示されている対象画像G1において、断層画像群GA1付近においてページング操作が行われている場合、図9に示すように対象画像G1(断層画像DA1)にアノテーション31を重畳表示する。また、対象画像G1において、断層画像群GA2付近においてページング操作が行われている場合、図10に示すように対象画像G1(断層画像DA2)にアノテーション32,33を重畳表示する。対象画像G1において、断層画像群GA3付近においてページング操作が行われている場合、図11に示すように対象画像G1(断層画像DA3)にアノテーション34を重畳表示する。
 なお、表示制御部23は、ページング操作が停止された場合、アノテーションの表示を継続してもよく、アノテーションを非表示としてもよい。また、アノテーションを予め定められた時間表示した後に非表示に切り替えるようにしてもよい。
 一方、読影医は、対象画像G1において異常陰影を見つけた際に、その異常陰影を拡大表示する場合がある。その場合、読影医は表示された対象画像G1を拡大する操作を行う。例えば、図10に示すようにアノテーション32,33が重畳表示された対象画像G1(断層画像DA2)において、アノテーション33が付与された関心領域R3を基準として対象画像G1を拡大したい場合、読影医は、図12に示すように、関心領域R3にマウスカーソル45を移動させ、ctrlキー等の特定のキーを押しつつマウスホイールを回転する。特定部24はこのようなサイズを変更する操作の検知結果に基づいて、マウスカーソル45が位置する関心領域R3を注目領域に特定する。
 表示制御部23は、特定部24が特定した注目領域に付与されているアノテーションを表示画面40に表示する。ここで、図12に示すように、表示中の断層画像DA2に2つの関心領域R2,R3が含まれ、そのそれぞれにアノテーション32,33が重畳表示されている場合において、関心領域R3が注目領域に特定されたとする。この場合、表示制御部23は、関心領域R3についてのアノテーション33のみを表示し、関心領域R2についてのアノテーション32を非表示にする。これにより、図13に示すように、表示エリア43Aには関心領域R3を中心として拡大された対象画像G1(断層画像DA2)が表示され、かつアノテーション32が非表示とされ、関心領域R3に付与されたアノテーション33のみが表示されることとなる。
 なお、表示制御部23は、サイズを変更する操作が停止された場合、アノテーションの表示を継続してもよく、アノテーションを非表示としてもよい。また、アノテーションを予め定められた時間表示した後に非表示に切り替えるようにしてもよい。
 また、読影医は、対象画像G1において異常陰影を見つけた際に、図8に示す所見文入力ウィンドウ51をポップアップ表示して、その異常陰影についての所見文を入力する場合がある。特定部24は、読影医による所見文を入力する操作の検知結果に基づいて注目領域を特定してもよい。具体的には、特定部24は、入力された所見文を解析し、所見文に含まれる用語に対応する関心領域を注目領域に特定するようにしてもよい。ここで、図12に示すように、表示中の断層画像DA2に2つの関心領域R2,R3が含まれ、そのそれぞれにアノテーション32,33が重畳表示されている場合において、入力された所見文が「左肺に結節が見られます。」であるとする。特定部24は所見文を解析し、「左肺」という部位を特定する。特定部24は、特定した「左肺」の用語に基づいて、断層画像DA2に含まれる左肺の関心領域R2を注目領域に特定する。なお、特定部24は、所見文に含まれる「結節」の用語を特定し、関心領域R2,R3に付与されたアノテーション32,33のテキスト32B,33Bの記述を参照し、結節についての記述を含むアノテーションが付与された関心領域を注目領域に特定してもよい。
 この場合、表示制御部23は、関心領域R2についてのアノテーション32のみを表示し、関心領域R3についてのアノテーション33を非表示にする。これにより、図14に示すように、表示エリア43Aには、所見文入力ウィンドウ51が表示され、所見文入力ウィンドウ51に入力された「左肺に結節が見られます。」の所見文に基づいて、関心領域R3に付与されたアノテーション33が非表示とされ、関心領域R2に付与されたアノテーション32のみが表示されることとなる。
 なお、読影医が所見文入力ウィンドウ51にさらに「空洞も見られます。」の所見文を入力したとする。この場合、特定部24は、新たに入力された所見文を解析し、「空洞」の用語を特定する。この場合、図15に示すように、関心領域R3に付与されたアノテーション33のテキスト33Bに空洞に関する記述が含まれる場合、関心領域R3に付与されたアノテーション33をさらに表示してもよい。
 この場合において、所見文入力ウィンドウ51の「空洞も見られます。」の位置に入力カーソル38が位置している場合、表示制御部23は、図16に示すように、「空洞も見られます。」の所見文に対応する関心領域R3に付与されたアノテーション33を表示し、関心領域R2に付与されたアノテーション32を非表示としてもよい。なお、入力カーソル38が「左肺に結節が見られます。」の所見文に位置している場合、表示制御部23は、「左肺に結節が見られます。」の所見文に対応する関心領域R2に付与されたアノテーション32を表示し、関心領域R3に付与されたアノテーション33を非表示としてもよい。
 表示制御部23は、所見文を入力する操作が停止された場合、アノテーションの表示を継続してもよく、アノテーションを非表示としてもよい。また、アノテーションを予め定められた時間表示した後に非表示としてもよい。
 また、読影医は、対象画像G1において異常陰影を見つけた際に、性状を入力する操作を行う場合がある。この場合、読影医は、見つけた異常陰影をマウスカーソル45により特定し、特定した異常陰影を右クリックすることにより、図7に示す性状入力ウィンドウ50をポップアップ表示する操作を行う。特定部24は、この操作の検知結果に基づいて、マウスカーソル45が位置する関心領域を注目領域に特定する。例えば、図10に示すようにアノテーション32,33が重畳表示された対象画像G1(断層画像DA2)において、関心領域R2に対して性状を入力する操作が行われた場合、読影医は、関心領域R2にマウスカーソル45を移動させて右クリックする。特定部24はこの操作を検知すると、マウスカーソル45が位置する関心領域R2を注目領域に特定する。
 この場合、表示制御部23は、図17に示すように、対象画像G0(断層画像DA2)において関心領域R3に付与されたアノテーション33が非表示とされ、関心領域R2に付与されたアノテーション32のみが表示されることとなる。読影医は関心領域R2について表示されたアノテーション32を見て、不足している性状を追加したり、誤っている性状を修正したりすることができる。
 なお、表示制御部23は、性状を入力する操作が停止された場合、アノテーションの表示を継続してもよく、アノテーションを非表示としてもよい。また、アノテーションを予め定められた時間表示した後に非表示としてもよい。
 次いで、本実施形態において行われる処理について説明する。図18は本実施形態において行われる処理を示すフローチャートである。なお、検査対象の患者の対象画像G0および過去画像GP0を含む複数の画像は画像サーバ5から取得されて、ストレージ13に保存されているものとする。また、表示制御部23は表示画面40をディスプレイ14に表示しており、表示画面40において検査リストが選択され、選択された検査に関する画像のサムネイル画像エリア42に表示されているものとする。サムネイル画像エリア42において、画像表示エリア43に表示する画像が選択されると(ステップST1;肯定)、表示制御部23は、選択された画像を画像表示エリア43に表示する(ステップST2)。この際、関心領域が検出されている画像であっても、表示制御部23は、まずアノテーションを非表示とする(ステップST3)。
 この状態において、読影医は、ページング操作等を行ったり、所見文を入力したり、新たに見つけた異常陰影に性状タグを付与したりする操作を行うことができる。
 次いで、特定部24は、対象画像の表示に関わる他の操作または画像の読影に関わる他の操作が検知されたか否かを判定する(他の操作検知;ステップST4)。ステップST4が肯定されると、特定部24は、他の操作の検知結果である他の情報を含む特定情報に基づいて複数の関心領域のうちの注目領域を特定する(ステップST5)。
 表示制御部23は、特定された注目領域についてのアノテーションを表示に切り替える(ステップST6)。これにより、読影医は、表示されたアノテーションを参照して関心領域の読影を行うことができる。また、所見文を入力したり、新たに見つけた異常陰影に性状タグを付与したりする操作を行うことができる。入力された所見文は読影レポートとしてストレージ13に保存される。また、性状タグはタグ情報として対象画像G0に付与される。
 続いて、表示制御部23は他の操作が終了したか否かを判定し(ステップST7)、ステップST7が否定されると、ステップST6に戻る。ステップST7が肯定されると、アノテーションを非表示に切り替える(ステップST8)。ステップST4が否定された場合およびステップST8に続いて、読影の終了指示がなされたか否かが判定され(ステップST9)、ステップST9が否定されるとステップST4に戻る。ステップST9が肯定されると処理を終了する。なお、対象画像G0の読影により生成された読影レポートおよび性状タグが付与された対象画像G0は、レポートサーバ7に転送される。レポートサーバ7においては、転送された読影レポートが対象画像G0と併せて保存される。
 なお、ステップST7が肯定された場合、予め定められた時間経過後にアノテーションを非表示に切り替えるようにしてもよい。また、アノテーションの表示を継続してもよい。アノテーションの表示を継続する場合、さらに他の操作の検知が行われ、検知された操作に応じて注目領域が特定され、特定された注目領域に関連するアノテーションが表示されることとなる。
 このように、本実施形態においては、ユーザが注目する注目領域を特定するための専用の情報以外の他の情報を含む特定情報に基づいて、少なくとも1つの注目領域を特定し、特定された注目領域についてのアノテーションを表示に切り替えるようにした。このため、読影医は、煩わしい操作を行わなくても、注目領域についてのアノテーションのみを参照できる。
 とくに、注目領域以外の関心領域に関連するアノテーションを非表示とすることにより、注目していない関心領域についてのアノテーションにより、注目する関心領域の読影が妨げられることを防止できる。
 また、医用画像の表示または読影に関わる他の操作の検知結果に基づいて注目領域を特定することにより、読影医は、注目領域を特定するための専用の操作を行わなくても、注目領域を特定して、注目領域に関連するアノテーションを表示することができる。
 なお、上記実施形態においては、対象画像G0を表示した際に、全てのアノテーションを非表示としているが、これに限定されるものではない。対象画像G0を表示した際に、全てのアノテーションを表示してもよい。この場合、他の操作の検知結果等の特定情報に基づいて注目領域が特定されると、表示制御部23は、注目領域以外の関心領域に関連するアノテーションを非表示に切り替えることにより、注目領域に関連するアノテーションのみを表示するようにすればよい。
 また、上記実施形態においては、注目領域に関連するアノテーションを表示し、注目領域以外の関心領域に関連するアノテーションを非表示としているが、これに限定されるものではない。注目領域以外の関心領域に関連するアノテーションを弱表示としてもよい。ここで、弱表示とは、アノテーションの透明度を高くしたり、破線で表示したり、表示されるアノテーションよりも濃度を低くしたり、薄い色にしたりする等により、表示されているアノテーションよりも表示の程度を弱くすることをいう。例えば、図10に示す断層画像DA2において、関心領域R2が注目領域に特定された場合、図19に示すように、関心領域R2に関連するアノテーション32を表示し、関心領域R3に関連するアノテーション33を破線で表示するようにしてもよい。
 また、上記実施形態においては、特定情報に含まれる他の情報として他の操作の検知結果を用いているが、これに限定されるものではない。対象画像G0の観察条件を他の情報として用いることにより、注目領域を特定するようにしてもよい。ここで、対象画像G0がCT画像である場合、CT画像を表示する際の観察条件としては、ウィンドウレベル(WL)およびウィンドウ幅(WW)が使用される。WLとは、CT画像をディスプレイ14に表示する際に、ディスプレイ14が表示可能な階調における、観察したい部位の中心となるCT値である。WWとは、観察したい部位のCT値の下限値と上限値との幅である。
 このような観察条件として、骨および腹部の臓器を観察しやすい縦隔条件、並びに肺野を観察しやすい肺野条件等の部位に応じた観察条件が知られている。また、CT画像に限らず、MRI画像あるいは単純放射線撮影により取得された放射線画像等の他の医用画像についても、特定の部位を観察しやすい観察条件により画像を表示することが行われる。このため、特定部24において、観察条件に応じて観察対象となる臓器を特定し、特定した臓器に含まれる関心領域を注目領域に特定するようにしてもよい。
 例えば、図20に示すように肝臓および左肺の一部を含む断層画像DA4において、左肺に関心領域R5が検出され、肝臓に関心領域R6が検出されたとする。また、左肺の関心領域R5にアノテーション35が付与され、肝臓の関心領域R6にアノテーション36が付与されているものとする。この場合において、観察条件が縦隔条件である場合、特定部24は、肝臓の関心領域R6を注目領域に特定する。したがって、表示制御部23は、図21に示すように、関心領域R6に付与されたアノテーション36を表示し、関心領域R5に付与されたアノテーション35を非表示とする。
 また、上記実施形態においては、注目領域に関連するアノテーションを表示しているが、注目領域に関連するアノテーションにおいて、注目領域に重畳されるアノテーションを非表示に切り替えるようにしてもよい。例えば、図22に示すように、断層画像DA3に含まれる関心領域R4が注目領域に特定された場合において、アノテーション34のうち、関心領域R4を囲む図形34Aおよび引出線34Cを非表示とし、人体の領域外にあるテキスト34Bのみを表示するようにしてもよい。
 また、上記実施形態においては、関連情報としてアノテーションを用いているが、これに限定されるものではない。関心領域に関連する関連情報としては、アノテーション以外に、対象画像G0に含まれる構造物の領域抽出結果等が挙げられる。例えば、図23に示すように、対象画像G0に含まれる肝臓の領域に対するマスク60が領域抽出結果として対象画像の断層画像DA5に重畳表示される場合がある。この場合、関心領域を肝臓、関連情報を肝臓に対するマスク60とした場合において、画像の表示に関わる他の操作または画像の読影に関わる他の操作の検知結果に基づいて、肝臓にマスク60を表示するようにしてもよい。
 また、上記実施形態においては、表示エリア43Aに表示された対象画像G0(G1)に対してのみのアノテーションの表示および非表示について説明しているが、他の表示エリア43B~43Dに表示された画像に対してもアノテーションが付与されていれば、表示エリア43Aと同様に、アノテーションの表示および非表示を切り替えるようにしてもよい。
 また、上記実施形態においては、特定情報として、ユーザが注目する注目領域を特定するための専用の情報以外の他の情報に基づいて注目領域を特定しているが、これに限定されるものではない。読影医によるマウスクリック等の注目領域を特定する専用の操作の検知結果も特定情報として用いるようにしてもよい。例えば、図24に示すように、断層画像DA6に含まれる肺野の胸膜に関心領域R7が含まれ、縦隔に関心領域R7に隣接して関心領域R8が含まれるとする。この場合において、読影医がマウスをクリックすることにより肺野にある関心領域R7を選択する場合、関心領域R7に隣接する関心領域R8を誤って選択してしまう場合がある。このような場合、特定部24は、読影医がマウスをクリックすることによる関心領域を選択する操作の検知結果と、断層画像DA6を含む対象画像G0の観察条件とを特定情報として用いて、アノテーションの表示を行うようにしてもよい。
 例えば、対象画像G0の観察条件が肺野条件であれば、読影医が注目する関心領域は肺野に含まれる。このため、観察条件が肺野条件である場合、特定部24は、観察条件および注目領域を選択する操作の検知結果に基づいて、選択された関心領域は肺野に含まれる関心領域R7であると判定し、関心領域R7を注目領域に特定する。この場合、図25に示すように、関心領域R7に付与されたアノテーション37が表示されることとなる。なお、観察条件が縦隔条件である場合、特定部24は、観察条件および注目領域を選択する操作の検知結果に基づいて、選択された関心領域は縦隔に含まれる関心領域R8であると判定し、関心領域R8を注目領域に特定する。この場合、関心領域R8に付与されたアノテーションのみを表示するようにすればよい。
 また、上記実施形態においては、複数の画像を同時に表示画面40に表示しているが、これに限定されるものではない。1つの画像のみを表示画面40に表示する場合にも、本開示の技術を適用することができる。
 また、上記実施形態においては、本実施形態による読影WS3に含まれる画像表示装置が解析部22を備え、読影WS3において対象画像を解析するようにしているが、これに限定されるものではない。読影WS3とは異なる外部の解析装置により対象画像を解析し、読影WS3において解析結果を取得するようにしてもよい。また、画像サーバ5に保存されている画像に対して、すでにアノテーションが重畳されている場合もある。このような場合においても、上記実施形態と同様に、読影WS3においてアノテーションが重畳された画像を表示し、画像の表示に関わる他の操作または画像の読影に関わる他の操作の検知結果に基づいて、アノテーションを非表示に切り替えるようにすることができる。
 また、上記各実施形態において、例えば、画像取得部21、解析部22、表示制御部23および特定部24といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
 1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせまたはCPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
 複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(Circuitry)を用いることができる。
   1  医療情報システム
   2  撮影装置
   3  読影WS
   4  診療WS
   5  画像サーバ
   6  画像DB
   7  レポートサーバ
   8  レポートDB
   10  ネットワーク
   11  CPU
   12  画像表示プログラム
   13  ストレージ
   14  ディスプレイ
   15  入力デバイス
   16  メモリ
   17  ネットワークI/F
   18  バス
   20  画像表示装置
   21  画像取得部
   22  解析部
   23  表示制御部
   24  特定部
   31~37  アノテーション
   32A,33A,34A  図形
   32B,33B,34B  テキスト
   32C,33C,34C  引出線
   40  表示画面
   41  検査リストエリア
   42  サムネイル画像エリア
   43  画像表示エリア
   43A~43D  表示エリア
   45  マウスカーソル
   50  性状入力ウィンドウ
   51  所見文入力ウィンドウ
   60  マスク
   C1~C6  サムネイル画像
   Dj,DA1~DA6  断層画像
   G0,G1,G2  対象画像
   GA1~GA3  断層画像群
   GP1~GP4  過去画像
   R1~R8  関心領域

Claims (16)

  1.  少なくとも1つのプロセッサを備え、
     前記プロセッサは、
     医用画像に含まれる複数の関心領域のそれぞれに関連する関連情報を、表示および非表示を切り替え可能に前記医用画像に重畳表示し、
     前記複数の関心領域のうち、ユーザが注目する注目領域を特定するための専用の情報以外の他の情報を含む特定情報に基づいて、少なくとも1つの前記注目領域を特定し、
     前記特定された注目領域についての関連情報を表示に切り替える画像表示装置。
  2.  前記プロセッサは、前記注目領域以外の関心領域に関連する関連情報を非表示または弱表示に切り替える請求項1に記載の画像表示装置。
  3.  前記他の情報は、前記医用画像の観察条件である請求項1または2に記載の画像表示装置。
  4.  前記他の情報は、前記医用画像の表示または読影に関わる他の操作の検知結果である請求項1または2に記載の画像表示装置。
  5.  前記プロセッサは、全ての関連情報を非表示とされた前記医用画像を表示し、
     前記他の操作の検知結果に基づいて前記注目領域が特定されると、前記注目領域についての関連情報を表示する請求項4に記載の画像表示装置。
  6.  前記医用画像が複数の断層画像を含む3次元画像であり、
     前記他の操作は前記断層画像のページング操作であり、
     前記プロセッサは、前記ページング操作されている断層画像に含まれる関心領域を前記注目領域に特定する請求項4または5に記載の画像表示装置。
  7.  前記他の操作は、前記医用画像に関する所見文を入力する操作であり、
     前記プロセッサは、前記所見文に含まれる用語に関連する関心領域を前記注目領域に特定する請求項4から6のいずれか1項に記載の画像表示装置。
  8.  前記他の操作は、前記医用画像に含まれる前記関心領域にさらに前記関連情報を付与する操作であり、
     前記プロセッサは、前記関連情報が付与されている関心領域を前記注目領域に特定する請求項4から7のいずれか1項に記載の画像表示装置。
  9.  前記他の操作は、指定された関心領域を基準として前記医用画像のサイズを変更する操作であり、
     前記プロセッサは、前記指定された関心領域を前記注目領域に特定する請求項4から8のいずれか1項に記載の画像表示装置。
  10.  前記プロセッサは、前記他の操作により前記注目領域に重畳される前記関連情報を非表示に切り替える請求項4から9のいずれか1項に記載の画像表示装置。
  11.  前記特定情報は、前記他の情報のみを含む請求項1から10のいずれか1項に記載の画像表示装置。
  12.  前記関連情報は、前記関心領域に関するアノテーションを含む請求項1から11のいずれか1項に記載の画像表示装置。
  13.  前記アノテーションは、前記関心領域の認識結果および前記関心領域に関する文字情報の少なくとも一方を含む請求項12に記載の画像表示装置。
  14.  前記関心領域は、前記医用画像に含まれる病変または臓器である請求項12または13に記載の画像表示装置。
  15.  医用画像に含まれる複数の関心領域のそれぞれに関連する関連情報を、表示および非表示を切り替え可能に前記医用画像に重畳表示し、
     前記複数の関心領域のうち、ユーザが注目する注目領域を特定するための専用の情報以外の他の情報を含む特定情報に基づいて、少なくとも1つの前記注目領域を特定し、
     前記特定された注目領域についての関連情報を表示に切り替える画像表示方法。
  16.  医用画像に含まれる複数の関心領域のそれぞれに関連する関連情報を、表示および非表示を切り替え可能に前記医用画像に重畳表示する手順と、
     前記複数の関心領域のうち、ユーザが注目する注目領域を特定するための専用の情報以外の他の情報を含む特定情報に基づいて、少なくとも1つの前記注目領域を特定する手順と、
     前記特定された注目領域についての関連情報を表示に切り替える手順とをコンピュータに実行させる画像表示プログラム。
PCT/JP2021/039013 2020-11-27 2021-10-21 画像表示装置、方法およびプログラム WO2022113587A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP21897565.4A EP4252663A4 (en) 2020-11-27 2021-10-21 IMAGE DISPLAY DEVICE, METHOD AND PROGRAM
JP2022565121A JPWO2022113587A1 (ja) 2020-11-27 2021-10-21
US18/314,796 US20230281810A1 (en) 2020-11-27 2023-05-09 Image display apparatus, method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020197514 2020-11-27
JP2020-197514 2020-11-27

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/314,796 Continuation US20230281810A1 (en) 2020-11-27 2023-05-09 Image display apparatus, method, and program

Publications (1)

Publication Number Publication Date
WO2022113587A1 true WO2022113587A1 (ja) 2022-06-02

Family

ID=81756751

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/039013 WO2022113587A1 (ja) 2020-11-27 2021-10-21 画像表示装置、方法およびプログラム

Country Status (4)

Country Link
US (1) US20230281810A1 (ja)
EP (1) EP4252663A4 (ja)
JP (1) JPWO2022113587A1 (ja)
WO (1) WO2022113587A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004213643A (ja) * 2002-12-18 2004-07-29 Ge Medical Systems Global Technology Co Llc コンピュータ支援調和法
JP2004275601A (ja) * 2003-03-18 2004-10-07 Fuji Photo Film Co Ltd 画像管理装置および画像表示装置
JP2013132514A (ja) 2011-12-27 2013-07-08 Toshiba Corp 医用画像表示装置及び医用画像保管システム
US20180341747A1 (en) * 2017-05-25 2018-11-29 Enlitic, Inc. Medical scan annotator system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4130457B2 (ja) * 2005-09-14 2008-08-06 ザイオソフト株式会社 画像処理方法および画像処理プログラム
WO2017033516A1 (ja) * 2015-08-24 2017-03-02 富士フイルム株式会社 読影支援装置及び方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004213643A (ja) * 2002-12-18 2004-07-29 Ge Medical Systems Global Technology Co Llc コンピュータ支援調和法
JP2004275601A (ja) * 2003-03-18 2004-10-07 Fuji Photo Film Co Ltd 画像管理装置および画像表示装置
JP2013132514A (ja) 2011-12-27 2013-07-08 Toshiba Corp 医用画像表示装置及び医用画像保管システム
US20180341747A1 (en) * 2017-05-25 2018-11-29 Enlitic, Inc. Medical scan annotator system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4252663A4

Also Published As

Publication number Publication date
EP4252663A1 (en) 2023-10-04
US20230281810A1 (en) 2023-09-07
JPWO2022113587A1 (ja) 2022-06-02
EP4252663A4 (en) 2024-03-27

Similar Documents

Publication Publication Date Title
JP7000206B2 (ja) 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
WO2020209382A1 (ja) 医療文書作成装置、方法およびプログラム
JPWO2019176407A1 (ja) 学習支援装置、学習支援方法、学習支援プログラム、関心領域判別装置、関心領域判別方法、関心領域判別プログラム及び学習済みモデル
JP7237089B2 (ja) 医療文書作成支援装置、方法およびプログラム
JP2024009342A (ja) 文書作成支援装置、方法およびプログラム
WO2021107099A1 (ja) 文書作成支援装置、文書作成支援方法及びプログラム
JP7212147B2 (ja) 医療文書作成支援装置、方法およびプログラム
JP7007469B2 (ja) 医療文書作成支援装置、方法およびプログラム、学習済みモデル、並びに学習装置、方法およびプログラム
US20230005580A1 (en) Document creation support apparatus, method, and program
WO2022153702A1 (ja) 医用画像表示装置、方法およびプログラム
US20220392619A1 (en) Information processing apparatus, method, and program
WO2021193548A1 (ja) 文書作成支援装置、方法およびプログラム
WO2021107098A1 (ja) 文書作成支援装置、文書作成支援方法及び文書作成支援プログラム
JP7420914B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
WO2022113587A1 (ja) 画像表示装置、方法およびプログラム
WO2022064794A1 (ja) 画像表示装置、方法およびプログラム
WO2022070528A1 (ja) 医用画像処理装置、方法およびプログラム
WO2023054646A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
US20230360213A1 (en) Information processing apparatus, method, and program
WO2021177358A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
WO2022215530A1 (ja) 医用画像装置、医用画像方法、及び医用画像プログラム
JP7376715B2 (ja) 経過予測装置、経過予測装置の作動方法および経過予測プログラム
WO2022196105A1 (ja) 情報管理装置、方法およびプログラム、並びに情報処理装置、方法およびプログラム
WO2021172477A1 (ja) 文書作成支援装置、方法およびプログラム
WO2022220158A1 (ja) 作業支援装置、作業支援方法、及び作業支援プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21897565

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022565121

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021897565

Country of ref document: EP

Effective date: 20230627