WO2017126168A1 - 読影レポート作成支援システム - Google Patents

読影レポート作成支援システム Download PDF

Info

Publication number
WO2017126168A1
WO2017126168A1 PCT/JP2016/080327 JP2016080327W WO2017126168A1 WO 2017126168 A1 WO2017126168 A1 WO 2017126168A1 JP 2016080327 W JP2016080327 W JP 2016080327W WO 2017126168 A1 WO2017126168 A1 WO 2017126168A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
report
image
interpretation
screen
Prior art date
Application number
PCT/JP2016/080327
Other languages
English (en)
French (fr)
Inventor
雅 久野
博一 西村
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2017562434A priority Critical patent/JP6401402B2/ja
Publication of WO2017126168A1 publication Critical patent/WO2017126168A1/ja
Priority to US16/040,637 priority patent/US20180350460A1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/041Capsule endoscopes for imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image

Definitions

  • the present invention relates to a system that supports interpretation report creation work.
  • Patent Document 1 discloses a medical network system in which an interpretation doctor in charge of checking checks the contents of an interpretation report created by a trainee or an inexperienced interpretation doctor, and can correct it as necessary.
  • the patient swallows a capsule with a built-in micro camera from his mouth with the antenna attached to his abdomen and the recording device attached to his waist with a belt.
  • the capsule periodically takes still images while passing through the digestive tract, and transfers the taken images from the antenna to the recording device.
  • the antenna and the recording device are collected, and the image recorded in the recording device is recorded in a database in the medical facility.
  • the image interpreter observes continuously reproduced images and extracts images including lesion findings, but it is known that capsule endoscopy has captured tens of thousands of images, which is a heavy workload. It has been.
  • double interpretation by two interpretation doctors may be carried out.
  • qualified doctors assist in image diagnosis, and doctors complete interpretation reports. Implementation of double interpretation is also proposed.
  • the present invention has been made in view of such a situation, and an object thereof is to provide an interpretation report creation support technique for efficiently performing double interpretation.
  • an interpretation report creation support system is a system that supports an interpretation report creation task, and a first report input screen for a first interpreter to input an interpretation result.
  • a first screen generating unit that generates the first report, a first storage unit that stores input data input by the first interpreter on the first report input screen, and a second report for the second interpreter to input the interpretation result
  • a second screen generation unit that generates an input screen; and a cooperation processing unit that reads input data stored in the first storage unit and reflects the input data in an input area of the second report input screen.
  • the first screen generation unit generates a first report input screen having a first comment input area for the first interpreter to input a comment for the second interpreter, and the first storage unit stores the first comment input area. The input data input to is stored.
  • FIG. 1 is a diagram showing a configuration of an interpretation report creation support system 1 according to an embodiment of the present invention.
  • the interpretation report creation support system 1 is a system for supporting interpretation report creation work of a capsule endoscope, and includes a management system 10 and a plurality of report processing devices 30.
  • Each report processing apparatus 30 is connected to the management system 10 by a network 2 such as a LAN (local area network).
  • the report processing device 30 is a terminal device such as a personal computer assigned to a doctor or an engineer, for example, and is connected to the display device 32 so as to be able to output a screen.
  • the report processing device 30 is a laptop integrated with the display device. It may be a computer or a portable tablet. Further, the report processing device 30 may be composed of a terminal device and a server.
  • the management system 10 includes a management device 12 that manages order information of endoscopy and interpretation report information, and an endoscope image recording unit 20 that records an endoscope image photographed by a capsule endoscope.
  • the management device 12 includes an examination information storage unit 14 that stores patient examination orders, a first interpretation information storage unit 16 that stores interpretation report information input from a report input screen in the report processing device 30, and a second interpretation information storage. Part 18.
  • the endoscope image recording unit 20 records an endoscope image photographed by the capsule endoscope.
  • the endoscope image recording unit 20 may be configured with an HDD (hard disk drive) or a flash memory. Since tens of thousands of still images are captured by one capsule endoscopy, the endoscope image recording unit 20 needs to be configured as a large-capacity database.
  • the report processing device 30 can access the management system 10 and display the endoscope image recorded in the endoscope image recording unit 20 on the display device 32. At this time, it is preferable that the management system 10 executes an endoscope image reproduction application to efficiently and continuously reproduce tens of thousands of endoscope images.
  • the reproduction application has a function of adjusting the reproduction speed in response to a reproduction instruction from the report processing device 30, for example, a normal reproduction instruction, a fast forward reproduction instruction, a fast reverse reproduction instruction, or the like.
  • the management system 10 identifies an endoscopic image that seems to have taken a bleeding state by image processing from tens of thousands of endoscopic images. Then, an endoscopic image that seems to contain a bleeding state is marked in advance. For example, the management system 10 specifies an image with strong redness in advance as an endoscopic image that seems to have taken a bleeding state. Thus, during continuous reproduction by the reproduction application, an interpreter can easily recognize an endoscopic image that is likely to include a bleeding state.
  • the report processing device 30 cooperates with the management system 10 and has a function of supporting interpretation report creation by an interpreter.
  • a user interface such as a keyboard and a mouse is connected to the report processing apparatus 30.
  • the report processing device 30 causes the display device 32 to display an interpretation report input screen, and the interpreter inputs the interpretation information by operating the user interface while viewing the display screen.
  • an interpreter When creating an interpretation report, an interpreter first selects an endoscopic image including lesion findings from tens of thousands of endoscopic images taken.
  • double interpretation is performed by a combination of an engineer and a doctor, and the engineer and the doctor each perform interpretation and create an interpretation report.
  • interpretation is to make a diagnosis by observing an image, but the role of an engineer in double interpretation in the embodiment is an image diagnosis that consists of an act of selecting an image including abnormal findings and an act of inputting findings information. This is an auxiliary work, not a diagnostic act.
  • an engineer is an interpretation assistant who does not make a diagnosis, but hereinafter, an engineer is also called an interpreter like a doctor.
  • the report processing apparatus 30 has a function of generating two types of report input screens having different formats. Specifically, the report processing apparatus 30 has a function of generating a first report input screen for an engineer to input an interpretation result and a second report input screen for a doctor to input the interpretation result. As a typical difference between the two types of formats, the second report input screen is provided with an input field for a doctor to input a diagnosis result, but the first report input screen includes an input field for a diagnosis result. It is not provided.
  • the doctor can confirm the endoscopic image selected by the engineer on the first report input screen and the finding information input by the engineer on the second report input screen.
  • the report processing apparatus 30 reflects the data input by the engineer on the first report input screen in the input area of the second report input screen for the doctor to create an interpretation report, and the doctor selects the endoscope selected by the engineer. Completing the interpretation report while referring to the images and input findings. Details of the report processing apparatus 30 will be described below.
  • FIG. 2 shows the configuration of the report processing apparatus 30.
  • the report processing apparatus 30 includes an input reception unit 40, an acquisition unit 42, an endoscope image selection screen generation unit 44, a selection instruction reception unit 46, a selection image display screen generation unit 48, a first report input screen generation unit 50, a second
  • the report input screen generation unit 52, the text display unit 54, the mark addition unit 56, the cooperation processing unit 58, the input data display unit 60, the user (database) DB 62, the registration processing unit 64, and the item setting unit 66 are configured.
  • the input receiving unit 40 receives an operation input of a user interface such as a mouse or a keyboard by a doctor.
  • the report processing device 30 may be a terminal device, but may be configured by a terminal device and a server. Therefore, each function shown as the configuration of the report processing device 30 in FIG. 2 is a device other than the terminal device. It may be realized by.
  • the engineer B logs in by inputting a user ID to the report processing apparatus 30.
  • the user DB 62 holds a user ID and user attribute information in association with each other, and the user attribute information includes information indicating whether it is an engineer or a doctor.
  • the input receiving unit 40 refers to the user DB 62 and specifies that the user is an engineer.
  • the report input screen is generated by the first report input screen generation unit 50.
  • the report input screen is generated by the second report input screen generation unit 52.
  • the management device 12 When the engineer B logs in, the management device 12 provides the examination information stored in the examination information storage unit 14 to the report processing device 30, and the display device 32 displays a list of capsule endoscopy.
  • examination information such as patient ID, patient name, examination ID, examination date and time is displayed in a list, and engineer B selects an examination for which an interpretation report is to be created.
  • the input receiving unit 40 receives the examination selection input and specifies the examination ID, and the endoscope image selection screen generating unit 44 A selection screen for selecting an endoscopic image is generated and displayed on the display device 32.
  • FIG. 3 shows an example of an endoscopic image selection screen.
  • the acquisition unit 42 acquires a continuous reproduction image of the endoscope image recorded in the endoscope image recording unit 20 from the reproduction application of the management system 10, and the endoscope image selection screen generation unit 44 performs the reproduction region 100.
  • a continuous playback image is output.
  • the endoscope image is processed so that it can be efficiently and continuously reproduced. For example, a similar image (an image with little change) is processed in advance so as to be reproduced at high speed.
  • the selection button 104 When the user operates the selection button 104 during continuous playback of images in the playback area 100, the endoscopic image displayed in the playback area 100 is captured and displayed in the selected image display area 102.
  • the engineer B When an image including a lesion finding is displayed in the reproduction area 100, the engineer B operates the selection button 104 to select a display image.
  • the selection instruction receiving unit 46 receives an operation of the selection button 104 as an image selection instruction and transmits it to the management system 10
  • the management system 10 extracts a display image at the time when the selection instruction is received as a selection image.
  • the management system 10 transmits the extracted selected image to the report processing device 30, and the selected image is displayed in the selected image display area 102.
  • the image displayed in the selected image display area 102 is an option for an image to be attached to the interpretation report later.
  • Engineer B must always select an image of the bleeding state among the lesion findings.
  • the management system 10 when an endoscopic image that seems to have taken a bleeding state is specified in advance by image processing, an image that seems to have taken the bleeding state is displayed in the reproduction area 100. Information indicating that may be displayed in the reproduction area 100 or in the vicinity of the reproduction area 100. Thus, the engineer B can recognize that an image having a high possibility of including a bleeding state is being displayed. If the management system 10 identifies an endoscopic image that seems to have taken a bleeding state by image processing in advance, it is possible to reduce the risk of oversight of an interpreter.
  • FIG. 3 shows a state in which the selected images 102a to 102i are selected in the selected image display area 102.
  • the user can cancel the selection by selecting the selected image in the selected image display area 102 and operating the cancel button 106.
  • the cancel button 106 may be used so as to leave only images that have been photographed well.
  • the playback operation button 108 is a button for controlling the playback operation in the playback area 100, and allows the playback speed to be adjusted.
  • the time axis 110 is a user interface for indicating the time position of the endoscopic image reproduced in the reproduction area 100, and a user interface for displaying the endoscopic image. But there is.
  • engineer B places the mouse pointer at an arbitrary position on time axis 110, an endoscopic image photographed at that time is displayed in reproduction area 100.
  • the engineer B can add a mark on the time axis 110 to indicate the start position of the part.
  • the mark 112a is a mark indicating the start of the stomach
  • the mark 112b is a mark indicating the start of the duodenum
  • the mark 112c is a mark indicating the start of the jejunum
  • the mark 112d indicates the start of the large intestine. Mark.
  • the engineer B operates the marking button 112 to mark the start position of each part on the time axis when a new part is reproduced while viewing the endoscopic images continuously reproduced in the reproduction area 100. In this way, the engineer B selects an endoscopic image in which a lesion finding is photographed while marking the start position of each part, and performs image observation. By marking, it is possible to easily grasp where to start when reviewing an endoscopic image later.
  • Engineer B operates the registration button 114 after completing the image observation work.
  • the registration button 114 is operated, the selected image selected in the selected image display area 102 is stored in the first interpretation information storage unit 16 and the endoscope image recording unit 20 in the management system 10.
  • Time information indicating the start position of each part marked by the operation is stored in the endoscope image recording unit 20.
  • the engineer B finishes the image observation work, the engineer B subsequently creates an interpretation report.
  • the engineer B uses the report processing apparatus 30 to start an interpretation report creation application.
  • FIG. 4 shows an example of the selected image display screen by the report creation application.
  • the acquisition unit 42 acquires the thumbnail of the selected image associated with the examination ID from the first interpretation information storage unit 16.
  • the selected image stored in the first interpretation information storage unit 16 is an image selected on the endoscope image selection screen shown in FIG.
  • the selected image display screen generation unit 48 displays a thumbnail list of the selected endoscopic images in the thumbnail display area 120. If the first interpretation information storage unit 16 does not have a thumbnail, the acquisition unit 42 acquires the selected image, and the selected image display screen generation unit 48 generates a thumbnail in which the selected image is reduced to display the thumbnail. It may be displayed in the area 120. The selected image display screen is displayed on the display device 32 in a state where the selected image tab 122 is selected.
  • Each thumbnail is provided with a check box 126, and when Engineer B places the mouse pointer on the check box 126 and left-clicks, the thumbnail is selected as an attached image of the interpretation report.
  • the engineer B can enlarge the thumbnail from the menu displayed by placing the mouse pointer on the thumbnail and right-clicking, and the engineer B views the enlarged endoscopic image and reports it on the report. You may decide whether to attach it.
  • FIG. 4 shows a state where the selected images 102b, 102d, 102h, and 102i are selected as report attached images.
  • first report input screen generation unit 50 causes display device 32 to display the first report input screen.
  • FIG. 5 shows an example of the first report input screen.
  • the first report input screen generation unit 50 generates a first report input screen for an engineer who is a first image interpreter to input an interpretation result, and causes the display device 32 to display the first report input screen.
  • the first report input screen has two areas, an attached image display area 130 for displaying thumbnails of attached images on the left side, and an interpretation result input area 132 for the interpreter to input the interpretation results on the right side. .
  • the first report input screen generation unit 50 arranges the image selected in the thumbnail display area 120 shown in FIG. 4 in the attached image display area 130.
  • selected images 102b, 102d, 102h, and 102i selected as report attached images are displayed in the attached image display area 130.
  • the interpretation result input area 132 is an area for an engineer to write an interpretation result using a keyboard.
  • the interpretation result input area 132 includes a finding input area 134 for the engineer to input finding information and a comment input area 136 for the engineer to input a comment for the doctor.
  • Engineer B inputs the findings information in the findings input area 134.
  • the engineer B may add predetermined information to the selected image displayed in the attached image display area 130.
  • a state where the attention mark 138 is added to the selected image 102b is shown.
  • the mark adding unit 56 adds an attention mark 138 indicating a bleeding point to the selected image.
  • the engineer B describes in the finding input area 134 that bleeding is recognized in the selected image 102b as the finding content.
  • FIG. 6 shows an input example of the first report input screen.
  • the engineer B inputs the finding information in the finding input area 134.
  • the finding information “Bleeding is observed in the descending part of the duodenum” is entered using the keyboard.
  • the input receiving unit 40 receives characters input from the keyboard, and the text display unit 54 displays them in the finding input area 134.
  • the engineer B inputs a comment for the doctor C in the comment input area 136.
  • the engineer B may describe in the comment input area 136 a question regarding the input findings, the presence or absence of confidence, and the like in a free format.
  • the description content in the comment input area 136 is later confirmed by the doctor C, and the doctor C can know how the engineer B has determined the finding information.
  • the registration processing unit 64 registers the data input by the engineer B on the first report input screen in the first interpretation information storage unit 16.
  • the registered input data includes the input data in the finding input area 134 and the comment input area 136, the image selected as the attached image in the attached image display area 130, and information on the attention mark 138 added to the image.
  • the first interpretation information storage unit 16 stores the input data input by the engineer B on the first report input screen.
  • FIG. 7 shows an example of the second report input screen.
  • the second report input screen generation unit 52 generates a second report input screen for a doctor who is a second interpreter to input an interpretation result, and causes the display device 32 to display the second report input screen.
  • the second report input screen has two areas, an attached image display area 130 for displaying thumbnails of attached images on the left side, and an interpretation result input area 152 for the interpreter to input the interpretation results on the right side. .
  • the second report input screen generation unit 52 arranges the selected image in the attached image display area 130.
  • the interpretation result input area 152 is an area for the doctor to write the interpretation result using the keyboard.
  • the interpretation result input area 152 includes a finding input area 154 for the doctor to input finding information, a diagnosis input area 156 for the doctor to input diagnostic information, and a comment input area for the doctor to input comments on the engineer. 158.
  • the registration processing unit 64 registers the data input by the doctor on the second report input screen in the second interpretation information storage unit 18. The above is the general description of the second report input screen.
  • the doctor C can check the interpretation result input by the engineer B on the second report input screen. Therefore, when the doctor C opens the second report input screen, the report processing device 30 performs a process for expanding the data input by the engineer B on the second report input screen.
  • the doctor C inputs the user ID to the report processing apparatus 30 and logs in.
  • the input receiving unit 40 refers to the user DB 62 and specifies that the user is a doctor.
  • the report input screen is generated by the second report input screen generation unit 52.
  • the management device 12 When the doctor C logs in, the management device 12 provides the examination information stored in the examination information storage unit 14 to the report processing device 30, and the display device 32 displays a list of capsule endoscopy.
  • the input reception unit 40 receives the examination selection input and specifies the examination ID, and the endoscope image selection screen generation unit 44 Then, a selection screen for selecting an endoscopic image is generated and displayed on the display device 32.
  • FIG. 8 shows an example of an endoscopic image selection screen.
  • the acquisition unit 42 acquires a continuous reproduction image of the endoscope image recorded in the endoscope image recording unit 20 from the reproduction application of the management system 10, and the endoscope image selection screen generation unit 44 performs the reproduction region 100. A continuous playback image is output.
  • the cooperation processing unit 58 acquires the selection image stored in the endoscope image recording unit 20 by the observation work of the engineer B and the time information indicating the start position of each part, and the endoscope image selection screen generation unit 44 displays the marks 112a to 112d and the selected images 102a to 102i.
  • the doctor C can know the start position of each part from the marks 112a to 112d marked by the engineer B.
  • FIG. 8 shows a state in which the images 202a to 202c selected by the doctor C are additionally displayed in the selected image display area 102, and the selected images 102g to 102i are not displayed but are scrolled downward. By moving the bar, the selected images 102g to 102i are displayed in the selected image display area 102.
  • Physician C observes the image displayed in the reproduction area 100, and when an image including a lesion finding is displayed in the reproduction area 100, the doctor C operates the selection button 104 to select a display image.
  • the selection instruction receiving unit 46 receives the operation of the selection button 104 as an image selection instruction and transmits it to the management system 10, and the management system 10 displays a display when the selection instruction is received.
  • An image is extracted as a selected image.
  • the management system 10 transmits the extracted selected image to the report processing device 30, and the selected image is displayed in the selected image display area 102.
  • the doctor C can refer to the selection images 102a to 102i selected by the engineer B, so that the intention of the engineer B can be estimated.
  • the doctor C does not need to select the same image as the selection image of the engineer B. Note that, even if the engineer B selects an image including a lesion finding, the doctor C selects the other image as long as another image is clearly captured.
  • the doctor C may cancel the selection of the unclear image selected by the engineer B by operating the cancel button 106.
  • the selected image display area 102 in addition to the selected images 102a to 102f selected by the engineer B, selected images 202a to 202c selected by the doctor C are displayed.
  • the endoscopic image selection screen generation unit 44 displays the selected image selected by the engineer B and the selected image selected by the doctor C in the selected image display area 102 so as to be distinguished.
  • the selection images 202a to 202c selected by the doctor C may be displayed in a manner different from the selection images 102a to 102f selected by the engineer B by being surrounded by a thick frame.
  • the display mode is not limited to this.
  • the name of the selected radiogram interpreter may be displayed below each selected image.
  • Physician C operates the registration button 114 when completing the image observation work.
  • the registration button 114 is operated, the selected image selected in the selected image display area 102 is stored in the second interpretation information storage unit 18 and the endoscope image recording unit 20 in the management system 10.
  • the doctor C finishes the image observation work, the doctor C subsequently creates an interpretation report.
  • the doctor C uses the report processing device 30 to start an interpretation report creation application.
  • FIG. 9 shows an example of the selected image display screen by the report creation application.
  • the acquisition unit 42 acquires the thumbnail of the selected image associated with the examination ID from the second interpretation information storage unit 18.
  • the selected image stored in the second interpretation information storage unit 18 includes an image selected by the doctor C on the endoscopic image selection screen shown in FIG. 8, and further includes an image selected by the engineer B.
  • the selected image display screen generation unit 48 separately displays the image selected by the doctor C and the image selected by the engineer B in the thumbnail display area 120.
  • the doctor selection area 120a is an image display area selected by the doctor C
  • the engineer selection area 120b is an image display area selected by the engineer B. If the doctor C selects an image to be attached to the report on the endoscopic image selection screen shown in FIG. 8 and cancels the selection of the image not to be attached, the selection image display screen shown in FIG. Only the attached image is displayed. In the illustrated example, the doctor C does not cancel the selected image, and the images 102a to 102i selected by the engineer B can be referred to.
  • the thumbnail is selected as an attached image of the interpretation report.
  • the doctor C selects the selection images 202a and 202c as report attached images.
  • the selected images 102b, 102d, 102h, and 102i are selected by the engineer B as report attached images, and a check mark is entered in the check box 126 of these selected images together with information indicating that the engineer B has checked. May be.
  • the second report input screen generation unit 52 causes the display device 32 to display the second report input screen.
  • FIG. 10 shows an example of the second report input screen.
  • the second report input screen generation unit 52 generates a second report input screen for a doctor who is a second interpreter to input an interpretation result, and causes the display device 32 to display the second report input screen.
  • the second report input screen generation unit 52 arranges the image selected in the thumbnail display area 120 shown in FIG. 9 in the attached image display area 130.
  • selected images 202 a and 202 c selected as report attached images are displayed in the attached image display area 130.
  • the cooperation processing unit 58 performs a process of reading the input data stored in the first interpretation information storage unit 16 and reflecting it in the input area of the second report input screen.
  • the cooperation processing unit 58 determines whether or not input data is stored in the first interpretation information storage unit 16 for the same examination, and displays the copy button 162 on the second report input screen when stored. May be.
  • the copy button 162 is an operation button for reflecting the input data by the engineer B in the input area of the second report input screen. When the doctor C operates the copy button 162, the cooperation processing unit 58 executes the reflection process. May be.
  • the cooperation processing unit 58 reads out these input data and reflects them in the input area of the second report input screen.
  • the cooperation processing unit 58 reads the selected images 102b, 102d, 102h, and 102i selected by the engineer B as attached images from the first interpretation information storage unit 16, and places the read selected images in the attached image display region 130. Let The cooperation processing unit 58 reads the input data in the finding input area 134 from the first interpretation information storage unit 16 and displays it in the finding input area 154, and the input data in the comment input area 136 from the first interpretation information storage unit 16. Read and display in the comment input area 158. In addition, the cooperation processing unit 58 reads information about the attention mark 138 added to the selected image 102b from the first interpretation information storage unit 16, and adds the information to the selected image 102b. This process is performed by the input data display unit 60.
  • the input data display unit 60 performs processing for displaying the input data read by the cooperation processing unit 58 in the input area instructed by the cooperation processing unit 58. As a result, the doctor C can see the input data of the interpretation report created by the engineer B on the second report input screen.
  • the cooperation processing unit 58 displays the input data read from the first interpretation information storage unit 16 in the input area of the second report input screen so that it can be understood that it has been input by the engineer.
  • the cooperation processing unit 58 sets the character color of the text data by the engineer B to a color different from the character color of the text data by the doctor C.
  • the character color of the text data by the doctor C is black
  • the character color of the text data by the engineer B may be set to red.
  • the doctor C can distinguish between the character input by the doctor C and the character input by the engineer B.
  • the doctor C only needs to be able to determine that the character is input by the engineer B, and the cooperation processing unit 58 may change not only the character color but also the character size, the character font, and the like. Further, the name of the radiogram interpreter may be displayed.
  • the cooperation processing unit 58 causes the attached image display area 130 to display the attached image selected by the engineer B and the attached image selected by the doctor C in different modes.
  • the attached image selected by the doctor C is surrounded by a thick frame, but the name of the interpreter may be added to each selected image.
  • the doctor C can delete unnecessary attached images in the attached image display area 130.
  • Physician C inputs finding information in the finding input area 154.
  • the finding information by the engineer B input to the finding input area 154 is accurate, the doctor C does not need to input the finding information again. In this way, by reflecting the finding information by the engineer B in the finding input area 154, the doctor C can save the input effort while performing double interpretation. If the finding information by the engineer B is insufficient, the doctor C additionally inputs the finding information. If the finding information by the engineer B is incorrect, the doctor C deletes the wrong finding information from the finding input area 154. , Enter correct findings information. In this way, the doctor C determines the finding information in the finding input area 154.
  • the doctor C refers to the comment from the engineer B displayed in the comment input area 158 when inputting the finding information.
  • the doctor C can read the comments of the engineer B and obtain information such as how the engineer B lost his judgment.
  • doctor C enters a comment for engineer B in comment input area 158.
  • the doctor C may answer the question of the engineer B, or input other noticed points as comments.
  • the description content of the doctor C in the comment input area 158 is confirmed later by the engineer B, and is useful for improving the interpretation skill of the engineer B.
  • diagnosis input area 156 is provided on the second report input screen input by the doctor, but is not provided on the first report input screen input by the engineer.
  • FIG. 11 shows an input example of the second report input screen.
  • the doctor C uses the input data of the engineer B as it is in the finding input area 154 and does not change it.
  • the attached images 102b, 102d, 102h, and 102i selected by the engineer B are also used as final report attached images.
  • the doctor C inputs diagnosis information in the diagnosis input area 156 and inputs advice to the engineer B in the comment input area 158.
  • the registration processing unit 64 registers the data input by the doctor C on the second report input screen in the second interpretation information storage unit 18.
  • the input data includes information regarding the input data in the finding input area 154, the diagnosis input area 156, and the comment input area 158, the image selected as the attached image in the attached image display area 130, and the attention mark 138 added to the image.
  • the second interpretation information storage unit 18 stores the input data input by the doctor C on the second report input screen. Thus, the interpretation by the doctor C is completed.
  • the second interpretation information storage unit 18 stores the input data input in the input area of the second report input screen.
  • the input data stored in the second interpretation information storage unit 18 includes data input to the first report input screen by the engineer B, that is, the cooperation processing unit 58 stores the first interpretation information.
  • Input data reflecting the input data stored in the unit 16 in the input area of the second report input screen is also included.
  • the data of the second report input screen in which the input data of the engineer B is reflected by the cooperation processing unit 58 is used as the interpretation report information by the doctor C, so that the report of the doctor C is generated. The burden can be reduced.
  • the input data stored in the second interpretation information storage unit 18 is used when printing the interpretation report, but the input data in the comment input area 158 is not used for printing.
  • the comment input area 136 on the first report input screen and the comment input area 158 on the second report input screen are used only as a communication means between the engineer B and the doctor C. By providing the comment input area in this manner, the doctor C can educate the engineer B at the same time when he / she creates the interpretation report.
  • FIG. 12 shows an example of the first report input screen.
  • the cooperation processing unit 58 reads the input data stored in the second interpretation information storage unit 18 and reflects it in the comment input area 136 of the first report input screen.
  • the cooperation processing unit 58 reads the input data of the comment input area 158, that is, the comment 136 a by the doctor C from the second interpretation information storage unit 18 and displays it in the comment input area 136.
  • the engineer B can solve the question and use it for the next image observation.
  • the version number of the interpretation report by the engineer B and the version number of the interpretation report by the doctor C are managed separately. For example, when doctor C overwrites and updates an interpretation report created by engineer B, the version of the interpretation report created by doctor C increases, but in the embodiment, doctor C is independent of engineer B. Since the interpretation report is created, there is also an advantage that the version number is not increased unnecessarily.
  • FIG. 13 shows the setting screen for the reflection item.
  • the item setting unit 66 sets items that the cooperation processing unit 58 reflects on the second report input screen.
  • the item setting unit 66 displays the setting screen shown in FIG. 13 on the display device 32 so that the doctor C can determine the item to be reflected.
  • the set reflection item may be registered in the user DB 62 for each doctor, for example.
  • the “selected image” check box is checked, and therefore, the cooperation processing unit 58 reflects only the selected image selected by the engineer on the second report input screen. In this way, by allowing the reflection item to be set, flexible operation becomes possible.
  • attribute information can be added to the comment. May be.
  • attribute information such as “unknown point” or “question” may be added as a comment type.
  • the doctor C can grasp the purpose of the comment by the engineer B and can answer appropriately.
  • the engineer B inputs a comment “accuracy is 60%... Not confident” in the comment input area 136.
  • information regarding the presence or absence of confidence can be added to the attached image.
  • the doctor C adds a comment to the comment input area 158 for the attached image selected by the engineer B. Can be described.
  • the doctor C can leave a detailed comment in the comment input area 158 by knowing how the engineer B has created the findings, which is superior. An educational effect can be expected.
  • the display mode of the image selected by the engineer B and the display mode of the image selected by the doctor C have been described.
  • the display mode of the image may be changed in more detail. For example, an image selected only by the engineer, an image selected only by the doctor, an image selected by the engineer and canceled by the doctor, and an image selected by the engineer and confirmed by the doctor may be displayed in different modes.
  • the present invention can be used for techniques related to interpretation report creation.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Business, Economics & Management (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Optics & Photonics (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Quality & Reliability (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Game Theory and Decision Science (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

第1レポート入力画面生成部50は、第1読影者が読影結果を入力するための第1レポート入力画面を生成し、第2レポート入力画面生成部52は、第2読影者が読影結果を入力するための第2レポート入力画面を生成する。連携処理部58は、第1読影者が第1レポート入力画面に入力した入力データを、第2レポート入力画面の入力領域に反映する。第1レポート入力画面生成部50は、第1読影者が第2読影者に対するコメントを入力するための第1コメント入力領域を有する第1レポート入力画面を生成する。

Description

読影レポート作成支援システム
 本発明は、読影レポート作成業務を支援するシステムに関する。
 特許文献1は、研修医や経験の浅い読影医師が作成した読影レポートの内容を、チェック担当の読影医師がチェックして、必要に応じて修正できる医用ネットワークシステムを開示する。
特開2014-67229号公報
 カプセル内視鏡検査では、患者は、腹部にアンテナを貼り付けられ、記録装置をベルトで腰に付けた状態で、超小型カメラを内蔵したカプセルを口から飲み込む。カプセルは消化管を通過しながら静止画像を周期的に撮影して、撮影画像をアンテナから記録装置に転送する。およそ8時間後にアンテナと記録装置は回収され、記録装置に記録された画像は、医療施設内のデータベースに記録される。
 その後、読影者は、連続再生される画像を観察して、病変所見を含む画像を抽出するが、カプセル内視鏡検査では数万枚の画像が撮像されており、作業負担が大きいことが知られている。見落としの可能性を低減するために、2人の読影医師による二重読影が実施されることがあるが、近年では、資格を有する技師が画像診断の補助を行いつつ、医師が読影レポートを完成させる二重読影の実施も提唱されている。
 二重読影では2人の読影者が、それぞれ独立して読影レポートを作成するが、その際に効率的なレポート作成を支援できることが好ましい。また技師と医師の組合せで二重読影を実施する場合、技師の教育を兼ねた読影レポートの作成支援技術の開発が切望されている。なお、これは技師と医師の組合せのみならず、非熟練医師と熟練医師の組合せでも同様であり、読影レポートの作成に際して、熟練していない読影者を教育できるシステムの開発が望まれる。
 本発明はこうした状況に鑑みなされたものであり、その目的は、二重読影を効率的に実施するための読影レポート作成支援技術を提供することにある。
 上記課題を解決するために、本発明のある態様の読影レポート作成支援システムは、読影レポート作成業務を支援するシステムであって、第1読影者が読影結果を入力するための第1レポート入力画面を生成する第1画面生成部と、第1レポート入力画面において第1読影者により入力された入力データを記憶する第1記憶部と、第2読影者が読影結果を入力するための第2レポート入力画面を生成する第2画面生成部と、第1記憶部に記憶された入力データを読み出して、第2レポート入力画面の入力領域に反映する連携処理部と、を備える。第1画面生成部は、第1読影者が第2読影者に対するコメントを入力するための第1コメント入力領域を有する第1レポート入力画面を生成し、第1記憶部は、第1コメント入力領域に入力された入力データを記憶する。
 なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
実施例にかかる読影レポート作成支援システムの構成を示す図である。 レポート処理装置の構成を示す図である。 内視鏡画像の選択画面の例を示す図である。 選択画像表示画面の例を示す図である。 第1レポート入力画面の例を示す図である。 第1レポート入力画面の入力例を示す図である。 第2レポート入力画面の例を示す図である。 内視鏡画像の選択画面の例を示す図である。 選択画像表示画面の例を示す図である。 第2レポート入力画面の例を示す図である。 第2レポート入力画面の入力例を示す図である。 第1レポート入力画面の例を示す図である。 反映項目の設定画面を示す図である。
 図1は、本発明の実施例にかかる読影レポート作成支援システム1の構成を示す図である。読影レポート作成支援システム1は、カプセル内視鏡の読影レポート作成業務を支援するためのシステムであり、管理システム10および複数のレポート処理装置30を備える。各レポート処理装置30はLAN(ローカルエリアネットワーク)などのネットワーク2によって管理システム10に接続される。レポート処理装置30はたとえば医師や技師に割り当てられたパーソナルコンピュータなどの端末装置であって、画面出力可能に表示装置32と接続されるが、レポート処理装置30は表示装置と一体となったラップトップコンピュータであってもよく、また携帯型タブレットであってもよい。またレポート処理装置30は、端末装置およびサーバから構成されてもよい。
 管理システム10は、内視鏡検査のオーダ情報や、読影レポート情報を管理する管理装置12と、カプセル内視鏡により撮影された内視鏡画像を記録する内視鏡画像記録部20を備える。管理装置12は、患者の検査オーダを記憶する検査情報記憶部14と、レポート処理装置30においてレポート入力画面から入力された読影レポート情報を記憶する第1読影情報記憶部16、第2読影情報記憶部18とを備える。
 内視鏡画像記録部20は、カプセル内視鏡により撮影された内視鏡画像を記録する。内視鏡画像記録部20は、HDD(ハードディスクドライブ)で構成されてもよく、またフラッシュメモリで構成されてもよい。1回のカプセル内視鏡検査で数万枚の静止画像が撮像されるため、内視鏡画像記録部20は、大容量のデータベースとして構成される必要がある。
 レポート処理装置30は、管理システム10にアクセスして、内視鏡画像記録部20に記録された内視鏡画像を表示装置32に表示できる。このとき管理システム10は、内視鏡画像の再生アプリケーションを実行し、数万枚におよぶ内視鏡画像を効率よく連続再生することが好ましい。再生アプリケーションは、レポート処理装置30からの再生指示、たとえば通常再生指示、早送り再生指示、早戻し再生指示などを受けて、再生速度を調整する機能をもつ。
 カプセル内視鏡検査では、消化管における出血点を探すことが一つの目的となる。そのため管理システム10は、内視鏡画像記録部20に内視鏡画像を記録すると、数万枚におよぶ内視鏡画像から、画像処理により出血状態を撮影したと思われる内視鏡画像を特定し、出血状態を含むと思われる内視鏡画像を予めマーキングしておく。たとえば管理システム10は、赤みの強い画像を、出血状態を撮影したと思われる内視鏡画像として予め特定しておく。これにより再生アプリケーションによる連続再生時に、読影者が、出血状態を含む可能性の高い内視鏡画像を容易に分かるようにする。
 レポート処理装置30は、管理システム10と協働して、読影者による読影レポート作成を支援する機能をもつ。レポート処理装置30には、キーボードやマウスなどのユーザインタフェースが接続されている。レポート処理装置30は、表示装置32に読影レポート入力画面を表示させ、読影者は表示画面を見ながら、ユーザインタフェースを操作して読影情報を入力する。
 読影レポートの作成にあたり、読影者は、まず撮影された数万枚の内視鏡画像から、病変所見を含む内視鏡画像を選択する。実施例では技師と医師の組合せで二重読影を実施し、技師および医師は、それぞれ読影を実施して読影レポートを作成する。なお一般に読影とは、画像を観察して診断を行うことであるが、実施例の二重読影における技師の役割は、異常所見を含む画像の選択行為と、所見情報の入力行為からなる画像診断の補助作業であり、診断行為を行うことではない。その意味において技師は、診断を行わない読影補助者であるが、以下では、技師も医師と同様に読影者とよぶ。
 実施例では、最初に技師が画像診断補助を行って読影レポートを作成し、その後、医師が読影レポートを作成する。実施例のレポート処理装置30は、異なるフォーマットの2種類のレポート入力画面を生成する機能をもつ。具体的にレポート処理装置30は、技師が読影結果を入力するための第1レポート入力画面と、医師が読影結果を入力するための第2レポート入力画面とを生成する機能をもつ。2種類のフォーマットの代表的な相違点として、第2レポート入力画面には、医師が診断結果を入力するための入力欄が設けられるが、第1レポート入力画面には、診断結果の入力欄は設けられない。
 技師と医師による二重読影を効率的に実施するために、第1レポート入力画面において技師が選択した内視鏡画像や、技師が入力した所見情報を、第2レポート入力画面において医師が確認できるようにする。レポート処理装置30は、技師が第1レポート入力画面に入力したデータを、医師が読影レポートを作成するための第2レポート入力画面の入力領域に反映させ、医師は、技師が選択した内視鏡画像や、入力した所見情報を参考にしながら、読影レポートを完成させる。以下、レポート処理装置30の詳細を説明する。
 図2は、レポート処理装置30の構成を示す。レポート処理装置30は、入力受付部40、取得部42、内視鏡画像選択画面生成部44、選択指示受付部46、選択画像表示画面生成部48、第1レポート入力画面生成部50、第2レポート入力画面生成部52、テキスト表示部54、マーク付加部56、連携処理部58、入力データ表示部60、ユーザ(データベース)DB62、登録処理部64および項目設定部66を備えて構成される。入力受付部40は、医師によるマウスやキーボードなどのユーザインタフェースの操作入力を受け付ける。
 これらの構成はハードウエア的には、任意のプロセッサ、メモリ、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。また上記したようにレポート処理装置30は端末装置であってよいが、端末装置およびサーバから構成されてもよく、したがって図2においてレポート処理装置30の構成として示す各機能は、端末装置以外の装置によって実現されてよい。
 以下、技師Bと医師Cによる二重読影を実施する例について説明する。
 技師Bは、レポート処理装置30にユーザIDを入力してログインする。ユーザDB62は、ユーザIDとユーザ属性情報を関連づけて保持し、ユーザ属性情報は、技師であるか、医師であるかを示す情報を含む。入力受付部40は、入力されたユーザIDを受け付けると、ユーザDB62を参照して当該ユーザが、技師であることを特定する。ログインユーザが技師である場合、レポート入力画面は第1レポート入力画面生成部50により生成される。なおログインユーザが医師である場合、レポート入力画面は第2レポート入力画面生成部52により生成されることになる。
 技師Bがログインすると、管理装置12が検査情報記憶部14に記憶された検査情報をレポート処理装置30に提供し、表示装置32には、カプセル内視鏡検査の一覧が表示される。この検査一覧には、患者ID、患者名、検査ID、検査日時などの検査情報がリスト表示され、技師Bは、読影レポート作成の対象となる検査を選択する。検査一覧から患者A、検査IDが「0001」の検査が選択されると、入力受付部40が検査の選択入力を受け付けて検査IDを特定し、内視鏡画像選択画面生成部44が、内視鏡画像を選択するための選択画面を生成して、表示装置32に表示させる。
 図3は、内視鏡画像の選択画面の例を示す。取得部42は、管理システム10の再生アプリケーションから、内視鏡画像記録部20に記録された内視鏡画像の連続再生画像を取得し、内視鏡画像選択画面生成部44が、再生領域100に連続再生画像を出力する。管理システム10において、内視鏡画像は効率的に連続再生できるような処理が施されており、たとえば似た画像(変化の少ない画像)は予め高速再生するように処理されている。再生領域100における画像の連続再生中に、ユーザが選択ボタン104を操作すると、再生領域100に表示されている内視鏡画像がキャプチャされて、選択画像表示領域102に表示される。
 技師Bは、病変所見を含む画像が再生領域100に表示されると、選択ボタン104を操作して、表示画像を選択する。選択指示受付部46が、選択ボタン104の操作を画像の選択指示として受け付け、管理システム10に送信すると、管理システム10は、選択指示を受け付けた時点の表示画像を選択画像として抽出する。管理システム10は、抽出した選択画像をレポート処理装置30に送信し、選択画像は、選択画像表示領域102に表示される。選択画像表示領域102に表示される画像は、後に読影レポートに添付する画像の選択肢となる。
 技師Bは、病変所見のなかでも、出血状態を撮影した画像は必ず選択しなければならない。管理システム10において、出血状態を撮影したと思われる内視鏡画像が画像処理により事前に特定されている場合には、出血状態を撮影したと思われる画像が再生領域100に表示される際に、その旨を示す情報が再生領域100または再生領域100近傍に表示されてもよい。これにより技師Bは、出血状態を含む可能性の高い画像の表示中であることを認識できる。出血状態を撮影したと思われる内視鏡画像を管理システム10が事前に画像処理により特定しておくことで、読影者の見落としリスクを低減できる。
 図3では、選択画像表示領域102において、選択画像102a~102iが選択されている様子が示される。ユーザは、選択画像表示領域102の選択画像を選択してキャンセルボタン106を操作すると、選択を解除できる。たとえば同一所見に関して複数の画像を選択した場合には、良好に撮影されている画像のみを残すようにキャンセルボタン106を利用してよい。なお再生操作ボタン108は、再生領域100における再生操作を制御するためのボタンであり、再生速度の調整を可能とする。
 内視鏡画像の選択画面において、時間軸110は、再生領域100で再生されている内視鏡画像の時間位置を示すためのユーザインタフェースであり、また内視鏡画像を表示するためのユーザインタフェースでもある。技師Bが、時間軸110の任意の箇所にマウスポインタをあてると、その時間に撮影された内視鏡画像が再生領域100に表示される。なお技師Bは、時間軸110上に、部位の開始位置を示すためのマークを付加できる。ここでマーク112aは、胃の開始を示すマークであり、マーク112bは、十二指腸の開始を示すマークであり、マーク112cは、空腸の開始を示すマークであり、マーク112dは、大腸の開始を示すマークである。技師Bは、再生領域100で連続再生される内視鏡画像をみながら、新たな部位が再生されるとマーキングボタン112を操作して、各部位の開始位置を時間軸上にマーキングする。このように技師Bは、各部位の開始位置をマーキングしながら、病変所見が撮影された内視鏡画像を選択して、画像観察を実施する。マーキングをしておくことで、後に内視鏡画像を見直す際に、どこから見ればよいか容易に把握できるようになる。
 技師Bは、画像観察作業を終了すると、登録ボタン114を操作する。登録ボタン114が操作されると、選択画像表示領域102に選択された選択画像が、管理システム10における第1読影情報記憶部16と内視鏡画像記録部20とに記憶され、マーキングボタン112の操作によりマーキングされた各部位の開始位置を示す時間情報が、内視鏡画像記録部20に記憶される。技師Bは、画像観察作業を終了すると、続いて読影レポートの作成を行う。技師Bは、レポート処理装置30で、読影レポートの作成アプリケーションを起動する。
 図4は、レポート作成アプリケーションによる選択画像表示画面の一例を示す。レポート作成アプリケーションが起動されると、取得部42が、検査IDに紐付けられている選択画像のサムネイルを第1読影情報記憶部16から取得する。第1読影情報記憶部16に記憶されている選択画像は、図3に示す内視鏡画像選択画面で選択された画像である。
 選択画像表示画面生成部48は、サムネイル表示領域120に、選択された内視鏡画像のサムネイル一覧を表示させる。なお第1読影情報記憶部16がサムネイルを有していなければ、取得部42が選択画像を取得して、選択画像表示画面生成部48が、選択画像を縮小したサムネイルを生成して、サムネイル表示領域120に表示してもよい。選択画像表示画面は、選択画像タブ122が選択された状態で表示装置32に表示される。
 各サムネイルにはチェックボックス126が設けられ、技師Bが、マウスポインタをチェックボックス126に配置して左クリックすると、当該サムネイルが読影レポートの添付画像として選択される。なお技師Bは、マウスポインタをサムネイル上に配置して右クリックして表示したメニューから、当該サムネイルを拡大表示させることができ、技師Bは拡大表示された内視鏡画像を観て、レポートに添付するべきか判断してよい。図4では、選択画像102b、102d、102h、102iが、レポート添付画像として選択された様子を示している。
 技師Bが選択画像表示画面において添付画像を選択した後、レポートタブ124を選択すると、第1レポート入力画面生成部50が、第1レポート入力画面を表示装置32に表示させる。
 図5は、第1レポート入力画面の例を示す。第1レポート入力画面生成部50は、第1読影者である技師が読影結果を入力するための第1レポート入力画面を生成し、表示装置32に表示させる。第1レポート入力画面は2つの領域を有し、左側に添付画像のサムネイルを表示する添付画像表示領域130が、右側に読影者が読影結果を入力するための読影結果入力領域132が配置される。
 第1レポート入力画面生成部50は、添付画像表示領域130に、図4に示すサムネイル表示領域120で選択された画像を配置する。ここでは、レポート添付画像として選択された選択画像102b、102d、102h、102iが添付画像表示領域130に表示されている。
 読影結果入力領域132は、技師がキーボードを用いて読影結果を書き込むための領域である。読影結果入力領域132は、技師が所見情報を入力するための所見入力領域134と、技師が医師に対するコメントを入力するためのコメント入力領域136を含む。
 技師Bは、所見入力領域134に、所見情報を入力する。また技師Bは、添付画像表示領域130に表示されている選択画像に、所定の情報を付加してもよい。ここでは選択画像102bに、注目マーク138が付加されている様子が示される。技師Bが選択画像上で所定のマウス操作を行うと、マーク付加部56が、選択画像に、出血点を示す注目マーク138を付加する。これに関連して、技師Bは、所見入力領域134に、選択画像102bで出血が認められることを、所見内容として記述する。
 図6は、第1レポート入力画面の入力例を示す。技師Bは、所見入力領域134に、所見情報を入力する。ここでは「十二指腸下行部に出血を認める。」との所見情報を、キーボードを用いて入力している。入力受付部40が、キーボードから入力された文字を受け付け、テキスト表示部54が所見入力領域134に表示する。また技師Bは、コメント入力領域136に、医師Cに対するコメントを入力する。技師Bは、コメント入力領域136に、入力した所見に関する疑問や、自信の有無などをフリーフォーマットで記述してよい。コメント入力領域136における記述内容は、後に医師Cによって確認されて、医師Cは、技師Bがどのように所見情報を判断したか知ることができる。
 技師Bが読影結果を入力後、登録ボタン140を操作すると、登録処理部64は、技師Bが第1レポート入力画面に入力したデータを、第1読影情報記憶部16に登録する。登録される入力データは、所見入力領域134およびコメント入力領域136における入力データと、添付画像表示領域130において添付画像として選択されている画像、および画像に付加した注目マーク138に関する情報を含む。これにより第1読影情報記憶部16は、技師Bにより第1レポート入力画面において入力された入力データを記憶する。
 実施例では、技師Bにより第1レポート入力画面において入力された入力データを、医師Cが読影結果を入力する第2レポート入力画面の入力領域に反映させる処理を実施するが、この反映処理を説明する前に、第2レポート入力画面の構成について説明する。
 図7は、第2レポート入力画面の例を示す。第2レポート入力画面生成部52は、第2読影者である医師が読影結果を入力するための第2レポート入力画面を生成し、表示装置32に表示させる。第2レポート入力画面は2つの領域を有し、左側に添付画像のサムネイルを表示する添付画像表示領域130が、右側に読影者が読影結果を入力するための読影結果入力領域152が配置される。第2レポート入力画面生成部52は、添付画像表示領域130に、選択された画像を配置する。
 読影結果入力領域152は、医師がキーボードを用いて読影結果を書き込むための領域である。読影結果入力領域152は、医師が所見情報を入力するための所見入力領域154と、医師が診断情報を入力するための診断入力領域156と、医師が技師に対するコメントを入力するためのコメント入力領域158を含む。医師が読影結果を入力後、登録ボタン160を操作すると、登録処理部64は、医師が第2レポート入力画面に入力したデータを、第2読影情報記憶部18に登録する。
 以上が、第2レポート入力画面の一般説明である。
 実施例では、医師Cが、第2レポート入力画面上で、技師Bが入力した読影結果を確認できるようにする。そのためレポート処理装置30は、医師Cが第2レポート入力画面を開く際に、技師Bが入力したデータを、第2レポート入力画面上に展開するための処理を実施する。
 以下、医師Cによる読影について説明する。
 医師Cは、レポート処理装置30にユーザIDを入力してログインする。入力受付部40は、入力されたユーザIDを受け付けると、ユーザDB62を参照して当該ユーザが、医師であることを特定する。ログインユーザが医師である場合、レポート入力画面は第2レポート入力画面生成部52により生成される。
 医師Cがログインすると、管理装置12が検査情報記憶部14に記憶された検査情報をレポート処理装置30に提供し、表示装置32には、カプセル内視鏡検査の一覧が表示される。医師Cが検査一覧から、患者A、検査IDが「0001」の検査を選択すると、入力受付部40が検査の選択入力を受け付けて検査IDを特定し、内視鏡画像選択画面生成部44が、内視鏡画像を選択するための選択画面を生成して、表示装置32に表示させる。
 図8は、内視鏡画像の選択画面の例を示す。取得部42は、管理システム10の再生アプリケーションから、内視鏡画像記録部20に記録された内視鏡画像の連続再生画像を取得し、内視鏡画像選択画面生成部44が、再生領域100に連続再生画像を出力する。このとき連携処理部58は、技師Bの観察作業により内視鏡画像記録部20に記憶された選択画像と、各部位の開始位置を示す時間情報を取得し、内視鏡画像選択画面生成部44が、マーク112a~112dおよび選択画像102a~102iを表示する。医師Cは、技師Bがマーキングしたマーク112a~112dにより、各部位の開始位置を知ることができる。なお図8には、医師Cが選択した画像202a~202cが選択画像表示領域102に追加表示されている様子を示しており、選択画像102g~102iは非表示となっているが、下方のスクロールバーを動かすことで、選択画像102g~102iが選択画像表示領域102に表示される。
 医師Cは、再生領域100に表示される画像を観察し、病変所見を含む画像が再生領域100に表示されると、選択ボタン104を操作して、表示画像を選択する。医師Cが選択ボタン104を操作すると、選択指示受付部46が、選択ボタン104の操作を画像の選択指示として受け付け、管理システム10に送信し、管理システム10は、選択指示を受け付けた時点の表示画像を選択画像として抽出する。管理システム10は、抽出した選択画像をレポート処理装置30に送信し、選択画像は、選択画像表示領域102に表示される。この観察作業は、技師Bに関して説明した観察作業と同じである。
 医師Cは、技師Bが選択した選択画像102a~102iを参照できることで、技師Bがどのような意図で画像を選択したか推測できる。また医師Cは、技師Bの選択画像と同じ画像を選択する必要はない。なお技師Bが、病変所見を含む画像を選択していても、別の画像の方がクリアに撮影されていれば、医師Cは、当該別の画像を選択する。なお医師Cは、技師Bが選択した不明瞭な画像を、キャンセルボタン106を操作して選択解除してもよい。
 図8では、選択画像表示領域102において、技師Bが選択した選択画像102a~102fに加えて、医師Cが選択した選択画像202a~202cが表示されている。内視鏡画像選択画面生成部44は、技師Bが選択した選択画像と、医師Cが選択した選択画像とを区別できるように選択画像表示領域102に表示する。たとえば医師Cが選択した選択画像202a~202cは、太枠で囲って、技師Bが選択した選択画像102a~102fと異なる態様で表示してもよい。なお表示態様は、これに限るものではなく、たとえば各選択画像の下方に、選択した読影者名を表示してもよく、いずれにしても選択者が区別できる態様で表示されればよい。
 医師Cは、画像観察作業を終了すると、登録ボタン114を操作する。登録ボタン114が操作されると、選択画像表示領域102に選択された選択画像が、管理システム10における第2読影情報記憶部18と内視鏡画像記録部20とに記憶される。医師Cは、画像観察作業を終了すると、続いて読影レポートの作成を行う。医師Cは、レポート処理装置30で、読影レポートの作成アプリケーションを起動する。
 図9は、レポート作成アプリケーションによる選択画像表示画面の一例を示す。レポート作成アプリケーションが起動されると、取得部42が、検査IDに紐付けられている選択画像のサムネイルを第2読影情報記憶部18から取得する。第2読影情報記憶部18に記憶されている選択画像は、図8に示す内視鏡画像選択画面で医師Cにより選択された画像を含み、さらに技師Bにより選択された画像も含む。
 選択画像表示画面生成部48は、サムネイル表示領域120に、医師Cが選択した画像と、技師Bが選択した画像とを分けて表示する。ここで医師選択領域120aは、医師Cが選択した画像の表示領域であり、技師選択領域120bは、技師Bが選択した画像の表示領域である。医師Cは、図8に示す内視鏡画像選択画面で、レポートに添付する画像を選別し、添付しない画像の選択をキャンセルしておけば、図9に示す選択画像表示画面には、レポートに添付する画像のみが表示される。なお図示の例では、医師Cが、選択画像のキャンセルを行わず、技師Bが選択した画像102a~102iが参照可能となっている。
 医師Cは、マウスポインタをチェックボックス126に配置して左クリックすると、当該サムネイルが読影レポートの添付画像として選択される。ここで医師Cは、選択画像202a、202cを、レポート添付画像として選択する。なお技師Bにより選択画像102b、102d、102h、102iが、レポート添付画像として選択されているが、これらの選択画像のチェックボックス126に、技師Bがチェックしたことを示す情報とともに、チェックマークが入れられてよい。医師Cが選択画像表示画面において添付画像を選択した後、レポートタブ124を選択すると、第2レポート入力画面生成部52が、第2レポート入力画面を表示装置32に表示させる。
 図10は、第2レポート入力画面の例を示す。第2レポート入力画面生成部52は、第2読影者である医師が読影結果を入力するための第2レポート入力画面を生成し、表示装置32に表示させる。第2レポート入力画面生成部52は、添付画像表示領域130に、図9に示すサムネイル表示領域120で選択された画像を配置する。ここでは、レポート添付画像として選択された選択画像202a、202cが添付画像表示領域130に表示されている。
 このとき連携処理部58は、第1読影情報記憶部16に記憶された入力データを読み出して、第2レポート入力画面の入力領域に反映する処理を行う。なお連携処理部58は、同一検査に関して第1読影情報記憶部16に入力データが記憶されているか否かを判定し、記憶されている場合に、第2レポート入力画面にコピーボタン162を表示してもよい。コピーボタン162は、技師Bによる入力データを第2レポート入力画面の入力領域に反映させるための操作ボタンであり、医師Cがコピーボタン162を操作すると、連携処理部58が、反映処理を実行してもよい。
 ここで第1読影情報記憶部16には、技師Bによる入力データとして、所見入力領域134およびコメント入力領域136における入力データと、添付画像表示領域130において添付画像として選択された画像、および画像に付加した注目マーク138に関する情報を記憶しており、連携処理部58は、これらの入力データを読み出して、第2レポート入力画面の入力領域に反映させる。
 具体的に連携処理部58は、技師Bが添付画像として選択した選択画像102b、102d、102h、102iを第1読影情報記憶部16から読み出し、読み出した選択画像を、添付画像表示領域130に配置させる。また連携処理部58は、所見入力領域134における入力データを第1読影情報記憶部16から読み出し、所見入力領域154に表示させ、またコメント入力領域136における入力データを第1読影情報記憶部16から読み出し、コメント入力領域158に表示させる。また連携処理部58は、選択画像102bに付加した注目マーク138に関する情報を第1読影情報記憶部16から読み出し、選択画像102bに付加させる。この処理は、入力データ表示部60により実施される。入力データ表示部60は、連携処理部58により読み出された入力データを、連携処理部58により指示された入力領域に表示する処理を行う。これにより医師Cは、技師Bが作成した読影レポートの入力データを、第2レポート入力画面で見ることができるようになる。
 このとき連携処理部58は、第1読影情報記憶部16から読み出した入力データを、技師により入力されたことが分かるように、第2レポート入力画面の入力領域に表示させることが好ましい。たとえば連携処理部58は、技師Bによるテキストデータの文字色を、医師Cによるテキストデータの文字色とは異なる色に設定する。たとえば医師Cによるテキストデータの文字色が黒色である場合、技師Bによるテキストデータの文字色を赤色に設定してもよい。これにより医師Cは、自分が入力した文字か、技師Bが入力した文字かを区別できるようになる。なお医師Cが、技師Bが入力した文字であることを判別できればよく、連携処理部58は、文字色に限らず、文字サイズや文字フォントなどを異ならせてもよい。また読影者名を表示してもよい。
 また連携処理部58は、添付画像表示領域130において、技師Bにより選択された添付画像と、医師Cにより選択された添付画像とを、異なる態様で表示させる。図示の例では、医師Cにより選択された添付画像を太枠で囲っているが、各選択画像に、読影者名を付加してもよい。医師Cは、添付画像表示領域130において、不要な添付画像は削除できる。
 医師Cは、所見入力領域154に、所見情報を入力する。このとき所見入力領域154に入力されている技師Bによる所見情報が正確であれば、医師Cは、あらためて所見情報を入力する必要はない。このように技師Bによる所見情報を所見入力領域154に反映することで、医師Cは、二重読影を実施しつつ、入力の手間を省略できる。なお技師Bによる所見情報が不足していれば、医師Cは所見情報を追加入力し、技師Bによる所見情報が誤っていれば、医師Cは誤った所見情報を所見入力領域154から削除して、正しい所見情報を入力する。このようにして医師Cは、所見入力領域154における所見情報を確定させる。
 なお医師Cは、所見情報を入力する際に、コメント入力領域158に表示される技師Bからのコメントを参照する。医師Cは、技師Bのコメントを読んで、技師Bがどのように判断を迷ったかなどの情報を得られる。医師Cは、技師Bの読影レポートを確認したうえで、コメント入力領域158に、技師Bに対するコメントを入力する。医師Cは、技師Bの質問に対して回答したり、その他気付いた点などをコメントとして入力してよい。コメント入力領域158における医師Cの記述内容は、後に技師Bによって確認されて、技師Bの読影スキルの向上に役立つことになる。
 また医師Cは、診断入力領域156に、診断情報を入力する。上記したように、診断入力領域156は、医師が入力する第2レポート入力画面に設けられる一方で、技師が入力する第1レポート入力画面には設けられていない。
 図11は、第2レポート入力画面の入力例を示す。医師Cは、所見入力領域154において、技師Bの入力データをそのまま利用し、変更を加えていない。また添付画像表示領域130において、技師Bが選択した添付画像102b、102d、102h、102iも、最終的なレポート添付画像として利用している。医師Cは診断入力領域156に診断情報を入力し、コメント入力領域158に、技師Bに対するアドバイスを入力している。
 医師Cが読影結果を入力後、登録ボタン160を操作すると、登録処理部64は、医師Cが第2レポート入力画面に入力したデータを、第2読影情報記憶部18に登録する。入力データは、所見入力領域154、診断入力領域156およびコメント入力領域158における入力データと、添付画像表示領域130において添付画像として選択されている画像、および画像に付加した注目マーク138に関する情報を含む。これにより第2読影情報記憶部18は、医師Cにより第2レポート入力画面において入力された入力データを記憶する。以上により、医師Cによる読影が終了する。
 第2読影情報記憶部18は、第2レポート入力画面の入力領域に入力された入力データを記憶する。ここで図11に示すように、第2読影情報記憶部18に記憶される入力データには、技師Bにより第1レポート入力画面に入力されたデータ、すなわち連携処理部58が第1読影情報記憶部16に記憶された入力データを第2レポート入力画面の入力領域に反映した入力データも含まれる。このように実施例では、連携処理部58により技師Bの入力データが反映された第2レポート入力画面の入力領域のデータを、医師Cによる読影レポート情報として活用することで、医師Cのレポート作成負担を軽減できる。
 第2読影情報記憶部18に記憶された入力データは、読影レポートを印刷する際に利用されるが、コメント入力領域158における入力データは、印刷には利用されない。実施例において第1レポート入力画面のコメント入力領域136および第2レポート入力画面のコメント入力領域158は、あくまでも技師Bと医師Cの間の連絡手段として利用される。このようにコメント入力領域を設けることで、医師Cは、自身が読影レポートを作成するタイミングで、同時に技師Bを教育できる。
 医師Cによる読影終了後、技師Bが、レポート処理装置30にログインして、読影レポートの作成アプリケーションを起動する。
 図12は、第1レポート入力画面の例を示す。連携処理部58は、第2読影情報記憶部18に記憶された入力データを読み出して、第1レポート入力画面のコメント入力領域136に反映する。ここで連携処理部58は、コメント入力領域158の入力データ、つまり医師Cによるコメント136aを第2読影情報記憶部18から読み出して、コメント入力領域136に表示させる。これにより技師Bは、疑問点を解消して、次の画像観察に役立てることが可能となる。
 実施例では、補助者である技師Bと、医師Cとが、それぞれ独立して読影を実施するため、読影レポートもそれぞれ別個に生成される。そのため技師Bによる読影レポートの版数と、医師Cによる読影レポートの版数は別個に管理される。たとえば技師Bが作成した読影レポートを、医師Cが上書き更新する場合には、医師Cが作成する読影レポートの版数は上がってしまうが、実施例では、医師Cは、技師Bとは独立して読影レポートを作成するため、不必要に版数が上がらないというメリットもある。
 以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
 実施例では、技師Bによる全ての入力データを、医師Cが入力する第2レポート入力画面に反映することを説明した。変形例では、反映する入力データを、医師Cが選択できるようにしてもよい。
 図13は、反映項目の設定画面を示す。項目設定部66は、連携処理部58が第2レポート入力画面に反映する項目を設定する。項目設定部66は、図13に示す設定画面を表示装置32に表示させ、医師Cは、反映させる項目を決定できるようにする。設定された反映項目は、たとえば医師ごとにユーザDB62に登録されてよい。図13に示す例では、「選択画像」のチェックボックスにチェックが入れられており、したがって連携処理部58は、技師が選択した選択画像のみを第2レポート入力画面に反映させる。このように反映項目を設定できるようにすることで、柔軟な運用が可能となる。
 また実施例では、技師Bがコメント入力領域136に、入力した所見に関する疑問や、自信の有無などをフリーフォーマットで記述してよいことを説明したが、コメントに対して属性情報を付加できるようにしてもよい。たとえばコメントの種別として、「不明点」「質問」などの属性情報を付加できるようにしてもよい。これにより医師Cは、技師Bによるコメントの目的を把握し、適切に回答できるようになる。
 また実施例では、技師Bがコメント入力領域136に「確度は6割。・・・自信なし。」とするコメントを入力したが、たとえば添付画像に、自信の有無に関する情報を付加できるようにしてもよい。たとえば選択画像102bに関しては「自信あり」、選択画像102dに関しては「自信なし」とする情報を付加することで、医師Cは、技師Bが選択した添付画像に対して、コメント入力領域158にコメントを記述できるようになる。特に個々の画像の判断については難しいことも多いため、医師Cは、技師Bがどのように所見を作成したか知ることで、コメント入力領域158に詳細なコメントを残せるようになり、より優れた教育的効果を期待できる。
 また図3、図9において、技師Bが選択した画像と、医師Cが選択した画像の表示態様を異ならせることを説明したが、さらに詳細に、画像の表示態様を異ならせてもよい。たとえば技師のみが選択した画像、医師のみが選択した画像、技師が選択して医師が取り消した画像、技師が選択して医師が追認した画像を、それぞれ異なる態様で表示させてもよい。
1・・・読影レポート作成支援システム、10・・・管理システム、12・・・管理装置、14・・・検査情報記憶部、16・・・第1読影情報記憶部、18・・・第2読影情報記憶部、20・・・内視鏡画像記録部、30・・・レポート処理装置、32・・・表示装置、40・・・入力受付部、42・・・取得部、44・・・内視鏡画像選択画面生成部、46・・・選択指示受付部、48・・・選択画像表示画面生成部、50・・・第1レポート入力画面生成部、52・・・第2レポート入力画面生成部、54・・・テキスト表示部、56・・・マーク付加部、58・・・連携処理部、60・・・入力データ表示部、62・・・ユーザDB、64・・・登録処理部、66・・・項目設定部。
 本発明は、読影レポート作成に関する技術に利用できる。

Claims (7)

  1.  読影レポート作成業務を支援するシステムであって、
     第1読影者が読影結果を入力するための第1レポート入力画面を生成する第1画面生成部と、
     第1レポート入力画面において第1読影者により入力された入力データを記憶する第1記憶部と、
     第2読影者が読影結果を入力するための第2レポート入力画面を生成する第2画面生成部と、
     前記第1記憶部に記憶された入力データを読み出して、第2レポート入力画面の入力領域に反映する連携処理部と、を備え、
     前記第1画面生成部は、第1読影者が第2読影者に対するコメントを入力するための第1コメント入力領域を有する第1レポート入力画面を生成し、
     前記第1記憶部は、第1コメント入力領域に入力された入力データを記憶する、
     ことを特徴とする読影レポート作成支援システム。
  2.  前記連携処理部は、前記第1記憶部から読み出した入力データを、第1読影者により入力されたことが分かるように、第2レポート入力画面の入力領域に表示させる、
     ことを特徴とする請求項1に記載の読影レポート作成支援システム。
  3.  第2レポート入力画面において第2読影者により入力された入力データを記憶する第2記憶部と、をさらに備え、
     前記第2画面生成部は、第2読影者が第1読影者に対するコメントを入力するための第2コメント入力領域を有する第2レポート入力画面を生成し、
     前記第2記憶部は、第2コメント入力領域に入力された入力データを記憶し、
     前記連携処理部は、第2記憶部に記憶された入力データを読み出して、第1レポート入力画面の第1コメント入力領域に反映する、
     ことを特徴とする請求項1に記載の読影レポート作成支援システム。
  4.  前記第2記憶部は、第2レポート入力画面の入力領域に入力された入力データを記憶する、
     ことを特徴とする請求項3に記載の読影レポート作成支援システム。
  5.  前記第2記憶部は、前記連携処理部が前記第1記憶部に記憶された入力データを第2レポート入力画面の入力領域に反映した入力データを記憶する、
     ことを特徴とする請求項4に記載の読影レポート作成支援システム。
  6.  前記連携処理部が、第2レポート入力画面に反映する項目を設定する項目設定部を、さらに備える、
     ことを特徴とする請求項1に記載の読影レポート作成支援システム。
  7.  当該読影レポート作成支援システムは、カプセル内視鏡検査の読影レポートの作成業務を支援するシステムであることを特徴とする請求項1に記載の読影レポート作成支援システム。
PCT/JP2016/080327 2016-01-21 2016-10-13 読影レポート作成支援システム WO2017126168A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017562434A JP6401402B2 (ja) 2016-01-21 2016-10-13 読影レポート作成支援システム
US16/040,637 US20180350460A1 (en) 2016-01-21 2018-07-20 Image interpretation report creation support system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-009472 2016-01-21
JP2016009472 2016-01-21

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/040,637 Continuation US20180350460A1 (en) 2016-01-21 2018-07-20 Image interpretation report creation support system

Publications (1)

Publication Number Publication Date
WO2017126168A1 true WO2017126168A1 (ja) 2017-07-27

Family

ID=59362602

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/080327 WO2017126168A1 (ja) 2016-01-21 2016-10-13 読影レポート作成支援システム

Country Status (3)

Country Link
US (1) US20180350460A1 (ja)
JP (1) JP6401402B2 (ja)
WO (1) WO2017126168A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6821076B1 (ja) * 2020-04-28 2021-01-27 株式会社キャピタルメディカ 情報共有化システム及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7283230B2 (ja) * 2019-05-30 2023-05-30 コニカミノルタ株式会社 医用画像管理装置及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002253545A (ja) * 2001-02-28 2002-09-10 Nippon Telegr & Teleph Corp <Ntt> 医用画像読影記録装置と、医用画像読影支援装置と、医用画像読影支援システムと、医用画像読影記録処理用プログラム及びそのプログラムの記録媒体と、医用画像読影支援処理用プログラム及びそのプログラムの記録媒体
JP2004102863A (ja) * 2002-09-12 2004-04-02 Hirofumi Hirano 医用データ管理システム
JP2006309550A (ja) * 2005-04-28 2006-11-09 Hitachi Medical Corp 二重読影支援システム
JP2009011721A (ja) * 2007-07-09 2009-01-22 Konica Minolta Medical & Graphic Inc 医用画像管理装置及びプログラム
WO2011102309A1 (ja) * 2010-02-16 2011-08-25 コニカミノルタエムジー株式会社 医療連携システム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005148990A (ja) * 2003-11-13 2005-06-09 Konica Minolta Medical & Graphic Inc 医用画像読影システム及び読影レポート作成方法
US8145503B2 (en) * 2005-02-25 2012-03-27 Virtual Radiologic Corporation Medical image metadata processing
AU2008331807A1 (en) * 2007-12-03 2009-06-11 Dataphysics Research, Inc. Systems and methods for efficient imaging
JP5654241B2 (ja) * 2010-01-08 2015-01-14 株式会社東芝 レポート作成装置、及び医用画像処理装置
JP2012198732A (ja) * 2011-03-22 2012-10-18 Konica Minolta Medical & Graphic Inc 読影レポート作成システム及び読影レポート表示方法
CN102302356B (zh) * 2011-05-16 2014-04-30 深圳市资福技术有限公司 胶囊内镜诊疗系统的控制方法
US20130151286A1 (en) * 2011-09-13 2013-06-13 Knight Radiology Llc Teleradiology System
US20140094699A1 (en) * 2012-04-18 2014-04-03 Jefferson Radiology, P.C. Process for producing a radiology report
JP6031949B2 (ja) * 2012-10-31 2016-11-24 富士通株式会社 表示制御装置、表示制御方法、および表示制御プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002253545A (ja) * 2001-02-28 2002-09-10 Nippon Telegr & Teleph Corp <Ntt> 医用画像読影記録装置と、医用画像読影支援装置と、医用画像読影支援システムと、医用画像読影記録処理用プログラム及びそのプログラムの記録媒体と、医用画像読影支援処理用プログラム及びそのプログラムの記録媒体
JP2004102863A (ja) * 2002-09-12 2004-04-02 Hirofumi Hirano 医用データ管理システム
JP2006309550A (ja) * 2005-04-28 2006-11-09 Hitachi Medical Corp 二重読影支援システム
JP2009011721A (ja) * 2007-07-09 2009-01-22 Konica Minolta Medical & Graphic Inc 医用画像管理装置及びプログラム
WO2011102309A1 (ja) * 2010-02-16 2011-08-25 コニカミノルタエムジー株式会社 医療連携システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6821076B1 (ja) * 2020-04-28 2021-01-27 株式会社キャピタルメディカ 情報共有化システム及びプログラム
JP2021174332A (ja) * 2020-04-28 2021-11-01 株式会社キャピタルメディカ 情報共有化システム及びプログラム

Also Published As

Publication number Publication date
JPWO2017126168A1 (ja) 2018-07-12
JP6401402B2 (ja) 2018-10-10
US20180350460A1 (en) 2018-12-06

Similar Documents

Publication Publication Date Title
CN101669807B (zh) 图像显示装置、图像显示方法和图像显示程序
CN100562284C (zh) 图像显示装置、图像显示方法
JP2005301453A (ja) 医用レポート作成装置、医用レポート参照装置、医用レポート作成方法及びそのプログラム
JP5784859B2 (ja) 画像管理装置
JP2001076078A (ja) 医療情報閲覧システム、医療情報閲覧方法、および医療情報保管方法
JP2008295490A (ja) カプセル内視鏡画像表示装置
JP4009583B2 (ja) 医療用画像記録システム
JP6401402B2 (ja) 読影レポート作成支援システム
JP4109084B2 (ja) 医療情報システム及び医療情報管理方法
JP2008245737A (ja) 医用情報処理装置
JP5228845B2 (ja) 画像表示装置
JP2010124943A (ja) 医用画像管理装置
JP2006110202A (ja) 医用画像診断システムおよび医用画像診断方法
JP5228848B2 (ja) 画像表示装置
JP2010125120A (ja) 画像表示装置及び画像表示方法
JP4683781B2 (ja) 医用画像表示装置及び方法
JP2010282355A (ja) 医療検査情報管理システム
JP2008245742A (ja) 医用情報処理装置
JP5659792B2 (ja) 画像作成装置、画像表示装置、画像作成方法、及び画像表示方法
WO2009107644A1 (ja) 医用画像管理装置、印刷画面表示方法及びプログラム
JP2003008806A (ja) 診断支援システム
US20150145779A1 (en) Image Display Apparatus And Image Display Method
JP5120231B2 (ja) 画像表示装置
JP2001046343A (ja) 医用検査レポート作成装置
JP6895712B2 (ja) 医用画像処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16886408

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017562434

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16886408

Country of ref document: EP

Kind code of ref document: A1