WO2011013475A1 - 画像表示装置、読影支援システムおよび読影支援プログラム - Google Patents

画像表示装置、読影支援システムおよび読影支援プログラム Download PDF

Info

Publication number
WO2011013475A1
WO2011013475A1 PCT/JP2010/061186 JP2010061186W WO2011013475A1 WO 2011013475 A1 WO2011013475 A1 WO 2011013475A1 JP 2010061186 W JP2010061186 W JP 2010061186W WO 2011013475 A1 WO2011013475 A1 WO 2011013475A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
interpretation
unit
interpretation work
request
Prior art date
Application number
PCT/JP2010/061186
Other languages
English (en)
French (fr)
Inventor
勝義 谷口
Original Assignee
オリンパスメディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパスメディカルシステムズ株式会社 filed Critical オリンパスメディカルシステムズ株式会社
Priority to JP2011504080A priority Critical patent/JP4724259B2/ja
Priority to CN201080003678.5A priority patent/CN102256533B/zh
Priority to EP10804222A priority patent/EP2347695A4/en
Priority to US12/984,742 priority patent/US8335423B2/en
Publication of WO2011013475A1 publication Critical patent/WO2011013475A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/041Capsule endoscopes for imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • A61B1/0004Operational features of endoscopes provided with input arrangements for the user for electronic operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation

Definitions

  • the present invention relates to an image display device, an image interpretation support system, and an image interpretation support program, and in particular, an image display device that reproduces an image interpretation performed by an observer on a group of images acquired by a capsule endoscope introduced into a subject.
  • the present invention relates to an interpretation support system and an interpretation support program.
  • interpretation software Software to assist this interpretation work (hereinafter referred to as interpretation software) includes playback functions such as playback speed adjustment, pause and frame advance, automatic extraction function that automatically extracts images with many red components, etc.
  • playback functions such as playback speed adjustment, pause and frame advance, automatic extraction function that automatically extracts images with many red components, etc.
  • Various interpretation support functions are provided.
  • An object is to provide an image display device, an interpretation support system, and an interpretation support program.
  • an image display device inputs an image reproducing unit that reproduces a series of images in time series, and an operation for interpreting an image being reproduced in the image reproducing unit.
  • the interpretation operation recording unit Recorded in the interpretation operation recording unit, the interpretation operation recording unit that records the operation content input from the operation unit with respect to the image being reproduced in the image reproduction unit, in order.
  • An interpretation work image generation unit that generates a series of images according to the order using operation content; and an interpretation work image display unit that displays the image generated by the interpretation work image generation unit.
  • the interpretation support system includes the above-described image display apparatus according to the present invention and a request destination information processing apparatus that receives the interpretation request from the image display apparatus.
  • An interpretation support program is an interpretation support program for causing an information processing apparatus that supports interpretation of a series of image groups in time series to function, and an image reproduction process for reproducing the series of image groups; Interpretation monitoring processing for monitoring an operation input for interpretation of the image being reproduced, and interpretation operation for recording the operation content acquired by the interpretation monitoring processing for the image being reproduced while maintaining the order.
  • the information processing apparatus is caused to execute an image interpretation work image display process to be displayed.
  • the present invention since it is possible to display and display the operation contents at the time of interpretation for a series of images, the time and labor required for interpretation from the interpretation process previously performed by the user himself or another interpreter. It is possible to realize an image display device, an interpretation support system, and an interpretation support program that can improve the accuracy of the interpretation result while shortening the image quality.
  • FIG. 1 is a schematic diagram showing a schematic configuration of a capsule endoscope system including an image display device according to Embodiment 1 of the present invention.
  • FIG. 2 is an external view showing a schematic configuration of the capsule endoscope according to the first embodiment of the present invention.
  • FIG. 3 is a block diagram showing a schematic internal configuration of the capsule endoscope and the receiving device according to Embodiment 1 of the present invention.
  • FIG. 4 is a block diagram showing a schematic configuration of an information processing apparatus corresponding to the image display apparatus according to Embodiment 1 of the present invention.
  • FIG. 5 is a screen diagram showing an example of an image interpretation screen according to Embodiment 1 of the present invention.
  • FIG. 1 is a schematic diagram showing a schematic configuration of a capsule endoscope system including an image display device according to Embodiment 1 of the present invention.
  • FIG. 2 is an external view showing a schematic configuration of the capsule endoscope according to the first embodiment of the present invention.
  • FIG. 3 is a block
  • FIG. 6A is a diagram showing an example of an interpretation process bar generated based on interpretation work data indicating whether or not each intra-subject image has been interpreted in the past according to Embodiment 1 of the present invention.
  • FIG. 6B is a diagram showing an example of an interpretation process bar generated based on the display time in the past interpretation of each in-subject image according to Embodiment 1 of the present invention.
  • FIG. 6C is a diagram illustrating an example of an interpretation process bar generated based on interpretation work data indicating whether or not each in-subject image has been captured in the past interpretation according to Embodiment 1 of the present invention.
  • FIG. 6D is a diagram illustrating an example of an interpretation process bar generated based on the type of interpretation support function used in the past interpretation of each in-subject image according to the first embodiment of the present invention.
  • FIG. 7 is a flowchart showing a part of the flow of the interpretation process confirmation method according to the first embodiment of the present invention.
  • FIG. 8 is a flowchart showing another part of the flow of the interpretation process confirmation method according to the first embodiment of the present invention.
  • FIG. 9 is a flowchart showing still another part of the flow of the interpretation process confirmation method according to the first embodiment of the present invention.
  • FIG. 10 is a flowchart showing still another part of the flow of the interpretation process confirmation method according to Embodiment 1 of the present invention.
  • FIG. 11 is a diagram showing an example of an interpretation screen on the image display device according to the modified example 1-1 of the first embodiment of the present invention.
  • FIG. 12 is a diagram showing an example of an image interpretation screen in the image display device according to the modified example 1-2 of the first embodiment of the present invention.
  • FIG. 13 is a part of a flowchart showing the flow of the interpretation process confirmation method in the image display device according to the modified example 1-3 of the first embodiment of the present invention.
  • FIG. 14 is a block diagram showing a schematic configuration of an information processing apparatus corresponding to the image display apparatus according to the second embodiment of the present invention.
  • FIG. 15 is a diagram showing an example of an image interpretation screen according to the second embodiment of the present invention.
  • FIG. 16 is a schematic diagram showing a schematic configuration of an interpretation support system according to Embodiment 3 of the present invention.
  • FIG. 17 is a diagram showing a schematic configuration of a request source information processing apparatus corresponding to the image display apparatus according to Embodiment 3 of the present invention.
  • FIG. 18 is a diagram showing an example of an interpretation screen according to the third embodiment of the present invention.
  • FIG. 19 is a flowchart showing the flow of an interpretation request operation according to Embodiment 3 of the present invention.
  • FIG. 20 is a diagram showing an example of an image interpretation screen in the image display device according to the modified example 3-1 of the third embodiment of the present invention.
  • FIG. 21 is a diagram showing an example of an image interpretation screen in the image display device according to the modified example 3-2 of the third embodiment of the present invention.
  • FIG. 22 is a diagram for explaining the interpretation request range in the image display device according to the modified example 3-4 of the third embodiment of the present invention.
  • FIG. 23 is a diagram showing an example of an image interpretation screen in the image display device according to the fourth embodiment of the present invention.
  • FIG. 24 is a diagram showing an example of an image interpretation request screen in the image display device according to the fourth embodiment of the present invention.
  • each drawing merely schematically shows the shape, size, and positional relationship to the extent that the contents of the present invention can be understood. Therefore, the present invention is illustrated in each drawing. It is not limited to only the shape, size, and positional relationship.
  • the intra-subject introduction device is introduced into the subject orally, and the inside of the subject is imaged while moving from the esophagus to the anus of the subject to obtain an in-subject image.
  • a capsule endoscope An example in which a capsule endoscope is used will be described.
  • the present invention is not limited to this.
  • various subjects such as a capsule endoscope that captures an image of the inside of the subject and obtains an in-subject image while being accumulated in various organs such as the stomach and intestine of the subject.
  • An in-sample introduction device can be used.
  • FIG. 1 is a schematic diagram illustrating a schematic configuration of a capsule endoscope system 1 including an image display device according to the first embodiment.
  • the capsule endoscope system 1 can receive a capsule endoscope 10 that is large enough to be swallowed by a subject 900 and an image signal transmitted as a wireless signal from the capsule endoscope 10.
  • Data receiving device 30, a receiving device 30, a wired or wireless communication interface 41 such as a USB (Universal Serial Bus) interface or Bluetooth, a portable recording medium 42 such as a flash memory (registered trademark), or the like.
  • an information processing apparatus 100 capable of inputting and outputting.
  • the receiving device 30 and the information processing device 100 are external devices of the capsule endoscope system 1, and the information processing device 100 corresponds to the image display device according to the first embodiment.
  • the receiving device 30 is connected to extracorporeal antennas 21a to 21i (hereinafter, the symbol of an arbitrary extracorporeal antenna is 21) via a connection cable 22 or a balun (not shown).
  • a radio signal transmitted from the capsule endoscope 10 is input to the receiving device 30 via the extracorporeal antenna 21.
  • the capsule endoscope 10 acquires the in-subject image periodically, for example, and sequentially transmits the acquired in-subject image to the receiving device 30.
  • the receiving device 30 stores the in-vivo image received from the capsule endoscope 10 in the portable recording medium 42 or transmits it to the information processing device 100 via the communication interface 41 as needed.
  • the in-vivo image stored in the portable recording medium 42 is later input from the portable recording medium 42 to the information processing apparatus 100.
  • the information processing apparatus 100 is configured by an information processing apparatus such as a workstation or a personal computer provided with display means such as a monitor, for example, and uses interpretation software described later for a part or all of the input in-vivo image. To display to the reader.
  • the radiogram interpreter diagnoses the medical condition of the subject 900 by interpreting the in-subject image displayed on the information processing apparatus 100 using a video interpretation software.
  • FIG. 2 is an external view showing a schematic configuration of the capsule endoscope 10 according to the first embodiment.
  • the capsule endoscope 10 has a substantially cylindrical or semi-elliptical spherical container 10b in which one end has a hemispherical dome shape and the other end is opened, and an opening of the container 10b.
  • a hemispherical optical dome 10a that seals the inside of the container 10b in a water-tight manner.
  • the container 10b mainly forms the body part and one end of the capsule container (10a, 10b), and the optical dome 10a forms the other end of the capsule container (10a, 10b).
  • the capsule containers (10a, 10b) are large enough to be swallowed by the subject 900, for example.
  • at least the optical dome 10a is formed of a transparent material.
  • the capsule endoscope 10 includes an imaging unit 12 as a means for imaging the inside of the subject 900, and an illumination unit 13 as a means for illuminating the inside of the subject 900 during imaging.
  • the imaging unit 12 includes, for example, an imaging device 12-1 such as a CCD camera or a CMOS camera that generates image data of an in-subject image from an optical image formed on the light receiving surface, and a light receiving surface side of the imaging device 12-1.
  • an optical system 12-2 including an objective lens and the like disposed on the optical system 12-2.
  • the image sensor 12-1 and the optical system 12-2 are mounted on a circuit board 12-3 provided with a drive circuit and the like for driving them.
  • an illuminating unit 13 composed of an LED (Light Emitting Diode) or the like that emits light into the subject 900 at the time of imaging, and a drive circuit thereof.
  • the drive circuit of the illuminating unit 13 operates under the control of the signal processing unit 11 to be described later, thereby generating, for example, an image signal of the in-subject image periodically (for example, 2 frames per second). It inputs into the signal processing part 11 mentioned later.
  • the imaging unit 12 and the illumination unit 13 include respective drive circuits.
  • the circuit board 12-3 on which the imaging unit 12 and the illumination unit 13 are mounted has the light receiving surface of the imaging device 12-1 and the light emission direction of the illumination unit 13 facing the subject 900 through the optical dome 10a. It arrange
  • the capsule endoscope 10 provided with a set of the imaging unit 12 and the illumination unit 13 is taken as an example.
  • the present invention is not limited to this, and for example, a plurality of sets of imaging units and It is also possible to apply a so-called compound-eye capsule endoscope provided with an illumination unit.
  • a binocular capsule endoscope has a hollow cylindrical shape in which a container of a body portion that accommodates each part of the capsule endoscope has openings at both ends, and a transparent optical dome is fitted in each opening. In each opening, the imaging unit and the illumination unit are provided so as to face the outside of the capsule endoscope through the optical dome.
  • FIG. 3 is a block diagram showing a schematic internal configuration of the capsule endoscope 10 and the receiving device 30 according to the first embodiment.
  • the capsule endoscope 10 includes an imaging unit 12 that captures an image of the inside of the subject 900 to acquire an in-subject image, an illumination unit 13 that illuminates the inside of the subject 900 during imaging, While controlling each part in the endoscope 10, the signal processing part 11 which performs predetermined
  • the battery 16 includes a power supply circuit that boosts the power supplied from a primary battery such as a button battery or a secondary battery.
  • the reception device 30 controls the reception unit 32 that receives the in-vivo image wirelessly transmitted from the capsule endoscope 10 via the extracorporeal antenna 21 and each unit in the reception device 30.
  • a signal processing unit 31 that executes predetermined image processing on the image data of the in-vivo image received by the receiving unit 32, and various operations executed by the signal processing unit 31 and predetermined image processing in the signal processing unit 31 are performed.
  • a memory 33 that temporarily stores image data of the in-subject image that has been made, and a subject image that has been subjected to predetermined image processing in the signal processing unit 31 is input to the information processing apparatus 100 via the communication interface 41 or portable recording
  • FIG. 4 is a block diagram showing a schematic configuration of the information processing apparatus 100 corresponding to the image display apparatus according to the first embodiment.
  • the information processing apparatus 100 includes an interface unit 103 that inputs image data of an in-vivo image via the communication interface 41 or the portable recording medium 42, and the image data input from the interface unit 103.
  • a control unit 101 that provides an interpretation environment to the user and controls each unit in the information processing apparatus 100, stores various programs and setting information executed by the control unit 101, and receives image data and control unit input from the interface unit 103 101 displays a memory unit 102 for storing various information generated in 101, an operation unit 104 for the user to input interpretation and other operations, and an interpretation screen and other screens for allowing the user to interpret the in-vivo image.
  • a display unit 105 a display unit 105.
  • the information processing apparatus 100 may include an external recording device 180 or an internal storage device for storing the input in-subject image.
  • an external recording device 180 or an internal storage device for storing the input in-subject image.
  • various recording media such as a USB memory, HDD (hard disk drive), MO (magneto-optical disk), CD-R, and DVD-R can be used.
  • control unit 101 and the display unit 105 function as an image reproduction unit that reproduces a group of in-subject images along a time series, and the operation unit 104 reads an image being reproduced in the image reproduction unit.
  • the operation monitoring unit 114, the display time measuring unit 115, and the memory unit 102 of the control unit 101 interpret the image that is being reproduced from the operation unit 104 in the image reproduction unit. It functions as an interpretation work recording unit that records work data with order, and the interpretation process bar generation unit 116 of the control unit 101 follows the order using the interpretation work data recorded in the interpretation work recording unit.
  • the control unit 101 and the display unit 105 function as an interpretation work image generation unit that generates an interpretation process bar D17 that is a series of work images. Functions as interpretation work image display unit for displaying an image the image generating unit has generated.
  • control unit 101 reads out the interpretation program 110 stored in the memory unit 102, for example, and executes it. As a result, the control unit 101 provides an operation function for operating the reproduction of the in-subject image as a function to be provided to the user in order to interpret the group of in-subject images input via the interface unit 103.
  • the control unit 101 that has executed the image interpretation program 110 includes an operation monitoring unit 114 that monitors various operations input by the user from the operation unit 104, and a total display time of the in-subject image displayed on the display unit 105.
  • An interpretation process bar generation unit 116 to be generated is realized.
  • a group of in-subject images (hereinafter also referred to as an in-subject image group) refers to a plurality of subjects acquired by the capsule endoscope 10 in time series in one observation of the subject 900.
  • a set of inner images refers to a plurality of subjects acquired by the capsule endoscope 10 in time series in one observation of the subject 900.
  • the operation function group 111 includes a playback function 111a, a pause function 111b, a fast forward / frame advance function 111c, and the like.
  • the reproduction function 111a is a function for reproducing a group of in-subject images continuously on the display unit 105 (pseudo moving image reproduction).
  • the pause function 111b is a function for continuously displaying the in-subject image being displayed at the time of stopping after stopping the continuous reproduction.
  • the fast forward / frame advance function 111c is a function for increasing or decreasing the reproduction speed of a group of in-subject images.
  • the support function group 112 includes, for example, an average color bar display function 112a and an overview function 112b.
  • the average color bar display function 112a extracts color information of a group of in-subject images along a time series, generates a band-like image (average color bar) along the time axis from the extracted color information, and generates This is a function for displaying an average color bar on the display unit 105 as a GUI (Graphical User Interface) functional component.
  • the overview function 112b is a function of displaying a list on the display unit 105 by reducing or thinning out all or part of a group of in-subject images.
  • the support function group 112 may include an express view function, an automatic speed adjustment function, a normal display function, and the like.
  • FIG. 5 is a screen diagram showing an example of an interpretation screen according to the first embodiment.
  • the interpretation screen D1 includes patient information D11 for identifying a subject 900 as a patient, diagnosis information D12 for identifying a diagnosis performed on the subject 900, and a group of subjects.
  • a main display area D13 in which the in-sample image is reproduced an interpretation information display section D14 for displaying information about past or current interpretation of the in-subject image being displayed in the main display area D13, and a main display area D13.
  • a reproduction operation button group D15 for the user to control reproduction of the in-subject image, an average color bar D16 generated from the group of in-subject images, and a group of in-subject images, which has been performed now or in the past
  • An interpretation process bar D17 for displaying an interpretation process (process)
  • a capture button D20 for inputting an instruction for capturing an in-subject image displayed on the main display area D13 by the user, and a key Comprising capture has been intra-subject image or the thumbnail image, the captured image display region D21 for displaying a list of reduced images or decimated image, and.
  • the interpretation information display section D14 includes, for example, an already-interpreted interpretation display mark D14a and a support function usage state display mark D14b.
  • the already-interpreted image display mark D14a displays whether or not the image in the subject being displayed in the main display area D13 has been interpreted once or more in the past. Therefore, the user can confirm whether the interpretation of the in-subject image displayed in the main display area D13 has been performed in the past by looking at the already-read interpretation display mark D14a.
  • the already-read image display mark D14a and the support function use state display mark D14b may represent each information in a color or a pattern, or may be displayed in the form of characters or a pointer P1.
  • the support function use state display mark D14b displays the use state of the interpretation support function in the past interpretation of the in-subject image that is also displayed in the main display area D13. Therefore, for example, by changing the color of the support function use state display mark D14b depending on the interpretation support function used at the time of interpretation, the user can visually confirm the interpretation support function used when the in-vivo image is interpreted. It becomes possible to make it.
  • the reproduction operation button group D15 is used to reproduce the in-subject image in the main display area D13 when the user inputs an instruction to the operation function group 111 realized by the control unit 101 executing the interpretation program 110.
  • a set of buttons for controlling The playback operation button group D15 includes, for example, a cue button D15a, a frame advance button D15b, a pause button D15c, a fast forward button D15d, a playback button D15e, a rewind button D15f, and a stop button D15g. Is included.
  • the cue button D15a is a button for the user to input an instruction to return the in-subject image to be reproduced in the main display area D13 to the first image in the group of in-subject images. Therefore, for example, when the user operates the pointer P1 on the display unit 105 from the operation unit 104 and clicks the cue button D15a, the control unit 101 calls the playback function 111a, for example. The reproduction from the head image in the in-sample image to the main display area D13 is executed.
  • the frame advance button D15b / fast forward button D15d is a button for the user to input an instruction to make the playback speed of the group of in-subject images in the main display area D13 slower / faster than the normal playback speed. Therefore, for example, when the user operates the pointer P1 and clicks the frame advance button D15b / fast forward button D15d, the control unit 101 calls, for example, the fast forward / frame advance function 111c and the main display area The playback speed at D13 is made slower / faster than the normal playback speed. Note that when the user clicks the frame advance button D15b / fast forward button D15d, the predetermined speed may be slowed / fastened according to the number of clicks. In this case, since the reproduction speed of the in-subject image in the main display area D13 can be changed in stages, the user can interpret the image more efficiently.
  • the pause button D15c is a button for the user to input an instruction to pause the continuous reproduction of the group of in-subject images in the main display area D13. Therefore, for example, when the user operates the pointer P1 and clicks the pause button D15c, the control unit 101 calls, for example, the pause function 111b and causes the pause function 111b to stop reproduction in the main display area D13. The in-subject image displayed in the main display area D13 immediately before the stop is displayed in the main display area D13. Note that the reproduction is resumed, for example, when the user clicks the pause button D15c again using the pointer P1.
  • the playback button D15e is a button for the user to input an instruction to start playback of a group of in-subject images in the main display area D13. Therefore, for example, when the user operates the pointer P1 and clicks the reproduction button D15e, the control unit 101 calls, for example, the reproduction function 111a, and the reproduction function 111a is connected to a group of in-subject images in the main display area D13. Start typical playback. For example, when the following reverse playback is being performed, the control unit 101 switches the playback by the playback function 111a from reverse playback to forward playback. Note that forward playback is playback in chronological order.
  • the rewind button D15f is a button for the user to input a so-called reverse reproduction instruction in which the group of in-subject images are reproduced in the main display area D13 in the reverse order of the time series. Therefore, for example, when the user clicks the rewind button D15f using the pointer P1, the control unit 101 calls, for example, the playback function 111a, and the playback function 111a is continuously connected with a group of in-subject images in the main display area D13. Start reverse playback.
  • the stop button D15g is a button for the user to input an instruction to stop the reproduction of the in-subject image in the main display area D13. Therefore, for example, when the user clicks the stop button D15g using the pointer P1, the control unit 101 calls, for example, the playback function 111a and stops the playback / reverse playback currently being executed by the playback function 111a.
  • the average color bar D16 is obtained by converting color information extracted along a time series from a group of in-subject images into a band-like image along the time axis. Therefore, the user visually observes the average color bar D16 to determine how red in each subject image along the time series passes through the entire group of subject images or inside the subject 900 along the lumen 902. You can see if it changes.
  • the average color bar D16 may be configured to be incorporated in the interpretation screen D1 when, for example, the average color bar button D22 in the interpretation screen D1 is clicked.
  • the control unit 101 calls the average color bar display function 112a from the support function group 112, for example, An image of the average color bar D16 for the subject image is generated. Thereafter, the control unit 101 incorporates the generated average color bar D16 into a predetermined area on the interpretation screen D1. Thereby, the interpretation screen D1 in which the average color bar D16 is incorporated is displayed on the display unit 105.
  • the interpretation process bar D17 converts the interpretation process (process) performed on the group of in-subject images into the image along the time series of the group of in-subject images. Is displayed. For example, when an image of the time taken by the current or past image reader or the image reading speed is imaged for each in-subject image and displayed as the image interpretation process bar D17, the user visually observes the image interpretation process bar D17. , To confirm which part of the whole group of in-subject images or the inside of the subject 900 along the lumen 902 is being watched, that is, over time, that is, whether the self or past interpreter is performing the interpretation. be able to.
  • the interpretation process bar D17 is not limited to the time taken by the interpreter for each in-subject image, but the reproduction mode, frame rate, presence / absence of pause operation, presence / absence of overview display, etc. for each in-subject image.
  • the information on the operation related to the interpretation work of the interpreter may be imaged along the time series.
  • the interpretation process bar D17 is acquired by, for example, the operation monitoring unit 114 or the display time measurement unit 115, and the interpretation process bar generation unit 116 reads the interpretation work data stored in the memory unit 102. Can be generated.
  • the generated interpretation process bar D17 is incorporated in a predetermined area on the interpretation screen D1 by the control unit 101 and displayed on the display unit 105.
  • the interpretation work data acquired by the operation monitoring unit 114 to cause the interpretation process bar generation unit 116 to generate the interpretation process bar D17 includes display history information indicating the number of times each in-subject image is displayed in the main display area D13, Stop history information indicating the number of times the user clicked the pause button D15c while displaying each in-subject image in the main display area D13, and the overview function 112b simultaneously display each in-subject image.
  • the interpretation work data acquired by the display time measurement unit 115 includes display time information indicating the total display time of each in-subject image in the main display area D13.
  • the capture history information may be whether or not the target in-subject image has been simply captured or the number of times it has been captured, regardless of whether or not the target in-subject image was subsequently removed from the capture target or deleted.
  • both time axes are linked. As a result, it is possible for the user to easily confirm how dark or the red portion of the range is being read by the image reader. Further, in addition to the average color bar D16, when displaying other information such as a time bar imaged along the time axis together with the image interpretation process bar D17, the time axis of both is displayed. It is preferable to link.
  • the captured image display area D21 displays a list of images within the subject instructed to be captured by the user or thumbnail images thereof (hereinafter simply referred to as captured images) in time series.
  • the thumbnail image may be a reduced image or a thinned image of the target in-subject image.
  • the capture image display area D21 may be provided with a slider D21a so that the display range can be slid.
  • the control unit 101 calls the capture function 113.
  • the capture function 113 identifies the in-subject image displayed in the main display area D13 when the capture button D20 is clicked, and adds a flag for identifying the captured image as a captured image, or
  • the image data is stored in a storage area separately secured in the memory unit 102 or the like. Thereby, the captured image is registered.
  • the capture function 113 acquires or generates an in-subject image registered as a capture image or a thumbnail image thereof, and displays the generated image in the capture image display area D21 in chronological order.
  • an overview button D23 is incorporated in the interpretation screen D1.
  • the control unit 101 calls the overview function 112b from the support function group 112, for example.
  • the overview function 112b reads, for example, a group of in-subject images or all or part of these reduced or thinned images from the external recording device 180, and displays them in a list, thumbnail display, or express view display in time series.
  • An overview screen is generated, and the generated overview screen is displayed on the display unit 105. By browsing the overview screen, the user can check and compare a plurality of in-subject images at the same time.
  • Interpretation work data such as display history information, stop history information, display time information, simultaneous display history information, capture history information, and support function use history information are, for example, a display history storage unit 102a and a stop history storage unit in the memory unit 102 102b, a display time storage unit 102c, a simultaneous display history storage unit 102d, a capture history storage unit 102e, and a support function use history storage unit 102f are stored in the interpretation work data storage area 102A and read out by the control unit 101 as appropriate. For example, it is used to generate the interpretation process bar D17.
  • FIG. 6A is a diagram showing an example of an interpretation process bar generated on the interpretation screen of the information processing apparatus based on interpretation work data indicating whether each in-subject image has been interpreted in the past according to the first embodiment. It is.
  • FIG. 6B is a diagram showing an example of an interpretation process bar generated on the interpretation screen of the information processing device based on the display time in the past interpretation of each in-subject image according to the first embodiment.
  • FIG. 6C is a diagram showing an example of an interpretation process bar generated on the interpretation screen of the information processing device based on interpretation work data indicating whether or not each in-subject image has been captured in the past interpretation according to the first embodiment. It is.
  • FIG. 6D is a diagram showing an example of an interpretation process bar generated on the interpretation screen of the information processing apparatus based on the type of interpretation support function used in the past interpretation of each in-subject image according to the first embodiment. is there.
  • the interpretation process bar D17a generated based on the interpretation work data indicating whether or not each in-subject image has been interpreted in the past is displayed in each subject arranged in time series.
  • the area corresponding to the image is displayed in different colors according to the number of times each in-subject image is read. At this time, a region corresponding to the in-subject image having a larger number of interpretations is displayed in an emphasized color.
  • a region G10 corresponding to an in-subject image that has not been subject to interpretation in the past is represented by an inconspicuous color such as white
  • a region G11 corresponding to an in-subject image whose number of past interpretations is once is represented by an inconspicuous color such as white
  • the region G12 corresponding to the in-subject image that is expressed in a relatively light color such as light blue and the number of interpretations in the past is twice is expressed in a color darker than the color of the region G11 such as blue.
  • interpretation work data indicating whether or not each intra-subject image has been interpreted in the past is stored in, for example, the display history storage unit 102 a in the memory unit 102. Therefore, the interpretation process bar generation unit 116 generates the interpretation process bar D17a based on the interpretation work data read from the display history storage unit 102a and the time-series arrangement of the group of in-subject images.
  • the interpretation process bar D17b generated based on the display time in the past interpretation of each in-subject image is an area corresponding to each in-subject image arranged in time series. Are displayed in different colors according to the total display time of each in-subject image. At this time, the region corresponding to the in-subject image with a long display time is expressed in an emphasized color.
  • the region G20 corresponding to the in-subject image that has not been displayed in the past is represented by an inconspicuous color such as white
  • the region G21 corresponding to the in-subject image whose total display time is less than 10 seconds is represented by an inconspicuous color such as white
  • the region G21 corresponding to the in-subject image whose total display time is less than 10 seconds is represented by an inconspicuous color such as white
  • the region G21 corresponding to the in-subject image whose total display time is less than 10 seconds is expressed in a relatively light color such as light green and having a total display time of 10 seconds or more and less than 1 minute is expressed in a color darker than the color of the region G21 such as green.
  • the region G23 corresponding to the in-subject image whose total display time is 1 minute or more is expressed in a darker color than the color of the region G22, such as dark green.
  • the user can easily recognize visually which part of the path in the time series or the inside of the subject 900 has been watched by the interpreter in the past interpretation.
  • the display time of each in-subject image corresponds to the reproduction speed in pseudo-video reproduction of a group of in-subject images.
  • the interpretation process bar D17 is used as the display time in the past interpretation of each in-subject image, the interpretation is performed instead of the time bar indicating the position on the time axis of the in-subject image being displayed in the main display area D13.
  • Process bar D17b may be used.
  • the interpretation process bar generation unit 116 generates the interpretation process bar D17b based on the display time read from the display time storage unit 102c and the time-series arrangement of the group of in-subject images.
  • the interpretation process bar D17c generated based on the interpretation work data indicating whether or not each in-subject image has been captured in the past interpretation is displayed on each subject arranged in time series.
  • the region corresponding to the in-sample image is displayed in different colors depending on whether each in-subject image has been captured even once.
  • the region G30 corresponding to the in-subject image that has never been captured in the past is expressed in an inconspicuous color such as white
  • the region G31 corresponding to the in-subject image captured even in the past is black.
  • the color is expressed with a color that provides a sufficient contrast with respect to the region G30.
  • interpretation work data indicating whether each in-subject image has been captured in the past interpretation is stored in, for example, the capture history storage unit 102e in the memory unit 102. Therefore, the interpretation process bar generation unit 116 generates the interpretation process bar D17c based on the interpretation work data read from the capture history storage unit 102e and the time-series arrangement of the group of in-subject images.
  • the interpretation process bar D17d generated based on the type of interpretation support function used in the past interpretation of each in-subject image includes each subject arranged in time series.
  • the region corresponding to the inner image is displayed in a color-coded manner according to the interpretation support function used when interpreting each subject in-vivo image, for example, the average color bar display function 112a and the overview function 112b.
  • the interpretation process bar D17d is color-coded according to the type of interpretation support function used, and the in-subject image has a large number of interpretation support function types used for each in-subject image. Corresponding regions are expressed in emphasized colors.
  • the region G40 corresponding to the in-subject image in which the image interpretation support function is not used in the past image interpretation is expressed by an inconspicuous color such as white, and the image interpretation support function used in the past image interpretation is displayed in the average color bar display.
  • the region G41 corresponding to the in-subject image corresponding to the function 112a is expressed in a relatively light color such as vermilion, and corresponds to the in-subject image in which the interpretation support function used in the past interpretation is the overview function 112b.
  • the region G42 is a relatively light color such as yellow and is expressed in a color different from the region G41, and the interpretation support function used in the past interpretation is both the average color bar display function 112a and the overview function 112b.
  • the region G43 corresponding to the in-subject image is expressed in a color that is more emphasized than the regions G41 and G42 such as purple. This allows the user to visually determine which part of the path in the past interpretation on the time series or on the path in the subject 900 has been watched by the interpreter, that is, has been interpreted using more interpretation support functions. It becomes easy to recognize.
  • the types of interpretation support functions used in the past interpretation are stored as part of the interpretation work data in the display time storage unit 102c in the memory unit 102, for example.
  • the differences in the respective interpretation work data are expressed by color shading.
  • the present invention is not limited to this, and for example, the types of textures mapped to the regions Or brightness or a combination thereof.
  • the display of the image interpretation process bar D17 may be a combination of two or more of the above examples.
  • the image of the interpretation process bar D17 is not limited to the bar shape, and may be modified in any way as long as it can visually represent the interpretation process, such as a graph.
  • control unit 101 when the control unit 101 reads and executes an interpretation program 110 stored in, for example, the memory unit 102 and starts an interpretation process confirmation operation, first, via the interface unit 103 Image data of a group of in-subject images is read from the external recording device 180 (step S101). By executing the image interpretation program 110, the control unit 101 can realize the functions as shown in FIG.
  • step S102 the control unit 101 monitors whether or not the user has clicked the playback button D15e from the operation unit 104 using the pointer P1 (step S102). If the result of determination in step S102 is that the playback button D15e has been clicked (Yes in step S102), the control unit 101 calls the playback function 111a in the operation function group 111, and a group of in-subject images is displayed in the playback function 111a. Is displayed on the display unit 105 (step S103: image reproduction processing).
  • control unit 101 sets the display time of each in-vivo image, that is, the time set as the playback time of one frame, in a timer (not shown) or the like (step S104). Subsequently, the control unit 101 starts consuming the set playback time (step S105), and measures the total display time of the in-subject image being displayed on the display unit 105 using the display time measuring unit 115 (step S105). Step S106). In step S104, when the playback time is set to an initial value, for example, 3 seconds, the control unit 101 sets the initial value as the playback time of one frame, and the playback time is extended or extended in step S120 or S122 described later.
  • this extended or shortened time is set as the playback time for one frame. Further, in step S106, for example, when the target in-subject image is displayed for the second time, the display time measuring unit 115 measures the second display time by adding to the first display time.
  • the control unit 101 acquires the interpretation work data stored in the memory unit 102 by the operation monitoring unit 114 and the display time measurement unit 115 (step S107), and based on the acquired interpretation work data, the interpretation process bar D17 and The already-read interpretation display mark D14a and the support function use state display mark D14b are generated (step S108: interpretation work image generation processing). Further, the generated interpretation process bar D17, already-interpreted interpretation display mark D14a and support function use state display mark D14b are incorporated into the interpretation screen D1 (step S109), and the interpretation screen D1 being displayed on the display unit 105 in the interpretation screen D1 after incorporation. (Step S110: Image interpretation work image display process).
  • the operation monitoring unit 114 and the display time measurement unit 115 constantly monitor the operation content input from the operation unit 104 to the interpretation screen D1, or measure the display time of each subject image, and store this in the memory. Stored in a predetermined area of the unit 102 (interpretation monitoring process, interpretation work recording process).
  • the interpretation work data read from the memory unit 102 by the control unit 101 in step S107 is acquired by the operation monitoring unit 114 and the display time measurement unit 115 and stored in the memory unit 102 in the past interpretation. It may be work data, or may be the interpretation work data acquired by the operation monitoring unit 114 and the display time measurement unit 115 and accumulated in the memory unit 102 in the currently ongoing interpretation.
  • an interpretation process bar D17 representing the past interpretation process in time series is displayed on the interpretation screen D1. In this case, it is possible to learn from the interpretation process bar D17 the interpretation performed by the past interpreter.
  • the interpretation screen D1 displays an interpretation process bar D17 that expresses the interpretation process from the start of interpretation to the present in chronological order. In this case, it is possible to easily identify the region in the subject where the user is gazing at when the image is interpreted backward from the previous in-subject image.
  • the interpretation work data read out from the memory unit 102 by the control unit 101 in step S107 may be both interpretation work data for interpretation performed in the past and interpretation work data for interpretation currently in progress.
  • the image interpretation process bar generation unit 116 updates the image interpretation process bar D17 created using the image interpretation work data for the past image interpretation with the image interpretation work data newly acquired for the currently ongoing image interpretation in substantially real time. It becomes possible to comprise.
  • the control unit 101 determines whether or not the user has selected any button in the reproduction operation button group D15 using the pointer P1 from the operation unit 104. For example, the control unit 101 first determines whether or not the user has clicked the pause button D15c using the pointer P1 (step S111). If the result of determination in step S111 is that the pause button D15c has been clicked (Yes in step S111), the control unit 101 determines whether playback on the display unit 105 is currently paused (step S111). S112) If not paused (No in step S112), the reproduction of the group of in-subject images on the display unit 105 is stopped using the pause function 111b (step S113), and a timer (not shown) is used.
  • step S114 Consumption of the reproduction time being measured is stopped (step S114). Thereafter, the control unit 101 returns to step S107. Note that the display time measurement by a timer (not shown) is continued even while the reproduction of the in-vivo image on the display unit 105 is stopped.
  • step S112 determines whether suspension is in progress (Yes in step S112)
  • the control unit 101 resumes reproduction of the in-subject image that has been stopped using the suspension function 111b (step S115). ) And the consumption of the set playback time is resumed (step S116). Thereafter, the control unit 101 proceeds to step S132 in FIG.
  • step S111 determines whether or not the user has clicked the capture button D20 using the pointer P1.
  • step S117 determines whether or not the user has clicked the capture button D20 using the pointer P1.
  • the capture function 113 is used to capture the image data of the in-subject image currently displayed on the display unit 105 ( Step S118), and then the process proceeds to Step S132 in FIG.
  • step S117 if the capture button D20 has not been clicked (No in step S117), the control unit 101 next determines whether or not the user has clicked the frame advance button D15b using the pointer P1. If it is determined (step S119) and the frame advance button D15b has been clicked (Yes in step S119), the currently set playback time of one frame is determined by using the fast forward / frame advance function 111c, for example, 5 seconds. Extend (step S120). For example, when the initial value of the time set as the playback time for one frame is 3 seconds and the extension time is 5 seconds, the time set as the playback time for one frame after the extension is 8 seconds. Thereafter, the control unit 101 proceeds to step S132 in FIG. For example, an upper limit value, for example, 60 seconds may be provided for the playback time, and the playback time may be set so as not to exceed the upper limit value.
  • an upper limit value for example, 60 seconds may be provided for the playback time, and the playback time may be set so as not to exceed the upper limit value
  • step S119 If it is determined in step S119 that the frame advance button D15b has not been clicked (No in step S119), the control unit 101 next determines whether or not the user has clicked the fast forward button D15d using the pointer P1.
  • the currently set playback time of one frame is shortened by a predetermined time, for example, 5 seconds using the fast-forward / frame-forward function 111c.
  • Step S122 For example, when the time set as the playback time for one frame is 18 seconds and the time for reduction is 5 seconds, the time set as the playback time for one frame after the reduction is 13 seconds.
  • the control unit 101 proceeds to step S132 in FIG.
  • a lower limit value for example, 0.5 seconds may be provided for the playback time, and when the shortened playback time is less than or equal to the lower limit value, the lower limit value may be automatically set as the playback time.
  • step S121 determines whether or not the user has clicked the cue button D15a using the pointer P1 (step S123). If the cue button D15a has been clicked (Yes in step S123). Then, the process returns to step S103 in FIG. 7, and thereafter, reproduction from the first in-subject image is started.
  • step S123 if the cue button D15a has not been clicked (No in step S123), the control unit 101 next determines whether the user has clicked the rewind button D15f using the pointer P1. Is determined (step S124). If the result of determination in step S124 is that the rewind button D15f has been clicked (Yes in step S124), the control unit 101 subsequently determines whether or not rewinding (reverse playback) is currently being performed (step S124). S125) If reverse playback is not in progress (No in step S125), the arrangement of the group of in-subject images read out in step S101 of FIG. 7 along the time series is reversed (step S126). In addition, the control unit 101 uses the reproduction function 111a to reproduce a group of in-subject images along a time series reversed from the currently displayed in-subject image (step S127). Thereafter, the control unit 101 proceeds to step S132 in FIG.
  • step S125 determines whether reverse reproduction is being performed (Yes in step S125). If the result of determination in step S125 is that reverse reproduction is being performed (Yes in step S125), the control unit 101 returns the reversed arrangement of the group of in-subject images to the permutation (step S128), and then Then, the group of in-subject images are reproduced from the in-subject image currently displayed using the reproduction function 111a along the permutation time series (step S129). Thereafter, the control unit 101 proceeds to step S132 in FIG.
  • step S124 determines whether or not the user has clicked the stop button D15g using the pointer P1. (Step S130) If the stop button D15g has been clicked (Yes in Step S130), the playback function 111a stops the playback currently in progress (Step S131), and the process proceeds to Step S144 in FIG. On the other hand, when the stop button D15g is not clicked (No in step S130), the control unit 101 proceeds to step S135 in FIG.
  • step S132 of FIG. 9 after steps S116, S118, S120, S122, S127, and S129, the control unit 101 determines whether or not the currently set reproduction time has been consumed for the currently displayed in-subject image. (Step S132), and when the consumption has not been completed, that is, the reproduction time still remains (No in step S132), the process returns to step S107 in FIG. On the other hand, when the reproduction time has been consumed (Yes in step S132), the control unit 101 determines whether there is an in-subject image to be displayed next in time series (step S133).
  • step S133 if there is an in-subject image to be displayed next (Yes in step S133), the control unit 101 causes the reproduction function 111a to display the next in-subject image (step S134). Thereafter, the process returns to step S104 in FIG.
  • step S133 when the next in-subject image does not exist, that is, when all the in-subject images have been displayed (No in step S133), the control unit 101 proceeds to step S131. Then, the reproduction of the group of in-subject images is stopped (step S131), and then the process proceeds to step S144 in FIG.
  • step S102 determines whether the playback button D15e has not been clicked (No in step S102), or if the result of determination in step S130 is that the stop button D15g has not been clicked.
  • the control unit 101 Determines whether the average color bar button D22 is clicked using the pointer P1 (step S135). As a result of the determination in step S135, when the average color bar button D22 is clicked (Yes in step S135), the control unit 101 calls the average color bar display function 112a in the support function group 112, and average color bar display function 112a. Then, an average color bar D16 for the group of in-subject images is generated (step S136).
  • control unit 101 incorporates the generated average color bar D16 into a predetermined area of the interpretation screen D1 (step S137), and then updates the display unit 105 with the interpretation screen D1 after incorporating the average color bar D16 (step S137). S138). Thereafter, the control unit 101 proceeds to step S144 in FIG.
  • step S135 determines whether or not the user has clicked the overview button D23 using the pointer P1. If the overview button D23 has been clicked (Yes in step S139), an overview that displays a list of all or part of the thumbnail images of the group of in-subject images in chronological order.
  • a screen is generated (step S140) and displayed on the display unit 105 (step S141). Thereafter, the control unit 101 determines whether or not an instruction to return to the interpretation screen D1 has been input from the user using the operation unit 104 (step S142), and if an instruction to return to the interpretation screen D1 has been input (step S142). (Yes in step S142), the interpretation screen D1 is displayed (step S143), and then the process proceeds to step S144. The display of the overview screen is continued until an instruction to return to the interpretation screen D1 is given (No in step S142).
  • step S144 of FIG. 10 the control unit 101 determines whether or not an instruction to end the interpretation program 110 is input from the user using the operation unit 104 (step S144). In S144, the interpretation program 110 is terminated and the interpretation support operation is terminated. On the other hand, if the end instruction of the interpretation program 110 has not been input (No in step S144), the control unit 101 returns to step S102, and thereafter performs the same operation.
  • the information processing apparatus 100 since the information processing apparatus 100 has a function of recording an interpretation process performed by an interpreter and visually expressing the process, the interpretation process performed by the user himself or another interpreter in the past is performed. It can be easily confirmed later. As a result, it is possible to reduce the time and labor for re-interpretation by the user and to ensure the accuracy of the interpretation result. For example, it is desirable to check all the work contents at the time of interpretation and confirm whether the interpretation is done correctly when other interpretations are performed or when requested by an external interpretation person. In the form 1, since the work content at the time of image interpretation, that is, the operation content of the information processing apparatus 100 is visually expressed using the image interpretation process bar D17, it is possible to accurately respond to such a request. is there.
  • one interpretation process bar D17 is incorporated in one interpretation screen D1, but the present invention is not limited to this.
  • a modification of the first embodiment shown in FIG. As in the example of the interpretation screen D1-1 according to Example 1-1, the interpretation process bars D17a to D17d for different interpretation work data may be displayed in parallel vertically.
  • the interpretation work recording unit including the operation monitoring unit 114, the display time measurement unit 115, and the memory unit 102 receives a plurality of interpretation work data having different contents for the same interpretation work.
  • the interpretation process bar generation unit 116 records and generates interpretation process bars D17a to D17d for each of a plurality of interpretation work data having different contents by using any one or a plurality of interpretation work data having different contents.
  • An image interpretation work image display unit including the unit 101 and the display unit 105 displays image interpretation process bars D17a to D17d for each of a plurality of pieces of image interpretation work data having different contents.
  • the interpretation process bars D17a to D17d arranged above and below may correspond to the time axis between the top and bottom. That is, the image interpretation process image display unit composed of the control unit 101 and the display unit 105 associates the order among the image interpretation process bars D17a to D17d for each image interpretation work, and for each of a plurality of image interpretation work data having different contents, It is preferable to display D17a to D17d.
  • the interpretation process bar generation unit 116 of the control unit 101 may generate the interpretation process bars D17a to D17d for each interpretation work using a different color or pattern for each interpretation work.
  • the incorporated interpretation process bar D17 includes, for example, the interpretation process bars D17a to D17d for different interpretation work data, as shown in FIG.
  • the interpretation work recording unit including the operation monitoring unit 114, the display time measurement unit 115, and the memory unit 102 records interpretation work data for each different interpretation work, and the interpretation of the control unit 101 is performed.
  • An image interpretation work image generation unit composed of the process bar generation unit 116 generates image interpretation process bars D17-1 and D17-2 which are images for each image interpretation work using one or more of the image interpretation work data for each image interpretation work.
  • the image interpretation work image display unit comprising the control unit 101 and the display unit 105 displays image interpretation process bars D17-1 and D17-2 for each image interpretation work.
  • the user can simultaneously recognize a plurality of past interpretation processes through vision.
  • the interpretation process bars D17-1 to D17-2 arranged above and below correspond to each other on the time axis.
  • the latest interpretation process bar is located at the top or bottom, while the remaining interpretation process bars are arranged below or above in the chronological order of the interpretation work itself.
  • the interpretation work data display unit including the control unit 101 and the display unit 105 associates the order of interpretation process bars D17-1 and D17-2 for each interpretation work, and interprets the interpretation process bar D17- for each interpretation work.
  • 1, D17-2 is preferably displayed.
  • the interpretation process bar generation unit 116 of the control unit 101 may generate interpretation process bars D17-1 and D17-2 for each interpretation work using different colors or patterns for each interpretation work.
  • the interpretation process bar D17 is generated using the interpretation work data for each interpretation.
  • the interpretation process bar may be generated by taking the average of the interpretation work data acquired at the time of a plurality of interpretations performed on the group.
  • this case will be described in detail as Modification 1-3 of Embodiment 1 with reference to the drawings.
  • detailed description thereof will be omitted by citing or referring to the same.
  • FIG. 13 is a part of a flowchart showing the flow of the interpretation process confirmation method according to the modification 1-3.
  • the other operations are the same as those described with reference to FIGS. 6 to 10 in the first embodiment, and detailed description thereof is omitted here.
  • steps S107 and S108 in the interpretation process confirmation method shown in FIGS. 6 to 10 are replaced with steps S107-1, S108-1 and S108-2.
  • step S107-1 the control unit 101 acquires interpretation work data stored in the memory unit 102 for each interpretation.
  • step S108-1 the control unit 101 calculates the average value of the interpretation work data acquired for each interpretation.
  • step S108-2 the control unit 101 calculates the average value of the interpretation work data acquired for each interpretation.
  • step S108-2 the control unit 101 calculates the average value of the interpretation work data acquired for each interpretation.
  • step S108-2 the control unit 101 calculates the average value of the interpretation work data acquired for each interpretation
  • step S108-1 calculates the average value of the interpretation work data acquired for each interpretation
  • step S108-2 the interpretation process bar D17 and the already-interpreted interpretation display.
  • step S108-2 the process proceeds to step S109 similar to that of the first embodiment, and thereafter the same operation is executed.
  • the interpretation process bar generation unit 116 of the control unit 101 has different interpretation work recording units including the operation monitoring unit 114, the display time measurement unit 115, and the memory unit 102. It also functions as an average value calculation unit that calculates the average value of the values of the plurality of interpretation work data recorded in the field.
  • the interpretation process bar generation unit 116 of the control unit 101 generates the interpretation process bar D17 using the average value calculated by the average value calculation unit.
  • the average value is, for example, an average value of a plurality of display times or reproduction speeds for the same or corresponding in-subject images if the interpretation work data is the display time or reproduction speed of each in-subject image. If the interpretation work data is display history information, the display probability for the same or corresponding in-subject image with respect to the number of interpretations can be set.
  • the interpretation work data used for calculating the average value may include not only the interpretation work data obtained at the time of past interpretation but also the interpretation work data obtained in the ongoing interpretation. Furthermore, the user can select the interpretation work data for calculating the average value based on parameters such as an interpretation ID automatically given at the start of interpretation for each interpretation work or an interpreter ID given in advance to the interpreter. You may comprise. Since other configurations and operations are the same as those of the above-described embodiment or its modification, detailed description thereof is omitted here.
  • the interpretation work data may be recorded in the memory unit 102 for each interpreter, subject, or subject case.
  • the priority for the interpretation work data in the first embodiment, it is possible to automatically use the interpretation work data having a high priority for the generation of the interpretation process bar D17 incorporated in the interpretation screen D1.
  • each interpretation work data can be weighted based on the priority.
  • the priority of each interpretation work data is set by the control unit 101 functioning as a priority addition unit for adding a priority for each interpretation work data.
  • the user may be able to freely set the priority, may be set for each radiographer, subject, or subject case, or the contents of the interpretation work data, such as the playback speed and interpretation. It may be automatically or manually given according to the priority given in advance to the support function.
  • priorities can be set in the order of the express view function, the average color bar display function 112a, the overview function 112b, the automatic speed adjustment function, and the normal display function, and any of these is used. It is possible to automatically give priority to the interpretation work data.
  • FIG. 14 is a block diagram showing a schematic configuration of the information processing apparatus 200 according to the second embodiment.
  • the information processing apparatus 200 corresponds to the image display apparatus according to the second embodiment.
  • an interpretation program 210 is executed in the control unit 101.
  • the interpretation program 210 has a configuration for realizing the interpretation process reproduction unit 211 added to the configuration of the interpretation program 110 in the first embodiment.
  • the image interpretation process reproduction unit 211 performs various operations performed at the time of image interpretation from image interpretation work data at the time of image interpretation on a group of in-subject images read out from the memory unit 102 by the control unit 101. Realize the function to reproduce along with the playback of.
  • FIG. 15 shows an example of an interpretation screen D2 according to the second embodiment.
  • an interpretation process reproduction button D24 for reproducing past interpretation processes is incorporated.
  • the main display area D13 includes forward reproduction, reverse reproduction, pause, fast forward, frame advance, and the like performed in the past interpretation.
  • a series of in-subject images are reproduced according to the reproduction operation.
  • the instruction operation of the function according to the operation of the capture button D20, the average color bar button D22, the overview button D23, and the like is also reproduced.
  • the interpretation screen D2 includes a rewind button D24a, a pause button D24b, a fast-forward button D24c, a frame advance button D24d, and a stop button D24e as operation buttons for the interpretation process reproduction.
  • a rewind button D24a When the user clicks the rewind button D24a using the pointer P1, the interpretation process being reproduced on the interpretation screen D2 is rewound, that is, reversely reproduced.
  • the pause button D24b, fast forward button D24c, frame advance button D24d, or stop button D24e is clicked using the pointer P1, the interpretation process being reproduced on the interpretation screen D2 is paused, fast forward, frame advance, Or it is stopped.
  • the operation and interpretation process in the past interpretation are realistically reproduced on the interpretation screen D2.
  • the user can easily and realistically confirm the interpretation process performed by the person or another interpreter in the past from the reproduction of the interpretation process.
  • past interpretations are realistically reproduced, it is possible to accurately perform the interpretation or evaluation of the interpreter.
  • the interpretation process is realistically reproduced, it is useful as a learning material when a user learns interpretation.
  • the image interpretation process data read out from the memory unit 102 by the image interpretation process reproducing unit 211 is directly reproduced on the image interpretation screen D2. Therefore, when a plurality of interpretations are performed on one in-subject image group and a plurality of interpretation work data are accumulated in the memory unit 102 for one in-subject image group, any interpretation is performed. The user needs to choose whether to reproduce the process.
  • the present invention is not limited to this. For example, as in Modification 1-3 of Embodiment 1, the average value of a plurality of interpretation work data is calculated and reproduced on the interpretation screen D2.
  • An information processing apparatus may be configured.
  • Modification 2-2 Furthermore, as in Modification 1-4 of Embodiment 1 above, when priority is set for each radiographer, subject, or subject case, the interpretation process to be reproduced is automatically based on this priority. It is possible to configure the information processing apparatus so as to make a selection.
  • a capsule endoscope system 1 similar to that in the first embodiment is taken as an example.
  • the information processing apparatus 100 in the first embodiment is replaced with a request source information processing apparatus 310 described later.
  • the request source information processing apparatus 310 corresponds to the image display apparatus according to the third embodiment.
  • the same reference numerals are given to the same configurations or functions as those in the first and second embodiments and the modifications thereof, and detailed description thereof is omitted.
  • the interpretation work data at the time of interpretation of the cut out part is obtained at the time of interpretation of the original group of in-subject images. It cannot be incorporated into interpretation work data while maintaining chronological order.
  • the third embodiment it is possible to cut out a part of the in-subject images in the group of in-subject images while maintaining the time-series order and make an interpretation request.
  • the interpretation work data at the time of interpretation of a part of the in-subject images requested to be interpreted to the outside is maintained in the interpretation work data at the time of interpretation of the original group of in-subject images. It can be incorporated as it is.
  • FIG. 16 is a schematic diagram showing a schematic configuration of the image interpretation support system 300 according to the present embodiment.
  • the capsule endoscope system 1 and the requested information processing apparatuses 380A to 380C... are communicably connected via a network 390.
  • reference numeral 380 denotes an arbitrary requested information processing apparatus.
  • the network 390 for example, various networks such as the Internet, a LAN (Local Area Network), a WAN (Wide Area Network), a dedicated line using the Zenginkyo Standard Communication Protocol, and the like can be applied.
  • an information processing apparatus such as a personal computer or a workstation can be used.
  • FIG. 17 shows a schematic configuration of the request source information processing apparatus 310 according to the third embodiment.
  • the request source information processing device 310 includes a configuration in which a network interface unit 311 is added to the information processing device 100 according to the above-described embodiment or its modification. That is, in the third embodiment, a network communication function is added to the information processing apparatus 100.
  • the network interface unit 311 may be a general communication unit such as a NIC (Network Internet Card).
  • an interpretation request program 320 is executed in addition to the above-described interpretation program 110.
  • the memory unit 102 of the request source information processing apparatus 310 in addition to the interpretation work data storage area 102A, information of an interpreter registered as a request destination, such as a name or name, an address or a residence, an e-mail address or a facsimile
  • a request destination information storage unit 102g for storing a contact address such as a number and the like, and an interpretation request progress information storage unit 102h for storing progress information of interpretation of the in-subject image requested to the outside are included.
  • Interpretation progress information includes information on whether or not the interpretation request has been completed, request destination, interpretation request date, mail or communication request method, interpretation result expected date, interpretation result response date, etc. Should be included.
  • the interpretation request program 320 is stored in, for example, the memory unit 102, and functions when the control unit 101 reads and executes the program appropriately.
  • the control unit 101 that has executed the interpretation request program 320 is selected with an interpretation target image selection function 321 that realizes a function of selecting an in-subject image to be subjected to an interpretation request from a series of in-subject images.
  • Interpretation request management function 324 that manages whether or not an image interpretation request has been made for each in-subject image, and interpretation work data that has been replied for the in-subject image requested to be interpreted while maintaining the time-series order.
  • a requested interpretation process incorporating function 325 to be incorporated into interpretation work data for a series of in-subject images is realized.
  • the control unit 101 that has executed the interpretation program 110 includes an operation function group 111, a support function group 112, a capture function 113, an operation monitoring unit 114, a display time measurement unit 115, and an interpretation process bar generation illustrated in FIG.
  • the unit 116 is realized, but these are not shown in FIG.
  • FIG. 18 is a diagram illustrating an example of an interpretation screen D3 according to the third embodiment.
  • the pointer P1 is moved to the main display area D13 using the operation unit 104. Move it up and right-click for example.
  • the menu selection screen D31 is displayed on the display unit 105 with the position of the pointer P1 when right-clicked as the upper left corner.
  • the menu selection screen D31 is a so-called context menu. In this menu selection screen D31, for example, all of the series of in-subject images or the in-subject image being displayed on the display unit 105 or a part of the in-subject image group including the in-subject image are displayed in time series.
  • An interpretation request menu for inputting an interpretation request instruction for the in-sample image or a part of the in-subject image group including the in-subject image is included.
  • the request destination selection screen D32 is displayed on the display unit 105 at a position close to the interpretation request menu.
  • the request destination selection screen D32 is a so-called context menu.
  • the request destination selection screen D32 displays a list of request destinations registered in the request destination information storage unit 102g of the memory unit 102 as request destinations.
  • Request data to be sent to the request destination is created by calling 322, and then the request data created by calling the interpretation request transmission function 323 is sent to the contact address of the selected request destination, for example, an e-mail address.
  • the request data created by the interpretation request data creation function 322 includes data of the in-subject image selected by the interpretation target image selection function 321.
  • the interpretation request management function 324 implemented in the control unit 101 detects when request data is sent to the network 390 by the interpretation request transmission function 323.
  • the interpretation request management function 324 records information indicating that an interpretation request has been made for the in-subject image as an interpretation request target in the interpretation request progress information storage unit 102h.
  • information such as whether or not an interpretation request has been made in the past for the in-subject image displayed in the main display area D13 and whether or not there is a result of the interpretation requested in the past are visually displayed. Is displayed in the vicinity of the main display area D13 on the interpretation screen D3. As a result, the user can easily visually recognize the progress status of the interpretation request for the in-subject image being displayed.
  • FIG. 19 is a flowchart showing the flow of an image interpretation request operation according to the third embodiment.
  • description will be given focusing on the operation of the control unit 101 that executes the interpretation request program 320 to realize the interpretation request operation.
  • the control unit 101 monitors whether the user has operated the pointer P1 from the operation unit 104 and right-clicked on the main display area D13 (No in steps S301 and S301), and displays the main display.
  • the display unit 105 displays the menu selection screen D31 with the position of the pointer P1 when the right-click is performed as the upper left corner (step S302).
  • the control unit 101 similarly determines whether or not the interpretation request button in the menu selection screen D31 is selected using the pointer P1 (step S303). If the interpretation request button is selected (Yes in step S303). ), A request destination selection screen D32 is displayed in the vicinity of the interpretation request button (step S305). If the interpretation request button is canceled without being selected (No in step S303), the control unit 101 cancels the display of the menu selection screen D31 (step S304) and returns to step S301.
  • control unit 101 determines whether any interpretation request destination is selected from the request destination selection screen D32 displayed in step S305 (step S306), and cancels without selecting any interpretation request destination. If this is the case (No in step S306), the display of the request destination selection screen D32 and the display of the menu selection screen D31 are canceled (step S307), and the process returns to step S301.
  • step S306 the control unit 101 calls the interpretation target image selection function 321 to determine the inside of the subject to be subjected to the interpretation request. An image is selected (step S308), and then the interpretation request data creation function 322 is called to create request data to be transmitted to the request destination using the image data of the selected in-subject image (step S309).
  • the control unit 101 calls the interpretation request transmission function 323 and transmits the created request data to the contact address of the request destination selected in step S306, specifically, the e-mail address (step S310).
  • control unit 101 determines whether or not an instruction to end the interpretation request operation has been input (step S311). If the instruction has not been input (No in step S311), the control unit 101 returns to step S301. Perform the action. On the other hand, if the result of determination in step S311 is that an end instruction has been input (Yes in step S311), the control unit 101 ends the interpretation request operation.
  • the image extraction unit that the image interpretation target image selection function 321 of the control unit 101 extracts part of the group of in-subject images while maintaining order.
  • Interpretation request data creation function 322 and interpretation request transmission function 323 send interpretation requests of a part of the in-subject image group cut out by the image cutout unit to request destination information processing apparatus 380 via network 390. It functions as an interpretation request transmission unit for transmission.
  • Modification 3-1 In the third embodiment, an example has been given in which an image interpretation request is made for an in-subject image displayed in the main display area D13.
  • the present invention is not limited to this, and a group of in-subject images. A plurality of consecutive in-subject images may be requested to be read together.
  • this case will be described in detail as modification 3-1 of the third embodiment with reference to the drawings.
  • FIG. 20 is a diagram showing an example of an interpretation screen D3-1 according to the present modification 3-1.
  • the control unit 101 implements it.
  • the interpretation target image selection function 321 selects one or more in-subject images corresponding to this region as interpretation request target images. Thereafter, the same operation as that of the request source information processing apparatus 310 of the third embodiment described above is executed, so that one image selected as an image interpretation request target image from the request source information processing apparatus 310 to the request destination information processing apparatus 380 is displayed.
  • Request data including the above-described in-subject image is transmitted.
  • the range of the interpretation process bar D17 corresponding to the in-subject image selected by dragging or requested to be interpreted in the past is, for example, a different color or pattern. It should be expressed. As a result, the user can easily know which range of the in-subject image is the subject of the interpretation request or whether the interpretation request has been requested in the past. In addition, since the other configuration is the same as that of the above-described embodiment or its modification, detailed description is omitted here.
  • the image interpretation request target image is selected by dragging an area having a certain range such as a simple time bar or average color bar D16 that represents a time axis corresponding to a group of in-subject images along the time series. As described above, the request source information processing apparatus 310 may be configured.
  • Modification 3-2 For example, when a group of in-subject images are divided in association with organ sections, an interpretation request may be made for each organ section.
  • this will be described in detail as modification 3-2 of the third embodiment with reference to the drawings.
  • FIG. 21 is a diagram showing an example of an interpretation screen D3-2 according to the modification 3-2.
  • an organ bar D35 is arranged vertically in parallel with the image interpretation process bar D17.
  • the organ bar D35 is color-coded, for example, for each organ section.
  • a message D36 corresponding to the organ section is displayed in a pop-up manner.
  • a menu selection screen D31 similar to that in the third embodiment is displayed. Thereafter, it is possible to collectively request interpretation of in-subject images for each organ section in the same flow as the interpretation request in the third embodiment.
  • the organ section is visually expressed in the interpretation process bar D17, the average color bar D16, or a simple time bar, and the section that the user wants to request an interpretation is displayed from this bar. It may be configured to be selectable. Since other configurations are the same as those of the above-described embodiment or its modification, detailed description thereof is omitted here.
  • in-subject images with a large color change between the images before and after, and in-subject images at the time of scene changes can be automatically extracted, and part or all of these can be requested for interpretation at once.
  • the request source information processing apparatus may be configured as described above.
  • the magnitude of the color change between the preceding and following images can be obtained using, for example, the red luminance when the average color bar D16 is generated.
  • the intra-subject image at the time of the scene change can be specified by using, for example, a scalar amount of the motion vector of the capsule endoscope 10 obtained from the two intra-subject images.
  • Modification 3-4 In addition, for example, when observation is performed on the same subject 900 by a plurality of times of imaging, an in-subject image in which a portion that does not overlap between different observations is copied, or an interpretation of the subject image obtained in the previous observation It is also possible to configure the request source information processing apparatus so as to automatically extract an in-subject image obtained by imaging a part having an abnormal finding in FIG. For example, as shown in FIG. 22, the in-subject image corresponding to a range D38 having a certain width before and after the position D37 on the interpretation process bar D17 corresponding to the part having an abnormal finding is collectively requested for interpretation. It is good to configure so that it can.
  • FIG. 22 is a diagram for explaining the interpretation request range in the modification 3-4 of the third embodiment. Other configurations and operations are the same as those of the above-described embodiment or its modification.
  • FIG. 23 is a diagram showing an example of an interpretation screen D4-1 according to the fourth embodiment.
  • an interpretation request button D41 is added to the same function as the interpretation screen D1 according to the first embodiment shown in FIG.
  • an interpretation request screen D4-2 shown in FIG.
  • FIG. 24 is a diagram showing an example of an interpretation request screen D4-2 according to the fourth embodiment.
  • the interpretation request screen D4-2 includes an interpretation request number that is an identification number of an interpretation request registered as a set of one or more in-subject images to be requested for interpretation, and each interpretation request.
  • Interpretation request list D42 for displaying a list of request destinations indicating to which request destinations are requested, scheduled response dates for receiving responses from the respective request destinations, and subject information associated with each interpretation request number.
  • a request range mark D47 indicating which position or area of the image interpretation process bar D17 corresponds to the in-subject image corresponding to the selected interpretation request, and the in-subject image displayed in the display area D43 are displayed.
  • a slider D48 indicating which position on the image interpretation process bar D17 corresponds is incorporated.
  • the user selects a target interpretation request from the interpretation request list D42 by operating the pointer P1 using the operation unit 104 on the interpretation request screen D4-2. Further, by operating the pointer P1 while the target interpretation request is selected, a request destination for requesting the selected interpretation request is selected from the request destination list D44. As a result, the selected request destination is associated with the target interpretation request being selected.
  • the interpretation requests that are associated with each other and have not yet undergone an interpretation request.
  • Request data is sent to the request destination.
  • the output button D45d is clicked instead of the transfer button D45e, the requested interpretation request data being selected is recorded on a recording medium such as a DVD-RAM for each request destination.
  • the request date is recorded in the image interpretation request progress information storage unit 102h of the memory unit 102 in association with the image interpretation request number and the request destination information.
  • the interpretation request list D42 on the interpretation request screen D4-2 is updated to the latest information. Further, for a requested interpretation request, that is, an interpretation request that has been transferred or output, a mark such as a “re” point is added in association with the request destination.
  • the interpretation request management function 324 of the control unit 101 automatically specifies the scheduled answer date from the request date and request destination of the interpretation request, and records this in the interpretation request progress information storage unit 102h. Furthermore, the interpretation request list D42 on the interpretation request screen D4-2 is updated to the latest information. However, the scheduled answer date may be registered manually.
  • the user can visually determine in which range of the subject. It is possible to easily know the situation of image interpretation.
  • Capsule endoscope system 10 Capsule endoscope 10a Optical dome 10b Container 11 Signal processing part 12 Imaging part 12-1 Imaging element 12-2 Optical system 12-3 Circuit board 13 Illumination part 14 Memory 15 Transmission part 15a Antenna 16 Battery 21a to 21i extracorporeal antenna 22 connection cable 30 receiving device 31 signal processing unit 32 receiving unit 33 memory 34 interface unit 35 operation unit 36 display unit 41 communication interface 42 portable recording medium 100 information processing apparatus 101 control unit 102 memory unit 102A interpretation work Data storage area 102a Display history storage unit 102b Stop history storage unit 102c Display time storage unit 102d Simultaneous display history storage unit 102e Capture history storage unit 102f Support function use history storage unit 102g Request destination information storage unit 102h Interpretation request progress information storage unit 103 Interface unit 104 Operation unit 105 Display unit 110 Interpretation program 111 Operation function group 111a Playback function 111b Pause function 111c Fast forward / frame advance function 111e Stop function 112

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Endoscopes (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

 時系列に沿った一連の画像群を再生する画像再生部と、前記画像再生部において再生中の画像を読影する際の操作を入力する操作部と、前記画像再生部において再生中の画像に対して前記操作部から入力された操作内容を順序性を持たせつつ記録する読影作業記録部と、前記読影作業記録部に記録された操作内容を用いて前記順序性に従った一連のイメージを生成する読影作業イメージ生成部と、前記読影作業イメージ生成部が生成した前記イメージを表示する読影作業イメージ表示部と、を画像表示装置に設ける。

Description

画像表示装置、読影支援システムおよび読影支援プログラム
 本発明は、画像表示装置、読影支援システムおよび読影支援プログラムに関し、特に、被検体内に導入されたカプセル内視鏡が取得した一群の画像に対して観察者がした読影を再現する画像表示装置、読影支援システムおよび読影支援プログラムに関する。
 従来、被検体内に導入されて被検体内を撮像するカプセル内視鏡を用いた被検体の診察では、カプセル内視鏡によって取得された画像群を、疑似動画もしくは静止画一覧にて観察を行い、異常所見のあるものを選び出す作業を行っている。この作業を読影という。カプセル内視鏡にて撮像された画像群は、約6万枚(およそ8時間分)にもなるため、これらをすべて読影するのは大変な時間がかかる上、集中力が必要となる。
 この読影作業を補助するためのソフトウエア(以下、読影用ソフトウエアという)には、再生速度調整や一時停止やコマ送りなどの再生機能、赤色成分が多い画像を自動抽出する自動抽出機能など、種々の読影支援機能が用意されている。
特開2007-143648号公報
 しかしながら、膨大な量の画像群から異常所見のある画像を特定するにあたっては、非常に高度な技術と緻密な作業が必要である。このため、読影に要する時間および手間や読影結果が読影者の経験やノウハウなどに依存してしまい、この結果、読影に時間がかかったり読影結果に違いが生じてしまったりなどの問題が存在する。
 そこで本発明は、上記の問題に鑑みてなされたものであり、ユーザ本人または別の読影者が過去にした読影のプロセスから読影に要する時間および手間を短縮しつつ読影結果の正確性を向上することが可能な画像表示装置、読影支援システムおよび読影支援プログラムを提供することを目的とする。
 かかる目的を達成するために、本発明による画像表示装置は、時系列に沿った一連の画像群を再生する画像再生部と、前記画像再生部において再生中の画像を読影する際の操作を入力する操作部と、前記画像再生部において再生中の画像に対して前記操作部から入力された操作内容を順序性を持たせつつ記録する読影作業記録部と、前記読影作業記録部に記録された操作内容を用いて前記順序性に従った一連のイメージを生成する読影作業イメージ生成部と、前記読影作業イメージ生成部が生成した前記イメージを表示する読影作業イメージ表示部と、を備えたことを特徴とする。
 本発明による読影支援システムは、上記した本発明による画像表示装置と、前記画像表示装置から前記読影依頼を受信する依頼先情報処理装置と、を備えたことを特徴とする。
 本発明による読影支援プログラムは、時系列に沿った一連の画像群の読影を支援する情報処理装置を機能させるための読影支援プログラムであって、前記一連の画像群を再生する画像再生処理と、前記再生中の画像の読影に入力された操作を監視する読影監視処理と、前記再生中の画像に対して前記読影監視処理で取得された操作内容を前記順序性を持たせつつ記録する読影作業記録処理と、前記読影作業記録処理で記録された操作内容を用いて前記順序性に従った一連のイメージを生成する読影作業イメージ生成処理と、前記読影作業イメージ生成処理で生成された前記イメージを表示する読影作業イメージ表示処理と、を前記情報処理装置に実行させることを特徴とする。
 本発明によれば、一連の画像群に対する読影時の操作内容をイメージ化して表示することが可能となるため、ユーザ本人または別の読影者が過去にした読影のプロセスから読影に要する時間および手間を短縮しつつ読影結果の正確性を向上することが可能な画像表示装置、読影支援システムおよび読影支援プログラムを実現することが可能となる。
図1は、本発明の実施の形態1による画像表示装置を備えたカプセル内視鏡システムの概略構成を示す模式図である。 図2は、本発明の実施の形態1によるカプセル内視鏡の概略構成を示す外視図である。 図3は、本発明の実施の形態1によるカプセル内視鏡および受信装置の概略内部構成を示すブロック図である。 図4は、本発明の実施の形態1による画像表示装置に相当する情報処理装置の概略構成を示すブロック図である。 図5は、本発明の実施の形態1による読影画面の一例を示す画面図である。 図6Aは、本発明の実施の形態1による各被検体内画像が過去に読影済みであるか否かの読影作業データに基づいて生成された読影プロセスバーの一例を示す図である。 図6Bは、本発明の実施の形態1による各被検体内画像の過去の読影における表示時間に基づいて生成された読影プロセスバーの一例を示す図である。 図6Cは、本発明の実施の形態1による各被検体内画像が過去の読影においてキャプチャされたか否かの読影作業データに基づいて生成された読影プロセスバーの一例を示す図である。 図6Dは、本発明の実施の形態1による各被検体内画像の過去の読影において使用された読影支援機能の種類に基づいて生成された読影プロセスバーの一例を示す図である。 図7は、本発明の実施の形態1による読影プロセス確認方法の流れの一部を示すフローチャートである。 図8は、本発明の実施の形態1による読影プロセス確認方法の流れの他の一部を示すフローチャートである。 図9は、本発明の実施の形態1による読影プロセス確認方法の流れのさらに他の一部を示すフローチャートである。 図10は、本発明の実施の形態1による読影プロセス確認方法の流れのさらに他の一部を示すフローチャートである。 図11は、本発明の実施の形態1の変形例1-1による画像表示装置での読影画面の一例を示す図である。 図12は、本発明の実施の形態1の変形例1-2による画像表示装置での読影画面の一例を示す図である。 図13は、本発明の実施の形態1の変形例1-3による画像表示装置での読影プロセス確認方法の流れを示すフローチャートの一部である。 図14は、本発明の実施の形態2による画像表示装置に相当する情報処理装置の概略構成を示すブロック図である。 図15は、本発明の実施の形態2による読影画面の一例を示す図である。 図16は、本発明の実施の形態3による読影支援システムの概略構成を示す模式図である。 図17は、本発明の実施の形態3による画像表示装置に相当する依頼元情報処理装置の概略構成を示す図である。 図18は、本発明の実施の形態3による読影画面の一例を示す図である。 図19は、本発明の実施の形態3による読影依頼動作の流れを示すフローチャートである。 図20は、本発明の実施の形態3の変形例3-1による画像表示装置での読影画面の一例を示す図である。 図21は、本発明の実施の形態3の変形例3-2による画像表示装置での読影画面の一例を示す図である。 図22は、本発明の実施の形態3の変形例3-4による画像表示装置での読影依頼範囲を説明するための図である。 図23は、本発明の実施の形態4による画像表示装置での読影画面の一例を示す図である。 図24は、本発明の実施の形態4による画像表示装置での読影依頼画面の一例を示す図である。
 以下、本発明を実施するための形態を図面と共に詳細に説明する。なお、以下の説明において、各図は本発明の内容を理解でき得る程度に形状、大きさ、および位置関係を概略的に示してあるに過ぎず、したがって、本発明は各図で例示された形状、大きさ、および位置関係のみに限定されるものではない。
 <実施の形態1>
 以下、本発明の実施の形態1による画像表示装置を備えたカプセル内視鏡システムの構成および動作を、図面を用いて詳細に説明する。なお、本実施の形態1では、被検体内導入装置として、経口により被検体内に導入され、被検体の食道から肛門にかけて移動する途中で被検体内を撮像して被検体内画像を取得するカプセル内視鏡を用いた場合を例に挙げる。ただし、本発明はこれに限定されず、例えば被検体の胃や腸などの各種器官に溜まった状態で被検体内を撮像して被検体内画像を取得するカプセル内視鏡など、種々の被検体内導入装置を用いることができる。
 (構成)
 図1は、本実施の形態1による画像表示装置を備えたカプセル内視鏡システム1の概略構成を示す模式図である。図1に示すように、カプセル内視鏡システム1は、被検体900が飲み込める程度の大きさのカプセル内視鏡10と、このカプセル内視鏡10から無線信号として送出された画像信号を受信可能な受信装置30と、受信装置30とUSB(Universal Serial Bus)インタフェースやBluetoothなどの有線または無線の通信インタフェース41、または、フラッシュメモリ(登録商標)などの携帯型記録媒体42等を介してデータの入出力が可能な情報処理装置100と、を備える。受信装置30と情報処理装置100とは、カプセル内視鏡システム1の外部装置であり、情報処理装置100は、本実施の形態1による画像表示装置に相当する。
 受信装置30には、接続ケーブル22や図示しないバラン等を介して体外アンテナ21a~21i(以下、任意の体外アンテナの符号を21とする)が接続される。カプセル内視鏡10から送出された無線信号は、この体外アンテナ21を介して受信装置30に入力される。
 カプセル内視鏡10は、例えば定期的に被検体内画像を取得し、逐次、取得した被検体内画像を受信装置30へ送信する。受信装置30は、カプセル内視鏡10から受信した被検体内画像を随時、携帯型記録媒体42に格納するか、通信インタフェース41を介して情報処理装置100へ送信する。なお、携帯型記録媒体42に格納された被検体内画像は、後に携帯型記録媒体42から情報処理装置100へ入力される。
 情報処理装置100は、例えばモニタなどの表示手段を備えたワークステーションやパーソナルコンピュータなどの情報処理装置で構成され、入力された被検体内画像の一部または全部を後述する読影用ソフトウエアを用いて読影者に表示する。読影者は、読影用ソフトウエアを用いて情報処理装置100に疑似動画表示または静止画表示した被検体内画像を読影することで、被検体900の病状などを診断する。
 また、図2は、本実施の形態1によるカプセル内視鏡10の概略構成を示す外視図である。図2に示すように、カプセル内視鏡10は、一方の端が半球状のドーム形状をしており他方の端が開口された略円筒形状または半楕円球状の容器10bと、容器10bの開口に嵌められることで容器10b内を水密に封止する半球形状の光学ドーム10aと、からなるカプセル型容器(筐体)を備える。なお、容器10bは、主としてカプセル型容器(10a、10b)の胴体部分および一方の端を形成し、光学ドーム10aは、カプセル型容器(10a、10b)の他方の端を形成する。このカプセル型容器(10a、10b)は、例えば被検体900が飲み込める程度の大きさである。また、本実施の形態1では、少なくとも光学ドーム10aが透明な材料で形成される。
 また、カプセル内視鏡10は、被検体900の内部を撮像する手段として撮像部12を備え、撮像時に被検体900内部を照明する手段として照明部13を備える。撮像部12は、例えば、受光面に結像された光学像から被検体内画像の画像データを生成するCCDカメラやCMOSカメラなどの撮像素子12-1と、撮像素子12-1の受光面側に配設された対物レンズなどを含む光学系12-2と、を含む。撮像素子12-1と光学系12-2とは、これらを駆動するための駆動回路等を備えた回路基板12-3に搭載される。
 回路基板12-3には、撮像時に被検体900内へ光を放射するLED(Light Emitting Diode)等で構成された照明部13およびこれの駆動回路も搭載される。照明部13の駆動回路は、後述する信号処理部11からの制御の下で動作することで、例えば定期的(例えば1秒間に2コマ)に被検体内画像の画像信号を生成し、これを後述する信号処理部11に入力する。なお、以下の説明では、撮像部12および照明部13がぞれぞれの駆動回路を含んでいるものとする。
 撮像部12および照明部13が搭載された回路基板12-3は、撮像素子12-1の受光面および照明部13の光放射方向が光学ドーム10aを介して被検体900内を向いた状態でカプセル型容器(10a、10b)内の光学ドーム10a側に配置される。したがって、撮像部12の撮像方向および照明部13の照明方向は、図2に示すように、光学ドーム10aを介してカプセル内視鏡10の外側へ向いている。これにより、照明部13で被検体900内部を照明しつつ撮像部12で被検体900内部を撮像することが可能となる。
 なお、本実施の形態1では、一組の撮像部12および照明部13を備えたカプセル内視鏡10を例に挙げたが、本発明はこれに限定されず、例えば複数組の撮像部および照明部を備えた、いわゆる複眼のカプセル内視鏡を適用することも可能である。例えば二眼のカプセル内視鏡は、カプセル内視鏡の各部を収容する胴体部分の容器が両端に開口を備えた中空の円柱形状を有し、それぞれの開口に透明な光学ドームが嵌められる。また、それぞれの開口には、撮像部および照明部が光学ドームを介してカプセル内視鏡の外を向くように設けられる。
 次に、図3を用いて本実施の形態1によるカプセル内視鏡10および受信装置30の概略内部構成を説明する。図3は、本実施の形態1によるカプセル内視鏡10および受信装置30の概略内部構成を示すブロック図である。
 図3に示すように、カプセル内視鏡10は、被検体900内を撮像して被検体内画像を取得する撮像部12と、撮像時に被検体900内を照明する照明部13と、カプセル内視鏡10内の各部を制御すると共に、撮像部12から読み出された被検体内画像の画像信号に所定の画像処理を実行する信号処理部11と、信号処理部11が実行する各種動作および信号処理部11において所定の画像処理がなされた被検体内画像の画像データを一時記憶するメモリ14と、信号処理部11において所定の画像処理がなされた被検体内画像を無線信号として外部へ送信する送信部15およびアンテナ15aと、カプセル内視鏡10内の各部に電力を供給するバッテリ16と、を含む。なお、バッテリ16には、ボタン電池などの一次電池または二次電池から供給された電力を昇圧等する電源回路が含まれているものとする。
 一方、図3に示すように、受信装置30は、カプセル内視鏡10から無線送信された被検体内画像を体外アンテナ21を介して受信する受信部32と、受信装置30内の各部を制御すると共に受信部32において受信された被検体内画像の画像データに所定の画像処理を実行する信号処理部31と、信号処理部31が実行する各種動作および信号処理部31において所定の画像処理がなされた被検体内画像の画像データを一時記憶するメモリ33と、信号処理部31において所定の画像処理がなされた被検体画像を通信インタフェース41を介して情報処理装置100へ入力するか携帯型記録媒体42に格納するインタフェース部34と、ユーザが受信装置30に対して各種操作指示や設定を入力する操作部35と、ユーザへ各種情報を報知または表示する表示部36と、を備える。
 次に、受信装置30から入力された被検体内画像の画像データを後述する読影用ソフトウエアを用いてユーザへ表示すると共に読影の支援機能を提供する情報処理装置100について、図面を用いて詳細に説明する。図4は、本実施の形態1による画像表示装置に相当する情報処理装置100の概略構成を示すブロック図である。
 図4に示すように、情報処理装置100は、通信インタフェース41または携帯型記録媒体42を介して被検体内画像の画像データを入力するインタフェース部103と、インタフェース部103より入力された画像データの読影環境をユーザへ提供すると共に情報処理装置100内の各部を制御する制御部101と、制御部101が実行する各種プログラムおよび設定情報を記憶すると共にインタフェース部103より入力された画像データや制御部101において生成された各種情報を記憶するメモリ部102と、ユーザが読影やその他の操作を入力する操作部104と、ユーザに被検体内画像を読影させるための読影用画面やその他の画面を表示する表示部105と、を備える。また、情報処理装置100は、入力された被検体内画像を蓄積しておくための外部記録装置180または内部記憶装置を備えていてもよい。さらに、携帯型記録媒体42には、例えばUSBメモリやHDD(ハードディスクドライブ)やMO(光磁気ディスク)やCD-RやDVD-Rなど、種々の記録媒体を用いることが可能である。
 上記において、制御部101および表示部105は、時系列に沿った一群の被検体内画像を再生する画像再生部として機能し、操作部104は、画像再生部において再生中の画像を読影する際の操作を入力する操作部として機能し、制御部101の操作監視部114および表示時間計測部115ならびにメモリ部102は、画像再生部において再生中の画像に対して操作部104から入力された読影作業データを順序性を持たせつつ記録する読影作業記録部として機能し、制御部101の読影プロセスバー生成部116は、読影作業記録部に記録された読影作業データを用いて順序性に従った一連の作業イメージである読影プロセスバーD17を生成する読影作業イメージ生成部として機能し、制御部101および表示部105は、読影作業イメージ生成部が生成したイメージを表示する読影作業イメージ表示部として機能する。
 上記において、制御部101は、例えばメモリ部102に記憶された読影用プログラム110を読み出してこれを実行する。これにより、制御部101には、インタフェース部103を介して入力された一群の被検体内画像を読影させるためにユーザへ提供する機能として、被検体内画像の再生等を操作するための操作機能群111と、表示部105に表示中の被検体内画像に対する読影を支援するための支援機能群112と、表示中の被検体内画像を注目画像としてキャプチャするキャプチャ機能113と、が実現される。また、読影用プログラム110を実行した制御部101には、ユーザが操作部104より入力した各種操作を監視する操作監視部114と、表示部105に表示中の被検体内画像のトータルの表示時間を計測する表示時間計測部115と、操作監視部114または表示時間計測部115によって取得されてメモリ部102に記憶された各種操作内容(以下、読影作業データという)から後述する読影プロセスバーD17を生成する読影プロセスバー生成部116と、が実現される。なお、一群の被検体内画像(以下では、被検体内画像群という場合もある)とは、被検体900に対する一度の観察においてカプセル内視鏡10が時系列に沿って取得した複数の被検体内画像の集合を指す。
 操作機能群111には、再生機能111a、一時停止機能111b、早送り・コマ送り機能111cなどが含まれる。再生機能111aは、一群の被検体内画像を連続して表示部105に再生(疑似動画再生)する機能である。一時停止機能111bは、連続的な再生を停止して停止時点に表示中の被検体内画像を継続表示する機能である。早送り・コマ送り機能111cは、一群の被検体内画像の再生速度を速くしたり遅くしたりする機能である。
 支援機能群112には、例えば、平均色バー表示機能112a、オーバビュー機能112bなどが含まれる。平均色バー表示機能112aは、一群の被検体内画像の色情報を時系列に沿って抽出し、抽出した色情報から時間軸に沿った帯状のイメージ(平均色バー)を生成し、生成した平均色バーをGUI(Graphical User Interface)機能部品として表示部105に表示する機能である。オーバビュー機能112bは、一群の被検体内画像の全体または一部を縮小または間引きして表示部105に一覧表示する機能である。支援機能群112には、上述の平均色バー表示機能112aおよびオーバビュー機能112bの他に、エクスプレスビュー機能、自動速度調整機能、通常表示機能などを含めてもよい。
 ここで、制御部101が実行した読影用プログラム110によって表示部105に表示される読影用のGUI画面(以下、読影画面という)を、図面を用いて詳細に説明すると共に、制御部101によって実行された読影用プログラム110について、詳細に説明する。図5は、本実施の形態1による読影画面の一例を示す画面図である。
 図5に示すように、読影画面D1は、患者である被検体900を識別するための患者情報D11と、被検体900に対して行った診察を識別するための診察情報D12と、一群の被検体内画像が再生される主表示領域D13と、主表示領域D13に表示中の被検体内画像に対する過去または現在の読影についての情報を表示する読影情報表示部D14と、主表示領域D13での被検体内画像の再生をユーザが制御する再生操作ボタン群D15と、一群の被検体内画像から生成された平均色バーD16と、一群の被検体内画像に対して現在または過去に行われた読影の過程(プロセス)を表示する読影プロセスバーD17と、ユーザが主表示領域D13に表示中の被検体内画像をキャプチャする指示を入力するキャプチャボタンD20と、キャプチャされた被検体内画像またはそのサムネイル画像、縮小画像、もしくは間引き画像を一覧表示するキャプチャ画像表示領域D21と、を備える。
 読影情報表示部D14は、例えば、既読影表示マークD14aと支援機能使用状態表示マークD14bとを含む。既読影表示マークD14aは、主表示領域D13に表示中の被検体内画像に対して過去に一度以上読影されたか否かを表示する。したがって、ユーザは、既読影表示マークD14aを目視することで、主表示領域D13に表示中の被検体内画像に対する読影が過去に行われたかを確認することができる。なお、既読影表示マークD14aおよび支援機能使用状態表示マークD14bは、それぞれの情報を色や模様で表現してもよいし、文字やポインタP1の形態で表示してもよい。また、例えば、対象の被検体内画像を過去に読影した際に一時停止で表示させた表示時間に応じて既読影表示マークD14aの色を変化させることで、その被検体内画像がどの程度注目された画像であったかをユーザに確認させることも可能となる。
 支援機能使用状態表示マークD14bは、同じく主表示領域D13に表示中の被検体内画像に対する過去の読影においての読影支援機能の使用状態を表示する。そこで例えば、支援機能使用状態表示マークD14bの色を読影時に使用した読影支援機能に依って変化させることで、その被検体内画像を読影した際に使用された読影支援機能をユーザに目視により確認させることが可能となる。
 また、再生操作ボタン群D15は、制御部101が読影用プログラム110を実行することで実現される操作機能群111への指示をユーザが入力して主表示領域D13での被検体内画像の再生を制御するためのボタンの集合である。この再生操作ボタン群D15には、例えば、頭出しボタンD15aと、コマ送りボタンD15bと、一時停止ボタンD15cと、早送りボタンD15dと、再生ボタンD15eと、巻戻しボタンD15fと、停止ボタンD15gと、が含まれる。
 頭出しボタンD15aは、主表示領域D13に再生する被検体内画像を一群の被検体内画像における先頭画像に戻す指示をユーザが入力するためのボタンである。そこで、ユーザが例えば操作部104から表示部105上のポインタP1を操作して頭出しボタンD15aをクリックすると、制御部101は、例えば再生機能111aを呼び出し、この再生機能111aに、改めて一群の被検体内画像における先頭画像からの主表示領域D13への再生を実行させる。
 コマ送りボタンD15b/早送りボタンD15dは、主表示領域D13における一群の被検体内画像の再生スピードを通常の再生スピードよりも遅く/速くする指示をユーザが入力するためのボタンである。そこで、ユーザが例えばポインタP1を操作してコマ送りボタンD15b/早送りボタンD15dをクリックすると、制御部101は、例えば早送り・コマ送り機能111cを呼び出し、この早送り・コマ送り機能111cに、主表示領域D13での再生スピードを通常の再生スピードよりも遅く/速くさせる。なお、コマ送りボタンD15b/早送りボタンD15dをユーザがクリックした場合、クリック回数に応じて所定スピードを遅く/速くするように構成してもよい。この場合、主表示領域D13における被検体内画像の再生スピードを段階的に変更することが可能となるため、ユーザはより効率的に読影することが可能となる。
 一時停止ボタンD15cは、主表示領域D13における一群の被検体内画像の連続的な再生を一時停止する指示をユーザが入力するためのボタンである。そこで、ユーザが例えばポインタP1を操作して一時停止ボタンD15cをクリックすると、制御部101は、例えば一時停止機能111bを呼び出し、この一時停止機能111bに、主表示領域D13での再生を停止させると共に、停止直前に主表示領域D13に表示していた被検体内画像を主表示領域D13に表示させる。なお、再生の再開は、例えばユーザが再度ポインタP1を用いて一時停止ボタンD15cをクリックしたことで行われる。
 再生ボタンD15eは、主表示領域D13における一群の被検体内画像の再生を開始する指示をユーザが入力するためのボタンである。そこで、ユーザが例えばポインタP1を操作して再生ボタンD15eをクリックすると、制御部101は、例えば再生機能111aを呼び出し、この再生機能111aに、主表示領域D13での一群の被検体内画像の連続的な再生を開始させる。また、例えば、下記の逆再生を実行していた場合、制御部101は、再生機能111aによる再生を逆再生から順再生に切り替える。なお、順再生とは時系列順の再生である。
 巻戻しボタンD15fは、主表示領域D13において一群の被検体内画像を時系列順の並びと反対に再生する、いわゆる逆再生の指示をユーザが入力するためのボタンである。そこで、例えばユーザがポインタP1を用いて巻戻しボタンD15fをクリックすると、制御部101は、例えば再生機能111aを呼び出し、この再生機能111aに、主表示領域D13での一群の被検体内画像の連続的な逆再生を開始させる。
 停止ボタンD15gは、主表示領域D13での被検体内画像の再生を停止させる指示をユーザが入力するためのボタンである。そこで、例えばユーザがポインタP1を用いて停止ボタンD15gをクリックすると、制御部101は、例えば再生機能111aを呼び出し、この再生機能111aに現在実行している再生/逆再生を停止させる。
 平均色バーD16は、一群の被検体内画像から時系列に沿って抽出された色情報を時間軸に沿った帯状のイメージに変換したものである。したがって、ユーザは、平均色バーD16を目視することで、時系列に沿った各被検体画像における赤色が一群の被検体画像全体または管腔902に沿った被検体900内部の全体を通じてどのように変化するかを確認することができる。この平均色バーD16は、例えば読影画面D1中の平均色バーボタンD22をクリックした場合に読影画面D1に組み込まれるように構成してもよい。この場合、ユーザが操作部104よりポインタP1を操作して平均色バーボタンD22をクリックすると、制御部101は、例えば支援機能群112の中から平均色バー表示機能112aを呼び出し、これに一群の被検体画像に対する平均色バーD16のイメージを生成させる。その後、制御部101は、生成された平均色バーD16を読影画面D1における所定の領域に組み込む。これにより、表示部105には、平均色バーD16が組み込まれた読影画面D1が表示される。
 読影プロセスバーD17は、上述したように、一群の被検体内画像に対して現在または過去に行われた読影の過程(プロセス)を一群の被検体内画像の時系列に沿ったイメージに変換して表示するものである。例えば、各被検体内画像に対して現在または過去の読影者がかけた時間もしくは読影スピードをイメージ化し、これを読影プロセスバーD17として表示する場合、ユーザは、読影プロセスバーD17を目視することで、自己または過去の読影者が一群の被検体内画像の全体または管腔902に沿った被検体900内部の全体におけるどの部分に注視して、すなわち時間をかけて読影を行っているかを確認することができる。ただし、読影プロセスバーD17は、各被検体内画像に対して読影者がかけた時間に限らず、各被検体内画像に対する再生モードやフレームレートや一時停止操作の有無やオーバビュー表示の有無など、読影者の読影作業に関する操作の情報を時系列に沿ってイメージ化したものであってもよい。
 この読影プロセスバーD17は、例えば操作監視部114や表示時間計測部115によって取得され、メモリ部102に記憶された読影作業データを読影プロセスバー生成部116が読み出し、これを時系列に沿ってイメージ化することで生成することができる。また、生成された読影プロセスバーD17は、制御部101によって読影画面D1における所定の領域に組み込まれ、表示部105に表示される。
 読影プロセスバー生成部116に読影プロセスバーD17を生成させるために操作監視部114が取得する読影作業データとしては、各被検体内画像の主表示領域D13への表示回数を示す表示履歴情報と、各被検体内画像を主表示領域D13に表示中にユーザにより一時停止ボタンD15cがクリックされた回数を示す停止履歴情報と、各被検体内画像の読影の際にオーバビュー機能112bにて同時に表示した被検体内画像の枚数を示す同時表示履歴情報と、各被検体内画像が読影時にキャプチャされた回数を示すキャプチャ履歴情報と、各被検体内画像を読影する際に使用した読影支援機能の履歴を示す支援機能使用履歴情報と、が含まれる。また、表示時間計測部115が取得する読影作業データとしては、各被検体内画像の主表示領域D13へのトータルの表示時間を示す表示時間情報が含まれる。なお、キャプチャ履歴情報は、対象の被検体内画像がその後にキャプチャ対象から外されたあるいは削除されたか否かには依らず、単にキャプチャされたか否かやキャプチャされた回数であってよい。
 なお、平均色バーD16を読影プロセスバーD17と合せて表示する場合、両者の時間軸はリンクしていることが好ましい。これにより、どの程度の濃さまたは範囲の赤い部分を読影者が注視して読影しているかをユーザに容易に確認させることが可能となる。また、平均色バーD16のほかに、タイムバーなどの種々の情報を時間軸に沿ってイメージ化した他のバーについても、読影プロセスバーD17と合せて表示する場合には、両者の時間軸をリンクさせることが好ましい。
 キャプチャ画像表示領域D21は、ユーザによってキャプチャ指示された被検体内画像またはそのサムネイル画像(以下、単にキャプチャ画像という)を時系列に沿って一覧表示する。なお、サムネイル画像は、対象とする被検体内画像の縮小画像もしくは間引き画像であってもよい。このキャプチャ画像表示領域D21には、スライダD21aが設けられて表示範囲をスライド可能に構成されてもよい。
 ここで、ユーザが例えば操作部104を用いてポインタP1を操作して読影画面D1におけるキャプチャボタンD20をクリックすると、制御部101は、キャプチャ機能113を呼び出す。キャプチャ機能113は、キャプチャボタンD20がクリックされた際に主表示領域D13に表示している被検体内画像を特定し、これの画像データにキャプチャ画像として識別するためのフラグを付加するか、もしくは、これの画像データを別途メモリ部102等に確保した記憶領域に記憶する。これにより、キャプチャ画像が登録される。キャプチャ機能113は、キャプチャ画像として登録された被検体内画像またはそのサムネイル画像を取得または生成し、これをキャプチャ画像表示領域D21に時系列に沿って配列表示する。
 この他、読影画面D1には、例えばオーバビューボタンD23が組み込まれる。ユーザが例えばポインタP1を用いてオーバビューボタンD23をクリックすると、制御部101は、例えば支援機能群112の中からオーバビュー機能112bを呼び出す。オーバビュー機能112bは、例えば外部記録装置180から一群の被検体内画像またはこれらの縮小もしくは間引き画像の全部または一部を読み出し、これらを時系列に沿って一覧表示またはサムネイル表示もしくはエクスプレスビュー表示するオーバビュー画面を生成して、生成したオーバビュー画面を表示部105に表示する。ユーザは、オーバビュー画面を閲覧することで、複数の被検体内画像を同時に確認したり比較したりすることが可能である。
 表示履歴情報、停止履歴情報、表示時間情報、同時表示履歴情報、キャプチャ履歴情報、および、支援機能使用履歴情報等の読影作業データは、例えばメモリ部102における表示履歴記憶部102a、停止履歴記憶部102b、表示時間記憶部102c、同時表示履歴記憶部102d、キャプチャ履歴記憶部102e、および、支援機能使用履歴記憶部102fを含む読影作業データ記憶領域102Aに記憶され、適宜、制御部101によって読み出され、例えば読影プロセスバーD17の生成に使用される。
 次に、本実施の形態1において読影プロセスバー生成部116が生成する読影プロセスバーD17の例について、図面を用いて詳細に説明する。図6Aは、本実施の形態1による各被検体内画像が過去に読影済みであるか否かの読影作業データに基づいて情報処理装置の読影画面に生成された読影プロセスバーの一例を示す図である。図6Bは、本実施の形態1による各被検体内画像の過去の読影における表示時間に基づいて情報処理装置の読影画面に生成された読影プロセスバーの一例を示す図である。図6Cは、本実施の形態1による各被検体内画像が過去の読影においてキャプチャされたか否かの読影作業データに基づいて情報処理装置の読影画面に生成された読影プロセスバーの一例を示す図である。図6Dは、本実施の形態1による各被検体内画像の過去の読影において使用された読影支援機能の種類に基づいて情報処理装置の読影画面に生成された読影プロセスバーの一例を示す図である。
 図6Aに示すように、各被検体内画像が過去に読影済みであるか否かの読影作業データに基づいて生成された読影プロセスバーD17aは、時系列に沿って配列された各被検体内画像に対応する領域を、それぞれの被検体内画像が読影された回数に応じて色分けして表示する。この際、読影された回数が多い被検体内画像に対応する領域ほど、強調された色で表示される。例えば、過去に読影の対象とされていない被検体内画像に対応する領域G10は、白色などの目立たない色で表現され、過去の読影回数が一度である被検体内画像に対応する領域G11は、水色などの比較的淡い色で表現され、過去の読影回数が二度である被検体内画像に対応する領域G12は、青色など、領域G11の色よりも濃い色で表現される。これにより、過去の読影において時系列上または被検体900内部における経路上のどの部分が読影者によって注視されたかを、ユーザが目視により容易に認識できるようになる。
 なお、各被検体内画像が過去に読影済みであるか否かの読影作業データは、例えばメモリ部102における表示履歴記憶部102aに記憶されている。したがって、読影プロセスバー生成部116は、表示履歴記憶部102aより読み出された読影作業データと一群の被検体内画像の時系列上の並びとに基づいて読影プロセスバーD17aを生成する。
 また、図6Bに示すように、各被検体内画像の過去の読影における表示時間に基づいて生成された読影プロセスバーD17bは、時系列に沿って配列された各被検体内画像に対応する領域を、それぞれの被検体内画像のトータルの表示時間に応じて色分けして表示する。この際、表示時間が長い被検体内画像に対応する領域ほど、強調された色で表現される。例えば、過去に全く表示されていない被検体内画像に対応する領域G20は、白色などの目立たない色で表現され、トータルの表示時間が10秒未満である被検体内画像に対応する領域G21は、薄緑色などの比較的淡い色で表現され、トータルの表示時間が10秒以上1分未満である被検体内画像に対応する領域G22は、緑色など、領域G21の色よりも濃い色で表現され、トータルの表示時間が1分以上である被検体内画像に対応する領域G23は、深緑など、領域G22の色よりもさらに濃い色で表現される。これにより、過去の読影において時系列上または被検体900内部における経路上のどの部分が読影者によって注視されたかを、ユーザが目視により容易に認識できるようになる。なお、各被検体内画像の表示時間は、言い換えれば一群の被検体内画像の疑似動画再生における再生スピードに相当する。このため、読影プロセスバーD17を各被検体内画像の過去の読影における表示時間とする場合、主表示領域D13に表示中の被検体内画像の時間軸上の位置を示すタイムバーの代わりとして読影プロセスバーD17bを用いてもよい。
 なお、各被検体内画像の過去の読影における表示時間は、例えばメモリ部102における表示時間記憶部102cに読影作業データの一部として記憶されている。したがって、読影プロセスバー生成部116は、表示時間記憶部102cより読み出された表示時間と一群の被検体内画像の時系列上の並びとに基づいて読影プロセスバーD17bを生成する。
 また、図6Cに示すように、各被検体内画像が過去の読影においてキャプチャされたか否かの読影作業データに基づいて生成された読影プロセスバーD17cは、時系列に沿って配列された各被検体内画像に対応する領域を、それぞれの被検体内画像が一度でもキャプチャされたか否かに応じて色分けして表示する。例えば、過去に一度もキャプチャされていない被検体内画像に対応する領域G30は、白色などの目立たない色で表現され、過去に一度でもキャプチャされた被検体内画像に対応する領域G31は、黒色など、領域G30に対して十分なコントラストが得られる色で表現される。これにより、過去の読影において時系列上または被検体900内部における経路上のどの部分が読影者によって注視されたかを、ユーザが目視により容易に認識できるようになる。
 なお、各被検体内画像が過去の読影においてキャプチャされたか否かの読影作業データは、例えばメモリ部102におけるキャプチャ履歴記憶部102eに記憶されている。したがって、読影プロセスバー生成部116は、キャプチャ履歴記憶部102eより読み出された読影作業データと一群の被検体内画像の時系列上の並びとに基づいて読影プロセスバーD17cを生成する。
 また、図6Dに示すように、各被検体内画像の過去の読影において使用された読影支援機能の種類に基づいて生成された読影プロセスバーD17dは、時系列に沿って配列された各被検体内画像に対応する領域を、それぞれの被検体内画像を読影する際に使用された読影支援機能、例えば平均色バー表示機能112a、オーバビュー機能112bなどに応じて色分けして表示する。この際、読影プロセスバーD17dは、使用された読影支援機能の種類に応じて色分けされると共に、各被検体内画像に対して使用された読影支援機能の種類の数が多い被検体内画像に対応する領域ほど、強調された色で表現される。例えば、過去の読影において読影支援機能が使用されていない被検体内画像に対応する領域G40は、白色などの目立たない色で表現され、過去の読影において使用された読影支援機能が平均色バー表示機能112aである被検体内画像に対応する領域G41は、朱色などの比較的淡い色で表現され、過去の読影において使用された読影支援機能がオーバビュー機能112bである被検体内画像に対応する領域G42は、黄色などの比較的淡い色であって領域G41と異なる色で表現され、過去の読影において使用された読影支援機能が平均色バー表示機能112aとオーバビュー機能112bとの両方である被検体内画像に対応する領域G43は、紫などの領域G41およびG42よりも強調された色で表現される。これにより、過去の読影において時系列上または被検体900内部における経路上のどの部分が読影者によって注視されたか、すなわち、より多くの読影支援機能を使用して読影されたかを、ユーザが目視により容易に認識できるようになる。過去の読影において使用された読影支援機能の種類は、例えばメモリ部102における表示時間記憶部102cに読影作業データの一部として記憶されている。
 なお、図6A~図6Dに示す読影プロセスバーD17a~D17dでは、それぞれの読影作業データの違いを色の濃淡で表現したが、本発明はこれに限定されず、例えば領域にマッピングするテクスチャの種類や輝度やそれらの組み合わせで表現してもよい。なお、読影プロセスバーD17の表示は、上記例が2つ以上組み合わされたものであっても良い。また、読影プロセスバーD17のイメージは、バー形状に限定されず、例えばグラフなど、読影プロセスを視覚的に表現できるものであれば如何様にも変形してよい。
 (動作)
 次に、本実施の形態1による情報処理装置100において実現される読影プロセス確認動作について、図面を用いて詳細に説明する。図7~図10は、本実施の形態1による読影プロセス確認方法の流れを示すフローチャートである。なお、以下では、読影用プログラム110を実行して読影プロセス確認動作を実現する制御部101の動作に着目して説明する。
 図7~図10に示すように、制御部101は、例えばメモリ部102等に記憶された読影用プログラム110を読み出して実行して読影プロセス確認動作を開始すると、まず、インタフェース部103を介して外部記録装置180より一群の被検体内画像の画像データを読み出す(ステップS101)。なお、読影用プログラム110を実行することにより、制御部101には図4に示すような機能が実現される。
 次に制御部101は、ユーザが操作部104からポインタP1を用いて再生ボタンD15eをクリックしたか否かを監視する(ステップS102)。ステップS102の判定の結果、再生ボタンD15eがクリックされていた場合(ステップS102のYes)、制御部101は、操作機能群111における再生機能111aを呼び出し、この再生機能111aに一群の被検体内画像における先頭の画像を表示部105に表示させる(ステップS103:画像再生処理)。
 また、制御部101は、各被検体内画像の表示時間、すなわち1フレームの再生時間として設定されている時間を不図示のタイマ等にセットする(ステップS104)。続いて制御部101は、セットした再生時間の消費を開始する(ステップS105)と共に、表示時間計測部115を用いて表示部105に表示中の被検体内画像のトータルの表示時間を計測する(ステップS106)。ステップS104では、再生時間が初期値、例えば3秒に設定されている場合、制御部101は、この初期値を1フレームの再生時間として設定し、後述するステップS120またはS122において再生時間が延長または短縮されている場合、この延長または短縮された時間を1フレームの再生時間として設定する。また、ステップS106では、例えば対象の被検体内画像が2回目の表示の場合、表示時間計測部115は、1回目の表示時間に加算して2回目の表示時間を計測する。
 次に制御部101は、操作監視部114および表示時間計測部115によってメモリ部102に格納された読影作業データを取得し(ステップS107)、この取得した読影作業データに基づいて読影プロセスバーD17と既読影表示マークD14aおよび支援機能使用状態表示マークD14bとを生成する(ステップS108:読影作業イメージ生成処理)。また、生成した読影プロセスバーD17、既読影表示マークD14aおよび支援機能使用状態表示マークD14bを読影画面D1に組み込み(ステップS109)、組み込み後の読影画面D1で表示部105に表示中の読影画面D1を更新する(ステップS110:読影作業イメージ表示処理)。なお、操作監視部114および表示時間計測部115は、常時、操作部104から読影画面D1に対して入力された操作内容を監視し、または各被検体画像の表示時間を計測し、これをメモリ部102の所定の領域に格納している(読影監視処理、読影作業記録処理)。
 なお、制御部101がステップS107においてメモリ部102から読み出す読影作業データは、過去に行われた読影において操作監視部114および表示時間計測部115が取得し、メモリ部102に蓄積しておいた読影作業データであってもよいし、現在進行中の読影において操作監視部114および表示時間計測部115が取得し、メモリ部102に蓄積した読影作業データであってもよい。過去の読影において取得された読影作業データである場合、読影画面D1には、過去の読影のプロセスを時系列に沿って表現する読影プロセスバーD17が表示される。この場合、過去の読影者がした読影を読影プロセスバーD17から学ぶことが可能となる。この他、過去の読影において注視された被検体内画像または過去の読影において注視されなかった被検体内画像に着目した読影なども可能である。また、現在進行中の読影において取得された読影作業データである場合、読影画面D1には、読影開始から現在までの読影プロセスを時系列に沿って表現する読影プロセスバーD17が表示される。この場合、前の被検体内画像に逆上って読影する際に、どの辺りの被検体内画像に自分が注視したかを容易に特定することが可能となる。
 さらには、制御部101がステップS107においてメモリ部102から読み出す読影作業データを、過去に行われた読影についての読影作業データと現在進行中の読影についての読影作業データとの両方としてもよい。この場合、読影プロセスバー生成部116が、過去の読影についての読影作業データを用いて作成した読影プロセスバーD17を、現在進行中の読影について新たに取得された読影作業データで略リアルタイムに更新するように構成することが可能となる。
 次に制御部101は、ユーザが操作部104からポインタP1を用いて再生操作ボタン群D15中のいずれかのボタンを選択したか否かを判定する。例えば制御部101は、まず、ユーザがポインタP1を用いて一時停止ボタンD15cをクリックしたか否かを判定する(ステップS111)。ステップS111の判定の結果、一時停止ボタンD15cがクリックされていた場合(ステップS111のYes)、制御部101は、現在、表示部105での再生を一時停止しているか否かを判定し(ステップS112)、一時停止中でない場合(ステップS112のNo)、一時停止機能111bを用いて表示部105での一群の被検体内画像の再生を停止する(ステップS113)と共に、不図示のタイマを用いて計測している再生時間の消費を停止する(ステップS114)。その後、制御部101は、ステップS107に帰還する。なお、表示部105での被検体内画像の再生停止中も、不図示のタイマによる表示時間の計測は継続されている。
 一方、ステップS112の判定の結果、一時停止中である場合(ステップS112のYes)、制御部101は、一時停止機能111bを用いて停止している被検体内画像の再生を再開する(ステップS115)と共に、セットした再生時間の消費を再開する(ステップS116)。その後、制御部101は、図9のステップS132へ移行する。
 また、ステップS111の判定の結果、一時停止ボタンD15cがクリックされていない場合(ステップS111のNo)、制御部101は次に、ユーザがポインタP1を用いてキャプチャボタンD20をクリックしたか否かを判定し(ステップS117)、キャプチャボタンD20がクリックされていた場合(ステップS117のYes)、キャプチャ機能113を用いて、現在、表示部105に表示中の被検体内画像の画像データをキャプチャし(ステップS118)、その後、図9のステップS132へ移行する。
 また、ステップS117の判定の結果、キャプチャボタンD20がクリックされていない場合(ステップS117のNo)、制御部101は次に、ユーザがポインタP1を用いてコマ送りボタンD15bをクリックしたか否かを判定し(ステップS119)、コマ送りボタンD15bがクリックされていた場合(ステップS119のYes)、現在設定されている1フレームの再生時間を早送り・コマ送り機能111cを用いて所定時間、例えば5秒延長する(ステップS120)。例えば1フレームの再生時間としてセットされている時間の初期値が3秒であって延長する時間が5秒である場合、延長後、1フレームの再生時間としてセットされる時間は8秒となる。その後、制御部101は、図9のステップS132へ移行する。なお、例えば再生時間に上限値、例えば60秒を設け、この上限値以上とならないように再生時間が設定されるように構成してもよい。
 また、ステップS119の判定の結果、コマ送りボタンD15bがクリックされていない場合(ステップS119のNo)、制御部101は次に、ユーザがポインタP1を用いて早送りボタンD15dをクリックしたか否かを判定し(ステップS121)、早送りボタンD15dがクリックされていた場合(ステップS121のYes)、現在設定されている1フレームの再生時間を早送り・コマ送り機能111cを用いて所定時間、例えば5秒短縮する(ステップS122)。例えば1フレームの再生時間としてセットされている時間が18秒であって短縮する時間が5秒である場合、短縮後、1フレームの再生時間としてセットされる時間は13秒となる。その後、制御部101は、図9のステップS132へ移行する。なお、例えば再生時間に下限値、例えば0.5秒を設け、短縮後の再生時間がこの下限値以下となる場合、自動的に下限値が再生時間として設定されるように構成するとよい。
 また、ステップS121の判定の結果、早送りボタンD15dがクリックされていない場合(ステップS121のNo)、制御部101は、図9のステップS123へ移行する。ステップS123では、制御部101は、ユーザがポインタP1を用いて頭出しボタンD15aをクリックしたか否かを判定し(ステップS123)、頭出しボタンD15aがクリックされていた場合(ステップS123のYes)、図7のステップS103へ帰還し、以降、先頭の被検体内画像からの再生を開始する。
 また、ステップS123の判定の結果、頭出しボタンD15aがクリックされていない場合(ステップS123のNo)、制御部101は次に、ユーザがポインタP1を用いて巻戻しボタンD15fをクリックしたか否かを判定する(ステップS124)。ステップS124の判定の結果、巻戻しボタンD15fがクリックされていた場合(ステップS124のYes)、制御部101は、続いて現在、巻戻し(逆再生)中であるか否かを判定し(ステップS125)、逆再生中で無い場合(ステップS125のNo)、図7のステップS101において読み出した一群の被検体内画像の時系列に沿った並びを逆転させる(ステップS126)。また、制御部101は、再生機能111aを用いて、現在表示中の被検体内画像から逆転した時系列に沿って一群の被検体内画像を再生する(ステップS127)。その後、制御部101は、図9のステップS132へ移行する。
 一方、ステップS125の判定の結果、逆再生中である場合(ステップS125のYes)、制御部101は、逆転されている一群の被検体内画像の並びを順列に戻し(ステップS128)、続いて、再生機能111aを用いて現在表示中の被検体内画像から順列の時系列に沿って一群の被検体内画像を再生する(ステップS129)。その後、制御部101は、図9のステップS132へ移行する。
 また、ステップS124の判定の結果、巻戻しボタンD15fがクリックされていない場合(ステップS124のNo)、制御部101は、ユーザがポインタP1を用いて停止ボタンD15gをクリックしたか否かを判定し(ステップS130)、停止ボタンD15gがクリックされていた場合(ステップS130のYes)、再生機能111aに現在進行中の再生を停止させ(ステップS131)、図10のステップS144へ移行する。一方、停止ボタンD15gがクリックされていない場合(ステップS130のNo)、制御部101は、図10のステップS135へ移行する。
 また、ステップS116、S118,S120,S122,S127,S129以降の図9のステップS132では、制御部101は、現在表示中の被検体内画像について現在設定されている再生時間が消費され終わったか否かを判定し(ステップS132)、消費され終わっていない、すなわち未だ再生時間が残っている場合(ステップS132のNo)、図7のステップS107へ帰還する。一方、再生時間が消費され終わっていた場合(ステップS132のYes)、制御部101は、時系列において次に表示対象とする被検体内画像が存在するか否かを判定する(ステップS133)。ステップS133の判定の結果、次に表示対象とする被検体内画像が存在する場合(ステップS133のYes)、制御部101は、再生機能111aに次の被検体内画像を表示させ(ステップS134)、その後、図7のステップS104へ帰還する。一方、ステップS133の判定の結果、次の被検体内画像が存在しない、すなわち全ての被検体内画像を表示し終えた場合(ステップS133のNo)、制御部101は、ステップS131へ移行して、一群の被検体内画像の再生を停止し(ステップS131)、その後、図10のステップS144へ移行する。
 また、ステップS102の判定の結果、再生ボタンD15eがクリックされていない場合(ステップS102のNo)、もしくは、ステップS130の判定の結果、停止ボタンD15gがクリックされていない場合、制御部101は、ユーザがポインタP1を用いて平均色バーボタンD22をクリックしたか否かを判定する(ステップS135)。ステップS135の判定の結果、平均色バーボタンD22がクリックされていた場合(ステップS135のYes)、制御部101は、支援機能群112における平均色バー表示機能112aを呼び出し、平均色バー表示機能112aに一群の被検体内画像についての平均色バーD16を生成させる(ステップS136)。また、制御部101は、生成した平均色バーD16を読影画面D1の所定の領域に組み込み(ステップS137)、続いて平均色バーD16を組み込み後の読影画面D1で表示部105を更新する(ステップS138)。その後、制御部101は、図10のステップS144へ移行する。
 一方、ステップS135の判定の結果、平均色バーボタンD22がクリックされていない場合(ステップS135のNo)、制御部101は次に、ユーザがポインタP1を用いてオーバビューボタンD23をクリックしたか否かを判定し(ステップS139)、オーバビューボタンD23がクリックされていた場合(ステップS139のYes)、一群の被検体内画像の全部または一部のサムネイル画像を時系列にしたがって一覧表示するオーバビュー画面を生成し(ステップS140)、これを表示部105に表示する(ステップS141)。その後、制御部101は、読影画面D1への復帰指示がユーザから操作部104を用いて入力されたか否かを判定し(ステップS142)、読影画面D1への復帰指示が入力されていた場合(ステップS142のYes)、読影画面D1を表示し(ステップS143)、その後、ステップS144へ移行する。なお、オーバビュー画面の表示は、読影画面D1への復帰が指示されるまで継続される(ステップS142のNo)。
 また、図10のステップS144では、制御部101は、読影用プログラム110の終了指示がユーザから操作部104を用いて入力されたか否かを判定し(ステップS144)、入力されていた場合(ステップS144のYes)、読影用プログラム110を終了して読影支援動作を終了する。一方、読影用プログラム110の終了指示が入力されていなければ(ステップS144のNo)、制御部101は、ステップS102へ帰還し、以降、同様の動作を実行する。
 以上のように情報処理装置100では、読影者が行った読影のプロセスを記録し、これを視覚的に表現する機能を備えるため、ユーザ本人または別の読影者が過去にした読影のプロセスを、後に容易に確認することが可能となる。これにより、ユーザによる再読影時の時間および手間の短縮や読影結果の正確性を確保することが可能となる。例えば読影を他の読影者が行った場合や外部の読影者に依頼した場合などでは、読影時の作業内容をすべて確認し、正しく読影がなされているかを確認することが望ましいが、本実施の形態1では、読影時の作業内容、すなわち情報処理装置100の操作内容を読影プロセスバーD17を用いて視覚的に表現しているため、このような要求に対しても的確に応じることが可能である。また、初心者などの読影未熟者が熟練者の技術を習得しようにも、熟練者がどのような手順や視点で読影をしているかを知ることが困難であったが、本実施の形態1では、熟練者がどのような手順や視点で読影をしているかを知る術の一つとして読影プロセスバーD17を表示するため、読影未熟者が容易に読影技術を学ぶことが可能になる。
 (変形例1-1)
 また、上記実施の形態1では、一つの読影画面D1に1つの読影プロセスバーD17が組み込まれていたが、本発明はこれに限定されず、例えば、図11に示す本実施の形態1の変形例1-1による読影画面D1-1の一例のように、異なる読影作業データについての読影プロセスバーD17a~D17dが上下に並列に表示されてもよい。
 具体的に、本変形例1-1では、操作監視部114および表示時間計測部115ならびにメモリ部102よりなる読影作業記録部は、同一の読影作業に対して内容の異なる複数の読影作業データを記録し、読影プロセスバー生成部116は、内容の異なる複数の読影作業データのいずれか1つまたは複数を用いて内容の異なる複数の読影作業データごとの読影プロセスバーD17a~D17dを生成し、制御部101および表示部105よりなる読影作業イメージ表示部は、内容の異なる複数の読影作業データごとの読影プロセスバーD17a~D17dを表示する。
 これにより、ユーザは、多くの読影作業データを同時に視覚を通して認識することが可能となる。なお、上下に配置される読影プロセスバーD17a~D17dは、時間軸が上下間で対応しているとよい。すなわち、制御部101および表示部105よりなる読影作業イメージ表示部が読影作業ごとの読影プロセスバーD17a~D17d間で順序性を対応付けしつつ、内容の異なる複数の読影作業データごとに読影プロセスバーD17a~D17dを表示することが好ましい。この際、制御部101の読影プロセスバー生成部116は、読影作業ごとに異なる色または模様を用いて読影作業ごとの読影プロセスバーD17a~D17dを生成してもよい。
 (変形例1-2)
 また、1つの読影画面に複数の読影プロセスバーD17を組み込む場合、組み込まれる読影プロセスバーD17は、異なる読影作業データについての読影プロセスバーD17a~D17dの他に、例えば、図12に示す本実施の形態1の変形例1-2による読影画面D1-2の一例のように、同一の被検体内画像群に対する異なる読影の際に取得された読影作業データから生成された読影プロセスバーD17-1、D17-2であってもよい。
 具体的に、本変形例1-2では、操作監視部114および表示時間計測部115ならびにメモリ部102よりなる読影作業記録部が異なる読影作業ごとに読影作業データを記録し、制御部101の読影プロセスバー生成部116よりなる読影作業イメージ生成部が読影作業ごとの読影作業データのいずれか1つまたは複数を用いて読影作業ごとのイメージである読影プロセスバーD17-1,D17-2を生成し、制御部101および表示部105よりなる読影作業イメージ表示部が読影作業ごとの読影プロセスバーD17-1,D17-2を表示する。
 以上のように構成することで、本変形例1-2では、ユーザは、過去の複数の読影プロセスを同時に視覚を通して認識することが可能となる。なお、上下に配置される読影プロセスバーD17-1~D17-2は、時間軸が上下間で対応しているとよい。また、上下に並列表示される読影プロセスバーでは、最新の読影プロセスバーが最上または最下に位置し、これに対して残りの読影プロセスバーが読影作業自体の時系列順に下または上に配置されていることが好ましい。すなわち、制御部101および表示部105よりなる読影作業データ表示部が読影作業ごとの読影プロセスバーD17-1,D17-2間で順序性を対応付けしつつ、読影作業ごとに読影プロセスバーD17-1,D17-2を表示することが好ましい。この際、制御部101の読影プロセスバー生成部116は、読影作業ごとに異なる色または模様を用いて読影作業ごとの読影プロセスバーD17-1,D17-2を生成してもよい。
 (変形例1-3)
 また、上記実施の形態1またはその変形例では、1回の読影ごとの読影作業データを用いて読影プロセスバーD17を生成したが、本発明はこれに限定されず、例えば同一の被検体内画像群に対して行われた複数の読影時にそれぞれ取得された読影作業データの平均をとって読影プロセスバーを生成してもよい。以下、この場合を本実施の形態1の変形例1-3として、図面を用いて詳細に説明する。ただし、上記実施の形態1と同様の構成および動作については、それを引用または参照することで、その詳細な説明を省略する。
 図13は、本変形例1-3による読影プロセス確認方法の流れを示すフローチャートの一部である。ただし、他の動作は、上記実施の形態1で図6~図10を用いて説明した動作と同様であるため、ここでは詳細な説明を省略する。図13に示すように、本変形例1-3では、図6~図10に示す読影プロセス確認方法におけるステップS107およびS108が、ステップS107-1,S108-1およびS108-2に置き換えられる。
 ステップS107-1では、制御部101は、メモリ部102に読影ごとに格納された読影作業データを取得する。次に制御部101は、読影ごとに取得した読影作業データの平均値を算出し(ステップS108-1)、続いて、算出した読影作業データの平均値に基づいて読影プロセスバーD17と既読影表示マークD14aおよび支援機能使用状態表示マークD14bとを生成する(ステップS108-2)。その後、上記実施の形態1と同様のステップS109へ移行し、以降、同様の動作を実行する。
 以上のように、本変形例1-3では、制御部101の読影プロセスバー生成部116は、操作監視部114および表示時間計測部115ならびにメモリ部102よりなる読影作業記録部に異なる読影作業ごとに記録された複数の読影作業データの値の平均値を算出する平均値算出部としても機能する。また、制御部101の読影プロセスバー生成部116は、平均値算出部が算出した平均値を用いて読影プロセスバーD17を生成する。このように動作することで、本変形例1-3では、ユーザが複数回の読影の平均からもっともらしい読影プロセスを一目で認識することが可能となるため、ユーザによる再読影時の時間や手間をより短縮することが可能となると共に、読影未熟者をより的確に教育することが可能となる。
 なお、平均値とは、例えば、読影作業データが各被検体内画像の表示時間あるいは再生スピードであれば、同一または対応する被検体内画像についての複数の表示時間あるいは再生スピードの平均値とすることができ、読影作業データが表示履歴情報であれば、読影回数に対する同一または対応する被検体内画像についての表示確率とすることができる。
 また、平均値の算出に使用する読影作業データには、過去の読影時に取得した読影作業データだけでなく、現在進行中の読影において取得した読影作業データが含まれていてもよい。さらに、平均値を算出する読影作業データを、例えば読影作業ごとに読影開始時に自動的に付与される読影IDや読影者に予め付与された読影者ID等のパラメータに基づいてユーザが選択できるように構成してもよい。その他の構成および動作は、上記した実施の形態またはその変形例と同様であるため、ここでは詳細な説明を省略する。
 (変形例1-4)
 また、例えば読影作業データを読影者や被検体や被検体の症例ごとにメモリ部102に記録してもよい。この場合、読影者や被検体や被検体の症例ごとに優先度を設定することが可能である。読影作業データに優先度を設定することで、上記実施の形態1では、読影画面D1に組み込む読影プロセスバーD17の生成に自動的に優先度の高い読影作業データを用いることが可能となる。また、上記変形例1-2では、複数の読影プロセスバーD17-1~D17-2の上下の配置を優先度順とすることが可能となる。さらに、上記変形例1-3では、読影作業データの平均値を算出する際、優先度に基づいてそれぞれの読影作業データに重み付けをすることが可能となる。
 なお、各読影作業データの優先度は、制御部101が読影作業データごとに優先度を付加する優先度付加部として機能することで設定される。この際、ユーザが優先度を自由に設定できてもよいし、読影者や被検体や被検体の症例ごとに設定されていてもよいし、あるいは、読影作業データの内容、例えば再生スピードや読影支援機能に予め付与した優先度などによって自動的または手動で付与されてもよい。例えば読影支援機能では、エクスプレスビュー機能、平均色バー表示機能112a、オーバビュー機能112b、自動速度調整機能、通常表示機能の順で優先度を設定することができ、これらのうち何れが用いられているかで自動的に読影作業データに優先度を付与することができる。
 <実施の形態2>
 次に、本発明の実施の形態2による画像表示装置の構成および動作を、図面を用いて詳細に説明する。なお、本実施の形態2では、上記実施の形態1と同様のカプセル内視鏡システム1を例に挙げる。ただし、本実施の形態2では、上記実施の形態1における情報処理装置100が、図14に示す情報処理装置200に置き換えられる。また、以下において、上記実施の形態1またはその変形例と同様の構成または動作については、同一の符号を付し、その詳細な説明を省略する。なお、図14は、本実施の形態2による情報処理装置200の概略構成を示すブロック図であり、情報処理装置200は本実施の形態2による画像表示装置に相当する。
 図14に示すように、本実施の形態2による情報処理装置200は、制御部101において読影用プログラム210が実行される。読影用プログラム210は、上記実施の形態1における読影用プログラム110の構成に、読影プロセス再生部211を実現する構成が追加される。この読影プロセス再生部211は、制御部101がメモリ部102より読み出した一群の被検体内画像に対する過去の読影時の読影作業データから、読影の際に行われた各種操作を、被検体内画像の再生に併せて再現する機能を実現する。
 また、図15に、本実施の形態2による読影画面D2の一例を示す。図15に示すように、読影画面D2には、図5に示す読影画面D1に組み込まれた各種機能に加え、過去の読影プロセスを再現する読影プロセス再生ボタンD24が組み込まれている。ユーザが操作部104からポインタP1を操作して読影プロセス再生ボタンD24をクリックすると、主表示領域D13には、過去の読影時に行われた順再生、逆再生、一時停止、早送り、コマ送り等の再生操作に応じて一連の被検体内画像が再生される。この際、キャプチャボタンD20や平均色バーボタンD22やオーバビューボタンD23等の操作に応じた機能の指示操作も再現される。
 また、読影画面D2には、読影プロセス再生に対する操作ボタンとして、巻戻しボタンD24a、一時停止ボタンD24b、早送りボタンD24c、コマ送りボタンD24d、および、停止ボタンD24eが組み込まれている。ユーザがポインタP1を用いて巻戻しボタンD24aをクリックすると、読影画面D2において再現中の読影プロセスが巻き戻し、すなわち逆再生される。同様に、ポインタP1を用いて一時停止ボタンD24b、早送りボタンD24c、コマ送りボタンD24d、または、停止ボタンD24eをクリックすると、読影画面D2において再現中の読影プロセスが、一時停止、早送り、コマ送り、または、停止される。
 以上のように、本実施の形態2によれば、読影画面D2に過去の読影時の操作、読影プロセスがリアルに再現される。この結果、ユーザは、読影プロセスの再現から本人または別の読影者が過去にした読影のプロセスを、容易かつリアリティを持って確認することが可能となる。また、過去の読影がリアルに再現されるため、その読影または読影者に対する評価を的確に行うことが可能となる。さらに、読影プロセスがリアルに再現されるため、ユーザが読影を学習する際の教材として有用である。
 なお、他の構成および動作は、上記した実施の形態またはその変形例と同様であるため、ここでは詳細な説明を省略する。
 (変形例2-1)
 また、上記実施の形態2では、読影プロセス再生部211がメモリ部102から読み出した読影作業データをそのまま読影画面D2に再現していた。したがって、一つの被検体内画像群に対して複数の読影が行われることで1つの被検体内画像群に対して複数回分の読影作業データがメモリ部102に蓄積されていた場合、いずれの読影プロセスを再現するかをユーザに選択させる必要がある。ただし、本発明はこれに限定されず、例えば上記実施の形態1の変形例1-3と同様に、複数回分の読影作業データの平均値を算出し、これを読影画面D2に再現するように情報処理装置を構成してもよい。
 なお、複数回分の読影作業データから平均値を算出する方法は、上記実施の形態1の変形例1-3と同様であり、算出した平均値から読影画面D2に読影プロセスを再現する方法は、上記実施の形態2と同様であるため、ここでは詳細な説明を省略する。
 (変形例2-2)
 さらに、上記実施の形態1の変形例1-4と同様に、読影者や被検体や被検体の症例ごとに優先度を設定した場合、再現する読影プロセスをこの優先度に基づいて自動的に選択するようにも情報処理装置を構成することが可能である。
 <実施の形態3>
 次に、本発明の実施の形態3による画像表示装置を備えたカプセル内視鏡システムおよび読影支援システムの構成および動作を、図面を用いて詳細に説明する。なお、本実施の形態3では、上記実施の形態1と同様のカプセル内視鏡システム1を例に挙げる。ただし、本実施の形態3では、上記実施の形態1における情報処理装置100が、後述する依頼元情報処理装置310に置き換えられる。依頼元情報処理装置310は、本実施の形態3による画像表示装置に相当する。また、以下において、上記実施の形態1、2またはその変形例と同様の構成または機能については、同一の符号を付し、その詳細な説明を省略する。
 一般的に、カプセル内視鏡システムでは、被検体に対する一度の観察で約6万枚、再生時間に換算すると8時間程度という大量の被検体内画像が撮像される。このため、一度の観察で得られた一群の被検体内画像に対する読影作業では、膨大な量の被検体内画像を読影しなければならない。そこで、一群の被検体内画像における時間軸上または経路上の部分ごとに、異なる読影者に読影させることで、一人の読影者にかかる読影時の負担を軽減することが可能である。例えば、一群の被検体内画像における一部についての読影を外部の医師または医療従事者へ依頼し、残りを内部の読影者が読影できるように構成することで、内部の読影者にかかる読影時の負担を軽減することが可能である。
 ただし、従来のカプセル内視鏡システムでは、一群の被検体内画像の一部を、時系列的な順序性を持ったまま切り出すことができない。このため、一群の被検体内画像を他の読影者へ依頼する際に郵送によるデータのやり取りを行う場合、DVD-RAMなどの大容量の記録メディアが必要になる。また、例えばネットワーク経由で読影依頼を行う場合、膨大な量のネットワークトラフィックを発生させるため、ネットワークに一時的なジャムを発生させる可能性が存在する。
 また、一群の被検体内画像の一部を時系列的な順序性を保ちつつ切り出したとしても、切り出した部分の読影時の読影作業データを、元の一群の被検体内画像に対する読影時の読影作業データに、時系列的な順序性を維持したまま組み込むことができない。
 そこで本実施の形態3では、一群の被検体内画像における一部の被検体内画像を時系列的な順序性を保ったまま切り出して読影依頼をすることを可能とする。また、例えば外部に読影依頼した一部の被検体内画像に対する読影時の読影作業データを、元の一群の被検体内画像に対する読影時の読影作業データに、時系列的な順序性を維持したまま組み込むことを可能とする。
 図16は、本実施の形態による読影支援システム300の概略構成を示す模式図である。図16に示すように、読影支援システム300は、ネットワーク390を介してカプセル内視鏡システム1と依頼先情報処理装置380A~380C…とが通信可能に接続されている。なお、以下の説明において、任意の依頼先情報処理装置の符号を380とする。
 ネットワーク390には、例えばインターネットやLAN(Local Area Network)やWAN(Wide Area Network)や全銀協標準連通信プロトコル等を用いた専用回線など、種々のネットワークを適用することが可能である。また、依頼先情報処理装置380には、例えばパーソナルコンピュータやワークステーションなどの情報処理装置を用いることが可能である。
 本実施の形態3による依頼元情報処理装置310の概略構成を図17に示す。図17に示すように、依頼元情報処理装置310は、上記実施の形態またはその変形例による情報処理装置100に、ネットワークインタフェース部311が追加された構成を備える。すなわち、本実施の形態3では、情報処理装置100にネットワーク通信機能が付加される。なお、ネットワークインタフェース部311は、NIC(Network Internet Card)などの一般的な通信手段でよい。
 また、図17に示すように、依頼元情報処理装置310の制御部101では、上述の読影用プログラム110の他に、読影依頼用プログラム320が実行される。また、依頼元情報処理装置310のメモリ部102には、読影作業データ記憶領域102Aの他に、依頼先として登録された読影者の情報、例えば氏名または名称、住所または居所、電子メールアドレスやファクシミリ番号等の連絡先アドレス等を格納する依頼先情報記憶部102gと、外部へ依頼した被検体内画像に対する読影の進捗情報を記憶する読影依頼進捗情報記憶部102hと、を含む。なお、読影の進捗情報には、読影依頼が済であるか否かの情報、依頼先、読影依頼日、郵送または通信等の依頼方法、読影結果の回答予定日、読影結果の回答日などを含めるとよい。
 読影依頼用プログラム320は、例えばメモリ部102に記憶されており、これを制御部101が適宜読み出して実行することで機能する。読影依頼用プログラム320を実行した制御部101には、一連の被検体内画像の中から読影依頼の対象とする被検体内画像を選択する機能を実現する読影対象画像選択機能321と、選択された被検体内画像の読影依頼データを作成する読影依頼データ作成機能322と、作成された読影依頼データをネットワークインタフェース部311を介して依頼先情報処理装置380へ送信する読影依頼送信機能323と、各被検体内画像について読影依頼をしたか否かを管理する読影依頼管理機能324と、読影依頼した被検体内画像について回答された読影作業データを時系列的な順序性を維持したまま元の一連の被検体内画像についての読影作業データに組み込む依頼分読影プロセス組込機能325と、が実現される。なお、読影用プログラム110を実行した制御部101には、図4に示した操作機能群111、支援機能群112、キャプチャ機能113、操作監視部114、表示時間計測部115、および読影プロセスバー生成部116が実現されるが、図17ではこれらの図示を省略している。
 次に、本実施の形態3において、一連の被検体内画像における一部を外部の読影者(依頼先A~C…)へ依頼する際の手順について、図面を用いて詳細に説明する。図18は、本実施の形態3による読影画面D3の一例を示す図である。
 図18に示すように、本実施の形態3では、ユーザは読影依頼する被検体内画像が主表示領域D13に表示されている最中に、操作部104を用いてポインタP1を主表示領域D13上に移動させ、この状態で例えば右クリックする。これにより、表示部105には、右クリックした際のポインタP1の位置を左上端としてメニュー選択画面D31が表示される。メニュー選択画面D31は、いわゆるコンテキストメニューである。このメニュー選択画面D31には、例えば、一連の被検体内画像の全部または表示部105に表示中の被検体内画像もしくはこの被検体内画像を含む一部の被検体内画像群を時系列を維持したままデータ出力する指示を入力するエクスポートメニューと、主表示領域D13に表示中の被検体内画像のデータファイルのデータ転送する指示を入力するデータファイル転送と、表示部105に表示中の被検体内画像もしくはこの被検体内画像を含む一部の被検体内画像群の読影依頼指示を入力する読影依頼メニューとが含まれる。
 ここで、ユーザがポインタP1をメニュー選択画面D31における読影依頼メニューに合せると、表示部105には、読影依頼メニューと近接する位置に依頼先選択画面D32が表示される。依頼先選択画面D32は、いわゆるコンテキストメニューである。この依頼先選択画面D32には、依頼先として、メモリ部102の依頼先情報記憶部102gに登録された依頼先の一覧が表示される。ユーザがポインタP1を操作して依頼先選択画面D32におけるいずれかの依頼先を選択すると、制御部101は、読影対象画像選択機能321を呼び出して対象画像を選択し、続いて読影依頼データ作成機能322を呼び出して依頼先へ送付する依頼データを作成し、その後、読影依頼送信機能323を呼び出して作成された依頼データを選択された依頼先の連絡先、例えば電子メールアドレスへ送信する。このとき読影依頼データ作成機能322が作成する依頼データには、読影対象画像選択機能321によって選択された被検体内画像のデータが含まれる。
 また、制御部101に実現された読影依頼管理機能324は、読影依頼送信機能323により依頼データがネットワーク390へ送られると、これを検知する。また、読影依頼管理機能324は、読影依頼対象とした被検体内画像について読影依頼済みであることを示す情報を読影依頼進捗情報記憶部102hに記録する。
 さらに、本実施の形態3では、主表示領域D13に表示中の被検体内画像について過去に読影依頼がなされたか否かや過去に依頼した読影の結果があるか否かなどの情報を視覚的に表示する読影依頼状況表示マークD33が、読影画面D3における主表示領域D13の近傍に表示される。これにより、ユーザは表示中の被検体内画像についての読影依頼の進捗状況を視覚的に容易に認識することが可能となる。
 次に、本実施の形態3による読影依頼動作について、図面を用いて詳細に説明する。図19は、本実施の形態3による読影依頼動作の流れを示すフローチャートである。なお、以下では、読影依頼用プログラム320を実行して読影依頼動作を実現する制御部101の動作に着目して説明する。
 図19に示すように、制御部101は、ユーザが操作部104よりポインタP1を操作して主表示領域D13上で右クリックしたか否かを監視し(ステップS301,S301のNo)、主表示領域D13上で右クリックされた場合(ステップS301のYes)、表示部105に、右クリックされた際のポインタP1の位置を左上端としたメニュー選択画面D31を表示する(ステップS302)。続いて、制御部101は、同じくポインタP1を用いてメニュー選択画面D31中の読影依頼ボタンが選択されたか否かを判定し(ステップS303)、読影依頼ボタンが選択された場合(ステップS303のYes)、読影依頼ボタンの近傍に依頼先選択画面D32を表示する(ステップS305)。なお、読影依頼ボタンが選択されずにキャンセルされた場合(ステップS303のNo)、制御部101は、メニュー選択画面D31の表示をキャンセルして(ステップS304)、ステップS301へ帰還する。
 また、制御部101は、ステップS305において表示した依頼先選択画面D32からいずれかの読影依頼先が選択されたか否かを判定し(ステップS306)、いずれの読影依頼先も選択されずにキャンセルされた場合(ステップS306のNo)、依頼先選択画面D32の表示およびメニュー選択画面D31の表示をキャンセルして(ステップS307)、ステップS301へ帰還する。
 一方、ステップS306の判定の結果、いずれかの読影依頼先が選択された場合(ステップS306のYes)、制御部101は、読影対象画像選択機能321を呼び出して読影依頼の対象とする被検体内画像を選択し(ステップS308)、続いて読影依頼データ作成機能322を呼び出して、選択した被検体内画像の画像データを用いて依頼先へ送信する依頼データを作成する(ステップS309)。また、制御部101は、読影依頼送信機能323を呼び出して、作成した依頼データをステップS306で選択された依頼先の連絡先、具体的には電子メールアドレスへ送信する(ステップS310)。その後、制御部101は、読影依頼動作の終了指示が入力されたか否かを判定し(ステップS311)、入力されていない場合(ステップS311のNo)、ステップS301へ帰還して、以降、同様の動作を実行する。一方、ステップS311の判定の結果、終了指示が入力されていた場合(ステップS311のYes)、制御部101は、読影依頼動作を終了する。
 以上のように、本実施の形態3による依頼元情報処理装置310では、制御部101の読影対象画像選択機能321が一群の被検体内画像の一部を順序性を保ちつつ切り出す画像切出部として機能し、読影依頼データ作成機能322と読影依頼送信機能323とが画像切出部によって切り出された一部の被検体内画像群の読影依頼をネットワーク390を介して依頼先情報処理装置380へ送信する読影依頼送信部として機能する。
 このように本実施の形態3では、一群の被検体内画像における一部の被検体内画像を時系列的な順序性を保ったまま切り出して読影依頼をすることが可能となり、また、例えば外部に読影依頼した一部の被検体内画像に対する読影時の読影作業データを元の一群の被検体内画像に対する読影時の読影作業データに時系列的な順序性を維持したまま組み込むことが可能となる。これにより、本実施の形態3では、内部の読影者にかかる読影時の負担を軽減することが可能となる。
 (変形例3-1)
 また、上記実施の形態3では、主表示領域D13に表示中の被検体内画像についての読影依頼をする場合について例を挙げたが、本発明はこれに限定されず、一群の被検体内画像における連続する複数の被検体内画像をまとめて読影依頼可能なように構成してもよい。以下、この場合を本実施の形態3の変形例3-1として、図面を用いて詳細に説明する。
 図20は、本変形例3-1による読影画面D3-1の一例を示す図である。図20に示すように、読影画面D3-1では、例えば、ユーザが操作部104からポインタP1を操作して、読影プロセスバーD17のある範囲を持った領域をドラッグすると、制御部101に実現された読影対象画像選択機能321は、この領域に対応する1つ以上の被検体内画像を読影依頼対象画像として選択する。以降、上述した実施の形態3の依頼元情報処理装置310と同様の動作を実行することで、依頼元情報処理装置310から依頼先情報処理装置380へ、読影依頼対象画像として選択された1つ以上の被検体内画像を含む依頼データが送信される。
 なお、図20に示す読影画面D3-1において、ドラッグにて選択された、もしくは、過去に読影依頼された被検体内画像と対応する読影プロセスバーD17の範囲は、例えば異なる色や模様にて表現されるとよい。これにより、ユーザが、どの範囲の被検体内画像が読影依頼の対象であるか、もしくは、過去に読影依頼されたかを容易に知ることが可能となる。また、この他の構成は、上記した実施の形態またはその変形例と同様であるため、ここでは詳細な説明を省略する。なお、時系列に沿った一群の被検体内画像と対応する時間軸を表現する単なるタイムバーや平均色バーD16などでのある範囲を持った領域をドラッグすることで読影依頼対象画像が選択されるように、依頼元情報処理装置310を構成してもよい。
 (変形例3-2)
 また、例えば一群の被検体内画像が臓器区間と対応付けられて区切られている場合、この臓器区間ごとに読影依頼を行えるようにしてもよい。以下、これを本実施の形態3の変形例3-2として、図面を用いて詳細に説明する。
 図21は、本変形例3-2による読影画面D3-2の一例を示す図である。図21に示すように、本変形例3-2では、平均色バーD16の代わりに、臓器バーD35が読影プロセスバーD17と上下に並列に配置されている。臓器バーD35は、臓器区間ごとに例えば色分けされている。ユーザがポインタP1を臓器バーD35におけるいずれかの臓器区間に合せると、例えばその臓器区間に応じたメッセージD36がポップアップ表示される。この状態で、ユーザが右クリックすると、上記実施の形態3と同様のメニュー選択画面D31が表示される。以降、実施の形態3での読影依頼と同様の流れにより、臓器区間ごとの被検体内画像を一括して読影依頼することが可能である。
 このように、臓器区間ごとの読影依頼を可能にする場合、例えば読影プロセスバーD17や平均色バーD16や単なるタイムバーに臓器区間を視覚的に表現し、ユーザが読影依頼したい区間をこのバーから選択できるように構成するとよい。この他の構成は、上記した実施の形態またはその変形例と同様であるため、ここでは詳細な説明を省略する。
 (変形例3-3)
 さらには、前後する画像間での色変化が大きな被検体内画像やシーンチェンジ時の区切りの被検体内画像などを自動的に抽出し、これの一部または全部を一括して読影依頼可能なように依頼元情報処理装置を構成してもよい。なお、前後する画像間での色変化の大きさは、例えば平均色バーD16を生成した際の赤色の輝度などを用いて求めることができる。また、シーンチェンジ時の区切りの被検体内画像は、例えば前後する2つの被検体内画像から求まるカプセル内視鏡10の動きベクトルのスカラー量などを用いて特定することが可能である。
 (変形例3-4)
 また、例えば同一の被検体900に対して複数回の撮像による観察を行った場合、異なる観察間で重複しない部位が写された被検体内画像や、前回の観察で得た被検体画像の読影において異常所見があった部位を撮像した被検体内画像を自動的に抽出し、これを読影依頼可能なように依頼元情報処理装置を構成することもできる。例えば図22に示すように、異常所見があった部位に対応する読影プロセスバーD17上の位置D37に対してある程度前後に幅を持った範囲D38に対応する被検体内画像も一括して読影依頼できるように構成するとよい。なお、図22は、本実施の形態3の変形例3-4における読影依頼範囲を説明するための図である。また、他の構成および動作は、上記した実施の形態またはその変形例と同様である。
 <実施の形態4>
 次に、本発明の実施の形態4による画像表示装置を備えたカプセル内視鏡システムおよび読影支援システムの構成および動作を、図面を用いて詳細に説明する。なお、本実施の形態4では、上記実施の形態3と同様のカプセル内視鏡システム1および読影支援システム300を例に挙げる。以下において、上記実施の形態1、2、3またはその変形例と同様の構成または機能については、同一の符号を付し、その詳細な説明を省略する。
 図23は、本実施の形態4による読影画面D4-1の一例を示す図である。図23に示すように、読影画面D4-1では、例えば図5に示す上記実施の形態1による読影画面D1と同様の機能に、読影依頼ボタンD41が追加されている。ユーザが操作部104からポインタP1を操作して、読影依頼ボタンD41をクリックすると、表示部105には、図24に示す読影依頼画面D4-2が表示される。
 図24は、本実施の形態4による読影依頼画面D4-2の一例を示す図である。図24に示すように、読影依頼画面D4-2には、読影を依頼する1つ以上の被検体内画像の集合として登録された読影依頼の識別番号である読影依頼番号と、各読影依頼がどの依頼先へ依頼されたかを示す依頼先と、各依頼先からの回答を受け取る予定日である回答予定日と、を一覧表示する読影依頼一覧D42と、各読影依頼番号に対応付けられた被検体内画像の先頭または代表画像を表示する表示領域D43と、依頼先ごとに通信や郵送等の依頼方法を示す依頼先一覧D44と、読影依頼一覧D42において選択中の読影依頼を追加、編集、削除、出力、転送する操作をそれぞれ入力する追加ボタンD45a、編集ボタンD45b、削除ボタンD45c、出力ボタンD45d、転送ボタンD45eと、読影プロセスバーD17と、読影依頼一覧D42において選択中の読影依頼に対応する被検体内画像が読影プロセスバーD17のどの位置または領域に対応するかを示す依頼範囲マークD47と、表示領域D43に表示中の被検体内画像が読影プロセスバーD17のどの位置に対応するかを示すスライダD48と、が組み込まれる。
 ユーザは、読影依頼画面D4-2において、操作部104を用いてポインタP1を操作することで、読影依頼一覧D42から目的の読影依頼を選択する。また、目的の読影依頼が選択された状態でポインタP1を操作することで、選択中の読影依頼を依頼する依頼先を依頼先一覧D44から選択する。これにより、選択中である目的の読影依頼に選択した依頼先が対応付けられる。
 また、上記のように読影依頼と依頼先とを1組以上対応付けた後、ユーザがポインタP1を操作して転送ボタンD45eをクリックすると、対応付けられており且つ読影依頼が未だである読影依頼の依頼データが依頼先へ送信される。なお、転送ボタンD45eでなく、出力ボタンD45dをクリックした場合、選択中である目的の読影依頼の依頼データが依頼先ごとにDVD-RAMなどの記録メディアに記録される。
 さらに、以上のように読影依頼をすると、依頼日が読影依頼番号および依頼先の情報と対応付けてメモリ部102の読影依頼進捗情報記憶部102hに記録される。また、読影依頼画面D4-2における読影依頼一覧D42が最新の情報に更新される。さらに、依頼済みの読影依頼、すなわち転送または出力済みの読影依頼については、例えば依頼先と対応付けて“レ”点などのマークが付加される。
 さらにまた、読影依頼の依頼日と依頼先とから、制御部101の読影依頼管理機能324は、自動的に回答予定日を特定し、これを読影依頼進捗情報記憶部102hに記録する。さらにまた、読影依頼画面D4-2における読影依頼一覧D42が最新の情報に更新される。ただし、回答予定日は手動にて登録されてもよい。
 また、読影の進捗情報、例えば未依頼、依頼済み、回答未着、回答着などに応じて、読影プロセスバーD17の色や模様を変化させることで、ユーザは視覚的にどの範囲の被検体内画像の読影がどのような状況であるかを容易に知ることが可能となる。
 また、他の構成および動作は、上記した実施の形態またはその変形例と同様であるため、ここでは詳細な説明を省略する。
 また、上記実施の形態は本発明を実施するための例にすぎず、本発明はこれらに限定されるものではなく、仕様等に応じて種々変形することは本発明の範囲内であり、さらに本発明の範囲内において、他の様々な実施の形態が可能であることは上記記載から自明である。
 1 カプセル内視鏡システム
 10 カプセル内視鏡
 10a 光学ドーム
 10b 容器
 11 信号処理部
 12 撮像部
 12-1 撮像素子
 12-2 光学系
 12-3 回路基板
 13 照明部
 14 メモリ
 15 送信部
 15a アンテナ
 16 バッテリ
 21a~21i 体外アンテナ
 22 接続ケーブル
 30 受信装置
 31 信号処理部
 32 受信部
 33 メモリ
 34 インタフェース部
 35 操作部
 36 表示部
 41 通信インタフェース
 42 携帯型記録媒体
 100 情報処理装置
 101 制御部
 102 メモリ部
 102A 読影作業データ記憶領域
 102a 表示履歴記憶部
 102b 停止履歴記憶部
 102c 表示時間記憶部
 102d 同時表示履歴記憶部
 102e キャプチャ履歴記憶部
 102f 支援機能使用履歴記憶部
 102g 依頼先情報記憶部
 102h 読影依頼進捗情報記憶部
 103 インタフェース部
 104 操作部
 105 表示部
 110 読影用プログラム
 111 操作機能群
 111a 再生機能
 111b 一時停止機能
 111c 早送り・コマ送り機能
 111e 停止機能
 112 支援機能群
 112a 平均色バー表示機能
 112b オーバビュー機能
 113 キャプチャ機能
 114 操作監視部
 115 表示時間計測部
 116 読影プロセスバー生成部
 180 外部記録装置
 200 情報処理装置
 210 読影用プログラム
 211 読影プロセス再生部
 300 読影支援システム
 310 依頼元情報処理装置
 311 ネットワークインタフェース部
 320 読影依頼用プログラム
 321 読影対象画像選択機能
 322 読影依頼データ作成機能
 323 読影依頼送信機能
 324 読影依頼管理機能
 325 依頼分読影プロセス組込機能
 380A~380C 依頼先情報処理装置
 390 ネットワーク
 D1、D1-1、D2、D3、D3-1、D3-2、D4-1 読影画面
 D4-2 読影依頼画面
 D13 主表示領域
 D14 読影情報表示部
 D14a 既読影表示マーク
 D14b 支援機能使用状態表示マーク
 D15 再生操作ボタン群
 D15a 頭出しボタン
 D15b コマ送りボタン
 D15c 一時停止ボタン
 D15d 早送りボタン
 D15e 再生ボタン
 D15f 巻戻しボタン
 D15g 停止ボタン
 D16 平均色バー
 D17、D17a、D17b、D17c、D17d、D17-1、D17-2 読影プロセスバー
 D20 キャプチャボタン
 D21 キャプチャ画像表示領域
 D21a スライダ
 D22 平均色バーボタン
 D23 オーバビューボタン
 D24 読影プロセス再生ボタン
 D24a 巻戻しボタン
 D24b 一時停止ボタン
 D24c 早送りボタン
 D24d コマ送りボタン
 D24e 停止ボタン
 D31 メニュー選択画面
 D32 依頼先選択画面
 D33 読影依頼状況表示マーク
 D35 臓器バー
 D36 メッセージ
 D37 位置
 D38 範囲
 D41 読影依頼ボタン
 D42 読影依頼一覧
 D43 表示領域
 D44 依頼先一覧
 D45a 追加ボタン
 D45b 編集ボタン
 D45c 削除ボタン
 D45d 出力ボタン
 D45e 転送ボタン
 D47 依頼範囲マーク
 D48 スライダ
 G10、G11、G12、G20、G21、G22、G23、G30、G31、G40、G41、G42、G43 領域
 P1 ポインタ

Claims (17)

  1.  時系列に沿った一連の画像群を再生する画像再生部と、
     前記画像再生部において再生中の画像を読影する際の操作を入力する操作部と、
     前記画像再生部において再生中の画像に対して前記操作部から入力された操作内容を順序性を持たせつつ記録する読影作業記録部と、
     前記読影作業記録部に記録された操作内容を用いて前記順序性に従った一連のイメージを生成する読影作業イメージ生成部と、
     前記読影作業イメージ生成部が生成した前記イメージを表示する読影作業イメージ表示部と、
     を備えたことを特徴とする画像表示装置。
  2.  前記読影作業記録部は、異なる読影作業ごとに前記操作内容を記録し、
     前記読影作業イメージ生成部は、前記読影作業ごとの操作内容のいずれか1つまたは複数を用いて前記読影作業ごとのイメージを生成し、
     前記読影作業イメージ表示部は、前記読影作業ごとのイメージを表示することを特徴とする請求項1に記載の画像表示装置。
  3.  前記読影作業イメージ表示部は、前記読影作業ごとのイメージ間で前記順序性を対応付けしつつ該読影作業ごとのイメージを表示することを特徴とする請求項2に記載の画像表示装置。
  4.  前記読影作業イメージ生成部は、前記読影作業ごとに異なる色または模様を用いて前記読影作業ごとのイメージを生成することを特徴とする請求項2に記載の画像表示装置。
  5.  前記読影作業記録部に異なる読影作業ごとに記録された複数の操作内容の値の平均値を算出する平均値算出部をさらに備え、
     前記読影作業イメージ生成部は、前記平均値算出部が算出した前記平均値を用いて前記イメージを生成することを特徴とする請求項1に記載の画像表示装置。
  6.  前記読影作業イメージ生成部は、前記一連の画像群に対して現在進行中の読影作業から前記読影作業記録部が記録した操作内容を用いて前記イメージを更新し、
     前記読影作業イメージ表示部は、前記読影作業イメージ生成部が更新した前記イメージで表示中のイメージを更新することを特徴とする請求項1に記載の画像表示装置。
  7.  前記読影作業記録部は、同一の読影作業に対して内容の異なる複数の操作内容を記録し、
     前記読影作業イメージ生成部は、前記内容の異なる複数の操作内容のいずれか1つまたは複数を用いて前記内容の異なる複数の操作内容ごとのイメージを生成し、
     前記読影作業イメージ表示部は、前記内容の異なる複数の操作内容ごとのイメージを表示することを特徴とする請求項1に記載の画像表示装置。
  8.  前記読影作業イメージ表示部は、前記内容の異なる複数の操作内容ごとのイメージ間で前記順序性を対応付けしつつ該内容の異なる複数の操作内容ごとのイメージを表示することを特徴とする請求項7に記載の画像表示装置。
  9.  前記読影作業イメージ生成部は、前記内容の異なる複数の操作内容ごとに異なる色または模様を用いて前記内容の異なる複数の操作内容ごとのイメージを生成することを特徴とする請求項7に記載の画像表示装置。
  10.  前記操作内容ごとに優先度を付加する優先度付加部をさらに備え、
     前記読影作業イメージ生成部は、前記優先度の最も高い操作内容を用いて前記イメージを生成することを特徴とする請求項1に記載の画像表示装置。
  11.  前記読影作業イメージ表示部は、前記操作内容ごとのイメージを前記優先度順に配列させつつ該操作内容ごとのイメージを表示することを特徴とする請求項10に記載の画像表示装置。
  12.  前記一連の画像群は、被検体内に導入されて該被検体内を定期的に撮像することで得られた一群の被検体内画像であることを特徴とする請求項1に記載の画像表示装置。
  13.  前記操作内容は、前記一連の画像群における各画像の表示時間および/または表示回数、各画像を読影する際に使用した支援機能、および、各画像のキャプチャ履歴のうち少なくとも1つを含むことを特徴とする請求項1に記載の画像表示装置。
  14.  前記一連の画像群の一部を前記順序性を保ちつつ切り出す画像切出部と、
     前記画像切出部が切り出した一部の画像群の読影依頼をネットワークを介して依頼先へ送信する読影依頼送信部と、
     を備えたことを特徴とする請求項1に記載の画像表示装置。
  15.  前記読影依頼送信部は、前記一部の画像群を複数の依頼先へ前記ネットワークを介して送信可能であることを特徴とする請求項14に記載の画像表示装置。
  16.  請求項14に記載の画像表示装置と、
     前記画像表示装置から前記読影依頼を受信する依頼先情報処理装置と、
     を備えたことを特徴とする読影支援システム。
  17.  時系列に沿った一連の画像群の読影を支援する情報処理装置を機能させるための読影支援プログラムであって、
     前記一連の画像群を再生する画像再生処理と、
     前記再生中の画像の読影に入力された操作を監視する読影監視処理と、
     前記再生中の画像に対して前記読影監視処理で取得された操作内容を前記順序性を持たせつつ記録する読影作業記録処理と、
     前記読影作業記録処理で記録された操作内容を用いて前記順序性に従った一連のイメージを生成する読影作業イメージ生成処理と、
     前記読影作業イメージ生成処理で生成された前記イメージを表示する読影作業イメージ表示処理と、
     を前記情報処理装置に実行させることを特徴とする読影支援プログラム。
PCT/JP2010/061186 2009-07-29 2010-06-30 画像表示装置、読影支援システムおよび読影支援プログラム WO2011013475A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011504080A JP4724259B2 (ja) 2009-07-29 2010-06-30 画像表示装置、読影支援システムおよび読影支援プログラム
CN201080003678.5A CN102256533B (zh) 2009-07-29 2010-06-30 图像显示装置、解读辅助系统以及解读辅助方法
EP10804222A EP2347695A4 (en) 2009-07-29 2010-06-30 PICTURE DISPLAY DEVICE, SYSTEM FOR SUPPORTING RADIOGRAPHIC INTERPRETATIONS AND PROGRAM FOR SUPPORTING RADIOGRAPHIC INTERPRETATIONS
US12/984,742 US8335423B2 (en) 2009-07-29 2011-01-05 Image display apparatus, image interpretation support system and computer-readable recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-177033 2009-07-29
JP2009177033 2009-07-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US12/984,742 Continuation US8335423B2 (en) 2009-07-29 2011-01-05 Image display apparatus, image interpretation support system and computer-readable recording medium

Publications (1)

Publication Number Publication Date
WO2011013475A1 true WO2011013475A1 (ja) 2011-02-03

Family

ID=43529139

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/061186 WO2011013475A1 (ja) 2009-07-29 2010-06-30 画像表示装置、読影支援システムおよび読影支援プログラム

Country Status (5)

Country Link
US (1) US8335423B2 (ja)
EP (1) EP2347695A4 (ja)
JP (1) JP4724259B2 (ja)
CN (1) CN102256533B (ja)
WO (1) WO2011013475A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012132840A1 (ja) * 2011-03-30 2012-10-04 オリンパスメディカルシステムズ株式会社 画像管理装置、方法、及びプログラム、並びにカプセル型内視鏡システム
WO2012165298A1 (ja) * 2011-06-01 2012-12-06 オリンパスメディカルシステムズ株式会社 受信装置及びカプセル型内視鏡システム
WO2014061554A1 (ja) * 2012-10-18 2014-04-24 オリンパスメディカルシステムズ株式会社 画像処理装置及び画像処理方法
US8830308B2 (en) 2011-08-12 2014-09-09 Olympus Medical Systems Corp. Image management apparatus, image management method and computer-readable recording medium associated with medical images
WO2015029584A1 (ja) * 2013-08-30 2015-03-05 オリンパスメディカルシステムズ株式会社 画像管理装置
JP2016122261A (ja) * 2014-12-24 2016-07-07 株式会社東芝 医用画像生成装置および医用画像生成方法
WO2017006618A1 (ja) * 2015-07-09 2017-01-12 オリンパス株式会社 サーバ、内視鏡システム、送信方法およびプログラム
WO2017122400A1 (ja) * 2016-01-15 2017-07-20 オリンパス株式会社 内視鏡画像観察支援システム
WO2018074223A1 (ja) * 2016-10-20 2018-04-26 オリンパス株式会社 内視鏡システム、端末装置、サーバ、送信方法およびプログラム
WO2022195725A1 (ja) * 2021-03-16 2022-09-22 オリンパスメディカルシステムズ株式会社 情報処理装置および画像表示方法
US11594327B2 (en) 2016-12-28 2023-02-28 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and recording medium

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9172990B2 (en) * 2011-06-24 2015-10-27 Google Technology Holdings LLC Method and device for optimizing storage of recorded video programs
WO2013047070A1 (ja) * 2011-09-28 2013-04-04 富士フイルム株式会社 放射線動画像処理装置、放射線動画像読影システム、放射線動画像撮影システム、放射線動画像処理方法、及び放射線動画像処理プログラム
WO2013100350A1 (en) 2011-12-28 2013-07-04 Samsung Electronics Co., Ltd. Image processing apparatus, upgrade apparatus, display system including the same, and control method thereof
WO2014002096A2 (en) * 2012-06-29 2014-01-03 Given Imaging Ltd. System and method for displaying an image stream
JP2014042654A (ja) * 2012-08-27 2014-03-13 Fujifilm Corp サーバー装置、クライアント装置、医療画像処理システム、医療画像処理方法、及びプログラム
JP6012384B2 (ja) * 2012-10-04 2016-10-25 キヤノン株式会社 動画再生装置、表示制御方法、プログラム及び記憶媒体
EP2770452A1 (en) * 2013-02-22 2014-08-27 Samsung Electronics Co., Ltd. Method and system for transmitting result of examination of specimen from medical device to destination through mobile device
US9854958B1 (en) * 2013-03-23 2018-01-02 Garini Technologies Corporation System and method for automatic processing of images from an autonomous endoscopic capsule
CN104640496A (zh) * 2013-05-31 2015-05-20 奥林巴斯医疗株式会社 医疗装置
JP5979168B2 (ja) * 2014-03-11 2016-08-24 コニカミノルタ株式会社 画面表示装置、画面表示システム、画面表示方法およびコンピュータープログラム
JP6833621B2 (ja) * 2017-05-31 2021-02-24 富士フイルム株式会社 内視鏡の制御装置、内視鏡の保守支援方法、内視鏡の保守支援プログラム
WO2019039252A1 (ja) * 2017-08-24 2019-02-28 富士フイルム株式会社 医療画像処理装置及び医療画像処理方法
JP7038642B2 (ja) * 2018-11-20 2022-03-18 株式会社日立製作所 作業習熟支援装置、及び作業習熟支援システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006061278A (ja) * 2004-08-25 2006-03-09 Konica Minolta Medical & Graphic Inc 医用画像表示装置
JP2007075158A (ja) * 2005-09-09 2007-03-29 Olympus Medical Systems Corp 画像表示装置
JP2007143648A (ja) 2005-11-24 2007-06-14 Olympus Medical Systems Corp 生体内画像表示装置
JP2007260064A (ja) * 2006-03-28 2007-10-11 Fujifilm Corp 表示制御装置および表示制御プログラム
JP2008036028A (ja) * 2006-08-03 2008-02-21 Olympus Medical Systems Corp 画像表示装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10304234A (ja) * 1997-04-24 1998-11-13 Sony Corp 撮像システム、及びビデオカメラ装置
JP4493386B2 (ja) * 2003-04-25 2010-06-30 オリンパス株式会社 画像表示装置、画像表示方法および画像表示プログラム
CN101264001B (zh) * 2003-04-25 2010-11-10 奥林巴斯株式会社 图像显示装置
US20060064321A1 (en) * 2004-08-25 2006-03-23 Konica Minolta Medical & Graphic, Inc. Medical image management system
US20080232702A1 (en) * 2005-06-27 2008-09-25 Seiichiro Kimoto Image display apparatus
US20090027486A1 (en) 2005-08-22 2009-01-29 Katsumi Hirakawa Image display apparatus
US8169472B2 (en) 2005-08-22 2012-05-01 Olympus Corporation Image display apparatus with interactive database
JP2007058334A (ja) * 2005-08-22 2007-03-08 Olympus Corp ファイリング装置およびファイリングシステム
JP2007122679A (ja) * 2005-09-27 2007-05-17 Fujifilm Corp 読影支援システム
US8900124B2 (en) 2006-08-03 2014-12-02 Olympus Medical Systems Corp. Image display device
JP2008119145A (ja) * 2006-11-09 2008-05-29 Olympus Medical Systems Corp 画像表示方法および画像表示装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006061278A (ja) * 2004-08-25 2006-03-09 Konica Minolta Medical & Graphic Inc 医用画像表示装置
JP2007075158A (ja) * 2005-09-09 2007-03-29 Olympus Medical Systems Corp 画像表示装置
JP2007143648A (ja) 2005-11-24 2007-06-14 Olympus Medical Systems Corp 生体内画像表示装置
JP2007260064A (ja) * 2006-03-28 2007-10-11 Fujifilm Corp 表示制御装置および表示制御プログラム
JP2008036028A (ja) * 2006-08-03 2008-02-21 Olympus Medical Systems Corp 画像表示装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2347695A4

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012132840A1 (ja) * 2011-03-30 2012-10-04 オリンパスメディカルシステムズ株式会社 画像管理装置、方法、及びプログラム、並びにカプセル型内視鏡システム
US8918740B2 (en) 2011-03-30 2014-12-23 Olympus Medical Systems Corp. Image management apparatus, method, and computer-readable recording medium and capsule endoscope system
WO2012165298A1 (ja) * 2011-06-01 2012-12-06 オリンパスメディカルシステムズ株式会社 受信装置及びカプセル型内視鏡システム
US8830308B2 (en) 2011-08-12 2014-09-09 Olympus Medical Systems Corp. Image management apparatus, image management method and computer-readable recording medium associated with medical images
WO2014061554A1 (ja) * 2012-10-18 2014-04-24 オリンパスメディカルシステムズ株式会社 画像処理装置及び画像処理方法
WO2015029584A1 (ja) * 2013-08-30 2015-03-05 オリンパスメディカルシステムズ株式会社 画像管理装置
US9411932B2 (en) 2013-08-30 2016-08-09 Olympus Corporation Image management apparatus
JP2016122261A (ja) * 2014-12-24 2016-07-07 株式会社東芝 医用画像生成装置および医用画像生成方法
WO2017006618A1 (ja) * 2015-07-09 2017-01-12 オリンパス株式会社 サーバ、内視鏡システム、送信方法およびプログラム
JPWO2017006618A1 (ja) * 2015-07-09 2017-11-16 オリンパス株式会社 サーバ、内視鏡システム、送信方法およびプログラム
WO2017122400A1 (ja) * 2016-01-15 2017-07-20 オリンパス株式会社 内視鏡画像観察支援システム
JPWO2017122400A1 (ja) * 2016-01-15 2018-01-18 オリンパス株式会社 内視鏡画像観察支援システム
US11389048B2 (en) 2016-01-15 2022-07-19 Olympus Corporation Endoscopic image observation support system
WO2018074223A1 (ja) * 2016-10-20 2018-04-26 オリンパス株式会社 内視鏡システム、端末装置、サーバ、送信方法およびプログラム
JP6368885B1 (ja) * 2016-10-20 2018-08-01 オリンパス株式会社 内視鏡システム、端末装置、サーバ、送信方法およびプログラム
US11594327B2 (en) 2016-12-28 2023-02-28 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and recording medium
WO2022195725A1 (ja) * 2021-03-16 2022-09-22 オリンパスメディカルシステムズ株式会社 情報処理装置および画像表示方法

Also Published As

Publication number Publication date
JPWO2011013475A1 (ja) 2013-01-07
JP4724259B2 (ja) 2011-07-13
US8335423B2 (en) 2012-12-18
US20110249952A1 (en) 2011-10-13
EP2347695A4 (en) 2012-03-28
CN102256533A (zh) 2011-11-23
EP2347695A1 (en) 2011-07-27
CN102256533B (zh) 2014-03-05

Similar Documents

Publication Publication Date Title
JP4724259B2 (ja) 画像表示装置、読影支援システムおよび読影支援プログラム
US8620044B2 (en) Image display apparatus, image display method, and computer program
EP1857042B1 (en) Image display apparatus and image display method
JP5044066B2 (ja) 画像表示装置及びカプセル型内視鏡システム
JP2006095304A (ja) 生体内でキャプチャされた画像ストリームを編集するシステムおよび方法
CN1777390A (zh) 图像处理装置、图像处理方法以及图像处理程序
WO2007036941A2 (en) System and method for detecting content in-vivo
JP5015363B2 (ja) 画像表示装置及びカプセル型内視鏡システム
JP2009039449A (ja) 画像処理装置
JP5802861B2 (ja) カプセル型内視鏡システム
WO2012042987A1 (ja) 画像表示装置及びカプセル型内視鏡システム
CN114945314A (zh) 医疗图像处理装置、内窥镜系统、诊断辅助方法及程序
JP2021029258A (ja) 手術支援システム、手術支援方法、情報処理装置、及び情報処理プログラム
JP2007307395A (ja) 画像表示装置、画像表示方法および画像表示プログラム
JP5593008B1 (ja) 画像処理装置及び画像処理方法
JP2007307396A (ja) 画像表示装置、画像表示方法および画像表示プログラム
US20240013392A1 (en) Processor device, medical image processing device, medical image processing system, and endoscope system
JP7182014B2 (ja) 電子内視鏡システム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080003678.5

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 2011504080

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10804222

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2010804222

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2010804222

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE