WO2007023771A1 - 画像表示装置 - Google Patents

画像表示装置 Download PDF

Info

Publication number
WO2007023771A1
WO2007023771A1 PCT/JP2006/316339 JP2006316339W WO2007023771A1 WO 2007023771 A1 WO2007023771 A1 WO 2007023771A1 JP 2006316339 W JP2006316339 W JP 2006316339W WO 2007023771 A1 WO2007023771 A1 WO 2007023771A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
time
information
display device
Prior art date
Application number
PCT/JP2006/316339
Other languages
English (en)
French (fr)
Inventor
Katsumi Hirakawa
Seiichiro Kimoto
Original Assignee
Olympus Corporation
Olympus Medical Systems Corp.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2005240252A external-priority patent/JP2007058334A/ja
Priority claimed from JP2005263090A external-priority patent/JP4472602B2/ja
Application filed by Olympus Corporation, Olympus Medical Systems Corp. filed Critical Olympus Corporation
Priority to CN2006800306400A priority Critical patent/CN101248452B/zh
Priority to EP06796602A priority patent/EP1918870A4/en
Priority to AU2006282459A priority patent/AU2006282459B2/en
Priority to US11/577,027 priority patent/US20090027486A1/en
Publication of WO2007023771A1 publication Critical patent/WO2007023771A1/ja
Priority to US12/028,919 priority patent/US8169472B2/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/041Capsule endoscopes for imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • A61B1/00016Operational features of endoscopes characterised by signal transmission using wireless means

Definitions

  • the present invention relates to an image display device that displays a series of images taken at a plurality of points in time, and in particular, a series of in-subject images taken using a capsule endoscope introduced into the subject.
  • the present invention relates to an image display apparatus suitable for application to the above display.
  • This capsule endoscope has an imaging function and a wireless communication function, and is swallowed from the subject's mouth for observation in various organs until it is naturally discharged, for example, stomach, small intestine, large intestine, etc.
  • the inside of the organ is sequentially imaged while moving according to the peristaltic motion.
  • image data captured in the subject by the capsule endoscope is sequentially transmitted to the outside of the subject using a wireless signal and provided in a receiver outside the subject.
  • a wireless signal Stored in a stored memory or displayed on a display provided in the receiver. Doctors, nurses, etc. can make a diagnosis based on the image displayed on the display based on the image data stored in the memory, or the image displayed on the display provided in the receiver along with the reception. .
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2004-337596
  • the above-described image display device can display the average color of each image in time series on the time scale, the imaged organ can be determined according to the imaging time. It was impossible to perform identification display on the time scale corresponding to the target image desired by the observer.
  • the present invention has been made in view of the above, and can perform identification display on a time scale corresponding to an arbitrary image of interest and easily recognize an imaging period in which the image of interest exists.
  • An object of the present invention is to provide an image display device that can be made possible.
  • an image display device includes a time scale indicating an imaging period of the series of images together with a series of images taken at a plurality of time points.
  • the image display device to be displayed includes an adding means for adding sign information indicating that the image is a noticed image to a predetermined image of the series of images, and an image pickup time before or at the time of taking the noticed image to which the sign information is added.
  • display control means for performing control to display the display area on the time scale after the time point so as to be distinguishable from other display areas on the time scale.
  • the display control means includes a plurality of attention images to which the marker information is added. Control is performed to display the display area on the time scale sandwiched between the time of image capture so as to be distinguishable from other display areas on the time scale.
  • the display control means includes a display hue, a display saturation, a display luminance, a display pattern, and a shape of the display area on the time scale. And at least one of the sizes is controlled to be displayed differently before and after the time of capturing the target image.
  • the display control means displays each attention image to which the sign information is added as a thumbnail image. Control is performed to display a relative time corresponding to the imaging time of each thumbnail image in the vicinity of each displayed thumbnail image.
  • the display control means uses the relative time based on the imaging time point of the reference thumbnail image selected from the thumbnail images. It is characterized by performing display control.
  • the image display device includes selection information acquisition means for acquiring selection information for selecting the reference thumbnail image from the thumbnail images.
  • the display control means performs control to display the relative time by updating the reference every time the selection information acquisition means acquires selection information.
  • the series of images are in-subject images captured using a capsule endoscope introduced into the subject. It is characterized by that.
  • the image display device of the present invention it is possible to perform identification display on a time scale corresponding to an arbitrary image of interest, and to easily recognize an imaging period in which the image of interest exists. Can do.
  • FIG. 1 is a schematic diagram showing a configuration of a wireless in-vivo information acquiring system according to a first embodiment of the present invention.
  • FIG. 2 is a block diagram showing a configuration of the image display apparatus according to the first embodiment of the present invention.
  • FIG. 3 is a diagram showing a display screen displayed by the image display device shown in FIG. 1.
  • FIG. 4 is a diagram showing a display screen displayed by the image display device shown in FIG. 1.
  • FIG. 5 is a flowchart showing a landmark setting process procedure performed by the image display device shown in FIG. 1.
  • FIG. 6 is a diagram showing a display screen displayed by the image display device shown in FIG. 1.
  • FIG. 7 is a diagram showing a display screen displayed by the image display device shown in FIG. 1.
  • FIG. 8 is a diagram showing a display screen displayed by the image display device shown in FIG. 1.
  • FIG. 9 is a schematic diagram showing an overall configuration of a wireless in-vivo information acquiring system according to the second embodiment.
  • FIG. 10 is a block diagram of a schematic configuration of the display device according to the second embodiment.
  • FIG. 11 is a flowchart for explaining a patient information search operation by the display device according to the second embodiment.
  • FIG. 12 is a flowchart of a modification of the second embodiment for explaining a patient information search operation by the display device.
  • FIG. 13 is a block diagram of a schematic configuration of a filing system according to the third embodiment.
  • FIG. 14 is a flowchart for explaining a patient information search operation by the filing system according to the third embodiment.
  • FIG. 15 is a block diagram of a schematic configuration of a filing system according to the fourth embodiment.
  • FIG. 16 is a flowchart for explaining a patient information search operation by the filing system according to the fourth embodiment.
  • FIG. 17 is a diagram showing an example of patient information displayed on the display unit of the display device. Explanation of symbols
  • FIG. 1 is a schematic diagram showing the overall configuration of a wireless in-vivo information acquiring system.
  • This wireless intra-subject information acquisition system uses a capsule endoscope as an example of the intra-subject introduction apparatus.
  • the wireless in-vivo information acquiring system is a capsule that is introduced into the body of the subject 1 and wirelessly transmits image data of the captured in-subject image to the receiving device 3.
  • the endoscope 2, the receiver 3 that receives image data wirelessly transmitted from the capsule endoscope 2, and displays the in-subject image based on the image signal received by the receiver 3.
  • an image display device 4 and a portable recording medium 5 for transferring image data and the like between the reception device 3 and the image display device 4.
  • the receiving device 3 includes a receiving antenna 6 having a plurality of antennas 6a to 6h attached to the external surface of the subject 1 or the like.
  • the receiving device 3 receives the image data and the like wirelessly transmitted from the capsule endoscope 2 via the receiving antenna 6, and each antenna 6a to 6h when the received image data is received in each received image data. Are recorded in association with each other.
  • the antennas 6a to 6h are realized by using, for example, a loop antenna, and each organ in the subject 1 which is a predetermined position on the external surface of the subject 1, that is, a passage path of the capsule endoscope 2 is used. It is arranged at a position corresponding to.
  • the antennas 6a to 6h may be arranged at predetermined positions such as a jacket worn by the subject 1. In this case, the antennas 6a to 6h are disposed at predetermined positions on the external surface of the subject 1 through the jacket or the like.
  • the arrangement of the antennas 6a to 6h can be arbitrarily changed according to the purpose of observation or diagnosis in the subject 1. Note that the number of antennas included in the receiving antenna 6 need not be limited to the eight antennas shown as the antennas 6a to 6h, and may be smaller or larger than eight.
  • the image display device 4 is realized by, for example, a workstation including a CRT, a liquid crystal display, and the like, and performs image display based on image data acquired via the portable recording medium 5 or the like.
  • the image display device 4 can also output and display image data on an output device such as a printer.
  • the image display device 4 may have a communication function with an external device, and may acquire or output image data through wired or wireless communication.
  • the portable recording medium 5 is realized by a compact flash (registered trademark) memory, a CD, a DVD, and the like, and is detachable from the receiving device 3 and the image display device 4, and when inserted in these devices.
  • Various information such as image data can be output or recorded.
  • the portable recording medium 5 is inserted into the receiving device 3 while the capsule endoscope 2 is introduced into the subject 1, and is received by the receiving device 3 from the capsule endoscope 2. Record data. Further, after the capsule endoscope 2 is ejected from the subject 1, the capsule endoscope 2 is taken out from the receiving device 3 and inserted into the image display device 4, and the recorded image data and the like are output to the image display device 4.
  • the subject 1 can freely move even while the capsule endoscope 2 is introduced. Can act.
  • the receiving device 3 and the image display device 4 Data may be exchanged between the two by wired or wireless communication.
  • FIG. 2 is a block diagram showing a configuration of the image display device 4.
  • the image display device 4 includes an input unit 11 for inputting various types of information, a display unit 12 for displaying various types of information, an image processing unit 13 for processing input images, and various types of information.
  • a storage unit 14 that stores data and a control unit 15 that controls processing and operation of each unit of the image display device 4 are provided.
  • the input unit 11, the display unit 12, the image processing unit 13, and the storage unit 14 are electrically connected to the control unit 15.
  • the image display device 4 includes an interface corresponding to the portable recording medium 5 and is detachably equipped with the portable recording medium 5.
  • the portable recording medium 5 at the time of insertion is electrically connected to the control unit 15.
  • the input unit 11 includes various switches, input keys, a mouse, a touch panel, and the like, and inputs various processing information such as display image selection information.
  • An observer of the display image as an operator of the image display device 4 can perform various operations such as reading, selection, and recording of the display image via the input unit 11.
  • the input unit 11 may be provided with a wired or wireless communication interface such as USB or IEEE1394, and may input an image from an external device.
  • the display unit 12 includes a liquid crystal display and the like, and displays various information such as image data.
  • the display unit 12 displays various data such as image data stored in the portable recording medium 5 or the storage unit 14, and requests the observer of the image display device 4 to input various processing information.
  • GUI Graphic User Interface
  • the storage unit 14 is realized by a ROM that stores various processing programs and the like, and a RAM that stores processing parameters, processing data, and the like for each processing.
  • the storage unit 14 can store image data input via the portable recording medium 5 and the like, image data processed by the image processing unit 13, display control data processed by the image display control unit 15a, and the like. it can.
  • the image processing unit 13 acquires image data from the portable recording medium 5 or the storage unit 14 based on control by the image processing control unit 15b, and performs density conversion (gamma conversion) on the acquired image data. Etc.), smoothness (noise removal, etc.), sharpness (edge enhancement, etc.), image recognition ( Various image processing such as detection of a feature image area and calculation of an average color are performed.
  • the control unit 15 is realized by a CPU or the like that executes various processing programs stored in the storage unit 14.
  • the control unit 15 includes an image display control unit 15a and an image processing control unit 15b.
  • the image display control unit 15a controls the display unit 12 to display a series of images captured at a plurality of points in time as image data stored in the portable recording medium 5 or the storage unit 14.
  • a series of in-subject images obtained by imaging various internal organs of the subject 1 at a plurality of time points is displayed as the series of images.
  • the image display control unit 15a particularly displays a time scale indicating the imaging period of a series of in-subject images, and displays the main scale displayed in a predetermined main display area in the series of in-subject images. Control is performed to display an operation icon as an adding means for adding sign information indicating the image of interest to the display image. This operation icon is displayed as an operation button on the GUI screen, for example.
  • the image display control unit 15a displays, on the time scale, the display area before or after the imaging time point on the time scale on the time scale based on the imaging time point of the target image to which the marker information is added. Control is performed so as to be distinguishable from other display areas. Here, whether it is before the imaging time or after the imaging time is determined according to the type of index information added to the target image. In addition, when there are a plurality of target images to which sign information is added, the image display control unit 15a displays the display area sandwiched between the time points at which each target image is captured on the time scale. Control the display so that it can be distinguished from the area.
  • the image display control unit 15a displays the display hue, display saturation, display luminance, display pattern (display pattern), shape, and size of a desired identification area on the time scale. Make at least one of the display different from other display areas.
  • the desired identification area on the time scale is one area delimited by the time point when the target image is captured on the time scale. That is, the image display control unit 15a displays at least one of the display hue, display saturation, display luminance, display pattern (display pattern), shape, and size of the display area on the time scale of the target image. The display is controlled differently before and after the time of imaging.
  • the image display control unit 15a performs control to display each attention image to which the sign information is added as a thumbnail image in a sub display area different from the main display area, and in the vicinity of each displayed thumbnail image. In addition, it is possible to perform control to display the relative time corresponding to the imaging time of each thumbnail image. In this case, the image display control unit 15a may perform control so as to display a relative time based on the imaging time point of the reference thumbnail image arbitrarily selected from the thumbnail images displayed in the sub display area. it can.
  • the image display control unit 15a performs control to display an operation icon or the like as selection information acquisition means for acquiring selection information for selecting a reference thumbnail image.
  • This operation icon is displayed as, for example, a dedicated operation button on the GUI screen or an invisible operation button superimposed on the thumbnail image.
  • predetermined selection information is input by a click operation on an operation icon using a mouse included in the input unit 11.
  • the image display control unit 15a updates the above-described standard every time the selection information is acquired in accordance with the execution of the operation such as the operation icon, that is, every time the selection information is updated, and a new standard is obtained. Control can be performed to display the relative time according to the time.
  • the image processing control unit 15b acquires image data stored in the portable recording medium 5 or the storage unit 14 and outputs the image data to the image processing unit 13, and controls various image processes for the output image. I do. Further, the image processing control unit 15b outputs and stores the image data of the processing result in the image processing unit 13 to the storage unit 14 or the portable recording medium 5.
  • FIG. 3 is a diagram illustrating an example of a GUI screen displayed by the image display device 4 based on control by the image display control unit 15a.
  • the display unit 12 displays a window 21 (“diagnosis / diagnosis” window) as a GUI screen.
  • the window 21 there are a main display area 22 for displaying a main display image, an image operation area 25 for displaying various image operation buttons shown as icons, and a time period indicating a series of in-vivo image capturing periods.
  • a color bar 26 and time bar 27 as a scale, and a sub display area 28 for displaying thumbnail images and the like are displayed side by side in this order on the display screen from the top to the bottom.
  • a main display image 23 which is an image selected from the images, and an antenna arrangement diagram 24 schematically showing the arrangement of the antennas 6a to 6h on the subject 1 are displayed.
  • the name, ID number, gender, age, date of birth, and date of imaging of the subject 1 associated with the in-subject image selected as the main display image 23 are displayed.
  • the imaging time is displayed as text information.
  • two or more predetermined numbers of main display images can be displayed in accordance with a predetermined operation.
  • the arrangement of the antennas 6a to 6h is schematically displayed together with a partial outline of the subject 1.
  • an antenna number as an identification number of each antenna is displayed in the vicinity of the antennas 6a to 6h.
  • antenna numbers “1” to “8” are shown.
  • FIG. 3 shows a state in which the antenna having the antenna number “4” is displayed as the maximum strength antenna so that it can be distinguished from other antennas.
  • the image display control unit 15a can display, for example, at least one of the display intensity, display hue, display saturation, and the like of the maximum intensity antenna differently from other antennas. .
  • the average color of each image included in the series of in-subject images is displayed in time series. That is, in the display area at each time point on the color bar 26, the average color of the in-subject image captured at this time point is displayed. Since a series of in-subject images have a specific average color depending on the organ that was imaged, the observer, etc., can see from the transition of the average color along the time axis (horizontal axis in Fig. 3) on the color bar 26. The organ imaged in the in-subject image at each time point can be easily identified.
  • the color bar 26 is configured by dividing the entire display area into four parts in the vertical direction on the display screen, and the divided color bars in each divided stage include a series of in-subject images.
  • the area average color or period area average color of each corresponding stage in the divided image area is displayed in a time series. That is, the average color of each in-subject image is calculated for each divided image area obtained by dividing the entire image area into four parts in the vertical direction, and the color bar 26 shows a divided scale obtained by dividing the display area at each time point into four parts in the vertical direction. For each area, each minute associated with this division order The area average color or period area average color of the split image area is displayed.
  • the observer or the like uses the average color transition along the time axis of the divided color bar of each divided stage to determine the organ imaged in the in-subject image at each time point. Therefore, it is possible to easily estimate the internal state of the imaged organ as much as possible according to the divided image areas. Accordingly, for example, when an average red color is visually recognized in the uppermost divided color bar 26a in a certain period, an observer or the like indicates that a bleeding site was present inside the organ imaged during this period, It can be recognized that there is a bleeding site in the imaging range corresponding to the uppermost divided image area in the in-subject image during this period.
  • the black color average color of the image area including the lumen part and the average color of the other image area are displayed on the divided color bars in different stages, so that the imaging range excluding the lumen part is displayed.
  • the internal state of the organ can be recognized.
  • the time bar 27 displays a slider 27a that is movable on the time bar 27 in the time axis direction.
  • the slider 27a indicates on the time bar 27 the time point at which the in-subject image displayed as the main display image 23 is captured, and moves on the time bar 27 in conjunction with the display switching of the main display image 23.
  • the main display image 23 is switched and the slider 27a is displayed after the switching display. Move to a position that indicates when the in-vivo image displayed as image 23 is captured.
  • the in-subject image corresponding to the imaging time point indicated by the slider 27a after the moving operation is mainly displayed. Displayed as image 23.
  • the main display image 23 is continuously switched and displayed following the moving operation.
  • the observer or the like moves the slider 27a to the imaging time corresponding to the in-subject image of the desired organ found with reference to the color bar 26, for example, thereby moving the inside of the subject.
  • the image can be displayed as the main display image 23 immediately.
  • the marker 27b indicating the imaging period of the image group recognized as the target image from the series of in-subject images can be distinguished from other display areas on the time bar 27. Is displayed. For example, in Figure 3, marker 27b is a different color from the other display areas. It is displayed and is easily visible to an observer or the like.
  • the start time (the time at the left end of the marker 27b) and the end time (the time at the right end of the marker 27b) of the imaging period indicated by the marker 27b are a landmark as an operation icon for adding the label information to the in-vivo image.
  • the in-subject image at the time of imaging which is the start time of the marker 27b, is displayed as the main display image 23, and a click operation or the like with a mouse (not shown) is performed on the land mark button 29.
  • the label information indicating the start time is added to the in-subject image.
  • the in-subject image at the time of imaging which is the end point of the marker 27b
  • the landmark button 29 is operated to add marker information indicating the end point to the main-displayed in-subject image. . Then, when the start time and end time are set in this way, a marker 27b that clearly indicates the designated imaging period is displayed.
  • the observer or the like can easily recognize that the in-subject image within the imaging period indicated by the marker 27b is a particularly noticeable image.
  • the marker 27b information that is, the label information indicating the start time and the end time of the marker 27b in association with the in-subject image
  • the target image is displayed each time this series of in-subject images is displayed.
  • the existing imaging period can be displayed, and it is possible to reduce the time and labor required for the image search by an observer or the like, and to efficiently observe the focused image.
  • the left end of the color bar 26 and the time bar 27 as time scales indicates the time point when the first image was captured in a time series in a series of in-subject images, and the right end represents the time series of the last image in the time series. Indicates the time of imaging. Normally, the leftmost imaging time point corresponds to the reception start time of image data by the receiving device 3, and the rightmost imaging time point corresponds to the reception end time of image data.
  • an image selected and extracted from a series of in-subject images is displayed as a thumbnail image 28a.
  • the in-subject image displayed as the main display image 23 at the time of this operation is additionally displayed in the sub display area 28 as a thumbnail image 28a.
  • each thumbnail image is displayed in the vicinity of each thumbnail image. Displayed as Report 28b.
  • the character information 28b an imaging time of each thumbnail image to be displayed, a relative time based on a predetermined time corresponding to the imaging time, a comment added by an observer, and the like are shown.
  • the character information 28b in FIG. 3 indicates the relative time corresponding to the time point when each thumbnail image is taken with reference to the time point when the first image is taken in time series.
  • the reference time can be changed in accordance with a predetermined operation. Specifically, for example, by clicking on one of the thumbnail images that are displayed, the reference time can be changed.
  • the time point at which the thumbnail image as the operation target is captured can be used as a reference for the relative time. For example, in the text information 28b ′ shown in FIG. 4, as a result of clicking the thumbnail image 28a—n, the reference of the relative time (time “00:00:00”) is changed to the time when the thumbnail image 28a—n was captured. Has been.
  • the observer can roughly predict the imaging position of the thumbnail image of interest within the subject. Specifically, for example, when an image including a lesion is observed with reference to the imaging time of the in-subject image when the small intestine starts to be imaged, the starting point of the small intestine is used as a base point based on the relative time of the image. The position of the lesioned part can be estimated.
  • the text information 28b, 28b 'shown in the sub display area 28 can be switched according to a predetermined operation, and can be hidden. Further, in the sub display area 28, a line segment in which each thumbnail image is associated with the time point at which each thumbnail image is displayed on the time bar 27 is displayed.
  • thumbnail images 28a Since the size of the display area is limited in the sub display area 28, up to a predetermined number of thumbnail images 28a can be displayed collectively. For example, Fig. 3 shows the case where a maximum of 5 thumbnail images can be displayed together. When there are more extracted thumbnail images 28a than the predetermined number that can be displayed in a batch, the thumbnail images exceeding the predetermined number are switched and displayed according to the operation of the scroll bar 28c displayed in the sub display area 28. Each thumbnail image displayed in the sub display area 28 is displayed as a main display image 23 in accordance with a predetermined button operation or mouse operation.
  • FIG. 5 is a flowchart showing the procedure for setting the mark.
  • the image processing control unit 15b determines whether or not the landmark button 29 has been operated as a determination to start processing of the landmark setting process (step S101). If not (step S1 01: No), this determination process is repeated at a predetermined cycle.
  • step S101 when the landmark button 29 is operated (step S101: Yes), the image display control unit 15a displays a landmark setting dialog for acquiring the details of the sign information (step S101). S102). In step S102, the image display control unit 15a performs control to display the landmark setting dialog 30 so as to overlap the window 21, as shown in FIG.
  • landmark setting dialog 30 As an item for setting the marker information indicating the start time of the marker shown on the time bar 27, and the end time are similarly indicated.
  • “Characteristic area end” as an item for setting sign information, V, “No setting” without setting of deviation, and reference of relative time as character information added to thumbnail image 28a “Relative time reference” is displayed as the item to set, and V or either item is selected.
  • the landmark setting dialog 30 also displays an “OK” button for confirming the selected item and a “Cancel” button for canceling the setting operation by the landmark setting dialog 30.
  • the “ ⁇ ” button or “Cancel” button is operated, the landmark setting dialog 30 is automatically closed after predetermined processing.
  • step S103 determines whether or not a setting item is selected on the landmark setting dialog 30 (step S103), and if it is selected (step S103: Yes), the setting is made.
  • the setting contents of the selected item are temporarily stored (step S104).
  • step S103: No the process proceeds to step S105. It should be noted that the determination process in step S103 may be performed at the time when the execution power of step S102 is also a predetermined time.
  • step S105 determines whether or not the "OK" button has been operated on the landmark setting dialog 30 (step S105), and if it has been operated (step S105: Yes), the marker information is updated according to the selected setting item (step S106), and the marker is displayed on the time bar 27 based on the updated marker information (step S107). Thereafter, the updated sign information is recorded in the storage unit 14 (step S108), and the process proceeds to step S111.
  • step S 105 determines whether or not the “cancel” button has been operated on the landmark setting dialog 30. (Step S109), and if not operated (step S109: No), the processing from step S103 is repeated. If the “Cancel” button has been operated (Step S 109: Yes), all the processes that contribute to this landmark setting process are canceled (Step S 110), and the landmark setting dialog 30 is closed. (Step S111), the series of landmark mark setting processing is terminated.
  • step S107 the image display control unit 15a sets the item selected on the landmark setting dialog 30 to "feature area start", and supports the label information in the series of in-subject images. If there is no other in-subject image attached, for example, as shown in FIG. 7, the display area on the time bar 27 before the imaging time of the in-subject image newly associated with the label information is Displayed by marker 27c.
  • step S107 the image display control unit 15a, the image display control unit 15a, the selected item is "end of characteristic region", and the correspondence of the label information is included in a series of in-subject images. If there is no other in-subject image attached, for example, as shown in FIG. 8, the display area on the time bar 27 after the imaging time of the in-subject image newly associated with the label information is displayed. Display by marker 27d.
  • step S 107 the image display control unit 15 a determines that the selected item is “feature region start” (or “feature region end”), and the end point ( If there is an in-subject image associated with the label information indicating (or start time), for example, as shown in FIG. 3, a display sandwiched according to each index information on the time bar 27 The area is indicated by marker 27b.
  • the image group recognized as the target image is displayed on the time bar 27 indicating the imaging period of the series of in-subject images.
  • Markers indicating the imaging period 27b to 27d Isogravity Displayed so that it can be distinguished from other display areas on the time bar 27, so that observers can easily recognize the imaging period in which the image of interest exists and observe The time and labor required to search for the target image for each time can be reduced, and the target image can be observed efficiently.
  • a series of images displayed by the image display device 4 according to the present invention is captured using the capsule endoscope 2 introduced into the subject 1.
  • the capsule endoscope 2 introduced into the subject 1.
  • the display device in this wireless in-vivo information acquisition system stores patient information composed of multiple types of information for identifying a subject (subject, patient, etc.) in a storage unit as a database. It has a function as a memorizing failing device.
  • FIG. 9 is a schematic diagram showing an overall configuration of a wireless in-vivo information acquiring system according to the second embodiment.
  • This wireless intra-subject information acquisition system uses a capsule endoscope as an example of the intra-subject introduction apparatus.
  • the wireless in-vivo information acquiring system includes a receiving device 102 having a wireless receiving function and a body cavity image that is taken into the subject 101 to capture data such as video signals to the receiving device 102.
  • a force Psel type endoscope (intra-subject introduction device) 103 is provided.
  • the wireless in-vivo information acquiring system also transfers data between the display device 104 that displays an image of the body cavity based on the video signal received by the receiving device 102, and the receiving device 102 and the display device 104.
  • Communication cable 105 The receiving device 102 includes a receiving jacket 102a worn by the subject 101 and an external device 102b that performs processing of radio signals received through the plurality of antennas Al to An attached to the receiving jacket 102a. Prepare
  • the display device 104 is for displaying an image in a body cavity imaged by the capsule endoscope 103, and data obtained from the receiving device 102 via the communication cable 105. Based on the computer, it has a configuration such as a workstation that displays images. Specifically, the display device 104 may be configured to directly display an image using a CRT display, a liquid crystal display, or the like, or may be configured to output an image to another medium such as a printer.
  • the communication cable 105 is normally detachable from the external device 102b and the display device 104.
  • the external device 102b can input / output or record data information. It has a possible structure.
  • the communication cable 105 initializes the receiving apparatus 102, for example, deletes old data such as image data stored in the storage unit in the receiving apparatus 102 in the previous examination, and registers patient information.
  • it is connected between the external device 102b and the display device 104, and transmits data from the display device 104 to the external device 102b.
  • the external device 102b and the display device 104 are disconnected from each other, and the connection between both is disconnected. While the capsule endoscope 103 moves in / out of the body cavity of the subject 101, the connection between the two is maintained in a disconnected state.
  • the external device 102b receives and records data wirelessly transmitted by the capsule endoscope 103.
  • the communication cable 105 is connected between the external device 102b and the display device 104, Data transmitted from the capsule endoscope 103 recorded by the external device 102b is read by the display device 104.
  • the communication between the external device 102b and the display device 104 according to the present invention is not limited to the communication cable 105, and can be performed by wireless connection or using a cradle capable of data synchronization. It is also possible to communicate by connecting the external device 102b and the display device 104.
  • Patient information includes information such as the examination ID such as the examination date and the name, age, and gender of the subject.
  • FIG. 10 is a block diagram of a schematic configuration of the display device 104 according to the second embodiment.
  • a display device 104 includes an input unit 120 as input means, a database 130 as storage means, and display means.
  • the input unit 120 is realized by a pointing device such as a keyboard and a mouse, and inputs an operation instruction of the display device 104 and instruction information of processing performed by the display device 104, and sends each instruction information to the control unit 150. ing.
  • the input unit 120 also inputs selection information for selecting a desired image from the images displayed in the display area of the display unit 140. For example, when the mouse of the input unit 120 is operated, the cursor displayed on the screen is moved onto the image displayed in the display area of the display unit 140, and the button is clicked on the desired image.
  • the input unit 120 inputs instruction information as selection information for selecting this image.
  • the input unit 120 operates, for example, a keyboard and inputs information such as a test ID as patient information for initializing the receiving apparatus 102, such as the name, age, and sex of the subject. Patient information is sent to the control unit 150. Further, when searching for patient information stored in the database 130, the input unit 120 inputs one piece of information of the patient information, for example, the name of the subject, and the control unit 150 described later It is sent to the search unit 151.
  • information such as a test ID as patient information for initializing the receiving apparatus 102, such as the name, age, and sex of the subject.
  • Patient information is sent to the control unit 150.
  • searching for patient information stored in the database 130 the input unit 120 inputs one piece of information of the patient information, for example, the name of the subject, and the control unit 150 described later It is sent to the search unit 151.
  • the database 130 is realized by, for example, a node disk device or the like, holds various images and the like, and allows patient information sent from the input unit 120 to be stored and searched and read by the search unit 151. .
  • Display unit 140 is realized by a CRT display, a liquid crystal display, or the like, and displays instruction information or an instruction result of input unit 120. Further, the display unit 140 displays the patient information searched by the search unit 151 based on one of the patient information input from the input unit 120 and the patient information input from the input unit 120. . Further, the display unit 140 also displays the body cavity image in the image group stored in the database 130, the reduced image (thumbnail image) instructed by the instruction information, and the like.
  • the control unit 150 controls each process or operation of the input unit 120, the database 130, and the display unit 140.
  • the control unit 150 includes a search unit 151 that searches patient information stored in the database 130.
  • the search unit 151 is a key of the input unit 120 performed by a user such as a doctor. Based on the patient name information in the patient information input by operating one board, the corresponding patient information is searched from the patient information stored in the database and displayed on the display unit 140. To control.
  • search key information is not limited to the above name, but may be information other than the patient information name, such as information such as age.
  • the interface 160 is an input / output interface for connecting the display device 104 to another device such as the receiving device 102.
  • FIG. 11 is a flowchart for explaining a patient information search operation by the display device 104 according to the second embodiment.
  • the search unit 151 Search patient information in the database 130 based on the name of the subject (step S 202) o
  • the patient information as the search result is displayed in the display area of the display unit 140 (step S203). If there is no subject name to be entered, all patient information, for example, age, sex, examination ID, etc., in addition to the name, are entered and stored in the database 130 (step S204).
  • the display device 104 is electrically connected to the external device 102b of the reception device 102 via the communication cable 105, and data is synchronized between the external device 102b and the display device 104. Transfer is possible.
  • the external device 102b includes a hard disk (not shown) as an internal storage medium. Therefore, before the examination, the external device 102b and the display device 104 are connected by the communication cable 105, and the patient information retrieved from the display device 104 of the workstation is transferred to the external device 102b and stored in the hard disk.
  • the external device 103 While the capsule endoscope 103 is moving in the body cavity of the subject 101, the external device 103 The communication cable 105 is removed from the device 102b, and the external device 102b is attached to the subject 101 and records data transmitted from the capsule endoscope 103. After the imaging of the inside of the subject 101 is completed, the external device 102b is connected again to the display device 104 via the communication cable 105, and the data recorded on the hard disk of the external device 102b by the display device 104 is connected. (Image information) is read out.
  • the search unit 151 searches the entire corresponding patient information from the database 130, and the search result is displayed. Since control is performed so that the display unit 140 displays the information, the patient information stored in the database 130 can be quickly retrieved to save labor for patient information input.
  • the patient information is searched at the stage where the input of one piece of patient information has been completed. For example, while the one piece of information is being input, that is, one piece of the one piece of information. It is also possible to perform a search by the search unit 151 at a timing stage when a part is input. In this modification, for example, at the timing when the last name of the full name is input from the input unit 120, the patient information of the same last name searched just before this search is searched from the database 130 and displayed on the display unit 140. Control to display in the area. For example, history information indicating the date and time when the patient information is searched is added to the patient information in the database 130.
  • FIG. 12 is a flowchart of a modification of the second embodiment for explaining the patient information search operation by the display device 104.
  • this modification for example, a case where patient information with the name “Hanako Yamada” is searched will be described (the same applies to the following embodiments).
  • the search unit 151 selects “Yamada”.
  • the patient information of the name “Yamada” searched immediately before this search based on the history information is searched from the database 130 (step S303), and the display unit 140 The retrieved patient information is displayed in the display area (step S304).
  • the subject name “Hanako Yamada” entered above is not present.
  • all patient information for example, age, gender, examination ID, etc. in addition to the name are entered and stored in the database 130 (step S305).
  • the search unit 151 searches the database 130 for corresponding patient information, and the search is performed. Since the result is controlled to be displayed on the display unit 140, patient information stored in the database 130 can be retrieved more quickly, and labor saving of patient information input can be achieved.
  • FIG. 13 is a block diagram of a schematic configuration of the filing system according to the third embodiment.
  • the display device 104 according to the third embodiment is different from the display device according to the second embodiment in that when there are a plurality of databases in the system, a database for searching patient information is selected in the control unit 150.
  • the selection unit 152 is provided as a selection means, and is connected to the server 106 that stores patient information via the interface 160.
  • display device 104 constitutes a second failing device, and servo 106 constitutes a first failing device.
  • the display device 104 includes, in addition to the selection unit 152, an input unit 120 as a second input unit having the same function as the display device of Embodiment 2, a database 130 as a second storage unit, a second display A display unit 140 as a means, a control unit 150, a search unit 151 as a second search means, and an interface 160 are provided.
  • the selection unit 152 is used to select a database for searching patient information with respect to the database 130 in the own device and the database 1 31 in the server 106. In the third embodiment, the information hit by the search is performed.
  • the database 130 in the own device having a high rate is selected first, and when there is no corresponding patient information, the database 131 is selected.
  • the server 106 includes an input unit 121 as a first input unit having the same function as the display device 104 described in the second embodiment, a database 131 as a first storage unit, and a first display unit A display unit 141, a control unit 170, a search unit 171 as a first search means, and an interface 161.
  • the search unit 171 receives the database 131 by the selection unit 152. When selected as the search target, the corresponding patient information is searched from the database 131 based on a part of one of the patient information input from the input unit 120, and the patient information as a search result is obtained.
  • the data is output to the display device 104 via the interface 161 (having the same function as that of the second embodiment).
  • the search unit 171 searches corresponding patient information from the database 131 based on a part of the information, and the patient information as a search result. Is displayed in the display area of the display unit 141.
  • FIG. 14 is a flowchart for explaining a patient information search operation by the filing system of the third embodiment.
  • the search unit 151 inputs “Yamada”.
  • the selection unit 152 selects the database 130 in the own device as a search target (step S403).
  • the search unit 151 uses the history information to search for patient information of the name "Yamada" that was searched immediately before this search.
  • the retrieved patient information is displayed (step S404), and the retrieved patient information is displayed in the display area of the display unit 140 (step S405).
  • the selection unit 152 selects the database 131 as a search target in step S403.
  • This selection information is transmitted to the server 106 via the interface 160, and the search unit 171 of the server 106 is searched for the selection of the database 131 by the selection unit 152 immediately before this search based on the history information.
  • the patient information with the name “Yamada” is searched from the database 131 (step S404), and the patient information as the search result is transmitted to the display device 104 via the interface 161.
  • the search unit 151 of the display device 104 captures the patient information
  • the search unit 151 displays the searched patient information in the display area of the display unit 140 (step S405) and stores the patient information in the database 130. (Step S406).
  • the server 106 displays the display name.
  • a search result indicating that there is no search target is transmitted to device 104, and based on this search result, the control unit 150 inputs all patient information, for example, age, gender, examination ID, etc. in addition to the name. And stored in the database 130 (step S406).
  • the selection unit searches for patient information after selecting a database to be searched.
  • FIG. 15 is a block diagram showing a schematic configuration of the filing system according to the fourth embodiment
  • FIG. 16 is a flowchart for explaining a patient information search operation by the filing system according to the fourth embodiment.
  • FIG. 17 is a diagram illustrating an example of patient information displayed on the display unit 140 of the display device 104.
  • the fourth embodiment is different from the third embodiment in that a confirmation control unit 153 as a confirmation control means for controlling confirmation of patient information is provided in the control unit 150 of the display device 104. is there.
  • the confirmation control unit 153 displays the name [NAME], the age [Age], the gender [Sex], and the examination ID [] as patient information indicating the characteristics of the subject in the display area 142 of the display unit 140. ID] and a control for displaying a confirmation button 143 for allowing the user to confirm the patient information.
  • Confirmation button 143 force For example, when the mouse on the input unit 120 is operated to move the cursor on the screen and right-clicked, confirmation information indicating confirmation of patient information is input to the confirmation control unit 153. The When the confirmation information is input, the confirmation control unit 153 determines that the patient information has been confirmed by the user.
  • step S501 when the user inputs one piece of patient information, “Hanako Yamada” described above by operating the keyboard of the input unit 120 (step S501), the search unit 151 receives the input “Yamada”.
  • step S502 selection unit 152 selects database 130 in its own device as a search target, as in the third embodiment (step S503).
  • step S503 the search unit 151 uses the history information to search the patient information of the name “Yamada” that was searched immediately before this search.
  • the search is performed (step S504), and the confirmation button 143 (see FIG. 17) is displayed in the display area of the display unit 140 together with the searched patient information (step S505).
  • step S506 When the confirmation operation is performed by operating the mouse of the input unit 120 to move the cursor on the screen and the confirmation button 143 is right-clicked (step S506), only the patient information is displayed. Display on the screen (step S507).
  • the selection unit 152 selects the database 131 as a search target in step S503.
  • This selection information is transmitted to the server 106 via the interface 160, and the search unit 171 of the server 106 is searched for the selection of the database 131 by the selection unit 152 immediately before this search based on the history information.
  • the patient information with the name “Yamada” is searched from the database 131 (step S504), and the patient information as the search result is transmitted to the display device 104 via the interface 161.
  • the search unit 151 of the display device 104 displays a confirmation button 143 together with the searched patient information in the display area of the display unit 140 (step S505). Then, by operating the mouse of the input unit 120 to move the cursor on the screen and performing a confirmation operation in which the confirmation button 143 is right-clicked (step S506), only the patient information is displayed on the screen. While displaying (step S507), this patient information is stored in the database 130 (step S508). Even in the fourth embodiment, when there is no subject name “Hanako Yamada” inputted as described above, all patient information, for example, age, sex, examination ID, etc. in addition to the name, are entered. It is stored in the database 130 (step S508).
  • the fourth embodiment has the same effect as the third embodiment and confirms the retrieved patient information, so that the patient information is prevented from being mixed and the retrieved patient information Reliability can be improved.
  • the display device 104 has been described particularly as a function as a failing device, but the image display device 4 according to Embodiment 1 is combined with the functions related to image display. Can be provided. Further, in the first embodiment described above, the image display function has been particularly described for the image display device 4, but the second to fourth embodiments are the same. The display device 104 can be combined with the function as a failing device. Industrial applicability
  • the image display device is useful for an image display device that displays a series of images captured at a plurality of points in time, and particularly uses a capsule endoscope introduced into a subject. This is suitable for an image display device that displays a series of in-subject images captured in this manner.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)

Abstract

 注目画像が存在する撮像期間を容易に認識可能とするため、画像表示装置4は、画像表示制御部15aおよび画像処理制御部15bを有した制御部15を備える。画像表示制御部15aは、一連の被検体内画像の撮像期間を示す時間スケールとしてのタイムバー27を表示し、主表示領域22に表示された主表示画像23に注目画像であることを示す標識情報を付加する付加手段としてのランドマークボタン29を表示し、さらに、標識情報が付加された注目画像の撮像時点に基づいて、タイムバー27上でこの撮像時点以前またはこの撮像時点以降の表示領域を、タイムバー27上の他の表示領域と識別可能に表示する制御を行う。画像処理制御部15bは、携帯型記録媒体5または記憶部14に記憶された画像データを取得して画像処理部13に出力するとともに、この出力した画像に対する各種画像処理の制御を行う。

Description

明 細 書
画像表示装置
技術分野
[0001] 本発明は、複数の時点で撮像された一連の画像を表示する画像表示装置に関し、 特に被検体内に導入されたカプセル型内視鏡を用いて撮像された一連の被検体内 画像の表示に適用して好適な画像表示装置に関するものである。
背景技術
[0002] 近年、内視鏡の分野にお!、て、飲込み式のカプセル型内視鏡が開発されて 、る。
このカプセル型内視鏡は、撮像機能と無線通信機能とを備え、各種臓器内の観察の ために被験者の口から飲み込まれたのち自然排出されるまでの間、例えば胃、小腸 、大腸などの臓器の内部を、その蠕動運動にしたがって移動しながら順次撮像する。
[0003] 臓器内を移動する間、カプセル型内視鏡によって被検体内で撮像された画像デー タは、順次無線信号を用いて被検体外に送信され、被検体外の受信機内に設けら れたメモリに蓄積されるか、受信機に設けられたディスプレイに表示される。医師、看 護師等は、メモリに蓄積された画像データをもとにディスプレイに表示させた画像、あ るいは受信とともに受信機が備えるディスプレイに表示させた画像に基づいて診断を 行うことができる。
[0004] 通常、カプセル型内視鏡によって撮像される一連の画像数は膨大であり、医師、看 護師等は、この膨大な画像を観察して診断を行うために多大な時間と労力を要する 。これに対応して、画像の検索性を向上させるとともに、表示画像がどの臓器の画像 であるかを容易に認識することが可能な画像表示装置が提案されている(例えば、特 許文献 1参照。)。
[0005] この画像表示装置では、一連の画像の撮像期間を示す時間スケールを表示すると ともに、この時間スケール上に各画像の平均色を時系列に表示するようにしている。 各画像の平均色は撮像した臓器に特有の色であるため、医師、看護師等は、この時 間スケール上に表示された平均色を観察することによって、各撮像時刻の画像がど の臓器を撮像した画像でるかを容易に判別することができる。 [0006] 特許文献 1:特開 2004— 337596号公報
発明の開示
発明が解決しょうとする課題
[0007] し力しながら、上述した画像表示装置では、時間スケール上に各画像の平均色を 時系列に表示することによって、撮像時刻に応じて撮像された臓器を判別することが できるものの、観察者等が所望する注目画像に対応させた時間スケール上の識別表 示を行うことはできな力 た。
[0008] 本発明は、上記に鑑みてなされたものであって、任意の注目画像に対応させた時 間スケール上の識別表示を行うことができ、注目画像が存在する撮像期間を容易に 認識可能とすることができる画像表示装置を提供することを目的とする。
課題を解決するための手段
[0009] 上述した課題を解決し、目的を達成するために、請求項 1にかかる画像表示装置 は、複数の時点で撮像された一連の画像とともに該一連の画像の撮像期間を示す 時間スケールを表示する画像表示装置にぉ 、て、前記一連の画像のうち所定画像 に注目画像であることを示す標識情報を付加する付加手段と、前記標識情報が付加 された注目画像の撮像時点以前または撮像時点以降の前記時間スケール上の表示 領域を、該時間スケール上の他の表示領域と識別可能に表示する制御を行う表示 制御手段と、を備えたことを特徴とする。
[0010] また、請求項 2にかかる画像表示装置は、上記の発明において、前記表示制御手 段は、前記標識情報が付加された注目画像が複数ある場合、前記標識情報を有す る各注目画像の撮像時点に挟まれた前記時間スケール上の表示領域を、該時間ス ケール上の他の表示領域と識別可能に表示する制御を行うことを特徴とする。
[0011] また、請求項 3にかかる画像表示装置は、上記の発明において、前記表示制御手 段は、前記時間スケール上の表示領域の表示色相、表示彩度、表示輝度、表示模 様、形状および大きさのうち少なくとも 1つを、前記注目画像の撮像時点の前後で異 ならせて表示する制御を行うことを特徴とする。
[0012] また、請求項 4に力かる画像表示装置は、上記の発明において、前記表示制御手 段は、前記標識情報が付加された各注目画像をサムネイル画像として表示し、この 表示した各サムネイル画像の近傍に該各サムネイル画像の撮像時刻に対応した相 対時間を表示する制御を行うことを特徴とする。
[0013] また、請求項 5にかかる画像表示装置は、上記の発明において、前記表示制御手 段は、前記各サムネイル画像の中から選択された基準サムネイル画像の撮像時点を 基準として前記相対時間を表示する制御を行うことを特徴とする。
[0014] また、請求項 6にかかる画像表示装置は、上記の発明にお 、て、前記各サムネイル 画像の中から前記基準サムネイル画像を選択する選択情報を取得する選択情報取 得手段を備え、前記表示制御手段は、前記選択情報取得手段が選択情報を取得す るごとに前記基準を更新して相対時間を表示する制御を行うことを特徴とすることを 特徴とする。
[0015] また、請求項 7にかかる画像表示装置は、上記の発明において、前記一連の画像 は、被検体内に導入されたカプセル型内視鏡を用いて撮像された被検体内画像で あることを特徴とする。
発明の効果
[0016] 本発明にかかる画像表示装置によれば、任意の注目画像に対応させた時間スケー ル上の識別表示を行うことができ、注目画像が存在する撮像期間を容易に認識可能 とすることができる。
図面の簡単な説明
[0017] [図 1]図 1は、本発明の実施の形態 1にかかる無線型被検体内情報取得システムの 構成を示す模式図である。
[図 2]図 2は、本発明の実施の形態 1にかかる画像表示装置の構成を示すブロック図 である。
[図 3]図 3は、図 1に示した画像表示装置が表示する表示画面を示す図である。
[図 4]図 4は、図 1に示した画像表示装置が表示する表示画面を示す図である。
[図 5]図 5は、図 1に示した画像表示装置が行うランドマーク設定処理手順を示すフロ 一チャートである。
[図 6]図 6は、図 1に示した画像表示装置が表示する表示画面を示す図である。
[図 7]図 7は、図 1に示した画像表示装置が表示する表示画面を示す図である。 [図 8]図 8は、図 1に示した画像表示装置が表示する表示画面を示す図である。
[図 9]図 9は、実施の形態 2にかかる無線型の被検体内情報取得システムの全体構 成を示す模式図である。
[図 10]図 10は、実施の形態 2にかかる表示装置の概略構成を示すブロック図である
[図 11]図 11は、実施の形態 2にかかる表示装置による患者情報の検索動作を説明 するためのフローチャートである。
[図 12]図 12は、表示装置による患者情報の検索動作を説明するための実施の形態 2の変形例のフローチャートである。
[図 13]図 13は、実施の形態 3にかかるファイリングシステムの概略構成を示すブロッ ク図である。
[図 14]図 14は、実施の形態 3にかかるファイリングシステムによる患者情報の検索動 作を説明するためのフローチャートである。
[図 15]図 15は、実施の形態 4にかかるファイリングシステムの概略構成を示すブロッ ク図である。
[図 16]図 16は、実施の形態 4にかかるファイリングシステムによる患者情報の検索動 作を説明するためのフローチャートである。
[図 17]図 17は、表示装置の表示部に表示される患者情報の一例を示す図である。 符号の説明
1 被検体
2 カプセル型内視鏡
3 受信装置
4 画像表示装置
5 携帯型記録媒体
6 受信アンテナ
6a〜6h アンテナ
11 入力部
12 表示部 画像処理部
記憶部
制御部
a 画像表示制御部b 画像処理制御部
ウィンドウ
主表示領域
主表示画像
アンテナ配置図 画像操作領域
カラーバー
a〜26d 分割カラーバー タイムバー
a スライダ
b〜27d マーカー
副表示領域
a, 28a— n サムネイル画像b, 28b' 文字情報c スクローノレパー
ランドマークボタン ランドマーク設定ダイアログ1 被検体
2 受信装置
2a 受信ジャケット
2b 外部装置
3 カプセル型内視鏡4 表示装置
5 上記通信ケーブル 106 サーバ
120, 121 入力部
130, 131 データベース
140, 141 表示部
142 表示領域
143 確認用ボタン
150, 170 制御咅
151, 171 検索部
152 選択部
153 確認制御部
160, 161 インターフェース
Al〜An アンテナ
発明を実施するための最良の形態
[0019] 以下、添付図面を参照して、本発明にかかる画像表示装置の好適な実施の形態で ある無線形被検体内情報取得システムについて詳細に説明する。なお、この実施の 形態によりこの発明が限定されるものではない。また、図面の記載において、同一部 分には同一の符号を付している。
[0020] (実施の形態 1)
まず、本実施の形態 1にかかる画像表示装置を備えた無線型被検体内情報取得シ ステムについて説明する。図 1は、無線型被検体内情報取得システムの全体構成を 示す模式図である。この無線型被検体内情報取得システムは、被検体内導入装置 の一例としてカプセル型内視鏡を用いて 、る。
[0021] 図 1に示すように、無線型被検体内情報取得システムは、被検体 1の体内に導入さ れ、撮像した被検体内画像の画像データを受信装置 3に対して無線送信するカプセ ル型内視鏡 2と、カプセル型内視鏡 2から無線送信された画像データを受信する受 信装置 3と、受信装置 3が受信した画像信号に基づ ヽて被検体内画像を表示する画 像表示装置 4と、受信装置 3と画像表示装置 4との間で画像データ等の受け渡しを行 う携帯型記録媒体 5と、を備える。 [0022] 受信装置 3は、被検体 1の体外表面に貼付等される複数のアンテナ 6a〜6hを有し た受信アンテナ 6を備える。受信装置 3は、カプセル型内視鏡 2から無線送信された 画像データ等を、受信アンテナ 6を介して受信するとともに、受信した各画像データ に、画像データを受信した際の各アンテナ 6a〜6hの受信強度情報を対応付けて記 録する。
[0023] アンテナ 6a〜6hは、例えばループアンテナを用いて実現され、被検体 1の体外表 面上の所定位置、すなわちカプセル型内視鏡 2の通過経路である被検体 1内の各臓 器に対応した位置に配置される。なお、アンテナ 6a〜6hは、被検体 1に着用させる ジャケット等の所定位置に配設されるようにしてもよい。この場合、アンテナ 6a〜6hは 、このジャケット等を介して被検体 1の体外表面上の所定位置に配設される。また、ァ ンテナ 6a〜6hの配置は、被検体 1内の観察や診断等の目的に応じて任意に変更で きる。なお、受信アンテナ 6が備えるアンテナ数は、アンテナ 6a〜6hとして示す 8個に 限定して解釈する必要はなぐ 8個より少なくても多くても構わない。
[0024] 画像表示装置 4は、例えば CRT、液晶ディスプレイ等を備えたワークステーション によって実現され、携帯型記録媒体 5等を介して取得した画像データをもとに画像表 示を行う。また、画像表示装置 4は、プリンタ等の出力装置に画像データを出力して 表示させることもできる。なお、画像表示装置 4は、外部装置との通信機能を備え、有 線または無線通信によって画像データを取得または出力するようにしてもよい。
[0025] 携帯型記録媒体 5は、コンパクトフラッシュ(登録商標)メモリ、 CD、 DVD等によって 実現され、受信装置 3および画像表示装置 4に対して着脱可能であり、これらに挿着 された場合に画像データ等の各種情報の出力または記録を行うことができる。携帯 型記録媒体 5は、例えばカプセル型内視鏡 2が被検体 1内に導入されて ヽる間に受 信装置 3に挿着され、受信装置 3がカプセル型内視鏡 2から受信した画像データ等を 記録する。また、カプセル型内視鏡 2が被検体 1から排出された後には、受信装置 3 から取り出されて画像表示装置 4に挿着され、記録した画像データ等を画像表示装 置 4に出力する。このように受信装置 3と画像表示装置 4との間で携帯型記録媒体 5 によって画像データの受け渡しを行うようにすることで、被検体 1は、カプセル型内視 鏡 2を導入中にも自由に行動することができる。なお、受信装置 3と画像表示装置 4と の間のデータの受け渡しは、有線または無線通信によって行うようにしてもよい。
[0026] つぎに、本実施の形態 1にかかる画像表示装置 4の構成について説明する。図 2は 、画像表示装置 4の構成を示すブロック図である。図 2に示すように、画像表示装置 4 は、各種情報の入力を行う入力部 11と、各種情報を表示する表示部 12と、入力され た画像を処理する画像処理部 13と、各種情報を記憶する記憶部 14と、画像表示装 置 4の各部の処理および動作を制御する制御部 15と、を備える。入力部 11、表示部 12、画像処理部 13および記憶部 14は、制御部 15に電気的に接続されている。また 、画像表示装置 4は、携帯型記録媒体 5に対応するインターフ ースを備え、携帯型 記録媒体 5を着脱可能に装備する。挿着時の携帯型記録媒体 5は、制御部 15に電 気的に接続される。
[0027] 入力部 11は、各種スィッチ、入力キー、マウス、タツチパネル等を有し、表示画像の 選択情報等、各種処理情報の入力を行う。画像表示装置 4のオペレータとしての表 示画像の観察者等は、この入力部 11を介して、表示画像の読み込み、選択、記録 等の各種操作を行うことができる。なお、入力部 11は、 USB、 IEEE1394等、有線ま たは無線の通信用インターフェースを備え、外部装置から画像の入力を行うようにし てもよい。
[0028] 表示部 12は、液晶ディスプレイ等を備え、画像データ等の各種情報を表示する。
表示部 12は、特に、携帯型記録媒体 5または記憶部 14に記憶された画像データ等 の各種データの表示と、画像表示装置 4の観察者等に対して各種処理情報の入力 依頼等を行う GUI (Graphical User Interface)画面の表示と、を行う。
[0029] 記憶部 14は、各種処理プログラム等があら力じめ記憶された ROMと、各処理の処 理パラメータ、処理データ等を記憶する RAMとによって実現される。記憶部 14は、 携帯型記録媒体 5等を介して入力された画像データ、画像処理部 13によって処理さ れた画像データ、画像表示制御部 15aによって処理された表示制御データ等を記憶 することができる。
[0030] 画像処理部 13は、画像処理制御部 15bによる制御に基づいて、携帯型記録媒体 5または記憶部 14から画像データを取得し、この取得した画像データに対して、濃度 変換 (ガンマ変換等)、平滑ィ匕 (ノイズ除去等)、鮮鋭ィ匕 (エッジ強調等)、画像認識 ( 特徴画像領域の検出、平均色の演算等)等の各種画像処理を行う。
[0031] 制御部 15は、記憶部 14に記憶された各種処理プログラムを実行する CPU等によ つて実現される。制御部 15は、特に、画像表示制御部 15aおよび画像処理制御部 1 5bを備える。画像表示制御部 15aは、携帯型記録媒体 5または記憶部 14に記憶さ れた画像データとしての複数時点で撮像された一連の画像を表示部 12に表示させ る制御を行う。本実施の形態 1では特に、この一連の画像として、被検体 1の各種臓 器内を複数の時点で撮像した一連の被検体内画像が表示される。
[0032] また、画像表示制御部 15aは、特に、一連の被検体内画像の撮像期間を示す時間 スケールを表示するとともに、一連の被検体内画像のうち所定の主表示領域に表示 された主表示画像に注目画像であることを示す標識情報を付加する付加手段として の操作アイコンを表示する制御を行う。この操作アイコンは、例えば GUI画面上の操 作ボタンとして表示される。
[0033] さらに、画像表示制御部 15aは、標識情報が付加された注目画像の撮像時点に基 づ 、て、時間スケール上でこの撮像時点以前またはこの撮像時点以降の表示領域 を、時間スケール上の他の表示領域と識別可能に表示する制御を行う。ここで、撮像 時点以前とするか撮像時点以降とするかは、注目画像に付加された指標情報の種 別に応じて判断される。また、画像表示制御部 15aは、標識情報が付加された注目 画像が複数ある場合には、時間スケール上で各注目画像の撮像時点に挟まれた表 示領域を、時間スケール上の他の表示領域と識別可能に表示するように制御を行う
[0034] なお、識別可能な表示として、画像表示制御部 15aは、時間スケール上の所望の 識別領域の表示色相、表示彩度、表示輝度、表示模様 (表示パターン)、形状およ び大きさ等のうち少なくとも 1つを、他の表示領域と異ならせた表示を行うようにする。 ここで、時間スケール上の所望の識別領域とは、時間スケール上で注目画像の撮像 時点によって区切られた一方の領域である。すなわち、画像表示制御部 15aは、時 間スケール上の表示領域の表示色相、表示彩度、表示輝度、表示模様 (表示パター ン)、形状および大きさ等のうち少なくとも 1つを、注目画像の撮像時点の前後で異な らせて表示する制御を行うこととなる。 [0035] また、画像表示制御部 15aは、標識情報が付加された各注目画像を主表示領域と 異なる副表示領域にサムネイル画像として表示する制御を行うとともに、この表示した 各サムネイル画像の近傍に、各サムネイル画像の撮像時刻に対応した相対時間を 表示する制御を行うこともできる。この場合、画像表示制御部 15aは、副表示領域に 表示させたサムネイル画像の中から任意に選択された基準サムネイル画像の撮像時 点を基準とした相対時間を表示するように制御を行うことができる。
[0036] なお、画像表示制御部 15aは、基準サムネイル画像を選択する選択情報を取得す る選択情報取得手段としての操作アイコン等を表示する制御を行う。この操作アイコ ンは、例えば GUI画面上の専用の操作ボタン、あるいはサムネイル画像に重畳され た不可視の操作ボタンとして表示される。これらの操作アイコンでは、例えば入力部 1 1が備えるマウスを用いた操作アイコン上でのクリック操作によって、所定の選択情報 の入力が実行される。また、画像表示制御部 15aは、このような操作アイコン等の操 作の実行に応じて選択情報を取得するごと、すなわち選択情報が更新されるごとに、 上記の基準を更新し、新たな基準時点による相対時間の表示をするように制御を行 うことができる。
[0037] 画像処理制御部 15bは、携帯型記録媒体 5または記憶部 14に記憶された画像デ ータを取得して画像処理部 13に出力するとともに、この出力した画像に対する各種 画像処理の制御を行う。また、画像処理制御部 15bは、画像処理部 13における処理 結果の画像データを記憶部 14または携帯型記録媒体 5に出力して記憶させる。
[0038] つぎに、画像表示装置 4が表示部 12に表示する表示画面 (GUI画面)について説 明する。図 3は、画像表示装置 4が画像表示制御部 15aによる制御に基づいて表示 する GUI画面の一例を示す図である。図 3に示すように、表示部 12には、 GUI画面 としてのウィンドウ 21 (「診察 ·診断」ウィンドウ)が表示される。ウィンドウ 21内には、主 表示画像等を表示する主表示領域 22と、アイコンとして示された各種画像操作ボタ ンを表示する画像操作領域 25と、一連の被検体内画像の撮像期間を示す時間スケ ールとしてのカラーバー 26およびタイムバー 27と、サムネイル画像等を表示する副 表示領域 28とが、表示画面上でこの順に上方から下方へ並列表示される。
[0039] 主表示領域 22内には、入力部 3から入力された指示情報をもとに一連の被検体内 画像の中から選択された画像である主表示画像 23と、被検体 1上のアンテナ 6a〜6 hの配置を模式的に示すアンテナ配置図 24とが表示される。また、主表示領域 22内 には、主表示画像 23として選択された被検体内画像に対応付けられて ヽる被検体 1 の名前、 ID番号、性別、年齢、生年月日、撮像年月日、撮像時刻等が文字情報とし て表示される。なお、主表示領域 22には、所定操作に応じて 2以上の所定数の主表 示画像が表示可能である。
[0040] アンテナ配置図 24には、アンテナ 6a〜6hの配置が被検体 1の一部輪郭とともに模 式的に表示される。また、アンテナ配置図 24には、アンテナ 6a〜6hの近傍に、この 各アンテナの識別番号としてのアンテナ番号が文字表示される。例えば図 3では、ァ ンテナ番号として「1」〜「8」が示されている。力かるアンテナ配置図 24では、主表示 画像 23として表示された被検体内画像の撮像時に、アンテナ 6a〜6hのうち最も受 信強度が大き力つた最大強度アンテナが、他のアンテナと識別可能に表示される。 例えば図 3では、最大強度アンテナとして、アンテナ番号「4」のアンテナ力 他のアン テナと識別可能に表示された状態が示されている。なお、識別可能な表示として、画 像表示制御部 15aは、例えば最大強度アンテナの表示輝度、表示色相および表示 彩度等のうち少なくとも 1つを、他のアンテナと異ならせて表示させることができる。
[0041] カラーバー 26には、全体として、一連の被検体内画像に含まれる各画像の平均色 が時系列に表示される。すなわち、カラーバー 26上の各時点の表示領域には、この 時点に撮像された被検体内画像の平均色が表示される。一連の被検体内画像は、 撮像した臓器に応じて特有の平均色を有するため、観察者等は、カラーバー 26上の 時間軸(図 3では横軸)に沿った平均色の推移から、各時点の被検体内画像に撮像 された臓器を容易に判別することができる。
[0042] また、カラーバー 26は、特に、表示領域全体を表示画面上で上下方向に 4分割し て構成されており、分割された各段の分割カラーバーには、一連の被検体内画像の 分割画像領域における対応する各段の領域平均色または期間領域平均色が時系 列に表示される。すなわち、各被検体内画像の平均色は、上下方向に全画像領域を 4分割した分割画像領域ごとに算出され、カラーバー 26には、各時点の表示領域を 上下方向に 4分割した分割スケール領域ごとに、この分割順に対応付けられた各分 割画像領域の領域平均色または期間領域平均色が表示される。
[0043] 力かるカラーバー 26によると、観察者等は、分割された各段の分割カラーバーの時 間軸に沿った平均色の推移から、各時点の被検体内画像に撮像された臓器が判別 できるだけでなぐ撮像された臓器内部の状態を分割画像領域に応じて詳細に容易 に推定することができる。これによつて、観察者等は、例えばある期間の最上段の分 割カラーバー 26aに赤色系の平均色が視認された場合、この期間に撮像された臓器 内部に出血部位が存在したこと、この期間の被検体内画像における最上段の分割画 像領域に対応する撮像範囲に出血部位が存在したこと等が認識することができる。ま た、例えば管腔部を含む画像領域の黒色系の平均色と、他の画像領域の平均色と が異なる段の分割カラーバーに表示されることによって、管腔部を除いた撮像範囲 の臓器内部の状態を認識することができる。
[0044] タイムバー 27には、このタイムバー 27上で時間軸方向に移動可能なスライダ 27a が表示される。スライダ 27aは、主表示画像 23として表示された被検体内画像の撮 像時点をタイムバー 27上で指示するとともに、主表示画像 23の表示切替に連動して タイムバー 27上を移動する。例えば、画像操作領域 25内のいずれかの画像操作ボ タンが図示しな!、マウス等によって操作された場合、主表示画像 23が切替表示され るとともに、スライダ 27aは、この切替表示後に主表示画像 23として表示された被検 体内画像の撮像時点を指示する位置に移動する。
[0045] また、これとは逆に、スライダ 27aが図示しな 、マウス等によって移動操作された場 合には、移動操作後にスライダ 27aが指示する撮像時点に対応した被検体内画像が 主表示画像 23として表示される。なお、スライダ 27aが連続的に移動操作された場 合、この移動操作に追随して、主表示画像 23は連続的に切替表示される。かかるス ライダ 27aによると、観察者等は、例えばカラーバー 26を参照して見出した所望の臓 器の被検体内画像に対応する撮像時点にスライダ 27aを移動操作することによって、 この被検体内画像を即座に主表示画像 23として表示させることができる。
[0046] さらに、タイムバー 27には、一連の被検体内画像の中から注目画像として認識され た画像群の撮像期間を示すマーカー 27bが、タイムバー 27上の他の表示領域と識 別可能に表示される。例えば図 3では、マーカー 27bは、他の表示領域と異なる色で 表示され、観察者等に容易に視認可能とされている。
[0047] マーカー 27bで示される撮像期間の開始時点(マーカー 27b左端の時点)と終了 時点 (マーカー 27bの右端の時点)とは、被検体内画像に標識情報を付加する操作 アイコンとしてのランドマークボタン 29の操作によって設定される。すなわち、マーカ 一 27bの開始時点とする撮像時点の被検体内画像を主表示画像 23として表示し、ラ ンドマークボタン 29に対して図示しないマウスによるクリック操作等を実行して、この 主表示画面 23としての被検体内画像に開始時点を示す標識情報が付加される。同 様に、マーカー 27bの終了時点とする撮像時点の被検体内画像を主表示し、ランド マークボタン 29を操作して、主表示した被検体内画像に終了時点を示す標識情報 が付加される。そして、このように開始時点と終了時点とが設定された場合に、指定さ れた撮像期間を明示するマーカー 27bが表示される。
[0048] 力かるマーカー 27bによると、観察者等は、このマーカー 27bで示される撮像期間 内の被検体内画像が特に注目すべき注目画像であることなどを容易に認識すること ができる。また、マーカー 27bの情報、すなわちマーカー 27bの開始時点と終了時点 とを示す標識情報を被検体内画像に対応付けて記録することによって、この一連の 被検体内画像を表示するごとに注目画像が存在する撮像期間を表示することができ 、観察者等の画像検索にかける時間および労力を削減することができるとともに、注 目画像の観察を効率的に行えるようにできる。
[0049] なお、時間スケールとしてのカラーバー 26およびタイムバー 27の左端は、一連の 被検体内画像における時系列で先頭の画像の撮像時点を示し、同右端は、時系列 で末尾の画像の撮像時点を示す。通常、この左端の撮像時点は、受信装置 3による 画像データの受信開始時点に相当し、右端の撮像時点は、画像データの受信終了 時点に相当する。
[0050] 副表示領域 28には、一連の被検体内画像の中から選択抽出された画像がサムネ ィル画像 28aとして表示される。具体的には、例えば、所定のボタン操作またはマウ ス操作等に応じて、この操作時点に主表示画像 23として表示されている被検体内画 像がサムネイル画像 28aとして副表示領域 28に追加表示される。
[0051] また、副表示領域 28には、各サムネイル画像の近傍に個別の付加情報が文字情 報 28bとして表示される。この文字情報 28bとしては、表示される各サムネイル画像の 撮像時刻や、撮像時点に対応し所定時点を基準とした相対時間、観察者等によって 付記されたコメント等が示される。例えば図 3における文字情報 28bでは、時系列で 先頭の画像の撮像時点を基準とした各サムネイル画像の撮像時点に対応する相対 時間が示されている。
[0052] かかる相対時間の表示では、所定操作に応じて基準時刻を変更可能であり、具体 的には、例えば表示されて ヽるサムネイル画像の 、ずれかをクリック操作することによ つて、この操作対象としたサムネイル画像の撮像時点を相対時間の基準にすることが できる。例えば図 4に示す文字情報 28b'では、サムネイル画像 28a— nをクリック操 作した結果として、相対時間の基準(時間「00: 00: 00」 )がこのサムネイル画像 28a —nの撮像時点に変更されている。
[0053] なお、このように各サムネイル画像に相対時間を表示することによって、観察者らは 、注目するサムネイル画像の被検体内での撮像位置を、おおよそ予測することができ る。具体的には、例えば小腸を撮像し始めた被検体内画像の撮像時点を基準として 、病変部等を含む画像を観察した場合、この画像の相対時間をもとに、小腸開始位 置を基点とした病変部等の位置が推測できる。
[0054] また、副表示領域 28に示される文字情報 28b, 28b'は、所定操作に応じて表示す る情報内容を切替可能であるとともに、非表示とすることも可能である。さらに、副表 示領域 28には、各サムネイル画像と、タイムバー 27上に示される各サムネイル画像 の撮像時点と、を対応付けた線分が表示される。
[0055] なお、副表示領域 28には表示領域の大きさに制約があるため、所定数までのサム ネイル画像 28aがー括表示可能とされている。例えば図 3には、最大 5枚のサムネィ ル画像が一括表示可能な場合が示されて ヽる。抽出されたサムネイル画像 28aがー 括表示可能な所定数より多い場合、この所定数を超えたサムネイル画像は、副表示 領域 28内に表示されるスクロールバー 28cの操作に応じて切替表示される。また、 副表示領域 28に表示された各サムネイル画像は、所定のボタン操作またはマウス操 作等に応じて主表示画像 23として表示される。
[0056] ここで、本実施の形態 1にかかる画像表示装置 4がタイムバー 27上にマーカーを表 示する処理としてのランドマーク設定処理の処理手順について説明する。図 5は、ラ ンドマーク設定処理手順を示すフローチャートである。図 5に示すように、画像処理制 御部 15bは、ランドマーク設定処理の処理開始の判断として、ランドマークボタン 29 が操作されたカゝ否かを判断し (ステップ S 101)、操作されていない場合 (ステップ S1 01 :No)、この判断処理を所定周期で繰り返す。
[0057] 一方、ランドマークボタン 29が操作された場合には (ステップ S101: Yes)、画像表 示制御部 15aは、標識情報の詳細を取得するためのランドマーク設定ダイアログを表 示する(ステップ S102)。このステップ S102では、画像表示制御部 15aは、例えば図 6に示すように、ランドマーク設定ダイアログ 30をウィンドウ 21上に重ねて表示する制 御を行う。
[0058] 図 6に示すランドマーク設定ダイアログ 30では、タイムバー 27上に示すマーカーの 開始時点を指示する標識情報を設定する項目としての「特徴領域開始」と、同様に終 了時点を指示する標識情報を設定する項目としての「特徴領域終了」と、 V、ずれの設 定も行わな 、項目としての「設定なし」と、サムネイル画像 28aに付記する文字情報と しての相対時間の基準を設定する項目としての「相対時間基準」とが表示され、 V、ず れかの項目が選択される。
[0059] また、ランドマーク設定ダイアログ 30には、選択した項目を確定するための「OK」ボ タンと、ランドマーク設定ダイアログ 30による設定操作をキャンセルする「キャンセル」 ボタンとが表示される。なお、「ΟΚ」ボタンまたは「キャンセル」ボタンが操作された場 合、所定の処理後、ランドマーク設定ダイアログ 30が自動的に閉じられる。
[0060] つぎに、画像表示制御部 15aは、ランドマーク設定ダイアログ 30上で設定項目が 選択されたか否かを判断し (ステップ S 103)、選択された場合 (ステップ S 103: Yes) 、設定された項目の設定内容を一時記憶する (ステップ S104)。一方、設定項目が 選択されていない場合には(ステップ S 103 : No)、ステップ S 105に移行する。なお、 ステップ S 103における判断処理は、ステップ S 102の実行力も所定時間経過時点に 行うようにするとよい。
[0061] つづいて、画像表示制御部 15aは、ランドマーク設定ダイアログ 30上で「OK」ボタ ンが操作されたか否かを判断し (ステップ S 105)、操作された場合 (ステップ S 105 : Yes)、選択された設定項目に応じて標識情報を更新し (ステップ S106)、更新した 標識情報に基づいてタイムバー 27上にマーカーを表示する (ステップ S 107)。その 後、更新した標識情報を記憶部 14に記録して (ステップ S108)、ステップ S111に移 行する。
[0062] 一方、「OK」ボタンが操作されていない場合には (ステップ S 105 : No)、画像表示 制御部 15aは、ランドマーク設定ダイアログ 30上で「キャンセル」ボタンが操作された か否かを判断し (ステップ S 109)、操作されていない場合 (ステップ S 109 : No)、ステ ップ S 103からの処理を繰り返す。「キャンセル」ボタンが操作された場合には (ステツ プ S 109 : Yes)、このランドマーク設定処理に力かるすベての処理をキャンセルし (ス テツプ S 110)、ランドマーク設定ダイアログ 30を閉じ (ステップ S 111)、この一連のラ ンドマーク設定処理を終了する。
[0063] なお、ステップ S107では、画像表示制御部 15aは、ランドマーク設定ダイアログ 30 上で選択された項目が「特徴領域開始」であって、一連の被検体内画像内に標識情 報の対応付けられた被検体内画像が他に存在しなければ、例えば図 7に示すように 、新たに標識情報が対応付けられた被検体内画像の撮像時点以前のタイムバー 27 上の表示領域を、マーカー 27cによって表示する。
[0064] また、ステップ S 107では、画像表示制御部 15aは、画像表示制御部 15aは、選択 された項目が「特徴領域終了」であって、一連の被検体内画像内に標識情報の対応 付けられた被検体内画像が他に存在しなければ、例えば図 8に示すように、新たに 標識情報が対応付けられた被検体内画像の撮像時点以降のタイムバー 27上の表 示領域を、マーカー 27dによって表示する。
[0065] さらに、ステップ S 107では、画像表示制御部 15aは、選択された項目が「特徴領域 開始」(もしくは「特徴領域終了」)であって、一連の被検体内画像内に終了時点 (もし くは開始時点)を示す標識情報の対応付けられた被検体内画像が存在する場合に は、例えば図 3に示したように、タイムバー 27上で各指標情報に応じて挟まれた表示 領域を、マーカー 27bによって表示する。
[0066] 以上説明したように、本実施の形態 1にかかる画像表示装置 4では、一連の被検体 内画像の撮像期間を示すタイムバー 27上に、注目画像として認識された画像群の 撮像期間を示すマーカー 27b〜27d等力 タイムバー 27上の他の表示領域と識別 可能に表示されるため、観察者等は、注目画像が存在する撮像期間を容易に認識 することができ、観察ごとに注目画像を検索する時間および労力を削減することがで き、注目画像の観察を効率的に行うことなどができる。
[0067] なお、上述した実施の形態 1では、本発明にかかる画像表示装置 4が表示する一 連の画像を、被検体 1内に導入されたカプセル型内視鏡 2を用いて撮像された一連 の被検体内画像として説明したが、かかる被検体内画像に限定して解釈する必要は なぐ複数の時点に撮像された一連の画像であれば任意の画像でよぐ撮像装置や 撮像対象も任意でよい。
[0068] (実施の形態 2)
つぎに、実施の形態 2にかかる無線型被検体内情報取得システムについて説明す る。この無線型被検体内情報取得システムにおける表示装置は、被検体 (被検者、 患者等)を特定するための複数種類の情報から構成された患者情報を、データべ一 スとしての記憶部に記憶するフアイリング装置としての機能を有している。
[0069] 図 9は、本実施の形態 2にかかる無線型被検体内情報取得システムの全体構成を 示す模式図である。この無線型被検体内情報取得システムは、被検体内導入装置 の一例としてカプセル型内視鏡を用いている。図 9において、無線型被検体内情報 取得システムは、無線受信機能を有する受信装置 102と、被検体 101内に導入され 、体腔内画像を撮像して受信装置 102に対して映像信号などのデータ送信を行う力 プセル型内視鏡 (被検体内導入装置) 103とを備える。また、無線型被検体内情報 取得システムは、受信装置 102が受信した映像信号に基づいて体腔内画像を表示 する表示装置 104と、受信装置 102と表示装置 104との間でデータの受け渡しを行う ための通信ケーブル 105とを備える。受信装置 102は、被検体 101によって着用さ れる受信ジャケット 102aと、この受信ジャケット 102aに取り付けられた複数のアンテ ナ Al〜Anを介して受信される無線信号の処理などを行う外部装置 102bとを備える
[0070] 表示装置 104は、カプセル型内視鏡 103によって撮像された体腔内画像などを表 示するためのものであり、通信ケーブル 105を介して受信装置 102から得られるデー タに基づ 、て画像表示を行うワークステーションなどのような構成を有する。具体的に は、表示装置 104は、 CRTディスプレイ、液晶ディスプレイなどによって直接画像を 表示する構成としても良いし、プリンタなどのように、他の媒体に画像を出力する構成 としても良い。
[0071] 通信ケーブル 105は、通常、外部装置 102bおよび表示装置 104に対して着脱可 能であって、両者に対して挿着された時に外部装置 102bはデータ情報の入出力ま たは記録が可能な構造を有する。本実施の形態 2では、通信ケーブル 105は、受信 装置 102を初期化、たとえば以前の検査で受信装置 102内の記憶部に記憶された 画像データなどの古いデータの削除や、患者情報の登録を行うときに、外部装置 10 2bと表示装置 104間に接続され、表示装置 104からのデータを外部装置 102bに送 信する。次に、初期化が終了すると、外部装置 102bと表示装置 104間から取り外さ れ、両者の接続を断状態にする。カプセル型内視鏡 103が被検体 101の体腔内を 移動して!/ヽる間は、両者の接続は断状態を維持する。
[0072] また、外部装置 102bは、カプセル型内視鏡 103が無線送信したデータを受信し、 記録する。そして、カプセル型内視鏡 103が被検体 101から排出された後、つまり、 被検体 101の内部の撮像が終了した後には、通信ケーブル 105は、外部装置 102b と表示装置 104間に接続され、外部装置 102bで記録されたカプセル型内視鏡 103 から送信されたデータが、この表示装置 104によって、読み出される構成を有する。 なお、本発明にかかる外部装置 102bと表示装置 104との通信は、上記通信ケープ ル 105〖こ限らず、無線接続によって行うことも可能であり、またはデータの同期が可 能なクレードルを用いて外部装置 102bと表示装置 104を接続させて通信することも 可能である。この場合には表示装置とクレードルを通信ケーブルで接続し、このタレ 一ドル上に外部装置 102bを載置させて、外部装置 102bと表示装置 104間でのデ ータ転送を行うように構成する。なお、患者情報は、検査日などの検査 IDや被検者 の氏名、年齢、性別などの情報が含まれる。
[0073] 次に、表示装置 104の構成を説明する。図 10は、本実施の形態 2にかかる表示装 置 104の概略構成を示すブロック図である。図 10において、表示装置 104は、入力 手段としての入力部 120と、記憶手段としてのデータベース 130と、表示手段として の表示部 140と、制御部 150と、他の機器との接続手段であるインターフェース 160 とを備え、患者情報や画像情報などのデータ情報のフアイリング機能を有する。
[0074] 入力部 120は、キーボードやマウスなどのポインティングデバイスなどによって実現 され、表示装置 104の動作指示および表示装置 104が行う処理の指示情報を入力 し、各指示情報を制御部 150に送出している。また、入力部 120は、表示部 140の表 示領域に表示された画像の中から所望の画像を選択する選択情報を入力する。たと えば、入力部 120のマウスを操作し、画面上に表示されたカーソルを、表示部 140の 表示領域に表示された画像上に移動させて、所望の画像に対してボタンをクリックし た場合、入力部 120は、この画像を選択するための選択情報としての指示情報を入 力する。
[0075] また、入力部 120は、たとえばキーボードを操作し、受信装置 102を初期化するた めの患者情報としての検査 IDゃ被検者の氏名、年齢、性別などの情報を入力し、こ の患者情報を制御部 150に送出している。さらに、入力部 120は、データベース 130 に記憶されている患者情報を検索する場合、この患者情報のうちの 1つの情報、たと えば被検者の氏名の情報を入力し、後述する制御部 150の検索部 151に送出して いる。
[0076] データベース 130は、たとえばノヽードディスク装置などによって実現され、各種画像 などを保持するとともに、入力部 120から送出される患者情報を記憶および検索部 1 51による情報検索および読み出しを可能にしている。
[0077] 表示部 140は、 CRTディスプレイ、液晶ディスプレイなどによって実現され、入力部 120の指示情報あるいは指示結果などを表示する。また、表示部 140は、入力部 12 0から入力する患者情報の表示および入力部 120から入力する患者情報のうちの 1 つの情報をもとに、検索部 151で検索された患者情報を表示する。さらに、表示部 1 40は、データベース 130に格納された画像群における体腔内画像、指示情報によつ て指示された縮小画像 (サムネイル画像)なども表示する。
[0078] 制御部 150は、入力部 120、データベース 130、表示部 140の各処理または動作 を制御する。制御部 150は、データベース 130に記憶されている患者情報を、検索 する検索部 151を備える。検索部 151は、医師などのユーザが行う入力部 120のキ 一ボードの操作によって入力される患者情報の中の被検者氏名の情報をもとに、該 当する患者情報をデータベースに記憶されている患者情報の中から検索して、表示 部 140に表示させる制御を行う。なお、ここで、同姓同名の被検者が複数いる場合に は、該当する複数の患者情報を検索および表示して、ユーザが入力部 120のマウス の操作によって現に検査を行う被検者の患者情報を選択可能にする。また、検索キ 一となる情報は、上記氏名に限らず、患者情報の氏名以外の他の 1つの情報、たと えば年齢などの情報であっても無論かまわない。また、インターフェース 160は、表示 装置 104と他の装置、たとえば受信装置 102とを接続させるための入出力用のインタ 一フェースである。
[0079] 次に、表示装置 104による患者情報の検索動作について、図 11のフローチャート に基づいて説明する。図 11は、本実施の形態 2にかかる表示装置 104による患者情 報の検索動作を説明するためのフローチャートである。図 11において、まず医師など ユーザが入力部 120のキーボードを操作することによって行う患者情報の 1つの情報 、たとえば被検者氏名の入力が完了すると (ステップ S201)、検索部 151は、この入 力された被検者氏名をもとにデータベース 130内の患者情報を検索する (ステップ S 202) o
[0080] そして、該当する患者情報を検索すると、その検索結果である患者情報を表示部 1 40の表示領域に表示させる (ステップ S203)。なお、上記入力される被検者氏名が ない場合には、全ての患者情報、たとえば氏名の他に年齢、性別、検査 IDなどを入 力させて、データベース 130に保存させる(ステップ S204)。
[0081] また、表示装置 104は、通信ケーブル 105を介して受信装置 102の外部装置 102 bと電気的に接続されており、外部装置 102bと表示装置 104間でデータの同期をと つて、データの転送を可能にしている。この外部装置 102bは、内部記憶媒体として の図示しないハードディスクを備えている。したがって、検査前には、外部装置 102b と表示装置 104とを通信ケーブル 105で接続させ、ワークステーションの表示装置 1 04から検索された患者情報が外部装置 102bに転送されてハードディスクに保存さ れる。
[0082] また、カプセル型内視鏡 103が被検体 101の体腔内を移動している間は、外部装 置 102bから通信ケーブル 105が取り外され、外部装置 102bは、被検体 101に取り 付けられて、カプセル型内視鏡 103から送信されるデータを記録する。そして、被検 体 101の内部の撮像が終了した後には、外部装置 102bを再び通信ケーブル 105を 介して表示装置 104に接続させ、表示装置 104によって、外部装置 102bのハード ディスクに記録されたデータ (画像情報)が読み出される。
[0083] このように、本実施の形態 2では、患者情報のうちの 1つの情報を入力した段階で、 検索部 151が該当する患者情報全体をデータベース 130から検索して、その検索結 果を表示部 140に表示させるように制御するので、データベース 130に記憶された 患者情報を迅速に取り出して、患者情報入力の省力化を図ることができる。
[0084] (変形例)
なお、本実施の形態 2では、患者情報のうちの 1つの情報を入力し終えた段階で患 者情報の検索を行ったが、たとえば上記 1つの情報の入力中、すなわち上記 1つの 情報の一部が入力されたタイミング段階で、検索部 151による検索を行うことも可能 である。この変形例では、たとえば入力部 120から氏名のうちの名字が入力されたタ イミング段階で、この検索の直前に検索した同じ名字の患者情報を、データベース 1 30から検索して表示部 140の表示領域に表示させるように制御する。なお、データ ベース 130の患者情報には、たとえば患者情報を検索したときの日時を示す履歴情 報が付加されている。
[0085] 図 12は、表示装置 104による患者情報の検索動作を説明するための本実施の形 態 2の変形例のフローチャートである。なお、この変形例では、たとえば「山田花子」 名の患者情報を検索する場合について説明する(以下の実施の形態においても同 様とする)。
[0086] 図 12において、ユーザが入力部 120のキーボードを操作することによって行う患者 情報の 1つの情報、上記「山田花子」を入力する場合 (ステップ S301)、検索部 151 は、「山田」の入力されたタイミング段階で (ステップ S302)、履歴情報をもとにこの検 索の直前に検索された「山田」名の患者情報を、データベース 130から検索して (ス テツプ S303)、表示部 140の表示領域にこの検索した患者情報を表示させる (ステツ プ S304)。なお、この変形例でも、上記入力される被検者氏名「山田花子」がない場 合には、全ての患者情報、たとえば氏名の他に年齢、性別、検査 IDなどを入力させ て、データベース 130に保存させる(ステップ S305)。
[0087] このように、この変形例では、患者情報のうちの 1つの情報のさらに一部が入力され たタイミング段階で、検索部 151が該当する患者情報をデータベース 130から検索し て、その検索結果を表示部 140に表示させるように制御するので、データベース 130 に記憶された患者情報をさらに迅速に取り出して、患者情報入力の省力化を図ること ができる。
[0088] (実施の形態 3)
図 13は、実施の形態 3にかかるファイリングシステムの概略構成を示すブロック図で ある。図 13において、本実施の形態 3の表示装置 104が実施の形態 2の表示装置と 異なる点は、システム内に複数のデータベースがある場合、制御部 150内に患者情 報を検索するデータベースを選択する選択手段としての選択部 152を設ける点と、ィ ンターフェース 160を介して患者情報を記憶するサーバ 106と接続されている点であ る。
[0089] 本実施の形態 3において、表示装置 104は、第 2のフアイリング装置を構成し、サー ノ 106は、第 1のフアイリング装置を構成している。表示装置 104は、選択部 152の 他に、実施の形態 2の表示装置と同様の機能を有する第 2の入力手段としての入力 部 120、第 2の記憶手段としてのデータベース 130、第 2の表示手段としての表示部 140、制御部 150、第 2の検索手段としての検索部 151、インターフェース 160を備 える。選択部 152は、自装置内のデータベース 130とサーバ 106内のデータベース 1 31に対して、患者情報を検索するためのデータベースを選択するためのもので、本 実施の形態 3では、検索によって情報ヒット率が高い自装置内のデータベース 130を 一番に選択して、該当する患者情報がない場合に、データベース 131の選択を行つ ている。
[0090] サーバ 106は、実施の形態 2に示した表示装置 104と同様の機能を有する第 1の 入力手段としての入力部 121、第 1の記憶手段としてのデータベース 131、第 1の表 示手段としての表示部 141、制御部 170、第 1の検索手段としての検索部 171、イン ターフェース 161を備える。検索部 171は、選択部 152によってデータベース 131が 検索対象に選択された場合に、入力部 120から入力された患者情報のうちの 1つの 情報の一部をもとに、データベース 131から該当する患者情報を検索し、検索結果 である患者情報をインターフェース 161を介して表示装置 104に出力する(実施の形 態 2の変形例と同様の機能を有する)。また、検索部 171は、入力部 121から患者情 報が入力された場合も、その 1つの情報の一部をもとに、データベース 131から該当 する患者情報を検索し、検索結果である患者情報を表示部 141の表示領域に表示 するように制御する。
[0091] 次に、ファイリングシステムによる患者情報の検索動作を図 14のフローチャートに基 づいて説明する。図 14は、本実施の形態 3のファイリングシステムによる患者情報の 検索動作を説明するためのフローチャートである。図 14において、まずユーザが入 力部 120のキーボードを操作することによって行う患者情報の 1つの情報、上記「山 田花子」を入力する場合 (ステップ S401)、検索部 151は、「山田」の入力が完了する と (ステップ S402)、選択部 152は、自装置内のデータベース 130を検索対象として 選択する (ステップ S403)。
[0092] 次に、検索部 151は、選択部 152によるデータベース 130の選択に対して、履歴情 報をもとにこの検索の直前に検索された「山田」名の患者情報を、データベース 130 力も検索して (ステップ S404)、表示部 140の表示領域にこの検索した患者情報を 表示させる(ステップ S405)。
[0093] ここで、患者情報が検索されないと、選択部 152は、ステップ S403において、デー タベース 131を検索対象として選択する。この選択情報は、インターフェース 160を 介してサーバ 106に伝送され、サーバ 106の検索部 171は、選択部 152によるデー タベース 131の選択に対して、履歴情報をもとにこの検索の直前に検索された「山田 」名の患者情報を、データベース 131から検索して (ステップ S404)、検索結果であ る患者情報をインターフェース 161を介して表示装置 104に伝送する。
[0094] 表示装置 104の検索部 151は、この患者情報を取り込むと、表示部 140の表示領 域にこの検索した患者情報を表示させるとともに (ステップ S405)、この患者情報を データベース 130に記憶させる(ステップ S406)。なお、本実施の形態 3でも、上記 入力される被検者氏名「山田花子」がない場合には、たとえばサーバ 106から表示装 置 104へ検索対象がな 、旨の検索結果を伝送し、この検索結果に基づ!、て制御部 150が全ての患者情報、たとえば氏名の他に年齢、性別、検査 IDなどを入力させて 、データベース 130に保存させる(ステップ S406)。
[0095] このように、本実施の形態 3では、システム内に複数のデータベースが存在する場 合に、選択部が検索対象となるデータベースの選択を行った後に、患者情報の検索 を行うので、実施の形態 2と同様の効果を奏するとともに、複数のデータベース力 必 要な患者情報を確実に取り出すことができる。
[0096] (実施の形態 4)
図 15は、実施の形態 4にかかるファイリングシステムの概略構成を示すブロック図で あり、図 16は、本実施の形態 4にかかるファイリングシステムによる患者情報の検索動 作を説明するためのフローチャートであり、図 17は、表示装置 104の表示部 140に 表示される患者情報の一例を示す図である。図 15において、本実施の形態 4が実施 の形態 3と異なる点は、表示装置 104の制御部 150内に患者情報の確認を制御する ための確認制御手段としての確認制御部 153を備える点である。確認制御部 153は 、図 17に示すように、表示部 140の表示領域 142に被検者の特徴を示す患者情報 として、氏名 [NAME]と年齢 [Age]と性別 [Sex]と検査 ID[ID]とを表示させるとともに 、ユーザに上記患者情報を確認させるための確認用ボタン 143とを表示させる制御 を行う。
[0097] 確認用ボタン 143力 たとえば入力部 120のマウスを操作し、画面上のカーソルを 移動させて、右クリックされた場合に、患者情報の確認を示す確認情報が確認制御 部 153に入力される。確認制御部 153は、確認情報が入力すると、ユーザによる患 者情報の確認がなされたと判断する。
[0098] 次に、ファイリングシステムによる患者情報の検索動作を図 16のフローチャートに基 づいて説明する。図 16において、まずユーザが入力部 120のキーボードを操作する ことによって行う患者情報の 1つの情報、上記「山田花子」を入力する場合 (ステップ S501)、検索部 151は、「山田」の入力が完了すると (ステップ S502)、選択部 152 は、実施の形態 3と同様に、自装置内のデータベース 130を検索対象として選択す る(ステップ S 503)。 [0099] 次に、検索部 151は、選択部 152によるデータベース 130の選択に対して、履歴情 報をもとにこの検索の直前に検索された「山田」名の患者情報を、データベース 130 力も検索して (ステップ S504)、表示部 140の表示領域にこの検索した患者情報とと もに、確認用ボタン 143 (図 17参照)を表示させる(ステップ S505)。
[0100] そして、入力部 120のマウスを操作し、画面上のカーソルを移動させて、確認用ボ タン 143が右クリックされる確認動作が行われると (ステップ S506)、上記患者情報の みを画面上に表示させる(ステップ S 507)。
[0101] ここで、患者情報が検索されないと、選択部 152は、ステップ S503において、デー タベース 131を検索対象として選択する。この選択情報は、インターフェース 160を 介してサーバ 106に伝送され、サーバ 106の検索部 171は、選択部 152によるデー タベース 131の選択に対して、履歴情報をもとにこの検索の直前に検索された「山田 」名の患者情報を、データベース 131から検索して (ステップ S504)、検索結果であ る患者情報を、インターフェース 161を介して表示装置 104に伝送する。
[0102] 表示装置 104の検索部 151は、この患者情報を取り込むと、表示部 140の表示領 域にこの検索した患者情報とともに、確認用ボタン 143を表示させる (ステップ S505) 。そして、入力部 120のマウスを操作し、画面上のカーソルを移動させて、確認用ボ タン 143が右クリックされる確認動作が行われると (ステップ S506)、上記患者情報の みを画面上に表示させるとともに (ステップ S507)、この患者情報をデータベース 13 0に記憶させる (ステップ S508)。なお、本実施の形態 4でも、上記入力される被検者 氏名「山田花子」がない場合には、全ての患者情報、たとえば氏名の他に年齢、性 別、検査 IDなどを入力させて、データベース 130に保存させる(ステップ S508)。
[0103] このように、本実施の形態 4では、実施の形態 3と同様の効果を奏するとともに、検 索した患者情報の確認を行うので、患者情報の取り違いを防ぎ、検索した患者情報 の信頼性を向上させることができる。
[0104] なお、上述した実施の形態 2〜4では、表示装置 104について特にフアイリング装 置としての機能を説明したが、実施の形態 1にかかる画像表示装置 4の画像表示に 関する機能を組み合わせて備えることができる。また、上述した実施の形態 1では、 画像表示装置 4について特に画像表示機能を説明したが、実施の形態 2〜4にかか る表示装置 104のフアイリング装置としての機能を組み合わせて備えることができる。 産業上の利用可能性
以上のように、本発明にかかる画像表示装置は、複数の時点で撮像された一連の 画像を表示する画像表示装置に有用であり、特に被検体内に導入されたカプセル 型内視鏡を用いて撮像された一連の被検体内画像を表示する画像表示装置に適し ている。

Claims

請求の範囲
[1] 複数の時点で撮像された一連の画像とともに該一連の画像の撮像期間を示す時 間スケールを表示する画像表示装置にぉ 、て、
前記一連の画像のうち所定画像に注目画像であることを示す標識情報を付加する 付加手段と、
前記標識情報が付加された注目画像の撮像時点以前または撮像時点以降の前記 時間スケール上の表示領域を、該時間スケール上の他の表示領域と識別可能に表 示する制御を行う表示制御手段と、
を備えたことを特徴とする画像表示装置。
[2] 前記表示制御手段は、前記標識情報が付加された注目画像が複数ある場合、前 記標識情報を有する各注目画像の撮像時点に挟まれた前記時間スケール上の表示 領域を、該時間スケール上の他の表示領域と識別可能に表示する制御を行うことを 特徴とする請求項 1に記載の画像表示装置。
[3] 前記表示制御手段は、前記時間スケール上の表示領域の表示色相、表示彩度、 表示輝度、表示模様、形状および大きさのうち少なくとも 1つを、前記注目画像の撮 像時点の前後で異ならせて表示する制御を行うことを特徴とする請求項 1または 2に 記載の画像表示装置。
[4] 前記表示制御手段は、前記標識情報が付加された各注目画像をサムネイル画像と して表示し、この表示した各サムネイル画像の近傍に該各サムネイル画像の撮像時 刻に対応した相対時間を表示する制御を行うことを特徴とする請求項 1〜3のいずれ か一つに記載の画像表示装置。
[5] 前記表示制御手段は、前記各サムネイル画像の中から選択された基準サムネイル 画像の撮像時点を基準として前記相対時間を表示する制御を行うことを特徴とする 請求項 4に記載の画像表示装置。
[6] 前記各サムネイル画像の中から前記基準サムネイル画像を選択する選択情報を取 得する選択情報取得手段を備え、
前記表示制御手段は、前記選択情報取得手段が選択情報を取得するごとに前記 基準を更新して相対時間を表示する制御を行うことを特徴とする請求項 5に記載の 画像表示装置。
前記一連の画像は、被検体内に導入されたカプセル型内視鏡を用いて撮像された 被検体内画像であることを特徴とする請求項 1〜6のいずれか一つに記載の画像表 示装置。
PCT/JP2006/316339 2005-08-22 2006-08-21 画像表示装置 WO2007023771A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN2006800306400A CN101248452B (zh) 2005-08-22 2006-08-21 图像显示装置
EP06796602A EP1918870A4 (en) 2005-08-22 2006-08-21 IMAGE DISPLAY DEVICE
AU2006282459A AU2006282459B2 (en) 2005-08-22 2006-08-21 Image display device
US11/577,027 US20090027486A1 (en) 2005-08-22 2006-08-21 Image display apparatus
US12/028,919 US8169472B2 (en) 2005-08-22 2008-02-11 Image display apparatus with interactive database

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2005240252A JP2007058334A (ja) 2005-08-22 2005-08-22 ファイリング装置およびファイリングシステム
JP2005-240252 2005-08-22
JP2005263090A JP4472602B2 (ja) 2005-09-09 2005-09-09 画像表示装置
JP2005-263090 2005-09-09

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US11/577,027 A-371-Of-International US20090027486A1 (en) 2005-08-22 2006-08-21 Image display apparatus
US12/028,919 Continuation-In-Part US8169472B2 (en) 2005-08-22 2008-02-11 Image display apparatus with interactive database

Publications (1)

Publication Number Publication Date
WO2007023771A1 true WO2007023771A1 (ja) 2007-03-01

Family

ID=37771516

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/316339 WO2007023771A1 (ja) 2005-08-22 2006-08-21 画像表示装置

Country Status (4)

Country Link
US (1) US20090027486A1 (ja)
EP (1) EP1918870A4 (ja)
AU (1) AU2006282459B2 (ja)
WO (1) WO2007023771A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010103868A1 (ja) * 2009-03-11 2010-09-16 オリンパスメディカルシステムズ株式会社 画像処理システム、その外部装置およびその画像処理方法
US20100249506A1 (en) * 2009-03-26 2010-09-30 Intuitive Surgical, Inc. Method and system for assisting an operator in endoscopic navigation
JP2011502553A (ja) * 2007-11-08 2011-01-27 オリンパスメディカルシステムズ株式会社 画像と組織特性データとを関係付けるための方法およびシステム
US10856770B2 (en) 2009-03-26 2020-12-08 Intuitive Surgical Operations, Inc. Method and system for providing visual guidance to an operator for steering a tip of an endoscopic device towards one or more landmarks in a patient

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4594835B2 (ja) * 2005-09-09 2010-12-08 オリンパスメディカルシステムズ株式会社 画像表示装置
JP2008200173A (ja) * 2007-02-19 2008-09-04 Hoya Corp 電子内視鏡用プロセッサ
EP3553751A3 (en) * 2009-03-26 2019-12-18 Intuitive Surgical Operations Inc. System for providing visual guidance for steering a tip of an endoscopic device towards one or more landmarks and assisting an operator in endoscopic navigation
CN102256533B (zh) * 2009-07-29 2014-03-05 奥林巴斯医疗株式会社 图像显示装置、解读辅助系统以及解读辅助方法
JP5242866B1 (ja) * 2011-08-12 2013-07-24 オリンパスメディカルシステムズ株式会社 画像管理装置、方法、及び読影用プログラム
US10405734B2 (en) * 2012-06-29 2019-09-10 Given Imaging Ltd. System and method for displaying an image stream
CN105142493A (zh) * 2013-08-30 2015-12-09 奥林巴斯株式会社 图像管理装置
CN108135455B (zh) * 2015-10-08 2020-01-24 奥林巴斯株式会社 内窥镜系统
US20230218146A1 (en) * 2022-01-10 2023-07-13 Endoluxe Inc. Systems, apparatuses, and methods for endoscopy

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004321603A (ja) * 2003-04-25 2004-11-18 Olympus Corp 画像表示装置、画像表示方法および画像表示プログラム
JP2004337596A (ja) 2003-04-25 2004-12-02 Olympus Corp 画像表示装置、画像表示方法および画像表示プログラム
JP2006061469A (ja) * 2004-08-27 2006-03-09 Olympus Corp 画像表示装置および画像表示プログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3736706B2 (ja) * 1997-04-06 2006-01-18 ソニー株式会社 画像表示装置及び方法
JP2001034631A (ja) * 1999-07-22 2001-02-09 Olympus Optical Co Ltd 画像ファイル装置及び画像ファイル装置のデータベース作成方法
CN100378862C (zh) * 2000-12-05 2008-04-02 松下电器产业株式会社 记录再生装置
US7119814B2 (en) * 2001-05-18 2006-10-10 Given Imaging Ltd. System and method for annotation on a moving image
US6951536B2 (en) * 2001-07-30 2005-10-04 Olympus Corporation Capsule-type medical device and medical system
JP3974769B2 (ja) * 2001-11-06 2007-09-12 オリンパス株式会社 カプセル型医療装置
US7474327B2 (en) * 2002-02-12 2009-01-06 Given Imaging Ltd. System and method for displaying an image stream
US7286997B2 (en) * 2002-05-07 2007-10-23 Cembex Care Solutions, Llc Internet-based, customizable clinical information system
EP1501415A1 (en) * 2002-05-09 2005-02-02 Given Imaging Ltd. System and method for in vivo sensing
JP2004041709A (ja) * 2002-05-16 2004-02-12 Olympus Corp カプセル医療装置
IL162740A (en) * 2003-06-26 2010-06-16 Given Imaging Ltd Device, method and system for reduced transmission imaging
EP2290613B1 (en) * 2003-10-02 2017-02-15 Given Imaging Ltd. System and method for presentation of data streams
US20050108234A1 (en) * 2003-11-17 2005-05-19 Nokia Corporation Speed browsing of media items in a media diary application
US7986337B2 (en) * 2004-09-27 2011-07-26 Given Imaging Ltd. System and method for editing an image stream captured in vivo

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004321603A (ja) * 2003-04-25 2004-11-18 Olympus Corp 画像表示装置、画像表示方法および画像表示プログラム
JP2004337596A (ja) 2003-04-25 2004-12-02 Olympus Corp 画像表示装置、画像表示方法および画像表示プログラム
JP2006061469A (ja) * 2004-08-27 2006-03-09 Olympus Corp 画像表示装置および画像表示プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1918870A4

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011502553A (ja) * 2007-11-08 2011-01-27 オリンパスメディカルシステムズ株式会社 画像と組織特性データとを関係付けるための方法およびシステム
WO2010103868A1 (ja) * 2009-03-11 2010-09-16 オリンパスメディカルシステムズ株式会社 画像処理システム、その外部装置およびその画像処理方法
JP4642940B2 (ja) * 2009-03-11 2011-03-02 オリンパスメディカルシステムズ株式会社 画像処理システム、その外部装置およびその画像処理方法
US8167789B2 (en) 2009-03-11 2012-05-01 Olympus Medical Systems Corp. Image processing system and method for body-insertable apparatus
CN102421350B (zh) * 2009-03-11 2014-12-17 奥林巴斯医疗株式会社 图像处理系统、其外部装置及其图像处理方法
US20100249506A1 (en) * 2009-03-26 2010-09-30 Intuitive Surgical, Inc. Method and system for assisting an operator in endoscopic navigation
US10004387B2 (en) * 2009-03-26 2018-06-26 Intuitive Surgical Operations, Inc. Method and system for assisting an operator in endoscopic navigation
US10524641B2 (en) 2009-03-26 2020-01-07 Intuitive Surgical Operations, Inc. Method and system for assisting an operator in endoscopic navigation
US10856770B2 (en) 2009-03-26 2020-12-08 Intuitive Surgical Operations, Inc. Method and system for providing visual guidance to an operator for steering a tip of an endoscopic device towards one or more landmarks in a patient
US11744445B2 (en) 2009-03-26 2023-09-05 Intuitive Surgical Operations, Inc. Method and system for assisting an operator in endoscopic navigation

Also Published As

Publication number Publication date
AU2006282459B2 (en) 2010-04-22
AU2006282459A1 (en) 2007-03-01
US20090027486A1 (en) 2009-01-29
EP1918870A1 (en) 2008-05-07
EP1918870A4 (en) 2012-05-02

Similar Documents

Publication Publication Date Title
WO2007023771A1 (ja) 画像表示装置
JP4575124B2 (ja) 画像表示装置
CN101686799B (zh) 图像处理装置以及图像处理装置的动作方法
US8216129B2 (en) Image display apparatus, endoscope system using the same, and image display method
EP2316327B1 (en) Image display device, image display method, and image display program
EP1787574B1 (en) Image display device, image display method, and image display program
JP5379442B2 (ja) 画像表示装置
JP4537803B2 (ja) 画像表示装置
US20090019381A1 (en) Image display apparatus
US8225209B2 (en) Capsule endoscope image display device
EP1952751B1 (en) Device for displaying in vivo image, receiving device, and image display system and method using them
US20080184168A1 (en) Image display apparatus
JP4472602B2 (ja) 画像表示装置
US20080172255A1 (en) Image display apparatus
JP2006302043A (ja) 画像表示装置、画像表示方法および画像表示プログラム
JP4574983B2 (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
WO2017006618A1 (ja) サーバ、内視鏡システム、送信方法およびプログラム
JP5231160B2 (ja) 画像表示装置、画像表示方法、および画像表示プログラム
JP2007058334A (ja) ファイリング装置およびファイリングシステム
JP4464894B2 (ja) 画像表示装置
JP4923096B2 (ja) 画像表示装置
JP5684300B2 (ja) 画像表示装置、画像表示方法、および画像表示プログラム
JP2005131031A (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
JP2007075154A (ja) 画像表示装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680030640.0

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 11577027

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006796602

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2006282459

Country of ref document: AU

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2006282459

Country of ref document: AU

Date of ref document: 20060821

Kind code of ref document: A