WO2007029569A1 - 画像表示装置 - Google Patents

画像表示装置 Download PDF

Info

Publication number
WO2007029569A1
WO2007029569A1 PCT/JP2006/317005 JP2006317005W WO2007029569A1 WO 2007029569 A1 WO2007029569 A1 WO 2007029569A1 JP 2006317005 W JP2006317005 W JP 2006317005W WO 2007029569 A1 WO2007029569 A1 WO 2007029569A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
area
average color
divided
display device
Prior art date
Application number
PCT/JP2006/317005
Other languages
English (en)
French (fr)
Inventor
Katsumi Hirakawa
Original Assignee
Olympus Medical Systems Corp.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Medical Systems Corp. filed Critical Olympus Medical Systems Corp.
Priority to CN200680033010.9A priority Critical patent/CN101257835B/zh
Priority to US11/571,412 priority patent/US8406489B2/en
Priority to EP06796982A priority patent/EP1922979B1/en
Publication of WO2007029569A1 publication Critical patent/WO2007029569A1/ja

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/041Capsule endoscopes for imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • A61B1/00016Operational features of endoscopes characterised by signal transmission using wireless means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion

Definitions

  • the present invention relates to an image display device that displays a series of images taken at a plurality of points in time, and in particular, a series of in-subject images taken using a capsule endoscope introduced into the subject.
  • the present invention relates to an image display apparatus suitable for application to the above display.
  • This capsule endoscope has an imaging function and a wireless communication function, and is swallowed from the subject's mouth for observation in various organs until it is naturally discharged, for example, stomach, small intestine, large intestine, etc.
  • the inside of the organ is sequentially imaged while moving according to the peristaltic motion.
  • image data captured in the subject by the capsule endoscope is sequentially transmitted to the outside of the subject using a wireless signal and provided in a receiver outside the subject.
  • a wireless signal Stored in a stored memory or displayed on a display provided in the receiver. Doctors, nurses, etc. can make a diagnosis based on the image displayed on the display based on the image data stored in the memory, or the image displayed on the display provided in the receiver along with the reception. .
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2004-337596
  • the average color of the entire image area is obtained for each image! /, So that, for example, a bleeding site or the like is captured in a part of the image area.
  • a region to be noted in a part of the image region there is a problem that it is difficult to recognize the presence of the region to be noticed by the average color power. For this reason, there is a problem in that when an image is searched and discriminated by observing the average color, an image including a region to be noticed may be missed.
  • the present invention has been made in view of the above, and a feature of a series of images captured at a plurality of time points can be displayed over a whole image capturing period for each of a plurality of image regions. It is an object of the present invention to provide an image display apparatus that can easily recognize the state of an imaging target for each image region in the image area.
  • an image display device includes a time scale indicating an imaging period of the series of images together with a series of images taken at a plurality of time points.
  • An image display device to be displayed has an average color calculation means for calculating an area average color of each divided image area obtained by dividing each image in the series of images into predetermined image areas, and on the time scale.
  • Display control means for performing control to display the area average color of the divided image area in which each divided scale area is associated with each divided scale area obtained by dividing the display area at each time point in association with each divided image area It is characterized by comprising.
  • the area average color averages the area average colors of a plurality of images for each of the divided image areas for each predetermined partial imaging period. It is characterized by the average color of the period region.
  • each of the divided image regions is formed by dividing each of the images in a predetermined division direction
  • the display control means includes the time
  • the display area at each point on the scale is the same as the division direction on the display screen.
  • the area average color or the period area average color of the divided image area associated with each divided scale area is displayed in each divided scale area associated with each divided image area in this division order. It is characterized by performing control.
  • each of the divided image areas is obtained by dividing each image into four in the vertical direction and the horizontal direction on the display screen.
  • the display control means is configured to divide the display area at each time point on the time scale into four in the vertical and horizontal directions on the display screen, and to divide each divided scale associated with the divided image areas in this division order. Control is performed to display the area average color or the period area average color of the divided image area in which the respective divided scale areas are associated with the area.
  • the image display device includes feature region detection means for detecting a feature image region having a predetermined feature from each divided image region of each image,
  • the average color calculation means as the area average color, weighted areas obtained by averaging different color information in the feature image area and color information in the divided image area excluding the feature image area. An average color is calculated.
  • the weighted region average color is obtained by dividing the weighted region average color of a plurality of images by the predetermined partial imaging period. It is a period area average color averaged for each split image area.
  • the average color calculation means may calculate the average color of the coverage area of the characteristic image including the characteristic image area as the average color of the period area.
  • the weighted period area average color is calculated by averaging the area average colors of the plurality of images in the partial imaging period excluding the characteristic image by different weights.
  • the average color calculation means calculates the period region average color using a series of images of a predetermined sampling period in the partial imaging period. It is characterized by that.
  • the average color calculation means uses color information of each pixel at a predetermined sampling interval in the divided image region. The area average color is calculated.
  • the series of images are in-subject images captured using a capsule endoscope introduced into the subject. It is characterized by that.
  • the image display device of the present invention it is possible to display the characteristics of a series of images captured at a plurality of time points over a whole imaging period for each of a plurality of image areas, and the image area at each imaging time point. It is possible to easily recognize the state of the imaging target for each
  • FIG. 1 is a schematic diagram showing a configuration of a wireless in-vivo information acquiring system according to a first embodiment of the present invention.
  • FIG. 2 is a block diagram showing a configuration of the image display apparatus according to the first embodiment of the present invention.
  • FIG. 3 is a diagram showing a display screen displayed by the image display device shown in FIG. 1.
  • FIG. 4 is a diagram for explaining the color bar drawing process shown in FIG. 3.
  • FIG. 4 is a diagram for explaining the color bar drawing process shown in FIG. 3.
  • FIG. 5 is a flowchart showing a color bar drawing processing procedure performed by the image display device shown in FIG. 1.
  • FIG. 6 is a flowchart showing the average color calculation processing procedure shown in FIG.
  • FIG. 7 is a block diagram showing a configuration of an image display apparatus according to Embodiment 2 of the present invention.
  • FIG. 8 is a flowchart showing a color bar drawing processing procedure performed by the image display device shown in FIG.
  • FIG. 9 is a flowchart showing the average color calculation processing procedure shown in FIG.
  • FIG. 1 is a schematic diagram showing the overall configuration of a wireless in-vivo information acquiring system.
  • This wireless intra-subject information acquisition system uses a capsule endoscope as an example of the intra-subject introduction apparatus.
  • the wireless in-vivo information acquisition system is a capsule that is introduced into the body of the subject 1 and wirelessly transmits the image data of the captured in-subject image to the receiving device 3.
  • the endoscope 2, the receiver 3 that receives image data wirelessly transmitted from the capsule endoscope 2, and displays the in-subject image based on the image signal received by the receiver 3.
  • an image display device 4 and a portable recording medium 5 for transferring image data and the like between the reception device 3 and the image display device 4.
  • the receiving device 3 includes a receiving antenna 6 having a plurality of antennas 6a to 6h attached to the external surface of the subject 1 or the like.
  • the receiving device 3 receives the image data and the like wirelessly transmitted from the capsule endoscope 2 via the receiving antenna 6, and each antenna 6a to 6h when the received image data is received in each received image data. Are recorded in association with each other.
  • the antennas 6a to 6h are realized by using, for example, a loop antenna, and each organ in the subject 1 which is a predetermined position on the external surface of the subject 1, that is, a passage path of the capsule endoscope 2 is used. It is arranged at a position corresponding to.
  • the antennas 6a to 6h may be arranged at predetermined positions such as a jacket worn by the subject 1. In this case, the antennas 6a to 6h are disposed at predetermined positions on the external surface of the subject 1 through the jacket or the like.
  • the arrangement of the antennas 6a to 6h can be arbitrarily changed according to the purpose of observation or diagnosis in the subject 1. Note that the number of antennas included in the receiving antenna 6 need not be limited to the eight antennas shown as the antennas 6a to 6h, and may be smaller or larger than eight.
  • the image display device 4 is realized by, for example, a workstation including a CRT, a liquid crystal display, and the like, and displays an image based on image data acquired via the portable recording medium 5 or the like.
  • the image display device 4 can also output and display image data on an output device such as a printer.
  • the image display device 4 may have a communication function with an external device, and may acquire or output image data through wired or wireless communication.
  • the portable recording medium 5 is realized by a compact flash (registered trademark) memory, a CD, a DVD, and the like, and is detachable from the receiving device 3 and the image display device 4, and is attached to these.
  • Various information such as image data can be output or recorded.
  • the portable recording medium 5 is inserted into the receiving device 3 while the capsule endoscope 2 is introduced into the subject 1, and is received by the receiving device 3 from the capsule endoscope 2. Record data. Further, after the capsule endoscope 2 is ejected from the subject 1, the capsule endoscope 2 is taken out from the receiving device 3 and inserted into the image display device 4, and the recorded image data and the like are output to the image display device 4. In this way, by passing image data between the receiving device 3 and the image display device 4 by the portable recording medium 5, the subject 1 can freely move even while the capsule endoscope 2 is introduced. Can act. Note that data exchange between the receiving device 3 and the image display device 4 may be performed by wired or wireless communication.
  • FIG. 2 is a block diagram showing a configuration of the image display device 4.
  • the image display device 4 includes an input unit 11 for inputting various types of information, a display unit 12 for displaying various types of information, an image processing unit 13 for processing input images, and various types of information.
  • a storage unit 14 that stores data and a control unit 15 that controls processing and operation of each unit of the image display device 4 are provided.
  • the input unit 11, the display unit 12, the image processing unit 13, and the storage unit 14 are electrically connected to the control unit 15.
  • the image display device 4 includes an interface corresponding to the portable recording medium 5 and is detachably equipped with the portable recording medium 5.
  • the portable recording medium 5 at the time of insertion is electrically connected to the control unit 15.
  • the input unit 11 includes various switches, input keys, a mouse, a touch panel, and the like, and inputs various processing information such as display image selection information.
  • An observer of the display image as an operator of the image display device 4 can perform various operations such as reading, selection, and recording of the display image via the input unit 11.
  • the input unit 11 may be provided with a wired or wireless communication interface such as USB or IEEE1394, and may input an image from an external device.
  • the display unit 12 includes a liquid crystal display or the like, and displays various types of information such as image data.
  • the display unit 12 is, in particular, image data stored in the portable recording medium 5 or the storage unit 14 And a GUI (Graphical User Interface) screen that requests an observer of the image display device 4 to input various processing information.
  • GUI Graphic User Interface
  • the storage unit 14 is realized by a ROM that stores various processing programs and the like, and a RAM that stores processing parameters, processing data, and the like for each processing.
  • the storage unit 14 can store image data input via the portable recording medium 5 and the like, image data processed by the image processing unit 13, display control data processed by the image display control unit 15a, and the like. it can.
  • the image processing unit 13 acquires image data from the portable recording medium 5 or the storage unit 14 based on control by the image processing control unit 15b, and performs density conversion (gamma conversion) on the acquired image data. Etc.), smoothness (noise removal, etc.), sharpness (edge enhancement, etc.), image recognition (detection of feature image area, calculation of average color, etc.), etc.
  • the image processing unit 13 particularly includes an average color calculation unit 13a that calculates an average color in a series of inputted images.
  • the average color calculation unit 13a divides each image in the series of images into a plurality of predetermined image areas, and averages the color information of each pixel in each divided image area as a result of the division. The area average color is calculated. Further, the average color calculation unit 13a calculates a period region average color obtained by averaging the region average colors of a plurality of images in a series of images for each divided image region for each partial imaging period which is a predetermined period.
  • the control unit 15 is realized by a CPU or the like that executes various processing programs stored in the storage unit 14.
  • the control unit 15 includes an image display control unit 15a and an image processing control unit 15b.
  • the image display control unit 15a controls the display unit 12 to display a series of images captured at a plurality of points in time as image data stored in the portable recording medium 5 or the storage unit 14.
  • a series of in-subject images obtained by imaging various internal organs of the subject 1 at a plurality of time points is displayed as the series of images.
  • the image display control unit 15a particularly displays a time scale indicating the imaging period of a series of in-vivo images, and associates the display area at each time point on the time scale with the divided image area. Control is performed to display the area average color or the period area average color of the divided image area in which each division scale area is associated with each division scale area as a result of the division. More specifically, when the average color calculation unit 13a divides each image in a predetermined division direction, the image display control unit 15a displays the display area at each time point on the time scale on the display screen. The image is divided in the same direction as the image division direction, and each divided scale area is associated with each divided image area in this division order. Then, control is performed to display the area average color or the period area average color of the divided image area in which each division scale area is associated with each division scale area.
  • the image display control unit 15a displays the display area at each time point on the time scale when, for example, the average color calculation unit 13a divides each image into four in the horizontal direction (or vertical direction) on the display screen. Similarly, divide into 4 in the left-right direction (or up-down direction) on the display screen, and associate each divided scale area with each divided image area in the division order. That is, the divided scale areas and the divided image areas of the left ends, the right ends, etc. (or the uppermost stages, the lowermost stages, etc.) are associated with each other.
  • the time axis of the time scale is preferably set in the up-down direction (or left-right direction).
  • the number of divisions of the divided image area and the divided scale area is preferably about four divisions, but it is not necessary to interpret the division limitation to four divisions.
  • the image processing control unit 15b acquires image data stored in the portable recording medium 5 or the storage unit 14 and outputs the image data to the image processing unit 13, and controls various image processes for the output image. I do. Further, the image processing control unit 15b outputs and stores the image data of the processing result in the image processing unit 13 to the storage unit 14 or the portable recording medium 5.
  • FIG. 3 is a diagram illustrating an example of a GUI screen displayed by the image display device 4 based on control by the image display control unit 15a.
  • the display unit 12 displays a window 21 (“diagnosis / diagnosis” window) as a GUI screen.
  • the window 21 there are a main display area 22 for displaying a main display image, an image operation area 25 for displaying various image operation buttons shown as icons, and a time period indicating a series of in-vivo image capturing periods.
  • a color bar 26 and time bar 27 as a scale, and a sub display area 28 for displaying thumbnail images and the like are displayed side by side in this order on the display screen from the top to the bottom.
  • a main display image 23 which is an image selected from the images, and an antenna arrangement diagram 24 schematically showing the arrangement of the antennas 6a to 6h on the subject 1 are displayed.
  • the name, ID number, gender, age, date of birth, and date of imaging of the subject 1 associated with the in-subject image selected as the main display image 23 are displayed.
  • the imaging time is displayed as text information.
  • two or more predetermined numbers of main display images can be displayed in accordance with a predetermined operation.
  • the arrangement of the antennas 6a to 6h is schematically displayed together with a partial outline of the subject 1.
  • an antenna number as an identification number of each antenna is displayed in the vicinity of the antennas 6a to 6h.
  • antenna numbers “1” to “8” are shown.
  • FIG. 3 shows a state in which the antenna having the antenna number “4” is displayed as the maximum strength antenna so that it can be distinguished from other antennas.
  • the image display control unit 15a can display, for example, at least one of the display intensity, display hue, display saturation, and the like of the maximum intensity antenna differently from other antennas. .
  • the average colors of the images included in the series of in-subject images are displayed in time series. That is, in the display area at each time point on the color bar 26, the average color of the in-subject image captured at this time point is displayed. Since a series of in-subject images have a specific average color depending on the organ that was imaged, the observer, etc., can see from the transition of the average color along the time axis (horizontal axis in Fig. 3) on the color bar 26. The organ imaged in the in-subject image at each time point can be easily identified.
  • the color bar 26 is configured by dividing the entire display area into four parts in the vertical direction on the display screen.
  • the divided color bars 26a to 26d in each of the divided stages have a series of coverings.
  • the area average color or period area average color of each corresponding step in the divided image area of the in-vivo image is displayed in time series.
  • the average color of each in-subject image is calculated for each divided image area obtained by dividing the entire image area into four parts in the vertical direction.
  • the area average color or period area average color of each divided image area is displayed.
  • an observer or the like is captured in the in-subject image at each time point from the transition of the average color along the time axis of the divided color bars 26a to 26d of each divided stage.
  • the internal state of the imaged organ as long as the organ can be estimated can be easily recognized in detail according to the divided image area.
  • an observer or the like indicates that a bleeding site exists in the organ imaged in this period, It can be recognized that there is a bleeding site in the imaging range corresponding to the uppermost divided image region in the in-subject image during this period.
  • the black color average color of the image area including the lumen part and the average color of the other image areas are displayed on the divided color bars in different stages, so that the imaging range excluding the lumen part is displayed.
  • the internal state of the organ can be recognized.
  • the time bar 27 displays a slider 27a that can be moved in the time axis direction on the time bar 27.
  • the slider 27a indicates on the time bar 27 the time point at which the in-subject image displayed as the main display image 23 is captured, and moves on the time bar 27 in conjunction with the display switching of the main display image 23. For example, when any of the image operation buttons in the image operation area 25 is not shown !, and is operated by a mouse or the like, the main display image 23 is switched and the slider 27a is displayed after the switching display. Move to a position that indicates when the in-vivo image displayed as image 23 is captured.
  • the in-subject image corresponding to the imaging time pointed by the slider 27a after the moving operation is the main display image 23. Is displayed.
  • the main display image 23 is continuously switched and displayed following the moving operation.
  • the observer or the like moves the slider 27a to the imaging time corresponding to the in-subject image of the desired organ found with reference to the color bar 26, for example, thereby moving the inside of the subject.
  • the image can be displayed as the main display image 23 immediately.
  • the left end of the color bar 26 and the time bar 27 as time scales indicates the time point when the first image was captured in a time series in a series of in-subject images, and the right end represents the time series of the last image in the time series. Indicates the time of imaging. Normally, the leftmost imaging point is determined by the receiver 3.
  • the image data reception start time corresponds to the image data reception start time
  • the image data reception end time corresponds to the image data reception end time.
  • an image selected and extracted from a series of in-subject images is displayed as a thumbnail image.
  • the in-subject image displayed as the main display image 23 at the time of this operation is additionally displayed in the sub display area 28 as a thumbnail image.
  • additional information such as an imaging time point is displayed as character information in the vicinity of each thumbnail image.
  • the additional information displayed as the character information can be switched according to a predetermined operation and can be hidden.
  • a line segment for associating each thumbnail image with the image capturing time point of each thumbnail image shown on the time bar 27 is displayed.
  • thumbnail images Since the size of the display area is limited in the sub display area 28, up to a predetermined number of thumbnail images can be displayed together. For example, Fig. 3 shows the case where a maximum of 5 thumbnail images can be displayed together.
  • the thumbnail images exceeding the predetermined number are switched and displayed according to the operation of the scroll bar displayed in the sub display area 28.
  • the thumbnail image displayed in the sub display area 28 is displayed as the main display image 23 in accordance with a predetermined button operation or mouse operation.
  • FIG. 4 is a conceptual diagram showing an outline of a procedure for drawing a period area average color in the divided scale area 26am of the color bar 26 at the time Tm.
  • the image processing control unit 15b first selects a predetermined portion corresponding to the time point Tm from the series of in-subject images. A predetermined number of in-subject images Pl to Pn within the imaging period are acquired.
  • the in-subject images Pl to Pn images that are continuous in time series or a series of images extracted in a predetermined sampling period are selectively acquired. Which of these is selected can be arbitrarily switched according to a predetermined operation. Note that the image selected here may be the one at the time.
  • the image processing control unit 15b divides the in-subject images P1 to Pn into a plurality of divided image regions by the image processing unit 13.
  • the in-subject image P1 is divided into four divided image areas El1 to E14 in the vertical direction, and the in-subject image Pn is divided into divided areas En1 to En4.
  • In-subject image power at the time Shows the state of being divided into two divided image areas! / Speak.
  • the image processing control unit 15b calculates the area average color of each divided image area of each of the in-subject images P1 to Pn by the average color calculation unit 13a.
  • the average color calculation unit 13a calculates a region average color using color information of all pixels or a plurality of pixels extracted at a predetermined sampling interval for each divided image region. Which of these is used for calculation can be arbitrarily switched according to a predetermined operation.
  • the image processing control unit 15b calculates the period area average color by averaging the area average colors of the corresponding divided image areas of the in-subject images Pl to Pn.
  • a period area average color is calculated by averaging the area average colors for the divided image areas of each of the four stages.
  • the image processing control unit 15b for example, for the uppermost divided image areas Ell, E21, E31 to E (n ⁇ 1) 1, Enl indicated by diagonal lines in FIG.
  • the average period color Eavel is calculated by averaging the average area color.
  • the average period colors Eave2, Eave3, and Eave4 are calculated by averaging the average colors of the areas.
  • the image processing control unit 15b associates these period region average colors Eavel to Eave4 with the divided image regions of each stage in the in-subject images Pl to Pn and the time point Tm, and sets the time point of the color bar 26. Recorded in the storage unit 14 as an average color group Pavem corresponding to the display area at Tm. The image processing control unit 15b repeats the series of processes for all the time points in the entire imaging period.
  • the image display control unit 15a obtains the average color group at each time point from the storage unit 14.
  • the average color of the period area of the divided image area associated with each divided scale area is drawn in the divided scale area at each time point.
  • the uppermost division color bar 26a in the divisional scale area 26am at time Tm in the uppermost division color bar 26a The period area average color Eavel calculated for the time point Tm is drawn using the divided image area.
  • the image display control unit 15a draws the period area average color of the divided image area associated with the divided scale area at each time point in the color bar 26 by the image processing control unit 15b.
  • the period area average color drawn in the powerful drawing process is the average of the area in the one-time image when the image selected as the predetermined number of in-subject images Pl to Pn is the one-time image. Become a color.
  • FIG. 5 is a flowchart showing the drawing processing procedure of the color bar 26.
  • the image processing control unit 15b corresponds to the first time point in time series among the series of in-subject images stored in the portable recording medium 5 or the storage unit 14.
  • a predetermined number of subject images within a predetermined partial imaging period are read and output to the image processing control unit 13 (step S101).
  • the image processing control unit 15b causes the image processing control unit 13 to divide each in-subject image read in step S101 into a plurality of predetermined divided image regions (step S102). In this step S102, each intra-subject image is divided into, for example, four divided image regions.
  • the image processing control unit 15b calculates the area average color of each divided image area divided in step S102 by the average color calculation unit 13a, and all the in-subject images read in step S101. An average color calculation process is performed to average the area average colors over time and calculate the period area average colors (step S103).
  • the image processing control unit 15b associates the region average color and the period region average color calculated in step S103 with the imaging time point to be processed and the divided images at each stage in the in-subject image. Is recorded in the storage unit 14 (step S104). Then, the image processing control unit 15b determines whether or not the average color calculation process has been performed over the entire imaging period (step S105).
  • step S105 the image processing control unit 15b repeats the processing from step S101 for the time point when the average color is not calculated. return.
  • step S105: Yes the image The image processing control unit 15b draws the force bar 26 for each divided scale region, which is a divided display region at each time point, with the period region average color associated with each divided scale region (step S106). A series of color bar drawing processing ends.
  • FIG. 6 is a flowchart showing the processing procedure of the average color calculation process.
  • the average color calculator 13a first performs degamma processing on each intra-subject image to be processed (step S111).
  • step S112 the area average color of each divided image area of each in-subject image is calculated
  • step S112 the area average color of each divided image area of each in-subject image is calculated
  • step S113 the period area average color is calculated by averaging the area average color over all the in-subject images to be processed.
  • gamma processing is performed on each in-subject image to be processed (step S 114), and the process returns to step S 103.
  • step S113 is omitted.
  • the average color drawn by the image display control unit 15a in step S106 is the area average color instead of the period area average color.
  • the image display control unit 15a displays the color bar 26 as a time scale, and displays each time point on the color bar 26.
  • the area is divided in association with the divided image area, and the period average color or area average color of the divided image area associated with each divided scale area is displayed in each divided scale area as a result of the division. Therefore, the characteristics of a series of in-subject images captured at a plurality of time points can be displayed over the entire imaging period for each divided scale area corresponding to each divided image area on the color bar 26. This makes it possible for an observer or the like to easily recognize the state of the imaging target for each divided image area at each imaging time point.
  • FIG. 7 is a block diagram showing a configuration of the image display device 104 according to the second embodiment.
  • the image display device 104 includes an image processing unit 113 and a control unit 115 instead of the image processing unit 13 and the control unit 15 based on the image display device 4.
  • the image processing unit 113 includes an average color calculation unit 113a and a feature region detection unit 113b.
  • the control unit 115 replaces the image processing calculation unit 15b with the image processing calculation unit 115b based on the control unit 15. Prepare.
  • Other configurations are the same as those of the first embodiment, and the same reference numerals are given to the same components.
  • the feature region detection unit 113b detects a feature region as a feature image region having a predetermined feature from each divided image region of each input in-subject image. That is, the feature region detection unit 113b detects a feature region by identifying a predetermined feature such as a blood discharge site based on color information of each pixel constituting the in-subject image, for example.
  • the feature region detection unit 113b may detect a feature region based on various feature amounts such as a contour shape, a texture, and a density gradient, without being limited to color information.
  • the average color calculation unit 113a calculates an average color in a series of input images. However, the average color calculation unit 113a weights the color information in the feature region detected by the feature region detection unit 113b and the color information in the divided image region excluding the feature region as the region average color. The weighted area average color averaged in this way is calculated. Further, the period area average color is calculated using the weighted area average color. Further, the average color calculation unit 113a converts the area average color of the feature image including the feature area and the weighted area average color as the period area average color, and the area average color of the plurality of images in the partial imaging period excluding the feature image. This is the calculation of the weighted period area average color averaged with different weights.
  • FIG. 8 is a flowchart showing the drawing processing procedure of the color bar 26.
  • the image processing control unit 115b selects a predetermined time corresponding to the first time point in time series from among a series of in-subject images stored in the portable recording medium 5 or the storage unit 14.
  • a predetermined number of subject images within the partial imaging period are read and output to the image processing control unit 113 (step S201).
  • the image processing control unit 115b divides each in-subject image read in step S201 into a plurality of predetermined divided image regions by the image processing control unit 113 (step S202). In this step S202, each in-subject image is divided into, for example, four divided image areas.
  • the image processing control unit 115b detects a feature region having a predetermined feature such as a bleeding site from each divided image region divided in step S202 by the feature region detection unit 113b (step S203). Subsequently, the image processing control unit 115b performs an average color calculation process for calculating an average color by the average color calculation unit 113a (step S204).
  • the image processing control unit 115b records the average color calculated in step S204 in the storage unit 14 in association with the imaging point of the processing target and the divided images at each stage of the in-subject image. (Step S205). Then, the image processing control unit 115b determines whether the average color calculation process has been performed over the entire imaging period (step S206).
  • step S206: No If the average color is calculated over the entire imaging period! /, In this case (step S206: No), the image processing control unit 115b calculates the average color, and at step S201, depending on the time. Repeat the process from. On the other hand, when the average color is calculated during the entire imaging period (step S206: Yes), the image processing control unit 115b sets the color bar 26 for each divided scale area which is a divided display area at each time point. Drawing is performed with the average color associated with each divided scale region (step S207), and this series of color bar drawing processing is completed.
  • FIG. 9 is a flowchart showing the processing procedure of the average color calculation process.
  • the average color calculation processing shown in FIG. 9 exemplifies a processing procedure when a bleeding site is detected as a feature region in step S203.
  • the average color calculation unit 113a performs degamma processing on each in-subject image to be processed (step S211), and based on the detection result of the feature region in step S203, It is determined whether or not there is a bleeding site in each divided image area of each in-subject image (step S 212). If there is no bleeding site (step S212: No), average color calculation unit 1 13a calculates the area average color of each divided image area of each in-subject image, similarly to step SI12 shown in FIG. 6 (step S213).
  • step S214 when there is a bleeding part (step S214: Yes), the average color calculation unit 113a compares the color information in the feature area indicating each bleeding part with the color information in the divided image area other than the feature area.
  • the weighted area average color obtained by averaging the color information for each divided image area is calculated (step S214). Note that in this step S214, the weight applied to the color information of the divided image region other than the feature region is set to zero, and the calorie region average color can be calculated using only the color information in the feature region.
  • the average color calculation unit 113a determines whether or not a bleeding image including a bleeding site is present in a predetermined number of in-subject images to be processed (step S215), if there is no bleeding image (Step S215: No), the same as the step SI13 shown in Fig. 6, averaged area average color over all in-subject images to be processed Is calculated (step S216).
  • the average color calculation unit 113a uses the area average of the in-subject image other than the bleeding image as the area average color and the weighted area average color of each bleeding image.
  • a weighted period area average color averaged by weighting larger than the color is calculated (step S217).
  • the weighted period area average color can be calculated using only the area average color and the weighted area average color of the bleeding image by setting the weight applied to the in-subject image other than the bleeding image to zero.
  • step 216 or step S217 the average color calculator 113a performs gamma processing on each in-subject image to be processed (step S218), and returns to step S204.
  • the average color drawn by the image display control unit 115a in step S207 is a region average color or a weighted region average color.
  • the feature region detection unit 113b has a predetermined region such as a bleeding site in each divided image region of each intra-subject image. A feature region having features is detected, and the average color calculation unit 113a weights at least one of the feature region and the feature image including the feature region, and the weighted region average color as the region average color; Since the weighted period area average color as the period area average color is calculated, the image display control unit 15a has an average color that strongly reflects the presence of the feature area in each divided scale area on the color bar 26.
  • a capsule endoscope 2 in which a series of images displayed by the image display devices 4 and 104 that are useful for the present invention are introduced into the subject 1 is used.
  • any image can be used as long as it is a series of images taken at a plurality of time points.
  • An imaging device and an imaging target may be arbitrary.
  • the image display device is useful for an image display device that displays a series of images taken at a plurality of points in time, and particularly in a capsule mold introduced into a subject. It is suitable for an image display device that displays a series of in-subject images captured using a endoscope.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

 各撮像時点における画像領域ごとの撮像対象の状態等を容易に認識可能にするため、画像表示装置4は、画像表示制御部15aおよび画像処理制御部15bを有した制御部15を備える。画像表示制御部15aは、一連の被検体内画像の撮像期間を示す時間スケールを表示するとともに、この時間スケール上の各時点の表示領域を分割画像領域に対応付けて分割し、分割した結果の各分割スケール領域に、この各分割スケール領域が対応付けられた分割画像領域の平均色を表示する制御を行う。画像処理制御部15bは、携帯型記録媒体5または記憶部14に記憶された画像データを取得して画像処理部13に出力するとともに、この出力した画像に対する各種画像処理の制御を行う。

Description

明 細 書
画像表示装置
技術分野
[0001] 本発明は、複数の時点で撮像された一連の画像を表示する画像表示装置に関し、 特に被検体内に導入されたカプセル型内視鏡を用いて撮像された一連の被検体内 画像の表示に適用して好適な画像表示装置に関するものである。
背景技術
[0002] 近年、内視鏡の分野にお!、て、飲込み式のカプセル型内視鏡が開発されて 、る。
このカプセル型内視鏡は、撮像機能と無線通信機能とを備え、各種臓器内の観察の ために被験者の口から飲み込まれたのち自然排出されるまでの間、例えば胃、小腸 、大腸などの臓器の内部を、その蠕動運動にしたがって移動しながら順次撮像する。
[0003] 臓器内を移動する間、カプセル型内視鏡によって被検体内で撮像された画像デー タは、順次無線信号を用いて被検体外に送信され、被検体外の受信機内に設けら れたメモリに蓄積されるか、受信機に設けられたディスプレイに表示される。医師、看 護師等は、メモリに蓄積された画像データをもとにディスプレイに表示させた画像、あ るいは受信とともに受信機が備えるディスプレイに表示させた画像に基づいて診断を 行うことができる。
[0004] 通常、カプセル型内視鏡によって撮像される一連の画像数は膨大であり、医師、看 護師等は、この膨大な画像を観察して診断を行うために多大な時間と労力を要する 。これに対応して、画像の検索性を向上させるとともに、表示画像がどの臓器の画像 であるかを容易に認識することが可能な画像表示装置が提案されている(例えば、特 許文献 1参照。)。
[0005] この画像表示装置では、一連の画像の撮像期間を示す時間スケールを表示すると ともに、この時間スケール上に各画像の平均色を時系列に表示するようにしている。 各画像の平均色は撮像した臓器に特有の色であるため、医師、看護師等は、この時 間スケール上に表示された平均色を観察することによって、各撮像時刻の画像がど の臓器を撮像した画像であるかを容易に判別することができる。 [0006] 特許文献 1:特開 2004— 337596号公報
発明の開示
発明が解決しょうとする課題
[0007] ところが、上述した画像表示装置では、画像ごとに画像領域全体の平均色を求める ようにして!/、るため、例えば出血部位等が画像領域の一部に撮像されて 、る場合な ど、画像領域内の一部に注目すべき領域が存在する場合であっても、この注目すベ き領域の存在を平均色力も認識することは困難であるという問題があった。また、この ため、平均色の観察によって画像の検索および判別等を行う場合に、注目すべき領 域を含んだ画像を見逃す恐れがあるという問題があった。
[0008] 本発明は、上記に鑑みてなされたものであって、複数の時点で撮像された一連の 画像の特徴を複数の画像領域ごとに全撮像期間にわたって表示することができ、各 撮像時点における画像領域ごとの撮像対象の状態等を容易に認識可能にすること ができる画像表示装置を提供することを目的とする。
課題を解決するための手段
[0009] 上述した課題を解決し、目的を達成するために、請求項 1にかかる画像表示装置 は、複数の時点で撮像された一連の画像とともに該一連の画像の撮像期間を示す 時間スケールを表示する画像表示装置にぉ 、て、前記一連の画像内の各画像を所 定の画像領域に分割した各分割画像領域の領域平均色を算出する平均色演算手 段と、前記時間スケール上の各時点の表示領域を前記各分割画像領域に対応付け て分割した各分割スケール領域に、該各分割スケール領域が対応づけられた分割 画像領域の前記領域平均色を表示する制御を行う表示制御手段と、を備えたことを 特徴とする。
[0010] また、請求項 2にかかる画像表示装置は、上記の発明において、前記領域平均色 は、所定の部分撮像期間ごとに複数画像の前記領域平均色を前記分割画像領域ご とに平均化した期間領域平均色であることを特徴とする。
[0011] また、請求項 3にかかる画像表示装置は、上記の発明において、前記各分割画像 領域は、前記各画像を所定の分割方向に分割して形成され、前記表示制御手段は 、前記時間スケール上の各時点の表示領域を表示画面上で前記分割方向と同じ方 向に分割し、この分割順に前記各分割画像領域に対応付けた各分割スケール領域 に、該各分割スケール領域が対応付けられた分割画像領域の前記領域平均色また は前記期間領域平均色を表示する制御を行うことを特徴とする。
[0012] また、請求項 4に力かる画像表示装置は、上記の発明にお 、て、前記各分割画像 領域は、前記各画像を前記表示画面上で上下方向また左右方向に 4分割して形成 され、前記表示制御手段は、前記時間スケール上の各時点の表示領域を前記表示 画面上で上下方向また左右方向に 4分割し、この分割順に前記各分割画像領域に 対応付けた各分割スケール領域に、該各分割スケール領域が対応付けられた分割 画像領域の前記領域平均色または前記期間領域平均色を表示する制御を行うこと を特徴とする。
[0013] また、請求項 5にかかる画像表示装置は、上記の発明において、前記各画像の各 分割画像領域の中から所定の特徴を有する特徴画像領域を検出する特徴領域検出 手段を備え、前記平均色演算手段は、前記領域平均色として、前記特徴画像領域 内の色情報と該特徴画像領域を除いた前記分割画像領域内の色情報とに異なる重 み付けをして平均化した加重領域平均色を算出することを特徴とする。
[0014] また、請求項 6にかかる画像表示装置は、上記の発明にお 、て、前記加重領域平 均色は、所定の前記部分撮像期間ごとに複数画像の前記加重領域平均色を前記分 割画像領域ごとに平均化した期間領域平均色であることを特徴とする。
[0015] また、請求項 7にかかる画像表示装置は、上記の発明において、前記平均色演算 手段は、前記期間領域平均色として、前記特徴画像領域を含む特徴画像の前記カロ 重領域平均色と、該特徴画像を除いた前記部分撮像期間における複数画像の前記 領域平均色とに異なる重み付けをして平均化した加重期間領域平均色を算出するこ とを特徴とする。
[0016] また、請求項 8にかかる画像表示装置は、上記の発明において、前記平均色演算 手段は、前記部分撮像期間における所定サンプリング期間の一連の画像を用いて 前記期間領域平均色を算出することを特徴とする。
[0017] また、請求項 9にかかる画像表示装置は、上記の発明において、前記平均色演算 手段は、前記分割画像領域における所定サンプリング間隔の各画素の色情報を用 いて前記領域平均色を算出することを特徴とする。
[0018] また、請求項 10にかかる画像表示装置は、上記の発明において、前記一連の画像 は、被検体内に導入されたカプセル型内視鏡を用いて撮像された被検体内画像で あることを特徴とする。
発明の効果
[0019] 本発明にかかる画像表示装置によれば、複数の時点で撮像された一連の画像の 特徴を複数の画像領域ごとに全撮像期間にわたって表示することができ、各撮像時 点における画像領域ごとの撮像対象の状態等を容易に認識可能にすることができる
図面の簡単な説明
[0020] [図 1]図 1は、本発明の実施の形態 1にかかる無線型被検体内情報取得システムの 構成を示す模式図である。
[図 2]図 2は、本発明の実施の形態 1にかかる画像表示装置の構成を示すブロック図 である。
[図 3]図 3は、図 1に示した画像表示装置が表示する表示画面を示す図である。
[図 4]図 4は、図 3に示したカラーバーの描画処理を説明する図である。
[図 5]図 5は、図 1に示した画像表示装置が行うカラーバー描画処理手順を示すフロ 一チャートである。
[図 6]図 6は、図 5に示した平均色演算処理手順を示すフローチャートである。
[図 7]図 7は、本発明の実施の形態 2にかかる画像表示装置の構成を示すブロック図 である。
[図 8]図 8は、図 7に示した画像表示装置が行うカラーバー描画処理手順を示すフロ 一チャートである。
[図 9]図 9は、図 8に示した平均色演算処理手順を示すフローチャートである。
符号の説明
[0021] 1 被検体
2 カプセル型内視鏡
3 受信装置 4 画像表示装置
5 携帯型記録媒体
6 受信アンアナ
6aへ ^6h アンテナ
11 入力部
12 表示部
13 画像処理部
13a 平均色演算部
14
15 制御部
15a 画像表示制御部
15b 画像処理制御部
21 ウィンドウ
22 主表示領域
23 主表示画像
24 アンテナ配置図
25 画像操作領域
26 カラーバー
26a 〜26d 分割カラーバ
27 タイムノ ー
27a スライダ
28 副表示領域
発明を実施するための最良の形態
[0022] 以下、添付図面を参照して、本発明に力かる画像表示装置の好適な実施の形態で ある無線形被検体内情報取得システムについて詳細に説明する。なお、この実施の 形態によりこの発明が限定されるものではない。また、図面の記載において、同一部 分には同一の符号を付している。
[0023] (実施の形態 1) まず、本実施の形態 1にかかる画像表示装置を備えた無線型被検体内情報取得シ ステムについて説明する。図 1は、無線型被検体内情報取得システムの全体構成を 示す模式図である。この無線型被検体内情報取得システムは、被検体内導入装置 の一例としてカプセル型内視鏡を用いて 、る。
[0024] 図 1に示すように、無線型被検体内情報取得システムは、被検体 1の体内に導入さ れ、撮像した被検体内画像の画像データを受信装置 3に対して無線送信するカプセ ル型内視鏡 2と、カプセル型内視鏡 2から無線送信された画像データを受信する受 信装置 3と、受信装置 3が受信した画像信号に基づ ヽて被検体内画像を表示する画 像表示装置 4と、受信装置 3と画像表示装置 4との間で画像データ等の受け渡しを行 う携帯型記録媒体 5と、を備える。
[0025] 受信装置 3は、被検体 1の体外表面に貼付等される複数のアンテナ 6a〜6hを有し た受信アンテナ 6を備える。受信装置 3は、カプセル型内視鏡 2から無線送信された 画像データ等を、受信アンテナ 6を介して受信するとともに、受信した各画像データ に、画像データを受信した際の各アンテナ 6a〜6hの受信強度情報を対応付けて記 録する。
[0026] アンテナ 6a〜6hは、例えばループアンテナを用いて実現され、被検体 1の体外表 面上の所定位置、すなわちカプセル型内視鏡 2の通過経路である被検体 1内の各臓 器に対応した位置に配置される。なお、アンテナ 6a〜6hは、被検体 1に着用させる ジャケット等の所定位置に配設されるようにしてもよい。この場合、アンテナ 6a〜6hは 、このジャケット等を介して被検体 1の体外表面上の所定位置に配設される。また、ァ ンテナ 6a〜6hの配置は、被検体 1内の観察や診断等の目的に応じて任意に変更で きる。なお、受信アンテナ 6が備えるアンテナ数は、アンテナ 6a〜6hとして示す 8個に 限定して解釈する必要はなぐ 8個より少なくても多くても構わない。
[0027] 画像表示装置 4は、例えば CRT、液晶ディスプレイ等を備えたワークステーション によって実現され、携帯型記録媒体 5等を介して取得した画像データをもとに画像表 示を行う。また、画像表示装置 4は、プリンタ等の出力装置に画像データを出力して 表示させることもできる。なお、画像表示装置 4は、外部装置との通信機能を備え、有 線または無線通信によって画像データを取得または出力するようにしてもよい。 [0028] 携帯型記録媒体 5は、コンパクトフラッシュ(登録商標)メモリ、 CD、 DVD等によって 実現され、受信装置 3および画像表示装置 4に対して着脱可能であり、これらに挿着 された場合に画像データ等の各種情報の出力または記録を行うことができる。携帯 型記録媒体 5は、例えばカプセル型内視鏡 2が被検体 1内に導入されて ヽる間に受 信装置 3に挿着され、受信装置 3がカプセル型内視鏡 2から受信した画像データ等を 記録する。また、カプセル型内視鏡 2が被検体 1から排出された後には、受信装置 3 から取り出されて画像表示装置 4に挿着され、記録した画像データ等を画像表示装 置 4に出力する。このように受信装置 3と画像表示装置 4との間で携帯型記録媒体 5 によって画像データの受け渡しを行うようにすることで、被検体 1は、カプセル型内視 鏡 2を導入中にも自由に行動することができる。なお、受信装置 3と画像表示装置 4と の間のデータの受け渡しは、有線または無線通信によって行うようにしてもよい。
[0029] つぎに、本実施の形態 1にかかる画像表示装置 4の構成について説明する。図 2は 、画像表示装置 4の構成を示すブロック図である。図 2に示すように、画像表示装置 4 は、各種情報の入力を行う入力部 11と、各種情報を表示する表示部 12と、入力され た画像を処理する画像処理部 13と、各種情報を記憶する記憶部 14と、画像表示装 置 4の各部の処理および動作を制御する制御部 15と、を備える。入力部 11、表示部 12、画像処理部 13および記憶部 14は、制御部 15に電気的に接続されている。また 、画像表示装置 4は、携帯型記録媒体 5に対応するインターフ ースを備え、携帯型 記録媒体 5を着脱可能に装備する。挿着時の携帯型記録媒体 5は、制御部 15に電 気的に接続される。
[0030] 入力部 11は、各種スィッチ、入力キー、マウス、タツチパネル等を有し、表示画像の 選択情報等、各種処理情報の入力を行う。画像表示装置 4のオペレータとしての表 示画像の観察者等は、この入力部 11を介して、表示画像の読み込み、選択、記録 等の各種操作を行うことができる。なお、入力部 11は、 USB、 IEEE1394等、有線ま たは無線の通信用インターフェースを備え、外部装置から画像の入力を行うようにし てもよい。
[0031] 表示部 12は、液晶ディスプレイ等を備え、画像データ等の各種情報を表示する。
表示部 12は、特に、携帯型記録媒体 5または記憶部 14に記憶された画像データ等 の各種データの表示と、画像表示装置 4の観察者等に対して各種処理情報の入力 依頼等を行う GUI (Graphical User Interface)画面の表示と、を行う。
[0032] 記憶部 14は、各種処理プログラム等があら力じめ記憶された ROMと、各処理の処 理パラメータ、処理データ等を記憶する RAMとによって実現される。記憶部 14は、 携帯型記録媒体 5等を介して入力された画像データ、画像処理部 13によって処理さ れた画像データ、画像表示制御部 15aによって処理された表示制御データ等を記憶 することができる。
[0033] 画像処理部 13は、画像処理制御部 15bによる制御に基づいて、携帯型記録媒体 5または記憶部 14から画像データを取得し、この取得した画像データに対して、濃度 変換 (ガンマ変換等)、平滑ィ匕 (ノイズ除去等)、鮮鋭ィ匕 (エッジ強調等)、画像認識 ( 特徴画像領域の検出、平均色の演算等)等の各種画像処理を行う。
[0034] また、画像処理部 13は、特に、入力された一連の画像における平均色の演算を行 う平均色演算部 13aを備える。すなわち、平均色演算部 13aは、一連の画像内の各 画像を所定の複数の画像領域に分割し、分割した結果の各分割画像領域内の各画 素が有する色情報を平均化した平均色としての領域平均色を算出する。また、平均 色演算部 13aは、所定の期間である部分撮像期間ごとに、一連の画像における複数 画像の領域平均色を分割画像領域ごとに平均化した期間領域平均色を算出する。
[0035] 制御部 15は、記憶部 14に記憶された各種処理プログラムを実行する CPU等によ つて実現される。制御部 15は、特に、画像表示制御部 15aおよび画像処理制御部 1 5bを備える。画像表示制御部 15aは、携帯型記録媒体 5または記憶部 14に記憶さ れた画像データとしての複数時点で撮像された一連の画像を表示部 12に表示させ る制御を行う。本実施の形態 1では特に、この一連の画像として、被検体 1の各種臓 器内を複数の時点で撮像した一連の被検体内画像が表示される。
[0036] また、画像表示制御部 15aは、特に、一連の被検体内画像の撮像期間を示す時間 スケールを表示するとともに、この時間スケール上の各時点の表示領域を分割画像 領域に対応付けて分割し、分割した結果の各分割スケール領域に、この各分割スケ ール領域が対応付けられた分割画像領域の領域平均色、または期間領域平均色を 表示する制御を行う。 [0037] より具体的には、平均色演算部 13aが各画像を所定の分割方向に分割した場合、 画像表示制御部 15aは、時間スケール上の各時点の表示領域を、表示画面上で各 画像の分割方向と同じ方向に分割し、分割した各分割スケール領域を、この分割順 に各分割画像領域に対応付ける。そして、各分割スケール領域に、この各分割スケ ール領域が対応付けられた分割画像領域の領域平均色、または期間領域平均色表 示する制御を行う。
[0038] この場合、画像表示制御部 15aは、例えば平均色演算部 13aが各画像を表示画面 上で左右方向(または上下方向)に 4分割した場合、時間スケール上の各時点の表 示領域を、同様に表示画面上で左右方向(または上下方向)に 4分割し、各分割スケ ール領域を分割順に各分割画像領域に対応付ける。すなわち、左端同士、右端同 士等 (または最上段同士、最下段同士等)の分割スケール領域と分割画像領域とを 対応付ける。なお、時間スケールを左右方向(または上下方向)に分割する場合には 、時間スケールの時間軸は上下方向(または左右方向)とすることが好ましい。また、 分割画像領域および分割スケール領域の分割数は、 4分割程度が好ましいが、 4分 割に限定して解釈する必要はない。
[0039] 画像処理制御部 15bは、携帯型記録媒体 5または記憶部 14に記憶された画像デ ータを取得して画像処理部 13に出力するとともに、この出力した画像に対する各種 画像処理の制御を行う。また、画像処理制御部 15bは、画像処理部 13における処理 結果の画像データを記憶部 14または携帯型記録媒体 5に出力して記憶させる。
[0040] つぎに、画像表示装置 4が表示部 12に表示する表示画面(GUI画面)について説 明する。図 3は、画像表示装置 4が画像表示制御部 15aによる制御に基づいて表示 する GUI画面の一例を示す図である。図 3に示すように、表示部 12には、 GUI画面 としてのウィンドウ 21 (「診察 ·診断」ウィンドウ)が表示される。ウィンドウ 21内には、主 表示画像等を表示する主表示領域 22と、アイコンとして示された各種画像操作ボタ ンを表示する画像操作領域 25と、一連の被検体内画像の撮像期間を示す時間スケ ールとしてのカラーバー 26およびタイムバー 27と、サムネイル画像等を表示する副 表示領域 28とが、表示画面上でこの順に上方から下方へ並列表示される。
[0041] 主表示領域 22内には、入力部 3から入力された指示情報をもとに一連の被検体内 画像の中から選択された画像である主表示画像 23と、被検体 1上のアンテナ 6a〜6 hの配置を模式的に示すアンテナ配置図 24とが表示される。また、主表示領域 22内 には、主表示画像 23として選択された被検体内画像に対応付けられて ヽる被検体 1 の名前、 ID番号、性別、年齢、生年月日、撮像年月日、撮像時刻等が文字情報とし て表示される。なお、主表示領域 22には、所定操作に応じて 2以上の所定数の主表 示画像が表示可能である。
[0042] アンテナ配置図 24には、アンテナ 6a〜6hの配置が被検体 1の一部輪郭とともに模 式的に表示される。また、アンテナ配置図 24には、アンテナ 6a〜6hの近傍に、この 各アンテナの識別番号としてのアンテナ番号が文字表示される。例えば図 3では、ァ ンテナ番号として「1」〜「8」が示されている。力かるアンテナ配置図 24では、主表示 画像 23として表示された被検体内画像の撮像時に、アンテナ 6a〜6hのうち最も受 信強度が大き力つた最大強度アンテナが、他のアンテナと識別可能に表示される。 例えば図 3では、最大強度アンテナとして、アンテナ番号「4」のアンテナ力 他のアン テナと識別可能に表示された状態が示されている。なお、識別可能な表示として、画 像表示制御部 15aは、例えば最大強度アンテナの表示輝度、表示色相および表示 彩度等のうち少なくとも 1つを、他のアンテナと異ならせて表示させることができる。
[0043] カラーバー 26には、全体として、一連の被検体内画像に含まれる各画像の平均色 が時系列に表示される。すなわち、カラーバー 26上の各時点の表示領域には、この 時点に撮像された被検体内画像の平均色が表示される。一連の被検体内画像は、 撮像した臓器に応じて特有の平均色を有するため、観察者等は、カラーバー 26上の 時間軸(図 3では横軸)に沿った平均色の推移から、各時点の被検体内画像に撮像 された臓器を容易に判別することができる。
[0044] また、カラーバー 26は、特に、表示領域全体を表示画面上で上下方向に 4分割し て構成されており、分割された各段の分割カラーバー 26a〜26dには、一連の被検 体内画像の分割画像領域における対応する各段の領域平均色または期間領域平 均色が時系列に表示される。すなわち、各被検体内画像の平均色は、上下方向に 全画像領域を 4分割した分割画像領域ごとに算出され、カラーバー 26には、各時点 の表示領域を上下方向に 4分割した分割スケール領域ごとに、この分割順に対応付 けられた各分割画像領域の領域平均色または期間領域平均色が表示される。
[0045] 力かるカラーバー 26によると、観察者等は、分割された各段の分割カラーバー 26a 〜26dの時間軸に沿った平均色の推移から、各時点の被検体内画像に撮像された 臓器が推定できるだけでなぐ撮像された臓器内部の状態を分割画像領域に応じて 詳細に容易に認識することができる。これによつて、観察者等は、例えばある期間の 最上段の分割カラーバー 26aに赤色系の平均色が視認された場合、この期間に撮 像された臓器内部に出血部位が存在したこと、この期間の被検体内画像における最 上段の分割画像領域に対応する撮像範囲に出血部位が存在したこと等が認識する ことができる。また、例えば管腔部を含む画像領域の黒色系の平均色と、他の画像領 域の平均色とが異なる段の分割カラーバーに表示されることによって、管腔部を除い た撮像範囲の臓器内部の状態を認識することができる。
[0046] タイムバー 27には、このタイムバー 27上で時間軸方向に移動可能なスライダ 27a が表示される。スライダ 27aは、主表示画像 23として表示された被検体内画像の撮 像時点をタイムバー 27上で指示するとともに、主表示画像 23の表示切替に連動して タイムバー 27上を移動する。例えば、画像操作領域 25内のいずれかの画像操作ボ タンが図示しな!、マウス等によって操作された場合、主表示画像 23が切替表示され るとともに、スライダ 27aは、この切替表示後に主表示画像 23として表示された被検 体内画像の撮像時点を指示する位置に移動する。
[0047] また、これとは逆に、スライダ 27aが図示しないマウス等によって移動操作された場 合には、移動操作後にスライダ 27aが指示する撮像時点に対応した被検体内画像が 主表示画像 23として表示される。なお、スライダ 27aが連続的に移動操作された場 合、この移動操作に追随して、主表示画像 23は連続的に切替表示される。かかるス ライダ 27aによると、観察者等は、例えばカラーバー 26を参照して見出した所望の臓 器の被検体内画像に対応する撮像時点にスライダ 27aを移動操作することによって、 この被検体内画像を即座に主表示画像 23として表示させることができる。
[0048] なお、時間スケールとしてのカラーバー 26およびタイムバー 27の左端は、一連の 被検体内画像における時系列で先頭の画像の撮像時点を示し、同右端は、時系列 で末尾の画像の撮像時点を示す。通常、この左端の撮像時点は、受信装置 3による 画像データの受信開始時点に相当し、右端の撮像時点は、画像データの受信終了 時点に相当する。
[0049] 副表示領域 28には、一連の被検体内画像の中から選択抽出された画像がサムネ ィル画像として表示される。具体的には、例えば、所定のボタン操作またはマウス操 作等に応じて、この操作時点に主表示画像 23として表示されて ヽる被検体内画像が サムネイル画像として副表示領域 28に追加表示される。
[0050] また、副表示領域 28には、各サムネイル画像の近傍に撮像時点等の付加情報が 文字情報として表示される。この文字情報として表示される付加情報は、所定操作に 応じて切替可能であるとともに非表示可能である。さらに、副表示領域 28には、各サ ムネイル画像と、タイムバー 27上に示される各サムネイル画像の撮像時点と、を対応 付ける線分が表示される。
[0051] なお、副表示領域 28には表示領域の大きさに制約があるため、所定数までのサム ネイル画像が一括表示可能とされている。例えば図 3には、最大 5枚のサムネイル画 像が一括表示可能な場合が示されて ヽる。抽出されたサムネイル画像が一括表示可 能な所定数より多い場合、この所定数を超えたサムネイル画像は、副表示領域 28内 に表示されるスクロールバーの操作に応じて切替表示される。また、副表示領域 28 に表示されたサムネイル画像は、所定のボタン操作またはマウス操作等に応じて主 表示画像 23として表示される。
[0052] ここで、本実施の形態 1にかかる画像表示装置 4におけるカラーバー 26の描画処 理について説明する。図 4は、カラーバー 26の Tm時点の分割スケール領域 26am に期間領域平均色を描画する手順の概要を示す概念図である。
[0053] 図 4に示すように、カラーバー 26に期間領域平均色を描画するにあたって、まず、 画像処理制御部 15bは、一連の被検体内画像の中から、時点 Tmに対応する所定 の部分撮像期間内の所定数の被検体内画像 Pl〜Pnを取得する。ここでは、被検体 内画像 Pl〜Pnとして、時系列で連続する画像、もしくは所定サンプリング期間で抽 出される一連の画像が選択的に取得される。これらのいずれによって選択されるかは 、所定操作に応じて任意に切替可能とされている。なお、ここで選択される画像は、 1 時点の画像であってもよ 、。 [0054] つづいて、画像処理制御部 15bは、画像処理部 13によって、各被検体内画像 P1 〜Pnを複数の分割画像領域に分割する。例えば図 4では、被検体内画像 P1が上下 方向に 4つの分割画像領域 El 1〜E 14に分割され、被検体内画像 Pnが分割領域 E nl〜En4に分割され、同様に、この間の各時点の被検体内画像力 つの分割画像 領域に分割された状態を示して!/ヽる。
[0055] つぎに、画像処理制御部 15bは、平均色演算部 13aによって、各被検体内画像 P1 〜Pnの各分割画像領域の領域平均色を算出する。このとき、平均色演算部 13aは、 分割画像領域ごとに全ての画素、あるいは所定サンプリング間隔で抽出される複数 画素の色情報を用いて領域平均色を算出する。これらのいずれによって演算を行う かは、所定操作に応じて任意に切替可能とされている。
[0056] つづいて、画像処理制御部 15bは、各被検体内画像 Pl〜Pnの対応する分割画 像領域の領域平均色を平均化して期間領域平均色を算出する。すなわち、 4分割し た各段の分割画像領域について領域平均色を平均化した期間領域平均色を算出 する。具体的には、画像処理制御部 15bは、例えば図 4において斜線で示す最上段 の分割画像領域 El l, E21, E31〜E (n— 1) 1, Enlについて、この各分割画像領 域の領域平均色を平均化した期間領域平均色 Eavelを算出する。また、各段の分 割画像領域群 E12〜En2, E13〜En3, E14〜En4についても同様に、各領域平 均色を平均化した期間領域平均色 Eave2, Eave3, Eave4を算出する。
[0057] そして、画像処理制御部 15bは、これらの期間領域平均色 Eavel〜Eave4を、被 検体内画像 Pl〜Pnにおける各段の分割画像領域と時点 Tmとに対応付け、カラー バー 26の時点 Tmにおける表示領域に対応する平均色群 Pavemとして記憶部 14に 記録する。画像処理制御部 15bは、カゝかる一連の処理を、全撮像期間におけるすべ ての時点に対して繰り返す。
[0058] 画像処理制御部 15bによって、カラーバー 26に描画する各時点のすべての平均 色が算出された後、画像表示制御部 15aは、記憶部 14から各時点の平均色群を取 得して、各時点の分割スケール領域に、この各分割スケール領域に対応付けられた 分割画像領域の期間領域平均色を描画する。具体的には、例えば図 4では、最上段 の分割カラーバー 26a内の時点 Tmにおける分割スケール領域 26amに、最上段の 分割画像領域を用いて時点 Tmについて算出された期間領域平均色 Eavelが描画 されている。
[0059] 同様にして、画像表示制御部 15aは、カラーバー 26における各時点の各分割スケ ール領域に、それぞれ画像処理制御部 15bによって対応付けられた分割画像領域 の期間領域平均色を描画する。なお、力かる描画処理において描画される期間領域 平均色は、所定数の被検体内画像 Pl〜Pnとして選択された画像が 1時点の画像で ある場合には、この 1時点の画像における領域平均色となる。
[0060] ここで、本実施の形態 1にかかる画像表示装置 4が行うカラーバー 26の描画処理の 処理手順について説明する。図 5は、カラーバー 26の描画処理手順を示すフローチ ヤートである。図 5に示すように、まず、画像処理制御部 15bは、携帯型記録媒体 5あ るいは記憶部 14に記憶された一連の被検体内画像の中から、時系列で先頭の時点 に対応する所定の部分撮像期間内の所定数の被検体画像を読み込んで、画像処 理制御部 13に出力する (ステップ S101)。
[0061] つづいて、画像処理制御部 15bは、画像処理制御部 13によって、ステップ S101で 読み込んだ各被検体内画像を、所定の複数の分割画像領域に分割する (ステップ S 102)。このステップ S102では、各被検体内画像は、例えば 4つの分割画像領域に 分割される。つぎに、画像処理制御部 15bは、平均色演算部 13aによって、ステップ S 102で分割された各分割画像領域の領域平均色を演算するとともに、ステップ S 10 1で読み込んだすべての被検体内画像にわたって領域平均色を平均化して期間領 域平均色を算出する平均色演算処理を行う (ステップ S103)。
[0062] その後、画像処理制御部 15bは、ステップ S 103において算出された領域平均色 および期間領域平均色を、処理対象の撮像時点と、被検体内画像における各段の 分割画像とに対応付けて、記憶部 14に記録する (ステップ S104)。そして、画像処 理制御部 15bは、全撮像期間にわたって平均色演算処理を行ったカゝ否かを判断す る(ステップ S 105)。
[0063] 全撮像期間で平均色を算出して!/ヽな 、場合 (ステップ S 105: No)、画像処理制御 部 15bは、平均色を算出していない時点についてステップ S101からの処理を繰り返 す。一方、全撮像期間で平均色を算出している場合には (ステップ S 105 : Yes)、画 像処理制御部 15bは、各時点の分割した表示領域である分割スケール領域ごとに力 ラーバー 26を、この各分割スケール領域に対応付けられた期間領域平均色で描画 して(ステップ S106)、この一連のカラーバー描画処理を終了する。
[0064] つぎに、ステップ S 103の平均色演算手段について説明する。図 6は、平均色演算 処理の処理手順を示すフローチャートである。図 6に示すように、平均色演算部 13a は、まず、処理対象の各被検体内画像に対してデガンマ処理を行う(ステップ S111) 。つぎに、各被検体内画像の各分割画像領域の領域平均色を算出し (ステップ S11 2)、処理対象のすべての被検体内画像にわたって領域平均色を平均化した期間領 域平均色を算出する (ステップ S113)。その後、処理対象の各被検体内画像に対し てガンマ処理を行 ヽ(ステップ S 114)、ステップ S 103にリターンする。
[0065] なお、ステップ S 101で画像処理制御部 15bが読み込んだ画像が 1時点の被検体 内画像である場合には、ステップ S113は省略される。また、この場合、ステップ S10 6で画像表示制御部 15aが描画する平均色は、期間領域平均色の代わりに領域平 均色となる。
[0066] 以上説明したように、本実施の形態 1にかかる画像表示装置 4では、画像表示制御 部 15aが、時間スケールとしてのカラーバー 26を表示するとともに、カラーバー 26上 の各時点の表示領域を分割画像領域に対応付けて分割し、分割した結果の各分割 スケール領域に、この各分割スケール領域が対応付けられた分割画像領域の期間 領域平均色もしくは領域平均色を表示する制御を行うようにしているため、複数の時 点で撮像された一連の被検体内画像の特徴を、カラーバー 26上で各分割画像領域 に対応させた分割スケール領域ごとに全撮像期間にわたって表示することができ、 観察者等に対して、各撮像時点における分割画像領域ごとの撮像対象の状態等を 容易に認識可能にすることができる。
[0067] (実施の形態 2)
つぎに、本発明の実施の形態 2について説明する。上述した実施の形態 1では、被 検体内画像を一律に処理して平均色を算出するようにしていたが、本実施の形態 2 では、被検体内画像に含まれる出血部位等の特徴領域に重み付けを行って平均色 を算出するようにしている。 [0068] 図 7は、本実施の形態 2にかかる画像表示装置 104の構成を示すブロック図である 。図 7に示すように、画像表示装置 104は、画像表示装置 4をもとに、画像処理部 13 と制御部 15とのそれぞれに替えて、画像処理部 113と制御部 115とを備える。また、 画像処理部 113は、平均色演算部 113aと特徴領域検出部 113bとを備え、制御部 1 15は、制御部 15をもとに画像処理演算部 15bに替えて画像処理演算部 115bを備 える。その他の構成は実施の形態 1と同じであり、同一構成部には同一符号を付して いる。
[0069] 特徴領域検出部 113bは、入力された各被検体内画像の各分割画像領域の中か ら所定の特徴を有する特徴画像領域としての特徴領域を検出する。すなわち、特徴 領域検出部 113bは、例えば被検体内画像を構成する各画素の色情報をもとに、出 血部位等の所定の特徴を識別して特徴領域を検出する。なお、特徴領域検出部 11
3bは、出血部位に限らず、たとえば、臓器内部の褪色部位、形状異常部位等、病変 の疑いのある種々の部位を特徴領域として検出するようにしてもよい。また、特徴領 域検出部 113bは、色情報に限らず、輪郭形状、テクスチャ、濃度勾配等の各種特徴 量をもとに特徴領域を検出するようにしてもよい。
[0070] 平均色演算部 113aは、平均色演算部 13aと同様に、入力された一連の画像にお ける平均色の演算を行う。ただし、平均色演算部 113aは、領域平均色として、特徴 領域検出部 113bによって検出された特徴領域内の色情報と、特徴領域を除いた分 割画像領域内の色情報とに異なる重み付けをして平均化した加重領域平均色を算 出する。また、この加重領域平均色を用いて期間領域平均色を算出する。さらに、平 均色演算部 113aは、期間領域平均色として、特徴領域を含む特徴画像の領域平均 色および加重領域平均色と、特徴画像を除いた部分撮像期間における複数画像の 領域平均色とに異なる重み付けをして平均化した加重期間領域平均色を算出するこ とちでさる。
[0071] ここで、画像表示装置 104が行うカラーバー 26の描画処理の処理手順について説 明する。図 8は、カラーバー 26の描画処理手順を示すフローチャートである。図 8に 示すように、まず、画像処理制御部 115bは、携帯型記録媒体 5あるいは記憶部 14 に記憶された一連の被検体内画像の中から、時系列で先頭の時点に対応する所定 の部分撮像期間内の所定数の被検体画像を読み込みんで、画像処理制御部 113 に出力する (ステップ S201)。
[0072] つづいて、画像処理制御部 115bは、画像処理制御部 113によって、ステップ S20 1で読み込んだ各被検体内画像を、所定の複数の分割画像領域に分割する (ステツ プ S202)。このステップ S202では、各被検体内画像は、例えば 4つの分割画像領 域に分割される。つぎに、画像処理制御部 115bは、特徴領域検出部 113bによって 、ステップ S202で分割された各分割画像領域から出血部位等の所定の特徴を有し た特徴領域を検出する (ステップ S 203)。つづいて、画像処理制御部 115bは、平均 色演算部 113aによって、平均色を算出する平均色演算処理を行う(ステップ S204)
[0073] その後、画像処理制御部 115bは、ステップ S204において算出された平均色を、 処理対象の撮像時点と、被検体内画像における各段の分割画像とに対応付けて、 記憶部 14に記録する (ステップ S205)。そして、画像処理制御部 115bは、全撮像期 間にわたって平均色演算処理を行った力否かを判断する (ステップ S206)。
[0074] 全撮像期間で平均色を算出して!/、な 、場合 (ステップ S206: No)、画像処理制御 部 115bは、平均色を算出して 、な 、時点にっ 、てステップ S 201からの処理を繰り 返す。一方、全撮像期間で平均色を算出している場合には (ステップ S206 : Yes)、 画像処理制御部 115bは、各時点の分割した表示領域である分割スケール領域ごと にカラーバー 26を、この各分割スケール領域に対応付けられた平均色で描画して( ステップ S207)、この一連のカラーバー描画処理を終了する。
[0075] つぎに、ステップ S 204の平均色演算手段について説明する。図 9は、平均色演算 処理の処理手順を示すフローチャートである。図 9に示す平均色演算処理は、ステツ プ S203によって特量領域として出血部位が検出された場合の処理手順を例示して いる。
[0076] 図 9に示すように、平均色演算部 113aは、処理対象の各被検体内画像に対してデ ガンマ処理を行い (ステップ S211)、ステップ S203における特徴領域の検出結果に 基づいて、各被検体内画像の各分割画像領域の中に出血部位があるカゝ否かを判断 する (ステップ S 212)。出血部位がない場合 (ステップ S212 : No)、平均色演算部 1 13aは、図 6に示したステップ SI 12と同様に、各被検体内画像の各分割画像領域の 領域平均色を算出する (ステップ S213)。
[0077] 一方、出血部位がある場合 (ステップ S214 : Yes)、平均色演算部 113aは、各出血 部位を示す特徴領域内の色情報に、特徴領域以外の分割画像領域の色情報に比 ベて大きな重み付けをして、分割画像領域ごとに色情報を平均化した加重領域平均 色を算出する (ステップ S214)。なお、このステップ S214では、特徴領域以外の分 割画像領域の色情報にかける重みをゼロとし、特徴領域内の色情報のみを用いてカロ 重領域平均色を算出することもできる。
[0078] ステップ 213またはステップ S214の後、平均色演算部 113aは、処理対象の所定 数の被検体内画像の中に、出血部位を含んだ出血画像があるカゝ否かを判断し (ステ ップ S215)、出血画像がない場合 (ステップ S215 :No)、図 6に示したステップ SI 13 と同様に、処理対象のすべての被検体内画像にわたって領域平均色を平均化した 期間領域平均色を算出する (ステップ S 216)。
[0079] 一方、出血画像がある場合 (ステップ S215 :Yes)、平均色演算部 113aは、各出血 画像の領域平均色および加重領域平均色に、出血画像以外の被検体内画像の領 域平均色に比べて大きな重み付けをして平均化した加重期間領域平均色を算出す る (ステップ S217)。なお、このステップ S217では、出血画像以外の被検体内画像 にかける重みをゼロとして、出血画像の領域平均色および加重領域平均色のみを用 いて加重期間領域平均色を算出することもできる。
[0080] ステップ 216またはステップ S217の後、平均色演算部 113aは、処理対象の各被 検体内画像に対してガンマ処理を行い (ステップ S218)、ステップ S 204にリターンす る。
[0081] なお、ステップ S201で画像処理制御部 115bが読み込んだ画像が 1時点の被検体 内画像である場合には、ステップ S215〜S217は省略される。また、この場合、ステ ップ S207で画像表示制御部 115aが描画する平均色は、領域平均色もしくは加重 領域平均色となる。
[0082] 以上説明したように、本実施の形態 2にかかる画像表示装置 104では、特徴領域 検出部 113bが、各被検体内画像の各分割画像領域の中から出血部位等の所定の 特徴を有する特徴領域を検出し、平均色演算部 113aが、特徴領域と、この特徴領 域を含む特徴画像と、の少なくとも一方に重み付けをし、領域平均色としての加重領 域平均色と、期間領域平均色としての加重期間領域平均色と、を算出するようにして いるため、画像表示制御部 15aは、カラーバー 26上の各分割スケール領域に、特徴 領域の存在を強く反映した平均色を表示させ、各撮像時点における分割画像領域ご とに特徴領域の存在を強調した表示をさせることができ、観察者等に対して、撮像対 象の特徴的な状態等を一層容易に認識可能にすることができる。また、これによつて 、観察者等は、出血部位等の特徴領域、すなわち注目すべき領域を含む被検体画 像の見逃しを一層削減することができる。
[0083] なお、上述した実施の形態 1および 2では、本発明に力かる画像表示装置 4, 104 が表示する一連の画像を、被検体 1内に導入されたカプセル型内視鏡 2を用いて撮 像された一連の被検体内画像として説明したが、かかる被検体内画像に限定して解 釈する必要はなぐ複数の時点に撮像された一連の画像であれば任意の画像でよく 、撮像装置や撮像対象も任意でよい。
産業上の利用可能性
[0084] 以上のように、本発明に力かる画像表示装置は、複数の時点で撮像された一連の 画像を表示する画像表示装置に有用であり、特に被検体内に導入されたカプセル 型内視鏡を用いて撮像された一連の被検体内画像を表示する画像表示装置に適し ている。

Claims

請求の範囲
[1] 複数の時点で撮像された一連の画像とともに該一連の画像の撮像期間を示す時 間スケールを表示する画像表示装置にぉ 、て、
前記一連の画像内の各画像を所定の画像領域に分割した各分割画像領域の領域 平均色を算出する平均色演算手段と、
前記時間スケール上の各時点の表示領域を前記各分割画像領域に対応付けて分 割した各分割スケール領域に、該各分割スケール領域が対応づけられた分割画像 領域の前記領域平均色を表示する制御を行う表示制御手段と、
を備えたことを特徴とする画像表示装置。
[2] 前記領域平均色は、所定の部分撮像期間ごとに複数画像の前記領域平均色を前 記分割画像領域ごとに平均化した期間領域平均色であることを特徴とする請求項 1 に記載の画像表示装置。
[3] 前記各分割画像領域は、前記各画像を所定の分割方向に分割して形成され、 前記表示制御手段は、前記時間スケール上の各時点の表示領域を表示画面上で 前記分割方向と同じ方向に分割し、この分割順に前記各分割画像領域に対応付け た各分割スケール領域に、該各分割スケール領域が対応付けられた分割画像領域 の前記領域平均色または前記期間領域平均色を表示する制御を行うことを特徴とす る請求項 1または 2に記載の画像表示装置。
[4] 前記各分割画像領域は、前記各画像を前記表示画面上で上下方向また左右方向 に 4分割して形成され、
前記表示制御手段は、前記時間スケール上の各時点の表示領域を前記表示画面 上で上下方向また左右方向に 4分割し、この分割順に前記各分割画像領域に対応 付けた各分割スケール領域に、該各分割スケール領域が対応付けられた分割画像 領域の前記領域平均色または前記期間領域平均色を表示する制御を行うことを特 徴とする請求項 3に記載の画像表示装置。
[5] 前記各画像の各分割画像領域の中から所定の特徴を有する特徴画像領域を検出 する特徴領域検出手段を備え、
前記平均色演算手段は、前記領域平均色として、前記特徴画像領域内の色情報 と該特徴画像領域を除いた前記分割画像領域内の色情報とに異なる重み付けをし て平均化した加重領域平均色を算出することを特徴とする請求項 1〜4のいずれか 一つに記載の画像表示装置。
[6] 前記加重領域平均色は、所定の前記部分撮像期間ごとに複数画像の前記加重領 域平均色を前記分割画像領域ごとに平均化した期間領域平均色であることを特徴と する請求項 5に記載の画像表示装置。
[7] 前記平均色演算手段は、前記期間領域平均色として、前記特徴画像領域を含む 特徴画像の前記加重領域平均色と、該特徴画像を除いた前記部分撮像期間におけ る複数画像の前記領域平均色とに異なる重み付けをして平均化した加重期間領域 平均色を算出することを特徴とする請求項 6に記載の画像表示装置。
[8] 前記平均色演算手段は、前記部分撮像期間における所定サンプリング期間の一 連の画像を用いて前記期間領域平均色を算出することを特徴とする請求項 1〜7の いずれか一つに記載の画像表示装置。
[9] 前記平均色演算手段は、前記分割画像領域における所定サンプリング間隔の各 画素の色情報を用いて前記領域平均色を算出することを特徴とする請求項 1〜8の いずれか一つに記載の画像表示装置。
[10] 前記一連の画像は、被検体内に導入されたカプセル型内視鏡を用いて撮像された 被検体内画像であることを特徴とする請求項 1〜9のいずれか一つに記載の画像表 示装置。
PCT/JP2006/317005 2005-09-09 2006-08-29 画像表示装置 WO2007029569A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN200680033010.9A CN101257835B (zh) 2005-09-09 2006-08-29 图像显示装置
US11/571,412 US8406489B2 (en) 2005-09-09 2006-08-29 Image display apparatus
EP06796982A EP1922979B1 (en) 2005-09-09 2006-08-29 Image display apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005263089A JP4464894B2 (ja) 2005-09-09 2005-09-09 画像表示装置
JP2005-263089 2005-09-09

Publications (1)

Publication Number Publication Date
WO2007029569A1 true WO2007029569A1 (ja) 2007-03-15

Family

ID=37835690

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/317005 WO2007029569A1 (ja) 2005-09-09 2006-08-29 画像表示装置

Country Status (4)

Country Link
EP (1) EP1922979B1 (ja)
JP (1) JP4464894B2 (ja)
CN (1) CN101257835B (ja)
WO (1) WO2007029569A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014504091A (ja) * 2010-12-16 2014-02-13 中国移動通信集団広東有限公司 情報処理システム、マルチメディア情報処理方法及びシステム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5191240B2 (ja) * 2008-01-09 2013-05-08 オリンパス株式会社 シーン変化検出装置およびシーン変化検出プログラム
CN102421350B (zh) 2009-03-11 2014-12-17 奥林巴斯医疗株式会社 图像处理系统、其外部装置及其图像处理方法
DE102010006741A1 (de) * 2010-02-03 2011-08-04 Friedrich-Alexander-Universität Erlangen-Nürnberg, 91054 Verfahren zum Verarbeiten eines Endoskopiebildes
JP6266559B2 (ja) * 2015-03-31 2018-01-24 富士フイルム株式会社 内視鏡診断装置、画像処理方法、プログラムおよび記録媒体

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004337596A (ja) 2003-04-25 2004-12-02 Olympus Corp 画像表示装置、画像表示方法および画像表示プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1330826A1 (en) * 2000-09-08 2003-07-30 Koninklijke Philips Electronics N.V. Reproducing apparatus providing a colored slider bar
CN101288582A (zh) * 2003-04-25 2008-10-22 奥林巴斯株式会社 图像显示装置和图像显示方法
JP4027409B2 (ja) * 2003-10-02 2007-12-26 ギブン イメージング リミテッド データストリームを表示するためのシステム及び方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004337596A (ja) 2003-04-25 2004-12-02 Olympus Corp 画像表示装置、画像表示方法および画像表示プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1922979A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014504091A (ja) * 2010-12-16 2014-02-13 中国移動通信集団広東有限公司 情報処理システム、マルチメディア情報処理方法及びシステム

Also Published As

Publication number Publication date
EP1922979A4 (en) 2010-10-06
CN101257835A (zh) 2008-09-03
CN101257835B (zh) 2010-06-09
EP1922979B1 (en) 2012-01-04
JP2007075157A (ja) 2007-03-29
JP4464894B2 (ja) 2010-05-19
EP1922979A1 (en) 2008-05-21

Similar Documents

Publication Publication Date Title
US8830307B2 (en) Image display apparatus
Pan et al. Bleeding detection in wireless capsule endoscopy based on probabilistic neural network
CN101686799B (zh) 图像处理装置以及图像处理装置的动作方法
US8837821B2 (en) Image processing apparatus, image processing method, and computer readable recording medium
WO2015137016A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
US9530205B2 (en) Polyp detection apparatus and method of operating the same
US20100083178A1 (en) Image display apparatus, image display method, and computer program product
JP4602825B2 (ja) 画像表示装置
JPWO2014061553A1 (ja) 画像処理装置及び画像処理方法
JP2006334115A (ja) 内視鏡診断支援方法、内視鏡診断支援装置および内視鏡診断支援プログラム
US20090027486A1 (en) Image display apparatus
US8406489B2 (en) Image display apparatus
JP4472602B2 (ja) 画像表示装置
WO2007029569A1 (ja) 画像表示装置
JP2006304993A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP4855709B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP5231160B2 (ja) 画像表示装置、画像表示方法、および画像表示プログラム
Vécsei et al. Automated classification of duodenal imagery in celiac disease using evolved fourier feature vectors
JP4923096B2 (ja) 画像表示装置
JP5684300B2 (ja) 画像表示装置、画像表示方法、および画像表示プログラム
JP4594834B2 (ja) 画像表示装置
JP7100505B2 (ja) 画像処理装置、画像処理装置の作動方法、及び画像処理装置の作動プログラム
KR20230163723A (ko) 내시경 검사 판독 보조 시스템

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680033010.9

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 11571412

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006796982

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE