WO2014050638A1 - 画像処理装置、プログラム及び画像処理方法 - Google Patents

画像処理装置、プログラム及び画像処理方法 Download PDF

Info

Publication number
WO2014050638A1
WO2014050638A1 PCT/JP2013/075080 JP2013075080W WO2014050638A1 WO 2014050638 A1 WO2014050638 A1 WO 2014050638A1 JP 2013075080 W JP2013075080 W JP 2013075080W WO 2014050638 A1 WO2014050638 A1 WO 2014050638A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
area
observation target
region
determination
Prior art date
Application number
PCT/JP2013/075080
Other languages
English (en)
French (fr)
Inventor
陽一 矢口
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to EP13840399.3A priority Critical patent/EP2901915A4/en
Priority to CN201380050262.2A priority patent/CN104684454B/zh
Publication of WO2014050638A1 publication Critical patent/WO2014050638A1/ja
Priority to US14/669,497 priority patent/US9684849B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Definitions

  • the present invention relates to an image processing apparatus, a program, an image processing method, and the like.
  • each moving image is configured.
  • image sequences a very large amount of images that are temporally or spatially continuous are acquired.
  • images that are close in the image sequence that is, close in time or space
  • the need to check everything is not high. In the first place, it is not uncommon for the number of images to be tens of thousands or more, and checking everything with the user's hand is a heavy burden.
  • Patent Document 1 discloses an image summarization processing method that leaves an image that makes it easy to grasp the contents of an image sequence by extracting an image of a boundary where the scene in the image sequence changes or an image representative of the image sequence. Has been.
  • Patent Document 4 discloses a technique for detecting a bubble area in an in-vivo image
  • Patent Document 5 discloses a technique for detecting a residue area.
  • the mucous membrane is shielded by the bubble and residue, so that the region is not suitable for observation.
  • areas that are not bubble areas or residue areas in the in-vivo image are areas that are more useful for observation than the bubble areas and residue areas, and the possibility of being unobservable by deleting the image should be suppressed. It is.
  • Patent Document 6 discloses a method for detecting a dark area that has been captured extremely dark in an image
  • Patent Document 7 detects a halation area that has been captured extremely bright in an image.
  • a technique is disclosed.
  • the pixel value is an extreme value, so the visibility of the subject is poor, and the area is not suitable for observation.
  • areas that are not dark areas or halation areas in the image are areas that are more useful for observation than the dark area and halation areas, and the possibility of being unobservable by deleting the image should be suppressed. .
  • observation area an area that is more useful to observe compared to other areas in the image, such as a lesion area, an area where the mucous membrane is not shielded, or an area where visibility is not bad, is defined as the observation area. It can be said that it is necessary to perform an image summarization process that suppresses the generation of an observation target region that cannot be observed by deleting.
  • an image that performs image summarization processing that suppresses generation of an observation target region that cannot be observed due to image deletion based on deformation information between images and the observation target region of each image.
  • a processing device, a program, an image processing method, and the like can be provided.
  • One aspect of the present invention is an image sequence acquisition unit that acquires an image sequence having a plurality of component images, and a summary image obtained by deleting a part of the plurality of component images of the image sequence acquired by the image sequence acquisition unit
  • a processing unit that performs an image summarization process for generating a sequence, and the processing unit performs a process of detecting an observation target region from each component image of the plurality of component images, and generates a reference image from the plurality of component images.
  • a determination target image is selected, deformation information between the deformation estimation target region of the reference image and the deformation estimation target region of the determination target image is calculated, the observation target region of the reference image, and the determination target
  • the present invention relates to an image processing apparatus that determines whether or not the determination target image can be deleted based on the observation target region of the image and the deformation information.
  • the determination target image after detecting an observation target region from each image, based on the observation target region of the reference image, the observation target region of the determination target image, and the deformation information between the reference image and the determination target image Then, it is determined whether or not the determination target image can be deleted. Therefore, it is possible to determine whether or not deletion can be performed in accordance with the degree of the observation target area that can no longer be observed, and an image summarization process that is more appropriate than when performing image summarization processing using deformation information without considering the observation target area. And so on.
  • the processing unit performs a deformation process using the deformation information on the observation target region of the reference image, so that the observation target of the reference image among the determination target images.
  • An observation target covering area that is an area covered by the area may be obtained, and whether or not the determination target image is to be deleted may be determined based on the obtained observation target covering area and the observation target area of the determination target image.
  • the processing unit obtains an observation target common region that is a common region between the observation target covering region and the observation target region of the determination target image, and the obtained observation target common region is the An observation target coverage that is a ratio of the determination target image to the observation target region may be calculated, and whether or not the determination target image is to be deleted may be determined based on the calculated observation target coverage.
  • the processing unit determines that the determination target image can be deleted, and the observation target coverage is lower than the predetermined threshold. In some cases, it may be determined that the determination target image cannot be deleted.
  • the processing unit is an observation in which, among the observation target regions of the determination target image, an observation target loss region that is a region that is not the observation target covering region is a ratio of the determination target image.
  • An object loss area occupancy ratio may be calculated, and determination may be made on whether or not the determination target image is to be deleted based on the calculated observation object loss area occupancy ratio.
  • the processing unit determines that the determination target image can be deleted when the observation target lost region occupancy is less than a predetermined threshold, and the observation target lost region occupancy is the predetermined If it is equal to or greater than the threshold value, it may be determined that the determination target image cannot be deleted.
  • the processing unit uses the observation target loss region, which is a region that is not the previous observation target covering region, of the observation target region of the determination target image, and uses the observation target region in the determination target image. It may be determined whether or not there is a possibility of overlooking, and whether or not the determination target image can be deleted may be determined according to the presence or absence of the possibility of missing the region of interest.
  • the processing unit determines whether or not the observation target loss area includes an area having a size corresponding to the attention area, thereby determining the attention area in the determination target image. You may determine the possibility of overlooking.
  • the processing unit performs a contraction process using a structural element corresponding to the region of interest for the observation target loss area, and when there is a residual area as a result of the contraction process, It is determined that the target image may be missed, the determination target image is determined not to be deleted, and if there is no residual region as a result of the contraction process, the target region may not be missed. It may be determined that the determination target image can be deleted.
  • the processing unit obtains an observation target common region that is a common region between the observation target covering region and the observation target region of the determination target image, and the obtained observation target common region is the An observation target coverage that is a ratio of the determination target image to the observation target region is calculated, and an observation target loss region that is a region obtained by removing the observation target common region from the observation target region of the determination target image is the determination Even if the observation target loss area occupancy ratio, which is a ratio of the target image, is calculated, and whether or not the determination target image can be deleted is determined based on the calculated observation target coverage ratio and the observation target loss area occupancy ratio. Good.
  • the processing unit deletes the determination target image that can be deleted in at least one of determination based on the observation target coverage ratio and determination based on the observation target loss area occupation ratio. It may be determined that it is possible.
  • the processing unit may detect a region excluding the shielding object region of the image as the observation target region.
  • the image sequence may be an in-vivo image sequence obtained by imaging the inside of the living body, and the shielding object region may be a bubble region or a residue region of the image.
  • the processing unit may detect a region excluding a region where the image signal of the image is not suitable for observation as the observation target region.
  • the area where the image signal is not suitable for observation may be a dark area or a halation area of the image.
  • the image sequence may be an in-vivo image sequence obtained by imaging the inside of the living body, and the processing unit may detect a lesion area or villus area of the image as the observation target area.
  • Another aspect of the present invention relates to a program that causes a computer to function as each of the above-described units.
  • an image sequence having a plurality of component images is acquired, a process for detecting an observation target region from each component image of the plurality of component images is performed, and a reference image is determined from the plurality of component images.
  • a target image is selected, deformation information between the deformation estimation target area of the reference image and the deformation estimation target area of the determination target image is calculated, and the observation target area of the reference image and the determination target image are calculated. Determining whether or not the determination target image can be deleted based on the observation target region and the deformation information, and deleting a part of the plurality of images of the image sequence based on the determination result regarding the deletion permission / inhibition
  • This relates to an image processing method for performing image summarization processing for acquiring a summary image sequence.
  • FIGS. 1A to 1C are diagrams for explaining the reason why a lesion area is used for image summarization processing.
  • FIG. 2 is another diagram for explaining the reason why a lesion area is used for image summarization processing.
  • FIG. 3 is a diagram for explaining processing of the present embodiment.
  • FIG. 4 is a configuration example of an image processing apparatus.
  • FIG. 5 is a configuration example of a deletion permission / inhibition determination unit according to the first embodiment.
  • FIG. 6 is a flowchart for explaining the processing of this embodiment.
  • FIG. 7 is a flowchart for explaining deletion permission / prohibition determination processing according to the first embodiment.
  • FIGS. 8A to 8C are diagrams illustrating a method for selecting a reference image and a determination target image.
  • FIG. 9 is a diagram for explaining processing for obtaining a lesion covering region based on a plurality of reference images.
  • FIGS. 10A and 10B are diagrams for explaining the deletion permission / inhibition determination process using the first reference image and the second reference image.
  • FIG. 11A to FIG. 11D are diagrams for explaining processing of the second embodiment.
  • FIG. 12 is a configuration example of a deletion permission / inhibition determination unit according to the second embodiment.
  • FIG. 13 is another configuration example of the deletion permission / inhibition determining unit according to the second embodiment.
  • FIG. 14 is a flowchart for describing deletion permission / prohibition determination processing according to the second embodiment.
  • FIG. 15 is a configuration example of a deletion permission / inhibition determination unit according to the third embodiment.
  • FIG. 16 is a flowchart for explaining image summarization processing according to the third embodiment.
  • FIG. 17 is a basic configuration example of an image processing apparatus.
  • FIG. 18 is a diagram for explaining a method for obtaining the coverage based on the coverage area.
  • FIG. 19 is an explanatory diagram of processing for obtaining the observation target region and the observation target covering region of the reference image based on the bubble region and the like.
  • FIG. 20 is an explanatory diagram of processing for obtaining an observation target region of a determination target image based on a bubble region or the like.
  • FIG. 21A shows an example of an observation target common area
  • FIG. 21B shows an example of an observation target lost area.
  • FIG. 22 shows another configuration example of the image processing apparatus.
  • FIG. 22 shows another configuration example of the image processing apparatus.
  • FIG. 23 is a configuration example of a deletion permission / inhibition determination unit according to the fourth embodiment.
  • FIGS. 24A to 24E are diagrams for explaining the contraction process by the structural element for the observation target loss region.
  • FIG. 25A and FIG. 25B are diagrams illustrating another process using a structural element.
  • an image sequence captured using a capsule endoscope can be considered.
  • the capsule endoscope is a capsule-shaped endoscope with a built-in small camera, and takes an image at a given time interval (for example, twice per second). Since the capsule endoscope requires several hours (in some cases, several tens of hours) from taking the clothes to discharging, tens of thousands of captured images are acquired in one examination by one user. In addition, the capsule endoscope stays in the same place or returns in the opposite direction due to the influence of the movement of the living body when moving in the living body. For this reason, in a large number of images, a subject similar to that of other images is captured, and there are many images that are not highly useful in diagnosis or the like.
  • an image summarization process is performed in which a lesion area is detected from an image, an image in which the lesion area is detected is left in the summary image sequence after the summary process, and an image in which the lesion area is not detected is deleted.
  • a lesion area may be detected in most images in the acquired image sequence. In such a case, even if image summarization processing is performed depending on whether or not a lesion area has been detected, since most of the images cannot be deleted, the effect of reducing the number of images is low and the burden on the user (doctor) is low. Does not lead to mitigation.
  • a conventional image summarization process for example, a process for extracting an image representing a boundary where a scene changes or an image representing an image sequence, disclosed in Patent Document 1 is performed on an image group in which a lesion area is detected. It is conceivable to improve the effect of reducing the number of images.
  • a method when deleting an image, the relationship between the subject captured in the image to be deleted and the subject captured in the remaining image is not particularly considered. For this reason, it may happen that the lesion area captured on the image included in the pre-summarization image sequence is not captured on any image included in the post-summary image sequence.
  • the degree to which the lesion area that is not included in any image in the image sequence is generated by the image summarization process depends on the image sequence to be processed, it is difficult to control the degree in the conventional method. It was.
  • the present applicant selects a reference image (an image to be left, an image to be a candidate to be left depending on the embodiment) and a determination target image (an image to be deleted or not), and selects the reference image and the determination target image.
  • a reference image an image to be left, an image to be a candidate to be left depending on the embodiment
  • a determination target image an image to be deleted or not
  • the image summarization process using the deformation information between the reference image and the determination target image it is possible to calculate the coverage area on the determination target image by deforming the reference image.
  • the subject imaged with the reference image corresponds to the subject imaged on the covering area of the determination target image. That is, the range outside the covered area (hereinafter referred to as a non-covered area) in the determination target image is an area that cannot be covered even if the reference image is left when the determination target image is deleted.
  • the ratio of the coverage area to the determination target image is calculated as the coverage ratio, and by determining whether or not the determination target image is deleted based on the calculated coverage ratio, Control the degree of occurrence. For example, if the image to be judged is deleted when the coverage is equal to or higher than the threshold, and the image to be judged is not deleted when the coverage is less than the threshold, the degree of occurrence of an area that cannot be covered is controlled according to the threshold setting. it can.
  • the lesion area is an area to be noted in the image as described above. . If a notable lesion area has been detected, it is unreasonable to perform the process for the entire image as shown in FIG. 18 and treat the lesion area and the other area equivalently.
  • FIGS. 1A to 1C extreme shapes are set for explanation. It is assumed that a covered region as shown in FIG. 1A is obtained as a result of deforming the reference image using the deformation information and projecting it on the determination target image. In this case, since the coverage rate is a high value to some extent, it is considered that the determination target image is determined to be deleteable depending on the setting of the threshold value used for the deletion permission determination. In other words, when the determination target image is deleted, an area that cannot be covered even if the reference image is left (the uncovered area in FIG. 1A) is small enough to be acceptable.
  • the lesion area on the reference image is the area indicated by A1 in FIG. 1B
  • the lesion area of the reference image after the deformation process based on the deformation information (hereinafter also referred to as a lesion covered area) is the determination target image.
  • the region is indicated by A2.
  • the lesion area of the determination target image is the area indicated by A3 in FIG. 1C
  • most of the lesion area A3 of the determination target image is included in the uncovered area, and this portion is determined. If the target image is deleted, it becomes a lesion area that cannot be observed.
  • the entire original lesion area is large enough to correspond to the lesion area indicated by A3 in FIG. Can only be observed by magnifying the upper left part.
  • the coverage is calculated for the entire image, it is determined that the determination target image can be deleted as shown in FIG. That is, in coverage determination without considering a lesion area, it may be determined that a place that should not be deleted can be deleted, so that many lesion areas that cannot be observed may occur.
  • the reference image when the reference image is deformed to obtain a covered region B1, the reference image has a lesion area B2, and the determination target image has a lesion area B3. Since the ratio of the covering area in the image is low, the determination target image cannot be deleted by the determination using the covering ratio. However, most of the lesion area B3 of the determination target image is included in the lesion cover area obtained by deforming B2, and the degree of occurrence of the lesion area that cannot be observed even if the determination target image is deleted is low. In this case, the number of images included in the image sequence after the image summarization process increases because the area that should originally be deleted is determined not to be deleted in the coverage determination without considering the lesion area. This may reduce the reduction effect) and increase the burden on the user.
  • the present applicant proposes a method for performing image summarization processing by determining whether or not deletion is possible based on a lesion area, instead of subjecting the entire image to deformation processing based on deformation information.
  • the lesion area of the reference image is subjected to a deformation process based on the deformation information and projected onto the determination target image, whereby the deformation result (lesion covered area) of the reference image is obtained.
  • the determination target image is determined whether or not the determination target image can be deleted.
  • a lesion area is used as an example of an area that is not preferably unobservable by deleting a determination target image.
  • the present invention is not limited to this.
  • the presence of the bubble and residue causes the mucous membrane of the living body to be shielded.
  • the priority of observation is higher in the mucous membrane, and the priority of observation is lower in the bubble region or residue region.
  • the determination target image it is not a big problem that the bubble area and the residue area cannot be observed due to the deletion of the determination target image, whereas the area other than the bubble area and the residue area cannot be observed. It becomes.
  • the brightness of the subject is low due to extremely dark or bright brightness, and the priority of observation is the appropriate exposure area. Low compared to In other words, in the determination target image, it is not a big problem that the dark area and the halation area cannot be observed due to the deletion of the determination target image, but it is a big problem that the area other than the dark area and the halation area cannot be observed. It becomes.
  • the image summarization process may be performed by determining whether or not deletion is possible based on the first area, instead of subjecting the entire image to the deformation process based on the deformation information.
  • a lesion area, an area where the mucous membrane is not shielded an area that is not a bubble area or a residue area
  • an area that is relatively highly visible an area that is not a dark area or a halation area
  • the image summarization process is performed by determining whether or not deletion is possible with reference to.
  • an apparatus including a processing unit 100 and an image sequence acquisition unit 200 as shown in FIG. 17 can be considered.
  • the image sequence acquisition unit 200 acquires an image sequence having a plurality of component images.
  • the processing unit 100 performs image summarization processing for generating a summary image sequence by deleting some of the plurality of component images of the image sequence acquired by the image sequence acquisition unit 200.
  • the processing unit 100 performs processing for detecting an observation target region from each component image of the plurality of component images, selects a reference image and a determination target image from the plurality of component images, determines a deformation estimation target region of the reference image, and determines Deformation information between the deformation estimation target area of the target image is calculated, and whether the determination target image can be deleted is determined based on the observation target area of the reference image, the observation target area of the determination target image, and the deformation information. .
  • a lesion area is an observation target area.
  • a method of determining whether or not a determination target image can be deleted by obtaining a lesion coverage as an index value based on deformation information, a lesion area of a reference image, and a lesion area of a determination target image will be described.
  • a method of using the lesion loss area occupancy rate as an index value will be described. Details of each index value will be described later. Furthermore, the combination of 1st Embodiment and 2nd Embodiment and its modification are demonstrated in 3rd Embodiment.
  • the area that cannot be observed is a bubble area, a residue area, a dark area, a halation area, and the like
  • the observation target area is an area other than those in the image.
  • a lesion area is an observation target area
  • a determination target image deletion possibility determination process is performed based on a lesion coverage ratio (observation target coverage ratio in a broad sense).
  • a system configuration example of the image processing apparatus will be described, and a processing flow will be described using a flowchart.
  • FIG. 4 shows a system configuration example of the image processing apparatus according to this embodiment.
  • the image processing apparatus includes a processing unit 100, an image sequence acquisition unit 200, and a storage unit 300.
  • the processing unit 100 performs image summarization processing on the image sequence acquired by the image sequence acquisition unit 200 by deleting some of the plurality of images included in the image sequence.
  • the function of the processing unit 100 can be realized by hardware such as various processors (CPU and the like), ASIC (gate array and the like), a program, and the like.
  • the image sequence acquisition unit 200 acquires an image sequence that is an object of image summarization processing.
  • RGB 3-channel images arranged in time series can be considered.
  • it may be an image sequence that is spatially continuous, such as an image sequence that is spatially arranged and photographed by imaging devices arranged in a horizontal row.
  • the image which comprises an image sequence is not limited to RGB 3 channel image, You may use other color spaces, such as a Gray1 channel image.
  • the storage unit 300 stores the image sequence acquired by the image sequence acquisition unit 200 and serves as a work area for the processing unit 100 and the like, and its function can be realized by a memory such as a RAM or an HDD (hard disk drive).
  • a memory such as a RAM or an HDD (hard disk drive).
  • the processing unit 100 includes a lesion region detection unit 1001, a deformation estimation target region selection unit 1002, a deformation information acquisition unit 1003, a reference image selection unit 1004, and a determination target image selection unit 1005. And a deletion permission determination unit 1006.
  • the processing unit 100 is not limited to the configuration of FIG. 4, and various modifications such as omitting some of these components or adding other components are possible.
  • Each of the above-described units is set to explain each subroutine when the image summarization process executed by the processing unit 100 is divided into a plurality of subroutines, and the processing unit 100 does not necessarily include the above-described units. Does not have as.
  • the lesion area detection unit 1001 detects a lesion area from each image in the image sequence.
  • Various types of disease as a lesion area and a method for detecting a lesion area are conceivable.
  • the method disclosed in Patent Document 2 may be used, or another method may be used.
  • An image from which no lesion area has been detected is not useful in processing such as lesion observation, and therefore does not need to be left in the image sequence after image summarization processing. Therefore, the lesion area detection processing is first performed on the image sequence acquired by the image sequence acquisition unit 200, and the subsequent processing may be performed on the image from which the lesion area is detected.
  • the deformation estimation target area selection unit 1002 sets a target area for deformation estimation processing (specifically, processing for acquiring deformation information).
  • a target area for deformation estimation processing is a lesion area that is subject to deformation processing based on deformation information. That is, if there is deformation information sufficient to deform the lesion area (for example, information for projecting the pixel on the determination target image for each pixel included in the lesion area), the processing can be performed.
  • the area used for the deformation estimation process may be selected as the deformation estimation target area.
  • the entire area of the image may be selected, or the deformation estimation target area may be dynamically selected using information on a lesion area or the like.
  • the image processing apparatus may be configured not to perform selection processing, and may be configured to use values set at the time of shipping of the apparatus as they are, for example.
  • the deformation information acquisition unit 1003 acquires deformation information between two images using information on the deformation estimation target area.
  • the deformation information represents what shape (range) the range captured in one image is captured in the other image.
  • the deformation parameter disclosed in Patent Document 3 is used. Etc.
  • the deformation information acquisition unit 1003 acquires deformation information between the reference image selected by the reference image selection unit 1004 and the determination target image selected by the determination target image selection unit 1005. Then, deletion permission / inhibition determination processing is performed based on the acquired deformation information.
  • the deformation information acquisition unit 1003 is not limited to one that directly obtains deformation information between the reference image and the determination target image.
  • deformation information between adjacent images is obtained, and deformation information between non-adjacent images may be calculated by combining deformation information between adjacent images.
  • the deformation information between the reference image and the determination target image is obtained by combining (all in a narrow sense) deformation information between adjacent images in the reference image, the determination target image, and the image between them. .
  • the deformation information can be calculated by the method shown in Patent Document 3 or the like, but generally, the process of combining a plurality of deformation information is much lighter than the process of calculating the deformation information from scratch. is there.
  • the deformation information is a matrix or the like, the process of obtaining the matrix from two pieces of image information is heavy, but combining a plurality of already obtained matrices (for example, it is only necessary to take the matrix product) ) It will be very easy.
  • the image sequence acquired by the image sequence acquisition unit 200 includes N images, there are N ⁇ (N ⁇ 1) / 2 combinations for selecting two images from the images.
  • heavy load process process of calculating the deformation information from a
  • the heavy processing can be performed N-1 times.
  • the reference image selection unit 1004 selects a reference image from a plurality of images in the partial image sequence.
  • the determination target image selection unit 1005 selects an image different from the reference image from among the plurality of images in the partial image sequence as the determination target image.
  • the deletion permission determination unit 1006 performs a deletion permission determination process for the determination target image based on deformation information between the reference image and the determination target image.
  • the determination target image deletion determination process is performed based on a lesion coverage that represents the extent to which the lesion area of the determination target image is covered with the lesion area of the reference image.
  • the deletion possibility determination unit 1006 may include a lesion coverage area calculation unit 1009, a lesion common area calculation unit 1010, a lesion coverage calculation unit 1011, and a threshold determination unit 1012 as illustrated in FIG.
  • the deletion permission / inhibition determination unit 1006 is not limited to the configuration in FIG. 5, and various modifications such as omitting some of these components or adding other components are possible.
  • the lesion cover area calculation unit 1009 uses the deformation information (deformation parameters) between the two images to deform and project the lesion area of the reference image onto the determination target image to obtain the lesion cover area.
  • the lesion common area calculation unit 1010 obtains a lesion common area that is a common area between the obtained lesion cover area and the lesion area of the determination target image.
  • the lesion coverage calculation unit 1011 calculates the lesion coverage based on the lesion coverage area.
  • the lesion coverage is the ratio of the lesion common area to the lesion area of the determination target image (in other words, the area covered by the lesion area of the reference image among the lesion areas of the determination target image). It is obtained as a ratio of the area of the lesion common area to the area of the lesion area of the image.
  • the threshold determination unit 1012 performs a comparison process between the calculated lesion coverage and a given threshold.
  • the lesion coverage is equal to or higher than the threshold value, it means that the lesion area of the determination target image is sufficiently covered by the lesion area of the reference image, and it is determined that the determination target image can be deleted.
  • the lesion coverage is less than the threshold, it is determined that the determination target image cannot be deleted because the degree of occurrence of a lesion area that cannot be observed when the determination target image is deleted is large.
  • FIG. 3 shows processing in the deletion permission / inhibition determination unit 1006.
  • the lesion covered area calculation unit 1009 obtains the lesion covered area (C2) by deforming and projecting the lesion area (C1) of the reference image.
  • the lesion common area calculation unit 1010 obtains the common part of the lesion area (C3) and the lesion cover area (C2) of the determination target image as the lesion common area (C4).
  • the lesion coverage calculation unit 1011 obtains (C4 area) / (C3 area) as the lesion coverage, and the threshold determination unit 1012 performs a comparison process between the obtained lesion coverage and a given threshold.
  • a process of selecting a deformation estimation target area used for the deformation estimation process is performed (S102), and the deformation estimation process is performed using the selected deformation estimation target area (S103). Specifically, this corresponds to processing for obtaining deformation information between two adjacent images based on the deformation estimation target region as described above.
  • a reference image is selected from the image sequence (S104).
  • the first image in the image sequence may be selected as the reference image.
  • the determination target image determined to be undeleteable in S106 is selected as a new reference image.
  • the reference image selected here is left in the summary image sequence. If the reference image cannot be selected from the partial image sequence due to an error or the like, the image summarization process ends.
  • the determination target image is selected from the images included in the image sequence (S105).
  • the determination target image is selected from images behind the reference image in the image sequence.
  • the process of S105 is performed for the first time after the selection or update process of the reference image in S104, the next image of the reference image is selected as the determination target image. If the kth image has already been selected as the determination target image with the reference image as the starting point, the selection position is shifted by one and the k + 1st image is selected as the new determination target image with the reference image as the starting point. .
  • the case where there is no image to be selected in S105 means that the deletion possibility determination process has been performed up to the last image in the image sequence, and thus the image summarization process ends.
  • the determination target image deletion possibility determination process is performed (S106).
  • a lesion covered area is obtained by deforming the lesion area of the reference image using the deformation information (deformation parameter) (S201). Then, a common area between the lesion area of the determination target image and the obtained lesion cover area is obtained as a lesion common area (S202), and the ratio of the lesion common area to the lesion area of the determination target image is calculated as a lesion coverage ( S203). A comparison process between the calculated lesion coverage and a given threshold is performed (S204), and it is determined whether the determination target image can be deleted.
  • the process returns to S105 to update the determination target image. If it is determined in S106 that deletion is impossible, the reference image at that time cannot sufficiently cover the lesion area of the determination target image, and the determination target image at that time needs to be left in the summary image sequence. There will be. Therefore, the process returns to S104, and the determination target image determined to be undeleteable in S106 is selected as a new reference image.
  • FIGS. 8A to 8C illustrate image summarization processing for the above image sequence.
  • the first image is selected as the reference image
  • the second image is selected as the determination target image.
  • the lesion coverage is calculated between the reference image and the determination target image, and it is determined whether the determination target image can be deleted.
  • a new determination target image is selected. Specifically, the position of the determination target image is shifted backward, and the third image is selected as the determination target image as shown in FIG. Then, whether or not the determination target image can be deleted is determined between the reference image and the new determination target image, and the image selected as the determination target image is updated until a determination target image that is determined to be undeleteable is found.
  • the second to k ⁇ 1th images are determined. Since the lesion area that is lost even if the image is deleted is suppressed to some extent (to the extent corresponding to the threshold value), the image is deleted and not included in the summary image sequence. On the other hand, if the image is deleted, a lot of lesion areas are lost even if the reference image is left when the image is deleted. For this purpose, the k-th image is set as a new reference image here.
  • a method can be considered.
  • an image between two reference images is sequentially selected as a determination target image. If all the images between the two reference images can be deleted, the lesions that are lost even if the images are deleted by leaving the two reference images in the summary image sequence and deleting the images between them. Deletability determination processing that guarantees that the degree of the area is below a certain level can be performed.
  • the condition that all images between the first reference image (front) and the second reference image (back) can be deleted is set. It is preferable to search for a position where the first reference image and the second reference image are most distant from each other. In this case, when the first reference image is fixed, as shown in FIGS. 10A and 10B, the case where the k-th image is used as the second reference image is short. However, if the (k + 1) -th image is used as the second reference image, a search is made for k such that at least one of the images in between cannot be deleted.
  • the k-th image is selected as a new first reference image, and the second reference image is selected from the rear. Then, the image between them is sequentially selected as a determination target image, and deletion permission / inhibition determination processing is performed.
  • the second reference image being searched is an image candidate to be left in the summary image sequence, and the image actually left in the summary image sequence is the first reference image.
  • the selection of the reference image and the determination target image can be realized by various methods.
  • the image processing apparatus includes an image sequence acquisition unit 200 that acquires an image sequence having a plurality of constituent images, and a plurality of image sequences acquired by the image sequence acquisition unit 200. It includes a processing unit 100 that performs image summarization processing for deleting a part of the constituent images and generating a summary image sequence. Then, the processing unit 100 performs processing for detecting an observation target region from each component image of the plurality of component images, selects a reference image and a determination target image from the plurality of component images, determines a deformation estimation target region of the reference image, and determines Deformation information between the deformation estimation target area of the target image is calculated. Further, the processing unit 100 determines whether or not the determination target image can be deleted based on the observation target region of the reference image, the observation target region of the determination target image, and the deformation information.
  • the observation target region represents a region to be observed or a region that can be observed compared to other regions in the image.
  • the observation target region may be the lesion region described above in the present embodiment, or may be a region other than the bubble region, the residue region, the dark region, or the halation region, as will be described later in the fourth embodiment. There may be.
  • the deformation estimation target region is a region to be processed when obtaining deformation information between images (particularly between a reference image and a determination target image).
  • the deformation estimation target area may be the entire image or a partial area thereof.
  • region in the process part 100 may be sufficient, and the deformation
  • the processing unit 100 performs a deformation process using the deformation information on the observation target area of the reference image, so that an observation target covering area that is covered with the observation target area of the reference image in the determination target image. You may ask for. Then, the processing unit 100 determines whether or not the determination target image can be deleted based on the obtained observation target covering region and the observation target region of the determination target image.
  • the observation target coverage area corresponds to the above-described lesion coverage area in a narrow sense, but the observation target area of the reference image obtained by the method described later in the fourth embodiment is an area deformed by deformation information. There may be.
  • other information obtained based on the lesion area can be considered based on the observation area that is a concept including the lesion area so that the lesion covered area can be considered as an observation target covered area. It can be extended.
  • the observation target coverage region (C2 in the example of FIG. 3) is obtained by deforming the observation target region (C1 in the example of FIG. 3) of the reference image, and the obtained observation target coverage region and the determination target image are observed. Based on the target area (C3 in the example of FIG. 3), it is possible to determine whether or not to delete. Since the observation target coverage area corresponds to the observation target area that can be observed by leaving the reference image even if the determination target image is deleted, the observation target coverage area and the observation target area of the determination target image are used for observation. It is possible to control the degree of occurrence of the observation target region that cannot be performed.
  • the processing unit 100 obtains an observation target common area that is a common area between the observation target covering area and the observation target area of the determination target image, and the ratio of the obtained observation target common area to the observation target area of the determination target image It is also possible to calculate the observation object coverage ratio. Then, it is determined whether or not the determination target image can be deleted based on the calculated observation target coverage.
  • the processing unit 100 may determine that the determination target image can be deleted when the observation target coverage is equal to or higher than a predetermined threshold.
  • the processing unit 100 may determine that the determination target image cannot be deleted when the observation target coverage is less than a predetermined threshold.
  • observation target common area corresponds to the observation target coverage area in a narrow sense
  • observation target coverage corresponds to the lesion coverage described above.
  • the observation target common area represents an area covered by the observation target area of the reference image among the observation target areas of the determination target image. Therefore, the observation target coverage is the observation target of the determination target image by the observation target area of the reference image. This is an index value indicating the degree of coverage of the area. Therefore, the determination target image can be deleted if the observation target coverage is high, and the determination target image cannot be deleted if it is low. Specifically, it is only necessary to determine whether the threshold value is equal to or greater than the threshold value or less than the threshold value with reference to a given threshold value.
  • the image sequence is an in-vivo image sequence obtained by imaging the inside of the living body, and the processing unit 100 may detect a lesion area or villi area of the image as an observation target area.
  • the villi are protrusions existing on the inner wall of the intestine, and the villi region represents an area in the image where it is determined that the villi have been imaged.
  • the lesion area is a very important part in the diagnosis and treatment of the subject. Therefore, there is a great advantage that the lesion area can be observed even after image summarization processing.
  • the resistance to bacteria decreases when the villi are atrophied, it is useful to observe the villi area for grasping the condition of the subject. Can be thought of as well.
  • the image processing apparatus or the like according to the present embodiment may realize part or most of the processing by a program.
  • a processor such as a CPU executes the program, thereby realizing the image processing apparatus according to the present embodiment.
  • a program stored in the information storage device is read, and a processor such as a CPU executes the read program.
  • the information storage device (device readable by a computer) stores programs, data, and the like, and functions as an optical disk (DVD, CD, etc.), HDD (hard disk drive), or memory (card type). It can be realized by memory, ROM, etc.
  • a processor such as a CPU performs various processes of the present embodiment based on a program (data) stored in the information storage device.
  • a program for causing a computer an apparatus including an operation unit, a processing unit, a storage unit, and an output unit
  • a program for causing the computer to execute processing of each unit Is memorized.
  • 11A and 11B when the lesion area of the reference image and the determination target image is an area as shown in the figure, the lesion covering area and the lesion common area are obtained as in FIG. It is an example.
  • the ratio of the lesion common area occupying the lesion area of the determination target image is large (80% in this case), it is determined that the determination target image can be deleted in the determination based on the lesion cover area.
  • FIG. 11B since the ratio of the lesion common area to the lesion area of the determination target image is small (here, 50%), the determination target image cannot be deleted in the determination based on the lesion cover area. Determined.
  • the lesion loss area in the case of FIG. 11 (A) is shown in FIG. 11 (C)
  • the lesion loss area in the case of FIG. 11 (B) is shown in FIG. 11 (D).
  • the lesion loss region is larger in FIG. 11C than in FIG. 11D. That is, in the determination based on the lesion coverage, by deleting the determination target image in FIG. 11A, the large-sized lesion loss region shown in FIG. 11 (B), the effect of reducing the number of images is reduced in order to protect the small-sized lesion loss area shown in FIG. 11 (D).
  • the determination target image deletion determination is performed using an index value from a viewpoint different from the lesion coverage.
  • a lesion loss area is obtained, and determination using the obtained lesion loss area size may be performed.
  • the area of a region (for example, the number of pixels included in the region) is different in relative area if the entire area of the image is different. For example, an area of 50,000 pixels in an image having a total pixel count of 100,000 pixels is considered to be a wide area covering half of the image, but an area of 50,000 pixels in an image having a total pixel count of 1 million pixels is It is interpreted as a narrow area that occupies only a small part. Therefore, in this embodiment as well, the ratio of the lesion loss area in the determination target image, not the area of the lesion loss area itself, is used as the lesion loss area occupancy ratio for determination of whether or not deletion is possible.
  • FIG. 12 shows a configuration example of the deletion permission / inhibition determination unit 1006 of the present embodiment.
  • Deletability determination unit 1006 may include a lesion covered region calculation unit 1009, a lesion loss region calculation unit 1013, a lesion loss region occupancy rate calculation unit 1014, and a threshold determination unit 1015 as shown in FIG. .
  • the deletion permission / inhibition determination unit 1006 is not limited to the configuration in FIG. 12, and various modifications such as omission of some of these components and addition of other components are possible.
  • the lesion coverage area calculation unit 1009 obtains a lesion coverage area by deforming and projecting the lesion area of the reference image, as in the first embodiment.
  • the lesion loss area calculation unit 1013 obtains a lesion loss area from the obtained lesion cover area and the lesion area of the determination target image.
  • the lesion loss area can be obtained as an area excluding the area included in the lesion cover area from the lesion area of the determination target image.
  • the lesion loss area occupancy rate calculation unit 1014 calculates a lesion loss area occupancy rate based on the lesion loss area.
  • the lesion loss area occupancy is the ratio of the lesion loss area to the determination target image (in other words, the area that is not covered by the lesion area of the reference image among the lesion areas of the determination target image). It is obtained as a ratio of the area of the lesion loss area to the area.
  • the threshold determination unit 1015 performs a comparison process between the calculated lesion loss area occupation ratio and a given threshold.
  • the lesion loss area occupancy is less than the threshold, even if the determination target image is deleted, the size of the area that cannot be observed in the lesion area of the determination target image (strictly, the size of the entire determination target image is used as a reference) In this case, the determination target image is determined to be erasable.
  • the lesion loss area occupancy is equal to or greater than the threshold value, it is determined that the determination target image cannot be deleted because the degree of occurrence of the lesion area that cannot be observed when the determination target image is deleted is large.
  • the deletion possibility determination unit 1006 of the present embodiment may be configured not to directly determine the lesion loss area.
  • the deletion possibility determination unit 1006 includes a lesion covering region calculation unit 1009, a lesion common region calculation unit 1010, a lesion loss region occupancy rate calculation unit 1014, and a threshold determination unit 1015. , May be included.
  • the lesion covering area calculation unit 1009 obtains the lesion covering area (C2) by deforming and projecting the lesion area (C1) of the reference image as in the first embodiment.
  • the lesion common area calculation unit 1010 obtains a common portion between the lesion area (C3) and the lesion cover area (C2) of the determination target image as the lesion common area (C4).
  • the area of the lesion loss area is obtained by subtracting the area of the lesion common area from the area of the lesion area of the determination target image.
  • the lesion loss region occupancy rate calculation unit 1014 obtains (C3 area ⁇ C4 area) / (C3 area) as the lesion loss region occupancy rate, and the threshold determination unit 1015 calculates the calculated lesion loss region occupancy rate. A comparison process with a given threshold value may be performed.
  • a lesion covered region is obtained by deforming the lesion region of the reference image using the deformation information (deformation parameter) (S301). Then, among the lesion areas of the determination target image, an area that is not included in the obtained lesion cover area is determined as a lesion loss area (S302), and the ratio of the lesion loss area in the determination target image is calculated as the lesion loss area occupation ratio. (S303).
  • a comparison process between the calculated lesion loss area occupancy rate and a given threshold value is performed (S304), and it is determined whether or not the determination target image can be deleted.
  • the processing unit 100 occupies the observation target loss region, which is the ratio of the observation target loss region, which is a region that is not the observation target covering region, to the determination target image in the determination target image. Calculate the rate. Then, the processing unit 100 determines whether or not the determination target image can be deleted based on the calculated observation target loss area occupation ratio.
  • the processing unit 100 may determine that the determination target image can be deleted when the observation target loss region occupancy is less than a predetermined threshold. Further, the processing unit 100 may determine that the determination target image cannot be deleted when the observation target lost region occupancy is equal to or higher than a predetermined threshold.
  • the observation target lost region occupancy is an index value that represents a region that cannot be observed by deleting the determination target image. Therefore, the determination target image can be deleted if the observation target lost area occupancy is high, and the determination target image cannot be deleted if the observation target loss area occupation ratio is low. Specifically, it is only necessary to determine whether the threshold value is equal to or greater than the threshold value or less than the threshold value with reference to a given threshold value.
  • deletion using a lesion area as an observation target area and using both a lesion coverage and a lesion loss area occupancy (in a broad sense, an observation target coverage and an observation target loss area occupancy) as index values A method for determining whether to permit or not will be described.
  • the configuration example of the image processing apparatus according to the present embodiment is the same as that in FIG. 4 although the processing contents in the deletion permission determination unit 1006 are different. Therefore, detailed description of components other than the deletion permission determination unit 1006 is omitted. Further, the processing flow is the same as that of the flowchart of FIG. 6 except for the processing content of S106, and thus detailed description thereof is omitted.
  • FIG. 15 shows a configuration example of the deletion permission / inhibition determination unit 1006 of the present embodiment.
  • Deletability determination unit 1006 includes lesion coverage area calculation unit 1009, lesion common area calculation unit 1010, lesion coverage rate calculation unit 1011, lesion loss area occupancy rate calculation unit 1014, and threshold determination as shown in FIG. Part 1016.
  • the deletion permission / inhibition determination unit 1006 is not limited to the configuration in FIG. 15, and various modifications such as omission of some of these components and addition of other components are possible.
  • the lesion covering area calculation unit 1009 obtains a lesion covering area (C2) by deforming and projecting the lesion area (C1) of the reference image, and common to the lesions.
  • the area calculation unit 1010 obtains the common part of the lesion area (C3) and the lesion cover area (C2) of the determination target image as the lesion common area (C4).
  • the lesion coverage calculation unit 1011 obtains the ratio of the lesion common area (C4) occupying the lesion area (C3) of the determination target image as the lesion coverage, and the lesion loss area occupancy calculation unit 1014 determines the determination target image.
  • the ratio of the occupying lesion loss area (C3-C4) is obtained as the occupying ratio of the lesion loss area.
  • the threshold determination unit 1016 is a first threshold determination process that is a comparison process between the first threshold and the lesion coverage, and a second threshold determination process that is a comparison process between the second threshold and the lesion loss area occupation ratio. You can do both.
  • S401 to S406 in FIG. 16 are the same as S101 to S106 in FIG. S406 is a deletion feasibility determination process using the lesion coverage corresponding to S201 to S204 in FIG. 7, similarly to S106 in FIG. If there is no image to be selected in S404 or S405, the image summarization process using the lesion coverage is finished, and an intermediate image sequence is acquired.
  • the processing shown in S407 to S409 is performed on the acquired intermediate image sequence.
  • the deletion permission / inhibition determination process in S409 is a deletion permission / inhibition determination process using the lesion loss area occupancy corresponding to S301 to S304 in FIG. Since the detection of the lesion area, the selection of the deformation estimation target area, and the acquisition of the deformation information may be performed using the results of S402 to S403, the processing of S407 to S409 uses the lesion loss area occupation rate for the intermediate image sequence. It is none other than image summarization processing.
  • both the lesion coverage and the lesion loss area occupancy are calculated in one deletion possibility determination process, and the first threshold determination process using the lesion coverage and the second using the lesion loss area occupancy
  • a method may be used in which the threshold determination process is performed and the determination target image determined to be deleteable in at least one of the determinations is deleted.
  • various modification implementations are possible for the combination technique of the first and second embodiments.
  • a simple index value may be used instead of the lesion loss area occupancy rate.
  • the determination target image that should be deleted in consideration of the size of the lesion loss area as shown in FIG. It is assumed that the problem that cannot be deleted is addressed. For this purpose, it is desirable to use a lesion loss area if a strict determination is made.
  • the situation as shown in FIG. 11B is likely to occur when the ratio of the lesion area of the determination target image to the determination target image is small (the size of the lesion area of the determination target image is small). That is, instead of the lesion loss area occupancy, the lesion area occupancy that is the ratio of the lesion area of the determination target image to the determination target image (for example, the area of the lesion area of the determination target image / the area of the determination target image) is used as the index value. It may be used as
  • the lesion area occupancy rate since it is not preferable to use the lesion area occupancy rate alone, it is preferable to first make a determination based on the lesion coverage ratio, and use the determination based on the lesion area occupancy as an auxiliary.
  • the processing unit 100 obtains an observation target common area that is a common area between the observation target covering area and the observation target area of the determination target image, and the obtained observation target common area is an observation of the determination target image.
  • An observation target coverage that is a ratio of the target area is calculated.
  • the processing unit 100 calculates an observation target lost region occupancy ratio, which is a ratio of the observation target lost region, which is a region obtained by removing the observation target common region from the observation target region of the determination target image, in the determination target image. Then, the processing unit 100 determines whether or not the determination target image can be deleted based on the calculated observation target coverage ratio and the observation target loss area occupation ratio.
  • the processing unit 100 determines that the determination target image that can be deleted can be deleted in at least one of the determination based on the observation target coverage ratio and the determination based on the observation target loss area occupation ratio. Also good.
  • the processing unit 100 obtains an observation target common area that is a common area between the observation target covering area and the observation target area of the determination target image, and the ratio of the obtained observation target common area to the observation target area of the determination target image The coverage of the observation object is calculated. Further, the processing unit 100 calculates an observation target area occupancy ratio that is a ratio of the observation target area of the determination target image to the determination target image. Then, the processing unit 100 may determine whether or not the determination target image can be deleted based on the calculated observation target coverage ratio and the observation target area occupation ratio.
  • the processing unit 100 determines that the observation target area occupancy is less than a given threshold. It may be determined that the determination target image can be deleted.
  • the size of the observation target region that cannot be observed by deleting the determination target image can be accurately calculated.
  • the situation where an image that is desirable to be deleted cannot be easily deleted is assumed because the ratio of the observation target area of the determination target image to the determination target image is small as illustrated in FIG.
  • the same effect can be expected by using an observation target area occupation rate that can be calculated as follows.
  • deformation information is not used to calculate the observation area occupancy, the advantage of deformation information when the observation area occupancy is used alone (the degree of occurrence of the observation area that cannot be observed can be controlled) Is lost). Therefore, in this method, it is preferable to use the observation target area occupancy as a supplement after performing the determination using the observation target coverage based on the deformation information.
  • an area excluding a shielding object area or an area excluding an area unsuitable for observation is an observation target area.
  • the shield region is a bubble region or a residue region
  • the region not suitable for observation is a dark region or a halation region.
  • any one of the first to third embodiments may be applied to the processing after the observation target region is detected. Since the processing in that case is as described above, detailed description thereof is omitted. Further, similarly to the second embodiment, it is possible to determine whether or not to delete the determination target image by obtaining an observation target loss region and then performing a contraction process using a structural element on the observation target loss region. . Details of processing using a structural element will be described later.
  • FIG. 22 shows a configuration example of the image processing apparatus according to this embodiment.
  • the processing unit 100 of the image processing apparatus includes an observation target region detection unit 1017, a deformation estimation target region selection unit 1002, a deformation information acquisition unit 1003, a reference image selection unit 1004, a determination target image selection unit 1005, and deletion availability.
  • a determination unit 1006. Although not shown, the detailed configuration of the deletion permission determination unit 1006 and the like may be considered by expanding the block related to the lesion area in FIG. 5 and the like to the observation target area.
  • the observation target area detection unit 1017 detects the observation target area. As shown in Patent Documents 4 to 7, various methods for detecting a shielding object region or an unsuitable region for observation in an image are known. In this case, this is contrary to the lesion area example described in the first to third embodiments, and the detected area is relatively low in importance. That is, the observation target region detection unit 1017 of the present embodiment detects a shielded region or a region unsuitable for observation, and then observes a region in which the shielded region or a region unsuitable for observation is excluded from the acquired image. What is necessary is just to detect as an object area
  • FIG. 19 A specific example is shown in FIG. As shown in FIG. 19, it is assumed that the bubble area is detected in the reference image, and the entire reference image and the bubble area are respectively deformed by the deformation information and projected onto the determination target image. In that case, in the reference image, the bubble area becomes the shielding object area, and the area other than the bubble area becomes the observation target area.
  • areas other than the area where the entire reference image is projected are areas that are not covered by the reference image in the first place.
  • the region where the bubble region is projected is covered by the reference image, but the reference image corresponding to the region is covered with the mucous membrane or the like by capturing bubbles. That is, the area where the bubble area is projected is not a useful area.
  • the useful area that is covered by the reference image in the determination target image, that is, the observation target covering area is an area A indicated by shading in FIG.
  • the observation target region detection process is performed in the determination target image. For example, when a bubble area is detected as illustrated in FIG. 20, a region B that is a region other than the bubble region in the determination target image is detected as an observation target region of the determination target image.
  • Processing after the information on the observation target covering area and the observation target area of the determination target image is acquired is the same as in the first to third embodiments.
  • the common part of the observation target covering region (A) and the observation target region (B) of the determination target image is set as the observation target. Processing may be performed as a common area.
  • a region that is not the observation target covering region (non-A region) is the observation target lost. You may process as an area
  • whether or not a determination target image can be deleted is determined from the viewpoint of whether or not there is a possibility that an attention area of a predetermined size may be missed by deleting an image. Also good. It is only necessary to determine whether or not the attention area of a predetermined size is completely contained in the area that cannot be observed by deleting the determination target image. The case where the attention area completely fits within the area that cannot be observed corresponds to the case where the attention area exists in the relevant part of the determination target image and the information on the attention area is lost when the determination target image is deleted. In addition, it can be said that there is a possibility of missing the attention area. On the other hand, if the region of interest does not completely fit within the region that cannot be observed, the protruding portion can be covered with the reference image, so that at least part of the region of interest can be observed if the reference image is left.
  • the deletion possibility determination unit 1006 may include a structural element generation unit 1018, an observation target loss region calculation unit 1019, and an attention region miss possibility determination unit 1020.
  • the deletion permission determination unit 1006 is not limited to the configuration in FIG. 23, and various modifications such as omitting some of these components or adding other components are possible.
  • the structural element generation unit 1018 generates a structural element used for processing in the attention area missing possibility determination section 1020 based on the attention area.
  • a region having the same shape and the same size as a region of interest that is not preferable to be overlooked is set, but the present invention is not limited to this.
  • the observation target loss region calculation unit 1019 calculates a region that cannot be observed due to the deletion of the determination target image. As shown in FIG. 21B, this is nothing but the process of calculating the observation target loss region.
  • the attention area missing possibility determination unit 1020 may be in a situation where the attention area captured on the determination target image is not captured in the reference image (that is, the attention area is missed). The determination process about sex is performed.
  • the structural element generation unit 1018 generates a structural element based on the attention area.
  • an area having a size and shape that is not preferable to be overlooked is set as a structural element.
  • the structural element is a circle with a diameter of 30 pixels. Will be set.
  • the observation target loss region calculation unit 1019 calculates the observation target loss region as described above with reference to FIG.
  • the attention area missing possibility determination unit 1020 determines the possibility of missing the attention area. Specifically, the shrinkage process using the structural element is performed on the observation target loss area, and it is determined whether or not there is a residual area as described later with reference to FIG.
  • the observation target loss region is always a closed region, and its boundary can be set.
  • BO1 that is the outer boundary and BO2 that is the inner boundary are set.
  • FIG. 21B there may be a case where the observation target loss region is composed of a plurality of regions that are not continuous. In such a case, a contraction process is performed on each region. Just do it. Therefore, in FIGS. 24A to 24E, an example in which one continuous region is an observation target loss region will be described.
  • the contraction process by the structural element is a process of cutting the overlapping area of the observation target lost area and the structural element when the reference point of the structural element is set on the boundary of the observation target lost area.
  • a circular region is set as a structural element and the reference point is the center of the circle
  • a circle having a center is drawn on the boundary of the observation target loss region, and the circle and the observation target loss region are Processing to exclude the overlapping portion from the observation target loss area is performed.
  • FIG. 24A a circle centered on a point on the outer boundary BO1 of the observation target loss region is drawn, and an overlapping region with the observation target loss region (in this case, indicated by hatching) A semi-circular region).
  • the outer boundary BO1 is composed of a plurality of points in consideration of discrete processing, the above-described processing may be performed for each point of the plurality of points.
  • a circle centering on the point on the boundary BO1 is sequentially drawn in a given direction, and an overlapping region with the observation target loss region is formed. What is necessary is just to exclude from an observation object loss area
  • the number of the boundary of the observation target lost region may be one.
  • the above processing is performed for the one boundary. Just do it.
  • the above-described processing is performed for each. Specifically, as shown in FIG. 24B, for the inner boundary BO2, a circle having a center on BO2 is drawn, and an overlapping area with the observation target loss area is excluded, and this process is performed. What is necessary is just to repeat about each point which comprises BO2.
  • the area of the observation object loss area is reduced. For example, when focusing on the left part of the observation target loss region in FIG. 24A, the contraction process with BO1 shown in FIG. 24A and the contraction process with BO2 shown in FIG. The observation target loss area is completely deleted, and there is no remaining area. On the other hand, when attention is paid to the lower right portion of the observation target loss region, as shown in FIG. 24C, the residual region RE that remains without being excluded in both the contraction processing in BO1 and the contraction processing in BO2 is obtained. Arise. Therefore, the result of performing the contraction process by the structural element on the entire observation target loss area here is as shown in FIG. 24D, and the residual area RE is generated.
  • the observation target loss area which is a closed area can be considered as an area inside a boundary (may be a different boundary such as BO1 and BO2 or a single boundary).
  • the points within the distance r (including the value) from the points on the boundary are to be deleted. That is, when a point included in the remaining area that has not been deleted is considered, the distance from the point to an arbitrary point on the boundary is greater than r.
  • the case where the residual region exists is a case where the region corresponding to the structural element is included in the observation target loss region as shown in the lower right of FIG. If there is a region of interest, if the determination target image is deleted, there is a possibility that the region of interest cannot be observed even if the reference image remains. Conversely, when there is no remaining area, as shown in the upper left of FIG. 24E, at least a part of the attention area is included in the area that is not lost, and the determination target image is deleted. However, at least a part of the attention area can be left in the reference image. Note that the region that is not lost here is a region that is covered and useful by the reference image by being included in the observation target covering region, or needs to be covered by the reference image because it is not the observation target region of the determination target image. Corresponds to no area.
  • the attention area missed possibility determination unit 1020 performs the contraction process with the structural element on the observation target lost area, and determines whether or not the determination target image can be deleted based on whether or not there is a residual area. Do.
  • the deletion possibility determination process using the structural element is not limited to the process using the contraction process, and may be a process for determining whether or not the structural element is included in the observation target loss region. For example, as shown in FIGS. 25A and 25B, the distance (k1 to k6) from the point (p1 to p6, etc.) on the boundary of the region other than the observation target lost region to the boundary of the determination target image Etc.), or based on the distance from the point on the boundary of the determination target image to the boundary of the region other than the observation target loss region, a value corresponding to the maximum diameter of the observation target loss region is obtained, and the calculated value and the structural element A simple method may be used in which a comparison process with the minimum diameter (in this case, the same size as the region of interest) is performed.
  • FIG. 25A shows an example in which the determination target image is a square
  • FIG. 25B shows an example in which the determination target image is a circle.
  • the processing unit 100 may miss the attention area in the determination target image using the observation target loss area that is not the observation target covering area among the observation target areas of the determination target image.
  • the presence / absence is determined, and whether or not the determination target image can be deleted is determined according to the possibility of missing the attention area.
  • the attention area is an area where the priority of observation for the user is relatively higher than other areas. For example, when the user is a doctor and desires treatment, an area in which a mucous membrane part or a lesion part is copied. Point to.
  • the attention area is an area in which the bubble or stool part is copied.
  • the bubble area and the residue area described above are not treated as unnecessary areas because the bubbles and the residues are useful subjects for observation.
  • the object that the user should pay attention to depends on the purpose of observation, but in any case, in the observation, an area in which the priority of observation for the user is relatively higher than other areas is the attention area.
  • the determination target image can be deleted from the viewpoint of whether or not there is a possibility of missing the attention area. If the target area is not missed unless the target image is deleted, but the target area is missed even if the reference image is left if the target image is deleted, the target target image is determined not to be deleted. Will do. There are various methods for determining the possibility of missing the attention area. For example, although the attention area is captured in a large area in the determination target image, the attention area may be captured only in a small area (or the image may not be captured at all). It is sufficient to determine that there is a possibility of oversight.
  • the processing unit 100 determines whether or not there is a possibility of missing the attention area in the determination target image by determining whether or not the observation target loss area includes an area having a size corresponding to the attention area. Also good.
  • the determination target image can be deleted.
  • a region having a size corresponding to the region of interest is included in the observation target loss region when the region of interest of a given size is imaged on the determination target image, but the region of interest is imaged at all on the reference image. Respond to situations that may not. In this case, since there is a possibility of missing the attention area, the determination target image cannot be deleted.
  • the observation target loss area does not include a region having a size corresponding to the attention region, at least a part of the attention region captured on the determination target image is captured on the reference image. Therefore, the determination target image can be deleted.
  • the processing unit 100 may perform a contraction process using a structural element corresponding to the attention area on the observation target loss area, and if there is a residual area as a result of the contraction process, the attention area may be missed. As a result, it is determined that the determination target image cannot be deleted, and it is determined that the determination target image can be deleted if there is no possibility of overlooking the attention area when there is no remaining area as a result of the contraction process. .
  • the structural element is an element representing a processing unit in the contraction process, and represents a circular element in FIG.
  • the contraction process is a process of scraping a region corresponding to a structural element from a target region as shown in FIGS. 24 (A) to 24 (E).
  • the processing unit 100 may detect a region excluding the shielding object region of the image as the observation target region.
  • the image sequence may be an in-vivo image sequence obtained by imaging the inside of the living body
  • the shielding object region may be a bubble region or a residue region of the image.
  • the shielding object area is an area where an object to be originally observed such as a mucous membrane is shielded by imaging bubbles and residues.
  • the area excluding the shielding object area is not necessarily an area to be actively observed like the lesion area or the villi area in the first to third embodiments, but at least the shielding object is not imaged. It is expected. That is, since the priority of observation is relatively high in the area excluding the shielding object area, an image summarization process that prevents the area from being unobservable is useful.
  • the processing unit 100 may detect a region excluding a region where the image signal of the image is not suitable for observation as an observation target region.
  • the area where the image signal is not suitable for observation may be a dark area or a halation area of the image.
  • An area that is not suitable for observation is an area where the pixel value becomes extremely large or small, such as dark areas or halation, where blackout or whiteout occurs, and the subject that is originally desired to be observed cannot be observed sufficiently.
  • the priority of other areas is relatively increased as in the case of the shielding object area, so that an area other than the area not suitable for observation may be set as the observation target area.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Endoscopes (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

 画像処理装置は、複数の構成画像を有する画像列を取得する画像列取得部200と、画像列の複数の構成画像の一部を削除して要約画像列を生成する画像要約処理を行う処理部100を含み、処理部100は、複数の構成画像の各構成画像から観察対象領域を検出し、複数の構成画像から基準画像と判定対象画像を選択し、基準画像の変形推定対象領域と、判定対象画像の変形推定対象領域との間の変形情報を算出し、基準画像の観察対象領域と、判定対象画像の観察対象領域と、変形情報に基づいて、判定対象画像の削除可否の判定を行う。

Description

画像処理装置、プログラム及び画像処理方法
 本発明は、画像処理装置、プログラム及び画像処理方法等に関する。
 所与の時間間隔により時系列的に静止画の撮像を継続した場合、空間的な広がりを持つ被写体を多数の画像により網羅した場合、或いは動画像を撮像した上で当該動画像を構成する各画像を静止画像としてとらえた場合等では、時間的或いは空間的に連続する非常に大量の画像(以下、画像列とも記載する)が取得されることになる。このような場合には、画像列中で近くにある(つまり時間的或いは空間的に近くにある)画像同士は似通った画像である可能性が高く、撮像した内容を把握するに当たって大量の画像のすべてをチェックする必要性は高くない。そもそも、画像の枚数は数万枚以上となることも珍しくなく、ユーザの手ですべてをチェックすること自体、負担が大きい。
 そのため、画像列から一部の画像を削除することで元の画像列より枚数の少ない画像列に要約する(以下、この処理を画像要約処理と記載する)需要がある。例えば特許文献1には、画像列の中のシーンが変化する境目の画像や、画像列を代表する画像を抽出することで、画像列の内容を把握しやすい画像を残す画像要約処理手法が開示されている。
 また、内視鏡装置により撮像した生体内画像等においては、当該生体内画像のうち病変領域の診断等での重要度は他の領域に比べて高いことが想定される。そのため、特許文献2に開示されたように、画像から病変領域を検出する手法が知られている。
特開2009-5020号公報 特開2010-113616号公報 特開2011-24763号公報 特開2007-313119号公報 特開2010-115413号公報 特開2012-16454号公報 特開2011-234931号公報
 生体内画像を対象とした場合、病変領域の重要度、注目度が高いのであるから、例えば特許文献2の手法により病変領域が検出された画像を要約画像列に残し、そうでない画像を削除する画像要約処理を行うことが考えられる。しかし症例によっては、取得された画像列の大部分の画像において病変領域が検出されることもあり、病変領域を検出したか否かだけで画像要約処理を行っても効率的でない(画像枚数の削減効果が低い)場合がある。
 そこで、病変領域が撮像された画像群について、特許文献1の手法により画像要約処理を行うことが考えられる。この際、例えば内視鏡観察のような医療分野において画像要約技術を適用する場合、疾患の見逃しを避ける観点から、画像を削除したことによって観察できなくなる病変領域の発生を抑える必要がある。
 また、観察できなくなることが好ましくない領域は病変領域に限定されるものではない。例えば、特許文献4には生体内画像のうち、泡領域を検出する手法が開示されており、特許文献5には残渣領域を検出する手法が開示されている。泡領域や残渣領域では、泡や残渣により粘膜が遮蔽されてしまうため、当該領域は観察に適しているとは言えない。つまり、生体内画像のうち泡領域や残渣領域でない領域は、当該泡領域、残渣領域に比べて観察の有用性が高い領域であり、画像を削除したことによって観察できなくなる可能性を抑止すべきである。
 また、特許文献6には画像中で極端に暗く撮像されてしまった暗部領域を検出する手法が開示されており、特許文献7には画像中で極端に明るく撮像されてしまったハレーション領域を検出する手法が開示されている。暗部領域やハレーション領域では、画素値が極端な値となるため、被写体の視認性が悪く、当該領域は観察に適しているとは言えない。つまり、画像のうち暗部領域やハレーション領域でない領域は、当該暗部領域、ハレーション領域に比べて観察の有用性が高い領域であり、画像を削除したことによって観察できなくなる可能性を抑止すべきである。
 以上のことより、病変領域や、粘膜が遮蔽されない領域、視認性が悪くない領域といった、画像中の他の領域に比べて観察する有用性が高い領域を観察対象領域として定義した場合に、画像を削除したことによって観察できなくなる観察対象領域の発生を抑える画像要約処理を行う必要があると言うことができる。
 しかし、シーンが変化する境目の画像だけを残す、或いは要約後の画像列が直感的に見やすいかどうかといった観点で画像要約を行うと、画像が削除される事によって観察できなくなる観察対象領域が発生し、その程度は画像の内容に依存する。つまり、画像の削除により観察できなくなる観察対象領域の発生度合いを制御することができないという問題が残る。
 本発明の幾つかの態様によれば、画像間の変形情報、及び各画像の観察対象領域に基づいて、画像の削除により観察できなくなる観察対象領域の発生を抑止する画像要約処理を実行する画像処理装置、プログラム及び画像処理方法等を提供することができる。
 本発明の一態様は、複数の構成画像を有する画像列を取得する画像列取得部と、前記画像列取得部が取得した前記画像列の前記複数の構成画像の一部を削除して要約画像列を生成する画像要約処理を行う処理部と、を含み、前記処理部は、前記複数の構成画像の各構成画像から観察対象領域を検出する処理を行い、前記複数の構成画像から基準画像と判定対象画像を選択し、前記基準画像の変形推定対象領域と、前記判定対象画像の前記変形推定対象領域との間の変形情報を算出し、前記基準画像の前記観察対象領域と、前記判定対象画像の前記観察対象領域と、前記変形情報に基づいて、前記判定対象画像の削除可否の判定を行う画像処理装置に関係する。
 本発明の一態様では、各画像から観察対象領域を検出した上で、基準画像の観察対象領域と、判定対象画像の観察対象領域と、基準画像と判定対象画像の間の変形情報とに基づいて、判定対象画像の削除可否判定を行う。よって、観察できなくなる観察対象領域の度合いに即した削除可否判定を行うことができ、観察対象領域を考慮せずに変形情報を用いた画像要約処理を行う場合に比べて適切な画像要約処理を行うこと等が可能になる。
 本発明の一態様では、前記処理部は、前記基準画像の前記観察対象領域に対して、前記変形情報を用いた変形処理を行うことで、前記判定対象画像のうち前記基準画像の前記観察対象領域により覆われる領域である観察対象被覆領域を求め、求めた前記観察対象被覆領域と、前記判定対象画像の前記観察対象領域に基づいて、前記判定対象画像の削除可否の判定を行ってもよい。
 これにより、判定対象画像のうち、基準画像の観察対象領域により被覆される領域に相当する観察対象被覆領域に基づいて、判定対象画像の削除可否判定を行うこと等が可能になる。
 本発明の一態様では、前記処理部は、前記観察対象被覆領域と、前記判定対象画像の前記観察対象領域との共通領域である観察対象共通領域を求め、求めた前記観察対象共通領域が前記判定対象画像の前記観察対象領域に占める割合である観察対象被覆率を算出し、算出した前記観察対象被覆率に基づいて前記判定対象画像の削除可否の判定を行ってもよい。
 これにより、観察対象被覆率に基づいて、判定対象画像の削除可否判定を行うことが可能になる。
 本発明の一態様では、前記処理部は、前記観察対象被覆率が所定の閾値以上である場合は、前記判定対象画像を削除可能と判定し、前記観察対象被覆率が前記所定の閾値未満である場合は、前記判定対象画像を削除不可と判定してもよい。
 これにより、観察対象被覆率を用いた閾値判定処理により、削除可否判定を行うことが可能になる。
 本発明の一態様では、前記処理部は、前記判定対象画像の前記観察対象領域のうち、前記観察対象被覆領域ではない領域である観察対象喪失領域が、前記判定対象画像に占める割合である観察対象喪失領域占有率を算出し、算出した前記観察対象喪失領域占有率に基づいて前記判定対象画像の削除可否の判定を行ってもよい。
 これにより、観察対象喪失領域占有率に基づいて、判定対象画像の削除可否判定を行うことが可能になる。
 本発明の一態様では、前記処理部は、前記観察対象喪失領域占有率が所定の閾値未満である場合は、前記判定対象画像を削除可能と判定し、前記観察対象喪失領域占有率が前記所定の閾値以上である場合は、前記判定対象画像を削除不可と判定してもよい。
 これにより、観察対象喪失領域占有率を用いた閾値判定処理により、削除可否判定を行うことが可能になる。
 本発明の一態様では、前記処理部は、前記判定対象画像の前記観察対象領域のうち、前期観察対象被覆領域ではない領域である観察対象喪失領域を用いて、前記判定対象画像において注目領域を見逃す可能性の有無を判定し、前記注目領域を見逃している可能性の有無に応じて、前記判定対象画像の削除可否の判定を行ってもよい。
 これにより、注目領域の見逃し可能性という観点から、判定対象画像の削除可否を判定すること等が可能になる。
 本発明の一態様では、前記処理部は、前記観察対象喪失領域に、前記注目領域に対応するサイズの領域が含まれるか否かの判定を行うことで、前記判定対象画像において前記注目領域を見逃す可能性の有無を判定してもよい。
 これにより、観察対象喪失領域に注目領域に対応するサイズの領域が含まれるか否かにより、注目領域の見逃し可能性を判定すること等が可能になる。
 本発明の一態様では、前記処理部は、前記観察対象喪失領域に対して、前記注目領域に対応する構造要素を用いた収縮処理を行い、前記収縮処理の結果、残留領域がある場合に、前記注目領域を見逃す可能性があるとして、前記判定対象画像は削除不可であると判定し、前記収縮処理の結果、前記残留領域が無い場合に、前記注目領域を見逃す可能性がないとして、前記判定対象画像は削除可能であると判定してもよい。
 これにより、構造要素を用いた収縮処理により、注目領域の見逃し可能性を判定すること等が可能になる。
 本発明の一態様では、前記処理部は、前記観察対象被覆領域と、前記判定対象画像の前記観察対象領域との共通領域である観察対象共通領域を求め、求めた前記観察対象共通領域が前記判定対象画像の前記観察対象領域に占める割合である観察対象被覆率を算出し、前記判定対象画像の前記観察対象領域から前記観察対象共通領域を除いた領域である観察対象喪失領域が、前記判定対象画像に占める割合である観察対象喪失領域占有率を算出し、算出した前記観察対象被覆率と、前記観察対象喪失領域占有率とに基づいて前記判定対象画像の削除可否の判定を行ってもよい。
 これにより、観察対象被覆率と観察対象喪失領域占有率の両方を組み合わせて用いることができるため、削除可否判定の判定精度向上等が可能になる。
 本発明の一態様では、前記処理部は、前記観察対象被覆率に基づく判定、及び前記観察対象喪失領域占有率に基づく判定の少なくとも一方の判定において、削除可能とされた前記判定対象画像を削除可能と判定してもよい。
 これにより、判定対象画像が削除可能と判定される可能性を向上させる組み合わせができるため、画像枚数の削減効果の向上等が可能になる。
 本発明の一態様では、前記処理部は、前記画像の遮蔽物領域を除いた領域を前記観察対象領域として検出してもよい。
 これにより、遮蔽物領域を除いた領域を観察対象領域として検出することが可能になる。
 本発明の一態様では、前記画像列は生体内を撮像した生体内画像列であり、前記遮蔽物領域は、前記画像の泡領域又は残渣領域であってもよい。
 これにより、泡領域又は残渣領域を遮蔽物領域とすることが可能になる。
 本発明の一態様では、前記処理部は、前記画像の画像信号が観察に適さない領域を除いた領域を前記観察対象領域として検出してもよい。
 これにより、画像信号が観察に適さない領域を除いた領域を観察対象領域として検出することが可能になる。
 本発明の一態様では、前記画像信号が観察に適さない領域は、前記画像の暗部領域又はハレーション領域であってもよい。
 これにより、暗部領域又はハレーション領域を画像信号が観察に適さない領域とすることが可能になる。
 本発明の一態様では、前記画像列は生体内を撮像した生体内画像列であり、前記処理部は、前記画像の病変領域又は絨毛領域を前記観察対象領域として検出してもよい。
 これにより、病変領域又は絨毛領域を観察対象領域として検出することが可能になる。
 本発明の他の態様は、上記の各部としてコンピュータを機能させるプログラムに関係する。
 本発明の他の態様は、複数の構成画像を有する画像列を取得し、前記複数の構成画像の各構成画像から観察対象領域を検出する処理を行い、前記複数の構成画像から基準画像と判定対象画像を選択し、前記基準画像の変形推定対象領域と、前記判定対象画像の前記変形推定対象領域との間の変形情報を算出し、前記基準画像の前記観察対象領域と、前記判定対象画像の前記観察対象領域と、前記変形情報に基づいて、前記判定対象画像の削除可否の判定を行い、前記削除可否の判定結果に基づいて、前記画像列の前記複数の画像の一部を削除して要約画像列を取得する画像要約処理を行う画像処理方法に関係する。
図1(A)~図1(C)は、画像要約処理に病変領域を用いる理由を説明する図。 図2は、画像要約処理に病変領域を用いる理由を説明する他の図。 図3は、本実施形態の処理を説明する図。 図4は、画像処理装置の構成例。 図5は、第1の実施形態の削除可否判定部の構成例。 図6は、本実施形態の処理を説明するフローチャート。 図7は、第1の実施形態の削除可否判定処理を説明するフローチャート。 図8(A)~図8(C)は、基準画像と判定対象画像の選択手法を説明する図。 図9は、複数の基準画像に基づいて病変被覆領域を求める処理を説明する図。 図10(A)、図10(B)は、第1の基準画像と第2の基準画像を用いた削除可否判定処理を説明する図。 図11(A)~図11(D)は、第2の実施形態の処理を説明する図。 図12は、第2の実施形態の削除可否判定部の構成例。 図13は、第2の実施形態の削除可否判定部の他の構成例。 図14は、第2の実施形態の削除可否判定処理を説明するフローチャート。 図15は、第3の実施形態の削除可否判定部の構成例。 図16は、第3の実施形態の画像要約処理を説明するフローチャート。 図17は、画像処理装置の基本的な構成例。 図18は、被覆領域に基づいて被覆率を求める手法を説明する図。 図19は、泡領域等に基づいて基準画像の観察対象領域及び観察対象被覆領域を求める処理の説明図。 図20は、泡領域等に基づいて判定対象画像の観察対象領域を求める処理の説明図。 図21(A)は観察対象共通領域の例、図21(B)は観察対象喪失領域の例。 図22は、画像処理装置の他の構成例。 図23は、第4の実施形態の削除可否判定部の構成例。 図24(A)~図24(E)は、観察対象喪失領域に対する構造要素による収縮処理を説明する図。 図25(A)、図25(B)は、構造要素を用いた他の処理を説明する図。
 以下、本実施形態について説明する。なお、以下に説明する本実施形態は、請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
 1.本実施形態の手法
 まず本実施形態の手法について説明する。時間的或いは空間的に連続する大量の画像から構成される画像列が取得された場合、当該画像列を用いてユーザが何らかの処理(例えば内視鏡画像列であれば診断等の医療行為)を行う際に、画像要約処理を行うことが望ましい。なぜなら、画像列に含まれる画像の枚数は非常に多く、ユーザがその全てを見た上で判断を行うことは多大な労力を要するためである。また、画像列に含まれる画像の中には、互いに似通った画像が存在する可能性が高く、そのような似通った画像を全てチェックしたとしても取得できる情報量は限られ、労力に見合わない。
 具体例としては、カプセル内視鏡を用いて撮像される画像列が考えられる。カプセル内視鏡とは、小型カメラを内蔵したカプセル形状の内視鏡であり、所与の時間間隔(例えば1秒に2回等)で画像を撮像する。カプセル内視鏡は、内服から排出までに数時間(場合によっては十数時間)を要するため、1ユーザの1回の検査において数万枚の撮像画像が取得されることになる。また、カプセル内視鏡は生体内での移動の際に、当該生体の動きの影響を受けること等により、同じ場所にとどまったり、逆方向へ戻ったりする。そのため、大量の画像の中には他の画像と同じような被写体を撮像していて、診断等において有用性の高くない画像も多数存在してしまう。
 これに対して、画像中から病変領域を検出し、病変領域が検出された画像は要約処理後の要約画像列に残し、病変領域が検出されなかった画像は削除するという画像要約処理を行うことが考えられる。しかし症例によっては、取得された画像列の大部分の画像で病変領域が検出される場合がある。このような場合には、病変領域が検出されたか否かで画像要約処理を行ったとしても、大部分の画像が削除不可とされるため、画像枚数の削減効果が低くユーザ(ドクター)の負担軽減につながらない。
 よって、病変領域が検出された画像群に対して、従来の画像要約処理(例えば特許文献1で開示されている、シーンが変化する境目の画像や、画像列を代表する画像を抽出する処理)を行って画像枚数の削減効果を高めることが考えられる。しかしこのような手法では、画像を削除する際に、その削除対象となる画像に撮像されていた被写体と、残す画像に撮像されている被写体との関係は特に考慮していない。そのため、要約前の画像列に含まれる画像上に撮像されていた病変領域が、要約後の画像列に含まれるどの画像上にも撮像されていないということが起こりえる。また、画像要約処理により画像列のどの画像にも含まれなくなる病変領域がどの程度生じるかという度合いは、処理対象となる画像列に依存するため、従来手法においては当該度合いの制御が困難であった。
 このことは、医療分野ではその目的上、注目すべき領域(ここでは病変領域)の見落としは極力抑止しなくてはならないということに鑑みれば好ましくない。よって、画像要約処理において、所与の画像を削除することで観察できなくなる病変領域が生じることは、極力抑止すべきである。
 そこで本出願人は、基準画像(残す画像、実施形態によっては残す候補となる画像)と判定対象画像(削除するか否かの判定の対象画像)とを選択し、基準画像と判定対象画像の間の変形情報に基づいた画像要約処理を行う手法を提案する。
 基準画像と判定対象画像の間の変形情報を用いる画像要約処理の一例としては、図18に示したように、基準画像を変形することで判定対象画像上に被覆領域を算出するものが考えられる。基準画像で撮像された被写体と、判定対象画像の被覆領域上に撮像された被写体とは対応することになる。つまり、判定対象画像における被覆領域外の範囲(以下、非被覆領域と表記する)は、当該判定対象画像を削除した場合、基準画像を残したとしてもカバーすることができない領域となる。
 よって、一例としては判定対象画像に占める被覆領域の割合等を被覆率として算出し、算出した被覆率に基づいて判定対象画像を削除するか否かを判定することで、観察できなくなる被写体範囲の発生度合いを制御する。例えば被覆率が閾値以上である際に判定対象画像を削除し、被覆率が閾値未満の際に判定対象画像を削除しないものとすれば、閾値の設定に応じてカバーできない領域の発生度合いを制御できる。
 しかし、本実施形態においては病変領域(広義には後述する観察領域)の検出処理を行うことが前提となっており、病変領域が画像中で注目すべき領域であることは上述したとおりである。注目すべき病変領域が検出されているのであれば、図18に示したように画像全体を対象として処理を行って、病変領域とそうでない領域とを等価に扱うことは不合理である。
 図1(A)~図1(C)を用いて一例を示す。なお、図1(A)~図1(C)は説明のために極端な形状を設定している。基準画像を変形情報を用いて変形して判定対象画像上に射影した結果、図1(A)に示したような被覆領域が得られたとする。この場合、被覆率はある程度高い値となるため、削除可否判定に用いる閾値等の設定にもよるが、判定対象画像は削除可能と判定されると考えられる。これは言い換えれば、判定対象画像を削除した場合、基準画像を残したとしてもカバーすることのできない領域(図1(A)の非被覆領域)が、許容可能な程度に小さいということである。
 しかし、基準画像上の病変領域が図1(B)のA1に示した領域である場合、変形情報による変形処理後の基準画像の病変領域(以下、病変被覆領域とも表記する)は判定対象画像上ではA2に示した領域となる。ここで、判定対象画像の病変領域が図1(C)のA3に示した領域である場合、判定対象画像の病変領域A3の大部分が非被覆領域に含まれることになり、その部分は判定対象画像を削除すると観察できない病変領域となる。
 つまり、図1(A)~図1(C)の場合、本来の病変部全体は図1(C)のA3に示した病変領域に対応するだけの大きさがあるにもかかわらず、基準画像においてはその左上の一部分を拡大して観察できるに過ぎない。しかしながら、画像全体を対象として被覆率を算出したのでは、図1(A)に示したように判定対象画像は削除可能と判定されてしまう。つまり、病変領域を考慮しない被覆率判定では、本来削除不可とすべき所を、削除可能と判定してしまうことで、観察できない病変領域が多く発生してしまう可能性がある。
 逆に、図2に示したように、基準画像を変形することでB1の被覆領域が得られ、基準画像の病変領域がB2、判定対象画像の病変領域がB3である場合には、判定対象画像に占める被覆領域の割合は低いため、被覆率を用いた判定では判定対象画像は削除不可とされる。しかし、判定対象画像の病変領域B3はその大部分がB2を変形した病変被覆領域に含まれており、判定対象画像を削除したとしても観察できなくなる病変領域の発生度合いは低いものとなる。この場合、本来削除可能とすべき所を、病変領域を考慮しない被覆率判定では削除不可と判定してしまうことで、画像要約処理後の画像列に含まれる画像枚数が多くなり(画像枚数の削減効果が低くなり)、ユーザの負担が増大する可能性がある。
 以上のことから、本出願人は画像全体を変形情報による変形処理の対象とするのではなく、病変領域を基準とした削除可否判定を行って画像要約処理を行う手法を提案する。具体的には、図3に示したように基準画像の病変領域に対して変形情報による変形処理を行って、判定対象画像に射影することで、基準画像の病変領域の変形結果(病変被覆領域)を求める。そして、判定対象画像の病変領域と、求めた病変被覆領域とに基づいて、判定対象画像の削除可否判定を行う。このようにすれば、図1(A)~図2で説明したような問題が生じることを抑止し、判定対象画像を削除することで観察できなくなる病変領域の発生度合いを適切に制御することが可能になる。
 また、以上の説明では判定対象画像を削除することで観察できなくなることが好ましくない領域として、病変領域を例としたがこれに限定されるものではない。例えば、特許文献4、5にそれぞれ検出手法が開示されている泡領域や残渣領域では、泡や残渣が存在することにより、生体の粘膜が遮蔽されてしまう。もちろん泡や残渣を観察対象とする場合もあり得るが、一般的には観察の優先度は粘膜の方が高く、泡領域や残渣領域は観察の優先度が低い。つまり、判定対象画像において、当該判定対象画像の削除により泡領域や残渣領域が観察できなくなることは大きな問題とならないのに対して、泡領域や残渣領域以外の領域が観察できなくなることは大きな問題となる。
 同様に、特許文献6、7にそれぞれ検出手法が開示されている暗部領域やハレーション領域では、明るさが極端に暗い又は明るいことにより被写体の視認性が低く、観察の優先度は適正露光の領域に比べて低い。つまり、判定対象画像において、当該判定対象画像の削除により暗部領域やハレーション領域が観察できなくなることは大きな問題とならないのに対して、暗部領域やハレーション領域以外の領域が観察できなくなることは大きな問題となる。
 つまり、処理の対象は病変領域に限定する必要はなく、画像中に観察の優先度が高い第1の領域と、当該第1の領域に比べて優先度が低い第2の領域がある場合には、画像全体を変形情報による変形処理の対象とするのではなく、第1の領域を基準とした削除可否判定を行って画像要約処理を行えばよい。本実施形態では、病変領域、粘膜が遮蔽されない領域(泡領域や残渣領域でない領域)、視認性が相対的に高い領域(暗部領域やハレーション領域でない領域)を観察対象領域とし、当該観察対象領域を基準とした削除可否判定を行って画像要約処理を行う。
 ここでの画像処理装置の1つの実施形態としては、図17に示したように処理部100と、画像列取得部200を含むものが考えられる。画像列取得部200は、複数の構成画像を有する画像列を取得する。処理部100は、画像列取得部200が取得した画像列の複数の構成画像の一部を削除して要約画像列を生成する画像要約処理を行う。そして処理部100は、複数の構成画像の各構成画像から観察対象領域を検出する処理を行い、複数の構成画像から基準画像と判定対象画像を選択し、基準画像の変形推定対象領域と、判定対象画像の変形推定対象領域との間の変形情報を算出し、基準画像の観察対象領域と、判定対象画像の観察対象領域と、変形情報に基づいて、判定対象画像の削除可否の判定を行う。
 以下、第1~第3の実施形態では、病変領域を観察対象領域とした例について説明する。第1の実施形態では変形情報、基準画像の病変領域、判定対象画像の病変領域に基づいて、病変被覆率を指標値として求めて判定対象画像の削除可否判定を行う手法について説明する。また、第2の実施形態では病変喪失領域占有率を指標値として用いる手法について説明する。各指標値の詳細については後述する。さらに、第1の実施形態と第2の実施形態の組み合わせ、及びその変形例を第3の実施形態で説明する。また、第4の実施形態では観察できない領域を除外した領域を観察対象領域とした例について説明する。具体的には、観察できない領域とは泡領域、残渣領域、暗部領域、ハレーション領域等であり、観察対象領域とは画像のうち、それら以外の領域である。
 2.第1の実施形態
 病変領域を観察対象領域とし、病変被覆率(広義には観察対象被覆率)に基づいて判定対象画像の削除可否判定処理を行う手法について説明する。具体的には、画像処理装置のシステム構成例を説明し、フローチャートを用いて処理の流れを説明する。
 2.1 システム構成例
 図4に本実施形態における画像処理装置のシステム構成例を示す。画像処理装置は、処理部100と、画像列取得部200と、記憶部300を含む。
 処理部100は、画像列取得部200が取得した画像列に対して、当該画像列に含まれる複数の画像の一部を削除することで、画像要約処理を行う。この処理部100の機能は、各種プロセッサ(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムなどにより実現できる。
 画像列取得部200は、画像要約処理の対象となる画像列を取得する。取得する画像列は、時系列順に並んだRGB3チャンネル画像が考えられる。或いは、横一列に並べられた撮像機器により撮影された、空間的に並んだ画像列のように空間的に連続する画像列であってもよい。なお、画像列を構成する画像はRGB3チャンネル画像に限定されるものではなく、Gray1チャンネル画像等、他の色空間を用いてもよい。
 記憶部300は、画像列取得部200が取得した画像列を記憶する他、処理部100等のワーク領域となるもので、その機能はRAM等のメモリーやHDD(ハードディスクドライブ)などにより実現できる。
 また、処理部100は、図4に示したように病変領域検出部1001と、変形推定対象領域選択部1002と、変形情報取得部1003と、基準画像選択部1004と、判定対象画像選択部1005と、削除可否判定部1006と、を含んでもよい。なお処理部100は、図4の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。また上述の各部は、処理部100で実行される画像要約処理を複数のサブルーチンに分割した際に、各サブルーチンを説明するために設定したものであり、必ずしも処理部100が上述の各部を構成要件として有するわけではない。
 病変領域検出部1001は、画像列の各画像から病変領域を検出する。病変領域として対象とする疾患の種類、及び病変領域の検出手法については種々考えられる。例えば、特許文献2に開示されている手法を用いてもよいし、他の手法を用いてもよい。病変領域が検出されなかった画像は、病変観察等の処理において有用ではないため、画像要約処理後の画像列に残す必要はない。よって、画像列取得部200が取得した画像列に対してまず病変領域検出処理を行い、これ以降の処理については病変領域が検出された画像を対象とすればよい。
 変形推定対象領域選択部1002は、変形推定処理(具体的には変形情報を取得する処理)の対象となる領域を設定する。本実施形態においては、変形情報による変形処理の対象となるのは病変領域である。つまり、病変領域を変形するのに十分な変形情報(例えば、病変領域に含まれる各画素について、当該画素を判定対象画像上に射影する情報)があれば処理を行うことができる。しかし、変形情報を求める際に病変領域だけを用いるものとすると、病変領域の面積が小さい場合等には求めた変形情報の精度が問題となることも考えられる。よって本実施形態では変形推定処理に用いる領域を変形推定対象領域として選択してもよい。変形推定対象領域は、画像の全領域を選択してもよいし、病変領域の情報等を用いて動的に変形推定対象領域を選択してもよい。また、画像処理装置において選択処理を行わない構成としてもよく、例えば装置の出荷時等に設定された値をそのまま使う構成であってもよい。
 変形情報取得部1003は、変形推定対象領域の情報を用いて、2つの画像間の変形情報を取得する。ここで変形情報とは、一方の画像において撮像された範囲が、他方の画像においてどのような形状(範囲)として撮像されているかを表すものであり、例えば特許文献3に開示されている変形パラメータ等であってもよい。判定対象画像の削除可否判定においては、変形情報取得部1003は、基準画像選択部1004で選択された基準画像と、判定対象画像選択部1005で選択された判定対象画像の間の変形情報を取得し、取得した変形情報に基づいて削除可否判定処理が行われる。
 ただし、変形情報取得部1003は、基準画像と判定対象画像の間の変形情報を直接求めるものに限定されない。例えば、処理対象となる画像列において、隣り合う画像間の変形情報を求めておき、隣り合わない画像間での変形情報は、隣り合う画像間の変形情報を組み合わせて算出するものであってもよい。この場合、基準画像と判定対象画像の間の変形情報は、基準画像、判定対象画像、及びその間の画像での隣り合う画像間の変形情報を(狭義には全て)組み合わせることで求めることになる。
 このようにすることで、変形情報の算出処理の負荷を軽くすることが可能になる。なぜなら、変形情報は特許文献3等で示した手法により算出できるが、一般的に変形情報を一から算出する処理に比べて、複数の変形情報を複合する処理は非常に軽いものとなるためである。例えば、変形情報が行列等であれば、2つの画像情報から当該行列を求める処理は負荷が大きいが、すでに求めてある複数の行列を合成することは(例えば行列の積を取るだけでよいため)非常に容易となる。
 例えば、画像列取得部200により取得された画像列がN枚の画像を含んでいた場合、その中から2枚の画像を選択する組み合わせはN×(N-1)/2通り考えられるため、基準画像と判定対象画像の間の変形情報を直接求めるとすると、負荷の重い処理(変形情報を一から算出する処理)をNのオーダーの回数だけ行う可能性がある。それに対して、隣り合う画像間の変形情報を用いるようにすれば、負荷の重い処理はN-1回ですむ。
 基準画像選択部1004は、部分画像列の複数の画像から基準画像を選択する。判定対象画像選択部1005は、部分画像列の複数の画像のうち、基準画像とは異なる画像を判定対象画像として選択する。
 削除可否判定部1006は、基準画像と判定対象画像の間の変形情報に基づいて、判定対象画像の削除可否判定処理を行う。本実施形態では、基準画像の病変領域により判定対象画像の病変領域が被覆される程度を表す病変被覆率に基づいて、判定対象画像の削除可否判定処理を行う。
 削除可否判定部1006は、図5に示したように病変被覆領域算出部1009と、病変共通領域算出部1010と、病変被覆率算出部1011と、閾値判定部1012と、を含んでもよい。ただし、削除可否判定部1006は、図5の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
 病変被覆領域算出部1009は、2つの画像間の変形情報(変形パラメータ)を利用して、基準画像の病変領域を判定対象画像へ変形・射影して病変被覆領域を求める。病変共通領域算出部1010は、求めた病変被覆領域と、判定対象画像の病変領域との共通領域である病変共通領域を求める。
 病変被覆率算出部1011は、病変被覆領域に基づいて病変被覆率を算出する。病変被覆率は、判定対象画像の病変領域に占める病変共通領域の割合(言い換えれば判定対象画像の病変領域のうち、基準画像の病変領域によりカバーされる領域)であり、具体的には判定対象画像の病変領域の面積に対する、病変共通領域の面積の割合として求められる。
 閾値判定部1012は、算出された病変被覆率と所与の閾値との比較処理を行う。病変被覆率が閾値以上の場合には、判定対象画像の病変領域は、基準画像の病変領域により十分カバーされているということであるため、判定対象画像は削除可能と判定される。逆に、病変被覆率が閾値未満の場合には、判定対象画像を削除すると観察できなくなる病変領域の発生度合いが大きいということであるため、判定対象画像は削除不可と判定される。
 図3に削除可否判定部1006での処理を示す。病変被覆領域算出部1009では、基準画像の病変領域(C1)を変形、射影することで病変被覆領域(C2)を求める。病変共通領域算出部1010は、判定対象画像の病変領域(C3)と病変被覆領域(C2)の共通部分を病変共通領域(C4)として求める。病変被覆率算出部1011は、(C4の面積)/(C3の面積)を病変被覆率として求め、閾値判定部1012は、求めた病変被覆率と所与の閾値との比較処理を行う。
 2.2 処理の流れ
 次に、図6のフローチャートを用いて本実施形態の画像要約処理の流れを説明する。この処理が開始されると、まず画像列取得部200で取得した画像列の各画像から病変領域を検出する(S101)。以降の処理は、S101で病変領域が検出された画像を対象として行われる。
 次に、変形推定処理に用いられる変形推定対象領域を選択する処理を行い(S102)、選択された変形推定対象領域を用いて変形推定処理が行われる(S103)。具体的には、上述したように変形推定対象領域に基づいて、隣接する2つの画像間での変形情報を求める処理に相当する。
 その後、画像列から基準画像を選択する(S104)。S104の処理が初めて行われる場合には、画像列の先頭の画像を基準画像として選択すればよい。また、2回目以降のS104の処理(S106からS104に戻った場合)では、S106での削除可否判定処理で削除不可と判定された判定対象画像を新たな基準画像として選択する。ここで選択された基準画像は、要約画像列に残されるものとなる。なお、エラー等により部分画像列から基準画像を選択できない場合には、画像要約処理を終了する。
 基準画像が選択された場合には、画像列に含まれる画像から判定対象画像を選択する(S105)。ここでは画像列において基準画像の後方の画像から判定対象画像を選択するものとする。具体的には、S104での基準画像の選択或いは更新処理後、初めてS105の処理が行われる場合には、基準画像の次の画像を判定対象画像として選択する。また、すでに基準画像を起点としてk番目の画像が判定対象画像として選択されていた場合には、選択位置を1つずらして基準画像を起点としてk+1番目の画像を新たな判定対象画像として選択する。S105で選択する画像がない場合とは、画像列の最後の画像まで削除可否判定処理が行われたということであるため、画像要約処理を終了する。
 基準画像と判定対象画像が選択されたら、S103で求めた(或いはS103で求めた変形情報を組み合わせることで取得された)基準画像と判定対象画像の間の変形情報、及び基準画像と判定対象画像でそれぞれ検出された病変領域に基づいて、判定対象画像の削除可否判定処理を行う(S106)。
 S106の削除可否判定処理の流れを図7のフローチャートを用いて説明する。この処理が開始されると、まず、基準画像の病変領域を変形情報(変形パラメータ)を用いて変形することで病変被覆領域を求める(S201)。そして、判定対象画像の病変領域と、求めた病変被覆領域との共通領域を病変共通領域として求め(S202)、判定対象画像の病変領域に占める病変共通領域の割合を病変被覆率として算出する(S203)。算出した病変被覆率と所与の閾値との比較処理を行って(S204)、判定対象画像の削除可否を判定する。
 S106で削除可能と判定された場合には、S105に戻り判定対象画像の更新処理を行う。また、S106で削除不可と判定された場合には、その際の基準画像では判定対象画像の病変領域を十分にカバーできないということであるから、その際の判定対象画像は要約画像列に残す必要があるということになる。よって、S104に戻り、S106で削除不可と判定された判定対象画像を新たな基準画像として選択する。
 以上の画像列に対する画像要約処理を図示したものが図8(A)~図8(C)である。図8(A)に示したように、N枚の画像を有する画像列に対して、まず1番目の画像が基準画像として選択され、2番目の画像が判定対象画像として選択される。そして、基準画像と判定対象画像の間で病変被覆率が算出され、判定対象画像の削除可否が判定される。
 判定対象画像が削除可能と判定された場合には、新たに判定対象画像を選択する。具体的には判定対象画像の位置を後ろにずらす処理となり、図8(B)に示したように3番目の画像が判定対象画像として選択される。そして、基準画像と新たな判定対象画像の間で判定対象画像の削除可否が判定され、削除不可と判定される判定対象画像が見つかるまで、判定対象画像として選択される画像を更新していく。
 図8(C)に示したように、2番目~k-1番目までの画像が削除可能と判定され、k番目の画像が削除不可と判定された場合、2番目~k-1番目までの画像は当該画像を削除したとしても失われる病変領域はある程度(閾値に対応する程度)に抑えられているということであるから、削除処理を行い要約画像列には含めない。それに対して、k番目の画像は、当該画像を削除すると基準画像を残したとしても多くの病変領域が失われるため、要約画像列に残す必要がある。そのために、ここではk番目の画像を新たな基準画像として設定する。
 そして、新たな基準画像が選択されたら、その1つ後方の画像を判定対象画像として選択し、再度図8(A)~図8(C)の処理を繰り返せばよい。その後も同様であり、判定対象画像が削除可能であれば、判定対象画像を1つ後方の画像に更新し、判定対象画像が削除不可であれば、その画像を新たな基準画像として選択する。そして、画像列の全ての画像について削除可否を判定したら処理を終了する。
 2.3 変形例
 なお、基準画像と判定対象画像の選択手法には種々の変形例が考えられる。例えば、基準画像を複数選択してもよい。その場合、基準画像として選択される画像の枚数に相当する数の病変領域が存在するが、そのいずれかによりカバーされている判定対象画像の病変領域は、当該判定対象画像を削除したとしても失われることはない。よって、図9に示したように各基準画像の病変領域を変形して求められた領域の和集合に相当する領域を病変被覆領域として処理を行えばよい。病変被覆領域算出後の、病変共通領域の算出、病変被覆率の算出、閾値判定の各処理は上述した例と同様である。
 基準画像を複数選択する手法としては、図10(A)、図10(B)に示したように、判定対象画像の前方から1枚、後方から1枚の計2枚の基準画像を選択する手法が考えられる。この場合、2枚の基準画像の間の画像を順次判定対象画像として選択する。そして、2枚の基準画像の間の画像が全て削除可能であれば、当該2枚の基準画像を要約画像列に残し、間の画像を削除することで、画像を削除したとしても失われる病変領域の度合いが一定以下であることを保証する削除可否判定処理を行えることになる。
 ただし、要約画像の枚数を少なくするという観点で削除可否判定処理を行うのであれば、第1の基準画像(前方)と第2の基準画像(後方)により間の画像を全て削除できるという条件を満たし、且つその中で第1の基準画像と第2の基準画像が最も離れている位置を探索するとよい。その場合、第1の基準画像が確定している場合には、図10(A)、図10(B)に示したように、k番目の画像を第2の基準画像とした場合には間の画像を全て削除できるが、k+1番目の画像を第2の基準画像とした場合には間の画像の少なくとも1枚が削除できないようなkを探索することになる。条件を満たすkが見つかった場合には、k番目の画像を新たな第1の基準画像として選択し、その後方から第2の基準画像を選択する。そして、その間の画像を順次判定対象画像として選択して削除可否判定処理を行い、上述したように、間の画像が全て削除可能で、且つ新たな第1の基準画像から最も遠い第2の基準画像を探索する処理を繰り返せばよい。この手法では、探索中の第2の基準画像は、要約画像列に残す画像の候補であり、実際に要約画像列に残す画像は第1の基準画像となる。
 その他、基準画像と判定対象画像の選択は種々の手法により実現可能である。
 以上の本実施形態では、画像処理装置は図4に示したように、複数の構成画像を有する画像列を取得する画像列取得部200と、画像列取得部200が取得した画像列の複数の構成画像の一部を削除して要約画像列を生成する画像要約処理を行う処理部100を含む。そして処理部100は、複数の構成画像の各構成画像から観察対象領域を検出する処理を行い、複数の構成画像から基準画像と判定対象画像を選択し、基準画像の変形推定対象領域と、判定対象画像の変形推定対象領域との間の変形情報を算出する。さらに処理部100は、基準画像の観察対象領域と、判定対象画像の観察対象領域と、変形情報に基づいて、判定対象画像の削除可否の判定を行う。
 ここで観察対象領域とは、画像のうち他の領域に比べて観察すべき領域、或いは観察することができる領域を表す。具体的には、観察対象領域は本実施形態で上述した病変領域であってもよいし、第4の実施形態で後述するように、泡領域、残渣領域、暗部領域、ハレーション領域以外の領域であってもよい。
 ここで変形推定対象領域とは、画像間(特に基準画像と判定対象画像の間)の変形情報を求める際に処理対象となる領域である。変形推定対象領域は、画像全体であってもよいし、その一部の領域であってもよい。また、処理部100において変形推定対象領域を選択する構成であってもよいし、事前に設定された変形推定対象領域を用いてもよい。
 これにより、基準画像及び判定対象画像のそれぞれで検出された観察対象領域と、変形情報とに基づいて、判定対象画像の削除可否判定を行うことが可能になる。変形情報を用いることで、画像を削除した場合に観察できなくなる被写体の発生度合いを適切に制御することが可能になり、特に内視鏡装置による生体内画像を対象とする場合には病変部の見逃しを抑止することができる。また、観察対象領域を用いない場合、図1(A)~図1(C)に示したように削除すべきでない画像を削除してしまうことや、図2に示したように削除すべき画像を削除できないことが考えられるが、本実施形態の手法によればこれらの問題に対処できる。
 また、処理部100は、基準画像の観察対象領域に対して、変形情報を用いた変形処理を行うことで、判定対象画像のうち基準画像の観察対象領域により覆われる領域である観察対象被覆領域を求めてもよい。そして処理部100は、求めた観察対象被覆領域と、判定対象画像の観察対象領域に基づいて、判定対象画像の削除可否の判定を行う。
 ここで、観察対象被覆領域とは狭義には上述した病変被覆領域に対応するが、第4の実施形態で後述する手法により求められた基準画像の観察対象領域を、変形情報により変形した領域であってもよい。また、病変被覆領域を観察対象被覆領域へと拡張して考えることができるように、病変領域に基づいて求められる他の情報についても、病変領域を含む概念である観察領域に基づいて求められる情報へと拡張可能である。
 これにより、基準画像の観察対象領域(図3の例ではC1)を変形することで観察対象被覆領域(図3の例ではC2)を求め、求めた観察対象被覆領域と、判定対象画像の観察対象領域(図3の例ではC3)とに基づいて削除可否判定を行うことが可能になる。観察対象被覆領域は、判定対象画像を削除したとしても、基準画像を残すことで観察可能な観察対象領域に対応するため、観察対象被覆領域と判定対象画像の観察対象領域を用いることで、観察できなくなる観察対象領域の発生度合いを制御することが可能になる。
 また、処理部100は、観察対象被覆領域と、判定対象画像の観察対象領域との共通領域である観察対象共通領域を求め、求めた観察対象共通領域が判定対象画像の観察対象領域に占める割合である観察対象被覆率を算出してもよい。そして、算出した観察対象被覆率に基づいて判定対象画像の削除可否の判定を行う。
 具体的には、処理部100は、観察対象被覆率が所定の閾値以上である場合は、判定対象画像を削除可能と判定してもよい。また処理部100は、観察対象被覆率が所定の閾値未満である場合は、判定対象画像を削除不可と判定してもよい。
 ここで、観察対象共通領域とは狭義には上述した観察対象被覆領域に対応し、観察対象被覆率は上述した病変被覆率に対応する。
 これにより、観察対象共通領域(図3の例ではC4)に基づいて観察対象被覆率を求めて、判定対象画像の削除可否判定を行うことが可能になる。観察対象共通領域は、判定対象画像の観察対象領域のうち、基準画像の観察対象領域によりカバーされる領域を表すため、観察対象被覆率は、基準画像の観察対象領域による判定対象画像の観察対象領域のカバー度合いを表す指標値となる。よって、観察対象被覆率が高ければ判定対象画像は削除可能であり、低ければ判定対象画像は削除不可となる。具体的には所与の閾値を基準とし、当該閾値以上か、閾値未満かの判定を行えばよい。
 また、画像列は生体内を撮像した生体内画像列であり、処理部100は、画像の病変領域又は絨毛領域を観察対象領域として検出してもよい。
 ここで、絨毛とは腸内壁に存在する突起のことであり、絨毛領域とは画像のうち絨毛が撮像されたと判定された領域を表す。
 これにより、病変領域や絨毛領域を観察対象領域として、画像の削除により当該病変領域や絨毛領域が観察できなくなることを抑止する画像要約処理を行うことが可能になる。上述したように、病変領域は被験者の診断、治療において非常に重要な部分となるため、画像要約処理を行っても観察できるようにする利点は大きい。また、絨毛が萎縮している場合には細菌への耐性が低下すること等が知られていることから、被検者の状態把握に絨毛領域の観察は有用であり、絨毛領域についても病変領域と同様に考えることができる。
 なお、本実施形態の画像処理装置等は、その処理の一部又は大部分をプログラムにより実現してもよい。この場合には、CPU等のプロセッサがプログラムを実行することで、本実施形態の画像処理装置等が実現される。具体的には、情報記憶装置に記憶されたプログラムが読み出され、読み出されたプログラムをCPU等のプロセッサが実行する。ここで、情報記憶装置(コンピュータにより読み取り可能な装置)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、CD等)、HDD(ハードディスクドライブ)、或いはメモリ(カード型メモリー、ROM等)などにより実現できる。そして、CPU等のプロセッサは、情報記憶装置に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち、情報記憶装置には、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。
 3.第2の実施形態
 次に、病変領域を観察対象領域とし、病変喪失領域占有率(広義には観察対象喪失領域占有率)を指標値として用いた削除可否判定処理の手法について説明する。本実施形態の画像処理装置の構成例は、削除可否判定部1006での処理内容が異なるものの、図4と同様であるため、削除可否判定部1006以外については詳細な説明を省略する。また、処理の流れについても、S106の処理内容以外は図6のフローチャートと同様であるため、詳細な説明は省略する。
 3.1 病変喪失領域占有率を用いた削除可否判定
 まず、病変喪失領域占有率を用いた削除可否判定処理を行う理由について、図11(A)~図11(D)を用いて説明する。図11(A)及び図11(B)は、基準画像と判定対象画像の病変領域が図に示したような領域である場合に、図3と同様に病変被覆領域、病変共通領域を求めた例である。図11(A)の場合には、判定対象画像の病変領域に占める病変共通領域の割合が大きい(ここでは80%)ため、病変被覆領域に基づく判定では、判定対象画像は削除可能と判定される。一方、図11(B)の場合には、判定対象画像の病変領域に占める病変共通領域の割合が小さい(ここでは50%)ため、病変被覆領域に基づく判定では、判定対象画像は削除不可と判定される。
 しかし、判定対象画像の病変領域のうち、病変共通領域ではない領域(判定対象画像を削除すると基準画像では観察できない病変領域であるため、以下病変喪失領域と表記する)のサイズを考えると、上記判断には疑問が残る。図11(A)の場合の病変喪失領域を図11(C)に、図11(B)の場合の病変喪失領域を図11(D)に示す。図11(C)、図11(D)から明らかなように、図11(C)の方が図11(D)に比べて病変喪失領域は大きいことになる。つまり、病変被覆率に基づく判定では、図11(A)の判定対象画像を削除することで、図11(C)に示した大きいサイズの病変喪失領域が失われることを許容する一方で、図11(B)の判定対象画像を削除不可とすることで、図11(D)に示した小さいサイズの病変喪失領域を保護するために画像枚数の削減効果を低くしている。
 本実施形態では、この問題に対応するために病変被覆率とは異なる観点の指標値を用いて判定対象画像の削除可否判定を行うものとする。具体的には、図11(C)、図11(D)に示したように病変喪失領域を求め、求めた病変喪失領域のサイズを用いた判定を行えばよい。ただし、領域の面積(例えば当該領域に含まれる画素の数)は、画像全体の面積が異なればその相対的な広さは異なる。例えば合計画素数が10万ピクセルの画像における5万ピクセルの領域は、画像の半分を覆う広い領域であると考えられるが、合計画素数100万ピクセルの画像における5万ピクセルの領域は、画像のごく一部を占めるに過ぎない狭い領域と解釈される。よって本実施形態でも、病変喪失領域の面積そのものではなく、判定対象画像に占める病変喪失領域の割合を病変喪失領域占有率として削除可否判定に用いるものとする。
 3.2 システム構成例
 上述したように、画像処理装置の構成例は図4と同様である。図12に本実施形態の削除可否判定部1006の構成例を示す。削除可否判定部1006は、図12に示したように病変被覆領域算出部1009と、病変喪失領域算出部1013と、病変喪失領域占有率算出部1014と、閾値判定部1015と、を含んでもよい。ただし、削除可否判定部1006は、図12の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
 病変被覆領域算出部1009は、第1の実施形態と同様に、基準画像の病変領域を変形、射影して病変被覆領域を求める。病変喪失領域算出部1013は、求めた病変被覆領域と、判定対象画像の病変領域とから病変喪失領域を求める。病変喪失領域は、判定対象画像の病変領域のうち、病変被覆領域に含まれる領域を除いた領域として求めることができる。
 病変喪失領域占有率算出部1014は、病変喪失領域に基づいて病変喪失領域占有率を算出する。病変喪失領域占有率は、判定対象画像に占める病変喪失領域の割合(言い換えれば判定対象画像の病変領域のうち、基準画像の病変領域によりカバーされない領域)であり、具体的には判定対象画像の面積に対する、病変喪失領域の面積の割合として求められる。
 閾値判定部1015は、算出された病変喪失領域占有率と所与の閾値との比較処理を行う。病変喪失領域占有率が閾値未満の場合には、判定対象画像を削除したとしても、判定対象画像の病変領域のうち観察できなくなる領域のサイズ(厳密には判定対象画像全体のサイズを基準とした場合の相対サイズ)は、十分小さいということであるため、判定対象画像は削除可能と判定される。逆に、病変喪失領域占有率が閾値以上の場合には、判定対象画像を削除すると観察できなくなる病変領域の発生度合いが大きいということであるため、判定対象画像は削除不可と判定される。
 或いは、本実施形態の削除可否判定部1006は病変喪失領域を直接求めない構成であってもよい。具体的には、削除可否判定部1006は、図13に示したように病変被覆領域算出部1009と、病変共通領域算出部1010と、病変喪失領域占有率算出部1014と、閾値判定部1015と、を含んでもよい。
 この場合、図3に示したように、第1の実施形態と同様に病変被覆領域算出部1009では、基準画像の病変領域(C1)を変形、射影することで病変被覆領域(C2)を求め、病変共通領域算出部1010は、判定対象画像の病変領域(C3)と病変被覆領域(C2)の共通部分を病変共通領域(C4)として求める。ここで、病変喪失領域の面積とは、判定対象画像の病変領域の面積から、病変共通領域の面積を減算したものとなる。よって、病変喪失領域占有率算出部1014は、(C3の面積-C4の面積)/(C3の面積)を病変喪失領域占有率として求め、閾値判定部1015は、求めた病変喪失領域占有率と所与の閾値との比較処理を行えばよい。
 3.3 処理の流れ
 本実施形態の削除可否判定処理の流れを図14のフローチャートを用いて説明する。この処理が開始されると、まず、基準画像の病変領域を変形情報(変形パラメータ)を用いて変形することで病変被覆領域を求める(S301)。そして、判定対象画像の病変領域のうち、求めた病変被覆領域に含まれない領域を病変喪失領域として求め(S302)、判定対象画像に占める病変喪失領域の割合を病変喪失領域占有率として算出する(S303)。算出した病変喪失領域占有率と所与の閾値との比較処理を行って(S304)、判定対象画像の削除可否を判定する。
 以上の本実施形態では、処理部100は、判定対象画像の観察対象領域のうち、観察対象被覆領域ではない領域である観察対象喪失領域が、判定対象画像に占める割合である観察対象喪失領域占有率を算出する。そして処理部100は、算出した観察対象喪失領域占有率に基づいて判定対象画像の削除可否の判定を行う。
 具体的には、処理部100は、観察対象喪失領域占有率が所定の閾値未満である場合は、判定対象画像を削除可能と判定してもよい。また処理部100は、観察対象喪失領域占有率が所定の閾値以上である場合は、判定対象画像を削除不可と判定してもよい。
 これにより、観察対象喪失領域占有率に基づく削除可否判定を行うことが可能になる。図11(A)~図11(D)に示したように、観察対象被覆率を用いた判定では、判定対象画像の観察対象領域を基準にしているため、判定対象画像を削除することで実際に観察できなくなる観察対象領域のサイズが考慮されていない。結果として、図11(C)に示した比較的広い領域が観察できなくなることを許容しつつ、図11(D)に示した比較的狭い領域が観察できなくなることが許容されない。その点、観察対象喪失領域占有率を用いれば、判定対象画像に占める観察対象喪失領域の割合による判定となるため、適切な判定が可能になる。なお、観察対象喪失領域占有率は、判定対象画像を削除することで観察できなくなる領域を表す指標値である。よって、観察対象喪失領域占有率が高ければ判定対象画像は削除可能であり、低ければ判定対象画像は削除不可となる。具体的には所与の閾値を基準とし、当該閾値以上か、閾値未満かの判定を行えばよい。
 4.第3の実施形態
 次に、病変領域を観察対象領域とし、病変被覆率と病変喪失領域占有率(広義には観察対象被覆率と観察対象喪失領域占有率)の両方を指標値として用いた削除可否判定処理の手法について説明する。本実施形態の画像処理装置の構成例は、削除可否判定部1006での処理内容が異なるものの、図4と同様であるため、削除可否判定部1006以外については詳細な説明を省略する。また、処理の流れについても、S106の処理内容以外は図6のフローチャートと同様であるため、詳細な説明は省略する。
 4.1 システム構成例と処理の流れ
 上述したように、画像処理装置の構成例は図4と同様である。図15に本実施形態の削除可否判定部1006の構成例を示す。削除可否判定部1006は、図15に示したように病変被覆領域算出部1009と、病変共通領域算出部1010と、病変被覆率算出部1011と、病変喪失領域占有率算出部1014と、閾値判定部1016と、を含んでもよい。ただし、削除可否判定部1006は、図15の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
 図3に示したように、第1の実施形態と同様に病変被覆領域算出部1009では、基準画像の病変領域(C1)を変形、射影することで病変被覆領域(C2)を求め、病変共通領域算出部1010は、判定対象画像の病変領域(C3)と病変被覆領域(C2)の共通部分を病変共通領域(C4)として求める。そして、病変被覆率算出部1011は、判定対象画像の病変領域(C3)に占める病変共通領域(C4)の割合を病変被覆率として求め、病変喪失領域占有率算出部1014は、判定対象画像に占める病変喪失領域(C3-C4)の割合を病変喪失領域占有率として求める。
 閾値判定部1016は、第1の閾値と病変被覆率との比較処理である第1の閾値判定処理と、第2の閾値と病変喪失領域占有率との比較処理である第2の閾値判定処理の両方を行えばよい。
 病変被覆率を用いる手法と、病変喪失領域占有率を用いる手法の組み合わせ方は種々考えられるが、病変喪失領域占有率を用いる第2の実施形態は、図11(B)に示したように、病変喪失領域のサイズを考慮すれば削除してしかるべき判定対象画像が、病変被覆率を用いた処理では削除できないという問題に対応することを想定している。つまり、まず病変被覆率を用いた手法により画像要約処理を行って、中間画像列を出力し、当該中間画像列を対象として病変喪失領域占有率を用いた手法により再度画像要約処理を行って、最終的な要約画像列を求めればよい。
 具体的な処理の流れを図16のフローチャートを用いて説明する。図16のS401~S406については図6のS101~S106と同様である。S406は図6のS106と同様に、図7のS201~S204に対応する病変被覆率を用いた削除可否判定処理となる。S404或いはS405において選択する画像がなかった場合には、病変被覆率を用いた画像要約処理が終了し、中間画像列が取得される。
 そして、取得された中間画像列に対してS407~S409に示した処理を行う。ここでS409の削除可否判定処理は、図14のS301~S304に対応する病変喪失領域占有率を用いた削除可否判定処理となる。病変領域の検出、変形推定対象領域の選択、変形情報の取得はS402~S403の結果を用いればよいため、S407~S409の処理は、中間画像列を対象とした病変喪失領域占有率を用いた画像要約処理に他ならない。
 或いは、1回の削除可否判定処理において、病変被覆率と病変喪失領域占有率の両方を算出し、病変被覆率を用いた第1の閾値判定処理と、病変喪失領域占有率を用いた第2の閾値判定処理を行って、少なくとも一方の判定において削除可能と判定された判定対象画像を削除するという手法を用いてもよい。その他、第1,第2の実施形態の組み合わせ手法は、種々の変形実施が可能である。
 4.2 変形例
 また、病変喪失領域占有率の代わりに簡易的な指標値を用いてもよい。上述したように、第2の実施形態は、図11(B)に示したような、病変喪失領域のサイズを考慮すれば削除してしかるべき判定対象画像が、病変被覆率を用いた処理では削除できないという問題に対応することを想定している。そのためには、厳密な判定をするのであれば病変喪失領域を用いることが望ましい。
 しかし、図11(B)の様な状況は、判定対象画像に占める判定対象画像の病変領域の割合が小さい(判定対象画像の病変領域のサイズが小さい)場合に起こりやすいと考えられる。つまり、病変喪失領域占有率の代わりに、判定対象画像に占める判定対象画像の病変領域の割合(例えば判定対象画像の病変領域の面積/判定対象画像の面積)である病変領域占有率を指標値として用いてもよい。
 ただし、これだけでは変形情報を用いた画像要約処理とならず、画像間での被写体の関係を考慮せずに画像要約処理を行う従来手法と同様の問題が生じてしまう。よって、第2の実施形態の変形例として病変領域占有率を用いることは適切ではなく、第1の実施形態の病変被覆率と組み合わせて用いる必要がある。つまり、第3の実施形態における病変喪失領域占有率の代わりに、病変領域占有率を用いる形態となり、この場合病変領域占有率を用いる処理においては変形情報が不要となるため、第3の実施形態の基本的な手法に比べて処理負荷の軽減等が可能になる。
 具体的には、病変被覆率に基づいて削除可否判定処理を行い、その結果削除不可と判定されたとしても、当該判定対象画像での病変領域占有率が所与の閾値未満であれば、図11(B)のようなケースであると考え、当該判定対象画像を削除可能と判定すればよい。
 上述したように、病変領域占有率を単体で用いることは好ましくないため、まず主として病変被覆率による判定を行い、病変領域占有率による判定は補助的に用いるとよい。
 以上の本実施形態では、処理部100は、観察対象被覆領域と、判定対象画像の観察対象領域との共通領域である観察対象共通領域を求め、求めた観察対象共通領域が判定対象画像の観察対象領域に占める割合である観察対象被覆率を算出する。また処理部100は、判定対象画像の観察対象領域から観察対象共通領域を除いた領域である観察対象喪失領域が、判定対象画像に占める割合である観察対象喪失領域占有率を算出する。そして処理部100は、算出した観察対象被覆率と、観察対象喪失領域占有率とに基づいて判定対象画像の削除可否の判定を行う。
 具体的には、処理部100は、観察対象被覆率に基づく判定、及び観察対象喪失領域占有率に基づく判定の少なくとも一方の判定において、削除可能とされた判定対象画像を削除可能と判定してもよい。
 これにより、観察対象被覆率と観察対象喪失領域占有率の両方を組み合わせて削除可否判定を行うことが可能になる。組み合わせ方は種々考えられるが、例えば少なくとも一方の判定において、削除可能とされた判定対象画像を削除可能と判定すれば、それぞれを単体で用いる場合に比べて画像枚数の削減効率を高めることができ、ユーザの負担を軽減することが可能になる。
 また、処理部100は、観察対象被覆領域と、判定対象画像の観察対象領域との共通領域である観察対象共通領域を求め、求めた観察対象共通領域が判定対象画像の観察対象領域に占める割合である観察対象被覆率を算出する。さらに処理部100は、判定対象画像の観察対象領域が判定対象画像に占める割合である観察対象領域占有率を算出する。そして処理部100は、算出した観察対象被覆率と、観察対象領域占有率とに基づいて判定対象画像の削除可否の判定を行ってもよい。
 具体的には、処理部100は、観察対象被覆率に基づく判定により、判定対象画像が削除不可と判定された場合にも、観察対象領域占有率が所与の閾値未満である場合には、判定対象画像を削除可能と判定してもよい。
 これにより、第3の実施形態の手法を簡易的に実行することが可能になる。観察対象喪失領域占有率を求めることで、判定対象画像を削除することで観察できなくなる観察対象領域のサイズを正確に算出することができる。しかし、削除することが望ましい画像が削除できない状況とは、図11(B)に示したように判定対象画像に占める判定対象画像の観察対象領域の割合が小さい状況が想定されることから、容易に算出可能な観察対象領域占有率を用いることでも、同様の効果が期待できる。ただし、観察対象領域占有率の算出には変形情報が用いられないことから、観察対象領域占有率を単体で用いた場合には変形情報による利点(観察できなくなる観察対象領域の発生度合いが制御可能である点)が失われる。よって、この手法では、変形情報に基づく観察対象被覆率を用いる判定を前提として行った上で、補助的に観察対象領域占有率を用いるとよい。
 5.第4の実施形態
 次に、遮蔽物領域を除いた領域、又は観察に適さない領域を除いた領域を観察対象領域とする例について説明する。具体的には、遮蔽物領域とは泡領域や残渣領域であり、観察に適さない領域とは暗部領域やハレーション領域である。なお、観察対象領域検出後の処理は、第1~第3の実施形態のいずれかを適用してもよく、その場合の処理は上述した通りであるため詳細な説明は省略する。また、第2の実施形態と同様に観察対象喪失領域を求め、その後当該観察対象喪失領域に対して構造要素を用いた収縮処理を行うことで、判定対象画像の削除可否判定を行ってもよい。構造要素を用いた処理の詳細は後述する。
 5.1 観察対象領域の検出
 本実施形態の画像処理装置の構成例を図22に示す。画像処理装置の処理部100は、観察対象領域検出部1017と、変形推定対象領域選択部1002と、変形情報取得部1003と、基準画像選択部1004と、判定対象画像選択部1005と、削除可否判定部1006と、を含む。また、不図示ではあるが、削除可否判定部1006等の詳細な構成については、図5等の病変領域に関するブロックを観察対象領域に拡張して考えればよい。
 観察対象領域検出部1017は観察対象領域を検出する。特許文献4~7に示したように、画像中の遮蔽物領域や観察に適さない領域を検出する手法は種々知られている。この場合、第1~第3の実施形態で上述した病変領域の例とは逆になり、検出された領域は相対的に重要度が低い。つまり、本実施形態の観察対象領域検出部1017は、遮蔽物領域や観察に適さない領域を検出した上で、取得した画像のうち、遮蔽物領域や観察に適さない領域を除外した領域を観察対象領域として検出すればよい。
 具体例を図19に示す。図19のように、基準画像において泡領域が検出され、基準画像全体及び泡領域がそれぞれ変形情報により変形されて、判定対象画像上に射影されたとする。その場合、基準画像においては泡領域が遮蔽物領域となり、泡領域以外の領域が観察対象領域となる。
 判定対象画像への射影後の領域を考えれば、基準画像全体が射影された領域以外の領域については、そもそも基準画像ではカバーされない領域となる。また、泡領域が射影された領域については、基準画像によりカバーはされているが、当該領域に対応する基準画像には泡が撮像されることで粘膜等が遮蔽されてしまっている。つまり、泡領域が射影された領域についても有用な領域とは言えない。以上を踏まえれば、判定対象画像のうち基準画像によりカバーされ且つ有用な領域、すなわち観察対象被覆領域は、図19の網掛けで示したAの領域となる。
 また、判定対象画像においても観察対象領域の検出処理が行われる。例えば、図20に示したように泡領域が検出された場合には、判定対象画像のうち泡領域以外の領域であるBの領域を判定対象画像の観察対象領域として検出する。
 観察対象被覆領域、及び判定対象画像の観察対象領域の情報が取得された後の処理は、第1~第3の実施形態と同様である。具体的には、第1の実施形態と同様に、図21(A)に示したように観察対象被覆領域(A)と、判定対象画像の観察対象領域(B)の共通部分を、観察対象共通領域として処理を行ってもよい。或いは、第2の実施形態と同様に、図21(B)に示したように、判定対象画像の観察対象領域(B)のうち、観察対象被覆領域でない領域(Aでない領域)を観察対象喪失領域として処理を行ってもよい。或いは第3の実施形態のように、観察対象共通領域と観察対象喪失領域の両方を用いてもよい。これらの処理については上述した通りであるため、詳細な説明は省略する。
 5.2 構造要素を用いた収縮処理
 本実施形態では、画像を削除することで、所定サイズの注目領域を見逃す可能性があるか否かという観点から、判定対象画像の削除可否判定を行ってもよい。これは、判定対象画像を削除することで観察できなくなる領域に、所定サイズの注目領域が完全に収まってしまうか否かを判定すればよい。観察できなくなる領域内に注目領域が完全に収まってしまう場合とは、判定対象画像の当該部分に注目領域が存在した場合には当該判定対象画像を削除すると注目領域の情報が失われることに対応し、注目領域の見逃し可能性があると言える。一方、観察できなくなる領域内に注目領域が完全に収まらなければ、はみ出した部分については基準画像によりカバーできるため、基準画像を残しておけば注目領域の少なくとも一部は観察可能である。
 このための判定手法の1つとして注目領域に対応する構造要素を用いた収縮処理が考えられる。以下、注目領域に対応した構造要素を用いた処理を行う例について説明する。図23に示したように、削除可否判定部1006は、構造要素生成部1018と、観察対象喪失領域算出部1019と、注目領域見逃し可能性判定部1020と、を含んでもよい。ただし、削除可否判定部1006は、図23の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
 構造要素生成部1018は、注目領域に基づいて、注目領域見逃し可能性判定部1020での処理に用いられる構造要素を生成する。ここでは、見逃しが好ましくない注目領域と同一形状、同一サイズの領域を設定するが、これに限定されるものではない。
 観察対象喪失領域算出部1019は、判定対象画像の削除により観察できなくなる領域を算出する。これは図21(B)に示したように、観察対象喪失領域を算出する処理に他ならない。
 注目領域見逃し可能性判定部1020は、判定対象画像を削除した場合に、判定対象画像上に撮像された注目領域が、基準画像では撮像されない状況となる(つまり注目領域を見逃す状況となる)可能性についての判定処理を行う。
 具体的な処理の流れを説明する。構造要素生成部1018は、注目領域に基づいて構造要素を生成しておく。ここでは、注目領域の典型的な大きさ等を考慮して、見逃すことが好ましくないサイズ、形状の領域を構造要素として設定する。例えば、注目領域が病変部であり、画像上で直径30ピクセルの円よりも大きい病変は深刻度が高く見逃すべきではない、ということがわかっているのであれば、構造要素は直径30ピクセルの円を設定することになる。
 基準画像と判定対象画像が選択されたら、観察対象喪失領域算出部1019は、図21(B)を用いて上述したように、観察対象喪失領域を算出する。
 注目領域見逃し可能性判定部1020は、注目領域の見逃し可能性を判定する。具体的には、観察対象喪失領域に対して、構造要素を用いた収縮処理を行い、図24(D)を用いて後述するような残留領域があるか否かの判定を行う。
 収縮処理の具体例について図24(A)~図24(E)を用いて説明する。観察対象喪失領域は図24(A)に示したように、必ず閉じた領域となり、その境界を設定することができる。例えば、図24(A)では外側境界であるBO1と、内側境界であるBO2を設定することになる。なお、図21(B)に示した例のように、観察対象喪失領域が連続しない複数の領域から構成される場合も考えられるが、そのような場合には各領域に対して収縮処理を行えばよい。よって、図24(A)~図24(E)では連続した1つの領域を観察対象喪失領域とする例について説明する。
 この際、構造要素による収縮処理とは、当該構造要素の基準点を観察対象喪失領域の境界上に設定した場合に、観察対象喪失領域と構造要素の重複領域を削る処理となる。例えば、構造要素として円形状の領域を設定し、その基準点を円の中心とした場合には、観察対象喪失領域の境界上に中心を有する円を描き、当該円と観察対象喪失領域とが重なる部分を観察対象喪失領域から除外する処理を行うことになる。具体的には、図24(A)に示したように、観察対象喪失領域の外側境界BO1上の点を中心とする円を描き、観察対象喪失領域との重複領域(ここでは、斜線で示した半円形状の領域)を除外する。
 外側境界BO1は離散的に処理されることを考えれば複数の点から構成されていることになるため、当該複数の点の各点について上述した処理を行えばよい。一例としては、図24(A)に示したように境界上の一点を起点として、所与の方向において順次境界BO1上の点を中心とする円を描き、観察対象喪失領域との重複領域を観察対象喪失領域から除外していけばよい。
 観察対象喪失領域の境界の一部が判定対象画像の境界と一致する場合等では、観察対象喪失領域の境界は1つの場合も考えられ、その際には当該1つの境界について上述の処理を行えばよい。また、図24(A)のBO1、BO2に示したように、喪失領域の境界として複数の境界が考えられる場合には、それぞれについて上述の処理を行う。具体的には、図24(B)に示したように、内側境界BO2についても、BO2上に中心を有する円を描き、観察対象喪失領域との重複領域を除外する処理を行い、この処理をBO2を構成する各点について繰り返せばよい。
 このような収縮処理を行うことで、観察対象喪失領域の面積は小さくなる。例えば、図24(A)の観察対象喪失領域の左部に着目した場合、図24(A)で示したBO1での収縮処理、及び図24(B)で示したBO2での収縮処理により、観察対象喪失領域は完全に削除され、残留する領域は存在しない。一方、観察対象喪失領域の右下部分に着目した場合、図24(C)に示したように、BO1での収縮処理でもBO2での収縮処理でも除外対象とならずに残存する残留領域REが生じる。よって、ここでの観察対象喪失領域全体に対して構造要素による収縮処理を行った結果は、図24(D)のようになり、残留領域REが生じることになる。
 ここで、半径rの円を構造要素とした場合の収縮処理の持つ意味について考える。閉じた領域である観察対象喪失領域は、境界(BO1とBO2のように異なる境界であってもよいし、1つの境界であってもよい)の内側にある領域と考えることができる。この境界について上述の収縮処理を行うことで、観察対象喪失領域に含まれる点のうち、上記境界上の点から距離r以内(その値を含む)にある点は削除の対象となる。つまり、削除対象とならなかった残留領域に含まれる点を考えた場合、当該点からは境界上の任意の点までの距離がrより大きくなるということである。よって、残留領域上の任意の点を中心とする半径rの円を描いた場合に、当該円の円周はどの境界とも交差することがない。これは言い換えれば、半径rの円で表される注目領域が、残留領域中の点をその中心とすることで、観察対象喪失領域の中に完全に収まってしまうという状況を表す。なお、構造要素として円以外の形状(四角形等)を用いた場合であっても、基本的な考え方は同一である。
 つまり、残留領域が存在する場合とは、図24(E)の右下に示したように、構造要素に対応する領域が観察対象喪失領域に含まれる場合となり、そのような位置に病変部等の注目領域があった場合には、判定対象画像を削除してしまうと、基準画像を残したとしても注目領域を観察できない可能性が生じてしまう。逆に、残留領域が存在しない場合とは、図24(E)の左上に示したように、注目領域の少なくとも一部は失われない領域に含まれることになり、判定対象画像を削除したとしても、注目領域の少なくとも一部は基準画像に残すことができる。なお、ここでの失われない領域とは、観察対象被覆領域に含まれることで基準画像によりカバーされ且つ有用である領域、又は判定対象画像の観察対象領域でないため基準画像によりカバーされる必要がない領域に対応する。
 以上のことより、注目領域見逃し可能性判定部1020では、観察対象喪失領域に対して構造要素による収縮処理を行い、残留領域が存在するか否かに基づいて、判定対象画像の削除可否判定を行う。
 また、構造要素を用いた削除可否判定処理は収縮処理を用いるものに限定されず、観察対象喪失領域に構造要素が含まれるか否かを判定する処理であればよい。例えば、図25(A)や図25(B)に示したように、観察対象喪失領域以外の領域の境界上の点(p1~p6等)から判定対象画像の境界までの距離(k1~k6等)、或いは判定対象画像の境界上の点から上記観察対象喪失領域以外の領域の境界までの距離に基づいて、観察対象喪失領域の最大径に相当する値を求め、求めた値と構造要素(この場合注目領域と同等のサイズ)の最小径との比較処理を行うような、簡易的な手法であってもよい。なお、図25(A)は判定対象画像が四角形の例、図25(B)は判定対象画像が円形状である例を示したものである。なお、構造要素を用いた処理については本実施形態で説明したが、第1~第3の実施形態における観察対象喪失領域(病変喪失領域)を対象としてもよい。
 以上の本実施形態では、処理部100は、判定対象画像の観察対象領域のうち、観察対象被覆領域ではない領域である観察対象喪失領域を用いて、判定対象画像において注目領域を見逃す可能性の有無を判定し、注目領域を見逃している可能性の有無に応じて、判定対象画像の削除可否の判定を行う。
 ここで、注目領域とは、ユーザにとって観察の優先順位が他の領域よりも相対的に高い領域であり、例えば、ユーザが医者であり治療を希望した場合、粘膜部や病変部を写した領域を指す。
 また、他の例として、医者が観察したいと欲した対象が泡や便であれば、注目領域は、その泡部分や便部分を写した領域になる。この場合には、泡や残渣が観察上、有用な被写体と言うことになるため、上述した泡領域や残渣領域は不要領域として扱われないことは言うまでもない。すなわち、ユーザが注目すべき対象は、その観察目的によって異なるが、いずれにしても、その観察に際し、ユーザにとって観察の優先順位が他の領域よりも相対的に高い領域が注目領域となる。
 これにより、注目領域を見逃す可能性があるか否かという観点から判定対象画像の削除可否判定を行うことが可能になる。判定対象画像を削除しなければ注目領域を見逃さないのに、判定対象画像を削除してしまうと基準画像を残したとしても注目領域を見逃すことになる場合に、判定対象画像を削除不可と判定することになる。注目領域の見逃し可能性の判定手法は種々考えられるが、例えば判定対象画像では注目領域が大きく撮像されているのに、基準画像では注目領域が小さくしか撮像され得ない(或いは全く撮像されない可能性がある)等の場合に、見逃し可能性があると判定すればよい。
 また、処理部100は、観察対象喪失領域に、注目領域に対応するサイズの領域が含まれるか否かの判定を行うことで、判定対象画像において注目領域を見逃す可能性の有無を判定してもよい。
 これにより、観察対象喪失領域と、注目領域に対応するサイズの領域との包含関係に基づいて、注目領域の見逃し可能性を判定し、判定対象画像の削除可否判定を行うことが可能になる。注目領域に対応するサイズの領域が観察対象喪失領域に含まれる場合とは、判定対象画像上に所与のサイズの注目領域が撮像されていながら、基準画像上では当該注目領域が全く撮像されていない可能性がある状況に対応する。この場合、注目領域を見逃す可能性があるため、判定対象画像は削除不可とする。逆に、注目領域に対応するサイズの領域が観察対象喪失領域に含まれることがないのであれば、判定対象画像上に撮像された注目領域の少なくとも一部が、基準画像に撮像されていることが保証できるため、判定対象画像は削除可能である。
 また、処理部100は、観察対象喪失領域に対して、注目領域に対応する構造要素を用いた収縮処理を行い、収縮処理の結果、残留領域がある場合に、注目領域を見逃す可能性があるとして、判定対象画像は削除不可であると判定し、収縮処理の結果、残留領域が無い場合に、注目領域を見逃す可能性がないとして、判定対象画像は削除可能であると判定してもよい。
 ここで構造要素とは、収縮処理における処理単位を表す要素であり、図24(A)等における円形状の要素を表す。また、収縮処理とは、図24(A)~図24(E)に示したように、対象となる領域から構造要素に対応する領域を削り取る処理である。
 これにより、観察対象喪失領域に構造要素(ここでは注目領域と同等のサイズ)が完全に収まってしまうか否かを精度よく判定することが可能になる。図24(A)~図24(E)を用いて上述したように、残留領域の有無は、観察対象喪失領域に構造要素が完全に収まってしまうか否かに対応することになる。ここでの判定は厳密なものとなるため、図25(A)、図25(B)等の手法等に比べると、削除可否判定の精度を高くすることができる。ただし、処理負荷の軽減等が重要視されるケースにおいては、図25(A)、図25(B)等の手法を用いることを妨げるものではない。
 また、処理部100は、画像の遮蔽物領域を除いた領域を観察対象領域として検出してもよい。
 具体的には、画像列は生体内を撮像した生体内画像列であり、遮蔽物領域は、画像の泡領域又は残渣領域であってもよい。
 これにより、遮蔽物領域を除いた領域を観察対象領域とすることが可能になる。遮蔽物領域とは、泡や残渣が撮像されることで、粘膜等の本来観察したい被写体が遮蔽されてしまっている領域である。一方、遮蔽物領域を除いた領域とは、第1~第3の実施形態の病変領域、絨毛領域のように積極的に観察すべき領域とは限らないが、少なくとも遮蔽物が撮像されていないことが期待される。つまり、遮蔽物領域を除いた領域は相対的に観察の優先度が高いことになるため、当該領域が観察できなくなることを抑止する画像要約処理は有用である。
 また、処理部100は、画像の画像信号が観察に適さない領域を除いた領域を観察対象領域として検出してもよい。
 具体的には、画像信号が観察に適さない領域は、画像の暗部領域又はハレーション領域であってもよい。
 これにより、観察に適さない領域を除いた領域を観察対象領域とすることが可能になる。観察に適さない領域とは、暗部やハレーションのように画素値が極端に大きい、或いは小さい値となることで黒つぶれや白飛びが発生し、本来観察したい被写体が十分観察できない領域である。この場合も、遮蔽物領域と同様に、他の領域の優先度が相対的に高まるため、観察に適さない領域以外の領域を観察対象領域とするとよい。
 以上、本発明を適用した4つの実施の形態1~4およびその変形例について説明したが、本発明は、各実施の形態1~4やその変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上記した各実施の形態1~4や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、各実施の形態1~4や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態や変形例で説明した構成要素を適宜組み合わせてもよい。また、明細書又は図面において、少なくとも一度、より広義又は同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能である。
100 処理部、200 画像列取得部、300 記憶部、
1001 病変領域検出部、1002 変形推定対象領域選択部、
1003 変形情報取得部、1004 基準画像選択部、
1005 判定対象画像選択部、1006 削除可否判定部、
1009 病変被覆領域算出部、1010 病変共通領域算出部、
1011 病変被覆率算出部、1012,1015,1016 閾値判定部、
1013 病変喪失領域算出部、1014 病変喪失領域占有率算出部、
1017 観察対象領域検出部、1018 構造要素生成部、
1019 観察対象喪失領域算出部、1020 注目領域見逃し可能性判定部

Claims (18)

  1.  複数の構成画像を有する画像列を取得する画像列取得部と、
     前記画像列取得部が取得した前記画像列の前記複数の構成画像の一部を削除して要約画像列を生成する画像要約処理を行う処理部と、
     を含み、
     前記処理部は、
     前記複数の構成画像の各構成画像から観察対象領域を検出する処理を行い、
     前記複数の構成画像から基準画像と判定対象画像を選択し、
     前記基準画像の変形推定対象領域と、前記判定対象画像の前記変形推定対象領域との間の変形情報を算出し、
     前記基準画像の前記観察対象領域と、前記判定対象画像の前記観察対象領域と、前記変形情報に基づいて、前記判定対象画像の削除可否の判定を行うことを特徴とする画像処理装置。
  2.  請求項1において、
     前記処理部は、
     前記基準画像の前記観察対象領域に対して、前記変形情報を用いた変形処理を行うことで、前記判定対象画像のうち前記基準画像の前記観察対象領域により覆われる領域である観察対象被覆領域を求め、
     求めた前記観察対象被覆領域と、前記判定対象画像の前記観察対象領域に基づいて、前記判定対象画像の削除可否の判定を行うことを特徴とする画像処理装置。
  3.  請求項2において、
     前記処理部は、
     前記観察対象被覆領域と、前記判定対象画像の前記観察対象領域との共通領域である観察対象共通領域を求め、
     求めた前記観察対象共通領域が前記判定対象画像の前記観察対象領域に占める割合である観察対象被覆率を算出し、
     算出した前記観察対象被覆率に基づいて前記判定対象画像の削除可否の判定を行うことを特徴とする画像処理装置。
  4.  請求項3において、
     前記処理部は、
     前記観察対象被覆率が所定の閾値以上である場合は、前記判定対象画像を削除可能と判定し、
     前記観察対象被覆率が前記所定の閾値未満である場合は、前記判定対象画像を削除不可と判定することを特徴とする画像処理装置。
  5.  請求項2において、
     前記処理部は、
     前記判定対象画像の前記観察対象領域のうち、前記観察対象被覆領域ではない領域である観察対象喪失領域が、前記判定対象画像に占める割合である観察対象喪失領域占有率を算出し、
     算出した前記観察対象喪失領域占有率に基づいて前記判定対象画像の削除可否の判定を行うことを特徴とする画像処理装置。
  6.  請求項5において、
     前記処理部は、
     前記観察対象喪失領域占有率が所定の閾値未満である場合は、前記判定対象画像を削除可能と判定し、
     前記観察対象喪失領域占有率が前記所定の閾値以上である場合は、前記判定対象画像を削除不可と判定することを特徴とする画像処理装置。
  7.  請求項2において、
     前記処理部は、
     前記判定対象画像の前記観察対象領域のうち、前期観察対象被覆領域ではない領域である観察対象喪失領域を用いて、前記判定対象画像において注目領域を見逃す可能性の有無を判定し、前記注目領域を見逃している可能性の有無に応じて、前記判定対象画像の削除可否の判定を行うことを特徴とする画像処理装置。
  8.  請求項7において、
     前記処理部は、
     前記観察対象喪失領域に、前記注目領域に対応するサイズの領域が含まれるか否かの判定を行うことで、前記判定対象画像において前記注目領域を見逃す可能性の有無を判定することを特徴とする画像処理装置。
  9.  請求項7において、
     前記処理部は、
     前記観察対象喪失領域に対して、前記注目領域に対応する構造要素を用いた収縮処理を行い、
     前記収縮処理の結果、残留領域がある場合に、前記注目領域を見逃す可能性があるとして、前記判定対象画像は削除不可であると判定し、
     前記収縮処理の結果、前記残留領域が無い場合に、前記注目領域を見逃す可能性がないとして、前記判定対象画像は削除可能であると判定することを特徴とする画像処理装置。
  10.  請求項2において、
     前記処理部は、
     前記観察対象被覆領域と、前記判定対象画像の前記観察対象領域との共通領域である観察対象共通領域を求め、求めた前記観察対象共通領域が前記判定対象画像の前記観察対象領域に占める割合である観察対象被覆率を算出し、
     前記判定対象画像の前記観察対象領域から前記観察対象共通領域を除いた領域である観察対象喪失領域が、前記判定対象画像に占める割合である観察対象喪失領域占有率を算出し、
     算出した前記観察対象被覆率と、前記観察対象喪失領域占有率とに基づいて前記判定対象画像の削除可否の判定を行うことを特徴とする画像処理装置。
  11.  請求項10において、
     前記処理部は、
     前記観察対象被覆率に基づく判定、及び前記観察対象喪失領域占有率に基づく判定の少なくとも一方の判定において、削除可能とされた前記判定対象画像を削除可能と判定することを特徴とする画像処理装置。
  12.  請求項1乃至11のいずれかにおいて、
     前記処理部は、
     前記画像の遮蔽物領域を除いた領域を前記観察対象領域として検出することを特徴とする画像処理装置。
  13.  請求項12において、
     前記画像列は生体内を撮像した生体内画像列であり、
     前記遮蔽物領域は、
     前記画像の泡領域又は残渣領域であることを特徴とする画像処理装置。
  14.  請求項1乃至11のいずれかにおいて、
     前記処理部は、
     前記画像の画像信号が観察に適さない領域を除いた領域を前記観察対象領域として検出することを特徴とする画像処理装置。
  15.  請求項14において、
     前記画像信号が観察に適さない領域は、
     前記画像の暗部領域又はハレーション領域であることを特徴とする画像処理装置。
  16.  請求項1乃至11のいずれかにおいて、
     前記画像列は生体内を撮像した生体内画像列であり、
     前記処理部は、
     前記画像の病変領域又は絨毛領域を前記観察対象領域として検出することを特徴とする画像処理装置。
  17.  複数の構成画像を有する画像列を取得する画像列取得部と、
     前記画像列取得部が取得した前記画像列の前記複数の構成画像の一部を削除して要約画像列を生成する画像要約処理を行う処理部として、
     コンピュータを機能させ、
     前記処理部は、
     前記複数の構成画像の各構成画像から観察対象領域を検出する処理を行い、
     前記複数の構成画像から基準画像と判定対象画像を選択し、
     前記基準画像の変形推定対象領域と、前記判定対象画像の前記変形推定対象領域との間の変形情報を算出し、
     前記基準画像の前記観察対象領域と、前記判定対象画像の前記観察対象領域と、前記変形情報に基づいて、前記判定対象画像の削除可否の判定を行うことを特徴とするプログラム。
  18.  複数の構成画像を有する画像列を取得し、
     前記複数の構成画像の各構成画像から観察対象領域を検出する処理を行い、
     前記複数の構成画像から基準画像と判定対象画像を選択し、
     前記基準画像の変形推定対象領域と、前記判定対象画像の前記変形推定対象領域との間の変形情報を算出し、
     前記基準画像の前記観察対象領域と、前記判定対象画像の前記観察対象領域と、前記変形情報に基づいて、前記判定対象画像の削除可否の判定を行い、
     前記削除可否の判定結果に基づいて、前記画像列の前記複数の画像の一部を削除して要約画像列を取得する画像要約処理を行うことを特徴とする画像処理方法。
PCT/JP2013/075080 2012-09-27 2013-09-18 画像処理装置、プログラム及び画像処理方法 WO2014050638A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP13840399.3A EP2901915A4 (en) 2012-09-27 2013-09-18 IMAGE PROCESSING DEVICE, PROGRAM, AND IMAGE PROCESSING METHOD
CN201380050262.2A CN104684454B (zh) 2012-09-27 2013-09-18 图像处理装置和图像处理方法
US14/669,497 US9684849B2 (en) 2012-09-27 2015-03-26 Image processing device, information storage device, and image processing method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012214532 2012-09-27
JP2012-214532 2012-09-27
JP2013-093347 2013-04-26
JP2013093347A JP6242072B2 (ja) 2012-09-27 2013-04-26 画像処理装置、プログラム及び画像処理装置の作動方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/669,497 Continuation US9684849B2 (en) 2012-09-27 2015-03-26 Image processing device, information storage device, and image processing method

Publications (1)

Publication Number Publication Date
WO2014050638A1 true WO2014050638A1 (ja) 2014-04-03

Family

ID=50388044

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/075080 WO2014050638A1 (ja) 2012-09-27 2013-09-18 画像処理装置、プログラム及び画像処理方法

Country Status (5)

Country Link
US (1) US9684849B2 (ja)
EP (1) EP2901915A4 (ja)
JP (1) JP6242072B2 (ja)
CN (1) CN104684454B (ja)
WO (1) WO2014050638A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016056408A1 (ja) * 2014-10-10 2016-04-14 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
WO2022190298A1 (ja) * 2021-03-10 2022-09-15 オリンパスメディカルシステムズ株式会社 画像処理装置、画像処理方法、及び画像処理プログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5919665B2 (ja) * 2011-07-19 2016-05-18 日本電気株式会社 情報処理装置、物体追跡方法および情報処理プログラム
JP6006112B2 (ja) * 2012-12-28 2016-10-12 オリンパス株式会社 画像処理装置、画像処理方法及びプログラム
WO2016051840A1 (ja) * 2014-09-29 2016-04-07 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
CN105096287A (zh) * 2015-08-11 2015-11-25 电子科技大学 一种改进的多次泊松图像融合方法
WO2019198198A1 (ja) * 2018-04-12 2019-10-17 三菱電機株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
CN111936032B (zh) 2018-04-13 2024-03-26 富士胶片株式会社 图像处理装置、内窥镜系统及图像处理方法
WO2020044523A1 (ja) * 2018-08-30 2020-03-05 オリンパス株式会社 記録装置、画像観察装置、観察システム、観察システムの制御方法、及び観察システムの作動プログラム

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006296569A (ja) * 2005-04-18 2006-11-02 Olympus Medical Systems Corp 画像表示装置
JP2006320650A (ja) * 2005-05-20 2006-11-30 Olympus Medical Systems Corp 画像表示装置
JP2007313119A (ja) 2006-05-26 2007-12-06 Olympus Corp 画像処理装置及び画像処理プログラム
JP2009005020A (ja) 2007-06-20 2009-01-08 Olympus Corp 画像抽出装置および画像抽出プログラム
JP2010113616A (ja) 2008-11-07 2010-05-20 Olympus Corp 画像処理装置、画像処理プログラムおよび画像処理方法
JP2010115413A (ja) 2008-11-14 2010-05-27 Olympus Corp 画像処理装置、画像処理プログラムおよび画像処理方法
JP2010158308A (ja) * 2009-01-06 2010-07-22 Olympus Corp 画像処理装置、画像処理方法および画像処理プログラム
JP2010183290A (ja) * 2009-02-04 2010-08-19 Olympus Corp 画像処理装置、画像処理プログラムおよび画像処理方法
JP2011024763A (ja) 2009-07-24 2011-02-10 Hitachi Ltd 画像処理方法および画像処理装置
JP2011175599A (ja) * 2010-02-25 2011-09-08 Canon Inc 画像処理装置、その処理方法及びプログラム
JP2011234931A (ja) 2010-05-11 2011-11-24 Olympus Corp 画像処理装置、画像処理方法、および画像処理プログラム
JP2012016454A (ja) 2010-07-07 2012-01-26 Olympus Corp 画像処理装置、画像処理方法、および画像処理プログラム
WO2013133368A1 (ja) * 2012-03-07 2013-09-12 オリンパス株式会社 画像処理装置、プログラム及び画像処理方法
WO2013133370A1 (ja) * 2012-03-08 2013-09-12 オリンパス株式会社 画像処理装置、プログラム及び画像処理方法
WO2013157354A1 (ja) * 2012-04-18 2013-10-24 オリンパス株式会社 画像処理装置、プログラム及び画像処理方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5473369A (en) * 1993-02-25 1995-12-05 Sony Corporation Object tracking apparatus
US5835620A (en) * 1995-12-19 1998-11-10 Neuromedical Systems, Inc. Boundary mapping system and method
US5767922A (en) * 1996-04-05 1998-06-16 Cornell Research Foundation, Inc. Apparatus and process for detecting scene breaks in a sequence of video frames
US6724915B1 (en) * 1998-03-13 2004-04-20 Siemens Corporate Research, Inc. Method for tracking a video object in a time-ordered sequence of image frames
US6389168B2 (en) * 1998-10-13 2002-05-14 Hewlett Packard Co Object-based parsing and indexing of compressed video streams
US7280753B2 (en) * 2003-09-03 2007-10-09 Canon Kabushiki Kaisha Display apparatus, image processing apparatus, and image processing system
WO2005039399A1 (ja) 2003-10-27 2005-05-06 Olympus Corporation 画像処理装置、画像処理方法及び画像処理プログラム
JP3993554B2 (ja) 2003-10-27 2007-10-17 オリンパス株式会社 画像処理装置、該方法、及び該プログラム
US7760956B2 (en) * 2005-05-12 2010-07-20 Hewlett-Packard Development Company, L.P. System and method for producing a page using frames of a video stream
US7376246B2 (en) * 2005-06-27 2008-05-20 Mitsubishi Electric Research Laboratories, Inc. Subspace projection based non-rigid object tracking with particle filters
US20070060798A1 (en) 2005-09-15 2007-03-15 Hagai Krupnik System and method for presentation of data streams
JP2007195586A (ja) * 2006-01-23 2007-08-09 Olympus Medical Systems Corp カプセル型医療装置、医療用制御装置、医療用画像処理装置及びプログラム
JP2009050321A (ja) 2007-08-23 2009-03-12 Olympus Corp 画像処理装置
JP5374078B2 (ja) 2008-06-16 2013-12-25 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム
EP2177149A1 (en) * 2008-10-14 2010-04-21 Olympus Medical Systems Corporation Image display device, image display method, and image display program
JP5379442B2 (ja) 2008-10-14 2013-12-25 オリンパスメディカルシステムズ株式会社 画像表示装置
JP5374135B2 (ja) * 2008-12-16 2013-12-25 オリンパス株式会社 画像処理装置、画像処理装置の作動方法および画像処理プログラム
WO2010113929A1 (ja) * 2009-03-31 2010-10-07 日本電気株式会社 追尾対象判定装置、追尾対象判定方法、および追尾対象判定プログラム
US20120170855A1 (en) * 2010-07-21 2012-07-05 Panasonic Corporation Image management device, image management method, program, recording medium, and image management integrated circuit
CN102096917B (zh) * 2010-12-22 2012-08-15 南方医科大学 胶囊内窥镜冗余图像数据的自动剔除方法
EP2719325A1 (en) 2011-06-10 2014-04-16 Hitachi Medical Corporation Image diagnosis assisting apparatus, and method
JP5948200B2 (ja) 2012-09-27 2016-07-06 オリンパス株式会社 画像処理装置、プログラム及び画像処理方法

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006296569A (ja) * 2005-04-18 2006-11-02 Olympus Medical Systems Corp 画像表示装置
JP2006320650A (ja) * 2005-05-20 2006-11-30 Olympus Medical Systems Corp 画像表示装置
JP2007313119A (ja) 2006-05-26 2007-12-06 Olympus Corp 画像処理装置及び画像処理プログラム
JP2009005020A (ja) 2007-06-20 2009-01-08 Olympus Corp 画像抽出装置および画像抽出プログラム
JP2010113616A (ja) 2008-11-07 2010-05-20 Olympus Corp 画像処理装置、画像処理プログラムおよび画像処理方法
JP2010115413A (ja) 2008-11-14 2010-05-27 Olympus Corp 画像処理装置、画像処理プログラムおよび画像処理方法
JP2010158308A (ja) * 2009-01-06 2010-07-22 Olympus Corp 画像処理装置、画像処理方法および画像処理プログラム
JP2010183290A (ja) * 2009-02-04 2010-08-19 Olympus Corp 画像処理装置、画像処理プログラムおよび画像処理方法
JP2011024763A (ja) 2009-07-24 2011-02-10 Hitachi Ltd 画像処理方法および画像処理装置
JP2011175599A (ja) * 2010-02-25 2011-09-08 Canon Inc 画像処理装置、その処理方法及びプログラム
JP2011234931A (ja) 2010-05-11 2011-11-24 Olympus Corp 画像処理装置、画像処理方法、および画像処理プログラム
JP2012016454A (ja) 2010-07-07 2012-01-26 Olympus Corp 画像処理装置、画像処理方法、および画像処理プログラム
WO2013133368A1 (ja) * 2012-03-07 2013-09-12 オリンパス株式会社 画像処理装置、プログラム及び画像処理方法
WO2013133370A1 (ja) * 2012-03-08 2013-09-12 オリンパス株式会社 画像処理装置、プログラム及び画像処理方法
WO2013157354A1 (ja) * 2012-04-18 2013-10-24 オリンパス株式会社 画像処理装置、プログラム及び画像処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2901915A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016056408A1 (ja) * 2014-10-10 2016-04-14 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JPWO2016056408A1 (ja) * 2014-10-10 2017-04-27 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
WO2022190298A1 (ja) * 2021-03-10 2022-09-15 オリンパスメディカルシステムズ株式会社 画像処理装置、画像処理方法、及び画像処理プログラム

Also Published As

Publication number Publication date
JP6242072B2 (ja) 2017-12-06
US20150199590A1 (en) 2015-07-16
EP2901915A1 (en) 2015-08-05
US9684849B2 (en) 2017-06-20
EP2901915A4 (en) 2016-07-06
CN104684454B (zh) 2017-04-26
CN104684454A (zh) 2015-06-03
JP2014079562A (ja) 2014-05-08

Similar Documents

Publication Publication Date Title
JP6242072B2 (ja) 画像処理装置、プログラム及び画像処理装置の作動方法
US10037468B2 (en) Image processing device, information storage device, and image processing method
WO2021031459A1 (zh) 适用于内窥镜的图像增强方法、装置和存储介质
US9576362B2 (en) Image processing device, information storage device, and processing method to acquire a summary image sequence
JP5948200B2 (ja) 画像処理装置、プログラム及び画像処理方法
JP6222807B2 (ja) 医用画像処理装置、x線診断装置及び医用画像処理プログラム
JP2011067637A5 (ja) Dicom医用画像情報処理システム、dicom医用画像情報処理方法およびdicom医用画像情報処理プログラム
US20180342079A1 (en) Image processing apparatus, image processing method, and computer readable recording medium
KR102156533B1 (ko) 화상 처리장치, 화상 처리방법, 및 기억매체
JP5973771B2 (ja) 画像処理装置、プログラム及び画像処理方法
JPWO2019156140A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP5973770B2 (ja) 画像処理装置、プログラム及び画像処理方法
JP5973783B2 (ja) 画像処理装置、プログラム及び画像処理方法
WO2018158817A1 (ja) 画像診断装置、画像診断方法、及びプログラム
JP6006112B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5896791B2 (ja) 画像処理装置、プログラム及び画像処理方法
JP5980567B2 (ja) 画像処理装置、プログラム及び画像処理装置の作動方法
US10964021B2 (en) Information processing apparatus, information processing method, and information processing system
JP6677263B2 (ja) X線撮影装置
KR20180071532A (ko) 지능형 고해상도 내시경 영상을 획득하여 저장하는 영상 제공 방법 및 장치
JP6396114B2 (ja) 医用画像処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13840399

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2013840399

Country of ref document: EP