WO2016051840A1 - 画像処理装置、画像処理方法、及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法、及び画像処理プログラム Download PDF

Info

Publication number
WO2016051840A1
WO2016051840A1 PCT/JP2015/062844 JP2015062844W WO2016051840A1 WO 2016051840 A1 WO2016051840 A1 WO 2016051840A1 JP 2015062844 W JP2015062844 W JP 2015062844W WO 2016051840 A1 WO2016051840 A1 WO 2016051840A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
importance
image processing
processing apparatus
vivo
Prior art date
Application number
PCT/JP2015/062844
Other languages
English (en)
French (fr)
Inventor
聡美 小林
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2016502555A priority Critical patent/JP5937286B1/ja
Publication of WO2016051840A1 publication Critical patent/WO2016051840A1/ja
Priority to US15/268,547 priority patent/US20170004626A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/041Capsule endoscopes for imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Definitions

  • the present invention relates to an image processing apparatus, an image processing method, and an image processing program.
  • an image summarization process is performed in which an image group including a plurality of images acquired in time series is acquired, and a part of the images is extracted from the image group and summarized into an image group having a smaller number than the original image group.
  • An image extracting device image processing device that performs such processing is known (for example, see Patent Document 1).
  • images at positions where the scene changes are selected from the image group as representative images, and the image group is summarized into a predetermined number of representative images. Then, the user can grasp the contents of the entire original image group in a short time by observing a predetermined number of representative images included in the image group after the image summarization process.
  • the present invention has been made in view of the above, and provides an image processing apparatus, an image processing method, and an image processing program that can select more images including many effective regions useful for observation as representative images. There is to do.
  • the image processing apparatus detects an unsuitable region in the image for each image included in the image group acquired in time series.
  • An area detector an importance calculator that calculates the importance of the image based on the unsuitable area in the image for each image included in the image group, and the importance in time series
  • a determination unit that determines whether or not the calculated value exceeds a threshold value.
  • the image processing apparatus when the calculation unit determines that the calculated value exceeds the threshold value, the image processing apparatus performs the final calculation when the calculated value exceeds the threshold value.
  • the image processing apparatus further includes a range setting unit that sets the image having the importance as a boundary that divides the image group into a plurality of selection ranges.
  • the image processing apparatus may further include an image selection unit that selects a representative image from the plurality of images included in the selection range for each of the plurality of selection ranges. .
  • the image processing apparatus is characterized in that, in the above-described invention, the region not suitable for observation is an invalid region other than an effective region useful for observation.
  • the region detection unit detects a region that is not suitable for the observation in pixel units, and the importance calculation unit is detected as a region that is not suitable for the observation. The importance is calculated based on the number of pixels.
  • the importance calculation unit calculates the importance having a higher value as the number of pixels detected as the unsuitable region is smaller.
  • the importance calculation unit calculates the importance calculated based on a position of a pixel detected as an area unsuitable for observation in the image. It is characterized by adjusting.
  • the operation of the determination unit is a time-series integration of the importance calculated for each image.
  • the image processing apparatus is characterized in that, in the above-mentioned invention, the image selection unit selects the image set as a boundary of the selection range as the representative image.
  • the image selection unit selects an image having the highest importance as the representative image among the images included in the selection range.
  • the threshold value is a value obtained by dividing the sum of the importance levels of all the images included in the image group by the number of representative images to be selected. It is characterized by being.
  • the image processing method is an image processing method performed by the image processing apparatus, in which an area detection that detects an unsuitable area in the image for each image included in the image group acquired in time series.
  • a step an importance calculating step for calculating the importance of the image based on a region not suitable for observation in the image for each image included in the image group, and calculating the importance in time series And a determination step of determining whether or not the calculated value exceeds a threshold value.
  • an image processing program causes an image processing apparatus to execute the above-described image processing method.
  • the image processing device According to the image processing device, the image processing method, and the image processing program according to the present invention, there is an effect that more images including many effective regions useful for observation can be selected as representative images.
  • FIG. 1 is a schematic diagram showing an endoscope system according to Embodiment 1 of the present invention.
  • FIG. 2 is a block diagram showing the image processing apparatus shown in FIG.
  • FIG. 3 is a flowchart showing the operation (image processing method) of the image processing apparatus shown in FIG.
  • FIG. 4 is a diagram showing an example of a representative image selected by the image processing method shown in FIG.
  • FIG. 5 is a diagram showing an example of a representative image selected by the image processing method shown in FIG.
  • FIG. 6 is a flowchart showing an image processing method according to Embodiment 2 of the present invention.
  • FIG. 7 is a diagram showing an example of a representative image selected by the image processing method shown in FIG.
  • FIG. 8 is a diagram showing an example of a representative image selected by the image processing method shown in FIG.
  • FIG. 1 is a schematic diagram showing an endoscope system 1 according to Embodiment 1 of the present invention.
  • the endoscope system 1 is a system that acquires an in-vivo image inside a subject 100 using a swallowable capsule endoscope 2 and causes a doctor or the like to observe the in-vivo image.
  • the endoscope system 1 includes a receiving device 3, an image processing device 4, and a portable recording medium 5 in addition to the capsule endoscope 2.
  • the recording medium 5 is a portable recording medium for transferring data between the receiving device 3 and the image processing device 4, and is configured to be detachable from the receiving device 3 and the image processing device 4. Yes.
  • the capsule endoscope 2 is a capsule endoscope device that is formed in a size that can be introduced into the organ of the subject 100, and is introduced into the organ of the subject 100 by oral ingestion or the like, and is peristaltic. In-vivo images are sequentially taken while moving inside the organ by means of, for example. Then, the capsule endoscope 2 sequentially transmits image data generated by imaging.
  • the receiving device 3 includes a plurality of receiving antennas 3a to 3h, and receives image data from the capsule endoscope 2 inside the subject 100 via at least one of the plurality of receiving antennas 3a to 3h. Then, the receiving device 3 stores the received image data in the recording medium 5 inserted in the receiving device 3.
  • the receiving antennas 3a to 3h may be arranged on the body surface of the subject 100 as shown in FIG. 1, or may be arranged on a jacket worn by the subject 100. Further, the number of receiving antennas provided in the receiving device 3 may be one or more, and is not particularly limited to eight.
  • FIG. 2 is a block diagram showing the image processing apparatus 4.
  • the image processing apparatus 4 is configured as a workstation that acquires image data in the subject 100 and displays an image corresponding to the acquired image data.
  • the image processing apparatus 4 includes a reader / writer 41, a memory unit 42, an input unit 43, a display unit 44, and a control unit 45.
  • the reader / writer 41 has a function as an image acquisition unit that acquires image data to be processed from the outside. Specifically, when the recording medium 5 is inserted into the reader / writer 41, the reader / writer 41 is controlled by the control unit 45 to store image data (stored in the capsule endoscope 2). A group of in-vivo images including a plurality of in-vivo images captured (acquired) in time series. Further, the reader / writer 41 transfers the captured in-vivo image group to the control unit 45. The in-vivo image group transferred to the control unit 45 is stored in the memory unit 42.
  • the memory unit 42 stores the in-vivo image group transferred from the control unit 45.
  • the memory unit 42 stores various programs (including an image processing program) executed by the control unit 45, information necessary for processing of the control unit 45, and the like.
  • the input unit 43 is configured using a keyboard, a mouse, and the like, and accepts user operations.
  • the display unit 44 is configured using a liquid crystal display or the like, and includes a display screen including in-vivo images under the control of the control unit 45 (for example, a display screen including a predetermined number of representative images selected by image summarization processing described later) ) Is displayed.
  • a display screen including in-vivo images under the control of the control unit 45 (for example, a display screen including a predetermined number of representative images selected by image summarization processing described later) ) Is displayed.
  • the control unit 45 is configured using a CPU (Central Processing Unit) or the like, reads a program (including an image processing program) stored in the memory unit 42, and controls the operation of the entire image processing apparatus 4 according to the program.
  • a function of the control unit 45 a function of executing “image summarization processing” which is a main part of the present invention will be mainly described.
  • the control unit 45 includes an area detection unit 451, an importance calculation unit 452, a determination unit 453, a range setting unit 454, and an image selection unit 455.
  • the area detection unit 451 is an ineffective area other than an effective area useful for observation in the in-vivo image (an area unsuitable for observation). Is detected. Specifically, the region detection unit 451 compares the feature value indicating the color information, frequency information, shape information, and the like that can be acquired from the in-vivo image with the second threshold value, and based on the comparison result, An invalid area other than an effective area useful for observation is detected.
  • the effective area means an area where mucous membranes, blood vessels, and blood on the surface of the living body are reflected.
  • the invalid region is a region other than the effective region, such as a region where residues or bubbles are reflected, a region where the deep part of the lumen is reflected (dark portion), a halation region (bright portion) that is specularly reflected from the surface of the subject, It means a region that becomes noise due to a poor communication state between the capsule endoscope 2 and the receiving device 3.
  • various known methods can be employed as the method for detecting the invalid area as described above (for example, JP 2007-313119 A, JP 2011-234931 A, and JP 2010-115413 A). JP, 16-16454, etc.).
  • the importance calculation unit 452 calculates the importance of the in-vivo image for each in-vivo image included in the in-vivo image group stored in the memory unit 42 based on the invalid area detected by the area detection unit 451 in the in-vivo image. Calculate the degree. Specifically, the importance calculation unit 452 calculates the importance of the in-vivo image based on the area of the invalid region in the in-vivo image (the number of pixels detected as the invalid region by the region detection unit 451). Here, the importance level calculation unit 452 sets the importance level of the in-vivo image to a higher value as the number of pixels detected as an invalid area by the area detection unit 451 is smaller.
  • the determination unit 453 calculates the importance of each in-vivo image calculated by the importance calculation unit 452 in time series, and whether the calculated value exceeds the first threshold (corresponding to the threshold according to the present invention). Determine. Specifically, the determination unit 453 divides the sum of the importance levels of all in-vivo images included in the in-vivo image group by the number of representative images scheduled to be selected, and uses the divided value as the first threshold value. And the determination part 453 integrates the importance in all the in-vivo images in order of time series, compares the said integrated value with the said 1st threshold value, and determines whether the integrated value exceeded the said 1st threshold value. .
  • the time series calculation of importance is not limited to integration, and other calculation methods may be used, and the first threshold may be calculated by an arithmetic expression corresponding to the importance calculation method.
  • the range setting unit 454 includes each in-vivo image that is continuous in time series, and a plurality of selections that divide all in-vivo images included in the in-vivo image group into a plurality of groups, respectively. Set the range. Specifically, the range setting unit 454 sets the frame number of the in-vivo image when the determination unit 453 determines that the integrated value has exceeded the first threshold as the boundary of the selection range.
  • the image selection unit 455 selects a representative image from each in-vivo image included in the selection range for each of a plurality of selection ranges.
  • the image selection unit 455 selects, as a representative image, an in-vivo image that is a boundary of the selection range among the in-vivo images included in the selection range.
  • FIG. 3 is a flowchart showing the operation (image processing method) of the image processing apparatus 4.
  • the recording medium 5 is inserted into the reader / writer 41, the in-vivo image group stored in the recording medium 5 is taken in via the reader / writer 41, and the in-vivo image group is already stored in the memory unit 42. It shall be.
  • the control unit 45 reads all in-vivo images included in the in-vivo image group stored in the memory unit 42 one by one in time-series order (frame number order) (step S1).
  • the region detection unit 451 detects the invalid region in the in-vivo image read in step S1 for each in-vivo image (step S2: region detection step).
  • count (entire image) is the total number of pixels in the in-vivo image.
  • the count (invalid area) is the area of the invalid area detected by the area detection unit 451 (the number of pixels detected as an invalid area).
  • the importance calculation unit 452 calculates the ratio of the number of pixels set as the effective area to the total number of pixels in the in-vivo image as the importance P i . For example, when all the in-vivo images are invalid areas, the importance P i is “0”. When all the in-vivo images are valid areas (when there is no invalid area), the importance P i is “1”. That is, the importance calculation unit 452 sets the importance P i of the in-vivo image to a higher value as the number of pixels detected as an invalid area by the area detection unit 451 is smaller.
  • Step S4 determines whether or not Steps S1 to S3 have been performed for all in-vivo images included in the in-vivo image group stored in the memory unit 42 (Step S4). If it is determined that it has not been performed for all in-vivo images (step S4: No), the control unit 45 returns to step S1 and sequentially calculates importance for the remaining in-vivo images. On the other hand, if it is determined that all in-vivo images have been performed (step S4: Yes), the determination unit 453 determines the importance P i of all in-vivo images included in the in-vivo image group stored in the memory unit 42. Is divided by the number of representative images scheduled to be selected, and the divided value is set as a first threshold value (step S5). Then, the determination unit 453 stores the first threshold value in the memory unit 42.
  • the determination unit 453 integrates importance P i of all in-vivo images included in the in-vivo image group stored in the memory unit 42 in time series order (step S6), and the integrated value is an integer of the first threshold value. It is determined whether or not the number has been exceeded (step S7). Steps S6 and S7 described above correspond to the determination step according to the present invention. If it is determined that the integrated value does not exceed an integer multiple of the first threshold (step S7: No), the determination unit 453 returns to step S6 and continues to integrate the importance P i . On the other hand, when it is determined that the integrated value exceeds an integer multiple of the first threshold (step S7: Yes), the range setting unit 454 finally integrated when the integrated value exceeds an integer multiple of the first threshold. The frame number of the in-vivo image having the importance P i is set as the boundary of the selection range (step S8). Then, the range setting unit 454 stores the frame number set as the boundary in the memory unit 42.
  • the range setting unit 454 determines whether steps S6 to S8 have been performed for all in-vivo images included in the in-vivo image group stored in the memory unit 42 (the largest frame number included in the in-vivo image group). Whether or not the in-vivo image having the importance P i has been integrated is determined (step S9). If it is determined that it has not been performed for all in-vivo images (step S9: No), the process returns to step S6, and the determination unit 453 continues to accumulate the importance P i . On the other hand, if it is determined that the in-vivo image has been applied (step S9: Yes), the image selection unit 455 determines the frame number stored in the memory unit 42 (the frame number set as the boundary in step S8). And the in-vivo image of the frame number is selected as a representative image (step S10).
  • FIG. 4 is a diagram illustrating an example of a representative image selected by the above-described image processing method. Specifically, FIG. 4 illustrates a case where 2,000 representative images are selected from an in-vivo image group including 60,000 in-vivo images, and each in-vivo image included in the in-vivo image group is illustrated. The importance P i (illustrated by a solid line in FIG. 4) and its integrated value (illustrated by a broken line in FIG. 4) are described for the frame number. In FIG. 4, only the range of frame numbers “1” to “50” in which in-vivo images with few invalid areas are arranged is shown, and the other ranges are omitted. In FIG.
  • the representative image to be selected is represented by a black circle.
  • the total sum of importance P i of 60,000 in-vivo images is “10600.00”.
  • the number of representative images scheduled to be selected is “2000”. Therefore, in step S5, “5.3”, which is a value obtained by dividing “10600.00” by “2000”, is set as the first threshold T.
  • step S8 the frame number “1” is set as the boundary of the selection range. That is, in step S10, the in-vivo image with the frame number “1” is selected as the representative image.
  • step S8 the frame number “7” is set as the boundary of the selection range. That is, in step S10, the in-vivo image with the frame number “7” is selected as the representative image. Similarly, in step S10, in-vivo images such as frame numbers “13”, “19”, “26”, “32”, “38”, “45” set as boundaries of the selection range are selected as representative images. Is done.
  • FIG. 5 is a diagram illustrating an example of a representative image selected by the above-described image processing method. Specifically, FIG. 5 shows 2,000 images from an in-vivo image group including 60,000 in-vivo images (an in-vivo image group different from the in-vivo image group illustrated in FIG. 4) as in the example shown in FIG. This is an example of selecting a representative image. For each frame number of each in-vivo image included in the in-vivo image group, the importance P i (shown by a solid line in FIG. 5) and its integrated value (FIG. In FIG. 5, a broken line) is shown. In FIG.
  • step S5 as in the example shown in FIG. 4, “5.3” that is a value obtained by dividing “10600.00” by “2000” is set as the first threshold T.
  • step S8 the frame numbers “1”, “23”, “47”, “67”, and “92” are set as the boundaries of the selection range. That is, in step S10, in-vivo images such as frame numbers “1”, “23”, “47”, “67”, and “92” are selected as representative images.
  • a frame number that is an integrated value that exceeds an integral multiple of the first threshold value T is used as the boundary of the selection range, and the in-vivo images of the frame number of the boundary are selected as representative images.
  • representative images are selected at substantially equal intervals (intervals of frame numbers) as shown in FIG. 4 in a range where in-vivo images with few invalid areas are arranged.
  • representative images are selected at substantially equal intervals, as shown in FIG. As can be seen by comparing FIG. 4 and FIG.
  • the interval between the representative images selected in the range where the in-vivo images with a small number of invalid areas are arranged is the range selected for the range where the in-vivo images with a large number of invalid areas are arranged.
  • the interval is smaller than the interval between the representative images.
  • the image processing apparatus 4 sets a plurality of selection ranges based on the importance P i for each in-vivo image included in the in-vivo image group acquired in time series, A representative image is selected for each selection range.
  • the image processing device 4 calculates, as the importance P i , the ratio of the number of pixels set as the effective area to the total number of pixels in the in-vivo image. Further, when setting the selection range, the image processing device 4 accumulates the importance P i in all in-vivo images in time series, and finally accumulates when the accumulated value exceeds an integer multiple of the first threshold value.
  • the in-vivo image having the importance P i is set as the boundary of the selection range.
  • the image processing device 4 selects the in-vivo image that is the boundary of the selection range as a representative image. Based on the above, the selection range in which in-vivo images with high importance P i (in-vivo images with few invalid areas) are arranged is set narrower than the selection range in which in-vivo images with low importance P i (in-vivo images with many invalid areas) are arranged. (See FIGS. 4 and 5).
  • in-vivo image group when the severity P i high-vivo image and severity P i low-vivo image exists by the same numbers in the range of high-vivo images importance P i are arranged Can relatively increase the number of selection ranges to be set, and can relatively reduce the number of selection ranges to be set in a range where in-vivo images with low importance P i are arranged (see FIGS. 4 and 5). . Therefore, an in-vivo image having a high importance P i can be selected as a representative image from the in-vivo image group, and more in-vivo images including many effective regions useful for observation can be selected as representative images. There is an effect.
  • the first threshold is a value obtained by dividing the sum of the importance levels of all in-vivo images included in the in-vivo image group by the number of representative images scheduled to be selected. For this reason, representative images can be selected from all in-vivo images at a substantially equal interval and in a predetermined number (see FIGS. 4 and 5). Therefore, the user can grasp the contents of the entire in-vivo image group by observing a predetermined number of representative images after the image summarization process.
  • FIG. 6 is a flowchart showing an image processing method according to Embodiment 2 of the present invention.
  • step S10A is added instead of step S10 to the image processing method (FIG. 3) described in the first embodiment.
  • FIG. 6 is a flowchart showing an image processing method according to Embodiment 2 of the present invention.
  • step S10A is added instead of step S10 to the image processing method (FIG. 3) described in the first embodiment.
  • Step S ⁇ b> 10 ⁇ / b> A is executed when it is determined in step S ⁇ b> 9 that all the in-vivo images have been executed (step S ⁇ b> 9: Yes).
  • the image selection unit 455 includes, in step S10A, the selection range for each selection range having the frame number stored in the memory unit 42 (the frame number set as the boundary in step S8) as a boundary.
  • the in-vivo images the in-vivo image having the highest importance is selected as the representative image.
  • FIG. 7 is diagrams illustrating examples of representative images selected by the image processing method according to the second embodiment.
  • the in-vivo image group illustrated in FIG. 7 is the same as the in-vivo image group illustrated in FIG.
  • the in-vivo image group illustrated in FIG. 8 is the same as the in-vivo image group illustrated in FIG. In FIG.
  • step S10A for each selected range, the frame number having the highest importance P i among the in-vivo images included in the selected range.
  • In-vivo images such as “5”, “8”, “18”, “20”, “28”, “37”, “44”, “50” are selected as representative images.
  • the importance P i is the highest among the in-vivo images included in the selected range in step S10A.
  • In-vivo images such as frame numbers “3”, “43”, “52”, “70”, and “95” are selected as representative images.
  • the image processing apparatus 4 selects an in-vivo image having the highest importance among the in-vivo images included in the selection range as a representative image. Therefore, in the first embodiment described above, there is a possibility that the in-vivo image having the smallest effective area is selected as the representative image from the in-vivo images included in the selection range. According to the second embodiment, the selection range is selected. The in-vivo image having the largest effective area can be selected as the representative image from the in-vivo images included in the image.
  • the image processing apparatus 4 acquires the in-vivo image group captured in time series by the capsule endoscope 2 using the recording medium 5 and the reader / writer 41. Not limited to this.
  • the in-vivo image group is stored in advance in a separately installed server.
  • the image processing apparatus 4 is provided with a communication unit that communicates with the server.
  • the image processing apparatus 4 may acquire the in-vivo image group by communicating with the server using the communication unit. That is, the communication unit has a function as an image acquisition unit that acquires image data to be processed from the outside.
  • step S6 to S9 importance P i of all in-vivo images is integrated in time series order, and the integrated value is compared with an integer multiple of the first threshold. It is not limited to this. For example, when the integrated value exceeds the first threshold, the frame number of the in-vivo image having the importance P i that is integrated last when the integrated value is exceeded is set as the boundary of the selection range. In addition, the integrated value is initialized at the set stage. Then, the importance P i is integrated again in time series order, and the integrated value is compared with the first threshold value. Thereafter, the above process is repeated.
  • the calculated importance may be adjusted based on the position of the pixel detected as the invalid area by the area detection unit 451 in the in-vivo image. For example, when the pixel detected as the invalid region is located in a region including the center in the in-vivo image, the observation is affected, and thus the calculated importance is adjusted (changed) to a low value. On the other hand, if the pixel detected as the invalid region is located in the outer edge region separated from the center in the in-vivo image, it does not affect the observation, so the calculated importance is adjusted to a high value ( change. As described above, by adjusting the importance based on the position of the pixel detected as the invalid area, the importance of the in-vivo image can be appropriately set in consideration of the effect of observation.
  • the processing flow is not limited to the processing order in the flowcharts described in the first and second embodiments, and may be changed within a consistent range.
  • the processing algorithm described using the flowcharts in this specification can be described as a program.
  • Such a program may be recorded on a recording unit inside the computer, or may be recorded on a computer-readable recording medium. Recording of the program in the recording unit or recording medium may be performed when the computer or recording medium is shipped as a product, or may be performed by downloading via a communication network.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Endoscopes (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)

Abstract

 画像処理装置4は、時系列で取得された画像群に含まれる画像毎に、当該画像内の観察に適さない領域を検出する領域検出部451と、画像群に含まれる画像毎に、当該画像内の前記観察に適さない領域に基づいて、当該画像の重要度を算出する重要度算出部452と、当該重要度を時系列に演算するとともに、当該演算値が閾値を超えたか否かを判定する判定部453とを備える。

Description

画像処理装置、画像処理方法、及び画像処理プログラム
 本発明は、画像処理装置、画像処理方法、及び画像処理プログラムに関する。
 従来、時系列で取得された複数の画像を含む画像群を取得し、当該画像群から一部の画像を抽出して元の画像群よりも枚数の少ない画像群に要約する画像要約処理を実行する画像抽出装置(画像処理装置)が知られている(例えば、特許文献1参照)。
 特許文献1に記載の画像処理装置では、画像群からシーンが変化する位置の画像を代表画像としてそれぞれ選出し、当該画像群を所定枚数の代表画像に要約する。
 そして、ユーザは、画像要約処理後の画像群に含まれる所定枚数の代表画像を観察することで、短時間で元の画像群全体の内容を把握することができる。
特開2009-5020号公報
 しかしながら、特許文献1に記載の画像要約処理では、代表画像を選出する際の条件をシーンの変化としているため、選出された所定枚数の代表画像の中に、観察に有用な有効領域以外の無効領域を多く含む画像が含まれてしまう虞がある、という問題がある。
 例えば、被検体内に導入され、当該被検体内を撮像するカプセル型内視鏡にて撮像された体内画像群に対して当該画像要約処理を実行した場合には、選出された所定枚数の代表画像の中に、当該被検体内の粘膜等の観察に有用な有効領域ではなく、泡や残渣等の観察に不要な無効領域を多く含む体内画像が含まれてしまう虞がある。
 本発明は、上記に鑑みてなされたものであって、観察に有用な有効領域を多く含む画像を代表画像としてより多く選出することができる画像処理装置、画像処理方法、及び画像処理プログラムを提供することにある。
 上述した課題を解決し、目的を達成するために、本発明に係る画像処理装置は、時系列で取得された画像群に含まれる画像毎に、当該画像内の観察に適さない領域を検出する領域検出部と、前記画像群に含まれる画像毎に、当該画像内の前記観察に適さない領域に基づいて、当該画像の重要度を算出する重要度算出部と、前記重要度を時系列的に演算するとともに、当該演算値が閾値を超えたか否かを判定する判定部とを備えることを特徴とする。
 また、本発明に係る画像処理装置は、上記発明において、前記判定部にて前記演算値が前記閾値を超えたと判断された場合に、当該演算値が前記閾値を超えた際に最後に演算した前記重要度を有する前記画像を、当該画像群を複数の選出範囲に区分する境界として設定する範囲設定部をさらに備えることを特徴とする。
 また、本発明に係る画像処理装置は、上記発明において、前記複数の選出範囲毎に、当該選出範囲に含まれる前記複数の画像から代表画像を選出する画像選出部をさらに備えることを特徴とする。
 また、本発明に係る画像処理装置は、上記発明において、前記観察に適さない領域は、観察に有用な有効領域以外の無効領域であることを特徴とする。
 また、本発明に係る画像処理装置は、上記発明において、前記領域検出部は、画素単位で前記観察に適さない領域を検出し、前記重要度算出部は、前記観察に適さない領域として検出された画素の数に基づいて、前記重要度を算出することを特徴とする。
 また、本発明に係る画像処理装置は、上記発明において、前記重要度算出部は、前記観察に適さない領域として検出された画素の数が少ないほど、値の高い前記重要度を算出することを特徴とする。
 また、本発明に係る画像処理装置は、上記発明において、前記重要度算出部は、前記画像内での前記観察に適さない領域として検出された画素の位置に基づいて、算出した前記重要度を調整することを特徴とする。
 また、本発明に係る画像処理装置は、上記発明において、前記判定部の演算は、前記画像毎に算出した前記重要度の時系列順の積算であることを特徴とする。
 また、本発明に係る画像処理装置は、上記発明において、前記画像選出部は、前記選出範囲の境界とされた前記画像を前記代表画像として選出することを特徴とする。
 また、本発明に係る画像処理装置は、上記発明において、前記画像選出部は、前記選出範囲に含まれる各前記画像のうち、前記重要度が最も高い画像を前記代表画像として選出することを特徴とする。
 また、本発明に係る画像処理装置は、上記発明において、前記閾値は、前記画像群に含まれる全ての前記画像における前記重要度の総和を、選出を予定する前記代表画像の数で除した値であることを特徴とする。
 また、本発明に係る画像処理方法は、画像処理装置が行う画像処理方法において、時系列で取得された画像群に含まれる画像毎に、当該画像内の観察に適さない領域を検出する領域検出ステップと、前記画像群に含まれる画像毎に、当該画像内の前記観察に適さない領域に基づいて、当該画像の重要度を算出する重要度算出ステップと、前記重要度を時系列に演算するとともに、当該演算値が閾値を超えるか否かを判定する判定ステップとを含むことを特徴とする。
 また、本発明に係る画像処理プログラムは、上述した画像処理方法を画像処理装置に実行させることを特徴とする。
 本発明に係る画像処理装置、画像処理方法、及び画像処理プログラムによれば、観察に有用な有効領域を多く含む画像を代表画像としてより多く選出することができる、という効果を奏する。
図1は、本発明の実施の形態1に係る内視鏡システムを示す模式図である。 図2は、図1に示した画像処理装置を示すブロック図である。 図3は、図2に示した画像処理装置の動作(画像処理方法)を示すフローチャートである。 図4は、図3に示した画像処理方法により選出される代表画像の一例を示す図である。 図5は、図3に示した画像処理方法により選出される代表画像の一例を示す図である。 図6は、本発明の実施の形態2に係る画像処理方法を示すフローチャートである。 図7は、図6に示した画像処理方法により選出される代表画像の一例を示す図である。 図8は、図6に示した画像処理方法により選出される代表画像の一例を示す図である。
 以下、図面を参照して、本発明に係る画像処理装置、画像処理方法、及び画像処理プログラムの好適な実施の形態を詳細に説明する。なお、この実施の形態によって本発明が限定されるものではない。
(実施の形態1)
 〔内視鏡システムの概略構成〕
 図1は、本発明の実施の形態1に係る内視鏡システム1を示す模式図である。
 内視鏡システム1は、飲み込み型のカプセル型内視鏡2を用いて、被検体100内部の体内画像を取得し、当該体内画像を医師等に観察させるシステムである。
 この内視鏡システム1は、図1に示すように、カプセル型内視鏡2の他、受信装置3と、画像処理装置4と、可搬型の記録媒体5とを備える。
 記録媒体5は、受信装置3と画像処理装置4との間におけるデータの受け渡しを行うための可搬型の記録メディアであり、受信装置3及び画像処理装置4に対してそれぞれ着脱可能に構成されている。
 カプセル型内視鏡2は、被検体100の臓器内部に導入可能な大きさに形成されたカプセル型の内視鏡装置であり、経口摂取等によって被検体100の臓器内部に導入され、蠕動運動等によって臓器内部を移動しつつ、体内画像を順次、撮像する。そして、カプセル型内視鏡2は、撮像することにより生成した画像データを順次、送信する。
 受信装置3は、複数の受信アンテナ3a~3hを備え、これら複数の受信アンテナ3a~3hのうち少なくとも一つを介して被検体100内部のカプセル型内視鏡2からの画像データを受信する。そして、受信装置3は、当該受信装置3に挿着された記録媒体5内に、受信した画像データを蓄積する。
 なお、受信アンテナ3a~3hは、図1に示したように被検体100の体表上に配置されていてもよいし、被検体100に着用させるジャケットに配置されていてもよい。また、受信装置3が備える受信アンテナ数は、1つ以上であればよく、特に8つに限定されない。
 〔画像処理装置の構成〕
 図2は、画像処理装置4を示すブロック図である。
 画像処理装置4は、被検体100内の画像データを取得し、取得した画像データに対応する画像を表示するワークステーションとして構成されている。
 この画像処理装置4は、図2に示すように、リーダライタ41と、メモリ部42と、入力部43と、表示部44と、制御部45とを備える。
 リーダライタ41は、外部から処理対象となる画像データを取得する画像取得部としての機能を有する。
 具体的に、リーダライタ41は、当該リーダライタ41に記録媒体5が挿着された際に、制御部45による制御の下、記録媒体5に保存された画像データ(カプセル型内視鏡2により時系列で撮像(取得)された複数の体内画像を含む体内画像群)を取り込む。また、リーダライタ41は、取り込んだ体内画像群を制御部45に転送する。そして、制御部45に転送された体内画像群は、メモリ部42に記憶される。
 メモリ部42は、制御部45から転送された体内画像群を記憶する。また、メモリ部42は、制御部45が実行する各種プログラム(画像処理プログラムを含む)や制御部45の処理に必要な情報等を記憶する。
 入力部43は、キーボード及びマウス等を用いて構成され、ユーザ操作を受け付ける。
 表示部44は、液晶ディスプレイ等を用いて構成され、制御部45による制御の下、体内画像を含む表示画面(例えば、後述する画像要約処理により選出された所定枚数の代表画像を含む表示画面等)を表示する。
 制御部45は、CPU(Central Processing Unit)等を用いて構成され、メモリ部42に記憶されたプログラム(画像処理プログラムを含む)を読み出し、当該プログラムに従って画像処理装置4全体の動作を制御する。
 なお、以下では、制御部45の機能として、本発明の要部である「画像要約処理」を実行する機能を主に説明する。
 この制御部45は、図2に示すように、領域検出部451と、重要度算出部452と、判定部453と、範囲設定部454と、画像選出部455とを備える。
 領域検出部451は、メモリ部42に記憶された体内画像群に含まれる体内画像毎に、画素単位で、当該体内画像内の観察に有用な有効領域以外の無効領域(観察に適さない領域)を検出する。
 具体的に、領域検出部451は、体内画像から取得可能な色情報、周波数情報、形状情報等を示す特徴量と第2閾値とを比較し、当該比較結果に基づいて、当該体内画像内の観察に有用な有効領域以外の無効領域を検出する。
 ここで、有効領域とは、生体表面の粘膜、血管、及び血液が映った領域を意味する。一方、無効領域とは、有効領域以外の領域であり、残渣や泡が映った領域、管腔の深部が映った領域(暗部)、被写体の表面から鏡面反射されたハレーション領域(明部)、カプセル型内視鏡2と受信装置3との間における通信状態の不良によりノイズとなった領域等を意味する。
 なお、上記のような無効領域の検出方法としては、公知の種々の方法を採用することができる(例えば、特開2007-313119号公報、特開2011-234931号公報、特開2010-115413号公報、特開2012-16454号公報等)。
 重要度算出部452は、メモリ部42に記憶された体内画像群に含まれる体内画像毎に、当該体内画像内における領域検出部451にて検出された無効領域に基づいて、当該体内画像の重要度を算出する。
 具体的に、重要度算出部452は、体内画像内の無効領域の面積(領域検出部451にて無効領域として検出された画素の数)に基づいて、当該体内画像の重要度を算出する。ここで、重要度算出部452は、領域検出部451にて無効領域として検出された画素の数が少ないほど、当該体内画像の重要度を高い値とする。
 判定部453は、重要度算出部452にて算出された各体内画像の重要度を時系列に演算するとともに、当該演算値が第1閾値(本発明に係る閾値に相当)を超えたか否かを判定する。
 具体的に、判定部453は、体内画像群に含まれる全ての体内画像の重要度の総和を、選出を予定する代表画像の数で除し、当該除した値を第1閾値とする。そして、判定部453は、全ての体内画像における重要度を時系列順に積算するとともに、当該積算値と上記第1閾値とを比較し、積算値が上記第1閾値を超えたか否かを判定する。
 なお、重要度の時系列の演算は、積算に限られずその他の演算方法でもよく、また、上記第1閾値も重要度の算出方法に応じた算術式で算出すればよい。
 範囲設定部454は、判定部453の判定結果に基づいて、時系列順に連続する各体内画像をそれぞれ含み、当該体内画像群に含まれる全ての体内画像を複数のグループにそれぞれ区分する複数の選出範囲を設定する。
 具体的に、範囲設定部454は、判定部453にて積算値が第1閾値を超えたと判断したときの体内画像のフレーム番号を、選出範囲の境界として設定する。
 画像選出部455は、複数の選出範囲毎に、当該選出範囲に含まれる各体内画像から代表画像を選出する。
 なお、本実施の形態1では、画像選出部455は、選出範囲に含まれる各体内画像のうち、当該選出範囲の境界とされた体内画像を代表画像として選出する。
 〔画像処理装置の動作〕
 次に、上述した画像処理装置4の動作(画像処理方法)について説明する。
 図3は、画像処理装置4の動作(画像処理方法)を示すフローチャートである。
 なお、以下では、リーダライタ41に記録媒体5が挿着され、記録媒体5に保存された体内画像群がリーダライタ41を介して取り込まれ、当該体内画像群がメモリ部42に既に記憶されているものとする。
 先ず、制御部45は、メモリ部42に記憶された体内画像群に含まれる全ての体内画像を時系列順(フレーム番号順)に一枚ずつ読み出す(ステップS1)。
 次に、領域検出部451は、ステップS1で読み出された体内画像内の無効領域を体内画像毎に検出する(ステップS2:領域検出ステップ)。
 次に、重要度算出部452は、ステップS2で検出された体内画像内の無効領域に基づいて、以下の式(1)により、当該体内画像の重要度Pi(i=フレーム番号)を体内画像毎に算出する(ステップS3:重要度算出ステップ)。そして、重要度算出部452は、算出した重要度Piを対応するフレーム番号の体内画像に関連付けてメモリ部42に記憶する。
 なお、式(1)において、count(画像全体)は、体内画像の全画素数である。count(無効領域)は、領域検出部451にて検出された無効領域の面積(無効領域として検出された画素の数)である。
Figure JPOXMLDOC01-appb-M000001
 式(1)から分かるように、重要度算出部452は、体内画像の全画素数に対する有効領域とされた画素の数の割合を重要度Piとして算出する。例えば、体内画像が全て無効領域である場合には、重要度Piは、「0」となる。また、体内画像が全て有効領域である場合(無効領域がない場合)には、重要度Piは、「1」となる。すなわち、重要度算出部452は、領域検出部451にて無効領域として検出された画素の数が少ないほど、当該体内画像の重要度Piを高い値とする。
 次に、制御部45は、メモリ部42に記憶された体内画像群に含まれる全ての体内画像について、ステップS1~S3を実施したか否かを判断する(ステップS4)。
 全ての体内画像で実施していないと判断した場合(ステップS4:No)には、制御部45は、ステップS1に戻り、残りの体内画像について、重要度を順次、算出する。
 一方、全ての体内画像で実施したと判断された場合(ステップS4:Yes)には、判定部453は、メモリ部42に記憶された体内画像群に含まれる全ての体内画像の重要度Piの総和を、選出を予定する代表画像の数で除し、当該除した値を第1閾値とする(ステップS5)。そして、判定部453は、当該第1閾値をメモリ部42に記憶する。
 次に、判定部453は、メモリ部42に記憶された体内画像群に含まれる全ての体内画像の重要度Piを時系列順に積算し(ステップS6)、当該積算値が第1閾値の整数倍を超えたか否かを判断する(ステップS7)。
 以上説明したステップS6,S7は、本発明に係る判定ステップに相当する。
 積算値が第1閾値の整数倍を超えていないと判断した場合(ステップS7:No)には、判定部453は、ステップS6に戻り、重要度Piの積算を継続する。
 一方、積算値が第1閾値の整数倍を超えたと判断した場合(ステップS7:Yes)には、範囲設定部454は、積算値が第1閾値の整数倍を超えた際に最後に積算した重要度Piを有する体内画像のフレーム番号を選出範囲の境界として設定する(ステップS8)。そして、範囲設定部454は、境界として設定したフレーム番号をメモリ部42に記憶する。
 次に、範囲設定部454は、メモリ部42に記憶された体内画像群に含まれる全ての体内画像について、ステップS6~S8を実施したか否か(当該体内画像群に含まれる最も大きいフレーム番号を有する体内画像の重要度Piまで積算したか否か)を判断する(ステップS9)。
 全ての体内画像で実施していないと判断した場合(ステップS9:No)には、ステップS6に戻り、判定部453は、重要度Piの積算を継続する。
 一方、全ての体内画像で実施したと判断された場合(ステップS9:Yes)には、画像選出部455は、メモリ部42に記憶されたフレーム番号(ステップS8で境界として設定されたフレーム番号)を読み出し、当該フレーム番号の体内画像を代表画像として選出する(ステップS10)。
 〔選出される代表画像の具体例〕
 次に、上述した画像処理方法により選出される代表画像の具体例について説明する。
 なお、以下では、説明の便宜上、無効領域の少ない体内画像(重要度Piが「0.6」以上の体内画像)が並ぶ範囲(区間)と、無効領域の多い体内画像(重要度Piが「0.6」未満の体内画像)が並ぶ範囲(区間)とを順に説明する。
 〔無効領域の少ない体内画像が並ぶ範囲〕
 図4は、上述した画像処理方法により選出される代表画像の一例を示す図である。具体的に、図4は、6万枚の体内画像を含む体内画像群から2千枚の代表画像を選出する場合を例示したものであって、当該体内画像群に含まれる各体内画像の各フレーム番号に対して、重要度Pi(図4では実線で図示)及びその積算値(図4では破線で図示)を記載している。また、図4では、無効領域の少ない体内画像が並ぶフレーム番号「1」~「50」の範囲のみを図示し、その他の範囲については省略している。なお、図4では、選出される代表画像を黒丸で表現している。
 図4に示した例では、6万枚の体内画像の重要度Piの総和は、「10600.00」である。そして、選出を予定する代表画像の数は、「2000」である。このため、ステップS5では、「10600.00」を「2000」で除した値である「5.3」が第1閾値Tとして設定される。
 フレーム番号「1」の重要度がいずれの値であっても、第1閾値Tの0倍である「0」を超えたものとなる。このため、ステップS8では、フレーム番号「1」が選出範囲の境界として設定される。すなわち、ステップS10では、フレーム番号「1」の体内画像が代表画像として選出される。
 フレーム番号「7」の時点での積算値(フレーム番号「1」~「7」の重要度Piの積算値)は、「5.57」であり、第1閾値Tの1倍である「5.3」を超えたものとなる。このため、ステップS8では、フレーム番号「7」が選出範囲の境界として設定される。すなわち、ステップS10では、フレーム番号「7」の体内画像が代表画像として選出される。
 同様にして、ステップS10では、選出範囲の境界として設定されたフレーム番号「13」、「19」、「26」、「32」、「38」、「45」等の体内画像が代表画像として選出される。
 〔無効領域の多い体内画像が並ぶ範囲〕
 図5は、上述した画像処理方法により選出される代表画像の一例を示す図である。具体的に、図5は、図4に示した例と同様に、6万枚の体内画像を含む体内画像群(図4で例示した体内画像群とは異なる体内画像群)から2千枚の代表画像を選出する場合を例示したものであって、当該体内画像群に含まれる各体内画像の各フレーム番号に対して、重要度Pi(図5では実線で図示)及びその積算値(図5では破線で図示)を記載している。また、図5では、無効領域の多い体内画像が並ぶフレーム番号「1」~「100」の範囲のみを図示し、その他の範囲については省略している。なお、図5では、選出される代表画像を黒丸で表現している。
 図5に示した例では、図4に示した例と同様に、6万枚の体内画像の重要度Piの総和は「10600.00」であり、選出を予定する代表画像の数は「2000」である。このため、ステップS5では、図4に示した例と同様に、「10600.00」を「2000」で除した値である「5.3」が第1閾値Tとして設定される。
 フレーム番号「1」、「23」、「47」、「67」、「92」の各時点での積算値は、第1閾値Tの整数倍を超えたものとなる。このため、ステップS8では、当該フレーム番号「1」、「23」、「47」、「67」、「92」が選出範囲の境界として設定される。すなわち、ステップS10では、フレーム番号「1」、「23」、「47」、「67」、「92」等の体内画像が代表画像として選出される。
 以上のように本実施の形態1では、第1閾値Tの整数倍を超えた積算値となるフレーム番号を選出範囲の境界とし、当該境界のフレーム番号の体内画像をそれぞれ代表画像として選出する。
 そして、このように選出することにより、無効領域の少ない体内画像が並ぶ範囲では、代表画像は、図4に示すように、略均等な間隔(フレーム番号の間隔)で選出されることとなる。無効領域の多い体内画像が並ぶ範囲でも同様に、代表画像は、図5に示すように、略均等な間隔で選出されることとなる。なお、図4と図5とを比較して分かるように、無効領域の少ない体内画像が並ぶ範囲で選出される各代表画像の間隔は、無効領域の多い体内画像が並ぶ範囲で選出される各代表画像の間隔よりも狭いものである。
 以上説明した本実施の形態1に係る画像処理装置4は、時系列で取得された体内画像群に含まれる体内画像毎の重要度Piに基づいて、複数の選出範囲を設定し、当該複数の選出範囲毎に代表画像を選出する。
 特に、画像処理装置4は、体内画像の全画素数に対する有効領域とされた画素の数の割合を重要度Piとして算出する。また、画像処理装置4は、選出範囲を設定する際、全ての体内画像における重要度Piを時系列順に積算し、当該積算値が第1閾値の整数倍を超えた際に最後に積算した重要度Piを有する体内画像を選出範囲の境界とする。そして、画像処理装置4は、当該選出範囲の境界とした体内画像を代表画像として選出する。
 以上のことから、重要度Piの高い体内画像(無効領域が少ない体内画像)が並ぶ選出範囲を重要度Piの低い体内画像(無効領域が多い体内画像)が並ぶ選出範囲よりも狭く設定することができる(図4、図5参照)。すなわち、例えば、体内画像群において、重要度Piの高い体内画像と重要度Piの低い体内画像とが同一の数だけ存在する場合には、重要度Piの高い体内画像が並ぶ範囲には設定する選出範囲の数を比較的に多くし、重要度Piの低い体内画像が並ぶ範囲には設定する選出範囲の数を比較的に少なくすることができる(図4、図5参照)。
 したがって、体内画像群から重要度Piの高い体内画像を重点的に代表画像として選出することができ、観察に有用な有効領域を多く含む体内画像を代表画像としてより多く選出することができる、という効果を奏する。
 また、第1閾値は、体内画像群に含まれる全ての体内画像における重要度の総和を、選出を予定する代表画像の数で除した値である。このため、全ての体内画像から、略均等な間隔で、かつ、予定した数だけ、代表画像を選出することができる(図4、図5参照)。
 したがって、ユーザは、画像要約処理後の所定枚数の代表画像を観察することで、体内画像群全体の内容を把握することができる。
(実施の形態2)
 次に、本発明の実施の形態2について説明する。
 以下の説明では、上述した実施の形態1と同様の構成及びステップには同一符号を付し、その詳細な説明は省略または簡略化する。
 上述した実施の形態1では、選出範囲の境界となるフレーム番号の体内画像を代表画像として選出していた。
 これに対して本実施の形態2では、選出範囲に含まれる各体内画像のうち、重要度が最も高い体内画像を代表画像として選出する。
 そして、本実施の形態1に係る画像処理装置の構成は、上述した実施の形態1で説明した画像処理装置1と同様の構成である。
 以下では、本実施の形態2に係る画像処理方法のみを説明する。
 〔画像処理方法〕
 図6は、本発明の実施の形態2に係る画像処理方法を示すフローチャートである。
 本実施の形態2に係る画像処理方法は、図6に示すように、上述した実施の形態1で説明した画像処理方法(図3)に対して、ステップS10の代わりにステップS10Aを追加した点が異なるのみである。このため、以下では、ステップS10Aのみを説明する。
 ステップS10Aは、ステップS9で全ての体内画像で実施したと判断された場合(ステップS9:Yes)に実行される。
 具体的に、画像選出部455は、ステップS10Aにおいて、メモリ部42に記憶されたフレーム番号(ステップS8で境界として設定されたフレーム番号)を境界とする各選出範囲毎に、当該選出範囲に含まれる各体内画像のうち、重要度が最も高い体内画像を代表画像として選出する。
 〔選出される代表画像の具体例〕
 次に、本実施の形態2に係る画像処理方法により選出される代表画像の具体例について説明する。
 以下では、上述した実施の形態1との差異を明確にするために、図4で例示した体内画像群、図5で例示した体内画像群とそれぞれ同一の体内画像群を利用して、本実施の形態2に係る画像処理方法により選出される代表画像の具体例を説明する。
 図7及び図8は、本実施の形態2に係る画像処理方法により選出される代表画像の一例を示す図である。具体的に、図7で例示した体内画像群は、図4で例示した体内画像群と同一である。図8で例示した体内画像群は、図5で例示した体内画像群と同一である。なお、図7及び図8では、重要度Piの積算値の図示を省略し、重要度Piのみを図示している。また、図7及び図8では、選出範囲の境界(図7の例では、フレーム番号「7」、「13」、「19」、「26」、「32」、「38」、「45」、図8の例では、フレーム番号「23」、「47」、「67」、「92」)を破線で図示し、選出される代表画像を黒丸で表現している。
 「無効領域の少ない体内画像が並ぶ範囲」では、図7に示すように、ステップS10Aにおいて、選出範囲毎に、当該選出範囲に含まれる各体内画像のうち、重要度Piが最も高いフレーム番号「5」、「8」、「18」、「20」、「28」、「37」、「44」、「50」等の体内画像が代表画像としてそれぞれ選出される。
 「無効領域の多い体内画像が並ぶ範囲」でも同様に、図8に示すように、ステップS10Aにおいて、選出範囲毎に、当該選出範囲に含まれる各体内画像のうち、重要度Piが最も高いフレーム番号「3」、「43」、「52」、「70」、「95」等の体内画像が代表画像としてそれぞれ選出される。
 以上説明した本実施の形態2によれば、上述した実施の形態1と同様の効果の他、以下の効果がある。
 本実施の形態2に係る画像処理装置4は、選出範囲に含まれる各体内画像のうち、重要度が最も高い体内画像を代表画像として選出する。
 したがって、上述した実施の形態1では選出範囲に含まれる各体内画像から最も有効領域の少ない体内画像を代表画像として選出してしまう虞があったところ、本実施の形態2によれば、選出範囲に含まれる各体内画像から最も有効領域の多い体内画像を代表画像として選出することができる、という効果を奏する。
(その他の実施形態)
 ここまで、本発明を実施するための形態を説明してきたが、本発明は上述した実施の形態1,2によってのみ限定されるべきものではない。
 上述した実施の形態1,2では、カプセル型内視鏡2にて撮像された体内画像群に対して画像要約処理を実行していたが、これに限られず、時系列に取得された画像群であれば、その他の画像群に対して画像要約処理を実行するように構成しても構わない。
 上述した実施の形態1,2では、画像処理装置4は、カプセル型内視鏡2にて時系列で撮像された体内画像群を、記録媒体5及びリーダライタ41を用いて取得していたが、これに限られない。
 例えば、別途、設置したサーバに体内画像群を予め保存しておく。また、画像処理装置4にサーバと通信を行う通信部を設ける。そして、通信部によりサーバと通信を行うことで画像処理装置4が体内画像群を取得する構成としても構わない。
 すなわち、当該通信部は、外部から処理対象とする画像データを取得する画像取得部としての機能を有する。
 上述した実施の形態1,2では、ステップS6~S9において、全ての体内画像の重要度Piを時系列順に積算し、当該積算値と第1閾値の整数倍とを比較していたが、これに限られない。
 例えば、積算値が第1閾値を超えた場合に、当該超えた際に最後に積算した重要度Piを有する体内画像のフレーム番号を選出範囲の境界として設定する。また、当該設定した段階で、積算値を初期化する。そして、改めて時系列順に重要度Piを積算し、当該積算値を第1閾値とを比較する。以降、上記の処理を繰り返す。
 上述した実施の形態1,2において、体内画像内における領域検出部451にて無効領域として検出された画素の位置に基づいて、算出した重要度を調整しても構わない。
 例えば、無効領域として検出された画素が体内画像内での中心を含む領域に位置している場合には、観察に影響を与えることから、算出した重要度を低い値に調整(変更)する。一方、無効領域として検出された画素が体内画像内での中心から離間した外縁の領域に位置している場合には、観察に影響を与えないことから、算出した重要度を高い値に調整(変更)する。
 以上のように、無効領域として検出された画素の位置に基づいて重要度を調整することで、観察する際の影響を考慮して、体内画像の重要度を適切に設定することができる。
 上述した実施の形態1,2において、無効領域を検出する際に用いる特徴量が第2閾値ぎりぎりの値の場合には、当該検出を誤ってしまう可能性が高い。このため、確実に無効領域として検出することができるように、第2閾値を適宜、調整しても構わない。
 また、処理フローは、上述した実施の形態1,2で説明したフローチャートにおける処理の順序に限られず、矛盾のない範囲で変更しても構わない。
 さらに、本明細書においてフローチャートを用いて説明した処理のアルゴリズムは、プログラムとして記述することが可能である。このようなプログラムは、コンピュータ内部の記録部に記録してもよいし、コンピュータ読み取り可能な記録媒体に記録してもよい。プログラムの記録部または記録媒体への記録は、コンピュータまたは記録媒体を製品として出荷する際に行ってもよいし、通信ネットワークを介したダウンロードにより行ってもよい。
 1 内視鏡システム
 2 カプセル型内視鏡
 3 受信装置
 3a~3h 受信アンテナ
 4 画像処理装置
 5 記録媒体
 41 リーダライタ
 42 メモリ部
 43 入力部
 44 表示部
 45 制御部
 100 被検体
 451 領域検出部
 452 重要度算出部
 453 判定部
 454 範囲設定部
 455 画像選出部

Claims (13)

  1.  時系列で取得された画像群に含まれる画像毎に、当該画像内の観察に適さない領域を検出する領域検出部と、
     前記画像群に含まれる画像毎に、当該画像内の前記観察に適さない領域に基づいて、当該画像の重要度を算出する重要度算出部と、
     前記重要度を時系列に演算するとともに、当該演算値が閾値を超えたか否かを判定する判定部とを備える
     ことを特徴とする画像処理装置。
  2.  前記判定部にて前記演算値が前記閾値を超えたと判断された場合に、当該演算値が前記閾値を超えた際に最後に演算した前記重要度を有する前記画像を、当該画像群を複数の選出範囲に区分する境界として設定する範囲設定部をさらに備える
     ことを特徴とする請求項1に記載の画像処理装置。
  3.  前記複数の選出範囲毎に、当該選出範囲に含まれる前記複数の画像から代表画像を選出する画像選出部をさらに備える
     ことを特徴とする請求項2に記載の画像処理装置。
  4.  前記観察に適さない領域は、観察に有用な有効領域以外の無効領域である
     ことを特徴とする請求項1に記載の画像処理装置。
  5.  前記領域検出部は、画素単位で前記観察に適さない領域を検出し、
     前記重要度算出部は、
     前記観察に適さない領域として検出された画素の数に基づいて、前記重要度を算出する
     ことを特徴とする請求項1に記載の画像処理装置。
  6.  前記重要度算出部は、
     前記観察に適さない領域として検出された画素の数が少ないほど、値の高い前記重要度を算出する
     ことを特徴とする請求項5に記載の画像処理装置。
  7.  前記重要度算出部は、
     前記画像内での前記観察に適さない領域として検出された画素の位置に基づいて、算出した前記重要度を調整する
     ことを特徴とする請求項5または6に記載の画像処理装置。
  8.  前記判定部の演算は、
     前記画像毎に算出した前記重要度の時系列順の積算である
     ことを特徴とする請求項1に記載の画像処理装置。
  9.  前記画像選出部は、
     前記選出範囲の境界とされた前記画像を前記代表画像として選出する
     ことを特徴とする請求項3に記載の画像処理装置。
  10.  前記画像選出部は、
     前記選出範囲に含まれる各前記画像のうち、前記重要度が最も高い画像を前記代表画像として選出する
     ことを特徴とする請求項3に記載の画像処理装置。
  11.  前記閾値は、
     前記画像群に含まれる全ての前記画像における前記重要度の総和を、選出を予定する前記代表画像の数で除した値である
     ことを特徴とする請求項3に記載の画像処理装置。
  12.  画像処理装置が行う画像処理方法において、
     時系列で取得された画像群に含まれる画像毎に、当該画像内の観察に適さない領域を検出する領域検出ステップと、
     前記画像群に含まれる画像毎に、当該画像内の前記観察に適さない領域に基づいて、当該画像の重要度を算出する重要度算出ステップと、
     前記重要度を時系列に演算するとともに、当該演算値が閾値を超えるか否かを判定する判定ステップとを含む
     ことを特徴とする画像処理方法。
  13.  請求項12に記載の画像処理方法を画像処理装置に実行させる
     ことを特徴とする画像処理プログラム。
PCT/JP2015/062844 2014-09-29 2015-04-28 画像処理装置、画像処理方法、及び画像処理プログラム WO2016051840A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016502555A JP5937286B1 (ja) 2014-09-29 2015-04-28 画像処理装置、画像処理方法、及び画像処理プログラム
US15/268,547 US20170004626A1 (en) 2014-09-29 2016-09-17 Image processing device, image processing method, and computer-readable recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-199084 2014-09-29
JP2014199084 2014-09-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/268,547 Continuation US20170004626A1 (en) 2014-09-29 2016-09-17 Image processing device, image processing method, and computer-readable recording medium

Publications (1)

Publication Number Publication Date
WO2016051840A1 true WO2016051840A1 (ja) 2016-04-07

Family

ID=55629897

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/062844 WO2016051840A1 (ja) 2014-09-29 2015-04-28 画像処理装置、画像処理方法、及び画像処理プログラム

Country Status (3)

Country Link
US (1) US20170004626A1 (ja)
JP (1) JP5937286B1 (ja)
WO (1) WO2016051840A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170098079A (ko) * 2016-02-19 2017-08-29 삼성전자주식회사 전자 장치 및 전자 장치에서의 비디오 녹화 방법

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007313119A (ja) * 2006-05-26 2007-12-06 Olympus Corp 画像処理装置及び画像処理プログラム
WO2008041401A1 (fr) * 2006-10-02 2008-04-10 Olympus Corporation Dispositif, procédé et programme de traitement d'image
JP2009005020A (ja) * 2007-06-20 2009-01-08 Olympus Corp 画像抽出装置および画像抽出プログラム
JP2010113616A (ja) * 2008-11-07 2010-05-20 Olympus Corp 画像処理装置、画像処理プログラムおよび画像処理方法
JP2010115413A (ja) * 2008-11-14 2010-05-27 Olympus Corp 画像処理装置、画像処理プログラムおよび画像処理方法
JP2013030105A (ja) * 2011-07-29 2013-02-07 Olympus Corp 画像処理装置、画像処理方法、及び画像処理プログラム
JP2014079562A (ja) * 2012-09-27 2014-05-08 Olympus Corp 画像処理装置、プログラム及び画像処理方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007313119A (ja) * 2006-05-26 2007-12-06 Olympus Corp 画像処理装置及び画像処理プログラム
WO2008041401A1 (fr) * 2006-10-02 2008-04-10 Olympus Corporation Dispositif, procédé et programme de traitement d'image
JP2009005020A (ja) * 2007-06-20 2009-01-08 Olympus Corp 画像抽出装置および画像抽出プログラム
JP2010113616A (ja) * 2008-11-07 2010-05-20 Olympus Corp 画像処理装置、画像処理プログラムおよび画像処理方法
JP2010115413A (ja) * 2008-11-14 2010-05-27 Olympus Corp 画像処理装置、画像処理プログラムおよび画像処理方法
JP2013030105A (ja) * 2011-07-29 2013-02-07 Olympus Corp 画像処理装置、画像処理方法、及び画像処理プログラム
JP2014079562A (ja) * 2012-09-27 2014-05-08 Olympus Corp 画像処理装置、プログラム及び画像処理方法

Also Published As

Publication number Publication date
JPWO2016051840A1 (ja) 2017-04-27
JP5937286B1 (ja) 2016-06-22
US20170004626A1 (en) 2017-01-05

Similar Documents

Publication Publication Date Title
EP2727514B1 (en) Image processing device
US20190069757A1 (en) Endoscopic image processing apparatus
US8502861B2 (en) Image display apparatus
Figueiredo et al. Automated lesion detectors in retinal fundus images
EP2047791B1 (en) Medical image processing apparatus and medical image processing method
WO2009087816A1 (ja) シーン変化検出装置およびシーン変化検出プログラム
JP5005032B2 (ja) 画像表示装置および画像表示プログラム
EP2962624A1 (en) Image processing device, image processing method and image processing program
US20080068454A1 (en) Image display apparatus
JP5931418B2 (ja) 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム
WO2007105517A1 (ja) 画像解析装置
CN112446880B (zh) 图像处理方法、电子设备及可读存储介质
JP5078486B2 (ja) 医療用画像処理装置及び医療用画像処理装置の作動方法
EP2360641A1 (en) Image processing method and image processing device
JP2011024628A (ja) 画像処理装置、画像処理プログラムおよび画像処理方法
US20050069184A1 (en) Medical image processing apparatus
WO2016208016A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP4124406B2 (ja) 異常陰影検出装置
JP5937286B1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP4464894B2 (ja) 画像表示装置
JP6838644B2 (ja) 画像診断装置、画像診断方法、及びプログラム
JP7100505B2 (ja) 画像処理装置、画像処理装置の作動方法、及び画像処理装置の作動プログラム
JP7143794B2 (ja) 画像処理装置、画像処理システム及びプログラム
WO2016056408A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2008093213A (ja) 医療用画像処理装置及び医療用画像処理方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2016502555

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15845714

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15845714

Country of ref document: EP

Kind code of ref document: A1