JP2010115260A - Image processing apparatus, image processing program, and image processing method - Google Patents

Image processing apparatus, image processing program, and image processing method Download PDF

Info

Publication number
JP2010115260A
JP2010115260A JP2008289016A JP2008289016A JP2010115260A JP 2010115260 A JP2010115260 A JP 2010115260A JP 2008289016 A JP2008289016 A JP 2008289016A JP 2008289016 A JP2008289016 A JP 2008289016A JP 2010115260 A JP2010115260 A JP 2010115260A
Authority
JP
Japan
Prior art keywords
region
feature amount
luminance
bubble
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008289016A
Other languages
Japanese (ja)
Inventor
Takashi Kono
隆志 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2008289016A priority Critical patent/JP2010115260A/en
Publication of JP2010115260A publication Critical patent/JP2010115260A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus, an image processing program, and an image processing method by which a foam region can be detected at a good precision regardless of the shape of the foam. <P>SOLUTION: This image processing apparatus 10 includes: a region dividing section 151 which divides an intracorporeal endoluminal image showing the inside of an intracorporeal lumen into a plurality of regions; a high-frequency feature value calculating section 152 which calculates a luminance high-frequency feature value for each of the plurality of regions divided by the region dividing section 151; and a foam region detecting section 155 which detects the foam region for each of the regions according to the luminance high-frequency feature value for each region. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、体内管腔内を撮像した体内管腔内画像を処理する画像処理装置、画像処理プログラムおよび画像処理方法に関するものである。   The present invention relates to an image processing apparatus, an image processing program, and an image processing method for processing an intraluminal image obtained by imaging an internal lumen.

特許文献1には、体内管腔内を撮像した画像に映る泡領域を検出する技術が開示されている。この特許文献1では、先ず、画像内の画素のエッジ強度を算出し、算出したエッジ強度と、泡の特徴をもとに予め設定された泡モデルとの相関値を算出する。そして、泡モデルとの相関が高い部分を泡領域として検出している。   Patent Document 1 discloses a technique for detecting a bubble region reflected in an image obtained by imaging the inside of a body lumen. In Patent Document 1, first, the edge strength of a pixel in an image is calculated, and a correlation value between the calculated edge strength and a bubble model set in advance based on the feature of the bubble is calculated. And the part with a high correlation with a bubble model is detected as a bubble area | region.

特開2007−313119号公報JP 2007-313119 A

特許文献1では、体内管腔内の画像に映る泡の形状的な特徴、例えば円形状や楕円形状といった泡の外形形状を予め想定し、泡モデルを設定していた。このため、泡モデルに合致しない形状の泡は検出できないという問題があった。なお、様々な形状の泡を想定して複数の泡モデルを用意しておく構成とすると、手間であるとともに、用意した泡モデルとの相関をそれぞれ算出しなければならず、処理時間が増大するという問題があった。   In Patent Literature 1, a bubble model is set by assuming in advance the shape characteristic of a bubble reflected in an image in a body lumen, for example, the outer shape of the bubble such as a circular shape or an elliptical shape. For this reason, there is a problem that bubbles having a shape that does not match the bubble model cannot be detected. In addition, if it is configured to prepare a plurality of foam models assuming various shapes of foam, it is troublesome and the correlation with the prepared foam models must be calculated respectively, which increases the processing time. There was a problem.

本発明は、上記に鑑み為されたものであって、泡の形状に関わらず精度良く泡領域を検出することができる画像処理装置、画像処理プログラムおよび画像処理方法を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide an image processing apparatus, an image processing program, and an image processing method capable of accurately detecting a bubble region regardless of the shape of the bubble. .

上記した課題を解決し、目的を達成するための、本発明のある態様にかかる画像処理装置は、体内管腔内を撮像した体内管腔内画像を処理する画像処理装置であって、前記体内管腔内画像を複数の領域に分割する領域分割手段と、前記複数の領域毎に輝度高周波特徴量を算出する高周波特徴量算出手段と、各領域の輝度高周波特徴量に基づいて、前記領域毎に泡領域を検出する泡領域検出手段と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, an image processing apparatus according to an aspect of the present invention is an image processing apparatus that processes an intraluminal image obtained by imaging a body lumen. A region dividing unit that divides the intraluminal image into a plurality of regions, a high frequency feature amount calculating unit that calculates a luminance high frequency feature amount for each of the plurality of regions, and each region based on the luminance high frequency feature amount of each region And a bubble area detecting means for detecting the bubble area.

泡の輪郭部及び泡の内部には、照明光の正反射成分による輝度の凸エッジが存在し、これらは高い振幅の輝度高周波成分となる。この態様にかかる画像処理装置によれば、体内管腔内画像を分割した領域毎に輝度高周波特徴量を算出し、各領域の輝度高周波特徴量に基づいて領域毎に泡領域を検出することができる。したがって、泡の形状に関わらず安定して泡領域を検出することができ、泡領域の検出精度を向上させることができる。   There are convex edges of luminance due to the regular reflection component of the illumination light in the outline of the bubble and inside the bubble, and these become high-frequency luminance high-frequency components. According to the image processing apparatus according to this aspect, the high-frequency luminance feature amount is calculated for each region obtained by dividing the intraluminal image, and the bubble region is detected for each region based on the high-frequency luminance feature amount of each region. it can. Therefore, the bubble region can be detected stably regardless of the shape of the bubble, and the detection accuracy of the bubble region can be improved.

また、本発明の別の態様にかかる画像処理プログラムは、コンピュータに、体内管腔内を撮像した体内管腔内画像を処理させるための画像処理プログラムであって、前記体内管腔内画像を複数の領域に分割する領域分割ステップと、前記複数の領域毎に輝度高周波特徴量を算出する高周波特徴量算出ステップと、各領域の輝度高周波特徴量に基づいて、前記領域毎に泡領域を検出する泡領域検出ステップと、を前記コンピュータに実行させることを特徴とする。   An image processing program according to another aspect of the present invention is an image processing program for causing a computer to process a body lumen image obtained by imaging a body lumen. A region dividing step for dividing the region into regions, a high frequency feature amount calculating step for calculating a luminance high frequency feature amount for each of the plurality of regions, and a bubble region for each region based on the luminance high frequency feature amount of each region And causing the computer to execute a bubble region detection step.

また、本発明の別の態様にかかる画像処理方法は、体内管腔内を撮像した体内管腔内画像を処理する画像処理方法であって、前記体内管腔内画像を複数の領域に分割する領域分割工程と、前記領域分割工程で分割された複数の領域毎に輝度高周波特徴量を算出する高周波特徴量算出工程と、前記高周波特徴量算出工程で算出された各領域の輝度高周波特徴量に基づいて、前記領域毎に泡領域を検出する泡領域検出工程と、を含むことを特徴とする。   An image processing method according to another aspect of the present invention is an image processing method for processing a body lumen image obtained by imaging a body lumen, and divides the body lumen image into a plurality of regions. A region dividing step, a high frequency feature amount calculating step for calculating a luminance high frequency feature amount for each of the plurality of regions divided in the region dividing step, and a luminance high frequency feature amount of each region calculated in the high frequency feature amount calculating step. And a bubble region detecting step for detecting a bubble region for each region.

本発明によれば、泡の形状に関わらず安定して泡領域を検出することができ、泡領域の検出精度を向上させることができる。   According to the present invention, a bubble region can be detected stably regardless of the shape of the bubble, and the detection accuracy of the bubble region can be improved.

以下、図面を参照し、本発明の好適な実施の形態について詳細に説明する。なお、この実施の形態によって本発明が限定されるものではない。また、各図面の記載において、同一部分には同一の符号を付して示している。   DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. Note that the present invention is not limited to the embodiments. Moreover, in description of each drawing, the same code | symbol is attached | subjected and shown to the same part.

(実施の形態1)
先ず、実施の形態1について説明する。図1は、実施の形態1の画像処理装置を含む画像処理システムの全体構成を示す概略模式図である。図1に示すように、画像処理システムは、被検体1内部の画像(体内管腔内画像)を撮像するカプセル内視鏡3、カプセル内視鏡3から無線送信される体内管腔内画像を受信する受信装置5、受信装置5によって受信された体内管腔内画像をもとに、カプセル内視鏡3によって撮像された体内管腔内画像を処理して表示する画像処理装置10等で構成される。受信装置5と画像処理装置10との間の画像データの受け渡しには、例えば可搬型の記録媒体(可搬型記録媒体)7が使用される。
(Embodiment 1)
First, the first embodiment will be described. FIG. 1 is a schematic diagram illustrating an overall configuration of an image processing system including the image processing apparatus according to the first embodiment. As shown in FIG. 1, the image processing system captures an image inside a subject 1 (an intraluminal image), and an intraluminal image transmitted wirelessly from the capsule endoscope 3. A receiving device 5 for receiving, an image processing device 10 for processing and displaying the intraluminal image captured by the capsule endoscope 3 based on the intraluminal image received by the receiving device 5, and the like. Is done. For example, a portable recording medium (portable recording medium) 7 is used for transferring image data between the receiving device 5 and the image processing device 10.

カプセル内視鏡3は、撮像機能や無線機能等を具備するものであって、被検体1の口から飲み込まれて被検体1内部に導入され、体内管腔内を移動しながら逐次体内管腔内画像を撮像する。そして、撮像した体内管腔内画像を体外に無線送信する。   The capsule endoscope 3 has an imaging function, a wireless function, and the like. The capsule endoscope 3 is swallowed from the mouth of the subject 1 and introduced into the subject 1, and sequentially moves through the body lumen. An inner image is taken. The captured intraluminal image is wirelessly transmitted outside the body.

受信装置5は、被検体1内におけるカプセル内視鏡3の通過経路に対応する体表上の位置に分散配置される受信用アンテナA1〜Anを備える。そして、受信装置5は、各受信用アンテナA1〜Anを介してカプセル内視鏡3から無線送信される画像データを受信する。この受信装置5は、可搬型記録媒体7の着脱が自在に構成されており、受信した画像データを可搬型記録媒体7に逐次保存する。このようにして、カプセル内視鏡3が撮像した被検体1内部の体内管腔内画像は、受信装置5によって時系列順に可搬型記録媒体7に蓄積され、保存される。   The receiving device 5 includes receiving antennas A <b> 1 to An that are dispersedly arranged at positions on the body surface corresponding to the passage route of the capsule endoscope 3 in the subject 1. The receiving device 5 receives the image data wirelessly transmitted from the capsule endoscope 3 via the receiving antennas A1 to An. The receiving device 5 is configured so that the portable recording medium 7 can be freely attached and detached, and sequentially stores the received image data in the portable recording medium 7. In this way, the intraluminal image inside the subject 1 captured by the capsule endoscope 3 is accumulated and stored in the portable recording medium 7 in time series by the receiving device 5.

画像処理装置10は、カプセル内視鏡3によって撮像された体内管腔内画像を医師等が観察・診断するためのものであり、ワークステーションやパソコン等の汎用コンピュータで実現される。この画像処理装置10は、可搬型記録媒体7の着脱が自在に構成されており、可搬型記録媒体7に保存された体内管腔内画像を処理し、例えばLCDやELディスプレイ等のディスプレイに時系列順に順次表示する。   The image processing apparatus 10 is for a doctor or the like to observe and diagnose an intraluminal image captured by the capsule endoscope 3, and is realized by a general-purpose computer such as a workstation or a personal computer. The image processing apparatus 10 is configured so that the portable recording medium 7 can be freely attached and detached. The image processing apparatus 10 processes the intraluminal image stored in the portable recording medium 7 and, for example, displays it on a display such as an LCD or an EL display. Display sequentially in sequence order.

カプセル内視鏡3によって撮像され、画像処理装置10によって処理される体内管腔内画像には、粘膜や、体内管腔内を浮遊する内容物、泡等が映るとともに、時として病変等の重要箇所が映る。実施の形態1の画像処理装置10は、この体腔内画像に映る泡の領域を検出する。なお、カプセル内視鏡3によって撮像される管空内画像は、各画素位置においてR(赤),G(緑),B(青)の各色成分に対する画素レベル(画素値)を持つカラー画像である。   The intraluminal image captured by the capsule endoscope 3 and processed by the image processing apparatus 10 shows mucous membranes, contents floating in the intraluminal lumen, bubbles, etc. The part is reflected. The image processing apparatus 10 according to the first embodiment detects a bubble area reflected in the body cavity image. The intraluminal image captured by the capsule endoscope 3 is a color image having a pixel level (pixel value) for each color component of R (red), G (green), and B (blue) at each pixel position. is there.

ここで、泡領域の検出原理について、背景技術で説明した従来の手法と比較して説明する。図2および図3は、泡領域が映る体内管腔内画像の一例を示す模式図である。図2では、外形形状が略円形状の複数の泡21〜23が映った体内管腔内画像を示している。一方、図3では、図面に向かって左下の領域に泡31が大きく映った体内管腔内画像を示している。例えば、図2の泡21の領域に着目すると、泡21の輪郭部および泡21の内部において、高輝度部分211,213が生じている。同様に、図3に示す泡31では、泡31の輪郭部および泡31の内部において、高輝度部分311,313,315が生じている。   Here, the detection principle of a bubble area | region is demonstrated compared with the conventional method demonstrated by background art. 2 and 3 are schematic diagrams illustrating an example of an intraluminal image in which a bubble region is reflected. FIG. 2 shows an intraluminal image in which a plurality of bubbles 21 to 23 whose outer shape is substantially circular are reflected. On the other hand, FIG. 3 shows an intraluminal image in which the bubble 31 is greatly reflected in the lower left region toward the drawing. For example, when attention is paid to the region of the bubble 21 in FIG. 2, high brightness portions 211 and 213 are generated in the contour portion of the bubble 21 and in the bubble 21. Similarly, in the bubble 31 shown in FIG. 3, high brightness portions 311, 313, and 315 are generated in the contour portion of the bubble 31 and in the bubble 31.

図4は、従来の泡検出(特許文献1を参照)で用いられる泡モデル41の一例を示す図である。図4では、リング形状の高輝度構造部411とリング形状の内部に位置する高輝度構造部413とを有する泡モデル41を示している。特許文献1に開示されている従来の手法では、画像内のエッジ強度とこの泡モデル41との相関値をもとに泡領域を検出しており、図2に示す泡21〜23のように、泡モデル41と類似するものについては検出が可能である。   FIG. 4 is a diagram illustrating an example of a foam model 41 used in conventional foam detection (see Patent Document 1). FIG. 4 shows a bubble model 41 having a ring-shaped high-luminance structure portion 411 and a high-luminance structure portion 413 located inside the ring shape. In the conventional method disclosed in Patent Document 1, a bubble region is detected based on a correlation value between the edge strength in the image and the bubble model 41, and the bubbles 21 to 23 shown in FIG. What is similar to the bubble model 41 can be detected.

これに対し、図3に示す泡31の検出は難しい。図5は、図3に示す泡31を図4の泡モデル41を用いて検出する様子を示す図である。図5に示すように、例えば破線51で示す部分については、図5中に一点鎖線で示す泡モデル41との相関値をもとに例えば泡領域に属するとして検出が可能であるが、破線53で示す部分については、泡モデル41との相関が低く、泡モデル41を用いた検出では泡領域として検出することができない。   On the other hand, it is difficult to detect the bubbles 31 shown in FIG. FIG. 5 is a diagram showing a state where the bubble 31 shown in FIG. 3 is detected using the bubble model 41 of FIG. As shown in FIG. 5, for example, the portion indicated by the broken line 51 can be detected as belonging to the bubble region based on the correlation value with the bubble model 41 indicated by the one-dot chain line in FIG. The portion indicated by is low in correlation with the bubble model 41 and cannot be detected as a bubble region by detection using the bubble model 41.

このような従来の手法に対し、実施の形態1では、体内管腔内画像の輝度高周波成分に着目して泡領域を検出する。図6は、実施の形態1における泡領域の検出原理を説明する説明図である。なお、図6では、体内管腔内画像に映る泡領域を最上段の(a)に示す泡領域61とし、この泡領域61を検出する様子を示している。   In contrast to such a conventional technique, the first embodiment detects a bubble region by paying attention to the luminance high-frequency component of the intraluminal image. FIG. 6 is an explanatory diagram for explaining the detection principle of the bubble region in the first embodiment. In FIG. 6, the bubble region shown in the intraluminal image is a bubble region 61 shown in the uppermost part (a), and the bubble region 61 is detected.

実施の形態1では、先ず、体内管腔内画像を輝度エッジに基づいて領域分割する。ここで、泡領域61は、その輪郭部の高輝度部分611と内部の高輝度部分613とを有する。このため、例えば、図6(a)に示すラインL5に着目すると、体内管腔内画像は、一点鎖線で示す境界位置で領域分割される。   In Embodiment 1, first, an intraluminal image is divided into regions based on luminance edges. Here, the bubble region 61 has a high-luminance portion 611 of the outline portion and an internal high-luminance portion 613. For this reason, for example, when attention is paid to the line L5 shown in FIG. 6A, the intraluminal image is divided into regions at the boundary position indicated by the alternate long and short dash line.

そして、分割した領域毎の輝度高周波特徴量を算出する。すなわち先ず、体内管腔内画像を構成する各画素の輝度成分を得る。図6(b)は、ラインL5上の各画素の輝度成分aを示している。次いで、輝度成分aに平滑化処理を施す。図6(c)は、平滑化後の輝度成分bを示している。次いで、輝度成分aと平滑化後の輝度成分bとの差分を算出して高輝度成分のみを取り出し、図6(d)に示すように、輝度高周波成分a−bを得る。   Then, a high-frequency luminance feature amount for each divided area is calculated. That is, first, the luminance component of each pixel constituting the intraluminal image is obtained. FIG. 6B shows the luminance component a of each pixel on the line L5. Next, a smoothing process is performed on the luminance component a. FIG. 6C shows the luminance component b after smoothing. Next, the difference between the luminance component a and the smoothed luminance component b is calculated, and only the high luminance component is extracted to obtain the luminance high frequency component ab as shown in FIG.

そして、分割した領域毎に輝度高周波特徴量を算出する。例えば、図6(e)では、領域を構成する画素の輝度高周波成分の平均値を算出し、輝度高周波特徴量F(x,y)としている。そして、輝度高周波特徴量が所定の閾値D5以上の領域を泡領域とする。図6(e)では、図中にハッチングを付して示したように、ラインL5上で隣接する5つの領域を泡領域として検出している。   Then, a luminance high-frequency feature amount is calculated for each divided region. For example, in FIG. 6E, the average value of the luminance high-frequency component of the pixels constituting the region is calculated and used as the luminance high-frequency feature amount F (x, y). Then, a region where the luminance high frequency feature amount is equal to or greater than a predetermined threshold D5 is set as a bubble region. In FIG. 6 (e), as indicated by hatching in the figure, five areas adjacent on the line L5 are detected as bubble areas.

以上説明した手法によれば、体内管腔内画像を輝度エッジに基づいて領域分割し、領域毎の輝度高周波特徴量を算出することで泡領域を検出することができるので、泡の形状に関わらず安定して泡領域を検出することができ、泡領域の検出精度を向上させることができる。また、従来の手法のように予め泡モデルを用意する必要がなく、さらには様々な形状の泡を想定して複数の泡モデルを用意しておく場合のように処理時間が増大することもない。   According to the method described above, the bubble region can be detected by dividing the intraluminal image in the body based on the luminance edge and calculating the luminance high frequency feature amount for each region. Therefore, the bubble region can be detected stably, and the detection accuracy of the bubble region can be improved. Further, it is not necessary to prepare a bubble model in advance as in the conventional method, and further, processing time does not increase as in the case of preparing a plurality of bubble models assuming various shapes of bubbles. .

図7は、実施の形態1の画像処理装置10の機能構成を説明するブロック図である。実施の形態1では、画像処理装置10は、外部インターフェース部11と、操作部12と、表示部13と、記録部14と、演算部15と、画像処理装置10全体の動作を制御する制御部17とを備える。   FIG. 7 is a block diagram illustrating a functional configuration of the image processing apparatus 10 according to the first embodiment. In the first embodiment, the image processing apparatus 10 includes an external interface unit 11, an operation unit 12, a display unit 13, a recording unit 14, a calculation unit 15, and a control unit that controls the operation of the entire image processing device 10. 17.

外部インターフェース部11は、カプセル内視鏡3で撮像され、受信装置5で受信した画像データを取得するためのものであり、例えば可搬型記録媒体7を着脱自在に装着し、この可搬型記録媒体7に保存された画像データを読み出すリーダ装置で構成される。この外部インターフェース部11を介して可搬型記録媒体7から読み出された画像データは記録部14に保持され、演算部15によって処理されて制御部17の制御のもと表示部13に表示される。なお、カプセル内視鏡3によって撮像された画像の取得は、可搬型記録媒体7を用いた構成に限定されるものではない。例えば、可搬型記録媒体7のかわりに別途サーバを設置し、このサーバにカプセル内視鏡3によって撮像された画像を予め保存しておく構成としてもよい。この場合には、外部インターフェース部11を、サーバと接続するための通信装置等で構成する。そして、この外部インターフェース部11を介してサーバとデータ通信を行い、画像を取得することとしてもよい。あるいは、記録部14内にカプセル内視鏡3によって撮像された画像を予め保存しておき、記録部14から読み出して画像を取得する構成としてもよい。   The external interface unit 11 is for acquiring image data picked up by the capsule endoscope 3 and received by the receiving device 5. For example, the portable recording medium 7 is detachably attached to the portable recording medium. 7 is constituted by a reader device that reads out the image data stored in the memory 7. Image data read from the portable recording medium 7 via the external interface unit 11 is held in the recording unit 14, processed by the calculation unit 15, and displayed on the display unit 13 under the control of the control unit 17. . The acquisition of the image captured by the capsule endoscope 3 is not limited to the configuration using the portable recording medium 7. For example, a server may be separately installed instead of the portable recording medium 7 and an image captured by the capsule endoscope 3 may be stored in advance in this server. In this case, the external interface unit 11 is configured by a communication device or the like for connecting to the server. Then, data communication with the server via the external interface unit 11 may be performed to acquire an image. Alternatively, an image captured by the capsule endoscope 3 may be stored in advance in the recording unit 14 and read from the recording unit 14 to obtain an image.

操作部12は、例えばキーボードやマウス、タッチパネル、各種スイッチ等によって実現されるものであり、操作信号を制御部17に出力する。表示部13は、LCDやELディスプレイ等の表示装置によって実現されるものであり、制御部17の制御のもと、カプセル内視鏡3で撮像された画像の表示画面を含む各種画面を表示する。   The operation unit 12 is realized by, for example, a keyboard, a mouse, a touch panel, various switches, and the like, and outputs an operation signal to the control unit 17. The display unit 13 is realized by a display device such as an LCD or an EL display, and displays various screens including a display screen of an image captured by the capsule endoscope 3 under the control of the control unit 17. .

記録部14は、更新記録可能なフラッシュメモリ等のROMやRAMといった各種ICメモリ、内蔵或いはデータ通信端子で接続されたハードディスク、CD−ROM等の情報記録媒体およびその読取装置等によって実現されるものであり、画像処理装置10を動作させ、この画像処理装置10が備える種々の機能を実現するためのプログラムや、このプログラムの実行中に使用されるデータ等が格納される。例えば、記録部14には、外部インターフェース部11を介して取り込まれた体内管腔内画像の画像データ141や、処理対象の体内管腔内画像から泡領域を検出するための画像処理プログラム143が格納される。   The recording unit 14 is realized by various IC memories such as ROM and RAM such as flash memory that can be updated and recorded, an information recording medium such as a built-in or data communication terminal, a CD-ROM, and a reader thereof. A program for operating the image processing apparatus 10 and realizing various functions of the image processing apparatus 10, data used during execution of the program, and the like are stored. For example, the recording unit 14 includes an image processing program 143 for detecting a bubble region from the image data 141 of the body lumen image captured via the external interface unit 11 and the body lumen image to be processed. Stored.

演算部15は、カプセル内視鏡3によって撮像された画像を処理し、体内管腔内画像から泡領域を検出するための種々の演算処理を行う。この演算部15は、領域分割手段としての領域分割部151と、高周波特徴量算出手段としての高周波特徴量算出部152と、泡領域検出手段としての泡領域検出部155とを含む。領域分割部151は、体内管腔内画像を複数の領域に分割する。高周波特徴量算出部152は、領域分割部151が分割した領域毎の輝度高周波特徴量を算出する。この高周波特徴量算出部152は、高周波成分算出手段としての高周波成分算出部153と、統計値算出手段としての領域内統計値算出部154とを備える。高周波成分算出部153は、体内管腔内画像を構成する各画素の輝度高周波成分を算出する。領域内統計値算出部154は、領域毎に、領域を構成する画素について高周波成分算出部153が算出した輝度高周波成分の統計値を算出する。泡領域検出部155は、各領域の輝度高周波特徴量に基づいて、領域毎に泡領域を検出する。この泡領域検出部155は、高周波特徴量判別手段としての高周波特徴量判別部156を備える。高周波特徴量判別部156は、各領域の輝度高周波特徴量が所定の閾値以上か否かを判別する。   The calculation unit 15 processes an image captured by the capsule endoscope 3 and performs various calculation processes for detecting a bubble region from the intraluminal image. The calculation unit 15 includes a region dividing unit 151 as a region dividing unit, a high frequency feature amount calculating unit 152 as a high frequency feature amount calculating unit, and a bubble region detecting unit 155 as a bubble region detecting unit. The area dividing unit 151 divides the intraluminal image into a plurality of areas. The high frequency feature amount calculation unit 152 calculates the luminance high frequency feature amount for each region divided by the region division unit 151. The high-frequency feature amount calculation unit 152 includes a high-frequency component calculation unit 153 as a high-frequency component calculation unit and an in-region statistical value calculation unit 154 as a statistical value calculation unit. The high frequency component calculation unit 153 calculates the luminance high frequency component of each pixel constituting the intraluminal image. The intra-region statistical value calculation unit 154 calculates, for each region, the luminance high-frequency component statistical value calculated by the high-frequency component calculation unit 153 for the pixels constituting the region. The bubble region detection unit 155 detects a bubble region for each region based on the luminance high frequency feature amount of each region. The bubble region detection unit 155 includes a high frequency feature amount determination unit 156 as high frequency feature amount determination means. The high frequency feature amount determination unit 156 determines whether the luminance high frequency feature amount of each region is equal to or greater than a predetermined threshold value.

制御部17は、CPU等のハードウェアによって実現される。この制御部17は、外部インターフェース部11を介して取得される画像データや操作部12から入力される操作信号、記録部14に格納されるプログラムやデータ等に基づいて画像処理装置10を構成する各部への指示やデータの転送等を行い、画像処理装置10全体の動作を統括的に制御する。   The control unit 17 is realized by hardware such as a CPU. The control unit 17 configures the image processing apparatus 10 based on image data acquired via the external interface unit 11, operation signals input from the operation unit 12, programs and data stored in the recording unit 14, and the like. Instructions to each unit, data transfer, and the like are performed, and the overall operation of the image processing apparatus 10 is comprehensively controlled.

図8は、実施の形態1の画像処理装置10が行う処理手順を示す全体フローチャートである。ここで説明する処理は、記録部14に格納された画像処理プログラム143に従って画像処理装置10の各部が動作することによって実現される。   FIG. 8 is an overall flowchart illustrating a processing procedure performed by the image processing apparatus 10 according to the first embodiment. The process described here is realized by the operation of each unit of the image processing apparatus 10 according to the image processing program 143 stored in the recording unit 14.

図8に示すように、先ず演算部15が、処理対象とする体内管腔内画像を取得する(ステップa1)。ここでの処理によって、演算部15は、外部インターフェース部11を介して取得されて記録部14に記録された画像データ141の中から、処理対象とする体内管腔内画像を読み出して取得する。   As shown in FIG. 8, first, the calculation unit 15 acquires an intraluminal image to be processed (step a1). By the processing here, the calculation unit 15 reads and acquires the intraluminal image to be processed from the image data 141 acquired through the external interface unit 11 and recorded in the recording unit 14.

続いて、領域分割部151が、領域分割処理を実行する(ステップa3)。領域分割の手法としては、様々な手法が知られているが、ここでは、例えばWO2006/080239に開示されている手法を用い、体内管腔内画像の輝度エッジに基づいて領域分割を行うこととする。図9は、領域分割処理の詳細な処理手順を示すフローチャートである。   Subsequently, the area dividing unit 151 executes an area dividing process (step a3). Various methods are known as the region division method. Here, for example, the method disclosed in WO2006 / 080239 is used to perform region division based on the luminance edge of the intraluminal image. To do. FIG. 9 is a flowchart showing a detailed processing procedure of the region division processing.

領域分割処理では、図9に示すように、領域分割部151は先ず、体内管腔内画像から輝度成分を算出する(ステップb1)。具体的には、体内管腔内画像の各画素のカラー成分(R,G,B)をもとに、次式(1)に従って各画素の輝度成分Yを算出する。
Y=0.3×R+0.59×G+0.11×B ・・・(1)
In the region dividing process, as shown in FIG. 9, the region dividing unit 151 first calculates a luminance component from the intraluminal image (step b1). Specifically, the luminance component Y of each pixel is calculated according to the following equation (1) based on the color components (R, G, B) of each pixel of the intraluminal image.
Y = 0.3 × R + 0.59 × G + 0.11 × B (1)

なお、ここでは、一般的なYCbCr色空間(参考:CG−ARTS協会,ディジタル画像処理,299P)における輝度Yの算出式に従って輝度成分を算出することとしたが、これに相当する他の値を用いてもよい。あるいは、体内管腔内画像のG成分の値を輝度成分として用いてもよい。G成分の値は、ヘモグロビンの吸収波長帯域に近く、感度も得易いことから、体内管腔内画像の構造をよく表すためである。   Here, the luminance component is calculated according to the calculation formula of the luminance Y in a general YCbCr color space (reference: CG-ARTS Association, Digital Image Processing, 299P), but other values corresponding to this are calculated. It may be used. Alternatively, the G component value of the intraluminal image may be used as the luminance component. This is because the value of the G component is close to the absorption wavelength band of hemoglobin and the sensitivity is easily obtained, so that the structure of the intraluminal image is well represented.

続いて、領域分割部151は、算出した輝度成分Yをもとに体内管腔内画像のエッジ情報を算出する(ステップb3)。具体的には、体内管腔内画像の輝度成分Yに対して、ソーベルフィルタを用いた空間フィルタリング処理を行い、エッジ抽出を行う(参考:CG−ARTS協会,ディジタル画像処理,116P)。なお、ソーベルフィルタ以外の例えばプリューウィットフィルタ等の1次微分フィルタ、あるいはラプラシアンフィルタやLOG(Laplacian of Gaussian)フィルタ等の2次微分フィルタを用いてエッジ抽出を行うこととしてもよい(参考:CG−ARTS協会,ディジタル画像処理,114P)。   Subsequently, the region dividing unit 151 calculates edge information of the intraluminal image based on the calculated luminance component Y (step b3). Specifically, a spatial filtering process using a Sobel filter is performed on the luminance component Y of the intraluminal image in the body to perform edge extraction (reference: CG-ARTS Association, Digital Image Processing, 116P). Note that edge extraction may be performed by using a first-order differential filter other than the Sobel filter, for example, a first-order differential filter such as a Prewitt filter, or a second-order differential filter such as a Laplacian filter or a LOG (Laplacian of Gaussian) filter (reference: CG -ARTS Association, Digital Image Processing, 114P).

続いて、領域分割部151は、算出した体内管腔内画像のエッジ情報に対して平滑化処理を行う(ステップb5)。この平滑化処理は、ノイズ除去を目的として行うものであり、例えばガウシアンフィルタを用いた空間フィルタリング処理で実現できる。なお、バイラテラルフィルタや平均化フィルタ等を用いてもよい(参考:CG−ARTS協会,ディジタル画像処理,108P)。   Subsequently, the region dividing unit 151 performs a smoothing process on the calculated edge information of the intraluminal image (step b5). This smoothing process is performed for the purpose of noise removal, and can be realized by, for example, a spatial filtering process using a Gaussian filter. A bilateral filter, an averaging filter, or the like may be used (reference: CG-ARTS Association, Digital Image Processing, 108P).

続いて、領域分割部151は、各画素における輝度勾配の下り方向を算出する(ステップb7)。簡単に手順を説明する。ここで、注目画素の輝度値をPxとし、この注目画素を中心として注目画素と隣接する8つの隣接画素の輝度値をP_i(i=1〜8)とする。先ず、注目画素の輝度値Pxと隣接画素の輝度値P_i(i=1〜8)との差を次式(2)に従ってそれぞれ算出する。
dP=P_i−Px ・・・(2)
Subsequently, the area dividing unit 151 calculates the downward direction of the luminance gradient in each pixel (step b7). The procedure is briefly described. Here, the luminance value of the target pixel is Px, and the luminance values of eight adjacent pixels adjacent to the target pixel with the target pixel as the center are P_i (i = 1 to 8). First, the difference between the luminance value Px of the target pixel and the luminance value P_i (i = 1 to 8) of the adjacent pixel is calculated according to the following equation (2).
dP = P_i-Px (2)

次いで、差dPが最小すなわち負の値が最大となる隣接画素を選出し、注目画素から選出した隣接画素への方向を輝度勾配の下り方向とする。なお、差dPが全て正の値の場合には、注目画素を極小値画素とする。極小値画素とは、輝度勾配の下り方向に沿って移動した際に最終的に到達する画素のことである。以上の処理を、全画素を注目画素として行うことで、各画素における輝度勾配の下り方向が算出できる。   Next, an adjacent pixel having a minimum difference dP, that is, a maximum negative value is selected, and a direction from the target pixel to the selected adjacent pixel is set as a downward direction of the luminance gradient. When all the differences dP are positive values, the target pixel is set as a minimum value pixel. The minimum value pixel is a pixel that finally arrives when moving along the downward direction of the luminance gradient. By performing the above processing with all pixels as the target pixel, the downward direction of the luminance gradient in each pixel can be calculated.

続いて、領域分割部151は、各画素における極小値画素の座標を算出する(ステップb9)。例えば先ず、注目画素について設定された輝度勾配の下り方向にある隣接画素を選出する。次いで、選出した隣接画素について設定された輝度勾配の下り方向にある隣接画素を選出する。この処理を繰り返し行い、最終的に到達する画素を注目画素の極小値画素とし、その座標値を得る。以上の処理を、全画素を注目画素として行うことで、各画素における極小値画素の座標が算出できる。   Subsequently, the area dividing unit 151 calculates the coordinates of the minimum value pixel in each pixel (step b9). For example, first, adjacent pixels in the downward direction of the luminance gradient set for the target pixel are selected. Next, adjacent pixels in the downward direction of the luminance gradient set for the selected adjacent pixels are selected. This process is repeated, and the finally reached pixel is set as the minimum value pixel of the target pixel, and the coordinate value is obtained. By performing the above processing using all pixels as the target pixel, the coordinates of the minimum value pixel in each pixel can be calculated.

そして、領域分割部151は、到達する極小値画素の座標が同じ画素に対して同一のラベルを付けることによって、体内管腔内画像を領域分割する(ステップb11)。同一の極小値画素に到達する画素の領域は、その周囲が輝度エッジに囲まれていることになる。このため、領域分割処理の結果、輝度エッジを境とする領域分割を行うことができる。体内管腔内画像を領域分割したならば、図8のステップa3にリターンし、その後ステップa5に移る。   Then, the region dividing unit 151 divides the intraluminal image into regions by attaching the same label to the pixels having the same coordinates of the reaching minimum value pixels (step b11). The area of the pixel that reaches the same minimum value pixel is surrounded by a luminance edge. For this reason, as a result of the region division processing, region division with the luminance edge as a boundary can be performed. If the intraluminal image is divided into regions, the process returns to step a3 in FIG. 8, and then proceeds to step a5.

なお、他の領域分割の手法として、公知の分水嶺(watershed)アルゴリズム(参考:Luc Vincent and Pierre Soille. Watersheds in digital spaces:An efficient algorithm based on immersion simulations. Transactionson Pattern Analysis and Machine Intelligence,Vol.13,No.6,pp.583-598,June 1991.)による手法を用いてもよい。分水嶺アルゴリズムは、画像の画素値情報を高度とみなした地形において水を満たしていく際に、異なるくぼみに溜まる水の間で境界ができるように画像を分割していく手法である。このため、エッジ情報に対して分水嶺アルゴリズムを適用することによって、上記した領域分割と同等の領域分割が実現できる。   As another area segmentation method, a known watershed algorithm (reference: Luc Vincent and Pierre Soille. Watersheds in digital spaces: An efficient algorithm based on immersion simulations. Transactionson Pattern Analysis and Machine Intelligence, Vol. 13, No. 6, pp.583-598, June 1991) may be used. The watershed algorithm is a method of dividing an image so that a boundary is formed between water accumulated in different depressions when water is filled in the terrain where the pixel value information of the image is regarded as altitude. For this reason, by applying the watershed algorithm to the edge information, an area division equivalent to the above-described area division can be realized.

また、ここでは、輝度エッジに基づいて領域分割する場合について説明したが、エッジを考慮せずに所定サイズの格子状に画像を領域分割してもよい。この場合、図9に示して説明した各処理ステップが不要となり、処理時間を短縮できる。   In addition, here, the case where the region is divided based on the luminance edge has been described, but the image may be divided into a grid of a predetermined size without considering the edge. In this case, each processing step described with reference to FIG. 9 becomes unnecessary, and the processing time can be shortened.

続いて、図8に示すステップa5において、高周波特徴量算出部152が、高周波特徴量算出処理を実行し、ステップa3で領域分割した領域毎に輝度高周波特徴量を算出する。図10は、高周波特徴量算出処理の詳細な処理手順を示すフローチャートである。   Subsequently, in step a5 shown in FIG. 8, the high frequency feature quantity calculation unit 152 executes a high frequency feature quantity calculation process, and calculates a luminance high frequency feature quantity for each region divided in step a3. FIG. 10 is a flowchart showing a detailed processing procedure of the high-frequency feature amount calculation processing.

高周波特徴量算出処理では、図10に示すように、先ず、高周波特徴量算出部152の高周波成分算出部153が、体内管腔内画像の輝度成分をもとに各画素の輝度高周波成分を算出する(ステップc1)。具体的には、先ず、体内管腔内画像の輝度成分(図6(b)の輝度成分a)に平滑化処理を施し、平滑化画像(図6(c)の平滑化後の輝度成分b)を作成する。平滑化処理に用いるフィルタは限定されるものではなく、例えばバイラテラルフィルタやガウシアンフィルタ、平均化フィルタ等を用いることができる。続いて、体内管腔内画像の輝度成分と平滑化画像との差分を画素毎に算出し、算出した差分を各画素の輝度高周波成分(図6(d)の輝度高周波成分a−b)とする。ここで、先ず体内管腔内画像全体の輝度高周波成分を算出するため、処理の高速化が図れる。   In the high frequency feature amount calculation process, as shown in FIG. 10, first, the high frequency component calculation unit 153 of the high frequency feature amount calculation unit 152 calculates the luminance high frequency component of each pixel based on the luminance component of the intraluminal image. (Step c1). Specifically, first, the luminance component of the intraluminal image (luminance component a in FIG. 6B) is smoothed, and the smoothed image (luminance component b after smoothing in FIG. 6C). ). The filter used for the smoothing process is not limited. For example, a bilateral filter, a Gaussian filter, an averaging filter, or the like can be used. Subsequently, a difference between the luminance component of the intraluminal image and the smoothed image is calculated for each pixel, and the calculated difference is used as the luminance high-frequency component of each pixel (the luminance high-frequency component ab in FIG. 6D). To do. Here, since the luminance high-frequency component of the entire intraluminal image is first calculated, the processing speed can be increased.

なお、輝度高周波成分を算出する手法としては、例示した手法に限定されない。例えば、公知のハイパスフィルタ処理を適用して輝度高周波成分を算出することとしてもよい。ハイパスフィルタ処理の代表的なものとしては、例えば、先ず、画像を高速フーリエ変換(FFT)して周波数空間へ変換する。そして、高周波成分のみを通過させる窓関数を用いて処理し、逆FFTを行うことで高周波成分を算出する処理が知られている。   Note that the technique for calculating the luminance high-frequency component is not limited to the exemplified technique. For example, the high-frequency luminance component may be calculated by applying a known high-pass filter process. As a representative example of the high-pass filter processing, for example, first, an image is converted into a frequency space by fast Fourier transform (FFT). And the process which calculates using a window function which passes only a high frequency component, and calculates a high frequency component by performing inverse FFT is known.

続いて、図8のステップa3で領域分割した領域を順次注目領域としてループAの処理を行う(ステップc3〜ステップc7)。すなわち、領域内統計値算出部154が、ステップc1で算出した各画素の輝度高周波成分をもとに、注目領域の統計値を算出する(ステップc5)。具体的には、先ず、注目領域を構成する各画素における輝度高周波成分の値の絶対値を算出する。次いで、算出した絶対値の平均値を算出し、注目領域における統計値とする。なお、ここでは、統計値として平均値を算出する場合を例示したが、平均値に限定されるものではない。例えば、最大値、中央値、最頻値等を統計値として算出することとしてもよい。   Subsequently, the process of loop A is sequentially performed with the regions divided in step a3 in FIG. 8 as regions of interest (step c3 to step c7). That is, the intra-region statistical value calculation unit 154 calculates the statistical value of the attention region based on the high-frequency luminance component of each pixel calculated in step c1 (step c5). Specifically, first, the absolute value of the value of the high-frequency luminance component in each pixel constituting the region of interest is calculated. Next, an average value of the calculated absolute values is calculated and used as a statistical value in the attention area. In addition, although the case where an average value was calculated as a statistical value was illustrated here, it is not limited to the average value. For example, the maximum value, median value, mode value, and the like may be calculated as statistical values.

そして、領域内統計値算出部154は、全ての領域を注目領域としてループAの処理を行って、領域毎の統計値を算出する。そして、このようにして領域毎に算出した統計値を、各領域の輝度高周波特徴量(図6(e)の輝度高周波特徴量F(x,y))とする。全ての領域についてループAの処理を行ったならば、図8のステップa5にリターンし、その後ステップa7に移る。   Then, the intra-region statistical value calculation unit 154 performs a loop A process using all regions as the attention region, and calculates a statistical value for each region. The statistical value calculated for each region in this way is set as the luminance high-frequency feature amount of each region (luminance high-frequency feature amount F (x, y) in FIG. 6E). If the processing of the loop A is performed for all the regions, the process returns to step a5 in FIG. 8, and then proceeds to step a7.

そして、図8のステップa7では、泡領域検出部155が、泡領域検出処理を実行する。上記したように、泡の輪郭部および泡の内部には、照明光の正反射成分による輝度の凸エッジが存在し、これらは高い振幅の輝度高周波成分となる。このため、泡が映る領域では、図8のステップa5で算出される輝度高周波特徴量の値が高くなる。泡領域検出処理では、各領域の輝度高周波特徴量が予め設定される所定の閾値(図6(e)の閾値D5)以上である領域を検出して泡領域とする。なお、閾値の値は適宜設定しておくことができる。また、閾値の値は、ユーザ操作に従って可変に設定される値としてもよい。   And in step a7 of FIG. 8, the bubble area | region detection part 155 performs a bubble area | region detection process. As described above, the convex edge of the luminance due to the regular reflection component of the illumination light exists in the outline portion of the bubble and the inside of the bubble, and these become luminance high frequency components with high amplitude. For this reason, in the area where bubbles are reflected, the value of the high-frequency luminance feature value calculated in step a5 in FIG. 8 is high. In the bubble region detection process, a region where the luminance high frequency feature amount of each region is equal to or greater than a predetermined threshold value (threshold value D5 in FIG. 6E) is detected and set as a bubble region. The threshold value can be set as appropriate. The threshold value may be a value that is variably set according to a user operation.

図11は、実施の形態1における泡領域検出処理の詳細な処理手順を示すフローチャートである。泡領域検出処理では、図8のステップa3で領域分割した領域を順次注目領域としてループBの処理を行う(ステップd1〜ステップd9)。すなわち、先ず、泡領域検出部155の高周波特徴量判別部156が、注目領域の輝度高周波特徴量を閾値処理し(ステップd3)、注目領域の輝度高周波特徴量が所定の閾値以上であれば(ステップd5:Yes)、泡領域検出部155が、注目領域を泡領域として検出する(ステップd7)。ここで、注目領域の輝度高周波特徴量を閾値処理するという簡単な処理で泡領域を検出することができるので、処理の高速化が図れる。全ての領域についてループBの処理を行ったならば、図8のステップa7にリターンし、その後ステップa9に移る。   FIG. 11 is a flowchart showing a detailed processing procedure of the bubble area detection process in the first embodiment. In the bubble area detection process, the process of loop B is sequentially performed with the area divided in step a3 in FIG. 8 as the attention area (step d1 to step d9). That is, first, the high frequency feature quantity determination unit 156 of the bubble area detection unit 155 performs threshold processing on the luminance high frequency feature quantity of the attention area (step d3), and if the luminance high frequency feature quantity of the attention area is equal to or greater than a predetermined threshold ( Step d5: Yes), the bubble area detection unit 155 detects the attention area as the bubble area (step d7). Here, since the bubble region can be detected by a simple process of performing threshold processing on the luminance high frequency feature amount of the region of interest, the processing speed can be increased. If the process of loop B is performed for all the regions, the process returns to step a7 in FIG. 8, and then proceeds to step a9.

そして、図8のステップa9では、演算部15が、処理対象の体内管腔内画像内の泡領域の検出結果を出力し、画像処理装置10の演算部15での処理を終了する。例えば演算部15は、ステップa7で領域毎に検出した泡領域の検出結果をもとに、体内管腔内画像の画素毎に泡領域か否かを示すフラグ情報を設定して画像化し、制御部17を介して表示部13に表示出力させる。   In step a9 in FIG. 8, the calculation unit 15 outputs the detection result of the bubble area in the intraluminal image to be processed, and the processing in the calculation unit 15 of the image processing apparatus 10 ends. For example, based on the detection result of the bubble region detected for each region in step a7, the calculation unit 15 sets flag information indicating whether the region is a bubble region for each pixel of the intraluminal image, creates an image, and performs control. The display unit 13 outputs a display via the unit 17.

(実施の形態2)
次に、実施の形態2について説明する。図12は、実施の形態2の画像処理装置10bの機能構成を説明するブロック図である。なお、実施の形態1で説明した構成と同一の構成については、同一の符号を付する。図12に示すように、画像処理装置10bは、外部インターフェース部11と、操作部12と、表示部13と、記録部14bと、演算部15bと、画像処理装置10b全体の動作を制御する制御部17とを備える。
(Embodiment 2)
Next, a second embodiment will be described. FIG. 12 is a block diagram illustrating a functional configuration of the image processing apparatus 10b according to the second embodiment. In addition, the same code | symbol is attached | subjected about the structure same as the structure demonstrated in Embodiment 1. FIG. As shown in FIG. 12, the image processing apparatus 10b is a control that controls the operation of the external interface unit 11, the operation unit 12, the display unit 13, the recording unit 14b, the calculation unit 15b, and the entire image processing apparatus 10b. Unit 17.

記録部14bには、外部インターフェース部11を介して取り込まれた体内管腔内画像の画像データ141や、処理対象の体内管腔内画像から泡領域を検出するための画像処理プログラム143bが格納される。   The recording unit 14b stores image data 141 of the intraluminal image captured through the external interface unit 11 and an image processing program 143b for detecting a bubble region from the intraluminal image to be processed. The

また、演算部15bは、領域分割手段としての領域分割部151と、色特徴量算出手段としての色特徴量算出部161bと、輝度特徴量算出手段としての輝度特徴量算出部162bと、高周波特徴量算出手段としての高周波特徴量算出部152と、泡領域検出部としての泡領域検出部155bとを含む。   The calculation unit 15b includes a region dividing unit 151 as a region dividing unit, a color feature amount calculating unit 161b as a color feature amount calculating unit, a luminance feature amount calculating unit 162b as a luminance feature amount calculating unit, and a high-frequency feature. A high frequency feature amount calculation unit 152 as a quantity calculation unit and a bubble region detection unit 155b as a bubble region detection unit are included.

領域分割部151は、実施の形態1と同様にして体内管腔内画像を複数の領域に分割する。色特徴量算出部161bは、領域分割部151が分割した領域毎に色特徴量を算出する。輝度特徴量算出部162bは、領域毎に輝度特徴量を算出する。高周波特徴量算出部152は、実施の形態1と同様にして、領域毎の輝度高周波特徴量を算出する。この高周波特徴量算出部152は、図示しないが、実施の形態1で説明した高周波成分算出部153と領域内統計値算出部154とを備える。   The area dividing unit 151 divides the intraluminal image into a plurality of areas in the same manner as in the first embodiment. The color feature amount calculating unit 161b calculates a color feature amount for each region divided by the region dividing unit 151. The luminance feature amount calculation unit 162b calculates a luminance feature amount for each region. The high frequency feature amount calculation unit 152 calculates the luminance high frequency feature amount for each region in the same manner as in the first embodiment. Although not shown, the high-frequency feature amount calculation unit 152 includes the high-frequency component calculation unit 153 and the in-region statistical value calculation unit 154 described in the first embodiment.

泡領域検出部155bは、色特徴量算出部161bが算出した色特徴量、輝度特徴量算出部162bが算出した輝度特徴量および高周波特徴量算出部152が算出した輝度高周波特徴量をもとに、泡領域を検出する。この泡領域検出部155bは、色特徴量判別手段としての色特徴量判別部163bと、輝度特徴量判別手段としての輝度特徴量判別部164bと、高周波特徴量判別手段としての高周波特徴量判別部156bとを備える。色特徴量判別部163bは、色特徴量が所定の範囲内である領域を否泡領域と判別する。輝度特徴量判別部164bは、輝度特徴量が所定の閾値以下の領域を否泡領域と判別する。高周波特徴量判別部156bは、色特徴量判別部163bまたは輝度特徴量判別部164bによって否泡領域と判別されなかった領域について、その輝度高周波特徴量が所定の閾値以上か否かを判別する。   The bubble area detection unit 155b is based on the color feature amount calculated by the color feature amount calculation unit 161b, the luminance feature amount calculated by the luminance feature amount calculation unit 162b, and the luminance high frequency feature amount calculated by the high frequency feature amount calculation unit 152. , Detect the bubble area. The bubble area detection unit 155b includes a color feature amount determination unit 163b as a color feature amount determination unit, a luminance feature amount determination unit 164b as a luminance feature amount determination unit, and a high frequency feature amount determination unit as a high frequency feature amount determination unit. 156b. The color feature amount determination unit 163b determines that a region where the color feature amount is within a predetermined range is a non-bubble region. The luminance feature amount determination unit 164b determines that a region where the luminance feature amount is equal to or less than a predetermined threshold is a bubble-free region. The high-frequency feature amount determination unit 156b determines whether or not the luminance high-frequency feature amount is greater than or equal to a predetermined threshold for a region that has not been determined as a bubble-free region by the color feature amount determination unit 163b or the luminance feature amount determination unit 164b.

図13は、実施の形態2の画像処理装置10bが行う処理手順を示す全体フローチャートである。ここで説明する処理は、記録部14bに格納された画像処理プログラム143bに従って画像処理装置10bの各部が動作することによって実現される。なお、図13において、実施の形態1と同様の処理工程には、同一の符号を付する。   FIG. 13 is an overall flowchart illustrating a processing procedure performed by the image processing apparatus 10b according to the second embodiment. The process described here is realized by the operation of each unit of the image processing apparatus 10b according to the image processing program 143b stored in the recording unit 14b. In FIG. 13, the same reference numerals are assigned to the same processing steps as those in the first embodiment.

実施の形態2では、領域分割処理(ステップa3)の後、続いて色特徴量算出部161bが、ステップa3で領域分割した領域毎に色特徴量を算出する(ステップe41)。色特徴量としては様々な値があるが、ここでは、例えばYCbCr色空間の色差Cb,Crを色特徴量として用いる。先ず、体内管腔内画像の各画素のカラー成分(R,G,B)をもとに、次式(3),(4)に従って各画素の色差Cb,Crを算出する。
Cb=0.17×R−0.33×G+0.50×B ・・・(3)
Cr=0.50×R−0.42×G+0.08×B ・・・(4)
In the second embodiment, after the region division process (step a3), the color feature amount calculation unit 161b calculates a color feature amount for each region divided in step a3 (step e41). There are various values as the color feature amount. Here, for example, the color differences Cb and Cr in the YCbCr color space are used as the color feature amount. First, based on the color components (R, G, B) of each pixel of the intraluminal image, the color differences Cb, Cr of each pixel are calculated according to the following equations (3), (4).
Cb = 0.17 × R−0.33 × G + 0.50 × B (3)
Cr = 0.50 × R−0.42 × G + 0.08 × B (4)

次いで、各画素の色差Cbの値の領域毎の平均値および各画素の色差Crの値の領域毎の平均値をそれぞれ算出し、各領域の色特徴量とする。ここで色特徴量は、各領域のCbの平均値とCrの平均値とで構成される2次元の特徴量データとなる。なお、ここでは、色特徴量として色差を用いることとしたが、これに限定されるものではない。例えば、色相や彩度、色比等を色特徴量として用いてもよい。また、平均値に限らず、最大値や中央値、最頻値等を算出して色特徴量としてもよい。   Next, the average value of the color difference Cb value of each pixel for each region and the average value of the color difference Cr value of each pixel for each region are calculated and used as the color feature amount of each region. Here, the color feature amount is two-dimensional feature amount data including an average value of Cb and an average value of Cr in each region. Here, although the color difference is used as the color feature amount, the present invention is not limited to this. For example, hue, saturation, color ratio, and the like may be used as the color feature amount. Further, not only the average value but also the maximum value, median value, mode value, etc. may be calculated as the color feature amount.

続いて、輝度特徴量算出部162bが、ステップa3で領域分割した領域毎に輝度特徴量を算出する(ステップe43)。具体的には先ず、体内管腔内画像の輝度成分Yを算出する。輝度成分Yの算出に関しては、実施の形態1で図9のステップb1の処理として説明した手法を用いることができる。領域分割処理で既に輝度成分Yを算出している場合には、この値を用いることができる。次いで、各画素の輝度成分Yの値の領域毎の平均値を算出し、各領域の輝度特徴量とする。なお、ここでは、輝度特徴量として輝度成分Yの平均値を算出することとしたが、平均値に限らず、例えば、最大値や中央値、最頻値等を算出して輝度特徴量としてもよい。   Subsequently, the luminance feature amount calculation unit 162b calculates a luminance feature amount for each region divided in step a3 (step e43). Specifically, first, the luminance component Y of the intraluminal image is calculated. Regarding the calculation of the luminance component Y, the method described as the process of step b1 in FIG. 9 in the first embodiment can be used. This value can be used when the luminance component Y has already been calculated in the region division processing. Next, the average value of the luminance component Y value of each pixel for each region is calculated and set as the luminance feature amount of each region. Here, the average value of the luminance component Y is calculated as the luminance feature amount. However, the average value is not limited to the average value. For example, the maximum value, the median value, the mode value, and the like may be calculated as the luminance feature amount. Good.

また、実施の形態2では、高周波特徴量算出部152が行う高周波特徴量算出処理(ステップa5)の後、泡領域検出部155bが、泡領域検出処理を行う(ステップe7)。図14は、実施の形態2における泡領域検出処理の詳細な処理手順を示すフローチャートである。   In the second embodiment, after the high frequency feature amount calculation process (step a5) performed by the high frequency feature amount calculation unit 152, the bubble region detection unit 155b performs the bubble region detection process (step e7). FIG. 14 is a flowchart showing a detailed processing procedure of the bubble region detection processing in the second embodiment.

泡領域検出処理では、図13のステップa3で領域分割した領域を順次注目領域としてループCの処理を行う(ステップf1〜ステップf19)。すなわち、先ず、泡領域検出部155bの色特徴量判別部163bが、注目領域の色特徴量を閾値処理し(ステップf3)、注目領域の色特徴量が予め設定される所定の範囲内の場合には(ステップf5:Yes)、ステップf7に移行して注目領域を否泡領域とする。   In the bubble area detection process, the process of loop C is sequentially performed with the area divided in step a3 in FIG. 13 as the attention area (step f1 to step f19). That is, first, when the color feature amount determination unit 163b of the bubble region detection unit 155b performs threshold processing on the color feature amount of the attention region (step f3), and the color feature amount of the attention region is within a predetermined range set in advance. (Step f5: Yes), the process proceeds to step f7 to set the attention area as a non-bubble area.

輝度高周波特徴量を算出して泡領域を判別する手法では、まれに出血や発赤部に起因する輝度高周波成分を泡領域として誤検出する場合がある。そこで、色特徴量を判別して出血や発赤部等の領域を否泡領域とすることで泡領域の判別対象から除外し、誤検出を抑制する。具体的には、事前に複数のサンプル画像を用意し、ステップf7で否泡領域として泡領域の判別対象から除外する例えば出血や発赤部等の領域の色特徴量を教師データとして取得する。そして、取得した色特徴量をもとに、色特徴量空間における否泡領域の範囲を決定しておく。   In the method of calculating the high-frequency luminance feature and discriminating the bubble area, there is a rare case where the high-frequency luminance component resulting from bleeding or redness is erroneously detected as the bubble area. Therefore, the color feature amount is discriminated and an area such as bleeding or redness is defined as a non-foaming area, so that it is excluded from the discrimination target of the foam area, and erroneous detection is suppressed. Specifically, a plurality of sample images are prepared in advance, and in step f7, for example, color feature amounts of areas such as bleeding and redness that are excluded from the determination target of the bubble area as a non-bubble area are acquired as teacher data. Then, based on the acquired color feature amount, the range of the non-bubble region in the color feature amount space is determined in advance.

なお、ここでは、色特徴量空間における否泡領域の範囲を閾値として設定しておく場合について説明したが、色特徴量空間における否泡領域の範囲を分布関数や教師データ点として設定しておき、公知の統計判別処理や近傍法等を適用して所定の範囲内か否かを判別することとしてもよい。   Here, the case where the range of the non-foaming region in the color feature amount space is set as a threshold has been described, but the range of the non-foaming region in the color feature amount space is set as a distribution function or a teacher data point. Alternatively, it may be determined whether or not it is within a predetermined range by applying a known statistical determination process, a neighborhood method, or the like.

注目領域の色特徴量が予め設定される所定の範囲内でなければ(ステップf5:No)、続いて輝度特徴量判別部164bが、注目領域の輝度特徴量を閾値処理し(ステップf9)、注目領域の輝度特徴量が予め設定される所定の閾値以下の場合には(ステップf11:Yes)、ステップf7に移行して注目領域を否泡領域とする。   If the color feature amount of the attention area is not within the predetermined range set in advance (step f5: No), then the luminance feature amount determination unit 164b performs threshold processing on the luminance feature amount of the attention area (step f9), When the luminance feature amount of the attention area is equal to or less than a predetermined threshold value set in advance (step f11: Yes), the process proceeds to step f7 to set the attention area as a non-bubble area.

輝度高周波特徴量を算出して泡領域を判別する手法では、まれに暗部のノイズに起因する輝度高周波成分を泡領域として誤検出する場合がある。そこで、輝度特徴量を判別してノイズ部分を否泡領域とすることで泡領域の判別対象から除外し、誤検出を抑制する。具体的には、事前に複数のサンプル画像を用意し、ステップf7で否泡領域として泡領域の判別対象から除外する例えばノイズ等の領域の輝度特徴量を教師データとして取得する。そして、取得した輝度特徴量をもとに、輝度特徴量空間における否泡領域の範囲を決定しておく。   In the method of calculating the high-frequency luminance feature and discriminating the bubble region, there is a rare case where the high-frequency luminance component caused by the noise in the dark portion is erroneously detected as the bubble region. Therefore, the luminance feature amount is discriminated and the noise part is set as a non-foaming region, so that it is excluded from the discrimination target of the foaming region, and erroneous detection is suppressed. Specifically, a plurality of sample images are prepared in advance, and in step f7, for example, the luminance feature amount of a region such as noise that is excluded from the determination target of the bubble region as a non-bubble region is acquired as teacher data. Based on the acquired luminance feature amount, the range of the bubble-free region in the luminance feature amount space is determined in advance.

そして、注目領域の色特徴量が所定の範囲内でない場合であって(ステップf5:No)、注目領域の輝度特徴量が所定の閾値より大きい場合には(ステップf11:No)、高周波特徴量判別部156bが、実施の形態1と同様にして注目領域の輝度高周波特徴量を閾値処理し(ステップf13)、注目領域の輝度高周波特徴量が所定の閾値以上であれば(ステップf15:Yes)、泡領域検出部155bが、注目領域を泡領域として検出する(ステップf17)。全ての領域についてループCの処理を行ったならば、図13のステップe7にリターンし、その後ステップe9に移る。   When the color feature amount of the attention area is not within the predetermined range (step f5: No), and the luminance feature amount of the attention area is larger than the predetermined threshold (step f11: No), the high frequency feature amount The determination unit 156b performs threshold processing on the luminance high-frequency feature value of the attention area in the same manner as in the first embodiment (step f13). If the luminance high-frequency feature value of the attention area is equal to or greater than the predetermined threshold value (step f15: Yes). The bubble area detection unit 155b detects the attention area as the bubble area (step f17). If the processing of the loop C is performed for all the regions, the process returns to step e7 in FIG. 13, and then proceeds to step e9.

そして、図13のステップe9では、演算部15bが、処理対象の体内管腔内画像内の泡領域の検出結果を出力し、画像処理装置10bの演算部15bでの処理を終了する。   In step e9 in FIG. 13, the calculation unit 15b outputs the detection result of the bubble region in the intraluminal image to be processed, and ends the processing in the calculation unit 15b of the image processing apparatus 10b.

以上説明したように、実施の形態2によれば、実施の形態1と同様の効果を奏するとともに、色特徴量が出血や発赤部の色範囲にある領域を否泡領域として泡領域の検出対象から除外することができ、出血や発赤部に対する誤検出を低減することができる。さらに、輝度特徴量をもとに、ノイズ部分を否泡領域として泡領域の検出対象から除外することができ、暗部で生じるノイズに対する誤検出を低減することができる。   As described above, according to the second embodiment, the effect similar to that of the first embodiment is achieved, and the region where the color feature amount is in the color range of bleeding or redness is defined as a non-foam region, and the detection target of the bubble region Therefore, it is possible to reduce false detection of bleeding and redness. Furthermore, based on the luminance feature amount, the noise portion can be excluded from the detection target of the bubble region as a non-bubble region, and erroneous detection for noise occurring in the dark portion can be reduced.

なお、上記した実施の形態2では、先ず色特徴量判別部163bが、各領域の色特徴量を閾値処理して否泡領域を判別し、続いて輝度特徴量判別部164bが、色特徴量判別部163bによって否泡領域と判定されなかった領域の輝度特徴量を閾値処理して否泡領域を判別することとした。すなわち、色特徴量に基づく否泡領域と輝度特徴量に基づく否泡領域とを合わせて否泡領域とすることとした。   In the second embodiment described above, first, the color feature amount determination unit 163b performs threshold processing on the color feature amount of each region to determine a bubble-free region, and then the luminance feature amount determination unit 164b performs a color feature amount. The determination unit 163b determines the non-foam area by performing threshold processing on the luminance feature amount of the area that is not determined as the non-foam area. That is, the non-foaming region based on the color feature amount and the non-foaming region based on the luminance feature amount are combined into a non-foaming region.

これに対し、輝度特徴量判別部164bが、各領域の輝度特徴量を閾値処理して否泡領域を判別し、続いて色特徴量判別部163bが、輝度特徴量判別部164bによって否泡領域と判定されなかった領域の色特徴量を閾値処理して否泡領域を判別することとしてもよい。   On the other hand, the luminance feature amount discriminating unit 164b discriminates the bubble-free region by performing threshold processing on the luminance feature amount of each region, and then the color feature amount discriminating unit 163b performs the bubble-free region by the luminance feature amount discriminating unit 164b. The non-foam area may be determined by performing threshold processing on the color feature amount of the area that has not been determined to be.

また、色特徴量判別部163bが、各領域の色特徴量を閾値処理して否泡領域を判別するとともに、輝度特徴量判別部164bが、各領域の輝度特徴量を閾値処理して否泡領域を判別することとしてもよい。   In addition, the color feature amount determination unit 163b performs threshold processing on the color feature amount of each region to determine a non-foam region, and the luminance feature amount determination unit 164b performs threshold processing on the luminance feature amount of each region. The area may be determined.

また、色特徴量に基づく否泡領域のみを判別することとし、輝度特徴量に基づく否泡領域の判別を行わない構成としてもよい。あるいは、輝度特徴量に基づく否泡領域のみを判別することとし、色特徴量に基づく否泡領域の判別を行わない構成としてもよい。   Further, only the non-foaming region based on the color feature amount may be determined, and the non-foaming region based on the luminance feature amount may not be determined. Alternatively, only the non-foaming region based on the luminance feature amount may be determined, and the non-foaming region based on the color feature amount may not be determined.

また、輝度特徴量算出部162bが、色特徴量判別部163bによって否泡領域と判別されなかった領域について輝度特徴量を算出することとしてもよい。この場合には先ず、色特徴量算出部161bが、各領域の色特徴量を算出し、続いて色特徴量判別部163bが、各領域の色特徴量を閾値処理して否泡領域を判別する。次いで輝度特徴量算出部162bが、色特徴量判別部163bによって否泡領域と判定されなかった領域の輝度特徴量を算出し、輝度特徴量判別部164bが、この輝度特徴量を閾値処理して否泡領域を判別する。   In addition, the luminance feature amount calculation unit 162b may calculate the luminance feature amount for a region that has not been determined as a bubble-free region by the color feature amount determination unit 163b. In this case, first, the color feature amount calculation unit 161b calculates the color feature amount of each region, and then the color feature amount determination unit 163b performs threshold processing on the color feature amount of each region to determine the bubble-free region. To do. Next, the luminance feature amount calculation unit 162b calculates the luminance feature amount of the region that has not been determined as the bubble-free region by the color feature amount determination unit 163b, and the luminance feature amount determination unit 164b performs threshold processing on the luminance feature amount. Determine the no-bubble area.

あるいは、色特徴量算出部161bが、輝度特徴量判別部164bによって否泡領域と判別されなかった領域について色特徴量を算出することとしてもよい。この場合には先ず、輝度特徴量算出部162bが、各領域の輝度特徴量を算出し、続いて輝度特徴量判別部164bが、各領域の輝度特徴量を閾値処理して否泡領域を判別する。次いで色特徴量算出部161bが、輝度特徴量判別部164bによって否泡領域と判定されなかった領域の色特徴量を算出し、色特徴量判別部163bが、この色特徴量を閾値処理して否泡領域を判別する。   Alternatively, the color feature amount calculation unit 161b may calculate the color feature amount for an area that has not been determined as a bubble-free area by the luminance feature amount determination unit 164b. In this case, first, the luminance feature amount calculation unit 162b calculates the luminance feature amount of each region, and then the luminance feature amount determination unit 164b performs threshold processing on the luminance feature amount of each region to determine a bubble-free region. To do. Next, the color feature amount calculation unit 161b calculates the color feature amount of the region that has not been determined as the bubble-free region by the luminance feature amount determination unit 164b, and the color feature amount determination unit 163b performs threshold processing on the color feature amount. Determine the no-bubble area.

また、上記した実施の形態では、カプセル内視鏡3によって撮像された体内管腔内画像から泡領域を検出する場合について説明したが、処理の対象となる画像はカプセル内視鏡3で撮像された画像に限定されるものではなく、体内管腔内を撮像した画像から泡領域を検出する場合であれば同様に適用できる。   In the embodiment described above, the case where the bubble region is detected from the intraluminal image captured by the capsule endoscope 3 has been described. However, the image to be processed is captured by the capsule endoscope 3. However, the present invention is not limited to such an image, and can be similarly applied to the case where a bubble region is detected from an image obtained by imaging the inside of a body lumen.

実施の形態1の画像処理装置を含む画像処理システムの全体構成を示す概略模式図である。1 is a schematic diagram illustrating an overall configuration of an image processing system including an image processing apparatus according to a first embodiment. 泡領域が映る体内管腔内画像の一例を示す模式図である。It is a schematic diagram which shows an example of the intraluminal image in which a bubble area | region is reflected. 泡領域が映る体内管腔内画像の他の例を示す模式図である。It is a schematic diagram which shows the other example of the intraluminal image in which a bubble area | region is reflected. 従来の泡検出で用いられる泡モデルの一例を示す図である。It is a figure which shows an example of the foam model used by the conventional foam detection. 図3に示す泡を図4の泡モデルを用いて検出する様子を示す図である。It is a figure which shows a mode that the bubble shown in FIG. 3 is detected using the bubble model of FIG. 実施の形態1の泡領域の検出原理を説明する説明図である。3 is an explanatory diagram for explaining a detection principle of a bubble region according to Embodiment 1. FIG. 実施の形態1の画像処理装置の機能構成を説明するブロック図である。2 is a block diagram illustrating a functional configuration of the image processing apparatus according to Embodiment 1. FIG. 実施の形態1の画像処理装置が行う処理手順を示す全体フローチャートである。3 is an overall flowchart illustrating a processing procedure performed by the image processing apparatus according to the first embodiment. 領域分割処理の詳細な処理手順を示すフローチャートである。It is a flowchart which shows the detailed process sequence of an area | region division process. 高周波特徴量算出処理の詳細な処理手順を示すフローチャートである。It is a flowchart which shows the detailed process sequence of a high frequency feature-value calculation process. 実施の形態1における泡領域検出処理の詳細な処理手順を示すフローチャートである。4 is a flowchart showing a detailed processing procedure of bubble area detection processing in the first embodiment. 実施の形態2の画像処理装置の機能構成を説明するブロック図である。6 is a block diagram illustrating a functional configuration of an image processing apparatus according to Embodiment 2. FIG. 実施の形態2の画像処理装置が行う処理手順を示す全体フローチャートである。10 is an overall flowchart illustrating a processing procedure performed by the image processing apparatus according to the second embodiment. 実施の形態2における泡領域検出処理の詳細な処理手順を示すフローチャートである。10 is a flowchart showing a detailed processing procedure of bubble area detection processing in the second embodiment.

符号の説明Explanation of symbols

3 カプセル内視鏡
5 受信装置
A1〜An 受信用アンテナ
7 可搬型記録媒体
10,10b 画像処理装置
11 外部インターフェース部
12 操作部
13 表示部
14,14b 記録部
141 画像データ
143,143b 画像処理プログラム
15,15b 演算部
151 領域分割部
152 高周波特徴量算出部
153 高周波成分算出部
154 領域内統計値算出部
155,155b 泡領域検出部
156,156b 高周波特徴量判別部
161b 色特徴量算出部
162b 輝度特徴量算出部
163b 色特徴量判別部
164b 輝度特徴量判別部
17 制御部
1 被検体
DESCRIPTION OF SYMBOLS 3 Capsule endoscope 5 Receiving device A1-An Receiving antenna 7 Portable recording medium 10, 10b Image processing apparatus 11 External interface part 12 Operation part 13 Display part 14, 14b Recording part 141 Image data 143, 143b Image processing program 15 , 15b arithmetic unit 151 region dividing unit 152 high frequency feature amount calculating unit 153 high frequency component calculating unit 154 in-region statistical value calculating unit 155, 155b bubble region detecting unit 156, 156b high frequency feature amount determining unit 161b color feature amount calculating unit 162b luminance feature Quantity calculation unit 163b Color feature quantity discrimination unit 164b Luminance feature quantity discrimination unit 17 Control unit 1 Subject

Claims (8)

体内管腔内を撮像した体内管腔内画像を処理する画像処理装置であって、
前記体内管腔内画像を複数の領域に分割する領域分割手段と、
前記複数の領域毎の輝度高周波特徴量を算出する高周波特徴量算出手段と、
各領域の輝度高周波特徴量に基づいて、前記領域毎に泡領域を検出する泡領域検出手段と、
を備えることを特徴とする画像処理装置。
An image processing apparatus for processing an intraluminal image obtained by imaging the internal lumen,
Region dividing means for dividing the intraluminal image into a plurality of regions;
High-frequency feature amount calculating means for calculating a luminance high-frequency feature amount for each of the plurality of regions;
Based on the luminance high frequency feature amount of each region, a bubble region detection means for detecting a bubble region for each region,
An image processing apparatus comprising:
前記高周波特徴量算出手段は、
前記体内管腔内画像を構成する各画素の輝度高周波成分を算出する高周波成分算出手段と、
前記領域毎に、前記領域を構成する画素について前記高周波成分算出手段が算出した前記輝度高周波成分の統計値を算出する統計値算出手段と、
を備え、
前記領域毎に算出した統計値を前記領域毎の輝度高周波特徴量とすることを特徴とする請求項1に記載の画像処理装置。
The high frequency feature amount calculating means includes:
High-frequency component calculating means for calculating a luminance high-frequency component of each pixel constituting the intraluminal image;
For each region, a statistical value calculation unit that calculates a statistical value of the high-frequency luminance component calculated by the high-frequency component calculation unit for the pixels constituting the region;
With
The image processing apparatus according to claim 1, wherein a statistical value calculated for each region is used as a luminance high-frequency feature amount for each region.
前記泡領域検出手段は、前記輝度高周波特徴量が所定の閾値以上である領域を泡領域と判別する高周波特徴量判別手段を備えることを特徴とする請求項1または2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the bubble area detection unit includes a high frequency feature amount determination unit that determines a region where the luminance high frequency feature amount is equal to or greater than a predetermined threshold as a bubble region. 前記領域毎に色特徴量を算出する色特徴量算出手段と、
前記色特徴量が所定の範囲内の領域を否泡領域と判別する色特徴量判別手段と、
を備え、
前記泡領域検出手段は、前記色特徴量判別手段によって否泡領域と判別されなかった領域について泡領域の検出を行うことを特徴とする請求項1〜3のいずれか1つに記載の画像処理装置。
Color feature amount calculating means for calculating a color feature amount for each region;
A color feature amount discriminating means for discriminating a region in which the color feature amount is within a predetermined range as a non-foam region;
With
The image processing according to any one of claims 1 to 3, wherein the bubble region detection unit detects a bubble region for a region that has not been determined as a non-bubble region by the color feature amount determination unit. apparatus.
前記領域毎に輝度特徴量を算出する輝度特徴量算出手段と、
前記輝度特徴量が所定の閾値以下の領域を否泡領域と判別する輝度特徴量判別手段と、
を備え、
前記泡領域検出手段は、前記輝度特徴量判別手段によって否泡領域と判別されなかった領域について泡領域の検出を行うことを特徴とする請求項1〜4のいずれか1つに記載の画像処理装置。
A luminance feature amount calculating means for calculating a luminance feature amount for each region;
A luminance feature amount determining means for determining a region where the luminance feature amount is equal to or less than a predetermined threshold as a non-foam region;
With
5. The image processing according to claim 1, wherein the bubble area detection unit detects a bubble area for an area that has not been determined as a non-bubble area by the luminance feature amount determination unit. apparatus.
前記色特徴量判定手段によって否泡領域と判定されなかった領域の輝度特徴量を算出する輝度特徴量算出手段と、
前記輝度特徴量が所定の閾値以下の領域を否泡領域と判別する輝度特徴量判別手段と、
を備え、
前記泡領域検出手段は、前記輝度特徴量判別手段によって否泡領域と判別されなかった領域について泡領域の検出を行うことを特徴とする請求項4に記載の画像処理装置。
A luminance feature amount calculating means for calculating a luminance feature amount of an area that has not been determined as a non-foam area by the color feature amount determining means;
A luminance feature amount determining means for determining a region where the luminance feature amount is equal to or less than a predetermined threshold as a non-foam region;
With
The image processing apparatus according to claim 4, wherein the bubble region detection unit detects a bubble region for a region that has not been determined as a non-bubble region by the luminance feature amount determination unit.
コンピュータに、体内管腔内を撮像した体内管腔内画像を処理させるための画像処理プログラムであって、
前記体内管腔内画像を複数の領域に分割する領域分割ステップと、
前記複数の領域毎の輝度高周波特徴量を算出する高周波特徴量算出ステップと、
各領域の輝度高周波特徴量に基づいて、前記領域毎に泡領域を検出する泡領域検出ステップと、
を前記コンピュータに実行させることを特徴とする画像処理プログラム。
An image processing program for causing a computer to process a body lumen image obtained by imaging the body lumen,
A region dividing step of dividing the intraluminal image into a plurality of regions;
A high frequency feature amount calculating step for calculating a luminance high frequency feature amount for each of the plurality of regions;
Based on the luminance high frequency feature amount of each region, a bubble region detection step for detecting a bubble region for each region,
An image processing program for causing the computer to execute.
体内管腔内を撮像した体内管腔内画像を処理する画像処理方法であって、
前記体内管腔内画像を複数の領域に分割する領域分割工程と、
前記領域分割工程で分割された複数の領域毎の輝度高周波特徴量を算出する高周波特徴量算出工程と、
前記高周波特徴量算出工程で算出された各領域の輝度高周波特徴量に基づいて、前記領域毎に泡領域を検出する泡領域検出工程と、
を含むことを特徴とする画像処理方法。
An image processing method for processing a body lumen image obtained by imaging the body lumen,
A region dividing step of dividing the intraluminal image into a plurality of regions;
A high-frequency feature amount calculating step for calculating a luminance high-frequency feature amount for each of a plurality of regions divided in the region dividing step;
A bubble region detection step for detecting a bubble region for each region based on the luminance high frequency feature amount of each region calculated in the high frequency feature amount calculation step;
An image processing method comprising:
JP2008289016A 2008-11-11 2008-11-11 Image processing apparatus, image processing program, and image processing method Withdrawn JP2010115260A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008289016A JP2010115260A (en) 2008-11-11 2008-11-11 Image processing apparatus, image processing program, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008289016A JP2010115260A (en) 2008-11-11 2008-11-11 Image processing apparatus, image processing program, and image processing method

Publications (1)

Publication Number Publication Date
JP2010115260A true JP2010115260A (en) 2010-05-27

Family

ID=42303323

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008289016A Withdrawn JP2010115260A (en) 2008-11-11 2008-11-11 Image processing apparatus, image processing program, and image processing method

Country Status (1)

Country Link
JP (1) JP2010115260A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012016454A (en) * 2010-07-07 2012-01-26 Olympus Corp Image processing apparatus, image processing method, and image processing program
JP2012125469A (en) * 2010-12-16 2012-07-05 Olympus Corp Image processor, image processing method, and image processing program
EP2565845A2 (en) 2011-08-31 2013-03-06 Olympus Corporation Image processing device, image processing method, and image processing program
JP2013085718A (en) * 2011-10-18 2013-05-13 Olympus Corp Image processing device, image processing method, and image processing program
JP2021056769A (en) * 2019-09-30 2021-04-08 サントリーホールディングス株式会社 Foam count device for foamed beverage
WO2022239339A1 (en) * 2021-05-10 2022-11-17 ソニーグループ株式会社 Medical information processing device, medical observation system, and medical information processing method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012016454A (en) * 2010-07-07 2012-01-26 Olympus Corp Image processing apparatus, image processing method, and image processing program
US9053533B2 (en) 2010-07-07 2015-06-09 Olympus Corporation Image processing apparatus, image processing method, and computer-readable recording medium for extracting a dark portion area from an intraluminal image
JP2012125469A (en) * 2010-12-16 2012-07-05 Olympus Corp Image processor, image processing method, and image processing program
US8798344B2 (en) 2010-12-16 2014-08-05 Olympus Corporation Image processing apparatus, image processing method and computer-readable recording device
EP2565845A2 (en) 2011-08-31 2013-03-06 Olympus Corporation Image processing device, image processing method, and image processing program
JP2013085718A (en) * 2011-10-18 2013-05-13 Olympus Corp Image processing device, image processing method, and image processing program
US9299137B2 (en) 2011-10-18 2016-03-29 Olympus Corporation Image processing device, image processing method, and computer readable storage device
EP2584526A3 (en) * 2011-10-18 2017-05-17 Olympus Corporation Image processing device, image processing method, and image processing program
JP2021056769A (en) * 2019-09-30 2021-04-08 サントリーホールディングス株式会社 Foam count device for foamed beverage
JP7282328B2 (en) 2019-09-30 2023-05-29 サントリーホールディングス株式会社 Foam counting device for sparkling beverages
WO2022239339A1 (en) * 2021-05-10 2022-11-17 ソニーグループ株式会社 Medical information processing device, medical observation system, and medical information processing method

Similar Documents

Publication Publication Date Title
US11170498B2 (en) Image processing device, image processing method, and image processing program for detecting specific region from image captured by endoscope designated as detection target image in response to determining that operator&#39;s action in not predetermined action
JP5281826B2 (en) Image processing apparatus, image processing program, and image processing method
JP5576782B2 (en) Image processing apparatus, image processing method, and image processing program
JP5959168B2 (en) Image processing apparatus, operation method of image processing apparatus, and image processing program
JP5424584B2 (en) Image processing apparatus, image processing program, and method of operating image processing apparatus
EP1842481B1 (en) Medical image processing method
JP5121204B2 (en) Image processing apparatus, image processing method, and image processing program
US9916666B2 (en) Image processing apparatus for identifying whether or not microstructure in set examination region is abnormal, image processing method, and computer-readable recording device
US8781233B2 (en) Image processing apparatus, method of processing image, and computer-readable recording medium
US10194783B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium for determining abnormal region based on extension information indicating state of blood vessel region extending in neighborhood of candidate region
US8705818B2 (en) Image processing device, computer readable storage medium storing image processing program, and image processing method
US9672610B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
EP2937033A1 (en) Image processing apparatus, electronic device, endoscope apparatus, program, and image processing method
JP5800626B2 (en) Image processing apparatus, image processing method, and image processing program
WO2013080868A1 (en) Image processing device, image processing method, and image processing program
JP2010115260A (en) Image processing apparatus, image processing program, and image processing method
US10540765B2 (en) Image processing device, image processing method, and computer program product thereon
JP2012073953A (en) Image processing device, image processing method, and image processing program
US10206555B2 (en) Image processing apparatus, image processing method, and computer readable recording medium
US9299137B2 (en) Image processing device, image processing method, and computer readable storage device
US20180047163A1 (en) Image processing apparatus, image processing method, and computer-readable recording medium
US10292577B2 (en) Image processing apparatus, method, and computer program product
JP4856275B2 (en) Medical image processing device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120207