JP2013255808A - Medical image processing device - Google Patents

Medical image processing device Download PDF

Info

Publication number
JP2013255808A
JP2013255808A JP2013128704A JP2013128704A JP2013255808A JP 2013255808 A JP2013255808 A JP 2013255808A JP 2013128704 A JP2013128704 A JP 2013128704A JP 2013128704 A JP2013128704 A JP 2013128704A JP 2013255808 A JP2013255808 A JP 2013255808A
Authority
JP
Japan
Prior art keywords
pixel
blood vessel
filter
pixels
target pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013128704A
Other languages
Japanese (ja)
Other versions
JP5856999B2 (en
Inventor
Sawako SHIBATA
佐和子 柴田
Kenichi Tanaka
健一 田中
Hiroichi Nishimura
博一 西村
Miho Sawa
美穂 沢
Tetsuo Nonami
徹緒 野波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Medical Systems Corp
Original Assignee
Olympus Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Medical Systems Corp filed Critical Olympus Medical Systems Corp
Priority to JP2013128704A priority Critical patent/JP5856999B2/en
Publication of JP2013255808A publication Critical patent/JP2013255808A/en
Application granted granted Critical
Publication of JP5856999B2 publication Critical patent/JP5856999B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Abstract

PROBLEM TO BE SOLVED: To provide a medical image processing device and a medical image processing method which can be applied even to the case of a mucosal surface structure having a complicated shape such as a blood vessel which branches, meanders or changes in a diameter and to the case having a complicated shape with a density change, and can accurately extract the structure.SOLUTION: For input images for which noise is eliminated or the like from endoscopic images, a filtering processing part 32, with a plurality of one-dimensional filters prepared according to the width and running direction of a blood vessel, takes a plurality of pixels of a local area including a pixel of interest, performs a product-sum operation, and extracts the pixel having the featured value of the blood vessel from a filter whose output value takes the maximum value. Further, by a determination part 34, comparison with the threshold of a determination reference is made and whether or not it is a blood vessel pixel is determined.

Description

本発明は医用画像に対する画像処理により血管の構造等の粘膜模様を抽出する医用画像処理装置に関する。   The present invention relates to a medical image processing apparatus that extracts a mucosal pattern such as a blood vessel structure by image processing on a medical image.

従来から、画像、例えば眼底透視画像や内視鏡画像のような医用画像から対象形状を抽出する技術においては、物体の光の吸収によって生じる色調差(濃度差とも言う)を用いた閾値による二値化処理や、以下のようなフィルタリングが行われる。   Conventionally, in a technique for extracting a target shape from an image, for example, a medical image such as a fundus fluoroscopic image or an endoscopic image, two threshold values using a color tone difference (also referred to as a density difference) caused by light absorption of an object are used. The valuation process and the following filtering are performed.

フィルタリングとしては、対象のエッジを抽出するエッジ抽出フィルタ、デジタルフィルタ、例えば対象の周波数特性を利用したローパスフィルタ(Low-Pass Filter:LPF)や対象が有する幅情報などによって設計されたバンドパスフィルタ(Band-Pass Filter:BPF)などにより対象形状を抽出する手法が利用されている。   Filtering includes an edge extraction filter that extracts the target edge, a digital filter, for example, a low-pass filter (LPF) that uses the frequency characteristics of the target, and a band-pass filter designed based on the width information of the target ( A method of extracting a target shape using a band-pass filter (BPF) is used.

例えば第1の従来例としての特開平9−62836号公報(特許文献1)においては、医用画像に平滑化処理を施して得た平滑化画像と、医用画像との差分画像を求めて、エッジ領域を抽出する。所定の閾値よりもエッジの度合いが大きいエッジ領域に対しては、エッジ強調を施さないで、所定の閾値よりもエッジの度合いが大きくないエッジ領域に対しては、エッジ強調を施して、過強調を防止して見やすい画像を生成する。   For example, in Japanese Unexamined Patent Publication No. 9-62836 (Patent Document 1) as a first conventional example, a difference image between a medical image and a smoothed image obtained by performing a smoothing process on a medical image is obtained, and an edge is obtained. Extract regions. Edge enhancement is not performed on edge regions with a degree of edge greater than a predetermined threshold, and edge enhancement is performed on edge regions with a degree of edge greater than a predetermined threshold, and over-emphasis is performed. To generate an easy-to-view image.

また、第2の従来例としての特開2007−325656号公報(特許文献2)には、生体を撮像した近赤外画像において、相対的に周辺画素よりも輝度値が小さい画素である暗画素を抽出し、当該暗画素を示す暗画素画像データを作成した後、2次元のマスクパターンを用いて画素が連続している暗画素である連続暗領域を抽出し、該連続暗領域を示す連続暗領域画像データを作成する。   Japanese Patent Laying-Open No. 2007-325656 (Patent Document 2) as a second conventional example describes a dark pixel that is a pixel having a relatively smaller luminance value than peripheral pixels in a near-infrared image obtained by imaging a living body. And a dark pixel image data representing the dark pixel is generated, and then a continuous dark region that is a dark pixel in which the pixels are continuous is extracted using a two-dimensional mask pattern, and the continuous dark region is indicated. Create dark area image data.

そして、連続暗領域画像データに対して血管が存在する画素からなる特定領域を抽出し、当該特定領域を示す特定領域画像データを作成する。   And the specific area | region which consists of the pixel in which the blood vessel exists with respect to continuous dark area | region image data is extracted, and the specific area image data which shows the said specific area is produced.

しかし上記第1の従来例の手法では、例えば内視鏡画像における血管を抽出しようとした場合、血管と血管以外の領域との色調差が不明瞭である画像や、深さの違いによる濃淡の異なる血管が存在する画像、画像全域において生体の曲面などの理由で光量が均一に当たらず背景の明るさが変化した画像に対しては、精度の良い抽出結果を得ることができない。   However, in the first conventional method, for example, when a blood vessel is to be extracted from an endoscopic image, an image in which the color difference between the blood vessel and a region other than the blood vessel is unclear, or a shading due to a difference in depth is used. An accurate extraction result cannot be obtained for an image in which different blood vessels are present or an image in which the amount of light is not uniformly applied and the background brightness changes due to the curved surface of the living body in the entire image.

特開平9−62836号公報JP-A-9-62836 特開2007−325656号公報JP 2007-325656 A

上記のような画像に対して第1の従来例の手法により、平滑化処理し、エッジによる抽出処理を行うと、画像内の位置や色調の違いによってばらつきが生じ、所望とする対象形状としての血管の形状だけでなく、対象形状でない部分も抽出してしまうなど、精度の良い抽出結果を得ることができない。   When the above-described image is smoothed and extracted by the edge using the first conventional method, variations occur due to differences in position and color tone in the image, and the desired target shape is obtained. It is not possible to obtain a highly accurate extraction result such as extracting not only the shape of the blood vessel but also the portion that is not the target shape.

第2の従来例は、画素の連続性を示す2次元のマスクパターンを用いることにより、血管が走行する形状を抽出し易くするが、例えば血管は種々に屈曲したり蛇行したりするため、抽出する精度を向上できない。   The second conventional example uses a two-dimensional mask pattern indicating the continuity of pixels to facilitate the extraction of the shape that the blood vessel travels. For example, the blood vessel can be bent or meandered in various ways. Accuracy cannot be improved.

このため、種々に分岐や蛇行した形状で走行したり、管径(幅)が変化する血管のような複雑な形状を有する粘膜表面構造の場合においても適用でき、精度良くその構造を抽出することができる医用画像処理装置が望まれる。   For this reason, it can be applied to a mucosal surface structure that travels in various branched or meandering shapes or has a complex shape such as a blood vessel whose tube diameter (width) changes, and the structure can be extracted with high accuracy. Therefore, a medical image processing apparatus capable of performing the above is desired.

本発明は上述した点に鑑みてなされたもので、分岐や蛇行したり、管径が変化する複雑な形状を有する場合においても適用でき、精度良くその構造を抽出することができる医用画像処理装置を提供することを目的とする。   The present invention has been made in view of the above-described points, and can be applied to a case where a complicated shape in which a branch or meander or a pipe diameter is changed can be applied, and the structure can be extracted with high accuracy. The purpose is to provide.

本発明の一態様の医用画像処理装置は、生体粘膜を撮像して得られる複数の画素からなる医用画像情報を入力する入力部と、前記医用画像情報の複数の画素における注目画素に対して前記生体粘膜の表面構造の走行方向と幅のうち少なくとも一方の情報を含む第1のフィルタを適用することにより前記注目画素の第1の特徴情報を取得し、さらに前記注目画素に対して表面構造の走行方向と幅のうち少なくとも一方の情報を含む第2のフィルタを適用することにより前記注目画素の第2の特徴情報を取得し、さらに前記注目画素の近傍に位置する近傍画素に前記第1のフィルタを適用することにより前記近傍画素の第3の特徴情報を取得し、さらに前記近傍画素に前記第2のフィルタを適用することにより前記近傍画素の第4の特徴情報を取得するフィルタリング部と、前記注目画素の第1の特徴情報および前記注目画素の第2の特徴情報に基づき前記第1のフィルタ及び前記第2のフィルタのうち前記注目画素においてより反応したフィルタを選択し、さらに前記近傍画素の第3の特徴情報および前記近傍画素の第4の特徴情報に基づき前記第1のフィルタ及び前記第2のフィルタのうち前記近傍画素においてより反応したフィルタを選択する選択部と、前記注目画素において前記選択部によって選択されたフィルタに対応する特徴情報に基づき前記注目画素が表面構造候補画素であるか非粘膜表面構造候補画素であるかを判定し、さらに前記近傍画素において前記選択部によって選択されたフィルタに対応する特徴情報に基づき前記近傍画素が表面構造候補画素であるか非粘膜表面構造候補画素であるかを判定する判定部と、前記判定部において前記表面構造候補画素であると判断された近傍画素における少なくとも一方の情報と前記注目画素における少なくとも一方の情報との比較結果に基づき前記注目画素になされた前記判定結果を補正する補正部と、を有する。   The medical image processing apparatus according to one aspect of the present invention includes an input unit that inputs medical image information including a plurality of pixels obtained by imaging a biological mucous membrane, and the target pixel in the plurality of pixels of the medical image information. By applying a first filter that includes at least one of the traveling direction and width of the surface structure of the biological mucous membrane, the first feature information of the pixel of interest is obtained, and the surface structure By applying a second filter including at least one of the traveling direction and width information, the second feature information of the pixel of interest is obtained, and further, the first pixel is added to a neighboring pixel located in the vicinity of the pixel of interest. The third feature information of the neighboring pixels is obtained by applying a filter, and the fourth feature information of the neighboring pixels is obtained by applying the second filter to the neighboring pixels. And a filtering unit that selects a filter that is more responsive to the target pixel from the first filter and the second filter based on the first feature information of the target pixel and the second feature information of the target pixel. And a selection unit that selects a filter that reacts more in the neighboring pixel out of the first filter and the second filter based on the third feature information of the neighboring pixel and the fourth feature information of the neighboring pixel; Determining whether the pixel of interest is a surface structure candidate pixel or a non-mucosal surface structure candidate pixel based on feature information corresponding to the filter selected by the selection unit in the pixel of interest, and further, Based on the feature information corresponding to the filter selected by the selection unit, the neighboring pixel is a surface structure candidate pixel or non-mucosal A comparison result between a determination unit that determines whether the pixel is a surface structure candidate pixel, and at least one information of a neighboring pixel that is determined to be the surface structure candidate pixel by the determination unit and at least one information of the pixel of interest And a correction unit that corrects the determination result made on the target pixel.

図1は本発明の第1の実施形態に係る内視鏡システムの構成を示す図。FIG. 1 is a diagram showing a configuration of an endoscope system according to a first embodiment of the present invention. 図2は画像処理装置を構成するCPUによる機能的構成を示すブロック図。FIG. 2 is a block diagram showing a functional configuration of a CPU constituting the image processing apparatus. 図3は画像処理装置による処理内容を示すフローチャート。FIG. 3 is a flowchart showing the contents of processing by the image processing apparatus. 図4は血管を含む生体粘膜の内視鏡画像を示す図。FIG. 4 is a view showing an endoscopic image of a biological mucosa including blood vessels. 図5は内視鏡画像中における抽出対象の血管を含む周辺領域を模式的に示す説明図。FIG. 5 is an explanatory diagram schematically showing a peripheral region including a blood vessel to be extracted in an endoscopic image. 図6は血管の横断面形状を示す図。FIG. 6 is a diagram showing a cross-sectional shape of a blood vessel. 図7は血管の横断面形状に対応した1次元フィルタの輪郭を示す図。FIG. 7 is a diagram showing the outline of a one-dimensional filter corresponding to the cross-sectional shape of a blood vessel. 図8は複数の1次元フィルタを用いたフィルタリング処理を示すフローチャート。FIG. 8 is a flowchart showing filtering processing using a plurality of one-dimensional filters. 図9は複数の1次元フィルタの形状を示す図。FIG. 9 is a diagram showing the shape of a plurality of one-dimensional filters. 図10は特徴量の抽出及び血管の特徴量であるか否かの判定内容を示すフローチャート。FIG. 10 is a flowchart showing the contents of extraction of feature amounts and determination of whether or not the feature amount is a blood vessel. 図11は処理画像を入力画像と共に表示する表示例を示す図。FIG. 11 is a diagram illustrating a display example in which a processed image is displayed together with an input image. 図12は本発明の第2の実施形態におけるフィルタ記憶部が格納する情報を示す図。FIG. 12 is a diagram showing information stored in the filter storage unit according to the second embodiment of the present invention. 図13は第2の実施形態における処理内容を示すフローチャート。FIG. 13 is a flowchart showing the processing contents in the second embodiment. 図14は本発明の第3の実施形態における処理内容を示すフローチャート。FIG. 14 is a flowchart showing the processing contents in the third embodiment of the present invention. 図15は図14における判定の処理内容を示すフローチャート。FIG. 15 is a flowchart showing the processing contents of the determination in FIG. 図16は図14における判定の処理内容を示すフローチャート。FIG. 16 is a flowchart showing the processing contents of the determination in FIG. 図17は図15及び図16の補正の処理内容を示すフローチャート。FIG. 17 is a flowchart showing the processing contents of the correction in FIGS. 15 and 16.

以下、図面を参照して本発明の実施形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1の実施形態)
図1に示す本発明の第1の実施形態の内視鏡システム1は、医療機器としての内視鏡装置2と、この内視鏡装置2により得られた医療画像としての内視鏡画像に対して画像処理を行うパーソナルコンピュータにより構成される医用画像処理装置(以下、単に画像処理装置と略記)3と、この画像処理装置3により画像処理された画像を表示するモニタ4とから構成される。
(First embodiment)
An endoscope system 1 according to the first embodiment of the present invention shown in FIG. 1 includes an endoscope device 2 as a medical device and an endoscope image as a medical image obtained by the endoscope device 2. A medical image processing apparatus (hereinafter simply abbreviated as “image processing apparatus”) 3 composed of a personal computer that performs image processing on the image processing apparatus 3 and a monitor 4 that displays an image processed by the image processing apparatus 3. .

内視鏡装置2は、体腔内に挿入され、体内を撮像する体内撮像装置を形成する内視鏡6と、この内視鏡6に照明光を供給する光源装置7と、内視鏡6の撮像手段に対する信号処理を行うカメラコントロールユニット(CCUと略記)8と、このCCU8から出力される画像信号が入力されることにより、撮像素子で撮像した画像を内視鏡画像として表示するモニタ9とを有する。   The endoscope device 2 is inserted into a body cavity and forms an endoscope 6 that forms an in-vivo imaging device that images the inside of the endoscope, a light source device 7 that supplies illumination light to the endoscope 6, and an endoscope 6 A camera control unit (abbreviated as CCU) 8 that performs signal processing on the imaging means, and a monitor 9 that displays an image captured by the imaging device as an endoscopic image by inputting an image signal output from the CCU 8; Have

内視鏡6は、体腔内に挿入される挿入部11とこの挿入部11の後端に設けられた操作部12とを有する。また挿入部11内には照明光を伝送するライトガイド13が挿通されている。   The endoscope 6 includes an insertion portion 11 that is inserted into a body cavity and an operation portion 12 that is provided at the rear end of the insertion portion 11. A light guide 13 that transmits illumination light is inserted into the insertion portion 11.

このライトガイド13の後端は、光源装置7に接続される。そして、この光源装置7から供給される照明光をライトガイド13により伝送し、挿入部11の先端部14に設けた照明窓に取り付けられた先端面から(伝送した照明光を)出射し、検査、又は診断対象の生体組織を照明する。なお、光源装置7は、通常観察用の白色の照明光、又は白色をカバーする赤(R)、緑(G)、青(B)の面順次照明光をライトガイド13に供給する。   The rear end of the light guide 13 is connected to the light source device 7. Then, the illumination light supplied from the light source device 7 is transmitted by the light guide 13 and emitted from the distal end surface attached to the illumination window provided at the distal end portion 14 of the insertion portion 11 (the transmitted illumination light) is inspected. Or illuminating a living tissue to be diagnosed. The light source device 7 supplies the light guide 13 with white illumination light for normal observation or frame sequential illumination light of red (R), green (G), and blue (B) covering white.

なお、光源装置7として、狭帯域の照明光をライトガイド13に供給し、検査対象の生体組織を狭帯域光で照明する構成にしても良い。   The light source device 7 may be configured to supply narrow-band illumination light to the light guide 13 and illuminate the living tissue to be examined with narrow-band light.

照明窓に隣接する観察窓には対物レンズ15が取り付けられており、この対物レンズ15の結像位置には固体撮像素子しての例えば電荷結合素子(CCDと略記)16が配置されている。対物レンズ15とCCD16とにより撮像を行う撮像部17が形成される。このCCD16の撮像面に結像された光学像は、このCCD16により光電変換される。   An objective lens 15 is attached to an observation window adjacent to the illumination window. For example, a charge coupled device (abbreviated as CCD) 16 serving as a solid-state image sensor is disposed at the image forming position of the objective lens 15. An imaging unit 17 that performs imaging is formed by the objective lens 15 and the CCD 16. The optical image formed on the imaging surface of the CCD 16 is photoelectrically converted by the CCD 16.

このCCD16は、信号線を介してCCU8と接続され、このCCU8からのCCD駆動信号が印加されることにより、CCD16は光電変換した画像信号を出力する。この画像信号は、CCU8内の画像処理回路により信号処理され、表示装置に表示する画像信号に変換される。この画像信号はモニタ9に出力され、モニタ9の表示面には、内視鏡画像が表示される。この画像信号は、画像処理装置3にも入力される。   The CCD 16 is connected to the CCU 8 via a signal line, and the CCD 16 outputs a photoelectrically converted image signal when a CCD drive signal from the CCU 8 is applied. This image signal is signal-processed by an image processing circuit in the CCU 8 and converted into an image signal to be displayed on the display device. This image signal is output to the monitor 9, and an endoscopic image is displayed on the display surface of the monitor 9. This image signal is also input to the image processing device 3.

この画像処理装置3は、内視鏡装置2により生成された医用画像としての内視鏡画像を入力する画像入力手段としての画像入力部21と、この画像入力部21から入力された内視鏡画像に対応する画像信号のデジタル化された画像信号に対する画像処理を行う中央演算処理装置としてのCPU22と、このCPU22により画像処理を実行させる処理プログラム(制御プログラム)を記憶する処理プログラム記憶部23とを有する。なお、画像入力部21を内視鏡装置2側に設けた構成にしても良い。   The image processing apparatus 3 includes an image input unit 21 as an image input unit that inputs an endoscopic image as a medical image generated by the endoscope apparatus 2, and an endoscope input from the image input unit 21. A CPU 22 as a central processing unit that performs image processing on a digitized image signal corresponding to an image, and a processing program storage unit 23 that stores a processing program (control program) that causes the CPU 22 to perform image processing; Have Note that the image input unit 21 may be provided on the endoscope apparatus 2 side.

また、この画像処理装置3は、画像入力部21から入力される入力画像の画像信号、処理途中、処理終了の画像信号等を記憶する画像記憶部24と、CPU22により画像処理する場合に用いられる複数の1次元フィルタ等の情報を処理情報として記憶する処理情報記憶部25と、CPU22により処理された画像信号及び処理情報等を記憶装置インタフェース26を介して記憶する記憶装置としてのハードディスク27と、CPU22により処理された画像等を表示するための表示処理を行う表示処理部28と、術者等のユーザが画像処理のパラメータ等の入力、選択、指示操作を行うキーボードなどからなる入力操作部29とを有する。   The image processing apparatus 3 is used when the image processing is performed by the CPU 22 and the image storage unit 24 that stores the image signal of the input image input from the image input unit 21, the image signal that is being processed, and the processing is completed. A processing information storage unit 25 that stores information such as a plurality of one-dimensional filters as processing information; a hard disk 27 as a storage device that stores image signals processed by the CPU 22 and processing information and the like via a storage device interface 26; An input operation unit 29 including a display processing unit 28 that performs a display process for displaying an image processed by the CPU 22, and a keyboard that allows a user such as an operator to input, select, and instruct an image processing parameter. And have.

上記のように処理情報記憶部25は、CPU22により画像処理する場合に用いられる複数の1次元フィルタの情報を記憶(格納)するフィルタ記憶部39を備える。   As described above, the processing information storage unit 25 includes the filter storage unit 39 that stores (stores) information on a plurality of one-dimensional filters used when the CPU 22 performs image processing.

このフィルタ記憶部39には、複数の1次元フィルタが予め格納されており、画像処理装置3を使用する術者等の使用者は、入力操作部29から、医用画像における診断対象の生体組織に含まれる血管の対象形状に応じて、その対象形状、又はその特徴量を抽出し易くする1次元フィルタを選択して実際の画像処理に利用する入力操作を行うことができる。   A plurality of one-dimensional filters are stored in the filter storage unit 39 in advance, and a user such as an operator who uses the image processing apparatus 3 can input from the input operation unit 29 to a living tissue to be diagnosed in a medical image. Depending on the target shape of the contained blood vessel, a one-dimensional filter that makes it easy to extract the target shape or its feature amount can be selected and an input operation used for actual image processing can be performed.

なお、本実施形態においては複数の1次元フィルタを用いるが、後述するように本発明は複数の1次元フィルタの場合に限定されるものでなく、複数の1次元フィルタないしはそれに準じたフィルタを含む複数のフィルタを用いても良い。   Although a plurality of one-dimensional filters are used in the present embodiment, the present invention is not limited to the case of a plurality of one-dimensional filters, as will be described later, and includes a plurality of one-dimensional filters or filters corresponding thereto. A plurality of filters may be used.

上記表示処理部28により生成された画像信号は、モニタ4に出力され、このモニタ4の表示面には画像処理された処理画像等が表示される。なお、画像入力部21、CPU22、処理プログラム記憶部23、画像記憶部24、処理情報記憶部25、記憶装置インタフェース26、表示処理部28、入力操作部29は、データバス30を介して互いに接続されている。   The image signal generated by the display processing unit 28 is output to the monitor 4, and a processed image or the like subjected to image processing is displayed on the display surface of the monitor 4. The image input unit 21, CPU 22, processing program storage unit 23, image storage unit 24, processing information storage unit 25, storage device interface 26, display processing unit 28, and input operation unit 29 are connected to each other via a data bus 30. Has been.

一般的に、正常な組織と病変組織の場合とでは内視鏡画像中の血管の走行の様子を含む形状が異なる場合が多い。このため、術者が生体粘膜表面の内視鏡画像から、正常な組織であるか、病変した病変組織であるかを診断する場合、内視鏡画像中の血管の走行の様子を含む形状を、診断する場合の指標、又は拠り所とする場合がある。従って、内視鏡画像中における血管の走行の様子を含む形状を、より視認し易いように抽出して表示ができるように画像処理すると、術者による診断を有効に支援することができる。   In general, a normal tissue and a diseased tissue often have different shapes including the state of blood vessel running in an endoscopic image. For this reason, when the surgeon diagnoses whether the tissue is a normal tissue or a diseased lesion tissue from the endoscopic image on the surface of the living mucosa, the shape including the state of the blood vessel running in the endoscopic image is used. In some cases, it may be used as an indicator for diagnosis or as a base. Therefore, if the image processing is performed so that the shape including the state of the blood vessel running in the endoscopic image can be extracted and displayed so as to be more easily visible, diagnosis by the operator can be effectively supported.

本実施形態は、粘膜表面構造における血管のように複雑な形状を有する(抽出しようと望む)抽出対象物を演算量が少ない画像処理により精度良く抽出し、視認し易く表示する等ができるように支援することを主要な目的とする。   In this embodiment, an extraction object having a complicated shape (desired to be extracted) like a blood vessel in the mucosal surface structure can be accurately extracted by image processing with a small amount of calculation, and can be displayed easily. The main purpose is to support.

なお、以下の説明においては、医用画像としての内視鏡画像から血管を抽出対象として抽出する場合を説明するが、血管以外の生体の粘膜表面構造に適用しても良い。
本実施形態では、例えば図2に示すようにCPU22は、画像入力部21を経て入力される医用画像としての画像信号に対してノイズ抑制、逆ガンマ補正等の前処理を行う前処理部31の機能を有する。
In the following description, a case where a blood vessel is extracted as an extraction target from an endoscopic image as a medical image will be described, but the present invention may be applied to a mucosal surface structure of a living body other than a blood vessel.
In the present embodiment, for example, as illustrated in FIG. 2, the CPU 22 includes a preprocessing unit 31 that performs preprocessing such as noise suppression and inverse gamma correction on an image signal as a medical image input via the image input unit 21. It has a function.

なお、前処理部31は、後述するようにノイズを抑制する処理を行うノイズ抑制部31a、逆ガンマ補正を行う逆ガンマ補正部31b、光量の影響を低減するために2つの色信号の比の画像信号を算出する色信号比算出部31cを含む。   As will be described later, the pre-processing unit 31 includes a noise suppression unit 31a that performs processing for suppressing noise, an inverse gamma correction unit 31b that performs reverse gamma correction, and a ratio of two color signals in order to reduce the influence of light quantity. A color signal ratio calculation unit 31c that calculates an image signal is included.

また、このCPU22は、前処理された画像信号に対して、上記フィルタ記憶部39に格納された複数のフィルタとしての複数の1次元フィルタを用いて、抽出しようと望む対象形状の特徴量を抽出するための演算を行うフィルタリング手段としてのフィルタリング処理部(又はフィルタリング演算部)32の機能を有する。   Further, the CPU 22 extracts feature amounts of the target shape to be extracted from the preprocessed image signal using a plurality of one-dimensional filters as a plurality of filters stored in the filter storage unit 39. The filtering processing unit (or filtering operation unit) 32 functions as a filtering unit that performs an operation to perform the operation.

また、このCPU22は、フィルタリング処理部32によるある画素における複数のフィルタ出力のうち該画素に最も反応したフィルタ、具体的には最大値を(広義には絶対値が最大値)を出力(生成)する1次元フィルタを求め、この1次元フィルタに対応した注目画素を、抽出しようと望む対象形状の特徴量として選択(又は抽出)する(特徴量選択手段としての)特徴量選択部33の機能を有する。   Further, the CPU 22 outputs (generates) a filter that reacts most to the pixel among a plurality of filter outputs of the pixel by the filtering processing unit 32, specifically, the maximum value (in the broad sense, the absolute value is the maximum value). The function of the feature quantity selection unit 33 (as a feature quantity selection unit) is selected (or extracted) as a feature quantity of the target shape to be extracted, and a target pixel corresponding to the one-dimensional filter is obtained. Have.

この特徴量選択部33は、フィルタリング処理部32の出力値から最大値を探索する最大値探索部33aを有する。そして、上記のように最大値を出力する1次元フィルタに対応した注目画素を対象形状の特徴量、つまり血管の特徴量を有する血管特徴量として抽出する。   The feature quantity selection unit 33 includes a maximum value search unit 33 a that searches for the maximum value from the output value of the filtering processing unit 32. Then, the target pixel corresponding to the one-dimensional filter that outputs the maximum value as described above is extracted as a feature amount of the target shape, that is, a blood vessel feature amount having a blood vessel feature amount.

また、この最大値探索部33aは、最大値を出力する1次元フィルタの幅と方向の情報から、注目画素での血管の幅(又は幅候補)を推定する幅推定部33bと、注目画素での血管の表面的に走行している方向としての走行方向(又は走行方向候補)を推定する走行方向推定部33cの機能を有する。また、このCPU22は、特徴量抽出部33により抽出された特徴量が、対象形状の特徴を含むか否かを判定するための判定基準に合致するか否かを判定する判定手段としての判定部34の機能を有する。   Further, the maximum value search unit 33a includes a width estimation unit 33b that estimates the width (or width candidate) of the blood vessel at the target pixel from information on the width and direction of the one-dimensional filter that outputs the maximum value, and the target pixel. It has the function of the traveling direction estimation part 33c which estimates the traveling direction (or traveling direction candidate) as the direction which is running on the surface of the blood vessel. In addition, the CPU 22 is a determination unit as a determination unit that determines whether or not the feature amount extracted by the feature amount extraction unit 33 matches a determination criterion for determining whether or not the feature amount includes a feature of the target shape. 34 functions.

この判定部34は、抽出された血管特徴量に対して、血管の特徴を含むか否かを判定するための判定基準として用意した閾値を用いて判定する。また、このCPU22は、他の実施形態において説明するため点線で示すように、判定部34等により判定された血管画素(又は血管画素が複数となる場合における血管候補画素)、非血管画素(又は非血管画素を補正する場合における非血管画素候補画素)を補正する補正部35の機能を有する。   The determination unit 34 makes a determination using a threshold prepared as a determination criterion for determining whether or not the extracted blood vessel feature amount includes a blood vessel feature. In addition, as illustrated by a dotted line in order to explain in another embodiment, the CPU 22 determines a blood vessel pixel (or a blood vessel candidate pixel when there are a plurality of blood vessel pixels), a non-blood vessel pixel (or a blood vessel pixel). It has a function of a correction unit 35 for correcting non-blood vessel pixel candidate pixels when correcting non-blood vessel pixels.

なお、補正部35は、推定された幅を補正する幅補正部35a、推定された走行方向を補正する走行方向補正部35bを有する。この他、後述するようにCPU22は、注目画素を含む局所領域における複数画素による統計量を算出する統計量算出部36、算出された統計量を用いて特徴量を補正する補正部36aを備える。   The correction unit 35 includes a width correction unit 35a that corrects the estimated width and a travel direction correction unit 35b that corrects the estimated travel direction. In addition, as will be described later, the CPU 22 includes a statistic calculation unit 36 that calculates a statistic by a plurality of pixels in a local region including the target pixel, and a correction unit 36a that corrects the feature using the calculated statistic.

なお、CPU22を用いること無く、ハードウェアによって、前処理部31、フィルタリング処理部32、特徴量選択部33、判定部34、補正部35、統計量算出部36をそれぞれ、またはその一部を形成しても良い。また、図1に示すように分離した構成に限らず、1つの処理機能が他の機能を含む組み合わせなどにしても良い。   Note that the preprocessing unit 31, the filtering processing unit 32, the feature amount selection unit 33, the determination unit 34, the correction unit 35, and the statistic calculation unit 36 are formed by hardware without using the CPU 22, or a part thereof. You may do it. Further, the present invention is not limited to the separated configuration as shown in FIG. 1, and one processing function may be a combination including other functions.

本実施形態における画像処理装置3は、医療機器により撮像された医用画像を入力する画像入力手段としての画像入力部21と、前記医用画像から注目画素を含む複数の画素からなる局所領域に対して、抽出対象の粘膜表面構造に応じて設定され、前記粘膜表面構造の横断面に対する濃度変化を検出するために用意される互いに異なる複数の横断面のサイズと、前記粘膜表面構造の表面的に走行している方向を検出するために用意される互いに異なる複数の方向と、に対応した複数のフィルタと、前記複数のフィルタを用いて、前記注目画素を含む前記局所領域に対して前記粘膜表面構造に対応した特微量を抽出するための演算を行うフィルタリング手段としてのフィルタリング処理部32と、前記フィルタリング手段による演算により、ある画像における複数のフィルタ出力のうち該画素に最も反応したフィルタから前記粘膜表面構造の特徴量を選択する特微量選択手段としての特徴量選択部33と、選択された前記特微量に対して該特徴量が前記粘膜表面構造の特徴を含むか否かを判定する判定手段としての判定部34と、を備え、前記複数のフィルタは、Nを1以上,Mを2以上の整数として、前記複数の横断面に対する濃度変化のサイズに対応して用意されるN個のフィルタを、前記横断面に対する濃度変化の方向と直交する方向に対応して用意されるM個の方向にそれぞれ配置したN×M個からなることを特徴とする。   The image processing apparatus 3 according to the present embodiment has an image input unit 21 serving as an image input unit that inputs a medical image captured by a medical device, and a local region including a plurality of pixels including the target pixel from the medical image. Set according to the mucosal surface structure to be extracted and prepared for detecting a change in density with respect to the cross-section of the mucosal surface structure, and a plurality of different cross-sectional sizes and the surface of the mucosal surface structure running A plurality of filters corresponding to a plurality of different directions prepared for detecting a direction in which the target area is detected, and the mucosal surface structure for the local region including the pixel of interest using the plurality of filters. The filtering processing unit 32 as a filtering unit that performs a calculation for extracting a feature amount corresponding to the A feature quantity selection unit 33 as feature quantity selection means for selecting a feature quantity of the mucosal surface structure from a filter that is most responsive to the pixel among a plurality of filter outputs in the image, and the feature for the selected feature quantity And a determination unit 34 as a determination unit for determining whether or not the amount includes a feature of the mucosal surface structure, and the plurality of filters, where N is an integer of 1 or more and M is an integer of 2 or more, N × M prepared by arranging N filters corresponding to the size of density change with respect to the cross section in M directions prepared corresponding to directions orthogonal to the direction of density change with respect to the cross section. It consists of pieces.

次に図3を参照して本実施形態の画像処理装置3による処理内容を説明する。内視鏡装置2により撮像され、モニタ9に表示される生体の粘膜表面構造の内視鏡画像の1例を図4に示す。内視鏡画像における血管は、ヘモグロビンがG成分を吸収することから、血管周囲の背景粘膜と比較して濃度値が低くなる。   Next, processing contents by the image processing apparatus 3 of the present embodiment will be described with reference to FIG. FIG. 4 shows an example of an endoscopic image of the biological mucosal surface structure captured by the endoscope apparatus 2 and displayed on the monitor 9. The blood vessel in the endoscopic image has a density value lower than that of the background mucosa around the blood vessel because hemoglobin absorbs the G component.

例えば、図4の濃度値が低い部分(暗い部分)となる血管は、画像上では様々な方向に走行し、表面的に走行している方向としての走行方向に直交する方向の横断面の構造は,下に凸の形状を示す(これを谷構造と呼ぶこととする)と考えられる。このような形状を有する血管の特徴量としての谷構造は、様々な幅のサイズ(谷となっている画素数)を持つ。   For example, the blood vessel which is a portion having a low density value (dark portion) in FIG. 4 travels in various directions on the image, and has a cross-sectional structure in a direction perpendicular to the traveling direction as the surface traveling direction. Is considered to have a downwardly convex shape (this will be referred to as a valley structure). The valley structure as a feature amount of a blood vessel having such a shape has various width sizes (the number of pixels forming a valley).

このような内視鏡画像の画像信号は、図3のステップS1において画像入力部21により画像処理装置3内に読み込まれ、画像記憶部24に記憶される。   Such an endoscopic image signal is read into the image processing apparatus 3 by the image input unit 21 in step S1 of FIG. 3 and stored in the image storage unit 24.

次のステップS2においてCPU22の前処理部31は、画像記憶部24に一時記憶した画像信号を読み出し、その画像信号に対して前処理を行う。   In the next step S2, the preprocessing unit 31 of the CPU 22 reads the image signal temporarily stored in the image storage unit 24 and performs preprocessing on the image signal.

この前処理として、ノイズ抑制部31aは、例えば3×3のメディアンフィルタを用いて画像信号に対するノイズ抑制を行い、さらに逆ガンマ補正部31bは、ノイズ抑制の処理後の画像信号に対して逆ガンマ補正を行う。    As this preprocessing, the noise suppression unit 31a performs noise suppression on the image signal using, for example, a 3 × 3 median filter, and the inverse gamma correction unit 31b further performs inverse gamma on the image signal after the noise suppression processing. Make corrections.

さらに、逆ガンマ補正された画像信号に対して、光量等の影響を受けにくくするために、色信号比算出部31cは、各画素における3つの色信号における、例えばG信号及びR信号の画素信号値g、rの比の値を算出する処理を行う。算出された色信号値比(g/r値とも記す)からなるG/R画像を、次のステップS3の処理の入力画像として用いる。    Further, in order to make the image signal subjected to inverse gamma correction less susceptible to the influence of the light amount or the like, the color signal ratio calculation unit 31c includes, for example, pixel signals of G signal and R signal in the three color signals in each pixel. A process of calculating a ratio value between the values g and r is performed. A G / R image composed of the calculated color signal value ratio (also referred to as g / r value) is used as an input image for the next step S3.

ステップS3においてフィルタリング処理部32は、入力画像に対してフィルタ記憶部39に格納された複数のフィルタとして複数の1次元フィルタを用いて、血管の特徴量を抽出するためのフィルタリング処理を行う。    In step S <b> 3, the filtering processing unit 32 performs a filtering process for extracting blood vessel feature amounts using a plurality of one-dimensional filters as a plurality of filters stored in the filter storage unit 39 on the input image.

このフィルタリング処理により、1次元フィルタの数(但し、以下に説明するように同じ1次元フィルタが異なる複数の方向に用意される)に等しい数のフィルタリング処理された複数の処理値が出力値として生成される。    By this filtering process, a plurality of filtered processed values equal to the number of one-dimensional filters (however, the same one-dimensional filter is prepared in different directions as described below) are generated as output values. Is done.

次のステップS4において特徴量選択部33は、画素ごとに生成された複数の出力値において最大となる処理値を、血管の特徴量を持つ血管特徴量とする。つまり、ある画素における複数のフィルタ処理結果のうち、最大の出力値をとるフィルタから血管の特徴量を選択又は抽出する。    In the next step S4, the feature value selection unit 33 sets the processing value that is the maximum among the plurality of output values generated for each pixel as the blood vessel feature value having the blood vessel feature value. That is, a blood vessel feature amount is selected or extracted from a filter having the maximum output value among a plurality of filter processing results in a certain pixel.

次のステップS5において判定部34は、抽出された血管の特徴量を持つ画素に対して判定基準としての例えば閾値を用いて実際に血管の特徴を有する血管画素であるか否かを判定、つまり血管の特徴量を持つ画素が血管の特徴を有する血管画素で有るか否かの判定の処理を行う。ステップS5の判定の処理により、ステップS6に示すように血管の特徴量を有する血管画素が決定され、該血管画素から構成される血管領域が決定される。   In the next step S5, the determination unit 34 determines whether or not the pixel having the extracted blood vessel feature amount is a blood vessel pixel that actually has the blood vessel feature using, for example, a threshold value as a determination criterion. A process of determining whether or not a pixel having a blood vessel feature amount is a blood vessel pixel having a blood vessel feature is performed. By the determination process in step S5, a blood vessel pixel having a blood vessel characteristic amount is determined as shown in step S6, and a blood vessel region including the blood vessel pixel is determined.

次のステップS7において判定部34により判定された処理結果の情報を記録すると共に、処理結果の処理画像(血管領域が決定された処理画像)を表示処理部28を経てモニタ4で表示し、図3の画像処理を終了する。   Information on the processing result determined by the determination unit 34 in the next step S7 is recorded, and a processing image of the processing result (processing image in which the blood vessel region is determined) is displayed on the monitor 4 through the display processing unit 28, and FIG. 3 image processing ends.

次に図3における血管の特徴量を抽出するためのフィルタリング処理等を詳細に説明する。図5は内視鏡画像中における抽出しようとする対象形状の血管51を含む粘膜領域52をモデル化して示す。   Next, a filtering process for extracting the blood vessel feature amount in FIG. 3 will be described in detail. FIG. 5 shows a model of a mucosal region 52 including a target-shaped blood vessel 51 to be extracted in an endoscopic image.

この粘膜領域52中には、血管51を抽出するための注目画素Pが設定される。図5においては、血管51部分に注目画素Pが設定された状態を示している。実際には、注目画素Pは、内視鏡画像中において、術者が注目する2次元の注目領域としての処理対象領域を指定した場合、その処理対象領域の処理対象画素全体を走査(スキャン)するように注目画素Pが設定される。例えば、術者が図5に示す粘膜領域52を処理対象領域に設定した場合には、注目画素Pは、左上の画素Paから水平方向に順次走査するように設定され、右下の最後の画素Pzまで設定される。   A pixel of interest P for extracting the blood vessel 51 is set in the mucous membrane region 52. FIG. 5 shows a state where the target pixel P is set in the blood vessel 51 portion. Actually, when the processing target region as a two-dimensional target region to which the operator pays attention is designated in the endoscopic image, the target pixel P scans (scans) the entire processing target pixel in the processing target region. Thus, the target pixel P is set. For example, when the surgeon sets the mucosal region 52 shown in FIG. 5 as the processing target region, the target pixel P is set to sequentially scan in the horizontal direction from the upper left pixel Pa, and the lower right last pixel It is set up to Pz.

血管51の横断面は、例えば図6に示すように下に凸となる形状、つまり谷構造を有し、その谷の幅、つまり横断面のサイズが異なるものが存在する。   For example, as shown in FIG. 6, the cross section of the blood vessel 51 has a downwardly convex shape, that is, a valley structure, and there are different valley widths, that is, different sizes of the cross section.

このため、本実施形態においては、図6に示す表面構造の横断面に対する濃度変化に対応した形状の血管51を抽出するために、例えば図7に示した形状のもので、幅のサイズが異なる複数の1次元形状フィルタを用意する。なお、図7における横軸は、血管51の横断面の方向に対応して設定される方向であり、縦軸は1次元形状フィルタの値、つまりフィルタ係数値を表す。   For this reason, in the present embodiment, in order to extract the blood vessel 51 having a shape corresponding to the concentration change with respect to the cross section of the surface structure shown in FIG. 6, for example, the shape shown in FIG. A plurality of one-dimensional shape filters are prepared. The horizontal axis in FIG. 7 is a direction set corresponding to the direction of the cross section of the blood vessel 51, and the vertical axis represents the value of the one-dimensional shape filter, that is, the filter coefficient value.

また、血管51の走行方向が異なる場合にも対応できるようにするために、その複数の走行方向に対応した複数の方向のもの(走行方向候補)を用意する。なお、本明細書に記載の実施形態は、血管以外のピットパターンなどの上皮構造にも適用できる。そして、横断面が下に凸の場合に限らず、上に凸である等、抽出しようとする特徴的な形状を持つ横断面であれば、その横断面に応じたフィルタを用意することで、血管以外の場合にも同様に対応可能となる。   Also, in order to be able to cope with the case where the traveling direction of the blood vessel 51 is different, a plurality of directions corresponding to the plurality of traveling directions (traveling direction candidates) are prepared. It should be noted that the embodiments described herein can be applied to epithelial structures such as pit patterns other than blood vessels. And not only when the cross section is convex downward, but if it is a cross section with a characteristic shape to be extracted, such as convex upward, by preparing a filter according to the cross section, The same applies to cases other than blood vessels.

従って、本実施形態における複数の1次元フィルタは、画像中における抽出しようとする血管51の幅Wに対応した複数の1次元形状フィルタを、複数の方向に配置したものを用意する。図5における点線は、複数の方向として、水平方向、水平方向と45°、水平方向と90°、水平方向と135°をなす4つの方向d1,d2,d3,d4のものを示している。
図8は、図3のステップS3の対象形状を抽出するフィルタリング処理を示す。入力画像内に注目すべき注目領域としての処理対象領域が設定されると、フィルタリング処理部32は、処理対象領域内の注目画素Pに対して、その注目画素Pが所望の対象形状を有する特徴量の画素であるかどうかを決定するためのフィルタリング処理を行う。
Therefore, a plurality of one-dimensional filters in the present embodiment are prepared by arranging a plurality of one-dimensional shape filters corresponding to the width W of the blood vessel 51 to be extracted in the image in a plurality of directions. The dotted lines in FIG. 5 indicate the four directions d1, d2, d3, and d4 that form the horizontal direction, 45 ° with the horizontal direction, 90 ° with the horizontal direction, and 135 ° with the horizontal direction as a plurality of directions.
FIG. 8 shows a filtering process for extracting the target shape in step S3 of FIG. When a processing target region as a target region of interest is set in the input image, the filtering processing unit 32 has a feature that the target pixel P has a desired target shape with respect to the target pixel P in the processing target region. A filtering process is performed to determine whether the number of pixels.

処理対象領域中における注目画素Pを表すためにパラメータkを用いて注目画素Pk(0≦k≦処理対象画素数−1)とする。   In order to represent the target pixel P in the processing target region, the target pixel Pk (0 ≦ k ≦ number of processing target pixels−1) is set using the parameter k.

また、パラメータkとして直交する2次元座標としてのXY座標表現を(i,j)とする。ここで、0≦i<width、 0≦j<height(とし、width、heightは処理対象領域の水平方向及び垂直方向の画像のpixel数(画素数)を示す。また、注目画素P(i,j)の観測値をp(i,j)とする。なお、注目画素P(i,j)、観測値p(i,j)を簡略的に表すPk,pkも用いる。本実施形態では、観測値p(i,j)は注目画素P(i,j)におけるg/r値となる。   Further, an XY coordinate expression as a two-dimensional coordinate orthogonal to the parameter k is (i, j). Here, 0 ≦ i <width, 0 ≦ j <height (where width and height indicate the number of pixels (number of pixels) of the image in the horizontal direction and the vertical direction of the processing target region. Also, the pixel of interest P (i, The observed value of j) is assumed to be p (i, j), and the pixel of interest P (i, j) and Pk, pk simply representing the observed value p (i, j) are also used. The observed value p (i, j) is the g / r value at the target pixel P (i, j).

図8は、ステップS2における前処理を行った後の画像を入力とし、予め作成された、複数の幅Wと複数の方向Dとに対応して構成される複数の1次元フィルタとして、N×M個のフィルタ係数fdw(d1≦d≦dN、w1≦w≦wM)を適用する。     FIG. 8 shows an image obtained by performing the preprocessing in step S2 as an input, and a plurality of one-dimensional filters created in advance corresponding to a plurality of widths W and a plurality of directions D are expressed as N × M filter coefficients fdw (d1 ≦ d ≦ dN, w1 ≦ w ≦ wM) are applied.

そして、後述する式(3)で示すように、観測値p(i,j)と、フィルタ係数fdwとの積和演算を行う。   Then, as shown in Equation (3) described later, a product-sum operation is performed on the observed value p (i, j) and the filter coefficient fdw.

この積和演算を行う場合、フィルタ係数fdwの係数要素数(係数長)をFN(=2K+1)とし、j番目の要素をfdw(j)と表すとすると、フィルタ係数fdwは以下のように表すことができる。   When performing this product-sum operation, assuming that the number of coefficient elements (coefficient length) of the filter coefficient fdw is FN (= 2K + 1) and the j-th element is expressed as fdw (j), the filter coefficient fdw is expressed as follows. be able to.

fdw={fdw(−K)、fdw(−(K−1))、…、fdw(0)、fdw(1)、…、fdw(K−1)、fdw(K)} (1)
なお、フィルタ係数fdwの係数要素数FNは、後述する具体例に示すように、用意(設定)されるフィルタ形状(特に幅のサイズ)に応じて適宜に設定される。
fdw = {fdw (-K), fdw (-(K-1)), ..., fdw (0), fdw (1), ..., fdw (K-1), fdw (K)} (1)
The coefficient element number FN of the filter coefficient fdw is appropriately set according to the filter shape (particularly the width size) prepared (set), as shown in a specific example described later.

また、フィルタ係数fdwにおける複数の方向は、処理対象領域の水平方向を0°とした場合の角度(本実施形態では反時計回りに0°〜360°とする)に対応して複数が設定される。   In addition, a plurality of directions in the filter coefficient fdw are set corresponding to an angle when the horizontal direction of the processing target region is 0 ° (in this embodiment, 0 ° to 360 ° counterclockwise). The

上記の積和演算を行う場合、フィルタ係数fdwにおける上記式(1)中の係数要素数FNの中央位置に注目画素Pを設定し、フィルタ係数fdwのその1次元の配列方向に沿って注目画素を含む局所領域としての複数の画素を設定して(積和演算が)行われる。   When performing the above product-sum operation, the pixel of interest P is set at the center position of the coefficient element number FN in the above equation (1) in the filter coefficient fdw, and the pixel of interest along the one-dimensional array direction of the filter coefficient fdw A plurality of pixels are set as a local region including (product-sum operation).

また、本実施形態においては、幅が異なる複数の血管51の横断面形状に対応した幅のサイズが異なる複数のフィルタ係数fdw(fdw1,fdw2,…,fdwM)を準備すると共に、積和演算を行った場合、実際の血管の幅のサイズに対応したフィルタ係数fdwを用いた演算値としての出力値が最大となるようにフィルタ係数fdwのフィルタ係数値が設定されている。   Further, in the present embodiment, a plurality of filter coefficients fdw (fdw1, fdw2,..., FdwM) having different width sizes corresponding to the cross-sectional shapes of the plurality of blood vessels 51 having different widths are prepared, and product-sum operation is performed. When performed, the filter coefficient value of the filter coefficient fdw is set so that the output value as the calculated value using the filter coefficient fdw corresponding to the actual size of the blood vessel width is maximized.

例えば図7に示した1次元フィルタ(フィルタ係数)は、実際の血管51の谷の幅に対応したサイズで中央が負となり、中央の両側においては正となる。そして、フィルタリング処理部32は、血管51を撮像した観測値pkを用いてフィルタ係数と積和演算を行う。   For example, the one-dimensional filter (filter coefficient) shown in FIG. 7 has a size corresponding to the actual width of the valley of the blood vessel 51 and is negative at the center and positive at both sides of the center. And the filtering process part 32 performs a filter coefficient and a product-sum operation using the observed value pk which imaged the blood vessel 51. FIG.

つまり、観測値pkと1次元フィルタとの関係が、幅が対応した関係で、かつ方向が対応した関係(一致した関係)となる場合での積和演算を行うと、中央の谷の部分と観測値pの負の値との積が、殆ど全ての積において正の値となり、それらの積和により大きな演算値として最大の出力値が得られる。   That is, when the product-sum operation is performed when the relationship between the observed value pk and the one-dimensional filter is a relationship corresponding to the width and a relationship corresponding to the direction (matched relationship), The product of the observed value p and the negative value becomes a positive value in almost all products, and the maximum output value is obtained as a large operation value by the sum of those products.

一方、対応した関係に無い観測値pk及び1次元フィルタで積和演算を行うと、例えば図7の谷に部分での積が正、負を含んだり、谷の外側での積が正、負を含んだりして、それらの積和では、大きな演算値となる出力値とはならない。   On the other hand, when the product-sum operation is performed with the observation value pk and the one-dimensional filter that do not have the corresponding relationship, for example, the product in the portion in the valley in FIG. 7 includes positive and negative, or the product in the outside of the valley is positive and negative. In other words, the product sum of them does not result in an output value that is a large operation value.

本実施形態における以下の説明においては、複数の方向の種類数N=4、幅の種類数M=3として説明する。例えば血管51の幅が最大値から最小値まであるものに対して、種類数Mとして最大値、最大値と最小値の中央値、最小値の3種類とする。   In the following description of the present embodiment, the number of types in a plurality of directions N = 4 and the number of types of width M = 3 will be described. For example, for a blood vessel 51 having a width from a maximum value to a minimum value, the number of types M is set to three types: a maximum value, a median value between the maximum value and the minimum value, and a minimum value.

3種類の場合に限定されるものでなく、検出対象の粘膜領域等に応じて、Mの値を大きくする等、その値を変更こともできる。複数の方向の種類数Nも、4種類の場合に限定されるものでなく、5種類数以上に設定しても良い。   The value is not limited to the three types, and the value can be changed, for example, by increasing the value of M according to the mucosal region to be detected. The number N of types in a plurality of directions is not limited to four types, and may be set to five or more types.

上記のように、幅の種類数M=3とした場合において、例えば、フィルタ係数fdw1は、画素数が5の幅の血管51を最も良く抽出することができる幅(適応幅と定義)が設定されているとする。   As described above, when the number of types of width M is 3, for example, the filter coefficient fdw1 is set to a width (defined as an adaptive width) that can best extract the blood vessel 51 having a width of 5 pixels. Suppose that

同様に、フィルタ係数fdw2の適応幅は画素数が7、フィルタ係数fdw3の適応幅は画素数が9であるものとする。   Similarly, the adaptive width of the filter coefficient fdw2 is 7 pixels, and the adaptive width of the filter coefficient fdw3 is 9 pixels.

具体例で説明すると、方向がdである場合のフィルタ係数は、
fdw1={0.18238、0.32356、0.1682、−0.3481、−0.652、−0.3481、0.1682、0.32356、0.18238}、
fdw2={0.19347、0.28177、0.24509、−0.0356、−0.4009、−0.5676、−0.4009、−0.0356、0.24509、0.28177、0.19347}、
fdw3={0.16261、0.18215、0.2109、0.20337、0.08723、−0.1554、−0.4214、−0.5389、−0.4214、−0.1554、0.08723、0.20337、0.2109、0.18215、0.16261} (2)
と設定される。
In a specific example, the filter coefficient when the direction is d is
fdw1 = {0.18238, 0.32356, 0.1682, -0.3481, -0.652, -0.3481, 0.1682, 0.32356, 0.18238},
fdw2 = {0.19347, 0.28177, 0.24509, -0.0356, -0.4009, -0.5676, -0.4009, -0.0356, 0.24509, 0.28177,. 19347},
fdw3 = {0.16261, 0.18215, 0.2109, 0.20337, 0.08723, -0.1554, -0.4214, -0.5389, -0.4214, -0.1554, 0. 08723, 0.20337, 0.2109, 0.18215, 0.16261} (2)
Is set.

なお、フィルタ係数fdw1、fdw2、fdw3に関して係数値(係数要素値)の総和はそれぞれ0となるように設定されている。これらフィルタ係数fdw1、fdw2、fdw3の形状の輪郭は図9に示すようになる。なお、図9の輪郭は、血管の横断面に対する濃度変化のサイズに対応して設定される。   Note that the sum of the coefficient values (coefficient element values) for the filter coefficients fdw1, fdw2, and fdw3 is set to be 0. The contours of the shapes of these filter coefficients fdw1, fdw2, and fdw3 are as shown in FIG. Note that the contour of FIG. 9 is set corresponding to the size of the density change with respect to the cross section of the blood vessel.

また、フィルタ係数fd1w、fd2w、fd3w、fd4wが設定される方向は、それぞれ0°、45°、90°及び135°の方向(図5のd1,d2, d3, d4にそれぞれ相当)に設定されるものとして説明する。なお、図9の下側には、フィルタ係数fdw1、fdw2、fdw3と、積和演算が行われる注目画素Pkを含む複数画素からなる局所領域を形成する1次元の配列方向の1つ(0°の場合)を示す。   The directions in which the filter coefficients fd1w, fd2w, fd3w, and fd4w are set are respectively set to 0 °, 45 °, 90 °, and 135 ° (corresponding to d1, d2, d3, and d4 in FIG. 5), respectively. It will be described as a thing. In the lower part of FIG. 9, one of the one-dimensional arrangement directions (0 °) forming a local region including a plurality of pixels including the filter coefficients fdw1, fdw2, and fdw3 and the target pixel Pk on which the product-sum operation is performed. In the case of

上記のようにフィルタ係数を設定しているので、図8のステップS31に示したN×M個のフィルタリング処理により、ステップS32に示すように注目画素Pkの観測値pkに対してN×M個の積和演算値の出力値が得られる。   Since the filter coefficients are set as described above, N × M pieces of the observed value pk of the target pixel Pk are obtained as shown in step S32 by the N × M pieces of filtering processing shown in step S31 of FIG. The output value of the product-sum operation value is obtained.

上述したようにフィルタ係数fdwの係数要素数をFNとすると、フィルタリング処理した出力値FOUTwdは次の式(3)で示すことができる。   As described above, when the number of coefficient elements of the filter coefficient fdw is FN, the filtered output value FOUTwd can be expressed by the following equation (3).

FOUTwd1(i,j)=Σkp(i+k,j)fd1w(k)
FOUTwd2(i,j)=Σkp(i+k,j)fd2w(k)
FOUTwd3(i,j)=Σkp(i+k,j)fd3w(k) (3)
FOUTwd4i,j)=Σkp(i+k,j)fd4w(k)
なお、式(3)におけるΣkはk=−FN/2から0を含むk=FN/2まで、観測値p(i+k,j)とフィルタ係数fdw(k)との積p(i+k,j)fdw(k)を和算(加算)することを表す。
FOUTwd1 (i, j) = Σkp (i + k, j) fd1w (k)
FOUTwd2 (i, j) = Σkp (i + k, j) fd2w (k)
FOUTwd3 (i, j) = Σkp (i + k, j) fd3w (k) (3)
FOUTwd4i, j) = Σkp (i + k, j) fd4w (k)
In Equation (3), Σk is a product p (i + k, j) of the observed value p (i + k, j) and the filter coefficient fdw (k) from k = −FN / 2 to k = FN / 2 including 0. Indicates that fdw (k) is added (added).

また、式(3)において、45°、90°方向のフィルタリング処理(積和演算)では、画素間の距離が√2(2の平方根を表す)となり、0°や90°方向のフィルタリング処理の画素間の距離が1となる場合と異なる。   In the expression (3), in the 45 ° and 90 ° direction filtering processing (product-sum operation), the distance between the pixels is √2 (representing the square root of 2), and the filtering processing in the 0 ° or 90 ° direction is performed. This is different from the case where the distance between pixels is 1.

このため、どの方向の出力でも同じ条件で比較できるように、本実施形態ではBicubic補間法を用いて画素間の距離が1となる画素を求めて、45°と90°方向の観測値とする。ただし、他の補間法を用いた補間による観測値の設定でも良いし、画素間の距離が√2の観測値に合わせたフィルタ係数を別途用意しても良い。   For this reason, in this embodiment, in order to be able to compare the output in any direction under the same conditions, a pixel with a distance between the pixels of 1 is obtained using the Bicubic interpolation method, and the observation values in the 45 ° and 90 ° directions are obtained. . However, the observation value may be set by interpolation using another interpolation method, or a filter coefficient corresponding to the observation value having a distance between pixels of √2 may be separately prepared.

上記の処理により、各注目画素Pkの観測値pkについてN×M個のフィルタリング処理の出力値Vkdwが得られる。   With the above processing, N × M output values Vkdw of the filtering processing are obtained for the observation value pk of each pixel of interest Pk.

このようにして取得された出力値Vkdwに対して図2のステップS4の特徴量選択(抽出)の処理として、図10の処理が行われる。   The processing shown in FIG. 10 is performed on the output value Vkdw obtained in this way as the feature amount selection (extraction) processing in step S4 in FIG.

上記のようにフィルタリング処理における注目画素Pkが血管51を構成する画素であった場合、その画素の位置における血管の幅と走行方向に最も合致したフィルタ係数fDWの出力が複数のフィルタ係数によるN×M個のフィルタリング処理の演算結果の中で最大となる。   As described above, when the target pixel Pk in the filtering process is a pixel constituting the blood vessel 51, the output of the filter coefficient fDW that most closely matches the width of the blood vessel and the traveling direction at the pixel position is N × by a plurality of filter coefficients. It becomes the maximum among the calculation results of the M filtering processes.

この特性を利用して、図10のステップS41において最大値探索部33aは、N×M個の出力値Vkdwから最大値となるフィルタ係数fDWを探索する。   Using this characteristic, in step S41 of FIG. 10, the maximum value search unit 33a searches for the filter coefficient fDW that is the maximum value from the N × M output values Vkdw.

出力値が最大値となったフィルタ係数fDWが注目画素Pkに最もフィットしたフィルタであるので、上記ステップS41において最大値探索部33aは、フィルタリング処理した出力値Vkdwが最大値となるフィルタ係数fDWを探索し、探索したフィルタ係数fDWとフィルタリング処理の演算に用いられた注目画素Pkにおける出力値VkDWを注目画素kの出力値とする。   Since the filter coefficient fDW having the maximum output value is the filter most fitted to the target pixel Pk, the maximum value search unit 33a determines the filter coefficient fDW having the maximum output value Vkdw subjected to the filtering process in step S41. The searched filter coefficient fDW and the output value VkDW at the target pixel Pk used for the calculation of the filtering process are set as the output value of the target pixel k.

また、そのフィルタ係数fDWの適応幅と、その設定された方向がその注目画素Pkにおいて血管が有する幅と走行方向の情報となる。この情報を注目画素Pkの血管の幅と走行方向の情報とも言う。   Further, the adaptive width of the filter coefficient fDW and the set direction become information on the width and running direction of the blood vessel in the target pixel Pk. This information is also referred to as information on the width and running direction of the blood vessel of the pixel of interest Pk.

次のステップS42において判定部34は、血管であるか否かを判定するために予め設定(用意)した所定の閾値Tと、前のステップS41において探索した前記出力値VkDWと、を比較して(観測値pk又はp(i,j)で表される)注目画素Pkが血管の画素、つまり血管画素であるか否かの判定する。本実施形態においては所定の閾値TはT=0.003に設定されている。   In the next step S42, the determination unit 34 compares the predetermined threshold T set (prepared) in advance to determine whether or not it is a blood vessel with the output value VkDW searched in the previous step S41. It is determined whether or not the target pixel Pk (represented by the observation value pk or p (i, j)) is a blood vessel pixel, that is, a blood vessel pixel. In the present embodiment, the predetermined threshold T is set to T = 0.003.

ステップS42の判定処理において、判定部34は、VkDW>TであればステップS43に進み、注目画素Pk(観測値pkの画素)は、血管を構成する血管領域の血管画素であると判定する。   In the determination process of step S42, if VkDW> T, the determination unit 34 proceeds to step S43, and determines that the pixel of interest Pk (the pixel of the observation value pk) is a blood vessel pixel in a blood vessel region that forms a blood vessel.

一方、ステップS42の判定処理において、判定部34は、VkDW≦TであればステップS44に進み、注目画素Pk(観測値pkの画素)は血管を構成する血管領域の画素でない(つまり、非血管画素である)と判定する。なお、上述した処理は、処理対象領域における注目画素Pkが無くなるまで繰り返される。   On the other hand, in the determination process of step S42, the determination unit 34 proceeds to step S44 if VkDW ≦ T, and the pixel of interest Pk (the pixel of the observation value pk) is not a pixel of the blood vessel region constituting the blood vessel (that is, a non-blood vessel). Pixel). Note that the above-described processing is repeated until there is no pixel of interest Pk in the processing target region.

処理対象領域に対して上述した処理を行うことにより、ステップS6に示すように注目画素Pkが血管を構成する血管領域の画素であるか否か、換言する血管領域が決定する。   By performing the above-described processing on the processing target region, whether or not the pixel of interest Pk is a pixel of the blood vessel region constituting the blood vessel is determined as shown in step S6.

以上の処理により、様々な濃度の谷構造を有する血管を抽出して血管領域を決定することができる。また、処理対象領域における全ての注目画素Pkに対する処理が終了するとステップS45において例えば処理情報記憶部25は、判定結果の情報を記憶する。なお、判定結果の情報をハードディスク27に記憶しても良い。
また、ステップS46において表示処理部28は、ステップS45の判定結果の情報を反映した処理画像をモニタ4に出力し、モニタ4は処理画像を表示する。モニタ4において処理画像を表示する場合、例えば血管画素と判定された画素信号値を、非血管後素と判定された画素信号値とは識別し易くするように輝度値、又は特定の色で強調する。
また、モニタ4には、画像処理装置3に入力される入力画像と、図3又は図10の処理により血管又は非血管と判定された処理画像とが例えば図11に示すように対比し易いように表示する。そして、図10或いは図3の処理を終了する。
Through the above processing, blood vessels having various valley structures can be extracted and a blood vessel region can be determined. Further, when the processing for all the target pixels Pk in the processing target region is completed, for example, the processing information storage unit 25 stores information of the determination result in step S45. Note that the determination result information may be stored in the hard disk 27.
In step S46, the display processing unit 28 outputs a processed image reflecting the information of the determination result in step S45 to the monitor 4, and the monitor 4 displays the processed image. When displaying a processed image on the monitor 4, for example, a pixel signal value determined as a blood vessel pixel is emphasized with a luminance value or a specific color so as to be easily distinguished from a pixel signal value determined as a non-blood vessel posterior element. To do.
Further, the monitor 4 can be easily compared with the input image input to the image processing apparatus 3 and the processed image determined to be a blood vessel or a non-blood vessel by the processing of FIG. 3 or 10 as shown in FIG. To display. Then, the processing in FIG. 10 or FIG. 3 is terminated.

本実施形態における医用画像処理方法は、医療機器により撮像された医用画像を入力する画像入力ステップとしての図3の入力画像を読み込ませるステップS1と、前記医用画像から注目画素を含む複数の画素からなる局所領域に対して、抽出対象の粘膜表面構造に応じて設定され、前記粘膜表面構造の横断面に対する濃度変化を検出するために用意される互いに異なる複数の横断面に対する濃度変化のサイズと、前記粘膜表面構造の表面的に走行している方向を検出するために用意される互いに異なる複数の方向と、に対応した複数のフィルタを用いて、前記注目画素を含む前記局所領域に対して前記粘膜表面構造に対応した特微量を抽出するための演算を行うフィルタリングステップとしてのステップS3と、前記フィルタリングステップによる演算により、ある画素における複数のフィルタ出力のうち該画素に最も反応したフィルタから前記粘膜表面構造の特徴量を選択する特微量選択ステップとしてのステップS4と、選択された前記特微量に対して該特徴量が前記粘膜表面構造の特徴を含むか否かを判定する判定ステップとしてのステップS5とを備え、前記複数のフィルタは、Nを1以上、Mを2以上の整数として、前記複数の横断面に対する濃度変化のサイズに対応して用意されるN個のフィルタを、前記横断面に対する濃度変化の方向と直交する方向に対応して用意されるM個の方向にそれぞれ配置したN×M個からなることを特徴とする。   The medical image processing method according to the present embodiment includes a step S1 for reading the input image of FIG. 3 as an image input step for inputting a medical image captured by a medical device, and a plurality of pixels including a target pixel from the medical image. For the local region to be set according to the mucosal surface structure of the extraction target, the concentration change size for a plurality of different cross-sections prepared for detecting the concentration change with respect to the cross-section of the mucosal surface structure, Using the plurality of filters corresponding to the plurality of different directions prepared for detecting the surface running direction of the mucosal surface structure, the local region including the pixel of interest with respect to the local region Step S3 as a filtering step for performing an operation for extracting a characteristic amount corresponding to the mucosal surface structure, and the filtering step The step S4 as a feature selection step for selecting the feature quantity of the mucosal surface structure from the filter that most reacted to the pixel among a plurality of filter outputs in a certain pixel, and the selected feature quantity. Step S5 as a determination step for determining whether or not the feature amount includes a feature of the mucosal surface structure, and the plurality of filters, wherein N is 1 or more and M is an integer of 2 or more, N × M prepared by arranging N filters corresponding to the size of density change with respect to the cross section in M directions prepared corresponding to directions orthogonal to the direction of density change with respect to the cross section. It consists of pieces.

本実施形態によれば、術者は、モニタ4に表示される入力画像と、処理画像とを参照することにより、入力画像のみから血管部分を識別して診断を行う場合に比較して、画像処理により血管と非血管と判定された処理画像を参照することによって、より血管を識別し易い状態で把握できる。このため、血管部分の構造に基づく診断をより短時間に、かつ円滑に行うことができる。   According to this embodiment, the surgeon refers to the input image displayed on the monitor 4 and the processed image, so that the image is compared with a case where the blood vessel portion is identified from only the input image and diagnosis is performed. By referring to the processed image determined as a blood vessel and a non-blood vessel by the processing, it is possible to grasp the blood vessel in a state where it is easier to identify the blood vessel. For this reason, the diagnosis based on the structure of the blood vessel part can be performed in a shorter time and smoothly.

また、本実施形態によれば、複数の1次元フィルタを用いて、特徴量を抽出するための画像処理を行うようにしているので、簡単でしかも演算量が少ない画像処理により、屈曲または蛇行したり、管径が変化する血管のような複雑な形状(構造)を有する場合にも、精度良くその形状(構造)を抽出することができる。また、演算量が少ない画像処理で済むため、処理画像を表示するまでに短時間で済む。   In addition, according to the present embodiment, since image processing for extracting feature amounts is performed using a plurality of one-dimensional filters, bending or meandering is performed by image processing that is simple and requires a small amount of calculation. Even when it has a complicated shape (structure) such as a blood vessel whose tube diameter changes, the shape (structure) can be extracted with high accuracy. Also, since image processing with a small amount of computation is sufficient, it takes a short time to display the processed image.

なお、上述した実施形態においては血管候補の抽出処理は、フィルタリング処理の出力値に対する最大値探索を行う処理により構成されると説明したが、血管候補の抽出処理は、フィルタリング処理と最大値探索処理により構成されると定義しても良い。   In the above-described embodiment, it has been described that the blood vessel candidate extraction process includes a maximum value search process for the output value of the filtering process. However, the blood vessel candidate extraction process includes a filtering process and a maximum value search process. You may define that it is comprised by.

(第2の実施形態)
次に本発明の第2の実施形態を説明する。本実施形態は、第1の実施形態とハードウェア上の構成は同じ(後述する第3,第4の実施形態も同様)である。本実施形態は、第1の実施形態において、血管が分岐している部分を抽出する機能を追加したものである。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. This embodiment has the same hardware configuration as the first embodiment (the same applies to third and fourth embodiments described later). In this embodiment, a function for extracting a portion where a blood vessel is branched is added to the first embodiment.

このため、本実施形態におけるフィルタ記憶部39は、図12に示すように第1の実施形態における複数の1次元フィルタの情報を格納するものに対応する1次元フィルタの情報記憶部39aの他に、さらに分岐部分を検出(抽出)するための1次元フィルタにより構成される分岐検出用フィルタの情報を格納する分岐検出用フィルタの情報記憶部39bを備えている。以下においては、第1の実施形態における複数の1次元フィルタを、血管の横断面の谷構造に対応した形状の谷構造フィルタと呼ぶ。   For this reason, the filter storage unit 39 in the present embodiment, in addition to the information storage unit 39a of the one-dimensional filter corresponding to the one storing information of the plurality of one-dimensional filters in the first embodiment as shown in FIG. Further, a branch detection filter information storage unit 39b for storing information of a branch detection filter configured by a one-dimensional filter for detecting (extracting) a branch portion is provided. Hereinafter, the plurality of one-dimensional filters in the first embodiment are referred to as valley structure filters having a shape corresponding to the valley structure of the cross section of the blood vessel.

なお、図12中における括弧で示す幅広谷構造フィルタは、分岐検出用フィルタの代わりに用いることができる変形例の1次元フィルタを示す。   Note that the wide valley structure filter shown in parentheses in FIG. 12 is a modified one-dimensional filter that can be used instead of the branch detection filter.

第1の実施形態においては、分岐を考慮していない場合における血管の横断面の谷構造に対応した形状の谷構造フィルタを用いていたが、本実施形態においては分岐した部分を検出(抽出)するための分岐検出用フィルタをさらに用いる。   In the first embodiment, the valley structure filter having a shape corresponding to the valley structure of the cross section of the blood vessel when the branch is not taken into consideration is used. However, in this embodiment, the branched portion is detected (extracted). Further, a branch detection filter is used.

分岐検出用フィルタとして、例えば、n個の1次元分岐形状フィルタをM個の走行方向に配置したn×M個のフィルタ係数fdbを、上述したフィルタ係数fdwに追加して使用される。   As the branch detection filter, for example, n × M filter coefficients fdb in which n one-dimensional branch shape filters are arranged in M traveling directions are added to the above-described filter coefficient fdw.

そして、本実施形態は、図13に示すような処理手順で血管を抽出するための処理を行う。   And this embodiment performs the process for extracting the blood vessel in a process sequence as shown in FIG.

図13におけるステップS1及びS2は図3と同じ処理である。また、本実施形態におけるステップS3′のフィルタリング処理においては、上述した第1の実施形態で説明した複数の1次元フィルタ(谷構造フィルタ)を用いたフィルタリング処理の他に、分岐検出用フィルタを用いても同様に行う。   Steps S1 and S2 in FIG. 13 are the same processing as in FIG. In the filtering process in step S3 ′ in this embodiment, a branch detection filter is used in addition to the filtering process using the plurality of one-dimensional filters (valley structure filters) described in the first embodiment. But do the same.

さらに補足説明すると、第1の実施形態においては、フィルタリング処理として図8に示したステップS31においてN×M個のフィルタ係数fdwを用いてフィルタリング処理を行ったが、本実施形態においては、さらにn×M個のフィルタ係数fdbを用いてフィルタリング処理を行う。つまり、(n+N)×Mのフィルタリング処理を行う。なお、図8のNを(n+N)に置換すると、図8と同様の処理となる。   Further supplementarily, in the first embodiment, the filtering process is performed using N × M filter coefficients fdw in step S31 shown in FIG. 8 as the filtering process. Filtering processing is performed using × M filter coefficients fdb. That is, (n + N) × M filtering processing is performed. When N in FIG. 8 is replaced with (n + N), the same processing as in FIG. 8 is performed.

また、次のステップS4′においても、上述したステップS4の処理の他に、分岐検出用フィルタを用いた場合の出力値Vkdbから血管の特徴量を選択(抽出)する。   Also in the next step S4 ', in addition to the processing in step S4 described above, a blood vessel feature amount is selected (extracted) from the output value Vkdb when the branch detection filter is used.

このように谷構造フィルタの他に,分岐検出用フィルタを用意して、当該分岐検出用フィルタでフィルタリング処理した出力値が、例えば第2の所定値以上に大きくなる画素を血管画素として、谷構造フィルタでフィルタリング処理した結果に追加して抽出することで,分岐等によって谷構造フィルタでは抽出することができなかった血管画素を抽出するように補正することができる。   In this way, in addition to the valley structure filter, a branch detection filter is prepared, and a pixel whose output value filtered by the branch detection filter is larger than, for example, a second predetermined value is a blood vessel pixel. By adding and extracting to the result of filtering processing by the filter, correction can be made so as to extract blood vessel pixels that could not be extracted by the valley structure filter due to branching or the like.

このようにして抽出された血管の特徴量に対して、ステップS5′において判定基準に合致するか否かにより血管特徴量の判定、つまり血管画素か非血管画素かの判定を行う。   In step S5 ′, the blood vessel feature amount, that is, whether it is a blood vessel pixel or a non-blood vessel pixel is determined based on whether or not the blood vessel feature amount extracted in this manner meets the determination criterion.

なお、ステップS5′における判定の処理においては、第1の実施形態で説明したように谷構造フィルタによる出力値が閾値を超えるか否かに応じて、その注目画素が血管画素か非血管画素かを判定した。   In the determination process in step S5 ′, as described in the first embodiment, whether the target pixel is a blood vessel pixel or a non-blood vessel pixel depending on whether the output value by the valley structure filter exceeds the threshold value or not. Was judged.

一方、分岐検出用フィルタの場合においては、複数の方向においてその出力値が閾値を超えるか否かに応じて、その注目画素が血管画素か非血管画素かを判定する判定基準を用いる。例えば,分岐検出用フィルタの出力結果が複数の方向において予め設定した閾値Tw(例えばTw=0.003)を超える出力値であった場合はその画素を血管画素として、谷構造フィルタによる血管画素を追加補正する。このようにしてステップS6に示すように血管領域が決定する。なお、判定基準は、上記閾値Twの場合に限定されるものでなく、異なる閾値、例えば上記閾値Twと異なる第2の閾値等に設定しても良い。   On the other hand, in the case of the branch detection filter, a criterion for determining whether the target pixel is a blood vessel pixel or a non-blood vessel pixel is used depending on whether the output value exceeds a threshold value in a plurality of directions. For example, if the output result of the branch detection filter is an output value that exceeds a preset threshold value Tw (for example, Tw = 0.003) in a plurality of directions, that pixel is used as the blood vessel pixel, and the blood vessel pixel by the valley structure filter is selected. Make additional corrections. In this way, the blood vessel region is determined as shown in step S6. The determination criterion is not limited to the threshold value Tw, and may be set to a different threshold value, for example, a second threshold value different from the threshold value Tw.

そして、図3のステップS7に進み、処理結果の記録、表示を行う。   Then, the process proceeds to step S7 in FIG. 3 to record and display the processing result.

以上説明した本実施形態によれば、第1の実施形態と同様の効果を有すると共に、第1の実施形態では抽出し難い血管が分岐している部分を精度良く抽出することができる効果を有する。本実施形態も複数の1次元フィルタを用いたフィルタリング処理を採用するため、少ない演算量で済む。   According to the present embodiment described above, the same effect as that of the first embodiment can be obtained, and the portion where a blood vessel that is difficult to extract in the first embodiment can be accurately extracted. . Since this embodiment also employs a filtering process using a plurality of one-dimensional filters, a small amount of calculation is sufficient.

なお、本実施形態の変形例として、分岐検出用フィルタの代わりに、谷構造フィルタの場合よりも、幅が広い谷構造を抽出(検出)するための幅広谷構造フィルタ(又は幅広谷形状フィルタ)を用いても良い。また、下に凸となる谷構造以外(例えが上に凸となる構造)にも適用可能である。   As a modification of the present embodiment, instead of the branch detection filter, a wide valley structure filter (or wide valley shape filter) for extracting (detecting) a valley structure having a wider width than that of the valley structure filter. May be used. Further, the present invention can be applied to other than a valley structure that protrudes downward (for example, a structure that protrudes upward).

分岐検出用フィルタの代わりに、幅広谷構造フィルタを用いた場合の処理は、上述した分岐検出用フィルタを用いた場合と同様である。   The processing when the wide valley structure filter is used instead of the branch detection filter is the same as that when the above-described branch detection filter is used.

例えば、図8のステップS31におけるフィルタリング処理として、谷構造フィルタの他に、画像内に存在すると想定される血管の幅よりも幅の広い谷構造を抽出するための上記幅広谷構造フィルタを用いてフィルタリング処理を行う。   For example, as the filtering process in step S31 of FIG. 8, in addition to the valley structure filter, the above wide valley structure filter for extracting a valley structure wider than the width of the blood vessel assumed to exist in the image is used. Perform filtering processing.

そして、第1の実施形態における谷構造フィルタの出力値の他に、幅広谷構造フィルタの出力値を用いることにより、第1の実施形態における血管の特徴量の選択結果を補正することができる。   Then, by using the output value of the wide valley structure filter in addition to the output value of the valley structure filter in the first embodiment, the selection result of the blood vessel feature amount in the first embodiment can be corrected.

例えば,幅広谷構造フィルタの出力結果が複数の方向において予め設定した閾値Tw(例えばTw=0.003)以上の出力であった場合はその画素を血管画素として追加する。   For example, if the output result of the wide valley structure filter is an output that is equal to or greater than a preset threshold value Tw (eg, Tw = 0.003) in a plurality of directions, that pixel is added as a blood vessel pixel.

また、谷構想フィルタの出力値が最大となる方向と、幅広谷構造検出フィルタの検出結果が同じ方向を示した場合に,その画素が谷構想フィルタからは血管の画素として抽出されない非血管候補の画素の場合においても血管画素に追加しても良い。   In addition, when the output value of the valley concept filter is the maximum and the detection result of the wide valley structure detection filter indicates the same direction, the pixel is not extracted as a blood vessel pixel from the valley concept filter. In the case of a pixel, it may be added to a blood vessel pixel.

なお、谷構造フィルタにおける横断面の幅のサイズより広い幅広谷構造フィルタ又は分岐した部分の形状に合わせた形状のフィルタを用意し、両方又はその一方を選択して、上記の分岐検出用フィルタとして使用できるようにしても良い。両方を適用することにより、分岐した部分をより確実に抽出することができる。また、分岐した部分の他に、蛇行した部分を検出するために蛇行した形状に合わせた蛇行検出用フィルタを用意しても良い。   In addition, prepare a wide valley structure filter wider than the width of the cross-sectional width in the valley structure filter or a filter having a shape that matches the shape of the branched part, and select both or one of them as the above branch detection filter You may make it usable. By applying both, the branched portion can be extracted more reliably. In addition to the branched portion, a meandering detection filter having a meandering shape for detecting the meandering portion may be prepared.

また、分岐検出用フィルタ或いは蛇行検出用フィルタ(つまり分岐・蛇行検出用フィルタ)として、例えば1次元フィルタのものの他に、1次元フィルタから外れるが1次元フィルタを複数の係数要素数を1行に配置したものとした場合、2、3行以内とした1次元フィルタに近い2次元フィルタを用いるようにしても良い。この2次元フィルタを1次元フィルタに準じたフィルタと言う。   Further, as a branch detection filter or a meandering detection filter (that is, a branching / meandering detection filter), for example, besides a one-dimensional filter, the one-dimensional filter has a plurality of coefficient elements in one line. If it is arranged, a two-dimensional filter close to a one-dimensional filter within two or three rows may be used. This two-dimensional filter is called a filter according to the one-dimensional filter.

例えば、分岐・蛇行検出用フィルタとして、例えば1次元フィルタのものの方向がdである場合のフィルタ係数を{0,0.1,−0.2,−0.6,−0.2,0.1,0}とした場合、1次元フィルタに準じたフィルタのフィルタ係数を3行からなる{0,0.05,−0.1,−0.3,−0.1,−0.05,0},{0,0.1,−0.2,−0.6,−0.2,0.1,0},{0,0.05,−0.1,−0.3,−0.1,−0.05,0}に拡張したものを用意して、分岐又は蛇行した部分をより確実に抽出することができるようにしても良い。   For example, as a branching / meandering detection filter, for example, when the direction of a one-dimensional filter is d, the filter coefficients are {0, 0.1, −0.2, −0.6, −0.2, 0. 1,0}, the filter coefficients of the filter according to the one-dimensional filter are {0, 0.05, −0.1, −0.3, −0.1, −0.05, consisting of three rows. 0}, {0, 0.1, -0.2, -0.6, -0.2, 0.1, 0}, {0, 0.05, -0.1, -0.3,- It is also possible to prepare an extension to 0.1, -0.05, 0} so that the branched or meandering part can be extracted more reliably.

また、1次元フィルタのものと、1次元フィルタに準じた2次元フィルタのものとを用意し、分岐・蛇行検出用フィルタとして実際に使用する場合にその一方を術者等が選択できるようにしても良い。   Also, prepare a one-dimensional filter and a two-dimensional filter similar to the one-dimensional filter so that the operator can select one when actually using it as a branch / meander detection filter. Also good.

なお、1次元フィルタに準じたフィルタとしての2次元フィルタのものを分岐・蛇行検出用フィルタとして実際に使用する場合に対して説明したが、分岐や蛇行した部分を検出する場合に限定されるものでなく、1次元フィルタに準じたフィルタとしての2次元フィルタを抽出対象の粘膜表面構造に対して適用しても良い。   In addition, although the case where the thing of the two-dimensional filter as a filter according to a one-dimensional filter is actually used as a branching / meandering detection filter has been described, it is limited to the case of detecting a branching or meandering part Instead, a two-dimensional filter as a filter according to the one-dimensional filter may be applied to the mucosal surface structure to be extracted.

なお、図10に示したステップS41の最大値探索の処理において、g/r値と、谷構造を変形して特徴量化し、フィルタ出力値の補助として利用するようにしても良い。例えば、フィルタ出力値が小さい画素に対して、g/r値が予め設定した閾値Tgr(例えばTgr=0.01)以下のもの、又は近傍との比較によりg/r値が谷構造を持つ画素を血管画素として追加するようにしても良い。   In the maximum value search process of step S41 shown in FIG. 10, the g / r value and the valley structure may be transformed into a feature quantity and used as an auxiliary filter output value. For example, for a pixel having a small filter output value, a pixel having a g / r value equal to or smaller than a preset threshold Tgr (eg, Tgr = 0.01), or a pixel having a valley structure by comparison with the vicinity. May be added as a blood vessel pixel.

(第3の実施形態)
次に本発明の第3の実施形態を説明する。本実施形態は、注目画素に対する特徴量の判定結果を、その周辺画素の情報を利用して補正するものである。上述した実施形態で説明したように、フィルタリング処理した出力値が最大となるフィルタ係数fDWの幅と方向を、注目画素の血管幅と走行方向の情報として決定する。
(Third embodiment)
Next, a third embodiment of the present invention will be described. In the present embodiment, the determination result of the feature amount with respect to the target pixel is corrected using the information of the surrounding pixels. As described in the above-described embodiment, the width and direction of the filter coefficient fDW that maximizes the filtered output value are determined as the blood vessel width and travel direction information of the pixel of interest.

これにより、少ない演算量で注目画素の血管幅と走行方向として決定することが可能になる。しかし、入力画像における注目画素の画素信号値(g/r値)に、除去できなかったノイズが重畳すると、注目画素において血管幅又は走行方向が急激に変化する判定結果となることが有り得る。   Thereby, it is possible to determine the blood vessel width and the traveling direction of the target pixel with a small amount of calculation. However, if noise that could not be removed is superimposed on the pixel signal value (g / r value) of the target pixel in the input image, a determination result may be obtained in which the blood vessel width or the traveling direction changes rapidly in the target pixel.

単一の血管上で隣接する血管画素の幅や走行方向は、例えば連続して幅5であったものがある1点においてのみ幅9となることや、d4の方向に走行していた血管がある1点においてのみ方向がd2になること等、急激な変動はないであろうと想定して、幅と方向の補正を行う。   The width and running direction of adjacent blood vessel pixels on a single blood vessel are, for example, a width 9 only at one point where the width was 5 continuously, or a blood vessel that was running in the direction of d4. The width and direction are corrected on the assumption that there is no sudden fluctuation such as that the direction becomes d2 only at a certain point.

この補正を行うため、本実施形態においては、注目画素周辺の結果を利用して特徴量の判定結果を補正する。この補正を行うために、本実施形態におけるCPU22は、第1の実施形態の構成において、例えば図2に示した補正部35により上記の補正を行う。   In order to perform this correction, in the present embodiment, the determination result of the feature amount is corrected using the result around the target pixel. In order to perform this correction, the CPU 22 in the present embodiment performs the above-described correction using the correction unit 35 illustrated in FIG. 2 in the configuration of the first embodiment, for example.

本実施形態における処理内容は図14に示すようになる。   The processing content in this embodiment is as shown in FIG.

図14におけるステップS1−S3は、図3において説明した処理と同様である。また、ステップS41さらにステップS42は図10で説明した閾値を用いた比較を行う処理と同様である。ステップS42の比較結果に対する処理はステップS43′、ステップS44′に示すようにステップS43、ステップS44とは若干異なる。   Steps S1-S3 in FIG. 14 are the same as the processes described in FIG. Further, step S41 and step S42 are the same as the processing for performing the comparison using the threshold value described in FIG. The processing for the comparison result in step S42 is slightly different from steps S43 and S44 as shown in steps S43 'and S44'.

上述した第1の実施形態においてはフィルタリング処理した出力値の最大値が閾値を超えるか否かに応じて、図10のステップS43,S44に示すように注目画素が血管画素であるか非血管画素であるかの判定を行っていたが、本実施形態においては、図14のステップS43′、ステップS44′に示すように、その判定結果により注目画素が補正前の血管画素(血管候補画素とも言う)であるか補正前の非血管画素(非血管候補画素とも言う)であると判定する。   In the first embodiment described above, depending on whether or not the maximum value of the filtered output value exceeds the threshold value, as shown in steps S43 and S44 in FIG. In this embodiment, as shown in steps S43 ′ and S44 ′ in FIG. 14, the target pixel is a blood vessel pixel before correction (also referred to as a blood vessel candidate pixel) based on the determination result. ) Or non-blood vessel pixels before correction (also referred to as non-blood vessel candidate pixels).

なお、図14におけるステップS42における閾値Tを、第1の実施形態における閾値Tとは異なる値、つまり上記判定基準と異なる第2の判定基準に設定して、(血管候補画素であるか非血管候補画素であると判定するための)比較を行うようにしても良い。換言すると、図14におけるステップS42は、第1の実施形態の判定基準と異なる第2の判定基準とを用いた判定を行うようにしても良い。   Note that the threshold T in step S42 in FIG. 14 is set to a value different from the threshold T in the first embodiment, that is, a second determination criterion different from the above-described determination criterion. A comparison (for determining that the pixel is a candidate pixel) may be performed. In other words, step S42 in FIG. 14 may be performed using a second determination criterion different from the determination criterion of the first embodiment.

ステップS43′、ステップS44′により血管候補画素、非血管候補画素が判定され、ステップS51に示すように血管候補画素(補正前の血管画素)及び非血管候補画素(補正前の非血管画素)が抽出される。   In step S43 ′ and step S44 ′, a blood vessel candidate pixel and a non-blood vessel candidate pixel are determined. As shown in step S51, a blood vessel candidate pixel (a blood vessel pixel before correction) and a non-blood vessel candidate pixel (a non-blood vessel pixel before correction) are obtained. Extracted.

そして、次のステップS52においてCPU22(による図2に示した補正部35)は、血管候補画素、非血管候補画素に対して血管画素、非血管画素であるか否かを判定に対する判定の処理を行う。本実施形態におけるステップS52の処理は、第1の実施形態における血管画素、非血管画素と判定された結果を実質的に補正するため、判定の処理は、補正処理とも言える。   In the next step S52, the CPU 22 (by the correction unit 35 shown in FIG. 2) performs a determination process for determining whether the blood vessel candidate pixel and the non-blood vessel candidate pixel are the blood vessel pixel and the non-blood vessel pixel. Do. Since the process of step S52 in this embodiment substantially corrects the result determined as a blood vessel pixel or a non-blood vessel pixel in the first embodiment, the determination process can also be said to be a correction process.

ステップS52による上記候補判定の処理後に、ステップS6に示すように特徴量が算出(血管領域が決定)され、さらにステップS7の処理が行われる。ステップS6,S7は図3と同じ処理である。   After the candidate determination process in step S52, the feature amount is calculated (a blood vessel region is determined) as shown in step S6, and the process of step S7 is further performed. Steps S6 and S7 are the same processing as in FIG.

次にステップS52の判定の処理としては、例えば以下のような処理により、補正部35を構成する走行方向補正部35bは実質的に走行方向の補正の処理を行う。   Next, as the determination process in step S52, the traveling direction correction unit 35b constituting the correction unit 35 substantially performs the traveling direction correction process, for example, by the following process.

まず、血管候補画素(補正前の血管画素)からなる血管候補領域を1、血管候補画素以外の領域を0とし、細線化の処理を行うことで血管芯線を抽出する。   First, a blood vessel candidate line is extracted by setting a blood vessel candidate region composed of blood vessel candidate pixels (blood vessel pixels before correction) to 1, and setting a region other than the blood vessel candidate pixels to 0, and performing thinning processing.

次に、血管芯線の中から注目画素Pkを選択し、その注目画素Pk(の観測値pk)の血管の走行方向の情報をdK1とし、その隣の芯線の走行方向の情報をdK2とする。   Next, the target pixel Pk is selected from the blood vessel core line, information on the travel direction of the blood vessel of the target pixel Pk (observed value pk) is set as dK1, and information on the travel direction of the adjacent core line is set as dK2.

走行方向の情報dK1とdK2のなす角度が90°の場合、注目画素Pk又は隣の芯線の画素の血管の走行方向の情報dK1又はdK2をフィルタリング処理の出力値が2番目に大きいフィルタ係数の方向として修正する補正処理を行う。   When the angle formed by the traveling direction information dK1 and dK2 is 90 °, the direction of the filter coefficient having the second largest output value of the filtering process is performed on the blood vessel traveling direction information dK1 or dK2 of the target pixel Pk or the adjacent core line pixel. Correction processing is performed.

なお、血管芯線の抽出は、フィルタリング処理の出力値を用いて決定する場合に限らず、極値収束法を用いて領域分割した際の境界と抽出された血管候補領域との比較により決定しても良い。   The extraction of the blood vessel core line is not limited to the case of determining using the output value of the filtering process, but is determined by comparing the boundary when the region is divided using the extreme value convergence method with the extracted blood vessel candidate region. Also good.

以上の処理により、単一の血管上での走行方向の誤認識を修正することができる。その他、第1の実施形態と同様の効果を有する。   Through the above processing, misrecognition of the traveling direction on a single blood vessel can be corrected. Other effects are the same as those of the first embodiment.

なお、注目画素Pkにおける芯線の走行方向に沿って注目画素Pkに隣り合う例えば2つの隣接画素(より広義には複数の近傍画素)の血管の走行方向の情報をdK2l、dK2rとして、dK2l、dK2rが一致した条件、つまりdK2l=dK2r(=dK2)を満たす場合において、注目画素Pk走行方向の情報dK1とdK2のなす角度が90°の場合、注目画素Pkの血管の走行方向の情報dK1をフィルタリング処理の出力値が2番目に大きいフィルタ係数の方向として修正する補正処理を行うようにしても良い。   Note that, for example, dK2l and dK2r are dK2l and dK2r, where dK2l and dK2r are information on the traveling direction of the blood vessels of two adjacent pixels (in a broad sense, a plurality of neighboring pixels) that are adjacent to the target pixel Pk along the traveling direction of the core line of the target pixel Pk. Are satisfied, that is, when dK2l = dK2r (= dK2) is satisfied, if the angle formed by the information dK1 of the pixel of interest Pk and dK2 is 90 °, the information dK1 of the blood vessel traveling direction of the pixel of interest Pk is filtered. Correction processing may be performed in which the output value of the processing is corrected as the direction of the second largest filter coefficient.

このように注目画素における血管の走行方向の情報が、その血管の芯線方向に隣合う複数の近傍画素における血管の走行方向の情報と予め設定された閾値以上異なる場合において、注目画素における血管の走行方向の情報を補正することを行うようにしても良い。   In this way, when the information on the traveling direction of the blood vessel in the pixel of interest differs from the information on the traveling direction of the blood vessel in a plurality of neighboring pixels adjacent to the blood vessel in the core line direction by a predetermined threshold or more, the traveling of the blood vessel in the pixel of interest. You may make it correct | amend the information of a direction.

以上は、血管の走行方向の補正を行う場合を説明したが、図2の補正部35を構成する幅補正部35aは、血管の幅を以下のように補正する。   The case where the traveling direction of the blood vessel is corrected has been described above, but the width correcting unit 35a constituting the correcting unit 35 in FIG. 2 corrects the width of the blood vessel as follows.

例えば注目画素Pkにおける芯線の走行方向に沿って隣り合う例えば2つの隣接画素(より広義には複数の近傍画素)の血管の幅の情報をwK2l、wK2rとして、wK2l、wK2rが一致した条件、つまwK2l=wK2r(=wK2)を満たす場合において、注目画素Pkの幅の情報wK1とwK2との差の絶対値が、予め設定された閾値以上の場合、注目画素Pkの血管の幅の情報wK1を隣接画素の値に修正する補正処理を行うようにしても良い。   For example, information on the width of a blood vessel of, for example, two adjacent pixels (in a broader sense, a plurality of neighboring pixels) along the traveling direction of the core line in the pixel of interest Pk is wK2l, wK2r, and the condition that wK2l, wK2r match. When wK2l = wK2r (= wK2) is satisfied, if the absolute value of the difference between the width information wK1 and wK2 of the pixel of interest Pk is equal to or greater than a preset threshold value, the blood vessel width information wK1 of the pixel of interest Pk is Correction processing for correcting the value of the adjacent pixel may be performed.

このように注目画素における血管の幅の情報が、その血管の芯線方向に隣合う複数の近傍画素における血管の幅の情報と予め設定された閾値以上異なる場合において、注目画素における血管の幅の情報を補正することを行うようにしても良い。   As described above, when the blood vessel width information in the pixel of interest differs from the blood vessel width information in a plurality of neighboring pixels adjacent to the blood vessel in the center line direction by a predetermined threshold or more, the blood vessel width information in the pixel of interest May be corrected.

なお、上述の実施形態における図14のステップS42による判定処理に応じてS43′、S44′において、注目画素Pkが血管候補画素及び非血管候補画素と決定していた。このように決定する代わりに、第1の実施形態のように血管画素及び非血管画素と決定し、決定した血管画素及び非血管画素(但し補正前の血管画素及び補正前の非血管画素)に対して、ステップS52により補正前の血管画素及び補正前の非血管画素補正を行うことにより、補正済みの血管画素及び非血管画素を決定する(図14のステップS6に相当)ようにしても良い。   Note that, in S43 ′ and S44 ′, the target pixel Pk is determined as a blood vessel candidate pixel and a non-blood vessel candidate pixel in S43 ′ and S44 ′ in accordance with the determination processing in step S42 of FIG. Instead of such determination, the blood vessel pixel and the non-blood vessel pixel are determined as in the first embodiment, and the determined blood vessel pixel and the non-blood vessel pixel (however, the blood vessel pixel before correction and the non-blood vessel pixel before correction) are determined. On the other hand, corrected blood vessel pixels and non-blood vessel pixels before correction may be determined in step S52 to determine corrected blood vessel pixels and non-blood vessel pixels (corresponding to step S6 in FIG. 14). .

(第4の実施形態)
次に本発明の第4の実施形態を説明する。本実施形態は、特徴量判定により判定された血管画素及び非血管画素に対して注目画素の近傍の複数画素の情報を用いて補正する。本実施形態の全体の処理内容は、第3の実施形態で説明した図14と同様であるため、本実施形態の全体の処理内容を図示しない。但し、本実施形態においては、図14におけるステップS52の判定の処理内容が第3の実施形態の場合と異なる。
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described. In the present embodiment, the blood vessel pixels and the non-blood vessel pixels determined by the feature amount determination are corrected using information on a plurality of pixels in the vicinity of the target pixel. Since the entire processing content of the present embodiment is the same as that of FIG. 14 described in the third embodiment, the entire processing content of the present embodiment is not illustrated. However, in the present embodiment, the processing content of the determination in step S52 in FIG. 14 is different from that in the third embodiment.

本実施形態は、上述した第3の実施形態と同様に図14におけるステップS43′、S44′の処理により血管候補画素と非血管候補画素とを判定することにより、ステップS51に示すように血管及び非血管候補画素を抽出する。換言すると、血管候補画素からなる血管候補領域と非血管候補画素からなる非血管候補領域とが抽出される。   In the present embodiment, the blood vessel and non-blood vessel candidate pixels are determined by the processing in steps S43 ′ and S44 ′ in FIG. 14 in the same manner as the third embodiment described above, as shown in step S51. Extract non-blood vessel candidate pixels. In other words, a blood vessel candidate region made up of blood vessel candidate pixels and a non-blood vessel candidate region made up of non-blood vessel candidate pixels are extracted.

そして、本実施形態においては、ステップS52の候補判定の処理において、血管候補領域(補正前の血管領域)と非血管候補領域(補正前の非血管領域)の注目画素Pkを中央に含む近傍領域(局所領域)の各画素に対して図15及び図16に示すように血管候補、非血管候補の画素数をカウント(計数)し、図17に示すようにカウント数に応じて注目画素Pk(観測値pk)が血管又は非血管であるかを判定する処理を行う。   In the present embodiment, in the candidate determination process in step S52, a neighboring region including the target pixel Pk of the blood vessel candidate region (the blood vessel region before correction) and the non-blood vessel candidate region (the non-blood vessel region before correction) in the center. As shown in FIGS. 15 and 16, the number of pixels of blood vessel candidates and non-blood vessel candidates is counted (counted) for each pixel in the (local region), and the target pixel Pk ( Processing for determining whether the observation value pk) is a blood vessel or a non-blood vessel is performed.

図15及び図16は、近傍領域における血管候補、非血管候補の画素数をカウント(計数)して、補正する処理(その具体的な処理内容は図17)を示す。図15による処理の概略を説明すると、
(i)血管の走行方向の情報が既知である場合、
(a)近傍画素が血管候補画素である場合には、近傍画素の走行方向に注目画素が位置し、かつ、着目画素の走行方向の情報が近傍画素の走行方向の情報と一致する場合、近傍画素を血管候補画素としてカウントする。
FIG. 15 and FIG. 16 show processing for counting (counting) the number of pixels of blood vessel candidates and non-blood vessel candidates in the vicinity region (the specific processing content is FIG. 17). The outline of the processing according to FIG. 15 will be described.
(I) When the information on the traveling direction of the blood vessel is known,
(A) When the neighboring pixel is a blood vessel candidate pixel, if the pixel of interest is located in the running direction of the neighboring pixel and the information on the running direction of the pixel of interest matches the running direction information of the neighboring pixel, the neighborhood Pixels are counted as blood vessel candidate pixels.

(b)近傍画素が非血管候補画素である場合には、近傍画素の走行方向に注目画素が位置し、かつ、注目画素の走行方向の情報が近傍画素の走行方向と一致しない場合、近傍画素を非血管候補画素としてカウントする。   (B) When the neighboring pixel is a non-blood vessel candidate pixel, if the pixel of interest is located in the running direction of the neighboring pixel and the information on the running direction of the pixel of interest does not match the running direction of the neighboring pixel, the neighboring pixel Are counted as non-blood vessel candidate pixels.

また、図16による処理の概略を説明すると、
(ii)血管の幅の情報が既知である場合、
(c)近傍画素が血管候補画素である場合には、注目画素の幅と近傍画素の幅の差が閾値T2未満の場合、近傍画素を血管候補画素としてカウントする。
Also, the outline of the processing according to FIG.
(Ii) when the width information of the blood vessel is known,
(C) When the neighboring pixel is a blood vessel candidate pixel, if the difference between the width of the pixel of interest and the width of the neighboring pixel is less than the threshold T2, the neighboring pixel is counted as a blood vessel candidate pixel.

(d)近傍画素が非血管候補画素である場合には、注目画素の幅と近傍画素の幅の差が閾値T2以上の場合、近傍画素を非血管候補画素としてカウントする。   (D) When the neighboring pixel is a non-blood vessel candidate pixel, if the difference between the width of the pixel of interest and the width of the neighboring pixel is equal to or greater than the threshold T2, the neighboring pixel is counted as a non-blood vessel candidate pixel.

さらに、上記(a)〜(d)の各条件が1画素以上で満足する場合、(a)、(c)、(b)、(d)の順で優先的に血管候補画素/非血管候補画素のカウントを行い、さらにカウントした結果を条件として図17で示すように血管画素、非血管画素の補正をする。
なお、上述した(a)と(b)、又は(c)と(d)は、互いに排他的な関係にあるため、近傍において条件を満たす画素数が多いものを採用する等の組合せをしてもよいし、最も条件が一致した数が多かった場合の出力を利用してもよい。
Furthermore, when each of the above conditions (a) to (d) is satisfied with one or more pixels, the blood vessel candidate pixels / non-blood vessel candidates are given priority in the order of (a), (c), (b), (d). Pixels are counted, and blood vessel pixels and non-blood vessel pixels are corrected as shown in FIG.
Since (a) and (b) or (c) and (d) described above are in an exclusive relationship with each other, a combination such as adopting a pixel having a large number of pixels that satisfies a condition in the vicinity is adopted. It is also possible to use the output when the number of matching conditions is the largest.

次に図15の処理を詳細に説明する。最初のステップS61において、CPU22は、例えば注目画素を含むその近傍の近傍領域(例えば注目画素を中心に配置した3×3の画素サイズ)において、血管の走行方向の情報が既知であるか否かの判定を行う。   Next, the processing of FIG. 15 will be described in detail. In the first step S61, the CPU 22 determines whether or not the information on the traveling direction of the blood vessel is known in a neighboring region including the pixel of interest (for example, a 3 × 3 pixel size arranged around the pixel of interest). Judgment is made.

この判定は、例えば近傍領域(局所領域)において血管候補領域に属する画素が複数存在し、それら複数の画素における血管の走行方向の情報が、予め設定された閾値以内のばらつきに収まる場合には、近傍領域に含まれる近傍画素における血管の走行方向の情報が既知であるとする。   This determination is performed when, for example, there are a plurality of pixels belonging to the blood vessel candidate region in the vicinity region (local region), and the information on the traveling direction of the blood vessel in the plurality of pixels falls within a variation within a preset threshold value. It is assumed that information on the traveling direction of a blood vessel in a neighboring pixel included in the neighboring region is known.

一方、閾値以内のばらつきに収まらない場合には、CPU22は、血管の走行方向の情報が既知でないと判定し、図15の処理を終了する。   On the other hand, if the variation does not fall within the threshold value, the CPU 22 determines that the information on the traveling direction of the blood vessel is not known, and ends the processing of FIG.

血管の走行方向が既知と判定された場合には、次のステップS62においてCPU22は、注目画素の近傍画素が血管候補の画素であるか否かの判定を行う。注目画素の近傍画素が血管候補の画素である判定結果の場合には、次のステップS63においてCPU22は、近傍画素の走行方向に注目画素が在るか否かの判定を行う。   When it is determined that the traveling direction of the blood vessel is known, in the next step S62, the CPU 22 determines whether or not the pixel near the target pixel is a blood vessel candidate pixel. If the determination result indicates that the neighboring pixel of the target pixel is a blood vessel candidate pixel, in the next step S63, the CPU 22 determines whether or not the target pixel is present in the running direction of the neighboring pixel.

近傍画素の走行方向に注目画素が在る判定結果の場合には、次のステップS64においてCPU22は、近傍画素の走行方向が注目画素の走行方向と一致している(同じである)か否かの判定を行う。   In the case of the determination result that the target pixel is present in the traveling direction of the neighboring pixel, in the next step S64, the CPU 22 determines whether or not the traveling direction of the neighboring pixel matches (is the same as) the traveling direction of the target pixel. Judgment is made.

近傍画素の走行方向が注目画素の走行方向と一致している判定結果の場合には、次のステップS65においてCPU22は、血管候補の画素のカウント数(図15中では血管候補数と略記)に1を加算する。つまり、当該近傍画素を血管候補の画素としてカウントする。なお、この血管候補の画素のカウント数の初期値は0に設定されている。   In the case of a determination result in which the traveling direction of the neighboring pixels matches the traveling direction of the target pixel, in the next step S65, the CPU 22 sets the count number of the blood vessel candidate pixels (abbreviated as the blood vessel candidate number in FIG. 15). Add one. That is, the neighboring pixels are counted as blood vessel candidate pixels. The initial value of the count number of the blood vessel candidate pixels is set to zero.

一方、ステップS62、S63,S64において、注目画素の近傍画素が血管候補の画素でない判定結果、近傍画素の走行方向に注目画素が無い判定結果、近傍画素の走行方向と注目画素の走行方向とが一致しない判定結果の場合には、ステップS66においてCPU22は、非血管候補の画素のカウント数(図15中では非血管候補数と略記)に1加算する。つまり、当該近傍画素を非血管候補の画素としてカウントする。なお、この非血管候補の画素のカウント数の初期値は0に設定されている。   On the other hand, in Steps S62, S63, and S64, the determination result that the neighboring pixel of the target pixel is not a blood vessel candidate pixel, the determination result that there is no target pixel in the traveling direction of the neighboring pixel, the traveling direction of the neighboring pixel and the traveling direction of the target pixel are In the case of a determination result that does not match, in step S66, the CPU 22 adds 1 to the count number of the non-blood vessel candidate pixels (abbreviated as the non-blood vessel candidate number in FIG. 15). That is, the neighboring pixels are counted as non-blood vessel candidate pixels. The initial value of the count number of the non-blood vessel candidate pixels is set to zero.

ステップS65、S66の処理の後、ステップS67においてCPU22は、注目画素の近傍領域の全画素を探索済みであるか否かの判定を行い、近傍領域の全画素を探索済みでない場合には残りの近傍画素に対して、ステップS61−S67の処理を繰り返す。   After the processing of steps S65 and S66, in step S67, the CPU 22 determines whether or not all the pixels in the vicinity area of the target pixel have been searched. Steps S61 to S67 are repeated for the neighboring pixels.

一方、近傍領域の全画素に対して上述したステップS61−S67の処理を行った場合には、ステップS68においてCPU22は、補正の処理を行い、図15の処理を終了する。ステップS68の処理に関しては、図17にて後述する。   On the other hand, when the above-described processing of steps S61 to S67 is performed on all the pixels in the vicinity region, in step S68, the CPU 22 performs the correction processing and ends the processing of FIG. The processing in step S68 will be described later with reference to FIG.

なお、ステップS64の判定処理により、近傍画素の走行方向が注目画素の走行方向と一致しない判定結果の場合には、さらに近傍画素の走行方向が注目画素の走行方向と直交しているか否かを判定し、直交している場合に非血管候補の画素数に1加算するようにしても良い。   If the determination process in step S64 results in a determination result that the traveling direction of the neighboring pixel does not match the traveling direction of the target pixel, whether or not the traveling direction of the neighboring pixel is further orthogonal to the traveling direction of the target pixel. If it is determined and orthogonal, 1 may be added to the number of non-blood vessel candidate pixels.

図16においては以下の処理を行う。最初のステップS71においてCPU22は、近傍画素での血管の幅の情報が既知であるか否かの判定を行う。この判定は、例えば近傍領域(局所領域)において血管候補領域に属する画素が複数存在し、それら複数の画素における血管の幅の情報が、予め設定された閾値以内のばらつきに収まる場合には、血管の幅が既知であるとする。   In FIG. 16, the following processing is performed. In the first step S71, the CPU 22 determines whether or not information on the width of the blood vessel in the neighboring pixels is known. This determination is made when, for example, there are a plurality of pixels belonging to the blood vessel candidate region in the vicinity region (local region), and the blood vessel width information in the plurality of pixels falls within a variation within a preset threshold value. The width of is known.

一方、閾値以内のばらつきに収まらない場合には、CPU22は、血管の幅が既知でないと判定し、図16の処理を終了する。   On the other hand, if the variation does not fall within the threshold, the CPU 22 determines that the width of the blood vessel is not known, and ends the process of FIG.

血管の幅が既知と判定された場合には、次のステップS72においてCPU22は、注目画素の近傍画素が血管候補の画素であるか否かの判定を行う。注目画素の近傍画素が血管候補の画素である判定結果の場合には、次のステップS73においてCPU22は、近傍画素の血管の幅(の情報)と注目画素の血管の幅(の情報)との差(近傍画素と注目画素との幅との差と略記)が閾値T2未満であるか否かの判定を行う。   If it is determined that the blood vessel width is known, in the next step S72, the CPU 22 determines whether or not the neighboring pixel of the pixel of interest is a blood vessel candidate pixel. In the case of the determination result that the neighboring pixel of the target pixel is a blood vessel candidate pixel, in the next step S73, the CPU 22 calculates the blood vessel width (information) of the neighboring pixel and the blood vessel width (information) of the target pixel. It is determined whether or not the difference (abbreviated as the difference between the width of the neighboring pixel and the target pixel) is less than the threshold T2.

近傍画素と注目画素との幅との差が閾値T2未満である判定結果の場合には、次のステップS74においてCPU22は、血管候補の画素のカウント数に1加算する。つまり、当該近傍画素を血管候補の画素としてカウントする。なお、図16の処理を開始した場合におけるこの血管候補の画素のカウント数の初期値は0に設定されている。   In the case of the determination result that the difference between the width of the neighboring pixel and the target pixel is less than the threshold value T2, in the next step S74, the CPU 22 adds 1 to the count number of the blood vessel candidate pixels. That is, the neighboring pixels are counted as blood vessel candidate pixels. Note that the initial value of the count number of the blood vessel candidate pixels when the processing of FIG. 16 is started is set to zero.

一方、ステップS72、S73において、注目画素の近傍画素が血管候補の画素でない判定結果、近傍画素と注目画素との幅との差が閾値T2未満で無い判定結果の場合には、ステップS75においてCPU22は、非血管候補の画素のカウント数に1を加算する。つまり、当該近傍画素を非血管候補の画素としてカウントする。なお、図16の処理を開始した場合における非血管候補の画素のカウント数の初期値は0に設定されている。   On the other hand, if it is determined in steps S72 and S73 that the neighboring pixel of the target pixel is not a blood vessel candidate pixel, and the determination result is that the difference between the width of the neighboring pixel and the target pixel is not less than the threshold T2, the CPU 22 in step S75. Adds 1 to the count of non-blood vessel candidate pixels. That is, the neighboring pixels are counted as non-blood vessel candidate pixels. Note that the initial value of the count number of non-blood vessel candidate pixels when the processing of FIG. 16 is started is set to zero.

ステップS74、S75の処理の後、ステップS76においてCPU22は、注目画素の近傍領域の全画素を探索済みであるか否かの判定を行い、近傍領域の全画素を探索済みでない場合には残りの近傍画素に対して、ステップS71−S76の処理を繰り返す。   After the processing of steps S74 and S75, in step S76, the CPU 22 determines whether or not all pixels in the vicinity region of the target pixel have been searched. The processes in steps S71 to S76 are repeated for the neighboring pixels.

一方、近傍領域の全画素に対して上述したステップS71−S76の処理を行った場合には、ステップS77においてCPU22は、候補補正の処理を行い、図16の処理を終了する。   On the other hand, when the processes of steps S71 to S76 described above are performed on all the pixels in the vicinity region, the CPU 22 performs the candidate correction process in step S77, and ends the process of FIG.

次に図17を参照して図15のステップS68及び図16のステップS77の補正の処理を説明する。   Next, the correction processing in step S68 in FIG. 15 and step S77 in FIG. 16 will be described with reference to FIG.

補正の処理が開始すると、最初のステップS81においてCPU22は、注目画素の近傍領域における血管候補の画素数が非血管候補の画素数以上であるか否かの判定を行う。血管候補の画素数をNv、非血管候補の画素数をNnvとした場合には、CPU22は、Nv≧Nnvの条件を満たすか否かの判定を行う。血管候補の画素数が非血管候補の画素数以上の場合には、次のステップS82においてCPU22は、注目画素Pkを血管画素と判定する。   When the correction process starts, in the first step S81, the CPU 22 determines whether or not the number of blood vessel candidates in the vicinity region of the target pixel is equal to or greater than the number of non-blood vessel candidates. When the number of pixels of the blood vessel candidate is Nv and the number of pixels of the non-blood vessel candidate is Nnv, the CPU 22 determines whether or not the condition of Nv ≧ Nnv is satisfied. When the number of blood vessel candidate pixels is equal to or greater than the number of non-blood vessel candidate pixels, in the next step S82, the CPU 22 determines that the pixel of interest Pk is a blood vessel pixel.

一方、血管候補の画素数が非血管候補の画素数以上の条件を満たさない場合には、ステップS83においてCPU22は、注目画素Pkを非血管画素と判定する。そして、図17の処理を終了する。   On the other hand, if the number of pixels of the blood vessel candidate does not satisfy the condition equal to or greater than the number of pixels of the non-blood vessel candidate, the CPU 22 determines that the pixel of interest Pk is a non-blood vessel pixel in step S83. Then, the process of FIG. 17 ends.

なお、図15の処理による画素数Nv、Nnvと図16処理による画素数Nv、Nnvとが異なるような場合には、上記のNv≧Nnvか否かの判定の条件をより十分に満たす場合(具体的には両画素数間の大小関係の差が大きいもの)を採用する。   When the number of pixels Nv and Nnv by the process of FIG. 15 and the number of pixels Nv and Nnv by the process of FIG. 16 are different, the above-described condition for determining whether or not Nv ≧ Nnv is satisfied sufficiently ( Specifically, one having a large difference in the magnitude relationship between the number of pixels is employed.

このように処理する本実施形態は、注目画素の近傍領域における全体的な特徴量となる血管候補数、非血管候補数の情報を用いて、注目画素を補正するようにしている。   In this embodiment, which is processed in this way, the pixel of interest is corrected using information on the number of blood vessel candidates and the number of non-blood vessel candidates that are the overall feature amounts in the vicinity region of the pixel of interest.

従って、谷構造フィルタを用いて、血管の抽出結果に、血管の途切れが発生した場合の途切れの改善や、血管端の輪郭の抽出を可能にしたり、急激に幅が変化するような線構造ではない領域を抽出してしまうことを抑制する等が可能となる。その他、第1の実施形態と同様の効果を有する。   Therefore, using a trough structure filter, it is possible to improve the discontinuity of the blood vessel when the blood vessel is extracted, to extract the contour of the blood vessel end, or in a line structure where the width changes abruptly. It is possible to suppress the extraction of a non-existing region. Other effects are the same as those of the first embodiment.

なお、本実施形態においても、血管候補画素、非血管候補画素に対して、補正を行う場合に限らす、第3の実施形態において述べたように、血管画素、非血管画素に対して補正を行うようにしても良い。   Note that in this embodiment, correction is performed on blood vessel pixels and non-blood vessel pixels as described in the third embodiment, only when correction is performed on blood vessel candidate pixels and non-blood vessel candidate pixels. You may make it do.

また、上述した近傍領域又は局所領域は、注目画素を中心に配置した3×3の矩形の画素サイズに限定されるものでなく、領域のサイズ、形状も異なるものを設定しても良い。   Further, the neighborhood area or the local area described above is not limited to a 3 × 3 rectangular pixel size arranged with the pixel of interest at the center, but may have different area sizes and shapes.

なお、図14のステップS52の処理を行う場合、図16及び図17の両方を行う場合に限らず、一方のみを行うようにしても良い。   In addition, when performing the process of step S52 of FIG. 14, it is not restricted to performing both FIG.16 and FIG.17, You may make it perform only one.

また、図16及び図17の判定の処理を行う場合、注目画素を選択的に設定するようにして、判定の処理を行う場合の着目する着目画素に対してのみ、判定の処理を行うようにしても良い。   In addition, when performing the determination process of FIGS. 16 and 17, the target pixel is selectively set so that the determination process is performed only for the target pixel of interest when performing the determination process. May be.

なお、上述した実施形態、例えば図3のステップS5の特徴量判定又は図10のステップS42−S44により血管と非血管とを判定する場合、このような判定に用いられる入力画像内の局所的な色調変化の影響を受け易く、血管の特徴量の抽出機能を低下させる場合がある。このような低下を抑制する補正を、以下に説明する。   In the above-described embodiment, for example, when determining a blood vessel and a non-blood vessel in step S5 in FIG. 3 or in steps S42 to S44 in FIG. 10, local in an input image used for such determination is used. There is a case where it is easily affected by a change in color tone and a function of extracting blood vessel feature values is lowered. Correction for suppressing such a decrease will be described below.

例えば、図2に示すようにCPU22により、注目画素Pkを含む局所領域における複数画素の画素信号値に関する統計量を算出する統計量算出手段としての統計量算出部(より具体的には平均値算出部)36と、統計量を用いて特徴量候補等を補正する補正手段としての補正部36aとを設ける。   For example, as shown in FIG. 2, a statistic calculating unit (more specifically, calculating an average value) as a statistic calculating unit that calculates a statistic regarding pixel signal values of a plurality of pixels in a local region including the target pixel Pk by the CPU 22. Part) 36 and a correction part 36a as correction means for correcting feature quantity candidates and the like using statistics.

上述した実施形態においては、G/R画像におけるg/r値を採用しているが、個々の画素での値を採用しているため、ノイズの影響を受け易い。そのため、注目画素を含む局所領域の複数画素における色調の平均値(換言すると統計量)を用いた補正値を用いて補正することで、色調変化の影響を軽減することができる。   In the above-described embodiment, the g / r value in the G / R image is adopted. However, since the value in each pixel is adopted, it is easily affected by noise. Therefore, the influence of the color tone change can be reduced by performing correction using the correction value using the average value (in other words, the statistic) of the color tone in a plurality of pixels in the local region including the target pixel.

例えば、統計量算出部36は、任意に選択した注目画素Pkを中心とした例えば51×51画素の矩形領域のG/R平均値(G/Rave)を算出し、例えば以下の式(4)に示す補正式に代入することで、補正部36aは、色調変化の影響を軽減した補正特徴量を得て、特徴量を補正する。   For example, the statistic calculation unit 36 calculates a G / R average value (G / Rave) of a rectangular area of, for example, 51 × 51 pixels centered on an arbitrarily selected target pixel Pk, for example, the following equation (4) By substituting into the correction formula shown in FIG. 8, the correction unit 36a obtains a correction feature amount that reduces the influence of the color tone change, and corrects the feature amount.

補正特徴量=特徴量/(−0.0271・G/Rave2+0.02・G/Rave−0.0008) (4)
ただし、補正対象の特徴量としては、フィルタリング処理の出力値でも良いし、特徴量を算出するための入力画像のg/r値に適用しても良い。また、補正対象の特徴量に応じて、式(4)の各係数は変更してもよい。また、上記矩形領域は、51×51画素の場合に限定されるものでなく、より小さい矩形領域等でも良い。また、統計量を用いて補正する方法は、統計量により特徴量から抽出画素を判定する判定基準を補正する補正テーブルを用いても良い。
Corrected feature value = feature value / (− 0.0271 · G / Rave2 + 0.02 · G / Rave−0.0008) (4)
However, the feature quantity to be corrected may be an output value of filtering processing or may be applied to the g / r value of the input image for calculating the feature quantity. In addition, each coefficient in Expression (4) may be changed according to the feature quantity to be corrected. Further, the rectangular area is not limited to 51 × 51 pixels, and may be a smaller rectangular area. In addition, as a method of correcting using a statistic, a correction table for correcting a determination criterion for determining an extraction pixel from a feature value using a statistic may be used.

また、2次元の矩形領域等の局所領域の場合に限定されるものでなく、1次元の複数画素からなる局所領域でも良い。   Further, the present invention is not limited to a local region such as a two-dimensional rectangular region, and may be a local region including a one-dimensional plurality of pixels.

この他に、血管候補/非血管候補を判定する閾値を、生体粘膜の平均値を用いた補正式で補正したり、閾値を補正する閾値を補正テーブルを用意し、この閾値補正テーブルに格納した閾値を用いて補正するようにしても良い。   In addition to this, the threshold value for determining the blood vessel candidate / non-blood vessel candidate is corrected by a correction formula using the average value of the biological mucous membrane, or a threshold value correction table is prepared and stored in this threshold correction table. You may make it correct | amend using a threshold value.

また、上述した実施形態等においては、谷構造の場合に対して説明したが、本発明は、上に凸となる山構造の場合に対しても適用できる。この場合には、山構造の形状に対応した複数の1次元フィルタを用意すれば良い。そして、第1の実施形態において説明したようにフィルタリング処理の出力値が最大となるものを探索すれば良い。   Further, in the above-described embodiments and the like, the case of the valley structure has been described, but the present invention can also be applied to the case of a mountain structure that is convex upward. In this case, a plurality of one-dimensional filters corresponding to the shape of the mountain structure may be prepared. Then, as described in the first embodiment, it is only necessary to search for the one having the maximum output value of the filtering process.

また、谷構造に対応した複数の1次元フィルタを用いて上に凸となる山構造の場合に適用することもできる。この場合には、フィルタリング処理の出力値の絶対値が最大値となるものを探索すれば良い。また、上に凸の構造のみ探索又は抽出する場合には、フィルタリング処理の出力が最小値(出力が負の場合の絶対値が最大値)となるものか、又は出力の符号を反転した値を利用すれば良い。従って、上述したある画素における複数のフィルタ出力が最も合致する、最大値又は絶対値が最大となるものに設定しても良い。   Moreover, it can also be applied to the case of a mountain structure that is convex upward using a plurality of one-dimensional filters corresponding to the valley structure. In this case, it is only necessary to search for a filter whose absolute value of the output value of the filtering process is the maximum value. In addition, when searching or extracting only an upwardly convex structure, the output of the filtering process is a minimum value (the absolute value when the output is negative is the maximum value), or a value obtained by inverting the sign of the output Use it. Therefore, the maximum value or the absolute value may be set so that the plurality of filter outputs in the certain pixel described above are the best match.

さらに、上述した特徴量選択部33がフィルタリング処理した場合の複数のフィルタ出力の絶対値が最大になる場合のフィルタから特徴量を選択する場合に限定されるものでなく、他の選択基準を採用しても良い。その理由は以下のようになる。   Furthermore, it is not limited to selecting a feature value from a filter when the absolute value of a plurality of filter outputs when the feature value selection unit 33 performs the filtering process is the maximum, but other selection criteria are adopted. You may do it. The reason is as follows.

例えばフィルタAにより最も合致した場合の値は1で、フィルタBでは2であるとすると、フィルタチング処理により実際に算出されたフィルタAの出力が0.8で、フィルタB場合には出力が1.2となる場合を考える。最大値の選択基準を適用すると、0.8<1.2となるのでフィルタBが選択される。しかし、合致率を選択基準と考えると単純計算でフィルタBは1.2/2=0.6<0.8となるので、フィルタAの方が、選択すべきフィルタにより合致している。   For example, if the value of filter A is the best match, the value is 1 and the value of filter B is 2, and the output of filter A actually calculated by the filtering process is 0.8. Consider the case of .2. When the maximum value selection criterion is applied, the filter B is selected because 0.8 <1.2. However, considering the match rate as a selection criterion, filter B is 1.2 / 2 = 0.6 <0.8 in a simple calculation, so that filter A matches the filter to be selected.

このため、特徴量選択部33が、フィルタリング手段により算出された複数のフィルタ出力を比較し、設定された選択基準に基づき(比較結果が選択基準に最も反応又は適合する)生体粘膜構造の特徴量を選択するようにしても良い。   For this reason, the feature value selection unit 33 compares the plurality of filter outputs calculated by the filtering means, and the feature value of the biological mucosa structure based on the set selection criterion (the comparison result is the most responsive or suitable for the selection criterion) May be selected.

また、前記抽出対象の粘膜表面構造としては、血管、上皮構造に限定されるものでなく、大腸の表面、パターン(表面構造)、ピットパターン、胃でいうMCL,Light blue crest,ピット、窩間部等の様々な場合に広く適用できる。   The mucosal surface structure to be extracted is not limited to blood vessels and epithelial structures, but the surface of the large intestine, pattern (surface structure), pit pattern, stomach, MCL, light blue crest, pit, interpit It can be widely applied to various cases such as parts.

なお、上述した実施形態等を部分的に組み合わせる等して構成される実施形態も本発明に属する。   Note that embodiments configured by partially combining the above-described embodiments and the like also belong to the present invention.

本出願は、2011年4月27日に出願された特願2011−099850号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、特許請求の範囲に引用されるものとする。   This application is filed on the basis of the priority claim of Japanese Patent Application No. 2011-099850 filed on April 27, 2011, and the above disclosure is cited in the present specification and claims. Shall be.

Claims (4)

生体粘膜を撮像して得られる複数の画素からなる医用画像情報を入力する入力部と、
前記医用画像情報の複数の画素における注目画素に対して前記生体粘膜の表面構造の走行方向と幅のうち少なくとも一方の情報を含む第1のフィルタを適用することにより前記注目画素の第1の特徴情報を取得し、さらに前記注目画素に対して表面構造の走行方向と幅のうち少なくとも一方の情報を含む第2のフィルタを適用することにより前記注目画素の第2の特徴情報を取得し、さらに前記注目画素の近傍に位置する近傍画素に前記第1のフィルタを適用することにより前記近傍画素の第3の特徴情報を取得し、さらに前記近傍画素に前記第2のフィルタを適用することにより前記近傍画素の第4の特徴情報を取得するフィルタリング部と、
前記注目画素の第1の特徴情報および前記注目画素の第2の特徴情報に基づき前記第1のフィルタ及び前記第2のフィルタのうち前記注目画素においてより反応したフィルタを選択し、さらに前記近傍画素の第3の特徴情報および前記近傍画素の第4の特徴情報に基づき前記第1のフィルタ及び前記第2のフィルタのうち前記近傍画素においてより反応したフィルタを選択する選択部と、
前記注目画素において前記選択部によって選択されたフィルタに対応する特徴情報に基づき前記注目画素が表面構造候補画素であるか非粘膜表面構造候補画素であるかを判定し、さらに前記近傍画素において前記選択部によって選択されたフィルタに対応する特徴情報に基づき前記近傍画素が表面構造候補画素であるか非粘膜表面構造候補画素であるかを判定する判定部と、
前記判定部において前記表面構造候補画素であると判断された近傍画素における少なくとも一方の情報と前記注目画素における少なくとも一方の情報との比較結果に基づき前記注目画素になされた前記判定結果を補正する補正部と、
を有することを特徴とする医用画像処理装置。
An input unit for inputting medical image information composed of a plurality of pixels obtained by imaging a biological mucous membrane;
By applying a first filter including at least one of the traveling direction and width of the surface structure of the biological mucosa to the target pixel in the plurality of pixels of the medical image information, the first feature of the target pixel Information is acquired, and further, second characteristic information of the target pixel is acquired by applying a second filter including at least one of the traveling direction and width of the surface structure to the target pixel, and By applying the first filter to neighboring pixels located in the vicinity of the target pixel, the third feature information of the neighboring pixels is obtained, and further, by applying the second filter to the neighboring pixels, A filtering unit that acquires fourth feature information of neighboring pixels;
Based on the first feature information of the pixel of interest and the second feature information of the pixel of interest, a filter that has reacted more in the pixel of interest is selected from the first filter and the second filter, and the neighboring pixels A selection unit that selects a filter that has reacted more in the neighboring pixels out of the first filter and the second filter based on the third feature information of the first and fourth feature information of the neighboring pixels;
It is determined whether the target pixel is a surface structure candidate pixel or a non-mucosal surface structure candidate pixel based on feature information corresponding to the filter selected by the selection unit in the target pixel, and the selection is performed in the neighboring pixels. A determination unit that determines whether the neighboring pixel is a surface structure candidate pixel or a non-mucosal surface structure candidate pixel based on feature information corresponding to the filter selected by the unit;
Correction for correcting the determination result made on the target pixel based on a comparison result between at least one information on a neighboring pixel determined to be the surface structure candidate pixel by the determination unit and at least one information on the target pixel And
A medical image processing apparatus comprising:
前記補正部は、前記表面構造候補画素であると判断された近傍画素における少なくとも一方の情報と前記注目画素における少なくとも一方の情報との差が所定の閾値未満である前記表面構造候補画素であると判断された近傍画素の数に基づき、前記注目画素になされた前記判定結果を補正する
ことを特徴とする請求項1に記載の医用画像処理装置。
The correction unit is the surface structure candidate pixel in which a difference between at least one information in a neighboring pixel determined to be the surface structure candidate pixel and at least one information in the target pixel is less than a predetermined threshold value. The medical image processing apparatus according to claim 1, wherein the determination result made on the target pixel is corrected based on the determined number of neighboring pixels.
前記補正部は、前記判定部において前記表面構造候補画素であると判断され、かつ前記選択部により選択されたフィルタが含む走行方向上に前記注目画素が位置し、かつ前記走行方向が前記注目画素において前記選択部により選択されたフィルタが含む走行方向と一致する近傍画素の数を算出した結果に基づき前記注目画素になされた前記判定結果を補正する
ことを特徴とする請求項1に記載の医用画像処理装置。
The correction unit is determined to be the surface structure candidate pixel by the determination unit, and the target pixel is located on a travel direction included in the filter selected by the selection unit, and the travel direction is the target pixel. 2. The medical use according to claim 1, wherein the determination result made to the target pixel is corrected based on a result of calculating the number of neighboring pixels matching the traveling direction included in the filter selected by the selection unit. Image processing device.
前記補正部は、前記判定部において前記表面構造候補画素であると判断され、かつ前記選択部により選択されたフィルタが含む幅と前記注目画素において前記選択部により選択されたフィルタが含む幅の差が所定の閾値未満である近傍画素の数を算出した結果に基づき前記注目画素になされた前記判定結果を補正する、
ことを特徴とする請求項1に記載の医用画像処理装置。
The correction unit is determined to be the surface structure candidate pixel in the determination unit, and a difference between a width included in the filter selected by the selection unit and a width included in the filter selected by the selection unit in the target pixel Correcting the determination result made to the pixel of interest based on the result of calculating the number of neighboring pixels that is less than a predetermined threshold;
2. The medical image processing apparatus according to claim 1, wherein:
JP2013128704A 2011-04-27 2013-06-19 Medical image processing device Active JP5856999B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013128704A JP5856999B2 (en) 2011-04-27 2013-06-19 Medical image processing device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011099850 2011-04-27
JP2011099850 2011-04-27
JP2013128704A JP5856999B2 (en) 2011-04-27 2013-06-19 Medical image processing device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012549176A Division JP5301737B2 (en) 2011-04-27 2012-04-09 Medical image processing device

Publications (2)

Publication Number Publication Date
JP2013255808A true JP2013255808A (en) 2013-12-26
JP5856999B2 JP5856999B2 (en) 2016-02-10

Family

ID=47072028

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2012549176A Active JP5301737B2 (en) 2011-04-27 2012-04-09 Medical image processing device
JP2013128704A Active JP5856999B2 (en) 2011-04-27 2013-06-19 Medical image processing device

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2012549176A Active JP5301737B2 (en) 2011-04-27 2012-04-09 Medical image processing device

Country Status (2)

Country Link
JP (2) JP5301737B2 (en)
WO (1) WO2012147505A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10039439B2 (en) 2014-09-30 2018-08-07 Fujifilm Corporation Endoscope system and method for operating the same
US10052015B2 (en) 2014-09-30 2018-08-21 Fujifilm Corporation Endoscope system, processor device, and method for operating endoscope system

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012147505A1 (en) * 2011-04-27 2012-11-01 オリンパスメディカルシステムズ株式会社 Medical image processing device and medical image processing method
WO2014097758A1 (en) * 2012-12-19 2014-06-26 オリンパスメディカルシステムズ株式会社 Medical image processing device and medical image processing method
DE112017000025T5 (en) 2016-03-03 2018-03-01 Hoya Corporation Method for generating correction data and device for generating correction data
JP6488249B2 (en) * 2016-03-08 2019-03-20 富士フイルム株式会社 Blood vessel information acquisition apparatus, endoscope system, and blood vessel information acquisition method
DE112020001352T5 (en) * 2019-03-20 2021-12-16 Hoya Corporation ENDOSCOPIC SYSTEM
JP2021065370A (en) 2019-10-21 2021-04-30 ソニー株式会社 Image processing device, image processing method, and endoscope system
WO2022107525A1 (en) 2020-11-19 2022-05-27 富士フイルム株式会社 Image processing device and method for controlling image processing device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004181096A (en) * 2002-12-05 2004-07-02 Olympus Corp Method for processing image
JP2004267584A (en) * 2003-03-11 2004-09-30 Aloka Co Ltd Ultrasonic diagnostic equipment
WO2012147505A1 (en) * 2011-04-27 2012-11-01 オリンパスメディカルシステムズ株式会社 Medical image processing device and medical image processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004181096A (en) * 2002-12-05 2004-07-02 Olympus Corp Method for processing image
JP2004267584A (en) * 2003-03-11 2004-09-30 Aloka Co Ltd Ultrasonic diagnostic equipment
WO2012147505A1 (en) * 2011-04-27 2012-11-01 オリンパスメディカルシステムズ株式会社 Medical image processing device and medical image processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10039439B2 (en) 2014-09-30 2018-08-07 Fujifilm Corporation Endoscope system and method for operating the same
US10052015B2 (en) 2014-09-30 2018-08-21 Fujifilm Corporation Endoscope system, processor device, and method for operating endoscope system

Also Published As

Publication number Publication date
JPWO2012147505A1 (en) 2014-07-28
JP5301737B2 (en) 2013-09-25
JP5856999B2 (en) 2016-02-10
WO2012147505A1 (en) 2012-11-01

Similar Documents

Publication Publication Date Title
JP5856999B2 (en) Medical image processing device
JP5276225B2 (en) Medical image processing apparatus and method of operating medical image processing apparatus
JP5444511B1 (en) Image processing device
JP2014188222A (en) Image processor, endoscope device, program and image processing method
JP4832927B2 (en) Medical image processing apparatus and medical image processing method
KR100891766B1 (en) Medical image processing apparatus
JP5931418B2 (en) Image processing apparatus, operation method of image processing apparatus, and image processing program
WO2014115371A1 (en) Image processing device, endoscope device, image processing method, and image processing program
WO2008044466A1 (en) Image processing device, image processing method, and image processing program
WO2012153568A1 (en) Medical image processing device and medical image processing method
US8620042B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
JP2011218090A (en) Image processor, endoscope system, and program
JP2010184057A (en) Image processing method and device
Fonolla et al. Multi-modal classification of polyp malignancy using CNN features with balanced class augmentation
US7840055B2 (en) Computer aided tube and tip detection
JP4749732B2 (en) Medical image processing device
US7689018B2 (en) Anomaly detection in volume data structure information
JP4077716B2 (en) Endoscope insertion direction detection device
JP4855673B2 (en) Medical image processing device
EP1992273B1 (en) Medical image processing device and medical image processing method
JP6081209B2 (en) Endoscope apparatus and program
JP7335157B2 (en) LEARNING DATA GENERATION DEVICE, OPERATION METHOD OF LEARNING DATA GENERATION DEVICE, LEARNING DATA GENERATION PROGRAM, AND MEDICAL IMAGE RECOGNITION DEVICE
JP2010179023A (en) Image processing method and apparatus
JP2019180748A (en) Image processing program, image processing apparatus, and image processing method
JP5315376B2 (en) Fence-like blood vessel detection device and method of operating the fence-like blood vessel detection device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141104

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150428

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20150525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151214

R151 Written notification of patent or utility model registration

Ref document number: 5856999

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250