JP2002165757A - Diagnostic supporting system - Google Patents

Diagnostic supporting system

Info

Publication number
JP2002165757A
JP2002165757A JP2000365855A JP2000365855A JP2002165757A JP 2002165757 A JP2002165757 A JP 2002165757A JP 2000365855 A JP2000365855 A JP 2000365855A JP 2000365855 A JP2000365855 A JP 2000365855A JP 2002165757 A JP2002165757 A JP 2002165757A
Authority
JP
Japan
Prior art keywords
image
diagnosis support
endoscope
roi
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000365855A
Other languages
Japanese (ja)
Other versions
JP2002165757A5 (en
JP4450973B2 (en
Inventor
Hiroichi Nishimura
博一 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP2000365855A priority Critical patent/JP4450973B2/en
Publication of JP2002165757A publication Critical patent/JP2002165757A/en
Publication of JP2002165757A5 publication Critical patent/JP2002165757A5/ja
Application granted granted Critical
Publication of JP4450973B2 publication Critical patent/JP4450973B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a means for knowing a kind of findings or relevant findings of tumors, or the like, to be diagnosed thereof, and their ratio involved therein. SOLUTION: The diagnostic supporting process implementation program 80 consists of image input-control block 81, data base control block 82, provisional ROI set-up block 83, exceptionally small amount calculation block 84, ROI set-up block 85, distinguishing classification block 86, report preparation block 87 and image processing block 88.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は診断支援装置、さら
に詳しくは内視鏡装置による画像データを基に病変の種
類を自動的に判別・分類する部分に特徴のある診断支援
装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a diagnosis support apparatus, and more particularly, to a diagnosis support apparatus characterized in that a type of a lesion is automatically determined and classified based on image data from an endoscope apparatus.

【0002】[0002]

【従来の技術】近年、細長の挿入部を体腔内に挿入し、
固体撮像素子等を撮像手段に用いて体腔内臓器等をモニ
タ画面により観察し、検査あるいは診断することのでき
る内視鏡装置が広く用いられている。また,前記体腔内
臓器へ超音波を照射し、この超音波の反射あるいは透過
度等により該体腔内臓器の状況をモニタ画面により観察
し、検査あるいは診断することのできる超音波内視鏡装
置も広く用いられている。
2. Description of the Related Art In recent years, an elongated insertion portion has been inserted into a body cavity,
2. Description of the Related Art An endoscope apparatus capable of observing an organ in a body cavity or the like on a monitor screen using a solid-state imaging device or the like as an imaging unit on a monitor screen to perform inspection or diagnosis is widely used. Further, there is also an ultrasonic endoscope apparatus which irradiates ultrasonic waves to the internal organs of the body cavity, observes the condition of the internal organs of the body cavity on a monitor screen based on the reflection or transmittance of the ultrasonic waves, and can perform inspection or diagnosis. Widely used.

【0003】これらの内視鏡装置を用いた最終的な診断
は医師の主観に依存している部分が多大であり、客観的
・数値的な診断に直接結びつく内視鏡診断支援装置の実
現が望まれていた。
[0003] The final diagnosis using these endoscope devices largely depends on the subjectivity of the doctor, and an endoscope diagnosis support device directly linked to objective and numerical diagnosis has been realized. Was desired.

【0004】内視鏡診断支援装置は、画像内における関
心領域(ROI)から算出された様々な特徴量を用い、
闇値処理あるいは統計的・非統計的識別器を用いて診断
対象とする画像がどのような所見や病変に分類されるか
を医師に提示することにより、客観的・数値的な診断の
支援を行うものである。
[0004] An endoscope diagnosis support apparatus uses various feature amounts calculated from a region of interest (ROI) in an image,
Supporting objective and numerical diagnosis by presenting to doctors what kind of findings and lesions are classified into images to be diagnosed using dark value processing or statistical / non-statistical classifiers Is what you do.

【0005】特徴量は、内視鏡画像上の様々な所見を反
映した数値であり、画像処理手法の適用により得られる
ものである。例えば「発赤により粘膜表面が赤い」とい
った色調に関する所見を特徴量化する場合には、内視鏡
画像を構成するRGB各データを用いて、R/(R+G
+B)を各画素ごとに求め、その平均値を特徴量として
使用することができる(この特徴量は一般に色度と呼ば
れる)。また、近年内視鏡分野においては胃粘膜血流量
を反映した色調の特徴量として32log2(R/G)
により得られるヘモグロビン指標が広く用いられてい
る。
[0005] The feature amount is a numerical value reflecting various findings on an endoscope image, and is obtained by applying an image processing technique. For example, in the case of characterizing a finding relating to a color tone such as “red mucous membrane surface is reddened”, R / (R + G
+ B) can be obtained for each pixel, and the average value can be used as a feature value (this feature value is generally called chromaticity). In recent years, in the field of endoscopes, a characteristic quantity of color tone that reflects gastric mucosal blood flow rate is 32 log 2 (R / G).
Is widely used.

【0006】さらに、透見血管像に見られる血管の拡張
・蛇行や胃小区の形態の大小・不整度・胃小区間の溝幅
等、内視鏡画像における粘膜表面構造に関する所見も種
々の疾患に対する診断の重要な要素となっており、これ
らに対しても画像処理手法の適用により特徴量として数
値化することができる。このような特徴量算出において
は、特許第2918162号公報に示されている手法が
ある。
Further, there are various diseases related to the mucosal surface structure in endoscopic images, such as dilatation and meandering of blood vessels and small and large irregularities in the form of small stomach sections, and groove widths of small stomach sections in the see-through blood vessel images. Is an important element in the diagnosis of, and these can also be quantified as feature values by applying an image processing method. In such feature amount calculation, there is a method disclosed in Japanese Patent No. 2918162.

【0007】さらに、複数の異なる所見から得た各特徴
量を組み合わせて特徴ベクトルとして用いることによ
り、より複雑かつ正確な診断の支援を行うことがでる。
内視鏡診断支援装置の精度向上においては,重要な内視
鏡画像所見を数値化するための高精度の特徴量算出手法
が非常に重要であるといえる。
[0007] Further, by using each feature amount obtained from a plurality of different findings in combination as a feature vector, more complex and accurate diagnosis can be supported.
In improving the accuracy of the endoscope diagnosis support device, it can be said that a highly accurate feature amount calculation method for quantifying important endoscopic image findings is very important.

【0008】近年においては,公知のGaborフィル
タを用いて算出されるGabor特徴に対し内視鏡画像
への適用のための改良を加えた空間周波数解析手法によ
り、粘膜表面構造の細かさ、粘膜表面構造が呈する模様
の方向性等を特徴量として数値化する内視鏡画像処理方
法がある。
In recent years, the fineness of the mucosal surface structure and the mucosal surface structure have been improved by a spatial frequency analysis technique in which Gabor features calculated using a known Gabor filter are improved for application to endoscopic images. There is an endoscope image processing method in which the directionality of a pattern presented by a structure is quantified as a feature amount.

【0009】このような内視鏡診断支援装置及び特徴量
算出手法の例として、特開平10−14864号公報が
ある。
Japanese Patent Application Laid-Open No. 10-14864 discloses an example of such an endoscope diagnosis support apparatus and a feature amount calculation method.

【0010】[0010]

【発明が解決しようとする課題】最近の内視鏡装置にお
いては、高画質化、固体撮像素子(CCD等)の高画素
化、さらには通常の内視鏡と同等の外径と操作性を保ち
つつ拡大観察(ズーミング)機能を有する拡大内視鏡の
登場により、粘膜表面の極めて微細な毛細血管像や胃・
大腸の腺口(pit)構造が明瞭に観察されるようになっ
ている。従来組織標本を実体顕微鏡下で観察していたの
と同レベルの生体像を内視鏡下で臨床検査時に観察する
ことが可能となり、それらの微細構造観察所見を用いた
新たな診断学が確立されてきている。
In recent endoscope apparatuses, high image quality, high pixel density of a solid-state imaging device (CCD, etc.), and an outer diameter and operability equivalent to those of a normal endoscope are required. With the advent of a magnifying endoscope that has a magnifying observation function (zooming) while maintaining it, extremely fine capillary images on the mucous membrane surface and stomach and
The pit structure of the large intestine is clearly observed. A biological image of the same level as a conventional tissue specimen observed under a stereoscopic microscope can be observed at the time of clinical examination under an endoscope, and a new diagnostic science using those microstructure observation findings is established. Have been.

【0011】このような例として文献1(胃隆起性病変
の実体顕徴鏡像と病理組織学的所見からみた拡大電子内
視鏡像の解析,本田徹他,Gastroenterological Endosc
opy,1993年5月,第35巻5号pp.967-976)、文献2(陥
凹型早期大腸癌,工藤進英,マンスリーブックガスト
ロ,1993年5月,第3巻5号pp.47-53)及び文献3(拡大
電子スコープによる大腸疾患の診断,工藤進英他,胃と
腸,1994年,第29巻3号,pp.163-165)があげられる。
これらは内視鏡画像上で観察されるpitの形態や配列の
違いから、正常粘膜、良性腫瘍および癌等の病変が鑑別
可能であることを示している。例えば文献2および3に
おいては、大腸病変に見られるpitの形態や配列の違い
をI型ないしV型とその亜分類からなるpit patternに
分類の上、各種病変との対応付けを行った。
[0011] For example, reference 1 (analysis of stereoscopic microscopic images of gastric protuberance lesions and magnified electronic endoscopic images from the histopathological findings, Toru Honda et al., Gastroenterological Endosc
opy, May 1993, Vol. 35, No. 5, pp. 967-976), Reference 2 (Depressed type early colorectal cancer, Shinhide Kudo, Mannebros Gastro, May 1993, Vol. 3, No. 5, pp. 47-) 53) and Reference 3 (Diagnosis of colorectal disease using an enlarged electronic scope, Shindo Kudo et al., Stomach and Intestine, 1994, Vol. 29, No. 3, pp. 163-165).
These indicate that lesions such as normal mucous membranes, benign tumors, and cancers can be distinguished from differences in pit morphology and arrangement observed on endoscopic images. For example, in Literatures 2 and 3, differences in morphology and arrangement of pits found in colorectal lesions are classified into pit patterns composed of type I to type V and subclasses thereof, and associated with various lesions.

【0012】しかしながら、これらの新しい内視鏡診断
学に対する客観的・数値的な診断の実現にあたっては、
特開平10−14864号公報に示される診断支援装置
において以下のような問題があった。
However, in realizing an objective and numerical diagnosis for these new endoscopic diagnostics,
The diagnosis support apparatus disclosed in Japanese Patent Application Laid-Open No. H10-14864 has the following problems.

【0013】内視鏡画像において、特に近接あるいは拡
大観察時においては、病変部内は必ずしも均一な所見を
呈する症例ばかりではなく、例えば大腸pit patternで
は大きさが数mmの極めて微小な病変においても正常で
あるI型,腫瘍性病変のIIIs型及びそれらの中間ともい
える型等が混在することがある。また、腺腫内癌のよう
に良性腫瘍の中の一部が癌化した病変も報告されてい
る。
[0013] In endoscopic images, particularly at the time of close-up or magnified observation, not only the cases where the lesions do not necessarily show uniform findings, but also, for example, the extremely small lesions of several mm in the colon pit pattern are normal. In some cases, the type I, the type IIIs of the neoplastic lesion, and the type intermediate between them may be mixed. In addition, lesions in which some of the benign tumors have become cancerous, such as intra-adenoma cancers, have also been reported.

【0014】関心領域として設定されなかった領域の情
報は得られないため、例えば病変部粘膜上にどのような
型のpit patternがどのような割合で存在しているか、
あるいは病変中にどのような種類の腫瘍が混在している
かを知ることができないという問題がある。
Since information on a region not set as a region of interest cannot be obtained, for example, what type of pit pattern is present on the mucosa of the lesion and at what ratio
Another problem is that it is not possible to know what kind of tumor is mixed in the lesion.

【0015】また、内視鏡画像からの特徴量算出におい
ては、より正確な診断の実現のため内視鏡画像における
より多くの情報を利用する必要がある。一方、特開平1
0−14864号公報においては前述した空間周波数解
析手法が適用されているが、これらは空間周波数成分の
有するすべての情報を利用したものではなかった。より
具体的には、空間周波数成分が有する情報は内視鏡画像
を構成する振幅情報と位相情報があるが、従来は位相情
報を利用していないことによる情報の損失がある。
Further, in calculating the feature amount from the endoscope image, it is necessary to use more information in the endoscope image in order to realize more accurate diagnosis. On the other hand,
In Japanese Patent Application Laid-Open No. 0-14864, the above-described spatial frequency analysis methods are applied, but these methods do not use all information of the spatial frequency components. More specifically, the information included in the spatial frequency component includes amplitude information and phase information that constitute an endoscope image, but there is a loss of information due to not using phase information conventionally.

【0016】また、特許第2918162号公報におい
ては粘膜表面における微細構造成分の特徴量算出につい
て示されているが、内視鏡診断支援装置における使用に
あたっては以下のような問題がある。
Further, Japanese Patent No. 2918162 discloses calculation of a feature amount of a fine structural component on a mucosal surface, but has the following problem when used in an endoscope diagnosis support apparatus.

【0017】内視鏡装置を用いた臨床検査においては粘
膜表面構造を明瞭に観察するために、インジゴカルミ
ン、メチレンブルー、クリスタルバイオレツト等の様々
な色素や染色剤と呼ばれる薬剤が用いられている。例え
ば大腸のpit patternの観察においては、インジゴカル
ミンを標準的に使用し、より詳細な観察が必要な場合に
はメチレンブルーまたはクリスタルバイオレットを使用
するといった使い分けがなされている。
In a clinical examination using an endoscope, various pigments such as indigo carmine, methylene blue, and crystal violet, and drugs called staining agents are used to clearly observe the mucosal surface structure. For example, in the observation of the pit pattern of the large intestine, indigo carmine is used as a standard, and when more detailed observation is required, methylene blue or crystal violet is used.

【0018】しかしながら、いわゆる色素法として用い
られるインジゴカルミンと、染色法として用いられるメ
チレンブルー及びクリスタルバイオレットにおいては次
のような性質の違いがある。
However, indigo carmine used as a dye method and methylene blue and crystal violet used as a dyeing method have the following differences in properties.

【0019】インジゴカルミンは生体に吸収される特性
を持たず、粘膜表面の凹凸形状に応じて凹の部分に溜ま
ることで明瞭な観察像が得られるものである。一方、メ
チレンブルー及びクリスタルバイオレットは例えば細胞
内の核に吸収されることで、吸収されなかった部位との
コントラストを明瞭化することが可能となっている。
Indigo carmine does not have the property of being absorbed by a living body, and a clear observation image can be obtained by accumulating in a concave portion according to the uneven shape of the mucous membrane surface. On the other hand, methylene blue and crystal violet are absorbed into, for example, the nucleus in a cell, thereby making it possible to clarify the contrast with a site not absorbed.

【0020】これらの性質から画像上に現れる違いにつ
いて図23を例に説明する。例えば大腸のpit pattern
は粘膜表面の腺口の形状と配列を観察するものである
が、腺口は粘膜表面に開いている微細な穴であるため、
インジゴカルミンを散布した場合には内視鏡画像におい
ては腺口部が青緑色の領域として観察される。これを模
式図的に表すと図23(a)に黒色で示す領域となる。
一方、メチレンブルー及びクリスタルバイオレットにお
いては,腺口は当然のことながら何もない空間であるた
め染色されず、図23(b)に示すように図23(a)
とは逆の状態となり、内視鏡画像においては腺口部以外
の部位がメチレンブルーでは青色、クリスタルバイオレ
ットでは紫色の領域として観察される。
Differences that appear on an image from these properties will be described with reference to FIG. 23 as an example. For example, pit pattern of colon
Is to observe the shape and arrangement of the pits on the mucosal surface, but because the pits are fine holes opened on the mucosal surface,
When indigo carmine is sprayed, the gland orifice is observed as a blue-green area in the endoscopic image. When this is schematically represented, it is a region shown in black in FIG.
On the other hand, in the case of methylene blue and crystal violet, the pores are naturally not stained because they are empty spaces, and as shown in FIG.
In the endoscope image, portions other than the gland orifice are observed as blue regions in methylene blue and purple regions in crystal violet.

【0021】そのため、例えばしきい値処理による粘膜
構造の抽出を行う場合には各薬剤の違いにより処理結果
が逆転することとなり、同じ疾患であるにもかかわらず
異なる特徴量の値が算出されるため、薬剤散布のない通
常画像及び各種薬剤を散布した画像を混在して使用でき
ないという問題がある。
Therefore, for example, when the mucosal structure is extracted by threshold processing, the processing result is reversed due to the difference of each drug, and different values of characteristic amounts are calculated despite the same disease. For this reason, there is a problem that a normal image having no medicine sprayed and an image having various medicines sprayed cannot be used in combination.

【0022】また、薬剤散布のない通常の内視鏡画像に
おいては、粘膜表面の構造成分はRGB画像におけるG
画像に最も多く含まれる。クリスタルバイオレットにお
いてもその紫色の色調から同様である。一方、インジゴ
カルミン及びメチレンブルー等の青色系の薬剤を使用し
た場合はR画像が最も多く構造成分を含む場合がある。
したがって、特徴量算出においてRGB画像のいずれを
処理の対象とするかについて、薬剤散布の有無及び散布
に使用した菓剤の種別に応じて変更することで診断支援
の高精度化が図れるにも関わらずこの点について考慮さ
れていないという問題がある。
In a normal endoscopic image without drug spraying, the structural components on the mucous membrane surface are represented by G in the RGB image.
Most included in the image. The same applies to crystal violet because of its purple color tone. On the other hand, when blue-based chemicals such as indigo carmine and methylene blue are used, the R image may contain the most structural components.
Therefore, although which of the RGB images is to be processed in the feature amount calculation is changed in accordance with the presence or absence of medicine spraying and the type of confectionery used for spraying, the accuracy of diagnosis support can be improved. There is a problem that this point is not taken into account.

【0023】本発明は、上記事情に鑑みてなされたもの
であり、内視鏡画像において病変の粘膜表面構造が複数
の異なる所見を呈する場合、あるいは病変中に他の異な
る腫瘍等が混在する場合においても、各所見を示す部位
ごとに関心領域を設定するとともに、どのような所見、
あるいは所見に関連して診断される腫瘍等が存在してい
るか、さらにはそれらがどのような割合で混在している
かを知ることのできる診断支援装置を提供することを目
的としている。
The present invention has been made in view of the above circumstances, and is directed to a case where a mucosal surface structure of a lesion shows a plurality of different findings in an endoscopic image, or a case where another different tumor or the like is mixed in a lesion. In, in addition to setting a region of interest for each part showing each finding, what kind of findings,
Alternatively, it is an object of the present invention to provide a diagnosis support apparatus that can determine whether a tumor or the like to be diagnosed in association with a finding exists, and further, what ratio they are mixed.

【0024】[0024]

【課題を解決するための手段】本発明の診断支援装置
は、被検体を撮像した撮像信号に基づき特徴量を算出す
る特徴量算出手段と、前記特徴量算出手段から出力され
る前記撮像信号の各画素に対応した複数の特徴量データ
に基づき前記撮像信号が形成する画像の領域を抽出する
画像領域抽出手段と、前記画像領域抽出手段で抽出され
る画像領域に対応した前記複数の特徴量データに基づき
病変の判別分類を行う判別分類手段と、前記判別分類手
段の判別分類結果を表示する表示手段とを備えて構成さ
れる。
According to the present invention, there is provided a diagnostic support apparatus comprising: a feature amount calculating unit configured to calculate a feature amount based on an image signal of an object to be imaged; Image region extracting means for extracting an area of an image formed by the imaging signal based on a plurality of feature amount data corresponding to each pixel; and the plurality of feature amount data corresponding to an image region extracted by the image region extracting means And a display means for displaying the result of the classification by the classification and classification means.

【0025】[0025]

【発明の実施の形態】以下、図面を参照しながら本発明
の実施の形態について述べる。
Embodiments of the present invention will be described below with reference to the drawings.

【0026】第1の実施の形態:本発明の第1の実施の
形態は、診断支援情報の取得を所望する病変部に対し
て、もれなく関心領域(以下、ROIと称する)を設定
することが可能となるとともに、各ROIごとにどのよ
うな所見や疾患がどのような割合で存在しているのかを
提示することができる内視鏡診断支援装置に関するもの
である。
First Embodiment: In a first embodiment of the present invention, a region of interest (hereinafter, referred to as an ROI) can be set without exception for a lesion for which acquisition of diagnosis support information is desired. The present invention relates to an endoscope diagnosis support apparatus that is capable of presenting what kind of findings and what percentage of each ROI is present, as well as being possible.

【0027】図1ないし図12は本発明の第1の実施の
形態に係わり、図1は内視鏡診断支援装置の構成を示す
構成図、図2は従来の内視鏡診断支援装置における診断
支援処理実行プログラムの構成を説明するための機能ブ
ロック図、図3は従来の内視鏡診断支援装置における診
断支援処理実行プログラムの動作を説明するためのフロ
ーチャート、図4は従来の内視鏡診断支援装置における
ROI設定を説明するためのROI設定ウィンドウ説明
図、図5は従来の内視鏡診断支援装置における診断支援
情報の表示を説明するためのレポート表示ウィンドウ説
明図、図6は本実施の形態の内視鏡診断支援装置におけ
る診断支援処理実行プログラムの構成を説明するための
機能ブロック図、図7は本実施の形態の内視鏡診断支援
装置における診断支援処理実行プログラムの動作を説明
するためのフローチャート、図8は本実施の形態の内視
鏡診断支援装置における仮ROI設定を説明するための
仮ROI設定ウィンドウ説明図、図9は本実施の形態に
おける領域分割処理の動作を説明するためのフローチャ
ート、図10及び図11は本実施の形態における領域分
割処理を説明するための説明図、図12は本実施の形態
の内視鏡診断支援装置における診断支援情報の表示を説
明するためのレポート表示ウィンドウ説明図である。
FIGS. 1 to 12 relate to a first embodiment of the present invention. FIG. 1 is a block diagram showing a configuration of an endoscope diagnosis support device, and FIG. 2 is a diagram showing a diagnosis in a conventional endoscope diagnosis support device. FIG. 3 is a functional block diagram for explaining the configuration of a support processing execution program, FIG. 3 is a flowchart for explaining the operation of a diagnosis support processing execution program in a conventional endoscope diagnosis support apparatus, and FIG. FIG. 5 is an explanatory view of an ROI setting window for explaining the ROI setting in the support apparatus, FIG. 5 is an explanatory view of a report display window for explaining the display of diagnosis support information in a conventional endoscope diagnosis support apparatus, and FIG. And FIG. 7 is a functional block diagram for explaining a configuration of a diagnosis support processing execution program in the endoscope diagnosis support apparatus according to the embodiment. FIG. 8 is a flowchart for explaining the operation of the support processing execution program. FIG. 8 is a diagram illustrating a temporary ROI setting window for explaining a temporary ROI setting in the endoscope diagnosis support apparatus according to the present embodiment. 10 and FIG. 11 are explanatory diagrams for explaining the area dividing process in the present embodiment, and FIG. 12 is a flowchart for explaining the operation of the endoscope diagnosis supporting apparatus in the present embodiment. It is a report display window explanatory view for explaining the display of diagnosis support information.

【0028】始めに、図1を参照の上、本発明の第1の
実施の形態における内視鏡診断支援装置の構成について
説明する。なお、本実施の形態における内視鏡診断支援
装置の構成は、従来の内視鏡診断支援装置と基本的に同
一であるが、後述する診断支援プログラムを構成するブ
ロック及び動作を異ならしめることによりその目的を達
成するものである。
First, the configuration of the endoscope diagnosis support apparatus according to the first embodiment of the present invention will be described with reference to FIG. Note that the configuration of the endoscope diagnosis support apparatus according to the present embodiment is basically the same as that of a conventional endoscope diagnosis support apparatus, but by differentiating the blocks and operations constituting a diagnosis support program described later. It achieves its purpose.

【0029】図1に示すように、本実施の形態の診断支
援装置1は、例えば図示しない電子内視鏡から撮像信号
を得て映像信号に変換するビデオプロセッサ2と、この
ビデオプロセッサ2からの映像信号を映し出す観察モニ
タ3と、ビデオプロセッサ2からの映像信号を画像デー
タに変換して信号処理する入力ユニット4と、入力ユニ
ット4により信号処理した画像データ及びこの画像デー
タを可逆あるいは非可逆圧縮した圧縮画像データを記憶
するサーバユニット5と、サーバユニット5に記憶され
た画像データあるいは圧縮画像データを検索して表示す
ると共に、関心領域設定処理、特徴量算出処理、判別分
類処理等の一連の診断支援処理を行うカンファレンスユ
ニット6とを備えて構成されている。
As shown in FIG. 1, a diagnosis support apparatus 1 according to the present embodiment includes, for example, a video processor 2 that obtains an image signal from an electronic endoscope (not shown) and converts it into a video signal. An observation monitor 3 for projecting a video signal, an input unit 4 for converting a video signal from the video processor 2 into image data for signal processing, image data signal-processed by the input unit 4, and lossless or irreversible compression of this image data A server unit 5 for storing the compressed image data, and a search and display of the image data or the compressed image data stored in the server unit 5, and a series of processes such as a region of interest setting process, a feature amount calculation process, and a discriminant classification process. And a conference unit 6 for performing a diagnosis support process.

【0030】入力ユニット4は、ビデオプロセッサ2か
らの映像信号であるアナログRGBビデオ信号をデジタ
ル信号である画像データヘ変板するA/Dコンバータ1
1と、画像データを記憶するメモリを備えビデオプロセ
ッサ2からの管理情報を付加した画像ファイルを生成す
る画像処理部12と、画像処理部12により生成された
画像ファイルをLAN(Local Area Network)ケーブル
4aを介してサーバユニット5に送出するLANコント
ローラ13と、ビデオプロセッサ2と画像データの管理
情報等を通信すると共に画像処理部12及びLANコン
トローラ13を制御するコントローラ14とを備えて構
成される。
The input unit 4 is an A / D converter 1 for converting an analog RGB video signal as a video signal from the video processor 2 into image data as a digital signal.
1, an image processing unit 12 having a memory for storing image data and generating an image file to which management information from the video processor 2 is added, and a LAN (Local Area Network) cable The LAN controller 13 transmits the image data to the server unit 5 via the LAN 4a. The controller 14 communicates image data management information with the video processor 2 and controls the image processing unit 12 and the LAN controller 13.

【0031】ビデオプロセツサ2は、映像信号出力端、
アナログRGBビデオ信号出力端及び通信信号出力端を
備えており、映像信号出力端は観察モニタ3に接続さ
れ、アナログRGBビデオ信号出力端はA/Dコンバー
タ11の入力端に接続され、通信信号出力端はコントロ
ーラ14に接続されている。
The video processor 2 has a video signal output terminal,
An analog RGB video signal output terminal and a communication signal output terminal are provided. The video signal output terminal is connected to the observation monitor 3, the analog RGB video signal output terminal is connected to the input terminal of the A / D converter 11, and the communication signal output terminal is connected. The end is connected to the controller 14.

【0032】また,A/Dコンバータ11の出力端は、
画像処理部12のデータ信号端に接続されている。
The output terminal of the A / D converter 11 is
It is connected to the data signal end of the image processing unit 12.

【0033】コントローラ14の制御信号端及びデータ
信号端は、バスライン14aにより画像処理部12及びL
ANコントローラ13との制御信号端に接続されてい
る。そしてコントローラ14による画像処理部12及びL
ANコントローラ13の制御は、バスライン14aを介
した信号により行われるようになっている。
The control signal end and the data signal end of the controller 14 are connected to the image processing unit 12 and the L
It is connected to a control signal terminal with the AN controller 13. Then, the image processing unit 12 and the L
The control of the AN controller 13 is performed by a signal via the bus line 14a.

【0034】ビデオプロセッサ2により映像信号に変換
された、例えば図示しない電子内視鏡による観察像は、
観察モニタ3に観察画像として映し出されるようになっ
ている。また、ビデオプロセッサ2の操作者が、前述し
た観察画像を記録する必要があると判断した場合、前述
した映像信号は、アナログRGBビデオ信号としてA/
Dコンバータ11へ出力されこのA/Dコンバータ11
は、アナログRGBビデオ信号を所定の量子化処理を行
い、デジタルRGBビデオ信号に変換し、画像処理部1
2へ観察画像データとして出力するようになっている。
For example, an image observed by an electronic endoscope (not shown) converted into a video signal by the video processor 2 is
The image is displayed on the observation monitor 3 as an observation image. When the operator of the video processor 2 determines that the above-described observation image needs to be recorded, the video signal described above is converted into an analog RGB video signal by A / A.
This A / D converter 11 is output to the D converter 11
Performs a predetermined quantization process on an analog RGB video signal, converts the analog RGB video signal into a digital RGB video signal,
2 is output as observation image data.

【0035】画像処理部12は、コントローラ14の制
御により、A/Dコンバータ11から入力された観察画
像データを記憶するようになっている。
The image processing section 12 stores observation image data input from the A / D converter 11 under the control of the controller 14.

【0036】コントローラ14は,画像処理部12に記
憶された観察画像データに対して縮小処理等の各種デー
タ処理を施し、さらには管理情報を付加して画像ファイ
ルとし、画像処理部12へ一旦記憶させあるいはLAN
コントローラ13へ出力するようになっている。また、
コントローラ14は、前述したように各種データ処理を
施された画像ファイルを画像処理部12へ一旦記憶した
場合、該画像ファイルを所定のタイミングにより画像処
理部12からLANコントローラ13へ出力するようにな
っている。
The controller 14 performs various data processing such as reduction processing on the observation image data stored in the image processing section 12, further adds management information to form an image file, and temporarily stores the image file in the image processing section 12. Or LAN
The data is output to the controller 13. Also,
The controller 14 outputs the image file from the image processing unit 12 to the LAN controller 13 at a predetermined timing when the image file subjected to the various data processing is once stored in the image processing unit 12 as described above. ing.

【0037】サーバユニット5は、入力ユニット4のL
ANコントローラ13より送出される画像ファイルを受
け取るLANコントローラ21と、LANコントローラ
21が受け取った画像ファイルを一時的に記憶するメモ
リ22と、LANコントローラ21が受け取つた画像フ
ァイルを大容量記憶媒体である例えばハードディスク2
3に記録するハードディスクドライバ24と、LANコ
ントローラ21が受け取った画像ファイルを可逆あるい
は非可逆で圧縮して圧縮画像データをハードディスクド
ライバ24に送出する圧縮装置25と、LANコントロ
ーラ21、メモリ22、ハードディスクドライバ24及
び圧縮装置25を制御するコントローラ26とを備えて
構成され、ハードディスクドライバ24は、画像ファイ
ル及び圧縮画像データをハードディスク23に記録する
と共に、LANコントローラ21は、LANケーブル5
aを介してハードディスク23に記録された画像ファイ
ルまたは圧縮画像データをカンファレンスユニット6に
送信できるようになっている。
The server unit 5 has the L of the input unit 4
A LAN controller 21 for receiving an image file sent from the AN controller 13, a memory 22 for temporarily storing the image file received by the LAN controller 21, and a large-capacity storage medium for storing the image file received by the LAN controller 21; Hard disk 2
, A compression device 25 for reversibly or irreversibly compressing the image file received by the LAN controller 21 and sending the compressed image data to the hard disk driver 24, a LAN controller 21, a memory 22, and a hard disk driver. And a controller 26 for controlling the compression device 25. The hard disk driver 24 records the image file and the compressed image data on the hard disk 23, and the LAN controller 21
The image file or the compressed image data recorded on the hard disk 23 can be transmitted to the conference unit 6 via a.

【0038】入力ユニット4のLANコントローラ13
のLANケーブル4a端はサーバユニット5のLANコ
ントローラ21に接続されている。このLANケーブル
4aは、いわゆる10baseTもしくは100baseTといわれる
ケーブルであり、ツイストペア線を用い10Mbit/secの
双方向のデータ通信を長さ100m以内の範囲で可能であ
り、複数の装置間の制御及びデータの送受をすることが
できるものである。
The LAN controller 13 of the input unit 4
The end of the LAN cable 4a is connected to the LAN controller 21 of the server unit 5. This LAN cable 4a is a so-called 10baseT or 100baseT cable, and is capable of performing bidirectional data communication of 10 Mbit / sec within a range of 100 m or less using a twisted pair wire. It can be sent and received.

【0039】サーバユニット5のコントローラ26の制
御信号端及びデータ信号端は、バスライン26aにより
メモリ22と、LANコントローラ21と,ハードディ
スクドライブ24との制卸信号端に接続されている。
A control signal terminal and a data signal terminal of the controller 26 of the server unit 5 are connected to a control signal terminal of the memory 22, the LAN controller 21, and the hard disk drive 24 by a bus line 26a.

【0040】サーバユニット5では、入力ユニット4の
LANコントローラ13からの画像ファイルをLANケ
ーブル4aを介してLANコントローラ21で入力し、
コントローラ26が、LANコントローラ21を介して
入力された画俵ファイルを一旦メモリ22に記憶する。
ハードディスクドライブ24は、この画像ファイルを例
えばハードディスク23へ記憶するようになっている。
In the server unit 5, the image file from the LAN controller 13 of the input unit 4 is input by the LAN controller 21 via the LAN cable 4a.
The controller 26 temporarily stores in the memory 22 the image file input via the LAN controller 21.
The hard disk drive 24 stores the image file on the hard disk 23, for example.

【0041】カンフアレンスユニット6は、サーバユニ
ット5のLANコントローラ21からの画像ファイルま
たは圧縮画像データをLANケーブル5aを介して受け
取るLANコントローラ31と、LANコントローラ3
1が受け取った画像ファイルまたは圧縮画像データを記
憶する画像処理部32と、画像処理部32が記憶した圧
縮画像データを伸張する伸張装置33と、画像処理部3
2が記憶した画像ファイル中のデジタル信号である画像
データ及び伸張装置22で伸張された画像データを逆量
子化処理し、アナログRGBビデオ信号へ変換するD/
Aコンバータ34と、D/Aコンバータ34により変換
されたアナログRGBビデオ信号を映し出す観察モニタ
35と、画像処理部32を制御するコントローラ36と
を備えている。
The conference unit 6 includes a LAN controller 31 for receiving an image file or compressed image data from the LAN controller 21 of the server unit 5 via the LAN cable 5a, and a LAN controller 3
1, an image processing unit 32 for storing the image file or the compressed image data received, an expansion device 33 for expanding the compressed image data stored by the image processing unit 32, and an image processing unit 3
2 performs a dequantization process on the digital image data and the image data decompressed by the decompression device 22 in the stored image file, and converts the image data into an analog RGB video signal.
An A converter 34, an observation monitor 35 for displaying analog RGB video signals converted by the D / A converter 34, and a controller 36 for controlling the image processing unit 32 are provided.

【0042】画像処理部32のデータ信号端は,D/A
コンパータ34の入力端に接続され、このD/Aコンバ
ータ34の出力端は、観察モニタ35に接続されてい
る。コントローラ36の制御信号端及びデータ信号端
は、バスライン36aにより前記画像処理部32とLA
Nコントローラ31との制御信号端に接続されている。
コントローラ36の制御信号端及びデータ信号端は、パ
スライン36bにより後述のCPU41との制御信号端
に接続されている。
The data signal end of the image processing unit 32 is D / A
The input terminal of the converter 34 is connected, and the output terminal of the D / A converter 34 is connected to the observation monitor 35. A control signal end and a data signal end of the controller 36 are connected to the image processing unit 32 and the LA by a bus line 36a.
It is connected to a control signal terminal with the N controller 31.
A control signal end and a data signal end of the controller 36 are connected to a control signal end with a CPU 41 described later via a pass line 36b.

【0043】また、カンファレンスユニット6は、コン
トローラ36を制御するCPU41と、例えばサーバユ
ニット5への画像ファイルの検索等の要求を入力すると
共に、この画像ファイルに併せて各種の情報を入力する
キーボード42と、このキーボード42の信号とCPU
41の信号との整合をとるキーボードインターフェース
(以下,キーボードI/Fと称する)43と、キーボー
ド42により入力された情報を表示する検索モニタ44
と、検索モニタ44の画面上のカーソル座標を任意の位
置に移動させる指示を与えるマウス45と、このマウス
45の信号とCPU41の信号との整合をとるマウスイ
ンターフェース(以下,マウスI/Fと称する)46
と、CPU41の実行プログラム及び検索モニタ44の
メニュー画面の画像データ等の各種データを記録したハ
ードデイスク47と、このハードディスク47の信号と
CPU41との信号の整合をとるハードディスクインタ
ーフェース(以下,ハードディスクI/Fと称する)4
8と、CPU41の各種処理作業領域として用いられる
作業メモリ49と、検索モニタ44に表示するデジタル
RGBビデオ信号を記憶するメモリを含む画像処理部5
0と、CPU41からの情報を印刷するプリンタ51
と、プリンタ51とCPU41との整合をとるプリンタ
インターフェース(以下,プリンタI/Fと称する)5
2とを備えている。
The conference unit 6 has a CPU 41 for controlling the controller 36 and a keyboard 42 for inputting, for example, a request for searching for an image file to the server unit 5 and for inputting various information along with the image file. And the signal of the keyboard 42 and the CPU
A keyboard interface (hereinafter, referred to as a keyboard I / F) 43 for matching with the signal of 41, and a search monitor 44 for displaying information input by the keyboard 42
And a mouse 45 for giving an instruction to move the cursor coordinates on the screen of the search monitor 44 to an arbitrary position, and a mouse interface (hereinafter referred to as a mouse I / F) for matching a signal of the mouse 45 with a signal of the CPU 41. ) 46
A hard disk 47 on which an execution program of the CPU 41 and various data such as image data of a menu screen of the search monitor 44 are recorded; and a hard disk interface (hereinafter referred to as a hard disk I / F) for matching a signal of the hard disk 47 with a signal of the CPU 41. 4)
8, a working memory 49 used as various processing work areas of the CPU 41, and an image processing unit 5 including a memory for storing digital RGB video signals to be displayed on the search monitor 44.
0 and a printer 51 for printing information from the CPU 41
And a printer interface (hereinafter, referred to as a printer I / F) 5 for matching the printer 51 with the CPU 41.
2 is provided.

【0044】さらに、カンファレンスユニット6は、C
PU41によりキーボード42から入力された情報のう
ちパスワードを記憶するパスワード記憶部61と、パス
ワード記憶部61が記憶したパスワードのレベルを判定
するパスワード監視部62と、パスワード監視部62の
判定結果に基づいてCPU41の制御を制限する制御制
限部63とを備えている。
Further, the conference unit 6
A password storage unit 61 that stores a password out of information input from the keyboard 42 by the PU 41, a password monitoring unit 62 that determines the level of the password stored in the password storage unit 61, and a password monitoring unit 62 based on the determination result. And a control restriction unit 63 for restricting the control of the CPU 41.

【0045】CPU41の制御信号端及びデータ信号端
は、バスライン41aによりハードディスクI/F4
8、マウスI/F46、 キーボードI/F43、作業
メモリ49、画像処理部50及びパスワード監視部61
の制御信号端及びデータ信号端に接続されている。そし
て、CPU41は,バスライン41aにより、ハードデ
ィスクI/F48、マウスI/F46、キーボードI/
F43、プリンタI/F52及び作業メモリ49を制御
するようになっている。
The control signal end and the data signal end of the CPU 41 are connected to the hard disk I / F 4 by a bus line 41a.
8, mouse I / F 46, keyboard I / F 43, working memory 49, image processing unit 50, and password monitoring unit 61
Are connected to the control signal end and the data signal end. The CPU 41 uses the bus line 41a to control the hard disk I / F 48, the mouse I / F 46, and the keyboard I / F 46.
The F43, the printer I / F 52 and the working memory 49 are controlled.

【0046】マウスI/F46は、マウス45の物理的
相対移動量に応じた信号を検出し、作業メモリ49へ出
力し、作業メモリ49は、前述した移動量を記憶するよ
うになっている。
The mouse I / F 46 detects a signal corresponding to the physical relative movement amount of the mouse 45 and outputs it to the work memory 49. The work memory 49 stores the movement amount described above.

【0047】キーボードI/F43は、キーボード42
から入力された文字情報の信号を作業メモリ49へ出力
し、作業メモリ49は、前述した文字情報等を記憶する
ようになっている。
The keyboard I / F 43 includes a keyboard 42
Is output to the working memory 49, and the working memory 49 stores the above-described character information and the like.

【0048】ハードディスクI/F48は、ハードディ
スク47からCPU41が実行するプログラム及びメニ
ュー画面等の検索モニタ44用の画像データを読み出
し、作業メモリ49へ出力し、作業メモリ49は前述し
たプログラム及び検索モニタ44用の画像データ等を記
憶するようになっている。
The hard disk I / F 48 reads a program executed by the CPU 41 and image data for the search monitor 44 such as a menu screen from the hard disk 47 and outputs the read data to the work memory 49. Image data and the like are stored.

【0049】プリンタI/F52は、プリンタ51に対
してCPU41から送信される情報を伝送し印刷を行
う。
The printer I / F 52 transmits information transmitted from the CPU 41 to the printer 51 and performs printing.

【0050】CPU41は、前述したように、ハードディ
スク47に記憶されたプログラムを電源投入時に、作業
メモリ44にロードし該プログラムによって動作する。
As described above, the CPU 41 loads the program stored in the hard disk 47 into the working memory 44 when the power is turned on, and operates according to the program.

【0051】前述したようにサーバユニット5のハード
ディスク23に記憶された画像ファイルは、コントロー
ラ26の制御により、ハードディスクドライバ14に出
力されメモリ22に一旦記憶されるかあるいは直接LA
Nコントローラ21へ出力される。LANコントローラ
21からLANケーブル5aを介し,カンファレンスユ
ニット6のLANコントローラ31へ画像ファイルが入
力される。
As described above, the image file stored in the hard disk 23 of the server unit 5 is output to the hard disk driver 14 and temporarily stored in the memory 22 or directly stored in the LA 22 under the control of the controller 26.
Output to N controller 21. An image file is input from the LAN controller 21 to the LAN controller 31 of the conference unit 6 via the LAN cable 5a.

【0052】そして、カンファレンスユニット6では、
コントローラ36の制御によりLANコントローラ31
は、画像処理部32に画像ファイルを出力する。画像処
理部32に記憶された、サーバーユニット5のハードデ
ィスク23からの画像ファイルは、コントローラ36の
制御によりデジタルの観察画像データと管理情報に分離
され、デジタル観察画像データは画像処理部32に記憶
され、管理情報はバスライン36bによりCPU41に
送られる。
Then, in the conference unit 6,
The LAN controller 31 is controlled by the controller 36.
Outputs an image file to the image processing unit 32. The image file from the hard disk 23 of the server unit 5 stored in the image processing unit 32 is separated into digital observation image data and management information under the control of the controller 36, and the digital observation image data is stored in the image processing unit 32. The management information is sent to the CPU 41 via the bus line 36b.

【0053】画像処理部32は、前述した観察画像デー
タを記憶するようになっている。前述したように画像処
理部32へ記憶されたデジタル信号である観察画像デー
タは、D/Aコンパータ34の逆量子化により、アナロ
グRGBビデオ信号へ変換され、観察モニタ35へ出力
されるようになっている。観察モニタ35は、前述した
ように入力されたアナログRGBビデオ信号を映し出す
ようになっている。尚、観察画像データが圧縮画像デー
タの場合は、伸張装置33で伸張された後にD/Aコンバ
ータ34に出力される。
The image processing section 32 stores the above-mentioned observation image data. As described above, the observation image data, which is a digital signal, stored in the image processing unit 32 is converted into an analog RGB video signal by inverse quantization of the D / A converter 34, and is output to the observation monitor 35. ing. The observation monitor 35 projects the input analog RGB video signal as described above. If the observation image data is compressed image data, it is output to the D / A converter 34 after being expanded by the expansion device 33.

【0054】CPU41は、マウス45によるカーソ
ル、キーボード42による文字情報、ハードディスク4
7からのメニュー画面等の検索モニタ44用の画像デー
タと管理情報を合成あるいは単独で表示するように演算
処理し、画像データとして画像処理部50へ記憶させる
ようになっている。
The CPU 41 includes a cursor by the mouse 45, character information by the keyboard 42, the hard disk 4
The arithmetic processing is performed so that the image data for the search monitor 44 such as a menu screen from 7 and the management information are combined or displayed alone, and stored in the image processing unit 50 as image data.

【0055】ハードディスク23に記録されている画像
ファイルの観察画像データは、例えばカラーである観察
画像を横640ドット,縦480ドットで分割し、この各ドッ
トに対応じてRGB各色信号レベルを、例えば8ビット
となるように量子化した所定のバイト数で構成されるよ
うになっている。
The observation image data of the image file recorded on the hard disk 23 is, for example, a color observation image divided into 640 horizontal dots and 480 vertical dots, and the RGB color signal levels corresponding to these dots are set to, for example, It consists of a predetermined number of bytes quantized to 8 bits.

【0056】以上に説明した構成による内視鏡診断支援
装置を用いた診断支援処理は、ハードディスク47に記
録された診断支援処理実行プログラムを用い、CPU4
1により実行される。また、診断支援処理は検索モニタ
44に表示されるマルチウィンドウ環境上において、キ
ーボード42及びマウス45を用いた入力により操作さ
れる。
The diagnosis support processing using the endoscope diagnosis support apparatus having the above-described configuration uses the diagnosis support processing execution program recorded on the hard disk 47 and executes the CPU 4
1 is executed. The diagnosis support process is operated by input using the keyboard 42 and the mouse 45 in a multi-window environment displayed on the search monitor 44.

【0057】内視鏡診断支援装置においては、患者・検
査及び画像に関してサーバーユニット5から送信される
各種情報と、設定されたROIの位置・形状情報と、付
随する所見情報と、ROIから算出された特徴量の値
と、判別分類処理の適用により得られた判別結果等を保
存するためのデータベースがハードデイスク47に格納
される。このデータベースは診断支援処理実行プログラ
ムによりアクセスされる。
In the endoscope diagnosis support apparatus, various information regarding the patient / examination and the image transmitted from the server unit 5, the set position / shape information of the ROI, the accompanying finding information, and the ROI are calculated from the ROI. The hard disk 47 stores a database for storing the values of the feature amounts and the discrimination results obtained by applying the discrimination and classification processing. This database is accessed by the diagnosis support processing execution program.

【0058】次に、図2を用いて従来の診断支援処理の
概要について説明する。
Next, an outline of the conventional diagnosis support processing will be described with reference to FIG.

【0059】図2に示すように、診断支援処理実行プロ
グラム70は、画像入力・管理ブロック71、データベ
ース管理ブロック72、ROI設定ブロック73、特徴
量算出ブロック74、判別分類ブロック75、レポート
作成ブロック76及び画像処理ブロック77からなって
いる。以下、診断支援処理実行プログラム70を構成す
る各ブロックの概要を説明する。
As shown in FIG. 2, the diagnosis support processing execution program 70 includes an image input / management block 71, a database management block 72, an ROI setting block 73, a feature amount calculation block 74, a discrimination classification block 75, and a report creation block 76. And an image processing block 77. Hereinafter, an outline of each block constituting the diagnosis support processing execution program 70 will be described.

【0060】画像入力・管理ブロック71は、診断:支
援処理において使用する内視鏡画像の入力、管埋及び検
索等を行う。
The image input / management block 71 performs input, management, and search of an endoscope image used in the diagnosis: support processing.

【0061】データベース管理ブロック72は、診断支
援処理において使用する画像、設定されるROI、算出
される特徴量等を記憶及び管理するためのデータベース
を管理する。
The database management block 72 manages a database for storing and managing images used in the diagnosis support processing, ROIs to be set, calculated feature amounts, and the like.

【0062】ROI設定ブロック73は、内視鏡画像上
において、粘膜表面構造に基づく特徴量を算出するため
のROIを設定する。
The ROI setting block 73 sets an ROI for calculating a feature based on the mucosal surface structure on the endoscopic image.

【0063】特徴量算出ブロック74は、特徴量算出手
法を適用することにより判別分類ブロック75における
判別分類処理及びレポート作成ブロック76における統
計処理等に使用するための特徴量を算出する。
The feature value calculating block 74 calculates a feature value to be used for the discriminant classification process in the discriminant classification block 75 and the statistical process in the report creation block 76 by applying the feature value calculating method.

【0064】判別分類ブロック75は、特徴量算出ブロ
ック74において算出された特徴量を用いた判別分類処
理を行う。
The discrimination / classification block 75 performs a discrimination / classification process using the feature amount calculated in the feature amount calculation block 74.

【0065】レポート作成ブロック76は、特徴量算出
ブロック74及び判別分析ブロック75により得られた
各処理結果の一覧表示、特徴量の病変種別ごとの平均値
等の統計処理結果表示及びグラフ上へのプロット等によ
るレポートを作成する。
The report creation block 76 displays a list of processing results obtained by the feature calculation block 74 and the discriminant analysis block 75, displays statistical processing results such as an average value of feature for each lesion type, and displays the results on a graph. Create a report by plotting.

【0066】また、画像処理ブロック77は、診断支援
処理に使用する内視鏡画像に対し、例えばノイズ抑制処
理、逆γ補正処理、構造成分強調処理等の画像処理を適
用する。
The image processing block 77 applies image processing such as noise suppression processing, inverse γ correction processing, and structural component enhancement processing to the endoscope image used for the diagnosis support processing.

【0067】そして、画像処理ブロック77による処理
結果画像は、原画像と同様にサーバユニット5における
ハードディスク23に記録されるとともに、診断支援処
理の対象データとすることができる。
Then, the processing result image by the image processing block 77 is recorded on the hard disk 23 in the server unit 5 like the original image, and can be used as data to be subjected to diagnosis support processing.

【0068】次に、図3ないし図5を用いて、従来の内
視鏡診断支援装置の動作について説明する。
Next, the operation of the conventional endoscope diagnosis support apparatus will be described with reference to FIGS.

【0069】なお、以下の説明においては内視鏡画像を
構成するR,G及びB画像データの内、粘膜表面構造を
よく反映しているG画像データに対し一連の処理を適用
するものとする。
In the following description, it is assumed that a series of processing is applied to the G image data which well reflects the mucosal surface structure among the R, G and B image data constituting the endoscope image. .

【0070】まず始めに、図3に示すように、ステップ
S1において、処理対象とする内視鏡画像を入力する。
内視鏡画像はサーバユニット5よりLANケーブル5a
を経由してカンフアレンスユニット6に入力されるか、
ハードディスク47におけるデータベースに蓄積された
ものがデータベース管理ブロック72により読み出され
ることにより得ることができる。
First, as shown in FIG. 3, in step S1, an endoscope image to be processed is input.
The endoscope image is sent from the server unit 5 to the LAN cable 5a.
Is input to the conference unit 6 via
The data stored in the database on the hard disk 47 can be obtained by being read by the database management block 72.

【0071】次に、ステップS2においてG画像を得
る。続いて、ステップS3において画像上のランダムノ
イズを低減するためのノイズ抑制処理を適用する。
Next, a G image is obtained in step S2. Subsequently, in step S3, a noise suppression process for reducing random noise on the image is applied.

【0072】ノイズ抑制処理としては一般的な平均化フ
ィルタ、ガウシアンフィルタもしくはメディアンフイル
タを用いたフィルタリングを各画素ごとに適用する。そ
の際、フィルタの大きさ(マスクサイズ)は画像上のノイ
ズの程度により定められ、ノイズが少ない場合は例えば
3×3程度とし,多い場合はより大きなフィルタを用い
るようにする。
As noise suppression processing, filtering using a general averaging filter, Gaussian filter or median filter is applied to each pixel. At this time, the size of the filter (mask size) is determined by the degree of noise on the image. When the noise is small, the filter is set to, for example, about 3 × 3, and when the noise is large, a larger filter is used.

【0073】次いで、ステップS4において逆γ補正を
適用し、モニタ表示のための非線型変換を除去する。
Next, in step S4, inverse gamma correction is applied to eliminate non-linear conversion for monitor display.

【0074】ステップS3及びS4における各処理は、
図2における画像処理ブロック77において実行する。
The processes in steps S3 and S4 are as follows:
This is executed in the image processing block 77 in FIG.

【0075】続いて,ROI設定ブロック73におい
て、ステップS5ないしS9に示す一連の処理を適用す
る。始めに、ステップS5において設定するROIの個
数をカウントするためのカウンタiを1とする。
Subsequently, in the ROI setting block 73, a series of processes shown in steps S5 to S9 are applied. First, the counter i for counting the number of ROIs set in step S5 is set to 1.

【0076】次に、ステップS6において処理対象とす
るG画像データ上にi番目のROI(i)を設定する。
ROIの設定については,例えば図4に示すROI設定
ウィンドウ100上においてマウス45及びキーボード
42を操作することにより行う。
Next, in step S6, the i-th ROI (i) is set on the G image data to be processed.
The setting of the ROI is performed, for example, by operating the mouse 45 and the keyboard 42 on the ROI setting window 100 shown in FIG.

【0077】図4において、内視鏡画像表示領域101
に表示されたG画像データ上でマウスカーソル102を
用いてROIを設定する。このとき,ROIの種別を任
意の描画形状にするか、または矩形等の固定形状とする
かがROI種別選択ボタン103a及び103bを用い
て選択されている。続いてROI情報入力・表示領域1
04において病変の肉眼形態、所見、医師による診断
名、コメント等ROIに付随する情報を入力もしくは選
択の上、ROI設定ボタン105によりROI設定を完
了する。また、ROI設定ウィンドウ100には設定済
みのROIを削除するためのROI削除ボタン106、
ROI設定を終了し、ROI設定ウィンドウ100を閉
じるための終了ボタン107を備えている。
In FIG. 4, an endoscope image display area 101 is shown.
The ROI is set using the mouse cursor 102 on the G image data displayed in (1). At this time, whether the ROI type is an arbitrary drawing shape or a fixed shape such as a rectangle is selected using the ROI type selection buttons 103a and 103b. Next, ROI information input / display area 1
At 04, information related to the ROI, such as the visual form of the lesion, the findings, the name of a diagnosis by a doctor, and a comment is input or selected, and the ROI setting button 105 completes the ROI setting. An ROI deletion button 106 for deleting a set ROI is displayed in the ROI setting window 100.
An end button 107 for ending the ROI setting and closing the ROI setting window 100 is provided.

【0078】続いて、ステップS7においてROI設定
の終了を判定する。終了せず次のROIを設定する場合
には、ステップS8に進む。図4を用いた例では内視鏡
画像表示領域101上に新たなROIが設定された場合
に相当する。また、終了であれば、ステップS9に進
む。図4を用いた例では終了ボタン107が押された場
合に相当し、ROI設定ウィンドウ100を閉じる。そ
の際、データベース管理ブロック72により、設定した
ROIに関する位置・形状及び付与された情報をハード
ディスク47におけるデータベースに保存する。
Subsequently, the end of the ROI setting is determined in step S7. If the next ROI is to be set without terminating, the process proceeds to step S8. 4 corresponds to the case where a new ROI is set on the endoscope image display area 101. If it is finished, the process proceeds to step S9. In the example using FIG. 4, this corresponds to the case where the end button 107 is pressed, and the ROI setting window 100 is closed. At this time, the database management block 72 saves the position and shape of the set ROI and the assigned information in a database on the hard disk 47.

【0079】ステップS8においてはカウンタiの値を
1増加させ、ステップS6に戻る。
In step S8, the value of the counter i is increased by 1, and the process returns to step S6.

【0080】ステップS9においては設定されたROI
の総数をNとし、ステップS10に進む。
In step S9, the set ROI
, The process proceeds to step S10.

【0081】ステップS10においては、特徴量算出ブ
ロック74における特徴量算出手法の適用により、設定
されたROI(1)ないしROI(N)からの特徴量算
出を行う。特徴量としては、例えば特開平10−148
64号公報に示されたGaborフィルタを用いた特徴
量の平均値等の統計量を算出する。算出した特徴量につ
いては、データベース管理ブロック72により、ROI
(1)ないしROI(N)の各々に関連付けた上でハー
ドディスク47におけるデータベースに保存する。
In step S10, the feature amount is calculated from the set ROI (1) to ROI (N) by applying the feature amount calculation method in the feature amount calculation block 74. As the feature amount, for example, JP-A-10-148
A statistic such as an average value of a feature using a Gabor filter disclosed in Japanese Patent No. 64 is calculated. Regarding the calculated feature amount, the database management block 72 uses the ROI
(1) The data is stored in a database on the hard disk 47 after being associated with each of the ROIs (N).

【0082】ステップS11においては、設定されたR
OI(1)ないしROI(N)に対する判別分類を適用
する。具体的にはすでにROI設定及び特徴量算出がな
されている、例えば正常部、癌、腺腫等の病変群(これ
らは多変量解析分野におけるクラスに相当する)から得
られた特徴量を特徴ベクトル(これらは教師データと呼
ばれる)とし、統計的もしくは非統計的識別器を用いた
分類を判別分類ブロック75において適用する。識別器
は、その属する群(クラス)が既知のデータから得られ
た特徴量による特徴ベクトルを教師データとして用いて
算出され、クラスが未知であるデータに適用することに
より該データをいずれかのクラスに分類するものであ
る。また、該データが各クラスに対してどの程度類似し
たものであるかを示す指標(クラスからの距離と呼ばれ
る)を算出することも可能である。クラスは何らかの属
性(本実施の形態における内視鏡診断支援装置では所見
がこれに該当する)が類似したデータの集合であれば自
由に定義することができ、前述した病変の種別、すなわ
ち診断名以外にも例えば大腸粘膜におけるpit pattern
の分類(I型,II型,...)としたり、「整群と不整
群」としたりすることが可能である。
In step S11, the set R
The discriminant classification for OI (1) to ROI (N) is applied. More specifically, a feature vector obtained from a lesion group, such as a normal part, a cancer, an adenoma, or the like (these correspond to a class in the field of multivariate analysis), for which ROI setting and feature value calculation have already been performed, is represented by a feature vector ( These are called teacher data), and classification using a statistical or non-statistical classifier is applied in the discrimination classification block 75. The discriminator calculates a feature vector based on a feature amount obtained from data whose group (class) to which the classifier belongs to as teacher data, and applies the data to the data whose class is unknown to classify the data into one of the classes. It is classified into. It is also possible to calculate an index (called a distance from the class) indicating how similar the data is to each class. A class can be freely defined as long as it is a set of data having similar attributes (the findings correspond to this in the endoscope diagnosis support apparatus of the present embodiment). Pit pattern in colonic mucosa
(Types I, II, ...) and "regular and irregular groups".

【0083】統計的識別器としてはFisherの判別関数、
非統計的識別器としてはニューラルネツトワークが代表
的なものとして広く用いられており、分類対象となる病
変からの特徴量の分布の型(例えば多変量正規分布であ
るか、その他の分布であるか)や、識別器自体の性能等
に応じて適宜選択して使用する。ここではFisherの判別
関数を用いることとする。
As a statistical classifier, Fisher's discriminant function,
As a non-statistical classifier, a neural network is widely used as a representative one, and a type of distribution of a feature from a lesion to be classified (for example, a multivariate normal distribution or other distributions). ) And the performance of the discriminator itself and the like. Here, Fisher's discriminant function is used.

【0084】最後にステップS12において、レポート
作成ブロック76により判別分類結果を含めた診断支援
情報を表示する。
Finally, in step S12, the report creation block 76 displays diagnosis support information including the results of the discrimination and classification.

【0085】診断支援情報の表示例を図5に示す。レポ
ート表示ウィンドウ110を開き、診断支援情報を表示
する対象となる内視鏡画像のROIの番号、識別器によ
る判別分類結果及び判別分類結果から想定される診断名
を、診断支援情報表示領域111に表示する。なお、本
実施の形態においては識別器の出力する分類結果(クラ
スと呼ばれる)を粘膜表面における腺口(pit)とし、
その型(pit pattern)から診断される診断名をあわせ
て表示している。識別器の算出においては診断名自体を
クラスとすることも可能である。
FIG. 5 shows a display example of the diagnosis support information. The report display window 110 is opened, and the ROI number of the endoscopic image for which the diagnosis support information is to be displayed, the classification result by the discriminator, and the diagnosis assumed from the classification result are displayed in the diagnosis support information display area 111. indicate. In this embodiment, the classification result (called a class) output from the discriminator is defined as a pit (pit) on the mucosal surface,
Diagnosis names diagnosed from the type (pit pattern) are also displayed. In the calculation of the classifier, the diagnosis name itself can be used as a class.

【0086】また、レポート表示ウィンドウ110にお
いては特徴量値表示ボタン112、グラフ表示ボタン1
13,印刷ボタン11 4, 画像/ROI表示ボタン1
15及び終了ボタン116を備えており、マウス45の
操作によりそれぞれ算出した特徴量の値・平均値の表
示、特徴量のグラフの表示、診断支援情報の印刷、診断
支援情報表示対象の画像とROIの表示及び診断支援情
報表示の終了を行う。
In the report display window 110, a feature value display button 112, a graph display button 1
13, print button 114, image / ROI display button 1
15 and an end button 116. The display of the value / average value of the feature amount calculated by the operation of the mouse 45, the display of the graph of the feature amount, the printing of the diagnosis support information, the image for the diagnosis support information display target and the ROI are provided. And the display of the diagnosis support information are ended.

【0087】次に、図6を用いて本実施の形態における
内視鏡診断支援装置の概要について説明する。
Next, an outline of the endoscope diagnosis support apparatus according to the present embodiment will be described with reference to FIG.

【0088】図6に示すように、本実施の形態における
診断支援処理実行プログラム80は、画像入力・管理ブ
ロック81、 データベース管理ブロック82、仮RO
I設定ブロック83,特徴量算出ブロック84、ROI
設定ブロック8 5、 判別分類ブロック86、レポート
作成ブロック87及び画像処理ブロック88からなって
いる。以下、診断支援処理実行プログラム80を構成す
る各ブロックの概要を説明する。
As shown in FIG. 6, the diagnosis support processing execution program 80 in the present embodiment includes an image input / management block 81, a database management block 82, a temporary RO
I setting block 83, feature amount calculation block 84, ROI
It consists of a setting block 85, a discrimination and classification block 86, a report creation block 87, and an image processing block 88. Hereinafter, an outline of each block constituting the diagnosis support processing execution program 80 will be described.

【0089】画像入力・管理ブロック81は、診断支援
処理において使用する内視鏡画像の入力、管埋及び検索
等を行う。
The image input / management block 81 performs input, management and search of an endoscope image used in the diagnosis support processing.

【0090】データベース管理ブロック82は、診断支
援処理において使用する画像、設定されるROI、算出
される特徴量等を記憶及び管理するためのデータベース
を管理する。
The database management block 82 manages a database for storing and managing images used in the diagnosis support processing, ROIs to be set, calculated feature amounts, and the like.

【0091】仮ROI設定ブロック83は、内視鏡画像
上において、詳細な診断支援情報を得る対象とするRO
Iの設定に先立ち、大まかな処理対象とする領域(以
下,仮ROIとする)を設定する。
[0091] The provisional ROI setting block 83 is used to obtain detailed diagnosis support information on the endoscope image.
Prior to the setting of I, an area to be roughly processed (hereinafter referred to as a temporary ROI) is set.

【0092】特徴量算出ブロック84は、設定された仮
ROIに対してROI特徴量算出手法を適用することに
より、ROI設定ブロック85におけるROIの設定及
びROIごとに算出された特徴量を用いた判別分類ブロ
ック86における判別分類処理及びレポート作成ブロッ
ク87における統計処理等に使用するための特徴量を算
出する。
The characteristic amount calculating block 84 applies the ROI characteristic amount calculating method to the set temporary ROI, thereby setting the ROI in the ROI setting block 85 and discriminating using the characteristic amount calculated for each ROI. A feature value to be used for the discriminant classification processing in the classification block 86 and the statistical processing in the report creation block 87 is calculated.

【0093】判別分類ブロック86は、ROI設定ブロ
ック85において設定されたROIに対し,特徴量算出
ブロック84において算出された特徴量を用いた判別分
類処理を行う。
The discrimination / classification block 86 performs a discrimination / classification process on the ROI set in the ROI setting block 85 using the feature calculated in the feature calculation block 84.

【0094】レポート作成ブロック87は、特徴量算出
ブロック84及び判別分析ブロック86により得られた
各処理結果の一覧表示、特徴量の病変種別ごとの平均値
等の統計処理結果表示及びグラフ上へのプロット等によ
るレポートを作成する。
The report creation block 87 displays a list of the processing results obtained by the feature amount calculation block 84 and the discriminant analysis block 86, displays statistical processing results such as the average value of feature amounts for each lesion type, and displays the results on a graph. Create a report by plotting.

【0095】また,画像処理ブロック88は、診断支援
処理に使用する内視鏡画像に対し、例えばノイズ抑制処
理、逆γ補正処理、構造成分強調処理等の画像処理を適
用する。
The image processing block 88 applies, for example, image processing such as noise suppression processing, inverse γ correction processing, and structural component enhancement processing to the endoscope image used for the diagnosis support processing.

【0096】そして、画像処理ブロック88による処理
結果画像は、原画像と同様にサーバユニット5における
ハードディスク23に記録されるとともに、診断支援処
理の対象データとすることができる。
The image processed by the image processing block 88 is recorded on the hard disk 23 in the server unit 5 as well as the original image, and can be used as data for diagnosis support processing.

【0097】次に、図7ないし図12を用いて、本実施
の形態における内視鏡診断支援装置の動作について説明
する。
Next, the operation of the endoscope diagnosis support apparatus according to the present embodiment will be described with reference to FIGS.

【0098】なお,以下の説明においては内視鏡画像を
構成するR、G及びB画像データの内、粘膜表面構造を
よく反映しているG画像データに対し一連の処理を適用
するものとする。
In the following description, it is assumed that a series of processing is applied to the G image data which well reflects the mucosal surface structure among the R, G and B image data constituting the endoscope image. .

【0099】図7に示すように、まず始めにステップS
20において,処理対象とする内視鏡画像を入力する。
内視鏡画像はサーバユニット5よりLANケーブル5a
を経由してカンファレンスユニット6に入力されるか、
ハードディスク47におけるデータベースに蓄積された
ものがデータベース管理ブロック82により読み出され
ることにより得ることができる。
As shown in FIG. 7, first, in step S
At 20, an endoscope image to be processed is input.
The endoscope image is sent from the server unit 5 to the LAN cable 5a.
Is input to the conference unit 6 via
The data stored in the database on the hard disk 47 can be obtained by being read by the database management block 82.

【0100】次に、ステップS21においてG画像を得
る。続いて、ステップS22及びS23において、各々
図3におけるステップS3及びS4に示したノイズ抑制
処理及び逆γ補正処理を適用する。ステップS22及び
S23における各処理の適用は、図6における画像処理
ブロック88において実行する。
Next, in step S21, a G image is obtained. Subsequently, in steps S22 and S23, the noise suppression processing and the inverse γ correction processing shown in steps S3 and S4 in FIG. 3 are applied, respectively. The application of each process in steps S22 and S23 is executed in the image processing block 88 in FIG.

【0101】続くステップS24においては、仮ROI
設定ブロック83により仮ROIの設定をするかどうか
を判定する。仮ROIを設定する場合にはステップS2
5に進み、設定しない場合にはステップS26に進む。
なお、仮ROIは病変部以外の領域に対する処理を省略
するためのものであり、本実施の形態において操作者に
よる設定は必ずしも必要なものではない。仮ROIを設
定しない場合には以後の処理において内視鏡画像全体を
ROI設定対象とする。この場合、以下の説明において
内視鏡画像全体を指して仮ROIと称する。
In the following step S24, the temporary ROI
The setting block 83 determines whether or not to set a temporary ROI. Step S2 when setting a temporary ROI
The process proceeds to step S5, and if not set, to step S26.
The provisional ROI is for omitting the processing for the area other than the lesioned part, and the setting by the operator is not always necessary in the present embodiment. If the provisional ROI is not set, the entire endoscope image is set as the ROI setting target in the subsequent processing. In this case, in the following description, the entire endoscope image is referred to as a temporary ROI.

【0102】ステップS25においては、仮ROIを設
定する。仮ROIはステップS26以降の処理において
計算量を削減するとともに、病変部でない領域に対する
診断支援情報の表示を避けるためのものである。すなわ
ち、設定された仮ROI内に本来の診断支援処理を適用
するためのROIを設定する。
In step S25, a temporary ROI is set. The provisional ROI is for reducing the amount of calculation in the processing after step S26, and for avoiding the display of the diagnosis support information for the area that is not the affected part. That is, an ROI for applying the original diagnosis support processing is set in the set temporary ROI.

【0103】仮ROIの設定については,例えば図8に
示す仮ROI設定ウィンドウ200上においてマウス4
5及びキーボード42を操作することにより行う。
For setting the temporary ROI, for example, in the temporary ROI setting window 200 shown in FIG.
5 and the keyboard 42 are operated.

【0104】図8において、内視鏡画像表示領域201
に表示されたG画像データ上でマウスカーソル202を
用いて仮ROIを設定する。ここでは、内視鏡画像表示
領域201において破線で示す図形を仮ROIとして設
定したものとする。仮ROIの種別を任意の描画形状に
するか、または矩形等の固定形状とするかは仮ROI種
別選択ボタン203a及び203bを用いて選択されて
いる。続いて仮ROI情報入力・表示領域204におい
て病変の肉眼形態、所見、医師による診断名、コメント
等仮ROIに付随する情報を入力もしくは選択の上、仮
ROI設定ボタン205によりROI設定を完了する。
また、仮ROI設定ウィンドウ200には設定済みの仮
ROIを削除するための仮ROI削除ボタン206、仮
ROI設定を終了し、仮ROI設定ウィンドウ200を
閉じるための終了ボタン207を備えている。
In FIG. 8, an endoscope image display area 201
A temporary ROI is set using the mouse cursor 202 on the G image data displayed in (1). Here, it is assumed that a figure shown by a broken line in the endoscope image display area 201 is set as a temporary ROI. Whether the type of the temporary ROI is set to an arbitrary drawing shape or a fixed shape such as a rectangle is selected using the temporary ROI type selection buttons 203a and 203b. Subsequently, in the provisional ROI information input / display area 204, information associated with the provisional ROI such as the visual form of the lesion, findings, a doctor's diagnosis name, and comments is input or selected, and the provisional ROI setting button 205 completes the ROI setting.
Further, the provisional ROI setting window 200 is provided with a provisional ROI deletion button 206 for deleting the provisional ROI, and an end button 207 for ending the provisional ROI setting and closing the provisional ROI setting window 200.

【0105】続くステップS26において、特徴量算出
ブロック84における特徴量算出手法の適用により、設
定された仮ROIにおける各面素に対しての特徴量算出
を行う。本実施の形態においては、特徴量として特開平
10−14864号公報に示されたGaborフィルタ
を用いたGabor特徴量h(X,Y,θk,λm)を使
用する。ここで、X及びYは画像内における画素の座
標、θk及びλmはそれぞれGaborフィルタの方向及
び波長を規定するパラメータである。本実施の形態にお
いては4方向2周波数のGaborフィルタを使用し、
1≦k≦4、1≦m≦2であるものとする。これらのG
aborフィルタの適用により各面素ごとに8個の特徴
量を算出する。これらをi番目の画素についてCi
{h1i,h2i,h3i,...,h8i}とベクトル表記
(特徴ベクトル)する。iは仮ROI内の画素の番号を
示す1以上の整数である.また,h1iないしh8iは画素
iに対して算出された8個のGabor特徴量を示す。
In the following step S 26, the feature amount calculation is performed for each surface element in the set temporary ROI by applying the feature amount calculation method in the feature amount calculation block 84. In the present embodiment, a Gabor feature amount h (X, Y, θ k , λ m ) using a Gabor filter disclosed in Japanese Patent Application Laid-Open No. H10-14864 is used as the feature amount. Here, X and Y are the coordinates of the pixel in the image, and θ k and λ m are parameters that define the direction and wavelength of the Gabor filter, respectively. In this embodiment, a Gabor filter having four directions and two frequencies is used.
It is assumed that 1 ≦ k ≦ 4 and 1 ≦ m ≦ 2. These G
Eight feature values are calculated for each surface element by applying the abor filter. These are calculated for the i-th pixel by Ci =
{H1i, h2i, h3i,. . . , H8i} in vector notation (feature vector). i is an integer of 1 or more indicating the number of a pixel in the temporary ROI. Also, h1i to h8i indicate eight Gabor feature amounts calculated for the pixel i.

【0106】次に、ステップS27において、テップS
26で算出した各面素の特徴量を用いた領域分割処理に
より、仮ROIをN個(Nは1以上の整数)のROIに
分割する。
Next, in step S27, step S
The temporary ROI is divided into N (N is an integer equal to or greater than 1) ROIs by a region dividing process using the feature amount of each surface element calculated in step S26.

【0107】図9を用いてステップS27における領域
分割処理について説明する。領域分割処理は、同じ所見
を示す領域の画素から類似の値が得られることを利用し
て、仮ROI内の画素を統合することにより分割された
ROIを得るものである。特徴量を用いた領域分割処理
は種々の手法が存在するが、本実施の形態においては特
徴量による領域分割(一般的にはクラスタリングと称す
る)の代表的手法であるK平均アルゴリズムを用いるも
のとする。
The area dividing process in step S27 will be described with reference to FIG. The region division processing is to obtain a divided ROI by integrating the pixels in the temporary ROI by utilizing similar values obtained from pixels in the region showing the same finding. There are various methods for region division processing using feature amounts. In the present embodiment, a K-means algorithm, which is a typical method of region division (generally referred to as clustering) using feature amounts, is used. I do.

【0108】本実施の形態においてはステップS26に
おいて算出した各画素の特徴量Ci ={h1i,h2i,h3i,...,h8i} を図9に示すステップS131以後の一連の処理におい
て使用する。
In the present embodiment, the feature value Ci of each pixel calculated in step S26 = {h1i, h2i, h3i,. . . , H8i} are used in a series of processes after step S131 shown in FIG.

【0109】ステップS131においては、仮ROIに
対する初期領域の設定を行う。図10に初期領域の設定
例を示す。ここでは機械的に最大L×Lの大きさの矩形
となるよう設定する。ただし、必ずしも矩形形状である
必要はなく、仮ROI境界部付近は仮ROIの境界線
(図10の実線部)を含めた領域を使用する。Lの値は
処理対象に基づき決定され、例えば大腸pit patternの
観察像であればL=5とする。
In step S131, an initial area is set for the temporary ROI. FIG. 10 shows an example of setting the initial area. Here, it is set so that a rectangle having a maximum size of L × L is mechanically obtained. However, the area need not necessarily be rectangular, and a region including the boundary of the temporary ROI (solid line in FIG. 10) is used near the boundary of the temporary ROI. The value of L is determined based on the processing target. For example, L = 5 for an observation image of a large intestine pit pattern.

【0110】続くステップS132において、各領域ご
との特徴量の平均値Cmeanj={h1meanj , h2meanj
, ・‥,h 8meanj}を算出する。ここで、jは設定さ
れた領域の番号を示す1以上の整数である。
In the following step S132, the average value of the feature amount Cmeanj = {h1meanj, h2meanj for each region
, ・ ‥, h 8meanj}. Here, j is an integer of 1 or more indicating the number of the set area.

【0111】ステップS133においては、各画素のC
iを,各領域のCmeanと以下の式に示す距離によって比
較する。
In step S133, C of each pixel is
i is compared with Cmean of each area by a distance shown in the following equation.

【0112】[0112]

【数1】 ここで,α1ないしα8は各特徴量に対する重み付け係数
を示す。ここでは均等にα1=α2=...=α8=1で
あるものとする。各領域ごとに得られたDijに基づき、
最小のDijを与える領域に画業iを統合することで、領
域の再構成を行う。
(Equation 1) Here, α1 to α8 indicate weighting coefficients for each feature amount. Here, α1 = α2 =. . . = Α8 = 1. Based on Dij obtained for each region,
The area is reconstructed by integrating the picture i into the area giving the minimum Dij.

【0113】ステップS134においてはステップS1
32と同様に再構成後の各領域ごとの特徴量の平均値を
算出する。
In step S134, step S1
Similarly to 32, the average value of the feature amount for each region after the reconstruction is calculated.

【0114】ステップS135においては、再構成され
た領域ごとの特徴量の平均値の値の変化により収束を確
認する。変化量がしきい値以上である場合にはステップ
S133に戻り、再度領域の再構成を行う。しきい値未
満であれば領域の再構成が収束したものとみなし、ステ
ップS136に進み領域分割処理を完了する。
In step S135, convergence is confirmed by a change in the average value of the feature values for each reconstructed region. If the amount of change is equal to or larger than the threshold, the process returns to step S133, and the region is reconstructed again. If it is less than the threshold value, it is considered that the reconstruction of the area has converged, and the process proceeds to step S136 to complete the area division processing.

【0115】ここで、収束判定を行うしきい値は対象と
なる内視鏡画像と特徴量に基づき実験的に定められる値
であり、例えば再構成前後でのCmeanjの差の絶対値に
対し1 0. 0と設定する。
Here, the threshold value for the convergence determination is a value experimentally determined based on the target endoscope image and the characteristic amount. For example, the threshold value of the difference between Cmeanj before and after the reconstruction is 1 0. Set to 0.

【0116】図11に領域分割処理の適用によるROI
設定の例を示す。図11において破線で示す仮ROI2
10は、4個のROIに分割されている。各ROIは、
算出された特徴量においてそれぞれが隣接するROIと
は異なる傾向を示すものと判定された領域となってい
る。設定されたN個(Nは1以上の整数)のROI
(1)ないしROI(N)に対しては、特徴量算出ブロ
ック84により図7のステップS28において各ROI
ごとの特徴量を算出する。
FIG. 11 shows an ROI obtained by applying the area dividing process.
Here is an example of the settings. Temporary ROI2 shown by a broken line in FIG.
10 is divided into four ROIs. Each ROI is
Each of the calculated feature amounts is an area determined to have a different tendency from the adjacent ROI. Set N ROIs (N is an integer of 1 or more)
For each of the ROIs (1) to ROI (N), the ROI is calculated by the feature amount calculation block 84 in step S28 in FIG.
The feature amount of each is calculated.

【0117】ステップS26及びS28において算出す
る特徴量の違いについて説明する。ステップS26にお
ける特徴量は各面素に対して算出され、同じ所見を示す
領域の画素から類似の値が得られることを利用して仮R
OI内の画素を統合し、ROI(i)(1≦i≦N)を
得るために用いられるものである。一方、ステップS2
8における特徴量は得られたROI(i)ごとに算出さ
れ、例えば各ROI内の各面素の特徴量の平均値や分散
等であり、以後の判別分類処理において使用されるもの
である。各ステップにおいて適用する特徴量算出手法は
同じでも異なるものでもよく、診断支援対象となる病変
の種別に応じて選択される。
The difference between the feature amounts calculated in steps S26 and S28 will be described. The feature amount in step S26 is calculated for each surface element, and a similar value is obtained by using similar values obtained from pixels in the region showing the same finding.
It is used to integrate the pixels in the OI to obtain ROI (i) (1 ≦ i ≦ N). On the other hand, step S2
The feature amount in 8 is calculated for each obtained ROI (i), and is, for example, the average value or variance of the feature amount of each surface element in each ROI, and is used in the subsequent discrimination and classification processing. The feature amount calculation method applied in each step may be the same or different, and is selected according to the type of the lesion to be diagnosed.

【0118】本実施の形態においては、ステップS26
において算出した各ROIに含まれる画素のGabor
フィルタを用いた特徴量の平均値μ(1)ないしμ
(N),標準偏差σ(1)ないしσ(N)をROI(1)
ないしROI(N)の各特徴量として算出する。
In the present embodiment, step S26
Gabor of pixel included in each ROI calculated in
Average value μ (1) to μ of feature value using filter
(N) and standard deviations σ (1) to σ (N) are defined as ROI (1).
Or ROI (N).

【0119】続いて各ROIごとに算出した特徴量を用
い、判別分類ブロック86においてステップS29ない
しS32に示す一連の処理を適用する。まずステップS
29においてカウンタiの値を1とする。
Subsequently, a series of processes shown in steps S29 to S32 are applied in the discrimination / classification block 86 using the feature amount calculated for each ROI. First, step S
At 29, the value of the counter i is set to 1.

【0120】ステップS30においては、ROI(i)
に対し図3におけるステップS11に示したものと同様
に識別器を適用することにより判別分類結果を得る。
In step S30, ROI (i)
On the other hand, a discriminant classification result is obtained by applying the discriminator in the same manner as shown in step S11 in FIG.

【0121】ステップS31においてはN個のROIす
べてに対する処理が完了したかどうかを判定し、完了し
ていなければステップS32においてiの値を1増加さ
せてステップS30に戻る。完了していればステップS
33に進む。
In step S31, it is determined whether or not processing has been completed for all N ROIs. If not, the value of i is increased by 1 in step S32, and the flow returns to step S30. Step S if completed
Go to 33.

【0122】ステップS33においては、レポート作成
ブロック87により判別分類結果を含めた診断支援情報
を表示する。
In step S33, the report creation block 87 displays the diagnosis support information including the result of the classification.

【0123】診断支援情報の表示例を、図12に示す。
レポート表示ウィンドウ220を開き、診断支援情報を
表示する対象となる内視鏡画像のROIの番号、識別器
による判別分類結果、判別分類結果から想定される診断
名及び仮ROIに占める各ROIの面積比を、診断支援
情報表示領域221に表示する。
FIG. 12 shows a display example of the diagnosis support information.
The report display window 220 is opened, the ROI number of the endoscopic image for which the diagnosis support information is displayed, the classification result by the classifier, the diagnosis name assumed from the classification result, and the area of each ROI in the temporary ROI. The ratio is displayed in the diagnosis support information display area 221.

【0124】また、レポート表示ウィンドウ220にお
いては、特徴量値表示ボタン222、グラフ表示ボタン
223、印刷ボタン224、画像/ROI表示ボタン2
25及び終了ボタン226を備えており、マウス45の
操作によりそれぞれ算出した特徴量の値・平均値の表
示、特徴量のグラフの表示、診断支援情報の印刷、診断
支援情報表示対象の画像とROIの表示及び診断支援情
報表示の終了を行う。
In the report display window 220, a feature value display button 222, a graph display button 223, a print button 224, an image / ROI display button 2
25 and an end button 226. The display of the value / average value of the feature amount calculated by the operation of the mouse 45, the display of the graph of the feature amount, the printing of the diagnosis support information, the image to be displayed and the ROI of the diagnosis support information are provided. And the display of the diagnosis support information are ended.

【0125】以上に説明したように、本実施の形態にお
ける内視鏡診断支援装置によれば、診断支援情報の取得
を所望する病変部に対して、もれなくROIを設定する
ことが可能となるとともに、各ROIごとにどのような
所見や疾患がどのような割合で存在しているのかを提示
することができる。
As described above, according to the endoscopic diagnosis support apparatus of the present embodiment, it is possible to set the ROI without fail for a lesion for which diagnosis support information is desired to be obtained. In addition, it is possible to present what findings and diseases are present at what ratios for each ROI.

【0126】なお,本実施の形態においてはG画像から
の特徴量の算出について説明したが、RまたはB画像を
用いることも可能である。また、各色信号を用いた変換
により得られる輝度画像を用いることも可能である。さ
らに、R/(R+G+B)あるいはR/Gのように複数
の画像を組み合わせて特徴量を算出することも可能であ
る。
In the present embodiment, the calculation of the characteristic amount from the G image has been described. However, an R or B image can be used. It is also possible to use a luminance image obtained by conversion using each color signal. Further, it is also possible to calculate a feature amount by combining a plurality of images such as R / (R + G + B) or R / G.

【0127】また,仮ROIに対するROI設定のため
の領域分割処理に使用する特徴量算出手法と、設定後の
ROIに対する識別分類に用いる特徴量算出手法を異な
るものとしてもよい。その場合は、例えば領域分割処理
にR/(R+G+B)を用い、識別分類処理にGabo
rフィルタに基づく特徴量を使用する。
Further, the feature amount calculating method used for the area division processing for setting the ROI for the temporary ROI may be different from the feature amount calculating method used for the identification and classification for the set ROI. In that case, for example, R / (R + G + B) is used for the area division processing, and Gabo is used for the identification and classification processing.
A feature based on an r filter is used.

【0128】また、診断支援情報として特徴量の仮RO
I全体の平均値、標準偏差及び識別分類結果等の情報を
表示してもよい。
Further, the provisional RO of the characteristic amount is used as the diagnosis support information.
Information such as the average value, the standard deviation, and the classification result of the whole I may be displayed.

【0129】第2の実施の形態:本発明の第2の実施の
形態は、診断支援情報の取得を所望する病変部に対して
もれなくROIを設定し、各ROIごとにどのような所
見や疾患がどのような割合で存在しているのかを提示す
ることができるとともに、各ROIに対する診断支援情
報に基づき病変に対してより総合的な診断支援情報を提
示することができる内視鏡診断支援装置に関するもので
ある。
Second Embodiment: In a second embodiment of the present invention, ROIs are set for all lesions for which diagnosis support information is desired to be obtained, and what findings and diseases are determined for each ROI. Endoscopic diagnosis support apparatus that can present the ratio of the presence of the target, and can present more comprehensive diagnosis support information for the lesion based on the diagnosis support information for each ROI. It is about.

【0130】本実施の形態における内視鏡診断支援装置
の構成及び診断支援処理実行プログラムの構成ブロック
については第1の実施の形態において説明した内視鏡診
断支援装置に同じである。したがって、以下異なる点に
ついて説明する。
The configuration of the endoscope diagnosis support apparatus according to the present embodiment and the configuration blocks of the diagnosis support processing execution program are the same as those of the endoscope diagnosis support apparatus described in the first embodiment. Therefore, different points will be described below.

【0131】図13ないし図16は本発明の第2の実施
の形態に係わり、図13は本実施の形態における診断支
援処理実行プログラムの構成を説明するためのブロック
図、図14は診断支援実行プログラムの動作を説明する
ためのフローチャート、図15は診断支援情報の導出を
説明するためのフローチャート、図16は本実施の形態
の内視鏡診断支援装置における診断支援情報の表示を説
明するためのレポート表示ウィンドウ説明図である。
FIGS. 13 to 16 relate to the second embodiment of the present invention. FIG. 13 is a block diagram for explaining the configuration of a diagnosis support processing execution program according to this embodiment. 15 is a flowchart for explaining the operation of the program, FIG. 15 is a flowchart for explaining the derivation of the diagnosis support information, and FIG. 16 is a diagram for explaining the display of the diagnosis support information in the endoscope diagnosis support device of the present embodiment. It is a report display window explanatory view.

【0132】図13に示すように、診断支援処理実行プ
ログラム230は、画像入力・管理ブロック2 31、
データベース管理ブロック232、仮ROI設定ブロッ
ク233、特徴量算出ブロック234、ROI設定ブロ
ック235、判別分類ブロック236、総合診断ブロッ
ク237、レポート作成ブロック238及び画像処理ブ
ロック239からなっている。これらの中で、総合診断
ブロック237及びレポート作成ブロック238以外の
ブロックについては、それぞれ第1の実施の形態におい
て説明した診断支援処理実行プログラム80における各
ブロックと同様の処理を行う。
As shown in FIG. 13, the diagnostic support processing execution program 230 includes an image input / management block 231,
It comprises a database management block 232, a provisional ROI setting block 233, a feature amount calculation block 234, an ROI setting block 235, a discrimination and classification block 236, a comprehensive diagnosis block 237, a report creation block 238, and an image processing block 239. Among them, the blocks other than the comprehensive diagnosis block 237 and the report creation block 238 perform the same processing as each block in the diagnosis support processing execution program 80 described in the first embodiment.

【0133】総合診断ブロック237は判別分類ブロッ
ク236により得られた各ROIの判別分類結果に基づ
き、仮ROIを設定した病変部全体に対する総合的な診
断支援情報を取得するものである。
The comprehensive diagnosis block 237 is for obtaining comprehensive diagnosis support information for the entire lesioned part in which the temporary ROI has been set, based on the results of the determination and classification of each ROI obtained by the determination and classification block 236.

【0134】また,本実施の形態におけるレポート作成
ブロック238は、第1の実施の形態において示した診
断支援情報の表示に加え、総合診断ブロック237によ
り得られた総合的な診断支援情報を表示する。
The report creation block 238 in this embodiment displays the comprehensive diagnosis support information obtained by the comprehensive diagnosis block 237 in addition to the display of the diagnosis support information shown in the first embodiment. .

【0135】次に,図14を用いて本実施の形態におけ
る内視鏡診断支援装置の動作について説明する。本実施
の形態においては、第1の実施の形態において図7を用
いて説明した動作のステップS20ないしS32につい
ては同じである。
Next, the operation of the endoscope diagnosis support apparatus according to the present embodiment will be described with reference to FIG. In the present embodiment, steps S20 to S32 of the operation described with reference to FIG. 7 in the first embodiment are the same.

【0136】ステップS31においてすべてのROIに
対する判別分類処理の適用後、ステップS41における
総合診断情報の取得に進む。ここで、総合診断情報は以
下のようにして得る仮ROI全体に対する診断支援情報
である。
After the discrimination / classification processing is applied to all ROIs in step S31, the process proceeds to the acquisition of comprehensive diagnostic information in step S41. Here, the comprehensive diagnostic information is diagnostic support information for the entire temporary ROI obtained as follows.

【0137】例えば大腸pit patternの形態に基づく診
断においては、どのような型のpitがどのような割合で
存在しているかが重要な診断の指標となる。このことか
ら、各ROIから得られた判別分類情報に基づき図15
に示すような判定を行う。
For example, in the diagnosis based on the morphology of the large intestine pit pattern, what type of pits are present and at what ratio is an important diagnostic index. Based on the discrimination classification information obtained from each ROI, FIG.
The following judgment is made.

【0138】図15において、ステップS51より各pi
t patternが存在しているか、その割合はどの程度かを
悪性度の高い疾患より順に判定する。なお、図15にお
いて確率として示されている数値は、判定される疾患が
判別分類結果に対してどの程度の頻度で出現するかを示
す数値である。例えば,ステップS51,S52及びS
53を経た場合は「V型pit patternが、20%以上の割
合で存在する病変が粘膜下に浸潤した早期癌である確率
は60%以上」であることを示すものである。
In FIG. 15, each pi is obtained from step S51.
Whether or not the t pattern exists and its ratio is determined in order from the disease with the highest malignancy. Note that the numerical value shown as the probability in FIG. 15 is a numerical value indicating how often the disease to be determined appears in the classification result. For example, steps S51, S52 and S
The case of passing through 53 indicates that "the probability that a lesion in which a V-type pit pattern is present at a rate of 20% or more is early cancer invading under the mucosa is 60% or more".

【0139】図14のステップS42においてはレポー
ト作成ブロック87により、総合診断情報を含む診断支
援情報を表示する。診断支援情報の表示例を図16に示
す。レポート表示ウィンドウ240において、第1の実
施の形態において図12を用いて説明した各項目に加
え、総合診断情報表示領域241に総合診断情報を表示
する。
In step S42 of FIG. 14, the report creation block 87 displays diagnosis support information including comprehensive diagnosis information. FIG. 16 shows a display example of the diagnosis support information. In the report display window 240, comprehensive diagnostic information is displayed in the comprehensive diagnostic information display area 241 in addition to the items described with reference to FIG. 12 in the first embodiment.

【0140】以上説明したように、本実施の形態におけ
る内視鏡診断支援装置によれば、診断支援情報の取得を
所望する病変部に対してもれなくROIを設定し、各R
OIごとにどのような所見や疾患がどのような割合で存
在しているのかを提示することができるとともに、各R
OIに対する診断支援情報に基づき病変に対してより総
合的な診断支援情報を提示することが可能となる。
As described above, according to the endoscope diagnosis support apparatus of the present embodiment, the ROI is set for all the lesions for which the diagnosis support information is desired to be obtained, and each RI is set.
It is possible to present what findings and diseases exist in each OI and at what proportion,
It is possible to present more comprehensive diagnosis support information for a lesion based on the diagnosis support information for OI.

【0141】第3の実施の形態:本発明の第3の実施の
形態は、第2の実施の形態として示した内視鏡診断支援
装置の他の形態であり、診断支援情報の取得を所望する
病変部に対してもれなくROIを設定し、各ROIごと
にどのような所見や疾患がどのような割合で存在してい
るのかを提示することができるとともに、各ROIに対
する診断支援情報に基づき病変に対してより総合的な診
断支援情報を提示することができる内視鏡診断支援装置
に関するものである。
Third Embodiment: A third embodiment of the present invention is another form of the endoscope diagnosis support apparatus shown as the second embodiment, and it is desired to obtain diagnosis support information. ROIs can be set for all affected lesions, and what findings and proportions of diseases are present for each ROI can be presented, and lesions can be presented based on diagnosis support information for each ROI. The present invention relates to an endoscope diagnosis support device capable of presenting more comprehensive diagnosis support information to a patient.

【0142】本実施の形態における内視鏡診断支援装置
の構成及び診断支援処理実行プログラムの構成ブロック
については第2の実施の形態において説明した内視鏡診
断支援装置に同じである。したがって、以下異なる点に
ついて説明する。
The configuration of the endoscope diagnosis support apparatus and the configuration block of the diagnosis support processing execution program according to the present embodiment are the same as those of the endoscope diagnosis support apparatus described in the second embodiment. Therefore, different points will be described below.

【0143】図17は本発明の第3の実施の形態に係る
内視鏡診断支援装置における診断支援情報の表示を説明
するためのレポート表示ウィンドウ説明図である。
FIG. 17 is an explanatory view of a report display window for explaining display of diagnosis support information in the endoscope diagnosis support apparatus according to the third embodiment of the present invention.

【0144】第2の実施の形態においては図15に例示
した判定基準を参照することにより、病変部全体の総合
診断情報を得たが、本実施の形態においては図14のス
テップS41において以下の処理を行うことにより総合
診断情報を取得する。
In the second embodiment, the comprehensive diagnostic information of the entire lesion is obtained by referring to the judgment criterion illustrated in FIG. 15, but in the present embodiment, the following diagnostics are performed in step S41 of FIG. By performing the processing, comprehensive diagnostic information is obtained.

【0145】図7におけるステップS20ないしS31
に示した一連の処理により、N個のROI各々に対する
判別分類結果と仮ROIにおいて占める面積比が算出さ
れる。本実施の形態においては、得られた判別分類結果
に対する該面積比を特徴量として再度判別分類処理を適
用する。例えば、大腸pit patternの分類においてI型,
II型,IIIs型,IIIL型,IV型,Va型,VN型の7種を想定
した場合、各pit pattern の面積比の値により7次元の
特徴ベクトルを構成することができる。各pitpattern
の占める面積比がそれぞれ0.2,0.0,0.3,0.1,0.0,
0.2,0.2であるものとすれば,特徴ベクトル ={0.2,0.0,0.3,0.1,0.0,0.2,0.2} となる。したがって、あらかじめ癌,腺種等の疾患の診
断名をクラスとし、病変部に占める各pit pattern の面
積比を特徴ベクトルとした教師データを用いて作成した
識別器に適用することで、その病変がいずれの疾患に分
類されるものであるかを示すことが可能となる。
Steps S20 to S31 in FIG.
By the series of processing shown in (1), the discrimination classification result for each of the N ROIs and the area ratio occupied in the temporary ROI are calculated. In the present embodiment, the discrimination / classification processing is applied again using the area ratio of the obtained discrimination / classification result as a feature amount. For example, type I,
When seven types of type II, IIIs, IIIL, IV, Va, and VN are assumed, a seven-dimensional feature vector can be formed by the value of the area ratio of each pit pattern. Each pitpattern
Are 0.2, 0.0, 0.3, 0.1, 0.0,
Assuming that 0.2 and 0.2, the feature vector X is X = {0.2, 0.0, 0.3, 0.1, 0.0, 0.2, 0.2}. Therefore, by applying to the classifier the diagnosis name of a disease such as cancer or gland type in advance and applying it to the classifier created using the teacher data with the area ratio of each pit pattern in the lesion as a feature vector, the lesion can be identified. It is possible to indicate which of the diseases is classified.

【0146】以上説明したように、本実施の形態におけ
る内視鏡診断支援装置によれば、診断支援情報の取得を
所望する病変部に対してもれなくROIを設定し、各R
OIごとにどのような所見や疾患がどのような割合で存
在しているのかを提示することができるとともに、各R
OIに対する診断支援情報に基づき病変に対してより総
合的な診断支援情報を提示することが可能となる。
As described above, according to the endoscope diagnosis support apparatus of the present embodiment, the ROI is set for all the lesions for which the diagnosis support information is desired to be obtained, and each RI is set.
It is possible to present what findings and diseases exist in each OI and at what proportion,
It is possible to present more comprehensive diagnosis support information for a lesion based on the diagnosis support information for OI.

【0147】第4の実施の形態:本発明の第4の実施の
形態は,第1,第2及び第3の実施の形態として示した
内視鏡診断支援装置に対し、診断支援情報の表示におい
て診断に重要でない情報の表示をしないことにより重要
な情報のみを提示することができる内視鏡診断支援装置
に関するものである。
Fourth Embodiment: In a fourth embodiment of the present invention, display of diagnosis support information is performed on the endoscope diagnosis support apparatus shown as the first, second, and third embodiments. The present invention relates to an endoscope diagnosis support apparatus capable of presenting only important information by not displaying information that is not important for diagnosis.

【0148】本実施の形態における内視鏡診断支援装置
の構成及び診断支援処理実行プログラムの構成ブロック
については第2の実施の形態において説明した内視鏡診
断支援装置に同じである。したがって、以下異なる点に
ついて説明する。
The configuration of the endoscope diagnosis support apparatus according to the present embodiment and the configuration blocks of the diagnosis support processing execution program are the same as those of the endoscope diagnosis support apparatus described in the second embodiment. Therefore, different points will be described below.

【0149】例えば大腸pit pattern の形態に基づく診
断においては、I型pit pattern は正常粘膜の所見であ
り他のpit patternと比して重要な情報でない場合があ
る。そこで,図14に示したステップS42における診
断支援情報の表示において、図17に示すように判別分
類処理結果がI型pit patternと判定されたROIに対す
る診断支援情報の表示を省略する。
For example, in a diagnosis based on the morphology of the large intestine pit pattern, the type I pit pattern is a finding of a normal mucosa and may not be important information as compared with other pit patterns. Therefore, in the display of the diagnosis support information in step S42 shown in FIG. 14, the display of the diagnosis support information for the ROI whose discrimination / classification processing result is determined to be the I-type pit pattern as shown in FIG. 17 is omitted.

【0150】このとき、ハードデイスク47に記憶した
データベースもしくは専用の設定ファイルに情報表示を
省略する判別分類結果を登録しておき、レポート作成ブ
ロック238によるレポート作成時に参照する。
At this time, the discrimination classification result for omitting the information display is registered in the database stored in the hard disk 47 or a dedicated setting file, and is referred to when the report is created by the report creation block 238.

【0151】以上説明したように、本実施の形態におけ
る内視鏡診断支援装置によれば、例えば仮ROIに対し
て非常に多くのROIが設定された場合においても重要
な診断支援情報を選択的に提示することが可能となる。
As described above, according to the endoscope diagnosis support apparatus of the present embodiment, important diagnosis support information can be selectively selected even when an extremely large number of ROIs are set for a temporary ROI, for example. Can be presented.

【0152】第5の実施の形態:本発明の第5の実施の
形態は,第1ないし第4の実施の形態として示した内視
鏡診断支援装置に係わり、通常の内視鏡画像(以下、通
常画像と称する)及び薬剤の散布された内視鏡画像(以
下、染色画像と称する)のいずれであるかを判定し、特
徴量算出において処理対象とする画像をRGB各画像か
ら適切に選択することで常に良好な診断支援情報を提供
することができる内視鏡診断支援装置に関するものであ
る。
Fifth Embodiment: The fifth embodiment of the present invention relates to the endoscope diagnosis support apparatus shown as the first to fourth embodiments, and uses a normal endoscope image (hereinafter referred to as “endoscope image”). , A normal image) or an endoscopic image (hereinafter, referred to as a stained image) on which the medicine is scattered, and appropriately select an image to be processed in the feature amount calculation from each of the RGB images. The present invention relates to an endoscope diagnosis support apparatus that can always provide good diagnosis support information.

【0153】本実施の形態における内視鏡診断支援装置
の構成については第1ないし第4の実施の形態において
説明した内視鏡診断支援装置に同じである。したがっ
て、以下異なる点について説明する。
The configuration of the endoscope diagnosis support apparatus according to the present embodiment is the same as that of the endoscope diagnosis support apparatus described in the first to fourth embodiments. Therefore, different points will be described below.

【0154】図18ないし図20は本発明の第5の実施
の形態に係わり、図18は診断支援処理実行プログラム
の構成を説明するためのブロック図、図19は診断支援
処理実行プログラムの動作を説明するためのフローチャ
ート、図20は通常画像及び染色画像の判定処理につい
て説明するための説明図である。
FIGS. 18 to 20 relate to the fifth embodiment of the present invention. FIG. 18 is a block diagram for explaining the configuration of the diagnosis support processing execution program, and FIG. 19 shows the operation of the diagnosis support processing execution program. FIG. 20 is a flow chart for explaining, and FIG. 20 is an explanatory diagram for explaining the judgment processing of the normal image and the stained image.

【0155】図18に示すように、診断支援処理実行プ
ログラム250は、画像入力・管理ブロック251、デ
ータベース管理ブロック252、画像種別判定ブロック
253、仮ROI設定ブロック254、特徴量算出ブロ
ック255、ROI設定ブロック25 6、 判別分類ブ
ロック257、レポート作成ブロック258及び画像処
理ブロック239からなっている。これらの中で、画像
種別判定ブロック253以外のブロックについては、そ
れぞれ第1の実施の形態において説明した診断支援処理
実行プログラム80における各ブロックと同様の処理を
行う。
As shown in FIG. 18, the diagnostic support processing execution program 250 includes an image input / management block 251, a database management block 252, an image type determination block 253, a temporary ROI setting block 254, a feature amount calculation block 255, and an ROI setting. It comprises a block 256, a discrimination and classification block 257, a report creation block 258, and an image processing block 239. Among them, the blocks other than the image type determination block 253 perform the same processing as each block in the diagnosis support processing execution program 80 described in the first embodiment.

【0156】画像種別判定ブロック253においては入
力された内視鏡画像に対し、以下に示す一連の処理を適
用する。なお、ここではインジゴカルミン、メチレンブ
ルー及びクリスタルバイオレットの3種類の薬剤が選択
的に使用される場合について説明する。
In the image type determination block 253, the following series of processing is applied to the input endoscope image. Here, a description will be given of a case where three kinds of drugs of indigo carmine, methylene blue and crystal violet are selectively used.

【0157】本実施の形態においては、図7を用いて説
明した第1の実施の形態に示した診断支援処理実行プロ
グラム80の動作であるステップS20及びS21を、
図19のステップS100ないしS107に示す処理に
変更する。
In the present embodiment, steps S20 and S21, which are the operations of the diagnosis support processing execution program 80 shown in FIG.
The processing is changed to steps S100 to S107 in FIG.

【0158】ステップS100において、処理対象とす
る内視鏡画像を入力する。次に、ステップS101にお
いて後述する画像種別判定処理を行う。
In step S100, an endoscope image to be processed is input. Next, an image type determination process described later is performed in step S101.

【0159】ステップS102においては、画像種別判
定結果が通常画像であるかどうかを判定し、Yesであ
ればステップS106へ、NoであればステツブS10
3に進む。
In step S102, it is determined whether or not the image type determination result is a normal image. If Yes, the process proceeds to step S106. If No, the process proceeds to step S10.
Proceed to 3.

【0160】ステップS103においては、画像種別判
定結果がクリスタルバイオレットによる染色画像である
かどうかを判定し、判定結果がYesであればステップ
S106へ、NoであればステップS104に進む。
In step S103, it is determined whether the image type determination result is a stained image by crystal violet. If the determination result is Yes, the process proceeds to step S106, and if No, the process proceeds to step S104.

【0161】ステップS104においては、画像種別判
定結果がメチレンブルーによる染色画像であるかどうか
を判定し、判定結果がYesであればステップS107
へ、NoであればステップS105に進む。
In step S104, it is determined whether the image type determination result is a methylene blue stained image. If the determination result is Yes, step S107 is performed.
If No, go to step S105.

【0162】ステップS105においては、画像種別判
定結果がインジゴカルミンによる染色画像であるかどう
かを判定し、判定結果がYesであればステップS10
7へ、NoであればステップS106に進む。ステップ
S105においてNoと判定された場合には、他の薬剤
を用いた染色画像である可能性がある。本実施の形態に
おいては、このときはG画像を選択するものとする。
In step S105, it is determined whether or not the image type determination result is an indigo carmine stained image. If the determination result is Yes, step S10 is performed.
If No, go to step S106. If No is determined in step S105, the image may be a stained image using another drug. In this embodiment, the G image is selected at this time.

【0163】ステップS106においては、RGB画像
の中でG画像に対し図7に示したステップS21以降の
処理に適用するものとし、ステップS22に進む。
In step S106, it is assumed that the G image of the RGB images is applied to the processing after step S21 shown in FIG. 7, and the process proceeds to step S22.

【0164】ステップS107においては、RGB画像
の中でR画像に対し図7に示したステップS21以降の
処理に適用するものとし、ステップS22に進む。
In step S107, it is assumed that the R image in the RGB image is applied to the processing after step S21 shown in FIG. 7, and the process proceeds to step S22.

【0165】次に,ステップS101における画像種別
判定の処理内容について説明する。本実施の形態におい
ては、画像種別を内視鏡画像の全体的な色調に応じて判
定する。
Next, the processing content of the image type determination in step S101 will be described. In the present embodiment, the image type is determined according to the overall color tone of the endoscope image.

【0166】入力された内視鏡画像におけるRGB画像
の画素の値を(ri,gi,bi)とする.ここで、iは
各面素に付与した連続する番号で、1以上の整数であ
る。例えば画像の大きさがX×Yであり、そのすべての
画素を判定に用いる場合には1≦i≦X×Yとなる。ま
た、サンプリング等によりM個の画素を用いる場合には
1≦i≦Mとなる。以下、M個の画素を用いるものとす
る。
Let the pixel values of the RGB image in the input endoscope image be (ri, gi, bi). Here, i is a continuous number assigned to each surface element and is an integer of 1 or more. For example, when the size of the image is X × Y and all the pixels are used for determination, 1 ≦ i ≦ X × Y. When M pixels are used by sampling or the like, 1 ≦ i ≦ M. Hereinafter, it is assumed that M pixels are used.

【0167】各面素より、Si=tan-1(gi/r
i),Ti=tan-1(bi/r i)を求める。ri,gi
及びbiは0以上の値(例えば8bitの階調において
は0から255)をとるため、Si及びTiの値は0≦S
i, Ti<90の範囲にある実数値となる。実際には該
範囲を90分割した近似値を使用する。例えば小数点第
1位における四捨五入により,0,1,2,‥,89の
それぞれに離散化することができる。
From each surface element, Si = tan −1 (gi / r
i), Ti = tan -1 (bi / ri) is obtained. ri, gi
And bi take a value of 0 or more (for example, 0 to 255 in an 8-bit gradation), so that the values of Si and Ti are 0 ≦ S
i, Ti are real numbers in the range of <90. In practice, an approximate value obtained by dividing the range into 90 is used. For example, it is possible to discretize each of 0, 1, 2,..., 89 by rounding off at the first decimal place.

【0168】Si及びTiは各面素の値(ri,gi,b
i)の比によって規定される数値であり、通常画像及び
各種の染色画像では得られる値の分布が異なるものとな
る。具体的にはriの値が大きい通常画像はSi及びTi
とも比較的小さく,青色系の薬剤であるインジゴカルミ
ン及びメチレンブルーはriの値が通常画像に比較して
下がるためSi及びTiとも大きくなる。また、メチレン
ブルーはインジゴカルミンと比較した場合giが下がる
ため、Ti>Siとなる。一方、紫色系の薬剤であるクリ
スタルバイオレットはgiの値に対してri及びbiの値
が大きくなるため、Siは小さく、Tiは大きくなる。こ
れらの分布の違いを図20に示す.図20において、
(1)は通常画像、(2)はインジゴカルミンによる染色画
像、(3)はメチレンブルーによる染色画像、(4)はクリス
タルバイオレットによる染色画像における画素がそれぞ
れ多く分布する領域を示している。この性質により、例
えばM個の画素の60%以上が含まれた場合に該当する
領域に対応する画像種別であると判定することができ
る。また、ごく希ではあるが分布が拡散する等いずれの
画像種別とも判定がつかない場合には、不明な画像と判
定する。
Si and Ti are the values of each surface element (ri, gi, b
The value is defined by the ratio of i), and the distribution of the obtained values differs between the normal image and various stained images. Specifically, the normal image having a large value of ri is Si and Ti.
Indigo carmine and methylene blue, which are blue-based drugs, have a smaller value of ri than that of a normal image, and both Si and Ti are large. Also, methylene blue has a lower gi than indigo carmine, so that Ti> Si. On the other hand, crystal violet, which is a purple-colored drug, has large values of ri and bi with respect to the value of gi, so that Si is small and Ti is large. Figure 20 shows the differences between these distributions. In FIG.
(1) shows a normal image, (2) shows a stained image with indigo carmine, (3) shows a stained image with methylene blue, and (4) shows a region where a large number of pixels are distributed in a crystal violet stained image. With this property, for example, when 60% or more of the M pixels are included, it can be determined that the image type corresponds to the corresponding area. In addition, when it is difficult to determine any of the image types, such as the distribution is very rare, the image is determined to be unknown.

【0169】以上説明したように、本実施の形態におけ
る内視鏡診断支援装置によれば、内視鏡診断支援装置に
おいて通常の内視鏡画像及び薬剤の散布された内視鏡画
像のいずれであるかを判定し、特徴量算出における処理
対象とする画像をRGB各画像から適切に選択すること
ができ、常に良好な診断支援情報を提供することが可能
となる。
As described above, according to the endoscope diagnosis support apparatus of the present embodiment, the endoscope diagnosis support apparatus uses either a normal endoscope image or an endoscope image on which a medicine is scattered. It is possible to determine whether or not there is, and to appropriately select an image to be processed in the feature amount calculation from each of the RGB images, thereby always providing good diagnosis support information.

【0170】また、画像種別判定を操作者が手動で行う
ことももちろん可能である。
Further, it is of course possible for the operator to manually perform the image type determination.

【0171】また、判定不能時においては判定に使用す
る画素のサンプル数を増加あるいは位置を変更の上再度
判定してもよい。
When the determination is impossible, the number of pixels used for the determination may be increased or the position may be changed, and the determination may be performed again.

【0172】第6の実施形態:本発明の第6の実施の形
態は、第1ないし第5の実施の形態として示した内視鏡
診断支援装置に係わり、通常画像及び染色画像のいずれ
であるかを判定い、その結果に応じて階調の反転を行う
ことにより各画像を混在して使用することを可能とする
ことで良好な診断支援情報を提供することができる内視
鏡診断支援装置に関するものである。
Sixth Embodiment A sixth embodiment of the present invention relates to the endoscope diagnosis support apparatus shown as the first to fifth embodiments, and is either a normal image or a stained image. Endoscope diagnosis support apparatus that can provide good diagnosis support information by enabling each image to be used in a mixed manner by inverting the gradation according to the result. It is about.

【0173】本実施の形態における内視鏡診断支援装置
の構成及び診断支援処理実行プログラムの構成ブロック
については第5の実施の形態において説明した内視鏡診
断支援装置に同じである。したがって、以下異なる点に
ついて説明する。
The configuration of the endoscope diagnosis support apparatus according to the present embodiment and the configuration blocks of the diagnosis support processing execution program are the same as those of the endoscope diagnosis support apparatus described in the fifth embodiment. Therefore, different points will be described below.

【0174】図21は本発明の第6の実施の形態に係る
診断支援処理実行プログラムの動作を説明するためのフ
ローチャートである。
FIG. 21 is a flowchart for explaining the operation of the diagnosis support processing execution program according to the sixth embodiment of the present invention.

【0175】染色画像においては、図23に示したよう
に使用する薬剤の性質の違いにより、粘膜表面構造の画
像上での見え方が逆になっている。例えば腺口形態の観
察においては、インジゴカルミンを用いた染色画像では
腺口部が周辺部に対して低い画素値をとることとなるた
め、通常画像及びメチレンブルー、クリスタルバイオレ
ット等生体に吸収されることにより効果を得る性質の染
色剤とは異なるものとなる。したがって、例えば2値化
をともなう特徴量算出手法の適用に当たっては処理結果
が異なるものとなるため、階調の反転が必要となる。
In the stained image, as shown in FIG. 23, the appearance of the mucosal surface structure on the image is reversed due to the difference in the properties of the drugs used. For example, in observing the morphology of the pits, in the stained image using indigo carmine, the pits have a lower pixel value than the surrounding area, so that the normal image and methylene blue, crystal violet, etc. are absorbed by the living body. Is different from a dye having the property of obtaining an effect. Therefore, for example, when applying a feature amount calculation method involving binarization, the processing results will be different, and it is necessary to invert the gradation.

【0176】図21は本実施の形態における診断支援処
理実行プログラム250の動作を説明するための説明図
である。本実施の形態においては、図7を用いて説明し
た第1の実施の形態に示した診断支援処理実行プログラ
ム80の動作であるステップS20及びS21を、図2
1のステップS110ないしS120に示す処理に変更
する。
FIG. 21 is an explanatory diagram for explaining the operation of the diagnosis support processing execution program 250 according to the present embodiment. In the present embodiment, steps S20 and S21, which are operations of the diagnosis support processing execution program 80 shown in the first embodiment described with reference to FIG.
The processing is changed to steps S110 to S120.

【0177】図21において、ステップS110ないし
S115に示す各処理の内容は、それぞれ第5の実施形
態における図19のステップS100ないしS105と
同様である。
In FIG. 21, the contents of each processing shown in steps S110 to S115 are the same as those in steps S100 to S105 in FIG. 19 in the fifth embodiment, respectively.

【0178】ステップS112において、画像種別判定
結果が通常画像であるかどうかを判定し、Yesであれ
ばステップS116へ、NoであればステップS113
に進む。
In step S112, it is determined whether or not the image type determination result is a normal image. If Yes, the process proceeds to step S116. If No, the process proceeds to step S113.
Proceed to.

【0179】ステップS113において、画像種別判定
結果がクリスタルバイオレットによる染色画像でるかど
うかを判定し、判定結果がYesであればステップS1
16へ、NoであればステップS114に進む。
In step S113, it is determined whether or not the image type determination result is a stained image using crystal violet. If the determination result is Yes, step S1 is performed.
If No, go to Step S114.

【0180】ステップS114においては、画像種別判
定結果がメチレンブルーによる染色画像であるかどうか
を判定し、判定結果がYesであればステップS117
へ、NoであればステップS115に進む。
In step S114, it is determined whether or not the image type determination result is a methylene blue stained image. If the determination result is Yes, step S117 is performed.
If No, the process proceeds to step S115.

【0181】ステップS115においては、画像種別判
定結果がインジゴカルミンによる染色画像であるかどう
かを判定し、判定結果がYesであればステップS11
9へ,NoであればステップS118に進む。ステップ
S115においてNoと判定された場合には、他の薬剤
を用いた染色画像である可能性がある。本実施の形態に
おいては、このときはG画像を選択するものとする。
In step S115, it is determined whether or not the image type determination result is an indigo carmine stained image. If the determination result is Yes, step S11 is performed.
If No, go to Step S118. If No is determined in step S115, there is a possibility that the image is a stained image using another drug. In this embodiment, the G image is selected at this time.

【0182】ステップS116及びS118において
は、G画像を以後の処理対象画像として選択の上,ステ
ップS21に進む。
In steps S116 and S118, the G image is selected as an image to be processed thereafter, and the flow advances to step S21.

【0183】ステップS117においては、R画像を以
後の処理対象画像として選択の上、ステップS21に進
む。
In step S117, the R image is selected as an image to be processed thereafter, and the flow advances to step S21.

【0184】ステップS119においては、R画像を以
後の処理対象画像として選択の上、ステップS120に
進む。
In step S119, the R image is selected as an image to be processed thereafter, and the flow advances to step S120.

【0185】ステップS120においては、インジゴカ
ルミンとその他の種別の画像との混在使用を可能とする
ための階調反転処理を適用する。階調反転処理は画像処
理ブロック259により、以下の式を用いた画素値の変
換を行う。
In step S120, a tone reversal process is applied to enable mixed use of indigo carmine and other types of images. In the gradation inversion process, the image processing block 259 converts a pixel value using the following equation.

【0186】r’j=255−rj ここで、rjはR画像における画素jの値(1≦j≦X
×Y,XとYは画像の縦・横の大きさ)で、8bitの
階調数であり、0≦rj≦255の範囲をとるものとす
る。r’jは階調反転後の画素の値で、以後の処理に用
いられるものである。ステップS120においてR画像
に対する階調の反転処理を適用後、ステップS21に進
む。
R′j = 255−rj where rj is the value of pixel j in the R image (1 ≦ j ≦ X
× Y, X and Y are the vertical and horizontal sizes of the image), and are 8-bit gradation numbers, and assume a range of 0 ≦ rj ≦ 255. r'j is the value of the pixel after gradation inversion and is used for the subsequent processing. After applying the gradation inversion process to the R image in step S120, the process proceeds to step S21.

【0187】以上説明したように、本実施の形態におけ
る内視鏡診断支援装置によれば、通常画像及び染色画像
のいずれであるかを判定し、その結果に応じて階調の反
転を行うことにより各画像を混在して使用することが可
能となり、良好な診断支援情報を提供することができ
る。
As described above, according to the endoscope diagnosis support apparatus of the present embodiment, it is determined whether the image is a normal image or a stained image, and the gradation is inverted according to the result. Accordingly, it is possible to use each image in a mixed manner, and it is possible to provide good diagnosis support information.

【0188】第7の実施の形態:本発明の第7の実施の
形態は,第1ないし第5の実施の形態として示した内視
鏡診断支援装置に係わり、インジゴカルミンを用いた染
色画像とそれ以外の内視鏡画像のいずれであるかを判定
し、その結果に応じて階調の反転を行うことにより各画
像を混在して使用することを可能とすることで良好な診
断支援情報を提供することができる内視鏡診断支援装置
に関するものである。
Seventh Embodiment: The seventh embodiment of the present invention relates to the endoscopic diagnosis assisting apparatus shown as the first to fifth embodiments, and relates to a stained image using indigo carmine. By judging which of the other endoscope images it is, and by inverting the gradation according to the result, it is possible to use each image in a mixed manner, thereby providing good diagnosis support information. The present invention relates to an endoscope diagnosis support device that can be provided.

【0189】本発明の第6の実施の形態においては、入
力された内視鏡画像が通常画像及び3種類の染色画像の
いずれであるかを判定し、使用された薬剤の性質の違い
を考慮の上、RもしくはG画像を選択し,さらにインジ
ゴカルミンを用いた染色画像に対しては階調の反転処理
を適用する内視鏡診断支援装置について説明した。
In the sixth embodiment of the present invention, it is determined whether the input endoscope image is a normal image or three types of stained images, and the difference in the properties of the used drugs is considered. Above, the endoscope diagnosis support apparatus that selects an R or G image and further applies a gradation inversion process to a stained image using indigo carmine has been described.

【0190】一方,インジゴカルミンは前述の通り、そ
の青緑色の色調からR画像において粘膜表面の構造成分
を多く含むが、G画像においても元々の内視鏡画像の性
質から特徴量の算出に十分な該構造成分を有しているこ
とがあり、このような場合はG画像を共通して使用する
ことが可能である。
On the other hand, as described above, indigo carmine contains a large amount of structural components on the mucosal surface in the R image due to its bluish green color tone, but also in the G image, it is not sufficient to calculate the characteristic amount due to the properties of the original endoscopic image. In such a case, the G image can be commonly used.

【0191】本実施の形態においては、各種の内視鏡画
像からの特徴量算出手法適用においてG画像を共通に使
用し、インジゴカルミンを用いた染色画像である場合の
み階調変換処理を適用することで上記第6の実施の形態
における処理を簡略化し、メモリ資源の節約と処理の高
速化が図れる内視鏡診断支援装置について説明する。
In the present embodiment, the G image is commonly used in applying a feature amount calculation method from various endoscope images, and the gradation conversion process is applied only to a stained image using indigo carmine. The following describes an endoscope diagnosis support apparatus that simplifies the processing in the sixth embodiment, saves memory resources, and speeds up the processing.

【0192】本実施の形態における内視鏡診断支援装置
の構成及び診断支援処理実行プログラムの構成ブロック
については第5の実施の形態において説明した内視鏡診
断支援装置に同じである.したがって、以下異なる点に
ついて説明する。
The configuration of the endoscope diagnosis support apparatus and the configuration blocks of the diagnosis support processing execution program according to the present embodiment are the same as those of the endoscope diagnosis support apparatus described in the fifth embodiment. Therefore, different points will be described below.

【0193】図22は本発明の第7の実施の形態に係る
診断支援処理実行プログラムの動作を説明するためのフ
ローチャートである。
FIG. 22 is a flowchart for explaining the operation of the diagnosis support processing execution program according to the seventh embodiment of the present invention.

【0194】本実施の形態においては、図7を用いて説
明した第1の実施の形態に示した診断支援処理実行プロ
グラム80の動作であるステップS20及びS21を、
図22のステップS140ないしS144に示す処理に
変更する。
In the present embodiment, steps S20 and S21, which are the operations of the diagnosis support processing execution program 80 shown in FIG.
The processing is changed to the processing shown in steps S140 to S144 in FIG.

【0195】図21において、ステップS140及びS
141に示す各処理の内容は、それぞれ第5の実施形態
における図19のステップS100及びS101と同様
である。
In FIG. 21, steps S140 and S140
The content of each process indicated by 141 is the same as that of steps S100 and S101 in FIG. 19 in the fifth embodiment, respectively.

【0196】ステップS142においては,入力された
内視鏡画像からG画像を得る。
In step S142, a G image is obtained from the input endoscope image.

【0197】ステップS143においては、画像種別判
定結果がインジゴカルミンによる染色画像であるかどう
かを判定し、判定結果がYesであればステップS14
4へ、NoであればステップS121に進む。
In step S143, it is determined whether or not the image type determination result is an indigo carmine stained image. If the determination result is Yes, step S14 is performed.
If No, go to step S121.

【0198】ステップS144においては、インジゴカ
ルミンとその他の種別の画像との混在使用を可能とする
ための階調反転処理を適用する。階調反転処理は画像処
理ブロック259により,以下の式を用いた画素値の変
換を行う。
In step S144, a gradation inversion process for enabling mixed use of indigo carmine and other types of images is applied. In the gradation inversion processing, the image processing block 259 converts the pixel value using the following equation.

【0199】g’j=255−gj ここで、gjはG画像における画素jの値(1≦j≦X
×Y,XとYは画像の縦・横の大きさ)で、8bitの
階調数であり,0≦gj≦255の範囲をとるものとす
る。g’ jは階調反転後の画素の値で,以後の処理に用
いられるものである。G画像に対する階調の反転処理を
適用後、ステップS21に進む。
G'j = 255-gj where gj is the value of pixel j in the G image (1.ltoreq.j.ltoreq.X
× Y, X and Y are the vertical and horizontal sizes of the image), and are 8-bit gradation numbers, and assume a range of 0 ≦ gj ≦ 255. g ′ j is the value of the pixel after the grayscale inversion and is used for the subsequent processing. After applying the gradation inversion process to the G image, the process proceeds to step S21.

【0200】以上説明したように、本実施の形態におけ
る内視鏡診断支援装置によれば、インジゴカルミンを用
いた染色画像とそれ以外の内視鏡画像のいずれであるか
を判定し、その結果に応じて階調の反転を行うことによ
り各画像を混在して使用することを可能とすることで良
好な診断支援情報を提供することができる。
As described above, according to the endoscope diagnosis support apparatus of the present embodiment, it is determined whether the image is a stained image using indigo carmine or another endoscope image. By inverting the gradation in accordance with the above, it is possible to use each image in a mixed manner, thereby providing good diagnosis support information.

【0201】第8の実施の形態:本発明の第8の実施の
形態は第1ないし第7の実施の形態として示した内視鏡
診断支援装置に係わり、特徴量算出において空間周波数
解析手法を適用するにあたり、内視鏡画像の空間周波数
成分の有するすべての情報を利用することにより高精度
の診断支援情報を得ることができる内視鏡診断支援装置
に関するものである。
Eighth Embodiment: The eighth embodiment of the present invention relates to the endoscope diagnosis support apparatus shown as the first to seventh embodiments, and uses a spatial frequency analysis method in calculating a feature amount. The present invention relates to an endoscope diagnosis support apparatus capable of obtaining highly accurate diagnosis support information by using all information of a spatial frequency component of an endoscope image.

【0202】本実施の形態における内視鏡診断支援装置
の構成については第1の実施の形態において説明した内
視鏡診断支援装置に同じである。また、本実施の形態に
おける診断支援処理実行プログラムは図6に示した診断
支援処理実行プログラム80と同様であり、特徴量算出
ブロック84において適用する特徴量算出手法を変更す
ることによりその目的を達成するものである。
The configuration of the endoscope diagnosis support apparatus according to the present embodiment is the same as that of the endoscope diagnosis support apparatus described in the first embodiment. Further, the diagnosis support processing execution program in the present embodiment is the same as the diagnosis support processing execution program 80 shown in FIG. 6, and achieves its object by changing the feature calculation method applied in the feature calculation block 84. Is what you do.

【0203】空間周波数解析手法は、画像に対するフィ
ルタリングの適用により周波数成分を抽出し特徴量化す
るものである。例えば最も一般的な手法として以下に示
すパワースペクトラム法が知られている。
The spatial frequency analysis technique is to extract frequency components by applying filtering to an image and to convert them into feature quantities. For example, a power spectrum method described below is known as the most general technique.

【0204】画像t(x,y)及びフィルタf(x,
y)によるフィルタリング処理結果g(x,y)は
The image t (x, y) and the filter f (x,
The filtering result g (x, y) by y) is

【数2】 G(u,v)=T(u,v)・F(u,v) (2) により表される。ここで、G(u,v)、T(u,v)
及びF(u,v)はそれぞれg(x,y)、t(x,
y)及びf(x,y)のフーリエ変換である。フィルタ
f(x,y)は低域、高域もしくは帯域通過型の周波数
特性を有しており、画像における特定の周波数成分を抽
出する効果を備えている。また,式(2)は画像とフィ
ルタの畳み込み演算により実空間上では
G (u, v) = T (u, v) · F (u, v) (2) Here, G (u, v), T (u, v)
And F (u, v) are g (x, y), t (x,
y) and f (x, y). The filter f (x, y) has a low-frequency, high-frequency or band-pass type frequency characteristic, and has an effect of extracting a specific frequency component in an image. Equation (2) is expressed in real space by the convolution operation of the image and the filter.

【数3】 g(x,y)=t(x,y)*f(x,y) (3) と表すことができ,一般的にはFIRフィルタ等による
デジタルフィルタリングにより実行されている。
G (x, y) = t (x, y) * f (x, y) (3), which is generally executed by digital filtering using an FIR filter or the like.

【0205】G(u,v)は複素数であり、その実数項
及び虚数項をそれぞれRe(G(u,v))及びIm
(G(u,v))とすると
G (u, v) is a complex number, and its real and imaginary terms are represented by Re (G (u, v)) and Im, respectively.
(G (u, v))

【数4】 G(u,v)=Re(G(u,v))+jIm(G(u,v)) (4) と表される。ここで,jは虚数単位を示す。さらに,式
(4)より、G(u,v)を振幅項A(u,v)と位相
項ψ(u,v)を用いて
G (u, v) = Re (G (u, v)) + jIm (G (u, v)) (4) Here, j indicates an imaginary unit. Further, from equation (4), G (u, v) is calculated using the amplitude term A (u, v) and the phase term ψ (u, v).

【数5】 G(u,v)=A(u,v)exp(jψ(u,v)) (5)G (u, v) = A (u, v) exp (jψ (u, v)) (5)

【数6】 (Equation 6)

【数7】 ψ(u,v)=tan-1{Im(G(u,v))/Re(G(u,v)} ( 7) と表される。7 (u, v) = tan −1 {Im (G (u, v)) / Re (G (u, v)}} (7)

【0206】パワースペクトラム法においては、式
(6)に示す振幅項A(u,v)を適用するn個(nは
l以上の整数)のフィルタf(x,y)より求め、特徴
量として使用するものである。
In the power spectrum method, the amplitude term A (u, v) shown in the equation (6) is obtained from n (n is an integer of 1 or more) filters f (x, y) to which the amplitude term A (u, v) is applied. To use.

【0207】また,近年画像解析分野において広く用い
られているGabor特徴は、フィルタf(x,y)の
周波数特性を人間の視覚系の特性を考慮したGabor
関数により設定したものであり、本質的にはパワースペ
クトラム法と同様に振幅項A(u,v)を特徴量として
用いている。
A Gabor feature which has been widely used in the field of image analysis in recent years is that a frequency characteristic of a filter f (x, y) is determined by taking into account a characteristic of a human visual system.
This is set by a function, and the amplitude term A (u, v) is used as a feature amount essentially as in the power spectrum method.

【0208】式(5)に示すように、画像は周波数成分
に関する情報として振幅項A(u,v)と位相項ψ
(u,v)を含んでいるが、後者は特徴量として用いら
れていないため情報の損失が生じることとなる。本実施
の形態においては、振幅項A(u,v)に基づく特徴量
に加え、位相項ψ(u,v)に基づく特徴量を算出する
ことにより、診断支援情報の精度向上を図る。
As shown in the equation (5), the image has an amplitude term A (u, v) and a phase term と し て
Although (u, v) is included, the latter loses information because it is not used as a feature value. In the present embodiment, the accuracy of the diagnosis support information is improved by calculating the feature based on the phase term ψ (u, v) in addition to the feature based on the amplitude term A (u, v).

【0209】本実施の形態においては、内視鏡画像にお
ける周波数成分の抽出にK×M個のGaborフィルタ
を用いるものとする。K及びMはGaborフィルタを
規定する後述するパラメタの個数である。Gaborフ
ィルタは2次元ガウス曲面と2次元平面上を一方向に伝
わる平面波とをかけあわせたものであり、ガウス曲面に
おける標準値差σxとσy,平面波の進行方向θk及び波
長λmにより決定される。ここで,k及びmはそれぞれ
Gaborフィルタを規定する進行方向及び波長のパラ
メータであり、0≦k<K及び0≦m<Mであるものと
する。標準値差σ xとσyは波長λmと密接に関係してお
り、波長λmの関数とすることができ、それぞれσx(λ
m)及びσy(λm)と表される。Gaborフィルタf
は実部Re(g)及び虚部Im(g)からなる2次元フ
イルタであり、それぞれ、
In the present embodiment, the endoscope image
K × M Gabor filters for extracting frequency components
Shall be used. K and M are Gabor filters
This is the number of parameters that will be described later. Gaborf
Filters travel in one direction on two-dimensional Gaussian surfaces and two-dimensional planes.
With a plane wave
Standard value difference σxAnd σy, The traveling direction θ of the plane wavekAnd waves
Long λmIs determined by Where k and m are
The traveling direction and wavelength parameters that define the Gabor filter
A meter, where 0 ≦ k <K and 0 ≦ m <M
I do. Standard value difference σ xAnd σyIs the wavelength λmClosely related to
The wavelength λm, And σx
m) And σym). Gabor filter f
Is a two-dimensional file consisting of the real part Re (g) and the imaginary part Im (g).
Iruta, respectively,

【数8】 (Equation 8)

【数9】 で定義される。大きさN×Nの画像tとGaborフィ
ルタfとの畳み込み演算による処理結果gは,画素t
(X,Y)に対して、
(Equation 9) Is defined by The processing result g of the convolution operation between the image t of size N × N and the Gabor filter f is the pixel t
(X, Y)

【数10】 で与えられる。(Equation 10) Given by

【0210】. 式(10)のgを用いてGabor特
徴の値hk,m(X,Y)は、
Using g in equation (10), the value hk, m (X, Y) of the Gabor feature is

【数11】 hk,m(X,Y)=|gk,m(X,Y)| (11) となる.ここで,|・|は複素数α+jβの絶対値(α
2+β21/2を表す。
H k, m (X, Y) = | g k, m (X, Y) | (11) Here, | · | is the absolute value of the complex number α + jβ (α
2 + β 2 ) represents 1/2 .

【0211】本実施の形態においては振幅及び位相情報
を用いた特徴量として,文献4 [Rotation-Invariant T
exture Classification Using a Complete Space-Frequ
encyModel,G.M.Haley and B.S.Manjunath,IEEE TRANS.
ON IMAGE PROCESSING, Vol.8,No.2,FEB. 1999]に示され
た各特徴量を算出する。
[0211] In the present embodiment, reference 4 [Rotation-Invariant T] is used as a feature using amplitude and phase information.
exture Classification Using a Complete Space-Frequ
encyModel, GMHaley and BSManjunath, IEEE TRANS.
ON IMAGE PROCESSING, Vol. 8, No. 2, FEB. 1999].

【0212】[0212]

【数12】 (Equation 12)

【数13】 (Equation 13)

【数14】 [Equation 14]

【数15】 (Equation 15)

【数16】 (Equation 16)

【数17】 ここで,nx及びnyはそれぞれ大きさISX×ISY
の画像における画素の座標で、0≦nx<ISX, 0
≦ny<ISYである。また、sはGaborフィルタ
の波長λmに対応するパラメタであり、1≦s≦Mであ
る。また、rはGaborフィルタの方向θkに対応す
るパラメタであり、0≦r<Kである。ここでは表記を
文献4に合わせ,R=Kであるものとする。また、ar
g[・]はtan-1{Im(・)/Re(・)}を示
す。
[Equation 17] Here, nx and ny are the sizes ISX × ISY, respectively.
0 ≦ nx <ISX, 0
≤ny <ISY. Also, it s is a parameter corresponding to the wavelength lambda m the Gabor filter, is 1 ≦ s ≦ M. R is a parameter corresponding to the direction θ k of the Gabor filter, and 0 ≦ r <K. Here, it is assumed that R = K in accordance with the description in Reference 4. Also, ar
g [•] indicates tan -1 {Im (•) / Re (•)}.

【0213】.また,a s,r(nx,ny),φs,r(n
x,ny)及びus,r(nx,ny)は以下のように求
められる.
Also, a s, r (nx, ny) and φ s, r (n
x, ny) and u s, r (nx, ny) are obtained as follows.

【数18】 a s,r(nx,ny)=|g s,r(nx,ny)| (18)A s, r (nx, ny) = | g s, r (nx, ny) | (18)

【数19】 [Equation 19]

【数20】 ここで、∇x()及び∇y()は勾配推定関数、θrはG
aborフィルタの方向である。また、
(Equation 20) Here, ∇ x () and ∇ y () are gradient estimation functions, and θ r is G
The direction of the abor filter. Also,

【数21】 θ∇=tan-1{▽y(ψs,r(nx,ny))/▽x(ψs,r(nx,ny)} (21) より求められる。また、arg[・]はatan(Im
(・)/Re(・))を示す。
Equation 21] θ∇ = tan -1 {▽ y ( ψ s, r (nx, ny)) / ▽ x (ψ s, r (nx, ny)} is obtained from (21). Also, arg [· ] Is atan (Im
(•) / Re (•)).

【0214】式(#11)ないし(#16)に示す特徴
量は各面素ごとに算出されるものであり、第1の実施の
形態において示した図7におけるステップS26に適用
することができる。
The features shown in equations (# 11) to (# 16) are calculated for each surface element, and can be applied to step S26 in FIG. 7 shown in the first embodiment. .

【0215】さらに、式(12)ないし(17)により
得られる画素ごとの特徴量から、以下に示す領域ごとの
特徴量を算出することが可能である。
Further, it is possible to calculate the following characteristic amounts for each region from the characteristic amounts for each pixel obtained by the equations (12) to (17).

【0216】[0216]

【数22】 ここで,fAfFfYfDAfDF及びfDYはそれぞ
れfAs,p,fFs,q,fYs, q,fDAs,q,fDFs,q及びfDY
s,qに対するpまたはqに基づくベクトル表記である。
また、E{}は算出対象とする領域内(ROI)の各面
素に碁づく期待値(平均値),*は複素共役を示す。
(Equation 22) Here, fA, fF, fY, fDA , fDF and fDY each fA s, p, fF s, q, fY s, q, fDA s, q, fDF s, q and fDY
Vector notation based on p or q for s, q .
In addition, E 期待 represents an expected value (average value) of going to each plane element in the region to be calculated (ROI), and * represents a complex conjugate.

【0217】また、各特徴量の分散及び共分散に基づく
特徴量を算出することも可能である。例えば,式(1
2)及び(13)に示したfAs,p及びfFs,qを用いた分
散及び共分散は分散共分散行列Σとして算出される。例
えばs=1、R=8の場合、fAs,p及びfFs,qはそれぞ
れ各面素につき3個ずつ算出され、ROI内のj番目の
画素(座標(nx,ny)とする)に対してv1j=fA
0,0(nx,ny),v2j=fA0,1(nx,ny),v3
j=fA0,2(nx,ny),v4j=fF0,0(nx,n
y),v5j=fF0,1(nx,ny),v6j=fF0,2(n
x,ny)とすると共分散行列Σは、
It is also possible to calculate feature values based on the variance and covariance of each feature value. For example, the expression (1
The variance and covariance using fA s, p and fF s, q shown in 2) and (13) are calculated as a variance-covariance matrix Σ. For example, when s = 1 and R = 8, fA s, p and fF s, q are each calculated three by three for each surface element, and set to j-th pixel (coordinate (nx, ny)) in the ROI. On the other hand, v1j = fA
0,0 (nx, ny), v2j = fA 0,1 (nx, ny), v3
j = fA 0,2 (nx, ny), v4j = fF 0,0 (nx, n
y), v5j = fF 0,1 ( nx, ny), v6j = fF 0,2 (n
x, ny), the covariance matrix Σ is

【数23】 で定義される.式(23)においてσst(Equation 23) Is defined by In equation (23), σ st is

【数24】 により求められる。ここで、NはROI内の画素数、μ
s及びμtはそれぞれvs及びvtのROI内の平均値を示
す。得られた共分散行列Σにおいて、各σst をROI
の特徴量として使用する。式(14)ないし(17)に
示した各特徴量を含め、同様に分散共分散行列を求める
ことができる。
(Equation 24) Required by Here, N is the number of pixels in the ROI, μ
s and μt indicate the average values in the ROI of vs and vt, respectively. In the obtained covariance matrix Σ, replace each σ st with the ROI
Is used as the feature value of. Similarly, the variance-covariance matrix can be obtained including the feature amounts shown in Expressions (14) to (17).

【0218】また、さらに共分散行列Σより相関行列を
求め、相関係数を特徴量として使用することもできる。
Further, a correlation matrix can be obtained from the covariance matrix Σ, and a correlation coefficient can be used as a feature value.

【0219】本実施の形態においては、第1の実施の形
態において示した図7におけるステップS27に適用す
ることが可能であり、領域分割処理適用後の各ROI
(i)よりFCA(i)ないしFDMY(i)の分散、共分
散(もしくは相関係数)を求め、ステップS29におけ
る判別分類処理に使用する。
In this embodiment, it is possible to apply to step S27 in FIG. 7 shown in the first embodiment, and it is possible to apply each ROI after application of the area division processing.
From (i), the variance and covariance (or correlation coefficient) of FCA (i) to FDMY (i ) are obtained and used for the discriminant classification processing in step S29.

【0220】以上説明したように、本実施の形態におけ
る内視鏡診断支援装置によれば、特徴量算出において空
間周波数解析手法を適用するにあたり、内視鏡画像の空
間周波数成分の有するすべての情報を利用することによ
り高精度の診断支援情報を得ることができる。
As described above, according to the endoscope diagnosis support apparatus of the present embodiment, when the spatial frequency analysis method is applied to the calculation of the feature amount, all information having the spatial frequency components of the endoscope image is obtained. , It is possible to obtain highly accurate diagnosis support information.

【0221】[付記] (付記項1) 被検体を撮像した撮像信号から所定の周
波数成分を抽出する周波数成分抽出手段と、前記周波数
成分抽出手段で抽出された前記周波数成分の位相情報を
検出する位相情報検出手段と、前記位相情報検出手段で
検出された前記位相情報に基づき前記被検体の特徴量を
演算する特徴量演算手段とを具備したことを特徴とする
診断支援装置。
[Supplementary notes] (Supplementary note 1) Frequency component extracting means for extracting a predetermined frequency component from an image pickup signal of an object, and detecting phase information of the frequency component extracted by the frequency component extracting means. A diagnosis support apparatus comprising: phase information detection means; and feature value calculation means for calculating a feature value of the subject based on the phase information detected by the phase information detection means.

【0222】(付記項2) 複数の色信号からなる内視
鏡画像を入力する内視鏡画像入力手段と、前記内視鏡画
像入力手段に入力された前記内視鏡画像に対し第1の領
域を設定する第1の領域設定手段と、前記内視鏡画像の
少なくとも1つの色信号に基づく特徴量を算出する特徴
量算出手段と、前記特徴量算出手段により算出された前
記特徴量に基づき前記第1の領域設定手段により設定さ
れた第1の領域に第2の領域を設定する第2の領域設定
手段と、前記第2の領域設定手段により設定された少な
くとも1つの領域に対し前記特徴量算出手段により算出
された前記特徴量に基づく判別分類処理を適用する判別
分類手段と、前記判別分類手段による判別分類結果を表
示する表示手段とを備えたことを特徴とする内視鏡診断
支援装置。
(Additional Item 2) An endoscope image input means for inputting an endoscope image composed of a plurality of color signals, and a first endoscope image input to the endoscope image input means. First area setting means for setting an area; feature quantity calculating means for calculating a feature quantity based on at least one color signal of the endoscope image; and a feature quantity calculating means based on the feature quantity calculated by the feature quantity calculating means. A second area setting means for setting a second area in the first area set by the first area setting means; and the characteristic for at least one area set by the second area setting means. Endoscope diagnosis support, comprising: a discriminating / classifying means for applying a discriminating / classifying process based on the feature amount calculated by the quantity calculating means; apparatus.

【0223】(付記項3) 前記表示手段が前記特徴量
算出手段により算出された特徴量を表示することを特徴
とする付記項2に記載の内視鏡診断支援装置。
(Additional Item 3) The endoscope diagnosis support apparatus according to Additional Item 2, wherein the display means displays the feature amount calculated by the feature amount calculating means.

【0224】(付記項4) 前記第2の領域設定手段に
より設定された第2の領域の面積を算出する面積算出手
段を備えたことを特徴とする付記項2または3に記載の
内視鏡診断支援装置。
(Additional Item 4) The endoscope according to additional item 2 or 3, further comprising an area calculating means for calculating an area of the second area set by the second area setting means. Diagnosis support device.

【0225】(付記項5) 前記第2の領域が面積比を
算出する面積比算出手段を備え、前記表示手段が前記面
積比算出手段により算出された面積比を表示することを
特徴とする付記項4に記載の内視鏡診断支援装置。
(Supplementary note 5) The supplementary note, wherein the second region is provided with an area ratio calculating means for calculating an area ratio, and the display means displays the area ratio calculated by the area ratio calculating means. Item 5. The endoscope diagnosis support device according to Item 4.

【0226】(付記項6) 前記面積算出手段が画素数
に基づく面積を算出することを特徴とする付記項4また
は5に記載の内視鏡診断支援装置。
(Additional Item 6) The endoscope diagnosis support apparatus according to Additional Item 4 or 5, wherein the area calculating means calculates an area based on the number of pixels.

【0227】(付記項7) 前記第2の領域設定手段及
び前記判別分類手段において、各々が種類の異なる特徴
量を用いることを特徴とする付記項2,3,4,5また
は6に記載の内視鏡診断支援装置。
(Additional Item 7) The additional item 2, 3, 4, 5 or 6, wherein the second area setting means and the discriminating and classifying means use different types of characteristic amounts, respectively. Endoscope diagnosis support device.

【0228】(付記項8) 前記第2の領域設定手段が
前記特徴量算出手段により算出された特徴量に基づく領
域分割により第2の領域を設定することを特徴とする付
記項2,3,4,5,6または7に記載の内視鏡診断支
援装置。
(Additional Item 8) The additional items 2, 3, wherein the second area setting means sets the second area by area division based on the characteristic amount calculated by the characteristic amount calculating means. 8. The endoscope diagnosis support device according to 4, 5, 6, or 7.

【0229】(付記項9) 前記第1の領域設定手段に
より設定される第1の領域が内視鏡画像全体であること
を特徴とする付記項2,3,4,5,6,7または8に
記載の内視鏡診断支援装置。
(Additional Item 9) The additional item 2, 3, 4, 5, 6, 7, or wherein the first area set by the first area setting means is the entire endoscope image. 9. The endoscope diagnosis support device according to 8.

【0230】(付記項10) 前記第2の領域に対する
前記判別分類手段による判別分類結果に基づき総合的な
診断支援情報を導出するための総合情報導出手段を備
え、前記表示手段が前記総合情報導出手段により導出さ
れた診断支援情報表示することを特徴とする付記項2,
3,4,5,6,7,8または9に記載の内視鏡診断支
援装置。
(Supplementary item 10) Comprehensive information deriving means for deriving comprehensive diagnosis support information based on the discrimination / classification result of the second area by the discrimination / classification means, and the display means is provided with the comprehensive information derivation. Additional claim 2, characterized in that the diagnostic support information derived by the means is displayed.
10. The endoscope diagnosis support device according to 3, 4, 5, 6, 7, 8, or 9.

【0231】(付記項11) 前記総合情報導出手段が
前記判別分類結果ごとに前記第2の領域を統合した面積
比を算出するとともに、前記判別分類結果及び前記面積
比に基づき診断支援情報を導出することを特徴とする付
記項10に記載の内視鏡診断支援装置。
(Supplementary Item 11) The comprehensive information deriving means calculates an area ratio obtained by integrating the second regions for each of the determination and classification results, and derives diagnosis support information based on the determination and classification result and the area ratio. 13. The endoscope diagnosis support apparatus according to claim 10, wherein

【0232】(付記項12) 前記総合情報導出手段が
前記面積比を特徴量とする識別分類処理を実行すること
により診断支援情報を導出することを特徴とする付記項
11に記載の内視鏡診断支援装置。
(Additional Item 12) The endoscope according to Additional Item 11, wherein the comprehensive information deriving means derives diagnosis support information by executing an identification and classification process using the area ratio as a feature amount. Diagnosis support device.

【0233】(付記項13) 複数の色信号からなる内
視鏡画像を入力する内視鏡画像入力手段と、前記内視鏡
画像入力手段に入力された前記内視鏡画像に対し領域を
設定する領域設定手段と、前記内視鏡画像の種別を判定
する内視鏡画像種別判定手段と、前記内視鏡画像の少な
くとも1つの色信号に基づく特徴量を算出する特徴量算
出手段と、前記領域設定手段により設定された領域に対
し前記特徴量算出手段により算出された特徴量に基づく
判別分類処理を適用する判別分類手段と、前記判別分類
手段による判別分類結果を表示する表示手段とを備え、
前記内視鏡画像種別判定手段の判定結果に基づき前記特
徴量算出手段が特徴量を算出する色信号を変更すること
を特徴とする内視鏡診断支援装置。
(Additional Item 13) Endoscope image input means for inputting an endoscope image composed of a plurality of color signals, and setting an area for the endoscope image input to the endoscope image input means Area setting means for performing, endoscope image type determination means for determining the type of the endoscope image, feature amount calculation means for calculating a feature amount based on at least one color signal of the endoscope image, A classification unit configured to apply a classification process based on the feature amount calculated by the feature amount calculation unit to the region set by the region setting unit; and a display unit configured to display a result of the classification performed by the classification unit. ,
An endoscope diagnosis support apparatus, wherein the feature amount calculating unit changes a color signal for calculating a feature amount based on a determination result of the endoscope image type determining unit.

【0234】(付記項14) 前記内視鏡画像入力手段
に入力された内視鏡画像の種別を判定する内視鏡画像種
別判定手段を備えるとともに、前記内視鏡画像種別判定
手段の判定結果に基づき前記特徴量算出手段が特徴量を
算出する色信号を変更することを特徴とする付記項2,
3,4,5,6,7,9,10,11または12に記載
の内視鏡診断支援装置。
(Additional Item 14) An endoscope image type determining means for determining the type of the endoscope image input to the endoscope image input means, and a determination result of the endoscope image type determining means Additional feature 2, wherein the feature value calculating means changes the color signal for calculating the feature value based on
13. The endoscope diagnosis support device according to 3, 4, 5, 6, 7, 9, 10, 11, or 12.

【0235】(付記項15) 前記内視鏡画像種別判定
手段が薬剤散布の有無に基づく内視鏡画像の種別を判定
することを特徴とする付記項13または14に記載の内
視鏡診断支援装置。
(Additional Item 15) The endoscope diagnosis support according to additional item 13 or 14, wherein the endoscope image type determining means determines the type of the endoscope image based on the presence or absence of the application of the medicine. apparatus.

【0236】(付記項16) 前記内視鏡画像種別判定
手段が散布された薬剤の種別に基づく画像の種別を判定
することを特徴とする付記項15に記載の内視鏡診断支
援装置。
(Additional Item 16) The endoscope diagnosis support apparatus according to Additional Item 15, wherein the endoscope image type determining means determines the type of image based on the type of the applied medicine.

【0237】(付記項17) 前記内視鏡画像種別判定
手段の判定結果に基づき前記特徴量算出手段が特徴量を
算出する色信号を補正する色信号補正手段を設けたこと
を特徴とする付記項13,14,15または16に記載
の内視鏡診断支援装置。
(Additional Item 17) An additional feature wherein a color signal correcting means for correcting a color signal for calculating the characteristic amount by the characteristic amount calculating means based on the determination result of the endoscope image type determining means is provided. Item 17. The endoscope diagnosis support device according to item 13, 14, 15, or 16.

【0238】(付記項18) 前記色信号補正手段が階
調の反転に基づく補正を行うことを特徴とする付記項1
7に記載の内視鏡診断支援装置。
(Additional Item 18) The additional item 1 characterized in that the color signal correction means performs correction based on inversion of gradation.
An endoscope diagnosis support device according to claim 7.

【0239】(付記項19) 前記内視鏡画像種別判定
手段が前記内視鏡画像の色調に基づき内視鏡画像の種別
を判定することを特徴とする付記項13,14,15,
16,17または18に記載の内視鏡診断支援装置。
(Additional Item 19) The additional items 13, 14, 15, and wherein the endoscope image type determining means determines the type of the endoscope image based on the color tone of the endoscopic image.
19. The endoscope diagnosis support device according to 16, 17, or 18.

【0240】(付記項20) 前記特徴量算出手段が前
記内視鏡画像の空間周波数成分に基づく特徴量を算出す
ることを特徴とする付記項2,3,4,5,6,7,
9,10,11,12,13,14,15,16,1
7,18または19に記載の内視鏡診断支援装置。
(Additional Item 20) The additional feature items 2, 3, 4, 5, 6, 7, and wherein the feature value calculating means calculates a feature value based on a spatial frequency component of the endoscope image.
9, 10, 11, 12, 13, 14, 15, 16, 1
20. The endoscope diagnosis support device according to 7, 18, or 19.

【0241】(付記項21) 前記特徴量算出手段が前
記内視鏡画像の空間周波数成分における振幅及び/また
は位相に基づく特徴量を算出することを特徴とする付記
項20に記載の内視鏡診断支援装置。
(Additional Item 21) The endoscope according to Additional Item 20, wherein the feature amount calculating means calculates a feature amount based on an amplitude and / or a phase in a spatial frequency component of the endoscope image. Diagnosis support device.

【0242】(付記項22) 前記判別分類手段が少な
くとも1つの統計的または非統計的識別器を用いた分類
を適用することを特徴とする付記項2,3,4,5,
6,7,8,9,10,11,12,13,14,1
5,16,17,18,19,20または21に記載の
内視鏡診断支援装置。
(Additional Item 22) The additional item items 2, 3, 4, 5, wherein the discriminating and classifying means applies classification using at least one statistical or non-statistical classifier.
6,7,8,9,10,11,12,13,14,1
The endoscope diagnosis support apparatus according to 5, 16, 17, 18, 19, 20 or 21.

【0243】(付記項23) 複数の色信号からなる内
視鏡画像を入力する内視鏡画像入力手段と、前記内視鏡
画像入力手段に入力された前記内視鏡画像の少なくとも
1つの色信号に基づき空間周波数成分を抽出する空間周
波数成分抽出手段と、前記空間周波数成分抽出手段によ
り抽出された空間周波数成分に基づき前記内視鏡画像の
位相成分を検出する位相成分検出手段と、前記位相成分
検出手段により検出された位相成分に基づく特徴量を算
出する特徴量算出手段とを備えたことを特徴とする内視
鏡画像処理装置。
(Additional Item 23) Endoscope image input means for inputting an endoscope image comprising a plurality of color signals, and at least one color of the endoscope image input to the endoscope image input means A spatial frequency component extracting means for extracting a spatial frequency component based on the signal; a phase component detecting means for detecting a phase component of the endoscope image based on the spatial frequency component extracted by the spatial frequency component extracting means; An endoscope image processing apparatus comprising: a feature amount calculating unit that calculates a feature amount based on the phase component detected by the component detecting unit.

【0244】(付記項24) 前記特徴量算出手法が前
記位相成分の変化の方向に基づく特徴量を算出すること
を特徴とする付記項23に記載の内視鏡画像処理装置。
(Additional Item 24) The endoscope image processing apparatus according to Additional Item 23, wherein the feature amount calculating method calculates a feature amount based on the direction of the change of the phase component.

【0245】(付記項25) 前記特徴量算出手法が前
記位相成分の変化の大きさに基づく特徴量を算出するこ
とを特徴とする付記項23または24に記載の内視鏡画
像処理装置。
(Additional Item 25) The endoscope image processing apparatus according to additional item 23 or 24, wherein the feature value calculating method calculates a feature value based on the magnitude of the change of the phase component.

【0246】(付記項26) 前記空間周波数成分抽出
手段により抽出された空間周波数成分に基づき前記内視
鏡画像の振幅成分を検出する振幅成分検出手段と、前記
位相成分検出手段により検出された位相成分及び前記振
幅成分検出手段により検出された振幅成分に基づく特徴
量を算出する特徴量算出手段と、を備えたことを特徴と
する付記項23,24または25に記載の内視鏡画像処
理装置。
(Supplementary note 26) An amplitude component detecting means for detecting an amplitude component of the endoscope image based on the spatial frequency component extracted by the spatial frequency component extracting means, and a phase detected by the phase component detecting means. 26. The endoscope image processing apparatus according to claim 23, further comprising: a feature amount calculating unit that calculates a feature amount based on the component and the amplitude component detected by the amplitude component detecting unit. .

【0247】(付記項27) 前記特徴量算出手段が前
記位相成分及び振幅成分の共分散または相関に基づく特
徴量を算出することを特徴とする付記項26に記載の内
視鏡画像処理装置。
(Additional Item 27) The endoscope image processing apparatus according to additional item 26, wherein the characteristic amount calculating means calculates a characteristic amount based on a covariance or a correlation of the phase component and the amplitude component.

【0248】(付記項28) 前記空間周波数成分抽出
手段がフーリエ変換またはデジタルフィルタを用いたフ
ィルタリングを行うことを特徴とする付記項23,2
4,25,26または27に記載の内視鏡画像処理装
置。
(Additional Item 28) Additional items 23 and 2 characterized in that the spatial frequency component extraction means performs Fourier transform or filtering using a digital filter.
28. The endoscope image processing device according to 4, 25, 26 or 27.

【0249】(付記項29) 内視鏡画像を入力するス
テップと、前記内視鏡画像に対し空間周波数成分を抽出
するフィルタリングを適用するステップと、前記フィル
タリングの適用結果に基づき前記内視鏡画像の位相情報
を検出するステップと、前記位相情報に基づく特徴量を
算出するステップとを備えたことを特徴とする内視鏡画
像処理方法。
(Additional Item 29) A step of inputting an endoscope image, a step of applying filtering for extracting a spatial frequency component to the endoscope image, and a step of applying the endoscope image based on a result of the filtering Detecting the phase information and calculating a feature amount based on the phase information.

【0250】(付記項30) 複数の色信号からなる内
視鏡画像を入力する内視鏡画像入力手段と、 前記内
視鏡画像入力手段に入力された内視鏡画像に対し領域を
設定する領域設定手段と、前記内視鏡画像の種別を判定
する内視鏡画像種別判定手段と、前記内視鏡画像の少な
くとも1つの色信号に基づく特徴量を算出する特徴量算
出手段とを備え、前記内視鏡画像種別判定手段の判定結
果に基づき前記特徴量算出手段が特徴量を算出する色信
号を変更することを特徴とする内視鏡画像処理装置。
(Additional Item 30) An endoscope image input means for inputting an endoscope image composed of a plurality of color signals, and a region is set for the endoscope image input to the endoscope image input means. Region setting means, endoscope image type determining means for determining the type of the endoscope image, and feature amount calculating means for calculating a feature amount based on at least one color signal of the endoscope image, An endoscope image processing apparatus characterized in that the feature amount calculating unit changes a color signal for calculating a feature amount based on a determination result of the endoscope image type determining unit.

【0251】(付記項31) 複数の色信号からなる内
視鏡画像を入力するステップと、前記内視鏡画像に対し
領域を設定するステップと、前記内視鏡画像の種別を判
定するステップと、前記内視鏡画像の少なくとも1つの
色信号に基づく特徴量を算出するステップとからなり、
前記内視鏡画像種別判定手段の判定結果に基づき前記特
徴量算出ステップにおいて特徴量を算出する色信号を変
更することを特徴とする内視鏡画像処理方法。
(Additional Item 31) A step of inputting an endoscopic image composed of a plurality of color signals, a step of setting an area for the endoscopic image, and a step of determining a type of the endoscopic image Calculating a feature amount based on at least one color signal of the endoscope image,
An endoscope image processing method, comprising: changing a color signal for calculating a feature amount in the feature amount calculation step based on a determination result of the endoscope image type determination unit.

【0252】付記項2,3,4,5,6,7,8,9,
1 0,11,12及び22の目的は内視鏡画像におい
て病変の粘膜表面構造が複数の異なる所見を呈する場
合,あるいは病変中に他の異なる腫瘍等が混在する場合
においても,各所見を示す部位ごとに関心領域を設定す
るとともに,どのような所見,あるいは所見に関連して
診断される腫瘍等が存在しているか,さらにはそれらが
どのような割合で混在しているかを知ることができる診
断支援装置を提供することにある。
Additional Items 2, 3, 4, 5, 6, 7, 8, 9,
The purpose of 10, 11, 12, and 22 is to show each finding even when the mucosal surface structure of the lesion presents multiple different findings in the endoscopic image, or when other different tumors are mixed in the lesion. In addition to setting a region of interest for each site, it is possible to know what findings or tumors, etc. that are diagnosed in relation to the findings, and what proportion they are mixed It is to provide a diagnosis support device.

【0253】付記項1 3,1 4,1 5,1 6,1
7,1 8,19, 30及び31の目的は特徴量算出に
おいてRGB画像のいずれを処理の対象とするかについ
て,薬剤散布の有無及び散布に使用した薬剤の種別に応
じて変更し,より高精度に客観的・数値的な診断を行う
ことにある。
Additional Items 1, 3, 1, 4, 1, 5, 1, 6, 1
The purpose of 7, 18, 19, 30, and 31 is to change which of the RGB images is to be processed in the feature value calculation according to the presence or absence of the medicine spraying and the type of the medicine used for the spraying. It is to perform objective and numerical diagnosis with high accuracy.

【0254】付記項20,22,23,24,25,2
6,27,28及び29の目的は内視鏡画像中の空間周
波数成分の特徴量化において,位相情報を考慮した特徴
量算出手法を適用することにより空間周波数成分の有す
るすべての情報を利用し,より高精度の客観的・数値的
な診断を行うことにある。
Additional Items 20, 22, 23, 24, 25, 2
The purpose of 6, 27, 28 and 29 is to use all the information having the spatial frequency component by applying the feature amount calculating method in consideration of the phase information in the feature amount of the spatial frequency component in the endoscope image, It is to perform objective and numerical diagnosis with higher accuracy.

【0255】[0255]

【発明の効果】以上説明したように本発明によれば、内
視鏡画像において病変の粘膜表面構造が複数の異なる所
見を呈する場合、あるいは病変中に他の異なる腫瘍等が
混在する場合においても、各所見を示す部位ごとに関心
領域を設定するとともに、どのような所見、あるいは所
見に関連して診断される腫瘍等が存在しているか、さら
にはそれらがどのような割合で混在しているかを知るこ
とができるという効果がある。
As described above, according to the present invention, even when the mucosal surface structure of the lesion shows a plurality of different findings in the endoscopic image, or when the tumor contains other different tumors in the lesion, In addition to setting a region of interest for each site showing each finding, what findings or tumors etc. that are diagnosed in relation to the findings are present, and what proportion they are mixed There is an effect that can be known.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態に係る内視鏡診断支
援装置の構成を示す構成図
FIG. 1 is a configuration diagram showing a configuration of an endoscope diagnosis support device according to a first embodiment of the present invention;

【図2】従来の内視鏡診断支援装置における診断支援処
理実行プログラムの構成を説明するための機能ブロック
FIG. 2 is a functional block diagram for explaining a configuration of a diagnosis support processing execution program in a conventional endoscope diagnosis support apparatus.

【図3】従来の内視鏡診断支援装置における診断支援処
理実行プログラムの動作を説明するためのフローチャー
FIG. 3 is a flowchart for explaining the operation of a diagnosis support processing execution program in a conventional endoscope diagnosis support apparatus.

【図4】従来の内視鏡診断支援装置におけるROI設定
を説明するためのROI設定ウィンドウ説明図
FIG. 4 is an explanatory view of an ROI setting window for explaining an ROI setting in a conventional endoscope diagnosis support apparatus.

【図5】従来の内視鏡診断支援装置における診断支援情
報の表示を説明するためのレポート表示ウィンドウ説明
FIG. 5 is an explanatory view of a report display window for explaining display of diagnosis support information in a conventional endoscope diagnosis support apparatus.

【図6】第1の実施の形態の内視鏡診断支援装置におけ
る診断支援処理実行プログラムの構成を説明するための
機能ブロック図
FIG. 6 is a functional block diagram for explaining a configuration of a diagnosis support processing execution program in the endoscope diagnosis support device according to the first embodiment;

【図7】第1の実施の形態の内視鏡診断支援装置におけ
る診断支援処理実行プログラムの動作を説明するための
フローチャート
FIG. 7 is a flowchart for explaining the operation of a diagnosis support processing execution program in the endoscope diagnosis support apparatus according to the first embodiment;

【図8】第1の実施の形態の内視鏡診断支援装置におけ
る仮ROI設定を説明するための仮ROI設定ウィンド
ウ説明図
FIG. 8 is a diagram illustrating a temporary ROI setting window for explaining a temporary ROI setting in the endoscope diagnosis support apparatus according to the first embodiment;

【図9】第1の実施の形態の領域分割処理の動作を説明
するためのフローチャート
FIG. 9 is a flowchart for explaining the operation of a region dividing process according to the first embodiment;

【図10】第1の実施の形態の領域分割処理を説明する
ための第1の説明図
FIG. 10 is a first explanatory diagram illustrating an area dividing process according to the first embodiment;

【図11】第1の実施の形態の領域分割処理を説明する
ための第2の説明図
FIG. 11 is a second explanatory diagram for explaining the area dividing process according to the first embodiment;

【図12】第1の実施の形態の内視鏡診断支援装置にお
ける診断支援情報の表示を説明するためのレポート表示
ウィンドウ説明図
FIG. 12 is an explanatory diagram of a report display window for explaining display of diagnosis support information in the endoscope diagnosis support device according to the first embodiment.

【図13】本発明の第2の実施の形態に係る本実施の形
態における診断支援処理実行プログラムの構成を説明す
るためのブロック図
FIG. 13 is a block diagram for explaining a configuration of a diagnosis support processing execution program according to the second embodiment of the present invention;

【図14】第2の実施の形態の診断支援実行プログラム
の動作を説明するためのフローチャート
FIG. 14 is a flowchart for explaining the operation of a diagnosis support execution program according to the second embodiment;

【図15】第2の実施の形態の診断支援情報の導出を説
明するためのフローチャート
FIG. 15 is a flowchart illustrating derivation of diagnosis support information according to the second embodiment;

【図16】第2の実施の形態の内視鏡診断支援装置にお
ける診断支援情報の表示を説明するためのレポート表示
ウィンドウ説明図
FIG. 16 is an explanatory diagram of a report display window for explaining display of diagnosis support information in the endoscope diagnosis support device according to the second embodiment.

【図17】本発明の第3の実施の形態に係る内視鏡診断
支援装置における診断支援情報の表示を説明するための
レポート表示ウィンドウ説明図
FIG. 17 is an explanatory view of a report display window for explaining display of diagnosis support information in the endoscope diagnosis support apparatus according to the third embodiment of the present invention.

【図18】本発明の第5の実施の形態に係る診断支援処
理実行プログラムの構成を説明するためのブロック図
FIG. 18 is a block diagram illustrating a configuration of a diagnostic support processing execution program according to a fifth embodiment of the present invention.

【図19】第5の実施の形態における診断支援処理実行
プログラムの動作を説明するためのフローチャート
FIG. 19 is a flowchart for explaining the operation of a diagnosis support processing execution program according to the fifth embodiment;

【図20】第5の実施の形態における通常画像及び染色
画像の判定処理について説明するための説明図
FIG. 20 is an explanatory diagram for describing a determination process of a normal image and a stained image according to the fifth embodiment.

【図21】本発明の第6の実施の形態に係る診断支援処
理実行プログラム250の動作を説明するための説明図
FIG. 21 is an explanatory diagram for explaining an operation of a diagnosis support processing execution program 250 according to the sixth embodiment of the present invention.

【図22】本発明の第7の実施の形態に係る診断支援処
理実行プログラムの動作を説明するためのフローチャー
FIG. 22 is a flowchart for explaining the operation of a diagnosis support processing execution program according to the seventh embodiment of the present invention;

【図23】染色画像に関する説明のための説明図FIG. 23 is an explanatory diagram for describing a stained image.

【符号の説明】[Explanation of symbols]

1…診断支援装置 2…ビデオプロセッサ 3、35…観察モニタ 4…入力ユニット 5…サーバユニット 6…カンファレンスユニット 11…A/Dコンバータ 12、32、50…画像処理部 13、21、31L…LANコントローラ 14、26、36…コントローラ 22…メモリ 23、47…ハードディスク 24…ハードディスクドライバ 25…圧縮装置 33…伸張装置 34…D/Aコンバータ 41…CPU 42…キーボード 43…キーボードI/F 44…検索モニタ 45…マウス 46…マウスI/F 48…ハードディスクI/F 49…作業メモリ 50…画像処理部 51…プリンタ 52…プリンタI/F 61…パスワード記憶部 62…パスワード監視部 63…制御制限部 80…診断支援処理実行プログラム 81…画像入力・管理ブロック 82…データベース管理ブロック 83…仮ROI設定ブロック 84…特徴量算出ブロック 85…ROI設定ブロック 86…判別分類ブロック 87…レポート作成ブロック 88…画像処理ブロック DESCRIPTION OF SYMBOLS 1 ... Diagnosis support apparatus 2 ... Video processor 3, 35 ... Observation monitor 4 ... Input unit 5 ... Server unit 6 ... Conference unit 11 ... A / D converter 12, 32, 50 ... Image processing part 13, 21, 31L ... LAN controller 14, 26, 36 Controller 22 Memory 23, 47 Hard disk 24 Hard disk driver 25 Compressor 33 Expander 34 D / A converter 41 CPU 42 Keyboard 43 Keyboard I / F 44 Search monitor 45 ... Mouse 46 ... Mouse I / F 48 ... Hard disk I / F 49 ... Work memory 50 ... Image processing unit 51 ... Printer 52 ... Printer I / F 61 ... Password storage unit 62 ... Password monitoring unit 63 ... Control restriction unit 80 ... Diagnosis Support processing execution program 81 ... Image input / Management block 82 ... Database management block 83 ... Temporary ROI setting block 84 ... Feature calculation block 85 ... ROI setting block 86 ... Distinction classification block 87 ... Report creation block 88 ... Image processing block

【手続補正書】[Procedure amendment]

【提出日】平成12年12月26日(2000.12.
26)
[Submission date] December 26, 2000 (200.12.
26)

【手続補正1】[Procedure amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0060[Correction target item name] 0060

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0060】画像入力・管理ブロック71は、診断支援
処理において使用する内視鏡画像の入力、管埋及び検索
等を行う。
The image input / management block 71 is a diagnostic support
The input, endoscopic and retrieval of an endoscope image used in the processing are performed.

【手続補正2】[Procedure amendment 2]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0240[Correction target item name] 0240

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0240】(付記項20) 前記特徴量算出手段が前
記内視鏡画像の空間周波数成分に基づく特徴量を算出す
ることを特徴とする付記項2,3,4,5,6,7,
8,9,10,11,12,13,14,15,16,
17,18または19に記載の内視鏡診断支援装置。
(Additional Item 20) The additional feature items 2, 3, 4, 5, 6, 7, and wherein the feature value calculating means calculates a feature value based on a spatial frequency component of the endoscope image.
8, 9, 10, 11, 12, 13, 14, 15, 16,
20. The endoscope diagnosis support device according to claim 17, 18, or 19.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 7/18 H04N 7/18 M K Fターム(参考) 2H040 BA00 GA01 GA02 GA10 GA11 4C061 CC06 HH51 LL01 WW08 YY13 5B057 AA07 BA11 CE02 CE09 CH08 DA03 DA12 DA16 DB02 DB06 DB09 DC04 DC25 DC36 5C054 CC07 EA01 EA05 FC12 FC15 FE09 HA12 5L096 AA02 AA06 BA06 CA04 EA05 EA35 FA32 FA33 FA59 GA40 GA55 JA11 JA22 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 7/18 H04N 7/18 M K F Term (Reference) 2H040 BA00 GA01 GA02 GA10 GA11 4C061 CC06 HH51 LL01 WW08 YY13 5B057 AA07 BA11 CE02 CE09 CH08 DA03 DA12 DA16 DB02 DB06 DB09 DC04 DC25 DC36 5C054 CC07 EA01 EA05 FC12 FC15 FE09 HA12 5L096 AA02 AA06 BA06 CA04 EA05 EA35 FA32 FA33 FA59 GA40 GA55 JA11 JA22

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 被検体を撮像した撮像信号に基づき特徴
量を算出する特徴量算出手段と、 前記特徴量算出手段から出力される前記撮像信号の各画
素に対応した複数の特徴量データに基づき前記撮像信号
が形成する画像の領域を抽出する画像領域抽出手段と、 前記画像領域抽出手段で抽出される画像領域に対応した
前記複数の特徴量データに基づき病変の判別分類を行う
判別分類手段と、 前記判別分類手段の判別分類結果を表示する表示手段と
を備えたことを特徴とする診断支援装置。
A feature value calculating unit configured to calculate a feature value based on an image signal obtained by capturing an image of an object; and a plurality of feature value data corresponding to each pixel of the image signal output from the feature value calculating unit. Image area extracting means for extracting an area of an image formed by the imaging signal; discriminating and classifying means for performing discrimination and classification of a lesion based on the plurality of feature data corresponding to the image area extracted by the image area extracting means. And a display unit for displaying a result of the determination and classification by the determination and classification unit.
【請求項2】 前記特徴量算出手段に前記撮像信号の初
期領域データを設定する初期領域設定手段を備えたこと
を特徴とする請求項1に記載の診断支援装置。
2. The diagnosis support apparatus according to claim 1, wherein said feature amount calculating means includes an initial area setting means for setting initial area data of said imaging signal.
【請求項3】 前記画像領域抽出手段が複数の画像領域
を抽出することを特徴とする請求項1または2に記載の
診断支援装置。
3. The diagnosis support apparatus according to claim 1, wherein said image area extracting means extracts a plurality of image areas.
【請求項4】 前記画像領域抽出手段が抽出した画像領
域の面積を算出する面積算出手段を備えたことを特徴と
する請求項1または2に記載の診断支援装置。
4. The diagnosis support apparatus according to claim 1, further comprising an area calculation unit that calculates an area of the image region extracted by the image region extraction unit.
【請求項5】 前記複数の画像領域の面積比を算出する
面積比算出手段を備えたことを特徴とする請求項3に記
載の診断支援装置。
5. The diagnosis support apparatus according to claim 3, further comprising an area ratio calculation unit that calculates an area ratio of the plurality of image regions.
【請求項6】 被検体を撮像した撮像信号に基づき特徴
量を算出する特徴量算出工程と、 前記特徴量算出手段から出力される前記撮像信号の各画
素に対応した複数の特徴量データに基づき前記撮像信号
が形成する画像の領域を抽出する画像領域抽出工程と、 前記画像領域抽出手段で抽出される画像領域に対応した
前記複数の特徴量データに基づき病変の判別分類を行う
判別分類工程と、 前記判別分類手段の判別分類結果を表示する表示工程と
を備えたことを特徴とする診断支援方法。
6. A feature amount calculating step of calculating a feature amount based on an imaging signal obtained by imaging an object, and based on a plurality of feature amount data corresponding to each pixel of the imaging signal output from the feature amount calculating means. An image area extraction step of extracting an area of an image formed by the imaging signal; a discrimination and classification step of discriminating and classifying a lesion based on the plurality of feature data corresponding to the image area extracted by the image area extraction unit; A display step of displaying a result of the discrimination / classification of the discrimination / classification means.
JP2000365855A 2000-11-30 2000-11-30 Diagnosis support device Expired - Fee Related JP4450973B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000365855A JP4450973B2 (en) 2000-11-30 2000-11-30 Diagnosis support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000365855A JP4450973B2 (en) 2000-11-30 2000-11-30 Diagnosis support device

Related Child Applications (3)

Application Number Title Priority Date Filing Date
JP2007069057A Division JP4451460B2 (en) 2007-03-16 2007-03-16 Endoscopic diagnosis support device
JP2007069056A Division JP2007236957A (en) 2007-03-16 2007-03-16 Endoscopic diagnosis support apparatus and endoscopic image processing method
JP2007069055A Division JP2007236956A (en) 2007-03-16 2007-03-16 Endoscopic diagnosis support apparatus and endoscopic image processing method

Publications (3)

Publication Number Publication Date
JP2002165757A true JP2002165757A (en) 2002-06-11
JP2002165757A5 JP2002165757A5 (en) 2007-05-10
JP4450973B2 JP4450973B2 (en) 2010-04-14

Family

ID=18836555

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000365855A Expired - Fee Related JP4450973B2 (en) 2000-11-30 2000-11-30 Diagnosis support device

Country Status (1)

Country Link
JP (1) JP4450973B2 (en)

Cited By (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004154176A (en) * 2002-11-01 2004-06-03 Olympus Corp Endoscope image pickup device
WO2004049923A1 (en) * 2002-12-05 2004-06-17 Olympus Corporation Image processing device and image processing method
JP2005192880A (en) * 2004-01-08 2005-07-21 Olympus Corp Method for image processing
JP2006138957A (en) * 2004-11-10 2006-06-01 Olympus Corp Image display device, method, and program
JP2006141734A (en) * 2004-11-19 2006-06-08 Olympus Corp Image processing apparatus, method and program
JP2006314504A (en) * 2005-05-12 2006-11-24 Pentax Corp Endoscope processor
WO2006129430A1 (en) * 2005-06-01 2006-12-07 Olympus Medical Systems Corp. Endoscope diagnosis supporting method, endoscope diagnosis supporting device, and endoscope diagnosis supporting program
WO2007119296A1 (en) 2006-04-17 2007-10-25 Olympus Medical Systems Corp. Endoscope insertion direction detecting device and endoscope insertion direction detecting method
JP2007326788A (en) * 2006-06-06 2007-12-20 Pentax Corp Tissue fluorescent-staining agent composition for endoscopic use
WO2008136098A1 (en) * 2007-04-24 2008-11-13 Olympus Medical Systems Corp. Medical image processing device and medical image processing method
WO2008152924A1 (en) * 2007-06-14 2008-12-18 Olympus Corporation Image processing apparatus, image processing program and image processing method
JP2009531105A (en) * 2006-03-31 2009-09-03 マウナ キア テクノロジーズ Fiber-based fluorescence microscopy based on methylene blue
JP2009247463A (en) * 2008-04-02 2009-10-29 Fujifilm Corp Image processor, image processing method and program
JP2010500141A (en) * 2006-08-16 2010-01-07 メビス・ブレストケア・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング・ウント・コムパニー・コマンディットゲゼルシャフト Method, apparatus, and computer program for displaying marks on a set of image data
JP2010158343A (en) * 2009-01-07 2010-07-22 Fujifilm Corp Optical stereoscopic structure analyzer, and stereoscopic structural data processing method thereof
JP2011136150A (en) * 2009-12-31 2011-07-14 National Yunlin Univ Of Science & Technology Method and system for endoscope navigation
JP2011232715A (en) * 2010-04-30 2011-11-17 Olympus Corp Image processing apparatus, image processing method, and image processing program
EP2397990A1 (en) 2010-05-14 2011-12-21 Olympus Corporation Image processing apparatus, image processing method, and image processing program
JP2012073179A (en) * 2010-09-29 2012-04-12 Dainippon Screen Mfg Co Ltd Pathological diagnosis support device, pathological diagnosis support method, control program for pathological diagnosis support and recording medium with control program recorded thereon
WO2013140667A1 (en) * 2012-03-21 2013-09-26 オリンパスメディカルシステムズ株式会社 Image processing device
WO2013187206A1 (en) 2012-06-12 2013-12-19 オリンパス株式会社 Image processing device, image processing method, and image processing program
JP2014038606A (en) * 2012-07-20 2014-02-27 Jfe Steel Corp Feature point extraction method for photographed image, and feature point extraction device
JP2014079317A (en) * 2012-10-15 2014-05-08 Toshiba Corp Image processing apparatus and program
WO2014084238A1 (en) * 2012-11-30 2014-06-05 富士フイルム株式会社 Medical inspection result display device, method for operating same, and program
WO2014084083A1 (en) 2012-11-29 2014-06-05 オリンパス株式会社 Image processing device, image processing method, and image processing program
CN104027062A (en) * 2013-03-06 2014-09-10 富士胶片株式会社 Image Processing Device And Method For Operating Endoscope System
WO2015037141A1 (en) 2013-09-13 2015-03-19 オリンパス株式会社 Image processing device, method, and program
WO2015118850A1 (en) * 2014-02-07 2015-08-13 国立大学法人広島大学 Endoscopic image diagnosis support system
JP2016067782A (en) * 2014-09-30 2016-05-09 富士フイルム株式会社 Processor device for endoscope, operation method of processor device for endoscope, control program for endoscope
JP2016154649A (en) * 2015-02-24 2016-09-01 富士フイルム株式会社 Endoscope system
CN106073691A (en) * 2015-04-28 2016-11-09 富士胶片株式会社 Light source device for endoscope and endoscopic system
WO2016185617A1 (en) * 2015-05-21 2016-11-24 オリンパス株式会社 Image processing device, image processing method, and image processing program
CN106466188A (en) * 2015-08-20 2017-03-01 通用电气公司 For the quantitative system and method for emission tomography imaging
CN106488735A (en) * 2014-07-09 2017-03-08 奥林巴斯株式会社 Image processing apparatus, image processing method and image processing program
JP2017510319A (en) * 2014-01-23 2017-04-13 スミス アンド ネフュー ピーエルシーSmith & Nephew Public Limited Company System and method for wound monitoring
WO2018225448A1 (en) * 2017-06-09 2018-12-13 智裕 多田 Disease diagnosis support method, diagnosis support system and diagnosis support program employing endoscopic image of digestive organ, and computer-readable recording medium having said diagnosis support program stored thereon
WO2019088121A1 (en) * 2017-10-30 2019-05-09 公益財団法人がん研究会 Image diagnosis assistance apparatus, data collection method, image diagnosis assistance method, and image diagnosis assistance program
US10288590B2 (en) 2013-10-08 2019-05-14 Smith & Nephew Plc PH indicator device and formulation
US10520446B2 (en) 2014-07-10 2019-12-31 Smith & Nephew Plc Polymer materials
US10653295B2 (en) 2015-09-29 2020-05-19 Fujifilm Corporation Image processing apparatus, endoscope system, and image processing method
CN111657858A (en) * 2019-03-07 2020-09-15 株式会社日立制作所 Image diagnosis apparatus, image processing method, and program
CN111680758A (en) * 2020-06-15 2020-09-18 杭州海康威视数字技术股份有限公司 Image training sample generation method and device
WO2020188682A1 (en) * 2019-03-18 2020-09-24 オリンパス株式会社 Diagnosis support device, diagnosis support method, and program
WO2020194785A1 (en) * 2019-03-28 2020-10-01 Hoya株式会社 Endoscope processor, information processing device, endoscope system, program, and information processing method
JP2021001917A (en) * 2019-06-19 2021-01-07 日亜化学工業株式会社 Image acquisition device and image processing method
WO2021246013A1 (en) * 2020-06-03 2021-12-09 株式会社日立ハイテク Diagnostic imaging method, diagnostic imaging assisting device, and computer system
WO2022029824A1 (en) * 2020-08-03 2022-02-10 オリンパス株式会社 Diagnosis support system, diagnosis support method, and diagnosis support program
US11471076B2 (en) 2016-01-14 2022-10-18 Smith & Nephew Plc Device and kit for indicating a pH at a locus
US11504033B2 (en) 2016-01-14 2022-11-22 Smith & Nephew Plc Polymer materials
WO2024024180A1 (en) * 2022-07-26 2024-02-01 株式会社Screenホールディングス Analysis assistance method, program, and analysis assistance device

Cited By (96)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004154176A (en) * 2002-11-01 2004-06-03 Olympus Corp Endoscope image pickup device
JP4583704B2 (en) * 2002-11-01 2010-11-17 オリンパス株式会社 Endoscopic imaging device
US7599533B2 (en) 2002-12-05 2009-10-06 Olympus Corporation Image processing system and image processing method
WO2004049923A1 (en) * 2002-12-05 2004-06-17 Olympus Corporation Image processing device and image processing method
JP2005192880A (en) * 2004-01-08 2005-07-21 Olympus Corp Method for image processing
JP4652694B2 (en) * 2004-01-08 2011-03-16 オリンパス株式会社 Image processing method
JP2006138957A (en) * 2004-11-10 2006-06-01 Olympus Corp Image display device, method, and program
JP2006141734A (en) * 2004-11-19 2006-06-08 Olympus Corp Image processing apparatus, method and program
JP2006314504A (en) * 2005-05-12 2006-11-24 Pentax Corp Endoscope processor
WO2006129430A1 (en) * 2005-06-01 2006-12-07 Olympus Medical Systems Corp. Endoscope diagnosis supporting method, endoscope diagnosis supporting device, and endoscope diagnosis supporting program
JP2006334115A (en) * 2005-06-01 2006-12-14 Olympus Medical Systems Corp Endoscopic diagnosis support method, endoscopic diagnosis support device, and endoscopic diagnosis support program
US8581973B2 (en) 2005-06-01 2013-11-12 Olympus Medical Systems Corp. Endoscopic diagnosis support method, endoscopic diagnosis support apparatus and endoscopic diagnosis support program
JP2009531105A (en) * 2006-03-31 2009-09-03 マウナ キア テクノロジーズ Fiber-based fluorescence microscopy based on methylene blue
US20090041320A1 (en) * 2006-04-17 2009-02-12 Olympus Medical Systems Corp. Endoscope insertion direction detecting device and endoscope insertion direction detecting method
WO2007119296A1 (en) 2006-04-17 2007-10-25 Olympus Medical Systems Corp. Endoscope insertion direction detecting device and endoscope insertion direction detecting method
US8285016B2 (en) 2006-04-17 2012-10-09 Olympus Medical System Corp. Endoscope insertion direction detecting device and endoscope insertion direction detecting method
JP2007326788A (en) * 2006-06-06 2007-12-20 Pentax Corp Tissue fluorescent-staining agent composition for endoscopic use
JP2010500141A (en) * 2006-08-16 2010-01-07 メビス・ブレストケア・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング・ウント・コムパニー・コマンディットゲゼルシャフト Method, apparatus, and computer program for displaying marks on a set of image data
WO2008136098A1 (en) * 2007-04-24 2008-11-13 Olympus Medical Systems Corp. Medical image processing device and medical image processing method
WO2008152924A1 (en) * 2007-06-14 2008-12-18 Olympus Corporation Image processing apparatus, image processing program and image processing method
JP2008307229A (en) * 2007-06-14 2008-12-25 Olympus Corp Image processing device and image processing program
US8989459B2 (en) 2007-06-14 2015-03-24 Olympus Corporation Image processing apparatus, image processing program product, and image processing method
JP2009247463A (en) * 2008-04-02 2009-10-29 Fujifilm Corp Image processor, image processing method and program
JP2010158343A (en) * 2009-01-07 2010-07-22 Fujifilm Corp Optical stereoscopic structure analyzer, and stereoscopic structural data processing method thereof
JP2011136150A (en) * 2009-12-31 2011-07-14 National Yunlin Univ Of Science & Technology Method and system for endoscope navigation
JP2011232715A (en) * 2010-04-30 2011-11-17 Olympus Corp Image processing apparatus, image processing method, and image processing program
US8811698B2 (en) 2010-04-30 2014-08-19 Olympus Corporation Image processing apparatus, image processing method, and computer-readable recording medium
EP2397990A1 (en) 2010-05-14 2011-12-21 Olympus Corporation Image processing apparatus, image processing method, and image processing program
US8457376B2 (en) 2010-05-14 2013-06-04 Olympus Corporation Image processing apparatus, image processing method, and computer-readable recording medium
JP2012073179A (en) * 2010-09-29 2012-04-12 Dainippon Screen Mfg Co Ltd Pathological diagnosis support device, pathological diagnosis support method, control program for pathological diagnosis support and recording medium with control program recorded thereon
WO2013140667A1 (en) * 2012-03-21 2013-09-26 オリンパスメディカルシステムズ株式会社 Image processing device
CN103747718A (en) * 2012-03-21 2014-04-23 奥林巴斯医疗株式会社 Image processing device
US8994801B2 (en) 2012-03-21 2015-03-31 Olympus Medical Systems Corp. Image processing apparatus
WO2013187206A1 (en) 2012-06-12 2013-12-19 オリンパス株式会社 Image processing device, image processing method, and image processing program
US9916666B2 (en) 2012-06-12 2018-03-13 Olympus Corporation Image processing apparatus for identifying whether or not microstructure in set examination region is abnormal, image processing method, and computer-readable recording device
JP2014038606A (en) * 2012-07-20 2014-02-27 Jfe Steel Corp Feature point extraction method for photographed image, and feature point extraction device
JP2014079317A (en) * 2012-10-15 2014-05-08 Toshiba Corp Image processing apparatus and program
WO2014084083A1 (en) 2012-11-29 2014-06-05 オリンパス株式会社 Image processing device, image processing method, and image processing program
EP2926716A4 (en) * 2012-11-29 2016-09-07 Olympus Corp Image processing device, image processing method, and image processing program
US9672610B2 (en) 2012-11-29 2017-06-06 Olympus Corporation Image processing apparatus, image processing method, and computer-readable recording medium
JP2014109835A (en) * 2012-11-30 2014-06-12 Fujifilm Corp Test result display device, operating method thereof, and control program
WO2014084238A1 (en) * 2012-11-30 2014-06-05 富士フイルム株式会社 Medical inspection result display device, method for operating same, and program
JP2014171505A (en) * 2013-03-06 2014-09-22 Fujifilm Corp Image processing device and method for operating endoscope system
CN104027062A (en) * 2013-03-06 2014-09-10 富士胶片株式会社 Image Processing Device And Method For Operating Endoscope System
US9595117B2 (en) 2013-03-06 2017-03-14 Fujifilm Corporation Image processing device and method for operating endoscope system
CN104027062B (en) * 2013-03-06 2017-02-22 富士胶片株式会社 Image Processing Device And Method For Operating Endoscope System
WO2015037141A1 (en) 2013-09-13 2015-03-19 オリンパス株式会社 Image processing device, method, and program
US10288590B2 (en) 2013-10-08 2019-05-14 Smith & Nephew Plc PH indicator device and formulation
JP2017510319A (en) * 2014-01-23 2017-04-13 スミス アンド ネフュー ピーエルシーSmith & Nephew Public Limited Company System and method for wound monitoring
JP2015146970A (en) * 2014-02-07 2015-08-20 国立大学法人広島大学 Endoscope image diagnosis support system
CN105979847A (en) * 2014-02-07 2016-09-28 国立大学法人广岛大学 Endoscopic image diagnosis support system
WO2015118850A1 (en) * 2014-02-07 2015-08-13 国立大学法人広島大学 Endoscopic image diagnosis support system
US10062161B2 (en) 2014-02-07 2018-08-28 Hiroshima University Endoscopic image diagnosis support system for computing average values of identification probabilities of pathological types
CN106488735A (en) * 2014-07-09 2017-03-08 奥林巴斯株式会社 Image processing apparatus, image processing method and image processing program
US10520446B2 (en) 2014-07-10 2019-12-31 Smith & Nephew Plc Polymer materials
US10782238B2 (en) 2014-07-10 2020-09-22 Smith & Nephew Plc Device including a polymeric material for detecting species and stimulus and method of using thereof
JP2016067782A (en) * 2014-09-30 2016-05-09 富士フイルム株式会社 Processor device for endoscope, operation method of processor device for endoscope, control program for endoscope
JP2016154649A (en) * 2015-02-24 2016-09-01 富士フイルム株式会社 Endoscope system
CN106073691A (en) * 2015-04-28 2016-11-09 富士胶片株式会社 Light source device for endoscope and endoscopic system
JP2016202774A (en) * 2015-04-28 2016-12-08 富士フイルム株式会社 Endoscope light source device and endoscope system
WO2016185617A1 (en) * 2015-05-21 2016-11-24 オリンパス株式会社 Image processing device, image processing method, and image processing program
CN107835654A (en) * 2015-05-21 2018-03-23 奥林巴斯株式会社 Image processing apparatus, image processing method and image processing program
US10456009B2 (en) 2015-05-21 2019-10-29 Olympus Corporation Image processing apparatus, image processing method, and computer-readable recording medium
JPWO2016185617A1 (en) * 2015-05-21 2018-03-08 オリンパス株式会社 Image processing apparatus, image processing method, and image processing program
CN106466188A (en) * 2015-08-20 2017-03-01 通用电气公司 For the quantitative system and method for emission tomography imaging
US10653295B2 (en) 2015-09-29 2020-05-19 Fujifilm Corporation Image processing apparatus, endoscope system, and image processing method
US11504033B2 (en) 2016-01-14 2022-11-22 Smith & Nephew Plc Polymer materials
US11471076B2 (en) 2016-01-14 2022-10-18 Smith & Nephew Plc Device and kit for indicating a pH at a locus
US11270433B2 (en) 2017-06-09 2022-03-08 Ai Medical Service Inc. Disease diagnosis support method employing endoscopic images of a digestive organ, a diagnosis support system, a diagnosis support program and a computer-readable recording medium having the diagnosis support program stored therein
CN111278348A (en) * 2017-06-09 2020-06-12 株式会社Ai医疗服务 Diagnosis support method, diagnosis support system, diagnosis support program, and computer-readable recording medium storing diagnosis support program for disease based on endoscopic image of digestive organ
JP7216376B2 (en) 2017-06-09 2023-02-01 株式会社Aiメディカルサービス Diagnosis support method, diagnosis support system, diagnosis support program, and computer-readable recording medium storing this diagnosis support program using endoscopic images of digestive organs
JP2021112593A (en) * 2017-06-09 2021-08-05 株式会社Aiメディカルサービス Lesion diagnosis support method based on endoscopic image of digestive organ, diagnosis support system, diagnosis support program, and computer-readable recording medium storing diagnosis support program
JPWO2018225448A1 (en) * 2017-06-09 2020-07-30 株式会社Aiメディカルサービス Diagnosis support method for diseases by endoscopic image of digestive organs, diagnosis support system, diagnosis support program, and computer-readable recording medium storing the diagnosis support program
WO2018225448A1 (en) * 2017-06-09 2018-12-13 智裕 多田 Disease diagnosis support method, diagnosis support system and diagnosis support program employing endoscopic image of digestive organ, and computer-readable recording medium having said diagnosis support program stored thereon
WO2019088121A1 (en) * 2017-10-30 2019-05-09 公益財団法人がん研究会 Image diagnosis assistance apparatus, data collection method, image diagnosis assistance method, and image diagnosis assistance program
JPWO2019088121A1 (en) * 2017-10-30 2019-11-14 公益財団法人がん研究会 Image diagnosis support apparatus, document collection method, image diagnosis support method, and image diagnosis support program
CN111655116A (en) * 2017-10-30 2020-09-11 公益财团法人癌研究会 Image diagnosis support device, data collection method, image diagnosis support method, and image diagnosis support program
US11633084B2 (en) 2017-10-30 2023-04-25 Japanese Foundation For Cancer Research Image diagnosis assistance apparatus, data collection method, image diagnosis assistance method, and image diagnosis assistance program
CN111657858A (en) * 2019-03-07 2020-09-15 株式会社日立制作所 Image diagnosis apparatus, image processing method, and program
JP7138771B2 (en) 2019-03-18 2022-09-16 オリンパス株式会社 Diagnosis support device, diagnosis support method and program
CN113613543A (en) * 2019-03-18 2021-11-05 奥林巴斯株式会社 Diagnosis support device, diagnosis support method, and program
JPWO2020188682A1 (en) * 2019-03-18 2021-11-25 オリンパス株式会社 Diagnostic support device, diagnostic support method and program
WO2020188682A1 (en) * 2019-03-18 2020-09-24 オリンパス株式会社 Diagnosis support device, diagnosis support method, and program
JPWO2020194785A1 (en) * 2019-03-28 2021-09-13 Hoya株式会社 Endoscope processor, information processing device, endoscope system, program and information processing method
CN112788978A (en) * 2019-03-28 2021-05-11 Hoya株式会社 Processor for endoscope, information processing device, endoscope system, program, and information processing method
WO2020194693A1 (en) * 2019-03-28 2020-10-01 Hoya株式会社 Endoscope processor, information processing device, endoscope system, program, and information processing method
WO2020194785A1 (en) * 2019-03-28 2020-10-01 Hoya株式会社 Endoscope processor, information processing device, endoscope system, program, and information processing method
US11869183B2 (en) 2019-03-28 2024-01-09 Hoya Corporation Endoscope processor, information processing device, and endoscope system
JP2021001917A (en) * 2019-06-19 2021-01-07 日亜化学工業株式会社 Image acquisition device and image processing method
JP7071650B2 (en) 2019-06-19 2022-05-19 日亜化学工業株式会社 Image acquisition device
US11593946B2 (en) 2019-06-19 2023-02-28 Nichia Corporation Image-capturing device and image processing method
WO2021246013A1 (en) * 2020-06-03 2021-12-09 株式会社日立ハイテク Diagnostic imaging method, diagnostic imaging assisting device, and computer system
CN111680758A (en) * 2020-06-15 2020-09-18 杭州海康威视数字技术股份有限公司 Image training sample generation method and device
CN111680758B (en) * 2020-06-15 2024-03-05 杭州海康威视数字技术股份有限公司 Image training sample generation method and device
WO2022029824A1 (en) * 2020-08-03 2022-02-10 オリンパス株式会社 Diagnosis support system, diagnosis support method, and diagnosis support program
WO2024024180A1 (en) * 2022-07-26 2024-02-01 株式会社Screenホールディングス Analysis assistance method, program, and analysis assistance device

Also Published As

Publication number Publication date
JP4450973B2 (en) 2010-04-14

Similar Documents

Publication Publication Date Title
JP4450973B2 (en) Diagnosis support device
JP4451460B2 (en) Endoscopic diagnosis support device
US11101033B2 (en) Medical image aided diagnosis method and system combining image recognition and report editing
US11562820B2 (en) Computer classification of biological tissue
US8090177B2 (en) Methods for detection and characterization of atypical vessels in cervical imagery
JP5113841B2 (en) Computer-aided analysis using video from an endoscope
US11937973B2 (en) Systems and media for automatically diagnosing thyroid nodules
Pang et al. Tongue image analysis for appendicitis diagnosis
US7260248B2 (en) Image processing using measures of similarity
JP4409166B2 (en) Image processing device
CN111899229A (en) Advanced gastric cancer auxiliary diagnosis method based on deep learning multi-model fusion technology
US20040264749A1 (en) Boundary finding in dermatological examination
JP3895400B2 (en) Diagnosis support device
CN115049666B (en) Endoscope virtual biopsy device based on color wavelet covariance depth map model
JP2000155840A (en) Image processing method
JP2007236956A (en) Endoscopic diagnosis support apparatus and endoscopic image processing method
US20240062904A1 (en) Tumor diagnosis system and construction method thereof, terminal device and storage medium
JP4804742B2 (en) Image processing apparatus and image processing program
JP2007236957A (en) Endoscopic diagnosis support apparatus and endoscopic image processing method
Ye et al. Segmentation and feature extraction of endoscopic images for making diagnosis of acute appendicitis
JP4699014B2 (en) Image display device, image display method, and image display program
CN116740203B (en) Safety storage method for fundus camera data
Salamh Investigation the effect of using gray level and rgb channels on brain tumor image
WO2010014068A1 (en) Methods for detection and characterization of atypical vessels in cervical imagery
US20240065540A1 (en) Apparatus and method for detecting cervical cancer

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070316

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100105

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100127

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140205

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees