JP2011255006A - Image processor, endoscopic device, program and image processing method - Google Patents

Image processor, endoscopic device, program and image processing method Download PDF

Info

Publication number
JP2011255006A
JP2011255006A JP2010132351A JP2010132351A JP2011255006A JP 2011255006 A JP2011255006 A JP 2011255006A JP 2010132351 A JP2010132351 A JP 2010132351A JP 2010132351 A JP2010132351 A JP 2010132351A JP 2011255006 A JP2011255006 A JP 2011255006A
Authority
JP
Japan
Prior art keywords
image
attention area
alert
unit
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010132351A
Other languages
Japanese (ja)
Inventor
Junpei Takahashi
順平 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2010132351A priority Critical patent/JP2011255006A/en
Publication of JP2011255006A publication Critical patent/JP2011255006A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image processor for preventing alert image from hindering diagnosis, treatment or the like, an endoscopic device, a program, an image processing method or the like.SOLUTION: The image processor includes: a white light image acquisition unit 320 and a special light image acquisition unit 330 which acquire an acquisition image that is at least one of a general light image and a specific light image; a target region detection unit 340 which detects a target region that is a region which should be observed based on the feature amount of pixels of the acquisition image; an alert image display setting unit 350 which determines, according to the detection result of the target region, whether to display an alert image corresponding to the target area; and a display mode control unit 360 which controls for displaying an alert image corresponding to a display object target region that is a target area for which it is determined that the alert image should be displayed.

Description

本発明は、画像処理装置、内視鏡装置、プログラム及び画像処理方法等に関する。   The present invention relates to an image processing apparatus, an endoscope apparatus, a program, an image processing method, and the like.

従来、体腔内の組織に対して回転フィルタを用いてRGBの3色の光を順次照射し、それらの反射光画像から白色光画像を取得し、その白色光画像を用いて診断を行う面順次式の内視鏡装置が広く使用されている。また、体腔内の組織に対してRGBの3色の光とは特性が異なる2種類の狭帯域光G2とB2を順次照射し、それらの反射光画像から狭帯域光画像を取得し、その狭帯域光画像を用いて診断を行う内視鏡装置が提案されている(例えば、特許文献1)。また、体腔内の組織に対して狭帯域の励起光を照射し、その励起光により体腔内の組織から自家蛍光や薬剤蛍光を生じさせて蛍光画像を取得し、その蛍光画像を用いて診断を行う内視鏡装置が提案されている(例えば、特許文献2)。   Conventionally, tissue in a body cavity is sequentially irradiated with light of three colors of RGB using a rotation filter, a white light image is acquired from the reflected light image, and diagnosis is performed using the white light image. Endoscopic endoscope devices are widely used. Further, the tissue in the body cavity is sequentially irradiated with two types of narrowband light G2 and B2 having different characteristics from the light of the three colors of RGB, and a narrowband light image is acquired from the reflected light image, and the narrowband light is obtained. An endoscope apparatus that performs diagnosis using a band light image has been proposed (for example, Patent Document 1). In addition, the tissue in the body cavity is irradiated with narrow-band excitation light, and the excitation light generates autofluorescence and drug fluorescence from the tissue in the body cavity to obtain a fluorescence image, and diagnosis is performed using the fluorescence image. An endoscope apparatus to be performed has been proposed (for example, Patent Document 2).

特開2006−68113号公報JP 2006-68113 A 特開2007−229053号公報JP 2007-229053 A

さて、上述の白色光画像を用いた診断では、腫瘍等の病変部が、正常部位よりも赤味が強い領域として描出されることが知られている。一方、上述の狭帯域光画像を用いた診断では、白色光画像では視認が困難な扁平上皮癌等の病変部が、正常部位とは異なる褐色の領域として描出されるため、その病変部の発見が容易になることが知られている。また、上述の蛍光画像を用いた診断では、腫瘍等の病変部に特異的に集積する性質を持つ蛍光薬剤を使用し、その病変部だけに蛍光を発生させることで、その病変部の発見が容易になる。   Now, in the diagnosis using the above-described white light image, it is known that a lesioned part such as a tumor is depicted as a region that is more reddish than a normal site. On the other hand, in the diagnosis using the narrow-band light image described above, a lesion such as squamous cell carcinoma that is difficult to visually recognize with a white light image is rendered as a brown region different from the normal site. Is known to be easier. In the diagnosis using the above-described fluorescence image, a fluorescent agent having a property of being specifically accumulated in a lesion such as a tumor is used, and fluorescence is generated only in the lesion so that the lesion can be found. It becomes easy.

しかしながら、これらの狭帯域光画像や蛍光画像(以下、特殊光画像と呼ぶ)は、白色光画像と比較して一般的に異なる色味を有する。また、特殊光画像は、帯域が狭いため光量が不足し、非常に暗い画像となってしまう。そのため、特殊光画像のみを用いて診断を行うことは難しい。   However, these narrow-band light images and fluorescent images (hereinafter referred to as special light images) generally have different colors compared to white light images. In addition, the special light image has a narrow band, so that the amount of light is insufficient and the image becomes very dark. Therefore, it is difficult to make a diagnosis using only the special light image.

そこで、医師の診断精度を向上するために、例えば白色光画像と特殊光画像を同時に取得して表示する手法が考えられる。しかしながら、この手法では、2つの画像を並べて同時に表示すると、医師が常時複数の画像に注目しながら診断を行うこととなり医師の負荷が高くなる。また、一時的に1つの画像のみに注目してしまうことで病変部を見逃すことも考えられる。   Therefore, in order to improve the diagnostic accuracy of the doctor, for example, a method of simultaneously acquiring and displaying a white light image and a special light image is conceivable. However, in this method, if two images are displayed side by side at the same time, the doctor always makes a diagnosis while paying attention to a plurality of images, and the burden on the doctor increases. It is also conceivable to miss a lesion by temporarily focusing on only one image.

この病変部の見逃しを抑止するために、例えば白色光画像のみを表示し、その白色光画像において病変部の可能性がある領域にアラート画像を表示して注意を促す手法が考えられる。しかしながら、この手法では、そのアラート画像が、病変部の診断や処置の妨げとなってしまう。   In order to suppress the oversight of the lesioned part, for example, only a white light image may be displayed, and an alert image may be displayed in an area where there is a possibility of a lesioned part in the white light image to call attention. However, in this method, the alert image interferes with the diagnosis and treatment of the lesion.

本発明の幾つかの態様によれば、アラート画像が診断や処置等の妨げとなることを抑止する画像処理装置、内視鏡装置、プログラム及び画像処理方法等を提供できる。   According to some aspects of the present invention, it is possible to provide an image processing device, an endoscope device, a program, an image processing method, and the like that prevent an alert image from interfering with diagnosis or treatment.

本発明の一態様は、白色の波長帯域における情報を有した被写体像を含む通常光画像と、前記通常光画像に対応する、特定の波長帯域における情報を有した被写体像を含む特殊光画像との少なくとも一方の画像である取得画像を取得する画像取得部と、前記取得画像の画素の特徴量に基づいて、注目すべき領域である注目領域を検出する注目領域検出部と、前記注目領域の検出結果に応じて、前記注目領域に対応するアラート画像を表示すべきか否かの判定を行う判定部と、前記判定部によりアラート画像を表示すべきと判定された注目領域である表示対象注目領域に対応するアラート画像を表示する制御を行う表示態様制御部と、を含む画像処理装置に関係する。   One aspect of the present invention is a normal light image including a subject image having information in a white wavelength band, and a special light image including a subject image having information in a specific wavelength band corresponding to the normal light image; An image acquisition unit that acquires an acquired image that is at least one of the image, a region of interest detection unit that detects a region of interest based on a feature amount of a pixel of the acquired image, and a region of the region of interest A determination unit that determines whether or not to display an alert image corresponding to the attention region according to a detection result, and a display target attention region that is the attention region that is determined to be displayed by the determination unit. A display mode control unit that performs control to display an alert image corresponding to the image processing apparatus.

本発明の一態様によれば、通常光画像と特殊光画像の少なくとも一方の画像である取得画像が取得され、取得画像から注目領域が検出される。そして、検出された注目領域に対応するアラート画像を表示すべきか否かの判定が行われ、アラート画像を表示すべきと判定された注目領域に対応するアラート画像を表示する制御が行われる。これにより、アラート画像が診断や処置の妨げとなることの抑止等が可能になる。   According to one aspect of the present invention, an acquired image that is at least one of a normal light image and a special light image is acquired, and a region of interest is detected from the acquired image. Then, it is determined whether or not the alert image corresponding to the detected attention area should be displayed, and control is performed to display the alert image corresponding to the attention area determined to display the alert image. This makes it possible to prevent the alert image from interfering with diagnosis and treatment.

また、本発明の他の態様は、上記に記載の画像処理装置を含む内視鏡装置に関係する。   Another aspect of the present invention relates to an endoscope apparatus including the image processing apparatus described above.

また、本発明のさらに他の態様は、白色の波長帯域における情報を有した被写体像を含む通常光画像と、前記通常光画像に対応する、特定の波長帯域における情報を有した被写体像を含む特殊光画像との少なくとも一方の画像である取得画像を取得する画像取得部と、前記取得画像の画素の特徴量に基づいて、注目すべき領域である注目領域を検出する注目領域検出部と、前記注目領域の検出結果に応じて、前記注目領域に対応するアラート画像を表示すべきか否かの判定を行う判定部と、前記判定部によりアラート画像を表示すべきと判定された注目領域である表示対象注目領域に対応するアラート画像を表示する制御を行う表示態様制御部として、コンピュータを機能させるプログラムに関係する。   Still another aspect of the present invention includes a normal light image including a subject image having information in a white wavelength band, and a subject image having information in a specific wavelength band corresponding to the normal light image. An image acquisition unit that acquires an acquired image that is at least one of the special light image, an attention region detection unit that detects an attention region that is a region of interest based on the feature amount of a pixel of the acquired image, and A determination unit that determines whether or not to display an alert image corresponding to the attention region according to a detection result of the attention region; and an attention region that is determined by the determination unit to display an alert image The present invention relates to a program that causes a computer to function as a display mode control unit that performs control to display an alert image corresponding to a display target attention area.

また、本発明のさらに他の態様は、白色の波長帯域における情報を有した被写体像を含む通常光画像と、前記通常光画像に対応する、特定の波長帯域における情報を有した被写体像を含む特殊光画像との少なくとも一方の画像である取得画像を取得し、前記取得画像の画素の特徴量に基づいて、注目すべき領域である注目領域を検出し、前記注目領域の検出結果に応じて、前記注目領域に対応するアラート画像を表示すべきか否かの判定を行い、前記判定部によりアラート画像を表示すべきと判定された注目領域である表示対象注目領域に対応するアラート画像を表示する制御を行う画像処理方法に関係する。   Still another aspect of the present invention includes a normal light image including a subject image having information in a white wavelength band, and a subject image having information in a specific wavelength band corresponding to the normal light image. Acquire an acquired image that is at least one of the special light image, detect an attention area that is an attention area based on a feature amount of a pixel of the acquired image, and according to a detection result of the attention area Determining whether or not to display an alert image corresponding to the attention area, and displaying an alert image corresponding to the display target attention area that is the attention area determined to be displayed by the determination unit. The present invention relates to an image processing method for performing control.

図1(A)、図1(B)は、本実施形態の手法の概要についての説明図。FIG. 1A and FIG. 1B are explanatory diagrams about the outline of the method of this embodiment. 本実施形態の手法の概要についての説明図。Explanatory drawing about the outline | summary of the method of this embodiment. 内視鏡装置の第1の構成例。1 is a first configuration example of an endoscope apparatus. 白色光画像を撮影するための色フィルタの分光特性例。An example of spectral characteristics of a color filter for photographing a white light image. 特殊光画像を撮影するための色フィルタの構成例。6 is a configuration example of a color filter for capturing a special light image. 特殊光画像を撮影するための色フィルタの分光特性例。An example of spectral characteristics of a color filter for photographing a special light image. 画像処理装置が行う処理の概要についての説明図。Explanatory drawing about the outline | summary of the process which an image processing apparatus performs. 白色光画像取得部の詳細な構成例。The detailed structural example of a white light image acquisition part. 特殊光画像取得部の詳細な構成例。The detailed structural example of a special light image acquisition part. 狭帯域光画像を生成する手法についての説明図。Explanatory drawing about the method of producing | generating a narrow-band optical image. 注目領域検出部の詳細な構成例。3 shows a detailed configuration example of an attention area detection unit. 局所領域についての説明図。Explanatory drawing about a local area | region. タグ情報を付与する処理についての説明図。Explanatory drawing about the process which provides tag information. アラート画像表示設定部の詳細な構成例。The detailed structural example of an alert image display setting part. 表示態様制御部の詳細な構成例。The detailed structural example of a display mode control part. 表示可否判定部の詳細な構成例。The detailed structural example of a display availability determination part. 図17(A)、図17(B)は、領域サイズ判定部が行う処理についての説明図。FIGS. 17A and 17B are explanatory diagrams of processing performed by the region size determination unit. 図18(A)、図18(B)は、領域サイズ判定部が行う処理についての説明図。18A and 18B are explanatory diagrams of processing performed by the region size determination unit. 病変部を遠景撮影した場合の画像例。An example of an image when a distant part is photographed from a distant view. 病変部を近景撮影した場合の画像例。An example of an image when a close-up image of a lesion is taken. 注目領域群の検出経過時間を算出する手法についての説明図。Explanatory drawing about the method of calculating the detection elapsed time of an attention area group. 画像処理の処理手順を表すフローチャート例。The flowchart example showing the process sequence of an image process. 表示態様変更処理の処理手順を表すフローチャート例。The flowchart example showing the process sequence of a display mode change process. 内視鏡装置の第2の構成例。The 2nd structural example of an endoscope apparatus. 注目領域検出部の詳細な構成例。3 shows a detailed configuration example of an attention area detection unit. 画像処理の処理手順を表すフローチャート例。The flowchart example showing the process sequence of an image process. 内視鏡装置の第3の構成例。The 3rd structural example of an endoscope apparatus. 画像処理装置が行う処理の概要についての説明図。Explanatory drawing about the outline | summary of the process which an image processing apparatus performs. 注目領域制御部の詳細な構成例。3 is a detailed configuration example of an attention area control unit. 表示態様制御部の詳細な構成例。The detailed structural example of a display mode control part. 画像処理の処理手順を表すフローチャート例。The flowchart example showing the process sequence of an image process. 注目領域制御処理の処理手順を表すフローチャート例。The flowchart example showing the process sequence of attention area control processing. 内視鏡装置の第4の構成例。The 4th structural example of an endoscope apparatus. 画像処理の処理手順を表すフローチャート例。The flowchart example showing the process sequence of an image process. コンピュータシステムの構成を示すシステム構成図。The system block diagram which shows the structure of a computer system. コンピュータシステムにおける本体部の構成を示すブロック図。The block diagram which shows the structure of the main-body part in a computer system.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.本実施形態の手法
図1(A)〜図2を用いて、本実施形態の手法の概要について説明する。
図1(A)に示すように、医師が内視鏡を用いて患者を診察する場合、まず医師は画像を見ながら診察対象の体腔内に異常な部位が無いかをチェックしていく。このとき、一般的には画像の色味や血管構造等から、病変部(広義には、注目領域)であるか否かが診断される。しかしながら、この視認による診断では、視認性の低い病変部を見落とす可能性がある。そのため、本実施形態では、E1に示すように病変部の可能性がある領域がある場合に、後述する特殊光画像を用いてその領域を検出する。そして、E2に示すように、その領域にアラート画像を表示することで、医師の見落としを抑止し、医師の負担を低減する。
1. Method according to this embodiment An overview of the method according to this embodiment will be described with reference to FIGS.
As shown in FIG. 1A, when a doctor examines a patient using an endoscope, the doctor first checks whether there is an abnormal part in the body cavity to be examined while viewing the image. At this time, it is generally diagnosed from the color of the image, the blood vessel structure, and the like whether or not the lesion is a lesion (region of interest in a broad sense). However, in this visual diagnosis, there is a possibility of overlooking a lesion with low visibility. Therefore, in the present embodiment, when there is a region having a possibility of a lesion as indicated by E1, the region is detected using a special light image described later. And as shown to E2, an alert image is displayed on the area | region, a doctor's oversight is suppressed and a doctor's burden is reduced.

次に、図1(B)に示すように、病変部と疑われる領域が見つかると、その領域に内視鏡を近づけ、拡大観察して診断や処置を行う。例えば、F1に示す病変部が診断や処置の対象である場合に、F2に示すように、その病変部にアラート画像が表示される。しかしながら、このようにアラート画像が表示されていると、病変部を直接に観察できないため診断や処置が妨げられてしまう。例えば、この課題を解決する手法として、診断や処置を行う際にアラート画像を全て非表示にする手法が考えられる。しかしながら、アラート画像を全て非表示にすると、例えばF3に示すように、小さい病変部を見落として診断や処置が完全に行われない可能性がある。   Next, as shown in FIG. 1B, when a region suspected of being a lesion is found, an endoscope is brought close to the region, and an enlarged observation is performed for diagnosis and treatment. For example, when the lesioned part indicated by F1 is an object of diagnosis or treatment, an alert image is displayed on the lesioned part as indicated by F2. However, when the alert image is displayed in this way, the lesioned part cannot be observed directly, which hinders diagnosis and treatment. For example, as a technique for solving this problem, a technique for hiding all alert images when performing diagnosis or treatment can be considered. However, if all the alert images are not displayed, there is a possibility that the diagnosis and treatment may not be performed completely by overlooking a small lesion as shown in F3, for example.

そこで、本実施形態では、図2のG1に示すように、例えば所定の閾値よりもサイズが大きい病変部にはアラート画像を表示せず、診断や処置の対象となる病変部を観察しやすくする。一方、G2に示すように、例えば所定の閾値よりもサイズが小さい病変部にはアラート画像を表示し、小さい病変の見落としを抑止する。   Therefore, in the present embodiment, as indicated by G1 in FIG. 2, for example, an alert image is not displayed on a lesion having a size larger than a predetermined threshold value, and it is easy to observe a lesion that is a target of diagnosis or treatment. . On the other hand, as shown in G2, for example, an alert image is displayed in a lesion part having a size smaller than a predetermined threshold value, and an oversight of a small lesion is suppressed.

2.第1の構成例
図3に、病変部のサイズに応じてアラート画像の表示・非表示を制御する内視鏡装置の第1の構成例を示す。この内視鏡装置(内視鏡システム)は、光源部100、撮像部200、制御装置300(制御部)、表示部400(表示装置)、外部I/F部500を含む。
2. First Configuration Example FIG. 3 shows a first configuration example of an endoscope apparatus that controls display / non-display of an alert image according to the size of a lesioned part. The endoscope apparatus (endoscope system) includes a light source unit 100, an imaging unit 200, a control device 300 (control unit), a display unit 400 (display device), and an external I / F unit 500.

光源部100は、体腔内の被写体に照射するための照明光を発生する。具体的には、光源部100は、白色光を発生する白色光源110と、その白色光をライトガイドファイバ210に集光する集光レンズ120を含む。   The light source unit 100 generates illumination light for irradiating a subject in the body cavity. Specifically, the light source unit 100 includes a white light source 110 that generates white light and a condenser lens 120 that condenses the white light on the light guide fiber 210.

撮像部200は、体腔内の被写体を撮像するための挿入部である。例えば、撮像部200は、体腔への挿入を可能にするため、細長くかつ湾曲可能に形成されている。具体的には、撮像部200は、ライトガイドファイバ210、照明レンズ220、対物レンズ230、ハーフミラー240、第1撮像素子250、第2撮像素子260を含む。   The imaging unit 200 is an insertion unit for imaging a subject in a body cavity. For example, the imaging unit 200 is formed to be elongated and bendable in order to enable insertion into a body cavity. Specifically, the imaging unit 200 includes a light guide fiber 210, an illumination lens 220, an objective lens 230, a half mirror 240, a first imaging element 250, and a second imaging element 260.

ライトガイドファイバ210は、光源部100により集光された光を被写体に導く。照明レンズ220は、ライトガイドファイバ210により撮像部200の先端まで導かれてきた光を拡散させて被写体に照射する。対物レンズ230は、被写体から戻る反射光を集光する。ハーフミラー240は、その集光された反射光を2つに分離する。第1撮像素子250は、その分離された反射光の一方により被写体を撮像する。第2撮像素子260は、分離された反射光の他方により被写体を撮像する。   The light guide fiber 210 guides the light collected by the light source unit 100 to the subject. The illumination lens 220 diffuses the light guided to the tip of the imaging unit 200 by the light guide fiber 210 and irradiates the subject. The objective lens 230 condenses the reflected light returning from the subject. The half mirror 240 separates the collected reflected light into two. The first image sensor 250 images the subject with one of the separated reflected lights. The second imaging element 260 images the subject with the other of the separated reflected light.

より具体的には、第1撮像素子250は、白色光画像(通常光画像)を撮影するためのベイヤ(Bayer)配列の色フィルタを持つ撮像素子である。例えば図4に示すように、第1撮像素子250の色フィルタr,g,bは、それぞれ赤色、緑色、青色の波長帯域を透過する分光特性を有する。図5に示すように、第2撮像素子260は、例えば2種類の色フィルタg2,b2が市松状に配置された撮像素子である。図6に示すように、色フィルタb2は、例えば390〜445nm(nm:ナノメートル)の波長帯域の光を透過する分光特性を有し、色フィルタg2は、530〜550nmの波長帯域の光を透過する分光特性を持つ。例えば、第1撮像素子250と第2撮像素子260の画素数は同一である。   More specifically, the first image sensor 250 is an image sensor having a Bayer array color filter for capturing a white light image (normal light image). For example, as shown in FIG. 4, the color filters r, g, and b of the first image sensor 250 have spectral characteristics that transmit red, green, and blue wavelength bands, respectively. As shown in FIG. 5, the second image sensor 260 is an image sensor in which, for example, two types of color filters g2 and b2 are arranged in a checkered pattern. As shown in FIG. 6, the color filter b2 has a spectral characteristic that transmits light in a wavelength band of, for example, 390 to 445 nm (nm: nanometer), and the color filter g2 transmits light in a wavelength band of 530 to 550 nm. It has spectral characteristics to transmit. For example, the first imaging element 250 and the second imaging element 260 have the same number of pixels.

制御装置300は、内視鏡装置の各構成要素を制御したり、撮像された画像の画像処理を行う。この制御装置300は、第1のA/D変換部310、第2のA/D変換部311、画像処理装置301(画像処理部)、制御部370を含む。   The control device 300 controls each component of the endoscope device and performs image processing on the captured image. The control device 300 includes a first A / D conversion unit 310, a second A / D conversion unit 311, an image processing device 301 (image processing unit), and a control unit 370.

画像処理装置301は、注目領域(例えば病変部)を検出したり、アラート画像の表示可否を判定したり、表示画像の表示制御を行う。この画像処理装置301は、白色光画像取得部320(第1の画像取得部)、特殊光画像取得部330(第2の画像取得部)、注目領域検出部340、アラート画像表示設定部350(アラート画像生成部)、表示態様制御部360を含む。   The image processing apparatus 301 detects a region of interest (for example, a lesion), determines whether an alert image can be displayed, and performs display control of the display image. The image processing apparatus 301 includes a white light image acquisition unit 320 (first image acquisition unit), a special light image acquisition unit 330 (second image acquisition unit), an attention area detection unit 340, and an alert image display setting unit 350 ( Alert image generation unit) and display mode control unit 360.

制御部370は、白色光画像取得部320、特殊光画像取得部330、注目領域検出部340、アラート画像表示設定部350、表示態様制御部360に接続され、これらの構成要素の制御を行う。   The control unit 370 is connected to the white light image acquisition unit 320, the special light image acquisition unit 330, the attention area detection unit 340, the alert image display setting unit 350, and the display mode control unit 360, and controls these components.

外部I/F部500は、内視鏡装置に対するユーザからの入力等を行うためのインターフェース部である。例えば、外部I/F部500は、電源のオン/オフを行うための電源スイッチ、撮影操作を開始するためのシャッタボタン、撮影モードやその他各種のモードを切り換えるためのモード切換ボタン等を含む。また、外部I/F部500は、入力された情報を制御部370へ出力する。   The external I / F unit 500 is an interface unit for performing input from the user to the endoscope apparatus. For example, the external I / F unit 500 includes a power switch for turning on / off the power, a shutter button for starting a photographing operation, a mode switching button for switching a photographing mode and various other modes. Further, the external I / F unit 500 outputs the input information to the control unit 370.

A/D変換部310は、第1撮像素子250から出力されるアナログ画像信号をデジタル画像信号に変換し、そのデジタル画像信号を白色光画像取得部320に出力する。A/D変換部311は、第2撮像素子260から出力されるアナログ画像信号をデジタル画像信号に変換し、そのデジタル画像信号を特殊光画像取得部330に出力する。   The A / D conversion unit 310 converts the analog image signal output from the first image sensor 250 into a digital image signal, and outputs the digital image signal to the white light image acquisition unit 320. The A / D conversion unit 311 converts the analog image signal output from the second image sensor 260 into a digital image signal, and outputs the digital image signal to the special light image acquisition unit 330.

白色光画像取得部320(通常光画像取得部)は、A/D変換部310からのデジタル画像信号に基づいて白色光画像を取得し、その取得した白色光画像をアラート画像表示設定部350と表示態様制御部360に出力する。特殊光画像取得部330は、A/D変換部311からのデジタル画像信号に基づいて特殊光画像を取得し、その取得した特殊光画像を注目領域検出部340に出力する。なお、白色光画像取得部320と特殊光画像取得部330の詳細は後述する。   The white light image acquisition unit 320 (ordinary light image acquisition unit) acquires a white light image based on the digital image signal from the A / D conversion unit 310, and uses the acquired white light image as an alert image display setting unit 350. The data is output to the display mode control unit 360. The special light image acquisition unit 330 acquires a special light image based on the digital image signal from the A / D conversion unit 311, and outputs the acquired special light image to the attention area detection unit 340. Details of the white light image acquisition unit 320 and the special light image acquisition unit 330 will be described later.

注目領域検出部340は、特殊光画像取得部330から出力される特殊光画像に基づいて注目領域を検出する。そして、注目領域検出部340は、検出した注目領域の情報(例えば、領域の座標等)をアラート画像表示設定部350と表示態様制御部360に出力する。   The attention area detection unit 340 detects the attention area based on the special light image output from the special light image acquisition unit 330. Then, the attention area detection unit 340 outputs information on the detected attention area (for example, the coordinates of the area) to the alert image display setting unit 350 and the display mode control unit 360.

アラート画像表示設定部350は、注目領域検出部340により検出された注目領域に対応するアラート画像を作成する。具体的には、アラート画像表示設定部350は、特殊光画像上の注目領域に対応する白色光画像上の領域に対して強調処理を行う。例えば、アラート画像表示設定部350は、その領域の全ての画素に対して強調処理を施してアラート画像を作成する。このアラート画像は、各注目領域(または各注目領域群)に対応して作成され、注目領域が複数検出された場合にはアラート画像も複数作成される。そして、アラート画像表示設定部350は、作成したアラート画像を表示態様制御部360に出力する。   The alert image display setting unit 350 creates an alert image corresponding to the attention area detected by the attention area detection unit 340. Specifically, the alert image display setting unit 350 performs enhancement processing on an area on the white light image corresponding to the attention area on the special light image. For example, the alert image display setting unit 350 creates an alert image by performing enhancement processing on all the pixels in the region. This alert image is created corresponding to each attention area (or each attention area group), and when a plurality of attention areas are detected, a plurality of alert images are also created. Then, the alert image display setting unit 350 outputs the created alert image to the display mode control unit 360.

表示態様制御部360は、注目領域の表示態様を制御する。具体的には、表示態様制御部360は、まず注目領域検出部340から出力される注目領域の情報に応じて、アラート画像の表示可否を判定する処理を行う。そして、表示態様制御部360は、その判定処理の結果、表示すべきと判定されたアラート画像のみを白色光画像に重畳し、その白色光画像を表示部400に出力する。なお、アラート画像表示設定部350と表示態様制御部360の詳細は後述する。   The display mode control unit 360 controls the display mode of the attention area. Specifically, the display mode control unit 360 first performs processing for determining whether or not an alert image can be displayed according to the information on the attention region output from the attention region detection unit 340. Then, the display mode control unit 360 superimposes only the alert image determined to be displayed as a result of the determination process on the white light image, and outputs the white light image to the display unit 400. Details of the alert image display setting unit 350 and the display mode control unit 360 will be described later.

3.第1の構成例における画像処理
3.1.画像処理の概要
次に、上記構成例が行う画像処理の詳細について説明する。
まず図7を用いて、画像処理装置301が行う処理の概要について説明する。図7のH1に示すように、まず特殊光画像と白色光画像が取得される。次に、H2に示すように、特殊光画像の中から病変部等の注目領域(図7では楕円で表す)が検出される。このとき、注目領域を区別するためのタグ(図7では数字で表す)が、各注目領域に付与される。次に、H3に示すように、各注目領域に対応するアラート画像(図7では網掛けの四角で表す)が白色光画像に基づいて生成される。次に、H4に示すように、注目領域のサイズ等に応じてアラート画像の表示可否が判定される。例えば、タグ“1”の注目領域のアラート画像は非表示と判定され、タグ“2”の注目領域のアラート画像は表示と判定される。そして、H5に示すように、表示と判定された注目領域のアラート画像が白色光画像に重畳されて表示される。
3. Image processing in first configuration example 3.1. Outline of Image Processing Next, details of the image processing performed by the above configuration example will be described.
First, an outline of processing performed by the image processing apparatus 301 will be described with reference to FIG. As shown in H1 of FIG. 7, first, a special light image and a white light image are acquired. Next, as shown in H2, a region of interest (represented by an ellipse in FIG. 7) such as a lesion is detected from the special light image. At this time, a tag (represented by a number in FIG. 7) for distinguishing the attention area is assigned to each attention area. Next, as indicated by H3, an alert image (represented by a shaded square in FIG. 7) corresponding to each region of interest is generated based on the white light image. Next, as shown in H4, whether or not the alert image can be displayed is determined according to the size of the attention area and the like. For example, the alert image of the attention area of the tag “1” is determined not to be displayed, and the alert image of the attention area of the tag “2” is determined to be displayed. Then, as shown in H5, the alert image of the attention area determined to be displayed is superimposed on the white light image and displayed.

3.2.白色光画像取得部、特殊光画像取得部
次に、各構成要素の詳細な構成例とその動作について説明する。図8に、白色光画像取得部320の詳細な構成例を示す。この白色光画像取得部320は、白色光画像生成部321(通常光画像生成部)、白色光画像記憶部322(通常光画像記憶部)を含む。白色光画像生成部321は、A/D変換部310から出力されるデジタル画像信号に対して画像処理を行い、白色光画像を生成する。具体的には、白色光画像生成部321は、既知の補間処理やホワイトバランス処理、色変換処理、階調変換処理等を行い、白色光画像を生成して出力する。例えば、白色光画像は、3原色の画素値から構成されたRGB画像である。白色光画像記憶部322は、白色光画像生成部321から出力された白色光画像を記億する。
3.2. White Light Image Acquisition Unit, Special Light Image Acquisition Unit Next, a detailed configuration example and operation of each component will be described. FIG. 8 shows a detailed configuration example of the white light image acquisition unit 320. The white light image acquisition unit 320 includes a white light image generation unit 321 (normal light image generation unit) and a white light image storage unit 322 (normal light image storage unit). The white light image generation unit 321 performs image processing on the digital image signal output from the A / D conversion unit 310 to generate a white light image. Specifically, the white light image generation unit 321 performs known interpolation processing, white balance processing, color conversion processing, gradation conversion processing, and the like, and generates and outputs a white light image. For example, the white light image is an RGB image composed of pixel values of three primary colors. The white light image storage unit 322 stores the white light image output from the white light image generation unit 321.

図9に、特殊光画像取得部330の詳細な構成例を示す。この特殊光画像取得部330は、特殊光画像生成部331、特殊光画像記憶部332を含む。特殊光画像生成部331は、A/D変換部311から出力されるデジタル画像信号に対して画像処理を行い、特殊光画像を生成する。例えば、特殊光画像は上述の狭帯域光画像である。この狭帯域光画像は、後述のように、G2とB2の画素値から構成されたRGB画像である。そして、特殊光画像生成部331は、生成した狭帯域光画像を特殊光画像記憶部332に出力する。特殊光画像記憶部332は、特殊光画像生成部331から出力された狭帯域光画像を記憶する。   FIG. 9 shows a detailed configuration example of the special light image acquisition unit 330. The special light image acquisition unit 330 includes a special light image generation unit 331 and a special light image storage unit 332. The special light image generation unit 331 performs image processing on the digital image signal output from the A / D conversion unit 311 to generate a special light image. For example, the special light image is the above-described narrowband light image. As will be described later, this narrow-band light image is an RGB image composed of G2 and B2 pixel values. Then, the special light image generation unit 331 outputs the generated narrowband light image to the special light image storage unit 332. The special light image storage unit 332 stores the narrowband light image output from the special light image generation unit 331.

図10を用いて、特殊光画像生成部331が狭帯域光画像を生成する手法について説明する。図3で上述のように、第2撮像素子260は、2種類の色フィルタg2,b2が市松状に配置された撮像素子である。そのため、図10に示すように、特殊光画像生成部331には、市松状のデジタル画像信号が入力される。ここで、G2(x,y)はg2フィルタの信号値を表し、B2(x,y)はb2フィルタの信号値を表すものとする。また、x,yは画素の座標である。   A method in which the special light image generation unit 331 generates a narrowband light image will be described with reference to FIG. As described above in FIG. 3, the second image sensor 260 is an image sensor in which two types of color filters g2 and b2 are arranged in a checkered pattern. Therefore, as shown in FIG. 10, a checkered digital image signal is input to the special light image generation unit 331. Here, G2 (x, y) represents the signal value of the g2 filter, and B2 (x, y) represents the signal value of the b2 filter. X and y are the coordinates of the pixel.

まず、特殊光画像生成部331は、このような画像信号に対して補間処理を行い、全画素に対して、g2フィルタの信号値を持つG2画像と、全画素でb2フィルタの信号値を持つB2画像を生成する。この補間処理で算出される信号値は、例えば周辺4画素の信号値の平均値により求められる。例えば、図10に示すG2(1,1)の位置でのb2フィルタの信号値B2(1,1)、及びB2(1,2)位置でのg2フィルタの信号値G2(1,2)は、下式(1)、(2)により算出される。   First, the special light image generation unit 331 performs an interpolation process on such an image signal, and a G2 image having a g2 filter signal value for all pixels and a b2 filter signal value for all pixels. A B2 image is generated. The signal value calculated by this interpolation processing is obtained, for example, from the average value of the signal values of the surrounding four pixels. For example, the signal value B2 (1,1) of the b2 filter at the position G2 (1,1) and the signal value G2 (1,2) of the g2 filter at the position B2 (1,2) shown in FIG. Are calculated by the following equations (1) and (2).

B2(1,1)={B2(0,1)+B2(1,0)+
B2(1,2)+B2(2,1)}/4 ・・・(1)
G2(1,2)={G2(0,2)+G2(1,1)+
G2(1,3)+G2(2,2)}/4 ・・・(2)
B2 (1,1) = {B2 (0,1) + B2 (1,0) +
B2 (1,2) + B2 (2,1)} / 4 (1)
G2 (1,2) = {G2 (0,2) + G2 (1,1) +
G2 (1,3) + G2 (2,2)} / 4 (2)

次に、特殊光画像生成部331は、上述の補間処理により生成したG2画像及びB2画像から、白色光画像と同様にR,G,Bの3種類の信号値を有するカラー画像を生成する。具体的には、特殊光画像生成部331は、カラー画像の座標(x,y)における画素のR信号にG2(x,y)を入力し、G,B信号にB2(x,y)を入力して、RGBのカラー画像を生成する。そして、特殊光画像生成部331は、そのカラー画像に対してホワイトバランス処理や階調変換処理等を行い、狭帯域光画像を生成する。   Next, the special light image generation unit 331 generates a color image having three types of signal values of R, G, and B in the same manner as the white light image, from the G2 image and the B2 image generated by the above-described interpolation processing. Specifically, the special light image generation unit 331 inputs G2 (x, y) to the R signal of the pixel at the coordinate (x, y) of the color image, and B2 (x, y) to the G and B signals. Input an RGB color image. Then, the special light image generation unit 331 performs white balance processing, gradation conversion processing, and the like on the color image to generate a narrowband light image.

3.3.注目領域検出部
図11に、注目領域検出部340の詳細な構成例を示す。この注目領域検出部340は、局所領域設定部341、特徴量算出部342、領域検出部343、タグ情報付与部344を含む。
3.3. Attention Area Detection Unit FIG. 11 shows a detailed configuration example of the attention area detection unit 340. The attention area detection unit 340 includes a local area setting unit 341, a feature amount calculation unit 342, an area detection unit 343, and a tag information addition unit 344.

局所領域設定部341は、特殊光画像取得部330から出力される狭帯域光画像に対して、複数の局所領域を設定する。具体的には図12に示すように、局所領域設定部341は、狭帯域光画像を複数の矩形領域に分割し、分割した各矩形領域を局所領域として設定する。例えば、1つの局所領域は、20×20画素の矩形領域である。   The local region setting unit 341 sets a plurality of local regions for the narrowband light image output from the special light image acquisition unit 330. Specifically, as shown in FIG. 12, the local region setting unit 341 divides the narrowband light image into a plurality of rectangular regions, and sets each divided rectangular region as a local region. For example, one local area is a rectangular area of 20 × 20 pixels.

より具体的には、狭帯域光画像は、M×N個の局所領域に分割される。この各局所領域の座標を(m,n)で表し、座標(m,n)の局所領域をa(m,n)と表すこととする(m、nは、0以上の整数)。そして、画像の左上に位置する局所領域の座標を(0,0)とし、右方向(水平方向)をmの正方向、下方向(垂直方向)をnの正方向と定義する。なお、局所領域は必ずしも矩形である必要はなく、狭帯域光画像を任意の多角形に分割し、分割されたそれぞれの領域を局所領域に設定してもよい。また、局所領域をユーザの指示に応じて任意に設定できるようにしてもよい。また、本実施形態では後段での計算量を削減するために、複数の隣接する画素群からなる領域を1つの局所領域としているが、1画素を1つの局所領域としてもよい。この場合も後段での処理は同様に行うことができる。   More specifically, the narrowband light image is divided into M × N local regions. The coordinates of each local area are represented by (m, n), and the local area of coordinates (m, n) is represented by a (m, n) (m and n are integers of 0 or more). The coordinates of the local region located at the upper left of the image are defined as (0, 0), the right direction (horizontal direction) is defined as the positive direction of m, and the downward direction (vertical direction) is defined as the positive direction of n. The local area is not necessarily rectangular, and the narrowband light image may be divided into arbitrary polygons, and each divided area may be set as the local area. Moreover, you may enable it to set a local area | region arbitrarily according to a user's instruction | indication. Further, in this embodiment, in order to reduce the amount of calculation in the subsequent stage, an area composed of a plurality of adjacent pixel groups is set as one local area, but one pixel may be set as one local area. In this case as well, the subsequent processing can be performed in the same manner.

特徴量算出部342は、局所領域設定部341で設定された全ての局所領域に対して特徴量を算出する。以下では、特徴量算出部342が行う処理を、特徴量として色相を用いる場合を例に説明する。ここで、局所領域a(m,n)に対応する色相をH(m,n)と表す。   The feature amount calculation unit 342 calculates feature amounts for all the local regions set by the local region setting unit 341. In the following, the process performed by the feature amount calculation unit 342 will be described by taking an example in which hue is used as the feature amount. Here, the hue corresponding to the local region a (m, n) is represented as H (m, n).

まず、特徴量算出部342は、色相H(m,n)を算出するため、各局所領域におけるR,G,B信号の平均値R_ave,G_ave,B_aveを算出する。この平均値R_aveは、各局所領域に含まれる全ての画素におけるR信号の平均値である。同様にG_ave,B_aveは、各局所領域に含まれる全ての画素におけるG,B信号の平均値である。例えば、各信号値は8ビット(0〜255)である。次に、特徴量算出部342は、例えば下式(3)〜(8)を用いて、平均値R_ave,G_ave,B_aveから各局所領域の色相H(m,n)を算出する。ここで、MAX関数は、複数の引数の中から最大値の引数を出力する関数である。
max=MAX(R_ave,G_ave,B_ave) ・・・ (3)
First, the feature amount calculation unit 342 calculates average values R_ave, G_ave, and B_ave of R, G, and B signals in each local region in order to calculate the hue H (m, n). This average value R_ave is an average value of R signals in all the pixels included in each local region. Similarly, G_ave and B_ave are average values of the G and B signals in all the pixels included in each local region. For example, each signal value is 8 bits (0 to 255). Next, the feature amount calculation unit 342 calculates the hue H (m, n) of each local region from the average values R_ave, G_ave, B_ave using, for example, the following equations (3) to (8). Here, the MAX function is a function that outputs a maximum value argument from among a plurality of arguments.
max = MAX (R_ave, G_ave, B_ave) (3)

max=0の場合には、下式(4)により色相H(m,n)を求める。
H(m,n)=0 ・・・ (4)
When max = 0, the hue H (m, n) is obtained by the following equation (4).
H (m, n) = 0 (4)

maxが0以外の場合には、まず下式(5)により値dを求める。ここで、MIN関数は、複数の引数の中から最小値の引数を出力する関数である。
d=MAX(R_ave,G_ave,B_ave)−
MIN(R_ave,G_ave,B_ave) ・・・ (5)
When max is other than 0, first, the value d is obtained by the following equation (5). Here, the MIN function is a function that outputs an argument having a minimum value from a plurality of arguments.
d = MAX (R_ave, G_ave, B_ave) −
MIN (R_ave, G_ave, B_ave) (5)

R_ave,G_ave,B_aveのうちR_aveが最大の場合には、下式(6)により色相H(m,n)を求める。
H(m,n)=60×(G_ave−B_ave)/d ・・・ (6)
When R_ave is the maximum among R_ave, G_ave, and B_ave, the hue H (m, n) is obtained by the following equation (6).
H (m, n) = 60 × (G_ave−B_ave) / d (6)

また、R_ave,G_ave,B_aveのうちG_aveが最大の場合には、下式(7)により色相H(m,n)を求める。
H(m,n)=60×{2+(B_ave−R_ave)}/d ・・・ (7)
When G_ave is the maximum among R_ave, G_ave, and B_ave, the hue H (m, n) is obtained by the following equation (7).
H (m, n) = 60 × {2+ (B_ave−R_ave)} / d (7)

また、R_ave,G_ave,B_aveのうちB_aveが最大の場合には、下式(8)により色相H(m,n)を求める。
H(m,n)=60×{4+(R_ave−G_ave)}/d ・・・ (8)
Further, when B_ave is maximum among R_ave, G_ave, and B_ave, the hue H (m, n) is obtained by the following equation (8).
H (m, n) = 60 × {4+ (R_ave−G_ave)} / d (8)

なお、上記演算によりH<0となった場合には、Hに360を加える。また、上記演算によりH=360となった場合には、H=0とする。   If H <0 by the above calculation, 360 is added to H. When H = 360 is obtained by the above calculation, H = 0 is set.

領域検出部343は、上記特徴量算出部342からの色相H(m,n)を用いて、全ての局所領域の中から特定の色相Hを持つ局所領域を注目領域として検出する。例えば、領域検出部343は、色相H(m,n)が5≦H≦35の範囲である局所領域を注目領域として検出する。そして、領域検出部343は、注目領域として検出された局所領域の座標(例えば、局所領域内の全画素の座標)をタグ情報付与部344に出力する。   The region detection unit 343 detects a local region having a specific hue H from all the local regions as the attention region using the hue H (m, n) from the feature amount calculation unit 342. For example, the region detection unit 343 detects a local region in which the hue H (m, n) is in the range of 5 ≦ H ≦ 35 as the attention region. Then, the region detection unit 343 outputs the coordinates of the local region detected as the attention region (for example, the coordinates of all the pixels in the local region) to the tag information adding unit 344.

なお、本実施の形態で用いられる狭帯域光画像では、扁平上皮癌等の病変が褐色の領域として描出される特徴がある。上記の色相Hの範囲5≦H≦35は、その褐色を表す色相範囲の一例であり、この色相範囲の領域を検出することで扁平上皮癌等の病変領域の検出が可能である。   Note that the narrow-band light image used in the present embodiment has a feature that a lesion such as squamous cell carcinoma is depicted as a brown region. The hue H range 5 ≦ H ≦ 35 is an example of the hue range representing the brown color, and a lesion area such as squamous cell carcinoma can be detected by detecting the area of the hue range.

タグ情報付与部344は、領域検出部343で検出された注目領域に対し、タグ情報を付与する処理を行う。具体的には、タグ情報付与部344は、検出された注目領域のうち、互いに隣接する注目領域に対し、同一のタグ情報を付与する処理を行う。そして、タグ情報付与部344は、全ての注目領域の座標(例えば各注目領域に含まれる全画素の座標)とタグ情報を、アラート画像表示設定部350と表示態様制御部360に出力する。   The tag information adding unit 344 performs a process of adding tag information to the attention area detected by the area detecting unit 343. Specifically, the tag information providing unit 344 performs processing for assigning the same tag information to the attention areas adjacent to each other among the detected attention areas. Then, the tag information providing unit 344 outputs the coordinates of all the attention areas (for example, the coordinates of all the pixels included in each attention area) and the tag information to the alert image display setting section 350 and the display mode control section 360.

図13を用いて、タグ情報を付与する処理について説明する。図13に示すように、第1の病変部と第2の病変部が存在し、網掛けで表す局所領域が注目領域として検出されたとする。このとき、タグ情報付与部344は、隣接する複数の注目領域を統合し、第1の病変部に対応する第1の注目領域群と第2の病変部に対応する第2の注目領域群を設定する。そして、タグ情報付与部344は、第1の注目領域群に属する全ての局所領域(注目領域)にタグ情報“1”を付与し、第2の注目領域群に属する全ての局所領域にタグ情報“2”を付与する。なお、本実施形態では、同一のタグ情報が付与された注目領域の集合を注目領域群と呼ぶ。このようにしてタグ情報を付与することで、互いに異なる注目領域の集合を識別することが可能である。   The process of assigning tag information will be described with reference to FIG. As shown in FIG. 13, it is assumed that there are a first lesion and a second lesion, and a local region represented by shading is detected as a region of interest. At this time, the tag information providing unit 344 integrates a plurality of adjacent attention areas, and selects a first attention area group corresponding to the first lesion area and a second attention area group corresponding to the second lesion area. Set. Then, the tag information giving unit 344 gives tag information “1” to all the local areas (attention areas) belonging to the first attention area group, and tag information to all the local areas belonging to the second attention area group. “2” is assigned. In the present embodiment, a set of attention areas to which the same tag information is assigned is referred to as an attention area group. By assigning tag information in this way, it is possible to identify different sets of attention areas.

3.4.アラート画像表示設定部
次に、図14に、アラート画像表示設定部の詳細な構成例を示す。このアラート画像表示設定部350は、対応領域選出部351、強調処理部352を含む。
3.4. Alert Image Display Setting Unit Next, FIG. 14 shows a detailed configuration example of the alert image display setting unit. The alert image display setting unit 350 includes a corresponding area selection unit 351 and an enhancement processing unit 352.

対応領域選出部351は、注目領域検出部340から出力される特殊光画像上の全ての注目領域に対応する白色光画像上の領域を選出し、選出した領域に含まれる全ての画素の情報とタグ情報を強調処理部352に出力する。ここで、画素の情報とは、その画素の座標とRGB信号値である。また、タグ情報は画素毎に付与され、その付与されるタグ情報は、各画素が属する注目領域に付与されているタグ情報と同一のタグ情報である。   The corresponding area selection unit 351 selects areas on the white light image corresponding to all the attention areas on the special light image output from the attention area detection unit 340, and information on all pixels included in the selected area. The tag information is output to the enhancement processing unit 352. Here, the pixel information is the coordinates of the pixel and the RGB signal value. Tag information is assigned to each pixel, and the tag information to be assigned is the same tag information as the tag information assigned to the attention area to which each pixel belongs.

強調処理部352は、対応領域選出部351から出力される全ての画素に対して、下式(9)を用いて色変換処理を施すことでアラート画像を作成し、作成したアラート画像を表示態様制御部360に出力する。強調処理部352は、色変換処理後の全ての画素の情報(座標、RGB画素値)とタグ情報を表示態様制御部360に出力する。   The enhancement processing unit 352 creates an alert image by performing color conversion processing on all the pixels output from the corresponding region selection unit 351 using the following formula (9), and displays the created alert image in a display mode. The data is output to the control unit 360. The enhancement processing unit 352 outputs information (coordinates, RGB pixel values) and tag information of all the pixels after the color conversion processing to the display mode control unit 360.

R_out(x,y)=gain×R(x,y)+(1−gain)×T_R,
G_out(x,y)=gain×G(x,y)+(1−gain)×T_G,
B_out(x,y)=gain×B(x,y)+(1−gain)×T_B
・・・ (9)
R_out (x, y) = gain × R (x, y) + (1−gain) × T_R,
G_out (x, y) = gain × G (x, y) + (1−gain) × T_G,
B_out (x, y) = gain × B (x, y) + (1−gain) × T_B
(9)

ここで、上式(9)において、R(x,y),G(x,y),B(x,y)は、色変換処理前の白色光画像の座標(x,y)におけるRGB信号値である。また、R_out(x,y),G_out(x,y),B_out(x,y)は、色変換処理後の白色光画像の座標(x,y)におけるRGB信号値である。また、T_R,T_G,T_Bは、ターゲット色を表す任意のRGB信号値である。また、gainは、0≦gain≦1の任意の係数である。   Here, in the above equation (9), R (x, y), G (x, y), and B (x, y) are RGB signals at the coordinates (x, y) of the white light image before color conversion processing. Value. R_out (x, y), G_out (x, y), and B_out (x, y) are RGB signal values at the coordinates (x, y) of the white light image after the color conversion process. T_R, T_G, and T_B are arbitrary RGB signal values representing the target color. Further, gain is an arbitrary coefficient of 0 ≦ gain ≦ 1.

例えば、上式(9)において、各RGB信号値は8ビット(0〜255)で表わされ、(T_R,T_G,T_B)=(64,64,255)であり、gain=0.5であるとする。この場合、注目領域に対応する白色光画像の領域を、通常とは異なる色領域として描出したアラート画像が得られる。具体的には、T_Bが255であるため、注目領域に対応する白色光画像のB信号値が強調されることになり、注目領域に対応する白色光画像の領域を青みの強い領域として描出したアラート画像が得られる。なお、T_R1,T_G1,T_B1、及びgainパラメータは、外部I/F部500よりユーザが設定することも可能であるし、予め一定の値を設定しておいてもよい。   For example, in the above equation (9), each RGB signal value is represented by 8 bits (0 to 255), (T_R, T_G, T_B) = (64, 64, 255), and gain = 0.5. Suppose there is. In this case, an alert image is obtained in which the region of the white light image corresponding to the attention region is depicted as a color region different from the normal region. Specifically, since T_B is 255, the B signal value of the white light image corresponding to the attention area is emphasized, and the area of the white light image corresponding to the attention area is depicted as a strong blue area. An alert image is obtained. Note that the T_R1, T_G1, T_B1, and gain parameters can be set by the user from the external I / F unit 500, or constant values may be set in advance.

ここで、上記実施形態では、上式(9)を用いた色変換処理によりアラート画像を作成する場合について説明したが、本実施形態はこれに限定されず、任意の輝度変換処理や色変換処理を用いてアラート画像を作成してもよい。   Here, in the above embodiment, the case where the alert image is created by the color conversion process using the above equation (9) has been described, but the present embodiment is not limited to this, and any luminance conversion process or color conversion process is performed. An alert image may be created using.

また上記実施形態では、検出された注目領域に対応する白色光画像の領域内における全ての画素に対して、上式(9)を用いて強調処理を施す場合について説明したが、本実施形態はこれに限定されない。例えば、注目領域と、注目領域として検出されなかった非注目領域との境界に対応する白色光画像内の画素に対して強調処理を施すことで、アラート画像を作成してもよい。この場合、注目領域と非注目領域の境界に対応する白色光画像の全ての画素に対し、例えば下式(10)に示す色変換処理を行う。下式(10)に示した色変換処理により、注目領域と非注目領域の境界に対応する白色光画像内の画素を、青色で描出したアラート画像が得られる。   In the above embodiment, a case has been described in which enhancement processing is performed on all pixels in the white light image region corresponding to the detected attention region using the above equation (9). It is not limited to this. For example, the alert image may be created by performing enhancement processing on the pixels in the white light image corresponding to the boundary between the attention area and the non-attention area not detected as the attention area. In this case, for example, a color conversion process represented by the following expression (10) is performed on all the pixels of the white light image corresponding to the boundary between the attention area and the non-attention area. By the color conversion process shown in the following equation (10), an alert image in which pixels in the white light image corresponding to the boundary between the attention area and the non-attention area are depicted in blue is obtained.

R_out(x,y)=0,
G_out(x,y)=0,
B_out(x,y)=255 ・・・ (10)
R_out (x, y) = 0,
G_out (x, y) = 0,
B_out (x, y) = 255 (10)

3.5.表示態様制御部
さて、上記のようにして作成した全てのアラート画像を白色光画像に重畳表示したとする。そうすると、病変領域が通常とは異なる色領域として描出されるため、病変の発見が容易になる。しかしながら、アラート画像を重畳した状態では、病変が通常とは異なる色として描出されるため、アラート画像が病変の診断や処置の妨げとなるという課題がある。
3.5. Display Mode Control Unit Now, it is assumed that all alert images created as described above are superimposed on a white light image. Then, since the lesion area is drawn as a color area different from the normal area, it is easy to find the lesion. However, in the state where the alert image is superimposed, the lesion is drawn as a color different from the normal color, so that there is a problem that the alert image hinders the diagnosis and treatment of the lesion.

そこで、本実施形態では、注目領域検出部340により検出される注目領域の情報に応じてアラート画像の表示態様を制御し、アラート画像が病変の診断や処置の妨げとなることを抑止する。具体的には、病変の診断や処置は、内視鏡を病変に近接させた状態で行うことが一般的である。また、その病変の処置は、撮像部200が固定された状態で行われることが多い。そのため、病変の診断や処置を行う際には、病変領域は、白色光画像上で大きな割合を占め、また、白色光画像上に一定時間存在し続ける特徴がある。また、その病変領域が微小な病変により構成されている場合には、多数の病変領域が検出されることになる。そこで、本実施形態では、注目領域のサイズや数や検出時間に応じて、アラート画像の表示・非表示を制御する。   Therefore, in the present embodiment, the display mode of the alert image is controlled according to the information on the attention area detected by the attention area detection unit 340, and the alert image is prevented from obstructing the diagnosis or treatment of the lesion. Specifically, the diagnosis and treatment of a lesion is generally performed in a state where an endoscope is brought close to the lesion. Further, the treatment of the lesion is often performed in a state where the imaging unit 200 is fixed. Therefore, when diagnosing or treating a lesion, the lesion area occupies a large proportion on the white light image, and has a feature that it continues to exist on the white light image for a certain period of time. In addition, when the lesion area is composed of minute lesions, a large number of lesion areas are detected. Therefore, in the present embodiment, display / non-display of the alert image is controlled according to the size and number of the attention areas and the detection time.

図15に、この注目領域の情報に応じてアラート画像の表示態様を制御する表示態様制御部360の詳細な構成例を示す。この表示態様制御部360は、表示可否判定部361、アラート画像重畳部362を含む。   FIG. 15 shows a detailed configuration example of the display mode control unit 360 that controls the display mode of the alert image in accordance with the information on the attention area. The display mode control unit 360 includes a display availability determination unit 361 and an alert image superimposing unit 362.

表示可否判定部361は、アラート画像表示設定部350から出力されるアラート画像を表示すべきか否かの判定処理を行い、その判定処理により表示すべきと判定されたアラート画像をアラート画像重畳部362に出力する。なお、判定処理は、注目領域検出部340から出力される注目領域の情報を用いて後述の手法により行う。   The display permission / inhibition determination unit 361 determines whether or not to display the alert image output from the alert image display setting unit 350, and displays the alert image determined to be displayed by the determination processing as the alert image superimposing unit 362. Output to. Note that the determination process is performed by a method described later using information on the region of interest output from the region of interest detection unit 340.

アラート画像重畳部362は、表示可否判定部361から出力されるアラート画像を白色光画像に重畳し、その白色光画像を表示部400に出力する。   The alert image superimposing unit 362 superimposes the alert image output from the display availability determination unit 361 on the white light image, and outputs the white light image to the display unit 400.

図16に、表示可否判定部361の詳細な構成例を示す。この表示可否判定部361は、領域数判定部3611、領域サイズ判定部3612、検出回数算出部3613、メモリ3614、経過時間判定部3615、アラート画像選択部3616を含む。   FIG. 16 shows a detailed configuration example of the display availability determination unit 361. The display availability determination unit 361 includes a region number determination unit 3611, a region size determination unit 3612, a detection count calculation unit 3613, a memory 3614, an elapsed time determination unit 3615, and an alert image selection unit 3616.

領域数判定部3611は、注目領域検出部340から出力される注目領域の情報から注目領域群の数を算出する。具体的には、領域数判定部3611は、上述の注目領域群の数を閾値Area_Numと比較し、その比較結果をフラグ情報として領域サイズ判定部3612に出力する。より具体的には、領域数判定部3611は、注目領域群の数が閾値Area_Numよりも大きい場合にはフラグ“0”を出力し、注目領域群の数が閾値Area_Num以下の場合にはフラグ“1”を出力する。例えば、閾値Area_Numは、制御部370により所定の値が領域数判定部3611に設定される。また、注目領域群の数(広義には、数情報)は、領域数判定部3611が各注目領域に付与されている全てのタグ情報を参照し、そのタグ情報が何種類存在するかを算出することで決定する。   The region number determination unit 3611 calculates the number of attention region groups from the attention region information output from the attention region detection unit 340. Specifically, the number-of-regions determination unit 3611 compares the number of regions of interest described above with the threshold value Area_Num, and outputs the comparison result to the region size determination unit 3612 as flag information. More specifically, the area number determination unit 3611 outputs a flag “0” when the number of attention area groups is larger than the threshold value Area_Num, and the flag “0” when the number of attention area groups is equal to or less than the threshold value Area_Num. 1 "is output. For example, a predetermined value is set in the area number determination unit 3611 by the control unit 370 as the threshold value Area_Num. In addition, the number of attention area groups (number information in a broad sense) is calculated by the number-of-areas determination unit 3611 referring to all tag information assigned to each attention area and how many types of tag information exist. To decide.

領域サイズ判定部3612は、注目領域群のサイズ情報及び、領域数判定部3611から出力されるフラグ情報に応じて、各注目領域群に対応するアラート画像を表示すべきか否かの判定処理を後述の手法により行う。そして、領域サイズ判定部3612は、その判定処理の結果をアラート画像選択部3616に出力する。この判定処理の結果として出力される情報は、例えばアラート画像を表示すべきと判定された注目領域群に付与されているタグ情報である。ここで、注目領域群のサイズ情報は、注目領域群が占める領域の大きさを表す情報であり、例えば各注目領域群を構成する局所領域(注目領域)の数であり、あるいは注目領域群を構成する局所領域の数と画像全体を構成する局所領域の数との比であってもよい。   The area size determination unit 3612 determines whether or not to display an alert image corresponding to each attention area group according to the size information of the attention area group and the flag information output from the number-of-areas determination part 3611. This method is used. Then, the area size determination unit 3612 outputs the result of the determination process to the alert image selection unit 3616. Information output as a result of this determination processing is, for example, tag information given to the attention area group determined to display the alert image. Here, the size information of the attention area group is information indicating the size of the area occupied by the attention area group, for example, the number of local areas (attention areas) constituting each attention area group, or It may be a ratio between the number of local regions constituting and the number of local regions constituting the entire image.

次に、領域サイズ判定部3612が行う判定処理について詳細に説明する。まず、領域サイズ判定部3612は、注目領域群のサイズを算出する。例えば、注目領域群のサイズは、各注目領域群を構成する局所領域の数である。次に、領域サイズ判定部3612は、領域数判定部3611から出力されるフラグ情報を参照する。   Next, the determination process performed by the region size determination unit 3612 will be described in detail. First, the area size determination unit 3612 calculates the size of the attention area group. For example, the size of the attention area group is the number of local areas constituting each attention area group. Next, the region size determination unit 3612 refers to the flag information output from the region number determination unit 3611.

注目領域群の数が閾値より少ないフラグ“1”の場合、サイズの大きな注目領域群に対応するアラート画像を表示すると、そのアラート画像が医師の診断や処置の妨げとなることが懸念される。そこで、領域サイズ判定部3612は、閾値Size_Maxを超える注目領域群のアラート画像を非表示と判定する。そして、領域サイズ判定部3612は、サイズが閾値Size_Max以下である注目領域群に付与されているタグ情報をアラート画像選択部3616に出力する。   In the case of the flag “1” where the number of attention area groups is smaller than the threshold value, when an alert image corresponding to a large attention area group is displayed, there is a concern that the alert image may hinder a doctor's diagnosis or treatment. Therefore, the region size determination unit 3612 determines that the alert image of the attention region group that exceeds the threshold Size_Max is not displayed. Then, the region size determination unit 3612 outputs the tag information given to the attention region group whose size is equal to or smaller than the threshold Size_Max to the alert image selection unit 3616.

一方、注目領域群の数が閾値より多いフラグ“0”の場合、注目領域群の数が多いため、全ての注目領域群に対応するアラート画像を表示してしまうと、そのアラート画像が医師の診断や処置の妨げとなることが懸念される。しかしながら、全てのアラート画像を非表示にしてしまうと、微小な病変を見落とす危険性も考えられる。そこで、領域サイズ判定部3612は、注目領域群のうちサイズの小さい注目領域群のアラート画像のみを表示と判定する。具体的には、領域サイズ判定部3612は、閾値Size_Maxより小さい閾値Size_Min以下のサイズの注目領域群のみに対して、アラート画像を表示すべきと判定し、その注目領域群に付与されているタグ情報のみをアラート画像選択部3616に出力する。   On the other hand, in the case of the flag “0” in which the number of attention area groups is greater than the threshold, the number of attention area groups is large. Therefore, if alert images corresponding to all attention area groups are displayed, the alert image is displayed by the doctor. There is concern that it may interfere with diagnosis and treatment. However, if all the alert images are hidden, there is a risk of overlooking a minute lesion. Therefore, the region size determination unit 3612 determines that only the alert images of the attention region group having a smaller size among the attention region groups are displayed. Specifically, the region size determination unit 3612 determines that an alert image should be displayed only for the attention region group having a size equal to or smaller than the threshold Size_Min that is smaller than the threshold Size_Max, and the tag attached to the attention region group Only the information is output to the alert image selection unit 3616.

図17(A)〜図18(B)を用いて、領域サイズ判定部3612の処理について例を挙げて説明する。なお、以下では、閾値はArea_Num=5,Size_Min=1,Size_Max=3であるとする。   With reference to FIGS. 17A to 18B, the process of the region size determination unit 3612 will be described with an example. In the following, it is assumed that the threshold values are Area_Num = 5, Size_Min = 1, and Size_Max = 3.

図17(A)に示すように、3つの注目領域群A1〜A3が検出されたとする。ここで、各注目領域群A1,A2,A3にはそれぞれタグ情報“1”,“2”,“3”が付与されているものとする。まず領域サイズ判定部3612は、各注目領域群を構成する注目領域の数を各注目領域群のサイズとして算出する。各注目領域群のサイズは以下となる。
注目領域群A1のサイズ:12
注目領域群A2のサイズ:3
注目領域群A3のサイズ:1
As shown in FIG. 17A, it is assumed that three attention area groups A1 to A3 are detected. Here, it is assumed that tag information “1”, “2”, and “3” are assigned to the attention area groups A1, A2, and A3, respectively. First, the area size determination unit 3612 calculates the number of attention areas constituting each attention area group as the size of each attention area group. The size of each attention area group is as follows.
Size of attention area group A1: 12
Size of attention area group A2: 3
Size of the attention area group A3: 1

次に、注目領域群の数は3であり、閾値Area_Num=5以下であるから、領域数判定部3611からはフラグ“1”が出力される。そのため、図17(B)に示すように、領域サイズ判定部3612は、閾値Size_Max=3以下である注目領域群のみをアラートを表示すべき領域と判定する。従ってこの場合は、注目領域群A2,A3がアラートを表示すべき領域と判定され、アラート画像選択部3616にはタグ情報“2”,“3”が出力される。   Next, since the number of attention area groups is 3 and the threshold value Area_Num = 5 or less, the area number determination unit 3611 outputs a flag “1”. Therefore, as illustrated in FIG. 17B, the region size determination unit 3612 determines that only the attention region group having the threshold Size_Max = 3 or less is the region where the alert is to be displayed. Therefore, in this case, the attention area groups A2 and A3 are determined to be areas where alerts are to be displayed, and tag information “2” and “3” are output to the alert image selection unit 3616.

次に、図18(A)に示すように、7つの注目領域群B1〜B7が検出されたとする。ここで、各注目領域群B1〜B7には、それぞれタグ情報“1”〜“7”が付与されているものとする。領域サイズ判定部3612が算出する各注目領域群のサイズは以下となる。
注目領域群B1,B2,B3,B5,B6のサイズ:3
注目領域群B4のサイズ:2
注目領域群B7のサイズ:1
Next, as shown in FIG. 18A, it is assumed that seven attention region groups B1 to B7 are detected. Here, it is assumed that tag information “1” to “7” is assigned to each of the attention area groups B1 to B7. The size of each attention area group calculated by the area size determination unit 3612 is as follows.
Size of attention area group B1, B2, B3, B5, B6: 3
Size of attention area group B4: 2
Size of attention area group B7: 1

次に、注目領域群の数は7であり、閾値Area_Num=5よりも大きいから、領域数判定部3611からはフラグ“0”が出力される。そのため、図18(B)に示すように、領域サイズ判定部3612は、閾値Size_Min=1以下である注目領域群のみのアラート画像を表示すべき領域と判定する。従ってこの場合は、注目領域群B7のみがアラート画像を表示すべき領域と判定され、アラート画像選択部3616にはタグ情報“7”が出力される。   Next, since the number of attention area groups is 7, which is larger than the threshold value Area_Num = 5, the flag “0” is output from the area number determination unit 3611. Therefore, as illustrated in FIG. 18B, the region size determination unit 3612 determines that an alert image of only the attention region group having the threshold Size_Min = 1 or less is to be displayed. Therefore, in this case, it is determined that only the attention area group B7 is an area where an alert image should be displayed, and tag information “7” is output to the alert image selection unit 3616.

上記判定処理によれば、アラート画像が診断・処置の妨げとなることと微小な病変の見落としを抑止できる。具体的には、狭帯域光画像上で大きな病変領域が検出された場合には、その病変領域に対応するアラート画像を非表示と判定することで、アラート画像が診断・処置の妨げとなることを抑止できる。一方、閾値以下のサイズの注目領域群ではアラート画像を表示すると判定することで、見落とし易い領域についてはアラート画像を表示できる。   According to the above determination processing, it is possible to prevent the alert image from interfering with diagnosis / treatment and oversight of minute lesions. Specifically, when a large lesion area is detected on a narrow-band optical image, it is determined that the alert image corresponding to the lesion area is not displayed, and the alert image hinders diagnosis / treatment. Can be suppressed. On the other hand, it is possible to display an alert image for a region that is easily overlooked by determining that an alert image is displayed in the attention region group having a size equal to or smaller than the threshold value.

また、上記判定処理によれば、注目領域群の数に応じてサイズの閾値を変えることで、撮影状況に応じたアラート制御を行うことができる。例えば、図19に示すように、病変部を比較的遠景で観察する場合、C1に示すように、大きくまとまった注目領域群が少数検出されることが想定される。この場合、注目領域群のサイズが大きいため、図17(A)等で上述のように、より大きな閾値Size_Maxを用いて判定処理を行う。一方、図20に示すように、病変部を比較的近景で観察する場合、例えばD1〜D7に示すように、病変部の構造が拡大されて細かい注目領域群が多数検出されることが想定される。この場合、注目領域群のサイズが小さいため、同じ閾値を用いるとアラート画像が非表示にならない可能性がある。そのため、図18(A)等で上述のように、より小さい閾値Size_Minを用いて判定処理を行うことで、微小な病変で構成されている領域のアラート画像を非表示にする。   Further, according to the above determination processing, alert control according to the shooting situation can be performed by changing the size threshold according to the number of attention area groups. For example, as shown in FIG. 19, when a lesion is observed in a relatively distant view, it is assumed that a small number of large attention area groups are detected as shown in C1. In this case, since the size of the attention area group is large, the determination process is performed using the larger threshold Size_Max as described above with reference to FIG. On the other hand, as shown in FIG. 20, when observing a lesion part in a relatively close-up view, for example, as shown in D1 to D7, it is assumed that the structure of the lesion part is enlarged and a large number of small attention area groups are detected. The In this case, since the size of the attention area group is small, the alert image may not be hidden if the same threshold value is used. For this reason, as described above with reference to FIG. 18A and the like, the alert image in the region composed of minute lesions is hidden by performing determination processing using a smaller threshold Size_Min.

次に、図16に示す検出回数算出部3613について説明する。検出回数算出部3613は、注目領域検出部340から出力される全ての注目領域についての検出回数を算出する。ここで、検出回数とは、注目領域が継続して検出された経過時間を表す情報であり、例えば後述するように各注目領域が連続して検出される回数(フレーム数)である。以下では、白色光画像と狭帯域光画像が同時に取得され、それぞれの画像が時系列で取得され、ある時刻tにおいて取得された狭帯域光画像から検出された注目領域に対して検出回数を算出する場合を例に説明する。ここで、時刻tにおいて取得された狭帯域光画像をFtとし、FtのNフレーム前に取得された狭帯域光画像をFt−Nとする。   Next, the detection frequency calculation unit 3613 illustrated in FIG. 16 will be described. The detection number calculation unit 3613 calculates the number of detections for all the attention regions output from the attention region detection unit 340. Here, the number of detections is information indicating the elapsed time when the attention area is continuously detected, and is, for example, the number of times (number of frames) in which each attention area is continuously detected as will be described later. In the following, a white light image and a narrowband light image are acquired at the same time, each image is acquired in time series, and the number of detections is calculated for the attention area detected from the narrowband light image acquired at a certain time t. An example of this will be described. Here, the narrowband optical image acquired at time t is Ft, and the narrowband optical image acquired N frames before Ft is Ft−N.

まず、検出回数算出部3613は、メモリ3614を参照し、メモリ3614に格納されている検出回数の情報(データ)を取得する。後述するように、メモリ3614にはFt−1で検出された全ての注目領域の座標とその注目領域の検出回数の情報が格納されている。以下では、Ft−1で検出された注目領域を旧注目領域と呼ぶ。   First, the detection frequency calculation unit 3613 refers to the memory 3614 and acquires information (data) of the detection frequency stored in the memory 3614. As will be described later, the memory 3614 stores information on the coordinates of all the attention areas detected by Ft-1 and the number of times of detection of the attention area. Hereinafter, the attention area detected at Ft-1 is referred to as an old attention area.

次に、検出回数算出部3613は、注目領域検出部340から出力されるFtで検出された全ての注目領域の検出回数を算出する。具体的には、検出回数算出部3613は、その注目領域の座標と、メモリ3614より取得した全ての旧注目領域の座標とを比較し、その注目領域の座標に一致する旧注目領域の座標が存在する場合には、下式(11)により注目領域の検出回数を算出する。ここで、(m,n)は、注目領域の座標であり、Pt(m,n)は、メモリ3614から取得した旧注目領域(m,n)の検出回数であり、Pt’(m,n)は、注目領域(m,n)の検出回数である。
Pt’(m,n)=Pt(m,n)+1 ・・・・・(11)
Next, the number-of-detections calculation unit 3613 calculates the number of detections of all the attention areas detected by Ft output from the attention area detection section 340. Specifically, the detection count calculation unit 3613 compares the coordinates of the attention area with the coordinates of all the old attention areas acquired from the memory 3614, and the coordinates of the old attention area that match the coordinates of the attention area are the same. If it exists, the number of times of attention area detection is calculated by the following equation (11). Here, (m, n) is the coordinate of the attention area, Pt (m, n) is the number of times of detection of the old attention area (m, n) acquired from the memory 3614, and Pt ′ (m, n ) Is the number of times the attention area (m, n) is detected.
Pt ′ (m, n) = Pt (m, n) +1 (11)

一方、その注目領域の座標に一致する旧注目領域の座標が存在しない場合には、検出回数算出部3613は、注目領域の検出回数をPt’(m,n)=1とする。そして、検出回数算出部3613は、全ての注目領域に対して上述の処理が終了した後、その結果をメモリ3614と経過時間判定部3615に出力する。ここで出力する情報は、具体的には、Ftで検出された全ての注目領域の座標と検出回数である。また、メモリ3614に前記情報を出力する際、メモリ3614に予め保持されていた情報は、消去するものとする。   On the other hand, when there is no coordinate of the old region of interest that matches the coordinate of the region of interest, the detection number calculation unit 3613 sets the number of detections of the region of interest to Pt ′ (m, n) = 1. The number-of-detections calculation unit 3613 outputs the result to the memory 3614 and the elapsed time determination unit 3615 after the above processing is completed for all the attention areas. Specifically, the information output here is the coordinates and the number of detections of all the attention areas detected by Ft. In addition, when the information is output to the memory 3614, the information previously stored in the memory 3614 is deleted.

なお、時系列で画像を取得する場合、被写体や撮像部200の微小な動きにより、画像上での注目領域の位置がフレーム間で変化する。しかし本実施形態では、局所領域設定部341で設定される局所領域の大きさを20×20としているため、被写体や撮像部200の微小な動きによる影響は無視することができる。   Note that when acquiring images in time series, the position of the region of interest on the image changes between frames due to the subject or the minute movement of the imaging unit 200. However, in the present embodiment, since the size of the local area set by the local area setting unit 341 is 20 × 20, the influence of the subject and the minute movement of the imaging unit 200 can be ignored.

経過時間判定部3615は、上述した注目領域の検出回数及びタグ情報に基づいて、後述する手法により各注目領域群の経過時間を算出する。そして、経過時間判定部3615は、経過時間が閾値Area_Timeを超える注目領域群が存在する場合には、その注目領域群に対応するアラート画像を表示すべきでないと判定し、その判定結果をアラート画像選択部3616に出力する。経過時間判定部3615が出力する情報は、上述の判定処理により、閾値Area_Time以下と判定された全ての注目領域群に付与されているタグ情報である。   The elapsed time determination unit 3615 calculates the elapsed time of each attention area group by a method described later based on the above-described number of detections of the attention area and the tag information. The elapsed time determination unit 3615 determines that an alert image corresponding to the attention area group should not be displayed when there is an attention area group whose elapsed time exceeds the threshold value Area_Time, and displays the determination result as an alert image. The data is output to the selection unit 3616. The information output by the elapsed time determination unit 3615 is tag information given to all the attention area groups determined to be equal to or less than the threshold value Area_Time by the determination process described above.

図21を用いて、注目領域群の検出経過時間を算出する手法について説明する。ここで、注目領域群の経過時間(検出経過時間情報)とは、その注目領域群が特殊光画像から検出され続ける時間の長さを表す情報であり、あるいは、その注目領域群が白色光画像内に存在し続ける時間の長さを表す情報である。   A method for calculating the detection elapsed time of the attention area group will be described with reference to FIG. Here, the elapsed time (detected elapsed time information) of the attention area group is information indicating the length of time during which the attention area group is detected from the special light image, or the attention area group is a white light image. This is information indicating the length of time that the data continues to exist.

例えば、図21に示すように、注目領域群の経過時間は、その注目領域群に属する各注目領域の検出回数から算出される。具体的には、G1に示すように、注目領域が検出されると、その注目領域として検出された局所領域の検出回数Ptが、各フレームにおいて順次インクリメントされる。そして、G2に示すように、注目領域群に属する全ての局所領域の検出回数Ptの平均値が、注目領域群の経過時間として算出される。例えば、経過時間判定の閾値を3とする。そうすると、G3に示すように、Ptの平均値が3未満の場合にはアラート画像が表示され、Ptの平均値が3以上の場合にはアラート画像が非表示にされる。なお、注目領域群の経過時間は、上記のようにPtの平均値が用いられてもよく、他の算出手法により求めた値が用いられてもよい。   For example, as shown in FIG. 21, the elapsed time of the attention area group is calculated from the number of times of detection of each attention area belonging to the attention area group. Specifically, as indicated by G1, when the attention area is detected, the detection count Pt of the local area detected as the attention area is sequentially incremented in each frame. And as shown to G2, the average value of the detection frequency Pt of all the local areas which belong to an attention area group is computed as elapsed time of an attention area group. For example, the threshold value for determining the elapsed time is set to 3. Then, as indicated by G3, the alert image is displayed when the average value of Pt is less than 3, and the alert image is not displayed when the average value of Pt is 3 or more. As the elapsed time of the attention area group, the average value of Pt may be used as described above, or a value obtained by another calculation method may be used.

ここで、上述の閾値Area_Num,Size_Min,Size_Max,Area_Timeは、外部I/F部500よりユーザが設定することも可能であるし、予め一定の値を設定しておいてもよい。   Here, the above-described threshold values Area_Num, Size_Min, Size_Max, and Area_Time can be set by the user from the external I / F unit 500, or may be set in advance.

アラート画像選択部3616は、アラート画像表示設定部350から出力されるアラート画像のうち、領域サイズ判定部3612と経過時間判定部3615の両方から共通に出力されたタグ情報に対応するアラート画像のみをアラート画像重畳部362に出力する。また、アラート画像選択部3616は、共通に出力されたタグ情報が存在しない場合には、表示すべきアラート画像がないことを表すトリガ信号をアラート画像重畳部362に出力する。   The alert image selection unit 3616 selects only the alert images corresponding to the tag information output in common from both the region size determination unit 3612 and the elapsed time determination unit 3615 from among the alert images output from the alert image display setting unit 350. The data is output to the alert image superimposing unit 362. Moreover, the alert image selection part 3616 outputs the trigger signal showing that there is no alert image which should be displayed to the alert image superimposition part 362, when the tag information output in common does not exist.

アラート画像重畳部362は、表示可否判定部361から出力されるアラート画像を、白色光画像取得部320から出力される白色光画像に重畳し、表示部400に出力する。例えば、その重畳処理として、下式(12)に示すように、白色光画像中の注目領域をアラート画像に置き換える処理が行われる。一方、表示可否判定部361からトリガ信号が出力されている場合は、アラート画像重畳部362は、白色光画像をそのまま表示部400に出力する。   The alert image superimposing unit 362 superimposes the alert image output from the display enable / disable determining unit 361 on the white light image output from the white light image acquiring unit 320 and outputs the superimposed image to the display unit 400. For example, as the superimposition process, as shown in the following formula (12), a process of replacing the attention area in the white light image with the alert image is performed. On the other hand, when a trigger signal is output from the display availability determination unit 361, the alert image superimposing unit 362 outputs the white light image to the display unit 400 as it is.

R_org(x,y)=R_out(x,y),
G_org(x,y)=G_out(x,y),
B_org(x,y)=B_out(x,y) ・・・ (12)
R_org (x, y) = R_out (x, y),
G_org (x, y) = G_out (x, y),
B_org (x, y) = B_out (x, y) (12)

ここで、上式(12)において、R_org(x,y),G_org(x,y),B_org(x,y)は、白色光画像の座標(x,y)におけるRGB信号値である。また、R_out(x,y),G_out(x,y),B_out(x,y)は、アラート画像の座標(x,y)におけるRGB信号値である。   Here, in the above equation (12), R_org (x, y), G_org (x, y), and B_org (x, y) are RGB signal values at the coordinates (x, y) of the white light image. R_out (x, y), G_out (x, y), and B_out (x, y) are RGB signal values at the coordinates (x, y) of the alert image.

上記処理を行うことで、白色光画像と特殊光画像とを用いた診断を行う場合に、白色光画像内に存在する病変領域を通常とは異なる色領域として描出できる。これにより、医師への負荷を増大させることなく、病変の見落としを防ぐことが可能になる。また、検出された注目領域の情報に応じてアラート画像の表示態様を制御することで、アラート表示が医師の診断や処置の妨げとなる課題を改善できる。   By performing the above processing, when a diagnosis using a white light image and a special light image is performed, a lesion area existing in the white light image can be depicted as a color area different from a normal color area. As a result, it is possible to prevent oversight of the lesion without increasing the load on the doctor. Further, by controlling the display mode of the alert image according to the detected information on the attention area, it is possible to improve the problem that the alert display hinders the diagnosis and treatment of the doctor.

なお、上記実施形態では、注目領域群の数が閾値Area_Numより大きい場合に、閾値Size_Minよりも小さい注目領域群に対応するアラート画像のみを表示する場合を説明したが、本実施形態はこれに限定されない。例えば、本実施形態では、注目領域群の数が閾値Area_Numより大きい場合に、全ての注目領域群に対応するアラート画像を非表示としてもよい。この場合、領域サイズ判定部3612は、領域数判定部3611からフラグ“0”が出力されている場合に、全ての注目領域群に対応するアラート画像を非表示とする判定を行う。   In the above-described embodiment, the case has been described in which only the alert image corresponding to the attention area group smaller than the threshold Size_Min is displayed when the number of attention area groups is larger than the threshold value Area_Num. However, the present embodiment is not limited thereto. Not. For example, in this embodiment, when the number of attention area groups is larger than the threshold value Area_Num, alert images corresponding to all attention area groups may be hidden. In this case, when the flag “0” is output from the number-of-regions determination unit 3611, the region size determination unit 3612 determines to hide the alert images corresponding to all the attention region groups.

また、上記実施形態では、注目領域群のサイズ(局所領域の数、画素数等)に応じてアラート表示を制御する場合を説明したが、本実施形態はこれに限定されない。例えば、本実施形態では、注目領域群のサイズではなく、注目領域群の狭帯域光画像に対する大きさ(面積)の割合に応じてアラート表示を制御してもよい。この場合、例えば注目領域群を構成する注目領域の数と、局所領域設定部341で設定される全ての局所領域の数との比率を、その注目領域群の狭帯域光画像に対する大きさの割合とする。そして、その割合が閾値よりも大きい場合、注目領域群に対応するアラート画像を非表示とするようにアラート表示を制御する。   Moreover, although the said embodiment demonstrated the case where alert display was controlled according to the size (the number of local areas, the number of pixels, etc.) of an attention area group, this embodiment is not limited to this. For example, in the present embodiment, the alert display may be controlled according to the ratio of the size (area) of the attention area group to the narrow-band light image instead of the size of the attention area group. In this case, for example, the ratio of the number of attention areas constituting the attention area group and the number of all local areas set by the local area setting unit 341 is the ratio of the size of the attention area group to the narrowband light image. And And when the ratio is larger than a threshold value, an alert display is controlled so that the alert image corresponding to an attention area group may not be displayed.

また、上記実施形態では、注目領域の数やサイズや経過時間を用いた判定処理により、アラート表示を制御する場合を説明したが、本実施形態はこれに限定されない。例えば、本実施形態では、上述の判定処理に関係なく、アラート画像を強制的に表示させてもよい。この場合、ユーザは外部I/F部500を介してアラート画像を強制的に表示させる設定を行う。この設定情報は、制御部370にトリガ信号として送信され、制御部370は、そのトリガ信号をアラート画像選択部3616に出力する。そして、アラート画像選択部3616は、制御部370からトリガ信号が出力されている場合、アラート画像表示設定部350から出力される全てのアラート画像をアラート画像重畳部362に出力する。   Moreover, although the said embodiment demonstrated the case where alert display was controlled by the determination process using the number, size, and elapsed time of an attention area, this embodiment is not limited to this. For example, in the present embodiment, the alert image may be forcibly displayed regardless of the determination process described above. In this case, the user performs setting to forcibly display the alert image via the external I / F unit 500. This setting information is transmitted as a trigger signal to the control unit 370, and the control unit 370 outputs the trigger signal to the alert image selection unit 3616. Then, when a trigger signal is output from the control unit 370, the alert image selection unit 3616 outputs all the alert images output from the alert image display setting unit 350 to the alert image superimposing unit 362.

3.6.ソフトウェア
上記実施形態では、画像処理装置301を構成する各部をハードウェアで構成することとしたが、本実施形態はこれに限定されず、CPUがプログラムを実行することによってソフトウェアとして実現してもよい。この場合、制御装置300や画像処理装置301は、例えば図35等で後述するコンピュータシステムにより実現される。
3.6. Software In the above-described embodiment, each unit configuring the image processing apparatus 301 is configured by hardware. However, the present embodiment is not limited to this, and may be realized as software by a CPU executing a program. . In this case, the control device 300 and the image processing device 301 are realized by a computer system described later with reference to FIG.

各部が行う処理の一部をソフトウェアで構成する場合の一例として、あらかじめ取得された画像に対して画像処理装置301が行う処理をソフトウェアで実現する場合の処理手順を、図22に示すフローチャートを用いて説明する。例えば、あらかじめ取得された画像とは、A/D変換部310,311が出力するベイヤ配列の出力画像を、RAWファイルとして記録媒体に記録した画像である。   As an example of a case where a part of the processing performed by each unit is configured by software, a processing procedure when the processing performed by the image processing apparatus 301 for an image acquired in advance is realized by software is described with reference to a flowchart illustrated in FIG. I will explain. For example, an image acquired in advance is an image obtained by recording an output image of the Bayer array output from the A / D conversion units 310 and 311 as a RAW file on a recording medium.

図22に示すように、この処理が開始されると、上述した強調処理や判定処理に用いるパラメータをメモリから読み込む(ステップS0)。次に、狭帯域光画像をメモリから読み込み(ステップS1)、さらにこの狭帯域光画像と同時に取得された白色光画像をメモリから読み込む(ステップS2)。次に、読み込んだ狭帯域光画像から上式(6)〜(8)に示す色相に基づいて注目領域を検出する(ステップS3)。   As shown in FIG. 22, when this process is started, parameters used in the above-described enhancement process and determination process are read from the memory (step S0). Next, a narrow-band light image is read from the memory (step S1), and a white light image acquired simultaneously with the narrow-band light image is read from the memory (step S2). Next, a region of interest is detected from the read narrowband light image based on the hues shown in the above formulas (6) to (8) (step S3).

次に、ステップS3で検出された注目領域に対応する白色光画像の領域内の全ての画素に対して上式(9)に示す強調処理を施し、アラート画像を作成する(ステップS4)。次に、ステップS4で作成したアラート画像を、ステップS3で検出された注目領域の情報に応じて上述の手法により白色光画像に重畳する。そして、アラート画像が重畳された白色光画像を表示画像として出力する(ステップS5)。次に、全ての画像に対して一連の処理が完了した場合は処理を終了し(ステップS6、YES)、未処理の画像が残っている場合は同様の処理を継続する(ステップS6、NO)。   Next, the enhancement processing shown in the above equation (9) is performed on all the pixels in the white light image region corresponding to the attention region detected in step S3, and an alert image is created (step S4). Next, the alert image created in step S4 is superimposed on the white light image by the method described above according to the information on the attention area detected in step S3. Then, the white light image on which the alert image is superimposed is output as a display image (step S5). Next, when a series of processing is completed for all the images, the processing ends (step S6, YES), and when an unprocessed image remains, the same processing is continued (step S6, NO). .

図23に示すフローチャートを用いて、上述の表示態様変更処理(ステップS5)における詳細な処理手順について説明する。   A detailed processing procedure in the display mode changing process (step S5) will be described with reference to the flowchart shown in FIG.

図23に示すように、この処理が開始されると、ステップS3で検出された注目領域群の数を算出し、その注目領域群の数を閾値Area_Numと比較し、その比較結果をフラグ情報として出力する(ステップS51)。具体的には、フラグ情報として、注目領域群の数が閾値Area_Numよりも大きい場合にはフラグ“0”を出力し、閾値以下の場合にはフラグ“1”を出力する。   As shown in FIG. 23, when this process is started, the number of attention area groups detected in step S3 is calculated, the number of attention area groups is compared with a threshold Area_Num, and the comparison result is used as flag information. Output (step S51). Specifically, as flag information, a flag “0” is output when the number of attention area groups is larger than the threshold value Area_Num, and a flag “1” is output when the number is less than the threshold value.

次に、ステップS3で検出された各注目領域群のサイズを算出する。そして、ステップS51で出力されるフラグ情報を参照し、フラグが“0”の場合は注目領域群のサイズを閾値Size_Minと比較した結果を出力する。一方、フラグが“1”の場合は注目領域群のサイズを閾値Size_Maxと比較した結果を出力する(ステップS52)。具体的には、比較結果としてタグ情報が出力される。このタグ情報は、サイズが閾値以下であると判定された注目領域群に付与されている全てのタグ情報である。   Next, the size of each attention area group detected in step S3 is calculated. Then, the flag information output in step S51 is referred to. When the flag is “0”, the result of comparing the size of the attention area group with the threshold Size_Min is output. On the other hand, if the flag is “1”, the result of comparing the size of the region of interest with the threshold Size_Max is output (step S52). Specifically, tag information is output as a comparison result. This tag information is all the tag information assigned to the attention area group whose size is determined to be equal to or smaller than the threshold value.

次に、ステップS3で検出された各注目領域群の検出経過時間を上式(11)に示す手法により算出し、その検出経過時間を閾値Area_Timeと比較し、その比較結果を出力する(ステップS53)。具体的には、比較結果としてタグ情報を出力する。このタグ情報は、検出経過時間が閾値Area_Time以下であると判定された注目領域群に付与されている全てのタグ情報である。   Next, the detected elapsed time of each attention area group detected in step S3 is calculated by the method shown in the above equation (11), the detected elapsed time is compared with the threshold value Area_Time, and the comparison result is output (step S53). ). Specifically, tag information is output as a comparison result. This tag information is all tag information assigned to the attention area group determined that the detected elapsed time is equal to or less than the threshold value Area_Time.

次に、ステップS52及びステップS53での判定結果に応じてアラート画像を重畳する(ステップS54)。具体的には、ステップS52、S53で出力されたタグ情報のうち共通のタグ情報を抽出し、そのタグ情報が付与されている注目領域群に対応するアラート画像のみを白色光画像に重畳し、その白色光画像を表示画像として出力する。共通のタグ情報が存在しない場合には、白色光画像をそのまま表示画像として出力する。   Next, an alert image is superimposed according to the determination results in step S52 and step S53 (step S54). Specifically, common tag information is extracted from the tag information output in steps S52 and S53, and only the alert image corresponding to the attention area group to which the tag information is assigned is superimposed on the white light image. The white light image is output as a display image. If there is no common tag information, the white light image is output as it is as a display image.

以上の処理により、画像処理装置301が行う処理をソフトウェアとして実現できる。例えば、カプセル型内視鏡などのように、まず画像データを蓄積し、その後、蓄積された画像データに対してPC等のコンピュータシステムでソフトウェア的に処理を行うことが可能になる。   With the above processing, the processing performed by the image processing apparatus 301 can be realized as software. For example, as in a capsule endoscope, image data is first stored, and then the stored image data can be processed in software by a computer system such as a PC.

さて、上述のように、内視鏡を病変部に近づけて診断や処置を行う際に、アラート画像が診断や処置の妨げとなるという課題がある。しかしながら、診断や処置の妨げとならないようアラート画像を全て非表示にすると、微小な病変部を見逃す可能性があるという課題がある。   As described above, there is a problem that an alert image hinders diagnosis and treatment when an endoscope is brought close to a lesioned portion and diagnosis and treatment are performed. However, if all the alert images are hidden so as not to hinder diagnosis and treatment, there is a problem that a minute lesion may be missed.

この点、本実施形態によれば、図3に示すように、画像処理装置301は、画像取得部(白色光画像取得部320、特殊光画像取得部330)と、注目領域検出部340と、判定部(図15に示す表示可否判定部361)と、表示態様制御部360を含む。そして、画像取得部は、白色の波長帯域における情報を有した被写体像を含む通常光画像(第1の画像)と、その通常光画像に対応する、特定の波長帯域における情報を有した被写体像を含む特殊光画像(第2の画像)との少なくとも一方の画像である取得画像を取得する。注目領域検出部340は、その取得画像の画素の特徴量に基づいて、注目すべき領域である注目領域を検出する。判定部は、その注目領域の検出結果に応じて、その注目領域(注目領域群)に対応するアラート画像を表示すべきか否かの判定を行う。表示態様制御部360は、判定部によりアラート画像を表示すべきと判定された注目領域(注目領域群)である表示対象注目領域(表示対象注目領域群)に対応するアラート画像を表示する制御を行う。   In this regard, according to the present embodiment, as illustrated in FIG. 3, the image processing device 301 includes an image acquisition unit (white light image acquisition unit 320, special light image acquisition unit 330), an attention area detection unit 340, A determination unit (display availability determination unit 361 shown in FIG. 15) and a display mode control unit 360 are included. Then, the image acquisition unit includes a normal light image (first image) including a subject image having information in the white wavelength band, and a subject image having information in a specific wavelength band corresponding to the normal light image. An acquired image that is at least one of the special light image (second image) including the image is acquired. The attention area detection unit 340 detects an attention area, which is an area to be noted, based on the feature amount of the pixel of the acquired image. The determination unit determines whether to display an alert image corresponding to the attention area (attention area group) according to the detection result of the attention area. The display mode control unit 360 performs control to display the alert image corresponding to the display target attention region (display target attention region group) that is the attention region (target region group) for which the determination unit determines that the alert image should be displayed. Do.

これにより、アラート画像が医師による診断や処置の妨げとなることの抑止等が可能になる。具体的には、注目領域に対応するアラート画像を表示すべきか否かの判定が行われることで、表示対象注目領域に対応するアラート画像のみを表示できる。これにより、診断や処置の妨げとなるアラート画像を非表示にできる。また、表示対象注目領域にはアラート画像が表示されるため、病変部の見落としを抑止できる。   As a result, it is possible to prevent the alert image from interfering with diagnosis and treatment by a doctor. Specifically, it is possible to display only the alert image corresponding to the display target attention area by determining whether or not the alert image corresponding to the attention area should be displayed. As a result, the alert image that hinders diagnosis and treatment can be hidden. Moreover, since the alert image is displayed in the display target attention area, it is possible to suppress oversight of the lesioned part.

なお、画像処理装置301は、画像取得部として白色光画像取得部320及び特殊光画像取得部330を含み、画像取得部は、取得画像として白色光画像及び特殊光画像を取得してもよい。あるいは、図24等で後述のように、画像処理装置301は、画像取得部として白色光画像取得部320のみを含み、画像取得部は、取得画像として白色光画像のみを取得してもよい。また、画像処理装置301は、判定部として表示可否判定部361を含んでもよく、図27等で後述のように、判定部として注目領域制御部380を含んでもよい。   Note that the image processing apparatus 301 may include a white light image acquisition unit 320 and a special light image acquisition unit 330 as image acquisition units, and the image acquisition unit may acquire a white light image and a special light image as acquisition images. Alternatively, as will be described later with reference to FIG. 24 and the like, the image processing apparatus 301 may include only the white light image acquisition unit 320 as the image acquisition unit, and the image acquisition unit may acquire only the white light image as the acquisition image. Further, the image processing apparatus 301 may include a display availability determination unit 361 as a determination unit, and may include an attention area control unit 380 as a determination unit, as will be described later with reference to FIG.

ここで、注目領域とは、使用者にとって観察の優先順位が他の領域よりも相対的に高い領域であり、例えば、使用者が医者であり治療を希望した場合、粘膜部や病変部を写した領域を指す。また、他の例として、医者が観察したいと欲した対象が泡や便であれば、注目領域は、その泡部分や便部分を写した領域になる。即ち、使用者が注目すべき対象は、その観察目的によって異なるが、いずれにしても、その観察に際し、使用者にとって観察の優先順位が他の領域よりも相対的に高い領域が注目領域となる。また、注目領域は特殊光画像や白色光画像の画素の特徴量(色相、彩度等)を用いて検出することができる。例えば、特徴量に対して閾値を設定することで注目領域を検出でき、その閾値は、注目領域の種類に応じて変化する。例えば第1の種類の注目領域に対する色相、彩度等の特徴量の閾値と、第2の種類の注目領域に対する特徴量の閾値は異なった値になる。そして、注目領域の種類が変わった場合には、この特徴量の閾値を変えるだけで済み、注目領域の検出後の処理(判定処理等)については、本実施形態で説明した処理と同様の処理で実現することができる。   Here, the attention area is an area where the priority of observation for the user is higher than other areas. For example, if the user is a doctor and desires treatment, the mucous membrane area and the lesion area are copied. Refers to the area. As another example, if the object that the doctor desires to observe is a bubble or stool, the region of interest is a region in which the bubble or stool portion is copied. In other words, the object that the user should pay attention to depends on the purpose of observation, but in any case, in the observation, the region where the priority of observation for the user is relatively higher than other regions becomes the region of interest. . The attention area can be detected using the feature amount (hue, saturation, etc.) of the pixels of the special light image or the white light image. For example, the attention area can be detected by setting a threshold value for the feature amount, and the threshold value changes according to the type of the attention area. For example, the threshold value of the feature amount such as hue and saturation for the first type of attention region is different from the threshold value of the feature amount for the second type of attention region. Then, when the type of the attention area changes, it is only necessary to change the threshold value of the feature amount, and the processing after the detection of the attention area (determination processing, etc.) is the same as the processing described in the present embodiment. Can be realized.

また、本実施形態では、図3に示すように、注目領域検出部340により検出された注目領域に対応するアラート画像を生成するアラート画像生成部(アラート画像表示設定部350)を含む。そして、表示態様制御部360は、アラート画像生成部により生成されたアラート画像の中から表示対象注目領域に対応するアラート画像を表示する制御を行う。   In addition, as shown in FIG. 3, the present embodiment includes an alert image generation unit (alert image display setting unit 350) that generates an alert image corresponding to the attention area detected by the attention area detection unit 340. And the display mode control part 360 performs control which displays the alert image corresponding to a display object attention area from the alert images produced | generated by the alert image production | generation part.

また、本実施形態では、判定部(表示可否判定部361)は、注目領域の検出結果に応じて、アラート画像生成部(アラート画像表示設定部350)により生成されたアラート画像を表示すべきか否かの判定を行う。そして、表示態様制御部360は、判定部により非表示と判定されたアラート画像を非表示にする制御を行う。   In the present embodiment, the determination unit (display availability determination unit 361) should display the alert image generated by the alert image generation unit (alert image display setting unit 350) according to the detection result of the attention area. Judgment is made. And the display mode control part 360 performs control which hides the alert image determined as non-display by the determination part.

このようにすれば、図7のH3に示すように、検出された注目領域全てに対応するアラート画像を生成し、H4に示すように、アラート画像の表示・非表示を判定し、H5に示すように、表示すべきと判定されたアラート画像のみを表示できる。これにより、アラート画像の表示・非表示を制御できる。   If it does in this way, as shown to H3 of Drawing 7, the alert picture corresponding to all the attention fields detected will be generated, and the display / non-display of the alert picture will be judged as shown in H4, and it will be shown in H5 Thus, only the alert image determined to be displayed can be displayed. Thereby, display / non-display of the alert image can be controlled.

また、本実施形態では、図16(または図29)に示すように、判定部(表示可否判定部361、注目領域制御部380)は、注目領域の検出結果に基づいて、取得画像内における注目領域の数情報と注目領域のサイズ情報と注目領域の検出経過時間情報のうちの少なくとも1つ以上の情報を取得する。そして、判定部は、取得した情報に応じて、アラート画像を表示すべきか否かの判定を行う。   In the present embodiment, as illustrated in FIG. 16 (or FIG. 29), the determination unit (display availability determination unit 361, attention area control unit 380) performs attention in the acquired image based on the detection result of the attention area. At least one or more pieces of information on the number of areas, the size information of the attention area, and the detection elapsed time information of the attention area are acquired. Then, the determination unit determines whether or not to display an alert image according to the acquired information.

このようにすれば、注目領域の検出結果に応じて注目領域に対応するアラート画像を表示すべきか否かの判定を行い、アラート画像の表示・非表示を制御できる。   In this way, it is possible to determine whether or not to display an alert image corresponding to the attention area according to the detection result of the attention area, and to control display / non-display of the alert image.

また、本実施形態では、判定部は、数情報(例えばタグの最大値)により表される注目領域の数が所定の閾値Area_Numよりも大きい場合には、検出された注目領域の一部の注目領域に対応するアラート画像を非表示とする判定を行う。   Further, in the present embodiment, the determination unit, when the number of attention areas represented by the number information (for example, the maximum value of the tag) is larger than a predetermined threshold Area_Num, a part of attention of the detected attention area It is determined that the alert image corresponding to the region is not displayed.

また、本実施形態では、判定部は、数情報(例えばタグの最大値)により表される注目領域の数が所定の閾値Area_Numよりも大きい場合には、検出された注目領域の全部の注目領域に対応するアラート画像を非表示とする判定を行う。   Further, in the present embodiment, the determination unit, when the number of attention areas represented by the number information (for example, the maximum value of the tag) is larger than a predetermined threshold Area_Num, all the attention areas of the detected attention areas. It is determined that the alert image corresponding to is not displayed.

このようにすれば、検出された注目領域の数が多い場合に一部または全部の注目領域に対応するアラート画像を非表示にすることで、診断や処置の妨げとなるアラート画像を非表示にできる。   In this way, when there are a large number of detected attention areas, the alert images corresponding to some or all of the attention areas are hidden, so that the alert images that hinder diagnosis and treatment are hidden. it can.

また、本実施形態では、判定部は、サイズ情報により表されるサイズが所定の閾値よりも大きい注目領域に対応するアラート画像を非表示と判定する。   In the present embodiment, the determination unit determines that an alert image corresponding to a region of interest whose size represented by the size information is larger than a predetermined threshold is not displayed.

このようにすれば、検出された注目領域のサイズが大きい場合に、その注目領域に対応するアラート画像を非表示にすることで、診断や処置の妨げとなるアラート画像を非表示にできる。   In this way, when the size of the detected attention area is large, the alert image corresponding to the attention area is hidden, so that the alert image that hinders diagnosis and treatment can be hidden.

より具体的には、図17(A)等に示すように、判定部は、注目領域の数が所定の閾値Area_Numよりも小さい場合には、サイズが第1の閾値Size_Maxよりも大きい注目領域に対応するアラート画像を非表示とする判定を行う。一方、図18(B)等に示すように、判定部は、注目領域の数が所定の閾値よりも大きい場合には、サイズが第2の閾値Size_Minよりも大きい注目領域に対応するアラート画像を非表示とする判定を行う。第2の閾値Size_Minは、第1の閾値Size_Maxよりも小さい閾値である。   More specifically, as illustrated in FIG. 17A and the like, the determination unit determines that the size of the attention area is larger than the first threshold Size_Max when the number of attention areas is smaller than the predetermined threshold Area_Num. It is determined that the corresponding alert image is not displayed. On the other hand, as shown in FIG. 18B and the like, when the number of attention areas is larger than a predetermined threshold, the determination unit displays an alert image corresponding to the attention area whose size is larger than the second threshold Size_Min. Judgment to hide. The second threshold Size_Min is a threshold smaller than the first threshold Size_Max.

このようにすれば、検出された注目領域の数に応じて、注目領域のサイズ判定の閾値を変えることができる。これにより、図19、図20で上述のように、病変部の構造や撮影状況に応じてアラート画像の表示・非表示を制御できる。   In this way, the threshold value for determining the size of the attention area can be changed according to the number of the attention areas detected. Thereby, as described above with reference to FIGS. 19 and 20, the display / non-display of the alert image can be controlled in accordance with the structure of the lesioned part and the imaging state.

また、本実施形態では、図21に示すように、判定部は、検出経過時間情報により表される検出経過時間が所定の閾値を超える注目領域に対応するアラート画像を非表示とする判定を行う。具体的には、判定部は、検出経過時間情報として、注目領域が検出されたフレーム数をカウントする。より具体的には、図13に示すように、注目領域検出部340は、取得画像を複数の局所領域に分割し、各局所領域が注目領域に該当するか否かを検出する。そして、図21のG1に示すように、判定部は、注目領域に該当すると検出されたフレーム数Pt(m,n)を各局所領域においてカウントする。   In the present embodiment, as illustrated in FIG. 21, the determination unit determines to hide the alert image corresponding to the attention area whose detection elapsed time represented by the detection elapsed time information exceeds a predetermined threshold. . Specifically, the determination unit counts the number of frames in which the attention area is detected as the detection elapsed time information. More specifically, as illustrated in FIG. 13, the attention area detection unit 340 divides the acquired image into a plurality of local areas, and detects whether each local area corresponds to the attention area. Then, as indicated by G1 in FIG. 21, the determination unit counts the number of frames Pt (m, n) detected as corresponding to the region of interest in each local region.

このようにすれば、注目領域が検出されたフレーム数をカウントし、そのカウント値を検出経過時間情報としてアラート画像の表示・非表示を制御できる。これにより、所定期間はアラート画像を表示して見落としを抑止できる。また、診断・処置時には同じ領域を撮影するため、アラート画像を表示し続ける必要がなく、所定期間後はアラート画像を非表示にすることで診断や処置の妨げとなることを抑止できる。   In this way, it is possible to control the display / non-display of the alert image by counting the number of frames in which the attention area is detected and using the count value as the detection elapsed time information. Thereby, the alert image can be displayed for a predetermined period to suppress oversight. Further, since the same area is photographed during diagnosis and treatment, it is not necessary to continue displaying the alert image, and hiding the alert image after a predetermined period can be prevented from hindering diagnosis and treatment.

また、本実施形態では、図21のG1に示すように、判定部は、今回のフレーム(例えばFt−1)において注目領域に該当すると検出された局所領域のうち、前回のフレーム(Ft−2)において注目領域に該当すると検出された局所領域(メモリ3614に前回フレームのPt(m,n)が記憶されている領域)のカウント値をインクリメントする。また、判定部は、今回のフレーム(Ft−1)において注目領域に該当すると検出された局所領域のうち、前回のフレーム(Ft−2)において注目領域に非該当であると検出された局所領域(メモリ3614に前回フレームのPt(m,n)が記憶されていない領域)のカウント値を初期値(例えば“1”)に設定する。   In the present embodiment, as shown by G1 in FIG. 21, the determination unit detects the previous frame (Ft−2) among the local regions detected as corresponding to the attention region in the current frame (for example, Ft−1). ) Is incremented for the count value of the local area (the area in which Pt (m, n) of the previous frame is stored in the memory 3614) detected as the attention area. In addition, the determination unit determines that the local region detected as not corresponding to the attention region in the previous frame (Ft-2) among the local regions detected as corresponding to the attention region in the current frame (Ft-1). The count value of the area where Pt (m, n) of the previous frame is not stored in the memory 3614 is set to an initial value (for example, “1”).

このようにすれば、各局所領域において、連続して注目領域に該当すると検出されたフレーム数Pt(m,n)をカウントできる。これにより、各局所領域における検出経過時間情報を取得できる。   In this way, it is possible to count the number of frames Pt (m, n) detected as corresponding to the region of interest continuously in each local region. Thereby, the detection elapsed time information in each local region can be acquired.

また、本実施形態では、図13に示すように、注目領域検出部340は、注目領域に該当すると検出された局所領域のうち隣接する局所領域を注目領域群とする。そして、図21のG2に示すように、判定部は、注目領域群内の各局所領域における注目領域に該当したフレーム数に基づいて注目領域群の検出経過時間情報(例えばカウント値の平均値)を算出して、注目領域群に対応するアラート画像の表示可否を判定する。   In the present embodiment, as illustrated in FIG. 13, the attention area detection unit 340 sets adjacent local areas among the local areas detected as corresponding to the attention area as the attention area group. And as shown to G2 of FIG. 21, the determination part is based on the number of frames corresponding to the attention area in each local area in the attention area group, and the detection elapsed time information of the attention area group (for example, the average value of the count values). Is calculated to determine whether or not the alert image corresponding to the attention area group can be displayed.

このようにすれば、注目領域群の検出経過時間情報に基づいて、注目領域群に対応するアラート画像の表示可否を判定できる。これにより、図21のG3に示すように、注目領域群でまとめてアラート画像の表示・非表示を制御でき、局所領域毎にバラバラにアラート画像の表示・非表示が行われることを防止できる。   In this way, it is possible to determine whether or not to display the alert image corresponding to the attention area group based on the detection elapsed time information of the attention area group. As a result, as shown by G3 in FIG. 21, the display / non-display of the alert image can be controlled collectively by the attention area group, and the display / non-display of the alert image can be prevented from being performed separately for each local area.

また、本実施形態では、図3に示すように、アラート画像の表示・非表示の指示がインターフェース部(外部I/F部500)を介して入力される。そして、表示態様制御部360は、インターフェース部に表示の指示が入力された場合に、判定部による判定結果に依らず、注目領域に対応するアラート画像を表示する制御を行う。   In the present embodiment, as shown in FIG. 3, an instruction to display / hide the alert image is input via the interface unit (external I / F unit 500). Then, when a display instruction is input to the interface unit, the display mode control unit 360 performs control to display an alert image corresponding to the attention area regardless of the determination result by the determination unit.

このようにすれば、医師(ユーザ)が全ての注目領域にアラート画像を表示させたい場合に、インターフェース部を介して指示することで、アラート画像を強制的に表示させることができる。   In this way, when the doctor (user) wants to display the alert image in all the attention areas, the alert image can be forcibly displayed by giving an instruction via the interface unit.

また、本実施形態では、図15に示すように、表示態様制御部360は、表示対象注目領域に対応するアラート画像を出力画像に重畳する重畳部(アラート画像重畳部362)を有する。そして、表示態様制御部360は、表示対象注目領域に対応するアラート画像が重畳された出力画像を表示する制御を行う。より具体的には、重畳部は、表示対象注目領域に対応するアラート画像を、出力画像としての通常光画像(白色光画像)に重畳する。   In the present embodiment, as shown in FIG. 15, the display mode control unit 360 includes a superimposition unit (alert image superimposition unit 362) that superimposes an alert image corresponding to the display target attention area on the output image. And the display mode control part 360 performs control which displays the output image on which the alert image corresponding to a display object attention area was superimposed. More specifically, the superimposing unit superimposes the alert image corresponding to the display target attention area on the normal light image (white light image) as the output image.

このようにすれば、表示対象注目領域にアラート画像が重畳された通常光画像を表示する制御を行うことができる。これにより、アラート画像を表示する制御を行うことができる。   In this way, it is possible to perform control to display the normal light image in which the alert image is superimposed on the display target attention area. Thereby, control which displays an alert picture can be performed.

また、本実施形態では、図14(または図30)に示すように、領域選出部(対応領域選出部351)を含む。そして、注目領域検出部340は、特殊光画像から注目領域を検出する。領域選出部は、通常光画像から、注目領域に対応する領域である対応注目領域を選出する。アラート画像生成部(アラート画像表示設定部350、強調処理部352)は、通常光画像に含まれる対応注目領域内の画素に対して強調処理(例えば、上述のターゲット色を付与する処理)を行って、アラート画像を生成する。   In the present embodiment, as shown in FIG. 14 (or FIG. 30), an area selection unit (corresponding area selection unit 351) is included. Then, the attention area detection unit 340 detects the attention area from the special light image. The area selection unit selects a corresponding attention area that is an area corresponding to the attention area from the normal light image. The alert image generation unit (alert image display setting unit 350 and enhancement processing unit 352) performs enhancement processing (for example, processing for assigning the target color described above) on pixels in the corresponding attention area included in the normal light image. To generate an alert image.

また、本実施形態では、アラート画像生成部は、通常光画像内の対応注目領域と、対応注目領域以外の領域である非対応注目領域との境界線上に位置する画素(境界線の近傍領域)に対して強調処理を行って、アラート画像を生成してもよい。   Further, in the present embodiment, the alert image generation unit is a pixel located on the boundary line between the corresponding attention area in the normal light image and the non-corresponding attention area that is an area other than the corresponding attention area (region near the boundary line). The alert image may be generated by performing an emphasis process.

このようにすれば、対応注目領域内の画素または境界線上に位置する画素に対して強調処理を行うことで、注目領域に対応するアラート画像を生成できる。ここで、対応注目領域とは、白色光画像内の注目領域であり、特殊光画像において検出された注目領域と1対1に対応する領域である。例えば、白色光画像と特殊光画像が同一画素数の画像である場合、対応注目領域内の画素の座標は、特殊光画像における注目領域内の画素の座標と同一の座標である。   In this way, an alert image corresponding to the attention area can be generated by performing enhancement processing on the pixels in the corresponding attention area or the pixels located on the boundary line. Here, the corresponding attention area is an attention area in the white light image, and corresponds to the attention area detected in the special light image on a one-to-one basis. For example, when the white light image and the special light image are images having the same number of pixels, the coordinates of the pixels in the corresponding attention area are the same as the coordinates of the pixels in the attention area in the special light image.

また、本実施形態では、図11に示すように、注目領域検出部340は、特殊光画像内の画素の特定の色特徴量(例えば色相)に基づいて、注目領域を検出する。   In the present embodiment, as illustrated in FIG. 11, the attention area detection unit 340 detects the attention area based on a specific color feature amount (for example, hue) of a pixel in the special light image.

また、本実施形態では、図25等で後述のように、注目領域検出部340は、通常光画像内の画素の特定の色特徴量(例えば、R画素値とG画素値の比)に基づいて、注目領域を検出してもよい。   In this embodiment, as will be described later with reference to FIG. 25 and the like, the attention area detection unit 340 is based on a specific color feature amount (for example, a ratio between the R pixel value and the G pixel value) of the pixel in the normal light image. Thus, the attention area may be detected.

このようにすれば、通常光画像と特殊光画像との少なくとも一方の画像である取得画像の画素の特徴量に基づいて、注目領域を検出できる。   In this way, the attention area can be detected based on the feature amount of the pixel of the acquired image that is at least one of the normal light image and the special light image.

また、本実施形態では、特定の波長帯域は、白色の波長帯域(例えば380nm〜650nm)よりも狭い帯域である(NBI:Narrow Band Imaging)。例えば、通常光画像及び特殊光画像は、生体内を写した生体内画像であり、その生体内画像に含まれる特定の波長帯域は、血液中のヘモグロビンに吸収される波長の波長帯域である。例えば、このヘモグロビンに吸収される波長は、390nm〜445nm(第1の狭帯域光、狭帯域光のB2成分)、または530nm〜550nm(第2の狭帯域光、狭帯域光のG2成分)である。   In the present embodiment, the specific wavelength band is a narrower band (NBI: Narrow Band Imaging) than the white wavelength band (for example, 380 nm to 650 nm). For example, the normal light image and the special light image are in-vivo images of the living body, and a specific wavelength band included in the in-vivo image is a wavelength band of a wavelength that is absorbed by hemoglobin in blood. For example, the wavelength absorbed by this hemoglobin is 390 nm to 445 nm (first narrowband light, B2 component of narrowband light), or 530 nm to 550 nm (second narrowband light, G2 component of narrowband light). is there.

これにより、生体の表層部及び、深部に位置する血管の構造を観察することが可能になる。また得られた信号を特定のチャンネル(G2→R、B2→G,B)に入力することで、扁平上皮癌等の通常光では視認が難しい病変などを褐色等で表示することができ、病変部の見落としを抑止することができる。なお、390nm〜445nmまたは530nm〜550nmとは、ヘモグロビンに吸収されるという特性及び、それぞれ生体の表層部または深部まで到達するという特性から得られた数字である。ただし、この場合の波長帯域はこれに限定されず、例えばヘモグロビンによる吸収と生体の表層部又は深部への到達に関する実験結果等の変動要因により、波長帯域の下限値が0〜10%程度減少し、上限値が0〜10%程度上昇することも考えられる。   Thereby, it becomes possible to observe the structure of the blood vessel located in the surface layer part and the deep part of the living body. In addition, by inputting the obtained signals to specific channels (G2 → R, B2 → G, B), lesions that are difficult to see with normal light such as squamous cell carcinoma can be displayed in brown, etc. Oversight of parts can be suppressed. Note that 390 nm to 445 nm or 530 nm to 550 nm are numbers obtained from the characteristic of being absorbed by hemoglobin and the characteristic of reaching the surface layer or the deep part of the living body, respectively. However, the wavelength band in this case is not limited to this. For example, the lower limit of the wavelength band is reduced by about 0 to 10% due to the variation factors such as the absorption by hemoglobin and the experimental results regarding the arrival of the living body on the surface layer or the deep part. It is also conceivable that the upper limit value increases by about 0 to 10%.

また、本実施形態では、通常光画像および特殊光画像は生体内を写した生体内画像であり、その生体内画像に含まれる特定の波長帯域は、蛍光物質が発する蛍光の波長帯域であってもよい。例えば、特定の波長帯域は、490nm〜625nmの波長帯域であってもよい。   In the present embodiment, the normal light image and the special light image are in-vivo images obtained by copying the inside of the living body, and the specific wavelength band included in the in-vivo image is a wavelength band of fluorescence emitted from the fluorescent substance. Also good. For example, the specific wavelength band may be a wavelength band of 490 nm to 625 nm.

これにより、AFI(Auto Fluorescence Imaging)と呼ばれる蛍光観察が可能となる。この蛍光観察では、励起光(390nm〜470nm)を照射することで、コラーゲンなどの蛍光物質からの自家蛍光(intrinsic fluorescence。490nm〜625nm)を観察することができる。このような観察では病変を正常粘膜とは異なった色調で強調表示することができ、病変部の見落としを抑止すること等が可能になる。なお490nm〜625nmとは、上述の励起光を照射した際、コラーゲン等の蛍光物質が発する自家蛍光の波長帯域を示したものである。ただし、この場合の波長帯域はこれに限定されず、例えば蛍光物質が発する蛍光の波長帯域に関する実験結果等の変動要因により、波長帯域の下限値が0〜10%程度減少し、上限値が0〜10%程度上昇することも考えられる。また、ヘモグロビンに吸収される波長帯域(540nm〜560nm)を同時に照射し、擬似カラー画像を生成してもよい。   This enables fluorescence observation called AFI (Auto Fluorescence Imaging). In this fluorescence observation, autofluorescence (intrinsic fluorescence: 490 nm to 625 nm) from a fluorescent substance such as collagen can be observed by irradiating excitation light (390 nm to 470 nm). In such observation, the lesion can be highlighted with a color tone different from that of the normal mucous membrane, and the oversight of the lesion can be suppressed. Note that 490 nm to 625 nm indicates a wavelength band of autofluorescence emitted by a fluorescent substance such as collagen when irradiated with the excitation light described above. However, the wavelength band in this case is not limited to this. For example, the lower limit of the wavelength band is reduced by about 0 to 10% and the upper limit is 0 due to a variation factor such as an experimental result regarding the wavelength band of the fluorescence emitted by the fluorescent material. A rise of about 10% is also conceivable. Alternatively, a pseudo color image may be generated by simultaneously irradiating a wavelength band (540 nm to 560 nm) absorbed by hemoglobin.

また、本実施形態では、生体内画像に含まれる特定の波長帯域は、赤外光の波長帯域であってもよい。例えば、特定の波長帯域は、790nm〜820nm、または905nm〜970nmの波長帯域であってもよい。   In the present embodiment, the specific wavelength band included in the in-vivo image may be a wavelength band of infrared light. For example, the specific wavelength band may be a wavelength band of 790 nm to 820 nm, or 905 nm to 970 nm.

これにより、IRI(Infra Red Imaging)と呼ばれる赤外光観察が可能となる。この赤外光観察では、赤外光が吸収されやすい赤外指標薬剤であるICG(インドシアニングリーン)を静脈注射した上で、上記波長帯域の赤外光を照射することで、人間の目では視認が難しい粘膜深部の血管や血流情報を強調表示することができ、胃癌の深達度診断や治療方針の判定などが可能になる。なお、790nm〜820nmという数字は赤外指標薬剤の吸収がもっとも強いという特性から求められ、905nm〜970nmという数字は赤外指標薬剤の吸収がもっとも弱いという特性から求められたものである。ただし、この場合の波長帯域はこれに限定されず、例えば赤外指標薬剤の吸収に関する実験結果等の変動要因により、波長帯域の下限値が0〜10%程度減少し、上限値が0〜10%程度上昇することも考えられる。   Thereby, infrared light observation called IRI (Infra Red Imaging) becomes possible. In this infrared light observation, by injecting intravenously ICG (Indocyanine Green), which is an infrared index drug that easily absorbs infrared light, and irradiating infrared light in the above-mentioned wavelength band, It is possible to highlight blood vessels and blood flow information in the deep mucosa, which is difficult to visually recognize, and it is possible to diagnose the depth of gastric cancer and determine the treatment policy. The numbers 790 nm to 820 nm are obtained from the characteristic that the absorption of the infrared index drug is strongest, and the numbers 905 nm to 970 nm are calculated from the characteristic that the absorption of the infrared index drug is the weakest. However, the wavelength band in this case is not limited to this. For example, the lower limit of the wavelength band is reduced by about 0 to 10% and the upper limit is 0 to 10 due to a variation factor such as an experimental result regarding absorption of the infrared index drug. It can also be expected to increase by about%.

また、本実施形態では、取得された通常光画像に基づいて、特殊光画像を生成する特殊光画像取得部を含んでもよい。例えば、図3に示す特殊光画像取得部330が、白色光画像取得部320から通常光画像を取得し、取得した通常光画像から特殊光画像を生成してもよい。   Moreover, in this embodiment, you may include the special light image acquisition part which produces | generates a special light image based on the acquired normal light image. For example, the special light image acquisition unit 330 illustrated in FIG. 3 may acquire the normal light image from the white light image acquisition unit 320 and generate the special light image from the acquired normal light image.

具体的には、特殊光画像取得部は、取得された通常光画像から、白色の波長帯域における信号を抽出する信号抽出部を含む。そして、特殊光画像取得部は、抽出された白色光の波長帯域における信号に基づいて、特定の波長帯域における信号を含む特殊光画像を生成してもよい。例えば、信号抽出部は、通常光画像のRGB信号から10nm刻みに被写体の分光反射率特性を推定し、特殊光画像取得部は、その推定された信号成分を上記特定の帯域で積算して特殊光画像を生成する。   Specifically, the special light image acquisition unit includes a signal extraction unit that extracts a signal in the white wavelength band from the acquired normal light image. Then, the special light image acquisition unit may generate a special light image including a signal in a specific wavelength band based on the extracted signal in the wavelength band of white light. For example, the signal extraction unit estimates the spectral reflectance characteristics of the subject in 10 nm increments from the RGB signal of the normal light image, and the special light image acquisition unit integrates the estimated signal component in the specific band and performs special processing. Generate a light image.

より具体的には、特殊光画像取得部は、白色光の波長帯域における信号から、特定の波長帯域における信号を算出するためのマトリクスデータを設定するマトリクスデータ設定部を含んでもよい。そして、特殊光画像取得部は、設定されたマトリクスデータを用いて、白色の波長帯域における信号から特定の波長帯域における信号を算出して、特殊光画像を生成してもよい。例えば、マトリクスデータ設定部は、特定の波長帯域の照射光の分光特性が10nm刻みに記述されたテーブルデータをマトリクスデータとして設定する。そして、このテーブルデータに記述された分光特性(係数)を、10nm刻みに推定された被写体の分光反射率特性に乗算して積算し、特殊光画像を生成する。   More specifically, the special light image acquisition unit may include a matrix data setting unit that sets matrix data for calculating a signal in a specific wavelength band from a signal in the wavelength band of white light. Then, the special light image acquisition unit may generate a special light image by calculating a signal in a specific wavelength band from a signal in the white wavelength band using the set matrix data. For example, the matrix data setting unit sets table data in which spectral characteristics of irradiation light in a specific wavelength band are described in increments of 10 nm as matrix data. Then, the spectral characteristics (coefficients) described in the table data are multiplied by the spectral reflectance characteristics of the subject estimated in increments of 10 nm and integrated to generate a special light image.

これにより、通常光画像に基づいて特殊光画像を生成することができるため、通常光を照射する1つの光源と、通常光を撮像する1つの撮像素子のみでもシステムを実現することが可能になる。そのため、カプセル型内視鏡や、スコープ型内視鏡の挿入部を小さくすることができ、また部品が少なくてすむためコストを下げる効果も期待できる。   As a result, the special light image can be generated based on the normal light image, so that the system can be realized with only one light source that irradiates the normal light and one image sensor that images the normal light. . Therefore, the capsule endoscope and the insertion part of the scope endoscope can be made small, and the cost can be expected to be reduced because the number of parts is reduced.

また、本実施形態では、図3に示すように、内視鏡装置は、光源(光源部100)と、白色の波長帯域の光を透過する白色光フィルタ(第1撮像素子250の色フィルタ)と、特定の波長帯域の光を透過する特殊光フィルタ(第2撮像素子260の色フィルタ)を含む。そして、画像取得部は、光源からの光を被写体に照射して得られた光を、白色光フィルタに通過させて通常光画像を取得し、特殊光フィルタに通過させて特殊光画像を取得する。   In the present embodiment, as shown in FIG. 3, the endoscope apparatus includes a light source (light source unit 100) and a white light filter that transmits light in a white wavelength band (color filter of the first image sensor 250). And a special optical filter that transmits light in a specific wavelength band (color filter of the second image sensor 260). Then, the image acquisition unit passes the light obtained by irradiating the light from the light source to the subject through the white light filter to acquire the normal light image, and passes through the special light filter to acquire the special light image. .

また、本実施形態では、白色の波長帯域の光を発する白色光光源と、特定の波長帯域の光を発する特殊光光源を含んでもよい。そして、画像取得部は、白色光光源からの光を被写体に照射して得られた通常光画像を取得し、特殊光光源からの光を被写体に照射して得られた特殊光画像を取得してもよい。例えば、特殊光光源は、白色光光源と特殊光フィルタにより構成され、白色光を特殊光フィルタに透過させることで特殊光を発生させる。   In the present embodiment, a white light source that emits light in a white wavelength band and a special light source that emits light in a specific wavelength band may be included. The image acquisition unit acquires a normal light image obtained by irradiating the subject with light from the white light source, and acquires a special light image obtained by irradiating the subject with light from the special light source. May be. For example, the special light source includes a white light source and a special light filter, and generates special light by transmitting white light through the special light filter.

このようにすれば、白色の波長帯域における情報を有した被写体像を含む通常光画像と、特定の波長帯域における情報を有した被写体像を含む特殊光画像を取得できる。   In this way, it is possible to acquire a normal light image including a subject image having information in the white wavelength band and a special light image including a subject image having information in a specific wavelength band.

4.第2の構成例
上記第1の構成例では、特殊光画像から注目領域を検出する場合について説明したが、本実施形態では、白色光画像から注目領域を検出してもよい。図24に、この白色光画像から注目領域を検出する場合の構成例として、内視鏡装置の第2の構成例を示す。
4). Second Configuration Example In the first configuration example, the case where the attention area is detected from the special light image has been described. However, in the present embodiment, the attention area may be detected from the white light image. FIG. 24 shows a second configuration example of the endoscope apparatus as a configuration example when detecting the attention area from the white light image.

この内視鏡装置は、光源部100、撮像部200、制御装置300、表示部400、外部I/F部500を含む。なお、図3等ですでに説明した構成要素と同一の構成要素には同一の符号を付し、適宜説明を省略する。例えば、撮像部200と制御装置300以外の構成要素の動作は、図3に示す第1の構成例と同じである。   The endoscope apparatus includes a light source unit 100, an imaging unit 200, a control device 300, a display unit 400, and an external I / F unit 500. In addition, the same code | symbol is attached | subjected to the component same as the component already demonstrated in FIG. 3 etc., and description is abbreviate | omitted suitably. For example, the operations of the components other than the imaging unit 200 and the control device 300 are the same as those in the first configuration example shown in FIG.

撮像部200は、例えば体腔への挿入を可能にするため、細長くかつ湾曲可能に形成されている。撮像部200は、光源部100で集光された光を導くためのライトガイドファイバ210と、そのライトガイドファイバ210により先端まで導かれてきた光を拡散させて被写体に照射する照明レンズ220と、被写体から戻る反射光を集光する対物レンズ230と、集光された反射光を検出するための第1撮像素子250を含む。第1撮像素子250は、白色光画像を撮影するためのベイヤ配列の色フィルタを持つ撮像素子である。例えば、第1撮像素子250の色フィルタr,g,bは、図4に示す分光特性を有する。   The imaging unit 200 is formed to be elongated and bendable, for example, to enable insertion into a body cavity. The imaging unit 200 includes a light guide fiber 210 for guiding the light collected by the light source unit 100, an illumination lens 220 that irradiates the subject by diffusing the light guided to the tip by the light guide fiber 210, The objective lens 230 which condenses the reflected light which returns from a to-be-photographed object, and the 1st image sensor 250 for detecting the condensed reflected light are included. The first image sensor 250 is an image sensor having a Bayer array color filter for capturing a white light image. For example, the color filters r, g, and b of the first image sensor 250 have the spectral characteristics shown in FIG.

制御装置300は、A/D変換部310と、画像処理装置301と、制御部370を含む。画像処理装置301は、白色光画像取得部320と、注目領域検出部340と、アラート画像表示設定部350と、表示態様制御部360を含む。なお、注目領域検出部340以外の構成要素が行う処理は、上述の第1の構成例と同じである。   The control device 300 includes an A / D conversion unit 310, an image processing device 301, and a control unit 370. The image processing apparatus 301 includes a white light image acquisition unit 320, an attention area detection unit 340, an alert image display setting unit 350, and a display mode control unit 360. The processing performed by the components other than the attention area detection unit 340 is the same as that in the first configuration example described above.

図25に、注目領域検出部340の詳細な構成例を示す。注目領域検出部340は、白色光画像取得部320から出力される白色光画像から注目領域を検出する。具体的には、注目領域検出部340は、局所領域設定部341と、特徴量算出部345と、領域検出部346と、タグ情報付与部344を含む。なお、局所領域設定部341とタグ情報付与部344が行う処理は、上述の第1の構成例と同様であるため、説明を省略する。   FIG. 25 shows a detailed configuration example of the attention area detection unit 340. The attention area detection unit 340 detects the attention area from the white light image output from the white light image acquisition unit 320. Specifically, the attention area detection unit 340 includes a local area setting unit 341, a feature amount calculation unit 345, an area detection unit 346, and a tag information addition unit 344. Note that the processing performed by the local region setting unit 341 and the tag information adding unit 344 is the same as that in the first configuration example described above, and thus the description thereof is omitted.

特徴量算出部345は、局所領域設定部341で設定される全ての局所領域に対して、各局所領域におけるR,G信号値の平均値R_ave,G_aveを算出する。そして、特徴量算出部345は、全ての局所領域に対して、下式(13)を用いて特徴量Fを算出し、その特徴量Fを領域検出部346に出力する。
The feature amount calculation unit 345 calculates average values R_ave and G_ave of R and G signal values in each local region for all local regions set by the local region setting unit 341. Then, the feature amount calculation unit 345 calculates the feature amount F using the following expression (13) for all local regions, and outputs the feature amount F to the region detection unit 346.

領域検出部346は、特徴量算出部345で算出された各局所領域の特徴量Fを参照し、特徴量Fが閾値より大きい局所領域を注目領域として検出する。例えば、閾値は、0より大きく1より小さい値である。なお、閾値は、外部I/F部500を介してユーザが設定することも可能であるし、予め一定の値が設定されていてもよい。   The region detection unit 346 refers to the feature amount F of each local region calculated by the feature amount calculation unit 345, and detects a local region where the feature amount F is greater than the threshold value as the attention region. For example, the threshold value is a value greater than 0 and less than 1. The threshold value can be set by the user via the external I / F unit 500, or a predetermined value may be set in advance.

上記実施形態によれば、白色光画像を用いた診断を行う場合に、白色光画像内に存在する病変領域が通常とは異なる色領域として描出されるため、病変の見落としを防ぐことが可能になる。具体的には、白色光画像では、腫瘍等の病変部が赤みの強い領域として描出される特徴があるため、上式(13)に示す特徴量Fが閾値よりも大きい領域を注目領域として検出することで、腫瘍等の病変領域を検出することが可能である。   According to the above-described embodiment, when a diagnosis using a white light image is performed, the lesion area existing in the white light image is rendered as a color area different from the normal, and thus it is possible to prevent oversight of the lesion. Become. Specifically, in a white light image, there is a feature in which a lesion such as a tumor is depicted as a region with strong redness. Therefore, a region where the feature amount F shown in the above equation (13) is larger than a threshold is detected as a region of interest This makes it possible to detect a lesion area such as a tumor.

また、上記実施形態によれば、検出された注目領域の情報に応じてアラート画像の表示態様を制御することで、アラート表示が医師の診断や処置の妨げとなる課題を改善できる。   Moreover, according to the said embodiment, the problem which alert display obstructs a doctor's diagnosis and treatment can be improved by controlling the display mode of an alert image according to the information of the detected attention area.

また、上記実施形態によれば、白色光画像のみを用いて処理を行うため、第1の構成例のように白色光画像と特殊光画像を用いる場合に比べて、撮像部200や制御装置300の構成を簡略化できる。   Further, according to the embodiment, since processing is performed using only the white light image, the imaging unit 200 and the control device 300 are compared with the case where the white light image and the special light image are used as in the first configuration example. Can be simplified.

ここで、上記実施形態では、画像処理装置301を構成する各部をハードウェアで構成することとしたが、本実施形態はこれに限定されず、CPUがプログラムを実行することによってソフトウェアとして実現してもよい。この場合、制御装置300や画像処理装置301は、例えば図35等で後述するコンピュータシステムにより実現される。   Here, in the above embodiment, each unit constituting the image processing apparatus 301 is configured by hardware. However, the present embodiment is not limited to this, and is realized as software by the CPU executing a program. Also good. In this case, the control device 300 and the image processing device 301 are realized by a computer system described later with reference to FIG.

各部が行う処理の一部をソフトウェアで構成する場合の一例として、あらかじめ取得された画像に対して画像処理装置301が行う処理をソフトウェアで実現する場合の処理手順を、図26に示すフローチャートを用いて説明する。例えば、あらかじめ取得された画像とは、A/D変換部310が出力するベイヤ配列の出力画像を、RAWファイルとして記録媒体に記録した画像である。   As an example of a case where a part of processing performed by each unit is configured by software, a processing procedure when the processing performed by the image processing apparatus 301 for an image acquired in advance is realized by software is illustrated in a flowchart illustrated in FIG. I will explain. For example, an image acquired in advance is an image obtained by recording an output image of the Bayer array output from the A / D conversion unit 310 on a recording medium as a RAW file.

図26に示すように、この処理が開始されると、上述した強調処理や判定処理に用いるパラメータをメモリから読み込む(ステップS10)。次に、白色光画像をメモリから読み込む(ステップS11)。次に、読み込んだ白色光画像から、上式(13)に示す特徴量に基づいて注目領域を検出する(ステップS12)。   As shown in FIG. 26, when this process is started, parameters used in the above-described enhancement process and determination process are read from the memory (step S10). Next, a white light image is read from the memory (step S11). Next, a region of interest is detected from the read white light image based on the feature amount shown in the above equation (13) (step S12).

次に、ステップS12で検出された注目領域に対応する白色光画像の領域内の全ての画素に対し、上式(9)に示した強調処理を施し、アラート画像を作成する(ステップS13)。次に、ステップS13で作成したアラート画像を、ステップS12で検出された注目領域の情報に応じて、白色光画像に重畳し、アラート画像を重畳した白色光画像を表示画像として出力する(ステップS14)。なお、アラート画像の重畳処理は、図23で上述の処理と同様である。次に、全ての画像に対して一連の処理が完了した場合は、処理を終了し(ステップS15、YES)、未処理の画像が残っている場合は、同様の処理を継続する(ステップS15、NO)。   Next, the enhancement process shown in the above equation (9) is performed on all the pixels in the white light image area corresponding to the attention area detected in step S12 to create an alert image (step S13). Next, the alert image created in step S13 is superimposed on the white light image according to the attention area information detected in step S12, and the white light image on which the alert image is superimposed is output as a display image (step S14). ). The alert image superimposing process is the same as the process described above with reference to FIG. Next, when a series of processing is completed for all the images, the processing ends (step S15, YES), and when an unprocessed image remains, the same processing is continued (step S15, NO).

5.第3の構成例
上記実施形態では、検出された全ての注目領域に対応するアラート画像を予め生成する場合について説明したが、本実施形態では、表示すべきと判定された注目領域に対応するアラート画像のみを生成してもよい。図27に、表示すべきと判定された注目領域に対応するアラート画像のみを生成する場合の構成例として、内視鏡装置の第3の構成例を示す。
5). Third Configuration Example In the above embodiment, a case has been described in which alert images corresponding to all detected attention areas are generated in advance. However, in this embodiment, an alert corresponding to an attention area determined to be displayed is displayed. Only an image may be generated. FIG. 27 shows a third configuration example of the endoscope apparatus as a configuration example when generating only an alert image corresponding to a region of interest determined to be displayed.

この内視鏡装置は、光源部100、撮像部200、制御装置300、表示部400、外部I/F部500を含む。なお、図3等ですでに説明した構成要素と同一の構成要素には同一の符号を付し、適宜説明を省略する。例えば、制御装置300以外の構成要素の動作は、図3に示す第1の構成例と同じである。   The endoscope apparatus includes a light source unit 100, an imaging unit 200, a control device 300, a display unit 400, and an external I / F unit 500. In addition, the same code | symbol is attached | subjected to the component same as the component already demonstrated in FIG. 3 etc., and description is abbreviate | omitted suitably. For example, the operations of the components other than the control device 300 are the same as those in the first configuration example shown in FIG.

制御装置300は、2つのA/D変換部310,311と、画像処理装置301(画像処理部)と、制御部370を含む。画像処理装置301は、白色光画像取得部320と、特殊光画像取得部330と、注目領域検出部340と、注目領域制御部380と、表示態様制御部390を含む。   The control device 300 includes two A / D conversion units 310 and 311, an image processing device 301 (image processing unit), and a control unit 370. The image processing device 301 includes a white light image acquisition unit 320, a special light image acquisition unit 330, a region of interest detection unit 340, a region of interest control unit 380, and a display mode control unit 390.

まず、図28を用いて、画像処理装置301が行う処理の概要について説明する。図28のI1,I2に示すように、特殊光画像と白色光画像が取得され、特殊光画像の中から病変部等の注目領域が検出され、各注目領域にタグが付与される。ここまでは、上述の第1の構成例と同様の処理である。次に、I3に示すように、注目領域のサイズ等に応じてアラート画像の表示可否が判定される。例えば、タグ“1”の注目領域のアラート画像は非表示と判定され、タグ“2”の注目領域のアラート画像は表示と判定される。次に、I4に示すように、表示すべきと判定された注目領域に対応するアラート画像が白色光画像に基づいて生成される。すなわち、タグ“1”の注目領域のアラート画像は生成されず、タグ“2”の注目領域のアラート画像が生成される。そして、I5に示すように、生成されたアラート画像が白色光画像に重畳されて表示される。   First, an outline of processing performed by the image processing apparatus 301 will be described with reference to FIG. As indicated by I1 and I2 in FIG. 28, a special light image and a white light image are acquired, a region of interest such as a lesion is detected from the special light image, and a tag is assigned to each region of interest. Up to this point, the processing is the same as that in the first configuration example described above. Next, as shown at I3, whether or not the alert image can be displayed is determined according to the size of the region of interest or the like. For example, the alert image of the attention area of the tag “1” is determined not to be displayed, and the alert image of the attention area of the tag “2” is determined to be displayed. Next, as indicated by I4, an alert image corresponding to the attention area determined to be displayed is generated based on the white light image. That is, the alert image of the attention area of the tag “1” is not generated, and the alert image of the attention area of the tag “2” is generated. And as shown to I5, the produced | generated alert image is superimposed and displayed on a white light image.

次に、各構成要素の詳細な構成例とその動作について説明する。なお、A/D変換部310,311と白色光画像取得部320と特殊光画像取得部330と注目領域検出部340の処理は、上述の第1の構成例と同一であるため、説明を省略する。   Next, a detailed configuration example and operation of each component will be described. The processes of the A / D conversion units 310 and 311, the white light image acquisition unit 320, the special light image acquisition unit 330, and the attention area detection unit 340 are the same as those in the first configuration example described above, and thus the description thereof is omitted. To do.

図29に、注目領域制御部380の詳細な構成例を示す。注目領域制御部380は、注目領域選択部381と、領域数判定部3611と、領域サイズ判定部3612と、検出回数算出部3613と、メモリ3614と、経過時間判定部3615を含む。なお、領域数判定部3611と領域サイズ判定部3612と検出回数算出部3613とメモリ3614と経過時間判定部3615が行う処理は、上述の第1の構成例と同じである。   FIG. 29 shows a detailed configuration example of the attention area control unit 380. The attention area control section 380 includes an attention area selection section 381, an area number determination section 3611, an area size determination section 3612, a detection count calculation section 3613, a memory 3614, and an elapsed time determination section 3615. Note that the processing performed by the number-of-regions determination unit 3611, the region size determination unit 3612, the detection count calculation unit 3613, the memory 3614, and the elapsed time determination unit 3615 is the same as that in the first configuration example described above.

注目領域選択部381は、注目領域検出部340から出力される注目領域群のうち、アラートを表示すべきと判断された注目領域群の情報のみを表示態様制御部390に出力する。具体的には、注目領域選択部381は、領域サイズ判定部3612及び経過時間判定部3615の両方から共通に出力されているタグ情報が付与されている全ての注目領域の座標(例えば、注目領域内の全画素の座標)を、表示態様制御部390に出力する。また、上記共通に出力されているタグ情報が存在しない場合には、注目領域選択部381は、表示すべきアラート画像がないことを示すトリガ信号を表示態様制御部390に出力する。   The attention area selection unit 381 outputs only the information of the attention area group for which the alert should be displayed among the attention area groups output from the attention area detection unit 340 to the display mode control unit 390. Specifically, the attention area selection unit 381 has the coordinates (for example, attention area) of all attention areas to which tag information output in common from both the area size determination unit 3612 and the elapsed time determination unit 3615 is assigned. The coordinates of all the pixels) are output to the display mode control unit 390. When the tag information output in common does not exist, the attention area selection unit 381 outputs a trigger signal indicating that there is no alert image to be displayed to the display mode control unit 390.

図30に、表示態様制御部390の詳細な構成例を示す。表示態様制御部390は、対応領域選出部351と、強調処理部352と、アラート画像重畳部362を含む。   FIG. 30 shows a detailed configuration example of the display mode control unit 390. The display mode control unit 390 includes a corresponding area selection unit 351, an enhancement processing unit 352, and an alert image superimposing unit 362.

対応領域選出部351は、注目領域制御部380から出力される注目領域に対応する白色光画像の領域に含まれる画素の情報(座標や画素値等)を強調処理部352に出力する。強調処理部352は、対応領域選出部351から出力される全ての画素に対し、上式(9)に示す色変換処理を施し、色変換処理後の画素の情報をアラート画像として、アラート画像重畳部362に出力する。アラート画像重畳部362は、白色光画像取得部320から出力される白色光画像にアラート画像を重畳し、その白色光画像を表示部400に出力する。   The corresponding area selection unit 351 outputs information (such as coordinates and pixel values) of pixels included in the white light image area corresponding to the attention area output from the attention area control unit 380 to the enhancement processing unit 352. The enhancement processing unit 352 performs the color conversion processing shown in the above equation (9) on all the pixels output from the corresponding region selection unit 351, and alert information is superimposed using the pixel information after the color conversion processing as an alert image. To the unit 362. The alert image superimposing unit 362 superimposes the alert image on the white light image output from the white light image acquiring unit 320 and outputs the white light image to the display unit 400.

上記実施形態によれば、白色光画像と特殊光画像とを用いた診断を行う場合に、白色光画像内に存在する病変領域が通常とは異なる色領域として描出されるため、医師への負荷を増大させることなく、病変の見落としを防ぐことが可能になる。また、検出された注目領域の情報に応じてアラート画像の表示態様を制御することで、アラート表示が医師の診断、処置の妨げとなる問題も改善することができる。   According to the above embodiment, when a diagnosis using a white light image and a special light image is performed, the lesion area present in the white light image is rendered as a color area different from the normal, and thus a load on the doctor. It is possible to prevent oversight of the lesion without increasing the number of lesions. Further, by controlling the display mode of the alert image according to the detected information of the attention area, it is possible to improve the problem that the alert display hinders the diagnosis and treatment of the doctor.

また、第1の構成例では、検出された全ての注目領域群に対応するアラート画像を作成するが、上記第3の構成例では注目領域選択部381でアラート画像を表示すべきと判定された注目領域群に対応するアラート画像のみを作成する。そのため、上記実施形態によれば、第1の構成例に比べ、強調処理部352の処理時間を短縮できる特徴がある。   In the first configuration example, alert images corresponding to all detected attention area groups are created. In the third configuration example, the attention area selection unit 381 determines that an alert image should be displayed. Only the alert image corresponding to the attention area group is created. Therefore, according to the above embodiment, the processing time of the enhancement processing unit 352 can be shortened compared to the first configuration example.

なお、上記実施形態では、注目領域の数やサイズや経過時間を用いた判定処理により、注目領域を制御する場合を例に説明したが、本実施形態はこれに限定されない。例えば、本実施形態では、判定処理に関係なく、アラート画像を強制的に表示する構成としてもよい。この場合、ユーザは外部I/F部500を介してアラート画像を強制的に表示させる設定を行う。この設定情報は、制御部370にトリガ信号として送信され、制御部370は、そのトリガ信号を注目領域選択部381に出力する。そして、注目領域選択部381は、制御部370からそのトリガ信号が出力されている場合、領域サイズ判定部3612や経過時間判定部3615の判定結果に関係なく、注目領域検出部340から出力される全ての注目領域の座標を表示態様制御部390に出力する。   In the above embodiment, the case where the attention area is controlled by the determination process using the number, size, and elapsed time of the attention area has been described as an example. However, the present embodiment is not limited to this. For example, in the present embodiment, the alert image may be forcibly displayed regardless of the determination process. In this case, the user performs setting to forcibly display the alert image via the external I / F unit 500. The setting information is transmitted as a trigger signal to the control unit 370, and the control unit 370 outputs the trigger signal to the attention area selection unit 381. When the trigger signal is output from the control unit 370, the attention area selection unit 381 is output from the attention area detection unit 340 regardless of the determination results of the area size determination unit 3612 and the elapsed time determination unit 3615. The coordinates of all the attention areas are output to the display mode control unit 390.

また、上記実施形態では、上式(9)を用いた色変換処理によりアラート画像を作成する場合について説明したが、本実施形態はこれに限定されず、任意の輝度変換処理や色変換処理を用いてアラート画像を作成してもよい。   Moreover, although the said embodiment demonstrated the case where an alert image was produced by the color conversion process using said Formula (9), this embodiment is not limited to this, Arbitrary brightness conversion processes and color conversion processes are performed. An alert image may be created by using it.

また、上記実施形態では、検出された注目領域に対応する白色光画像の領域内における全ての画素に対して、上式(9)を用いて強調処理を施す場合について説明したが、本実施形態はこれに限定されない。例えば、本実施形態では、注目領域と、注目領域として検出されなかった非注目領域との境界に対応する白色光画像内の画素に対して、強調処理を施すことで、アラート画像を作成してもよい。この場合、例えば注目領域と非注目領域との境界(境界近傍)に対応する白色光画像内の全ての画素に対し、上式(10)に示す色変換処理を施せばよい。   In the above embodiment, a case has been described in which enhancement processing is performed on all the pixels in the white light image region corresponding to the detected attention region using the above equation (9). Is not limited to this. For example, in the present embodiment, an alert image is created by performing enhancement processing on the pixels in the white light image corresponding to the boundary between the attention area and the non-attention area not detected as the attention area. Also good. In this case, for example, all the pixels in the white light image corresponding to the boundary (near the boundary) between the attention area and the non-attention area may be subjected to the color conversion processing represented by the above equation (10).

ここで、上記実施形態では、画像処理装置301を構成する各部をハードウェアで構成することとしたが、本実施形態はこれに限定されず、CPUがプログラムを実行することによってソフトウェアとして実現してもよい。この場合、制御装置300や画像処理装置301は、例えば図35等で後述するコンピュータシステムにより実現される。   Here, in the above embodiment, each unit constituting the image processing apparatus 301 is configured by hardware. However, the present embodiment is not limited to this, and is realized as software by the CPU executing a program. Also good. In this case, the control device 300 and the image processing device 301 are realized by a computer system described later with reference to FIG.

各部が行う処理の一部をソフトウェアで構成する場合の一例として、あらかじめ取得された画像に対して画像処理装置301が行う処理をソフトウェアで実現する場合の処理手順を、図31に示すフローチャートを用いて説明する。例えば、あらかじめ取得された画像とは、A/D変換部310,311が出力するベイヤ配列の出力画像を、RAWファイルとして記録媒体に記録した画像である。   As an example of a case where a part of the processing performed by each unit is configured by software, a processing procedure when the processing performed by the image processing apparatus 301 on an image acquired in advance is realized by software is described with reference to the flowchart illustrated in FIG. I will explain. For example, an image acquired in advance is an image obtained by recording an output image of the Bayer array output from the A / D conversion units 310 and 311 as a RAW file on a recording medium.

図31に示すように、この処理が開始されると、上述した強調処理や判定処理に用いるパラメータをメモリから読み込む(ステップS20)。次に、狭帯域光画像をメモリから読み込み(ステップS21)、白色光画像をメモリから読み込む(ステップS22)。次に、読み込んだ狭帯域光画像から第1の構成例と同様の方法で注目領域を検出する(ステップS23)。   As shown in FIG. 31, when this process is started, parameters used in the above-described enhancement process and determination process are read from the memory (step S20). Next, the narrow-band light image is read from the memory (step S21), and the white light image is read from the memory (step S22). Next, a region of interest is detected from the read narrowband light image by the same method as in the first configuration example (step S23).

次に、ステップS23で検出された注目領域群の数やサイズや経過時間に応じて判定処理を行い、アラート画像を表示すべきと判定された注目領域の情報を出力する(ステップS24)。次に、ステップS24より出力される注目領域に対応する白色光画像の領域内の全ての画素に対し、上式(9)に示す強調処理を行うことでアラート画像を作成する(ステップS25)。次に、ステップS25で作成したアラート画像を白色光画像に重畳し、表示画像として出力する(ステップS26)。なお、ステップS24で、トリガ信号が出力された場合には、上記重畳処理を行わず、白色光画像をそのまま表示画像として出力する。次に、全ての画像に対して一連の処理が完了した場合は処理を終了し(ステップS27、YES)、未処理の画像が残っている場合は同様の処理を継続する(ステップS27、NO)。   Next, determination processing is performed according to the number, size, and elapsed time of the attention area group detected in step S23, and information on the attention area determined to display the alert image is output (step S24). Next, an alert image is created by performing the enhancement processing shown in the above equation (9) on all pixels in the white light image region corresponding to the region of interest output from step S24 (step S25). Next, the alert image created in step S25 is superimposed on the white light image and output as a display image (step S26). If a trigger signal is output in step S24, the white light image is output as it is as a display image without performing the superimposition process. Next, if a series of processing is completed for all images, the processing ends (step S27, YES), and if an unprocessed image remains, the same processing is continued (step S27, NO). .

次に、図32に示すフローチャートを用いて、注目領域制御処理(ステップS24)の処理手順について説明する。   Next, the processing procedure of the attention area control process (step S24) will be described using the flowchart shown in FIG.

図32に示すように、この処理が開始されると、ステップS23で検出された注目領域群の数を算出し、その注目領域群の数を閾値Area_Numと比較した結果をフラグ情報として出力する(ステップS241)。具体的には、フラグ情報として、注目領域群の数が閾値Area_Numよりも大きい場合にはフラグ“0”を出力し、閾値以下の場合にはフラグ“1”を出力する。   As shown in FIG. 32, when this process is started, the number of attention area groups detected in step S23 is calculated, and the result of comparing the number of attention area groups with a threshold Area_Num is output as flag information ( Step S241). Specifically, as flag information, a flag “0” is output when the number of attention area groups is larger than the threshold value Area_Num, and a flag “1” is output when the number is less than the threshold value.

次に、ステップS23で検出された各注目領域群のサイズを算出する。そして、ステップS241で出力されるフラグ情報を参照し、フラグが“0”の場合は注目領域群のサイズを閾値Size_Minと比較した結果を出力する。一方、フラグが“1”の場合は注目領域群のサイズを閾値Size_Maxと比較した結果を出力する(ステップS242)。具体的には、比較結果として、サイズが閾値以下であると判定された注目領域群に付与されている全てのタグ情報が出力される。   Next, the size of each attention area group detected in step S23 is calculated. Then, the flag information output in step S241 is referred to. When the flag is “0”, the result of comparing the size of the region of interest with the threshold Size_Min is output. On the other hand, if the flag is “1”, the result of comparing the size of the region of interest with the threshold Size_Max is output (step S242). Specifically, as the comparison result, all tag information assigned to the attention area group whose size is determined to be equal to or smaller than the threshold value is output.

次に、ステップS23で検出された各注目領域群の検出経過時間を上式(11)に示す手法により算出し、その検出経過時間を閾値Area_Timeと比較した結果を出力する(ステップS243)。具体的には、比較結果としてタグ情報を出力する。このタグ情報は、検出経過時間が閾値Area_Time以下であると判定された注目領域群に付与されている全てのタグ情報である。   Next, the detected elapsed time of each region of interest detected in step S23 is calculated by the method shown in the above equation (11), and the result of comparing the detected elapsed time with the threshold value Area_Time is output (step S243). Specifically, tag information is output as a comparison result. This tag information is all tag information assigned to the attention area group determined that the detected elapsed time is equal to or less than the threshold value Area_Time.

次に、ステップS242及びステップS243の判定結果に応じて、アラート画像を表示すべき注目領域を選択する(ステップS244)。具体的には、ステップS242,S243で出力されたタグ情報のうち共通のタグ情報を抽出し、その共通のタグ情報が付与されている全ての注目領域の座標を出力する。また、共通のタグ情報が存在しない場合には、表示すべきアラートが存在しないことを示すトリガ信号を出力する。   Next, the attention area where the alert image is to be displayed is selected according to the determination results of step S242 and step S243 (step S244). Specifically, common tag information is extracted from the tag information output in steps S242 and S243, and the coordinates of all the attention areas to which the common tag information is assigned are output. When common tag information does not exist, a trigger signal indicating that there is no alert to be displayed is output.

なお、上記実施形態では、注目領域群の数が閾値Area_Numより大きい場合に、閾値Size_Minよりも小さい注目領域群に対応するアラート画像のみを表示する場合を説明したが、本実施形態はこれに限定されない。例えば、本実施形態では、注目領域群の数が閾値Area_Numより大きい場合に、全ての注目領域群に対応するアラート画像を非表示としてもよい。この場合、領域サイズ判定部3612は、領域数判定部3611からフラグ“0”が出力されている場合に、全ての注目領域群に対応するアラート画像を非表示とする判定を行う。   In the above-described embodiment, the case has been described in which only the alert image corresponding to the attention area group smaller than the threshold Size_Min is displayed when the number of attention area groups is larger than the threshold value Area_Num. However, the present embodiment is not limited thereto. Not. For example, in this embodiment, when the number of attention area groups is larger than the threshold value Area_Num, alert images corresponding to all attention area groups may be hidden. In this case, when the flag “0” is output from the number-of-regions determination unit 3611, the region size determination unit 3612 determines to hide the alert images corresponding to all the attention region groups.

また、上記実施形態では、注目領域群のサイズ(局所領域の数、画素数等)に応じてアラート表示を制御する場合を説明したが、本実施形態はこれに限定されない。例えば、本実施形態では、注目領域群のサイズではなく、注目領域群の狭帯域光画像に対する大きさ(面積)の割合に応じてアラート表示を制御してもよい。この場合、例えば注目領域群を構成する注目領域の数と、局所領域設定部341で設定される全ての局所領域の数との比率を、その注目領域群の狭帯域光画像に対する大きさの割合とする。そして、その割合が閾値よりも大きい場合、注目領域群に対応するアラート画像を非表示とするように注目領域を制御する。   Moreover, although the said embodiment demonstrated the case where alert display was controlled according to the size (the number of local areas, the number of pixels, etc.) of an attention area group, this embodiment is not limited to this. For example, in the present embodiment, the alert display may be controlled according to the ratio of the size (area) of the attention area group to the narrow-band light image instead of the size of the attention area group. In this case, for example, the ratio of the number of attention areas constituting the attention area group and the number of all local areas set by the local area setting unit 341 is the ratio of the size of the attention area group to the narrowband light image. And When the ratio is larger than the threshold value, the attention area is controlled so that the alert image corresponding to the attention area group is not displayed.

上記実施形態によれば、図27に示すように、判定部(注目領域制御部380)は、アラート画像を表示すべきか否かの判定を行って、注目領域検出部340により検出された注目領域の中から表示対象注目領域を選択する。アラート画像生成部(図30に示す強調処理部352)は、判定部により選択された表示対象注目領域に対応するアラート画像を生成する。そして、表示態様制御部390は、アラート画像生成部により生成されたアラート画像を表示する制御を行う。   According to the above embodiment, as shown in FIG. 27, the determination unit (attention region control unit 380) determines whether or not an alert image should be displayed, and the attention region detected by the attention region detection unit 340. A display target attention area is selected from the list. The alert image generation unit (enhancement processing unit 352 shown in FIG. 30) generates an alert image corresponding to the display target attention area selected by the determination unit. And the display mode control part 390 performs control which displays the alert image produced | generated by the alert image production | generation part.

このようにすれば、図28のI3に示すように、検出された注目領域の中からアラート画像を表示すべき注目領域を選択し、I4に示すように、選択された注目領域のみに対応するアラート画像を生成し、I5に示すように、表示すべきと判定されたアラート画像のみを表示できる。これにより、アラート画像の表示・非表示を制御できる。   In this way, as shown in I3 of FIG. 28, the attention area where the alert image is to be displayed is selected from the detected attention areas, and only the selected attention area is supported as shown in I4. An alert image is generated, and only the alert image determined to be displayed can be displayed as indicated by I5. Thereby, display / non-display of the alert image can be controlled.

6.第4の構成例
上記第3の構成例では、特殊光画像から注目領域を検出する場合について説明したが、本実施形態では、白色光画像から注目領域を検出してもよい。図33に、この白色光画像から注目領域を検出する場合の構成例として、内視鏡装置の第4の構成例を示す。
6). Fourth Configuration Example In the third configuration example, the case where the attention area is detected from the special light image has been described. However, in the present embodiment, the attention area may be detected from the white light image. FIG. 33 shows a fourth configuration example of the endoscope apparatus as a configuration example when detecting the attention area from the white light image.

この内視鏡装置は、光源部100、撮像部200、制御装置300、表示部400、外部I/F部500を含む。なお、図3等ですでに説明した構成要素と同一の構成要素には同一の符号を付し、適宜説明を省略する。例えば、制御装置300以外の構成要素の動作は、図24に示す第2の構成例と同じである。   The endoscope apparatus includes a light source unit 100, an imaging unit 200, a control device 300, a display unit 400, and an external I / F unit 500. In addition, the same code | symbol is attached | subjected to the component same as the component already demonstrated in FIG. 3 etc., and description is abbreviate | omitted suitably. For example, the operations of the components other than the control device 300 are the same as those in the second configuration example shown in FIG.

制御装置300は、A/D変換部310と、画像処理装置301と、制御部370を含む。画像処理装置301は、白色光画像取得部320と、注目領域検出部340と、注目領域制御部380と、表示態様制御部390を含む。なお、注目領域検出部340が行う処理は、上述の第2の構成例と同じであり、注目領域検出部340以外の構成要素が行う処理は、上述の第3の構成例と同じである。   The control device 300 includes an A / D conversion unit 310, an image processing device 301, and a control unit 370. The image processing device 301 includes a white light image acquisition unit 320, a region of interest detection unit 340, a region of interest control unit 380, and a display mode control unit 390. Note that the processing performed by the attention area detection unit 340 is the same as that in the above-described second configuration example, and the processing performed by components other than the attention area detection unit 340 is the same as that in the above-described third configuration example.

上記構成例によれば、白色光画像を用いた診断を行う場合に、白色光画像内に存在する病変領域が通常とは異なる色領域として描出されるため、医師への負荷を増大させることなく、病変の見落としを防ぐことが可能になる。また、検出された注目領域の情報に応じてアラート画像の表示態様を制御することで、アラート表示が医師の診断、処置の妨げとなる課題を改善できる。   According to the above configuration example, when a diagnosis using a white light image is performed, a lesion area existing in the white light image is rendered as a color area different from a normal one, so that the burden on the doctor is not increased. It becomes possible to prevent oversight of lesions. Further, by controlling the display mode of the alert image according to the detected information of the attention area, it is possible to improve the problem that the alert display hinders the diagnosis and treatment of the doctor.

また、上記実施形態によれば、白色光画像のみを用いて処理を行うため、第3の構成例のように白色光画像と特殊光画像を用いる場合に比べて、撮像部200及び制御装置300の構成を簡略化できる。   Further, according to the above embodiment, since processing is performed using only the white light image, the imaging unit 200 and the control device 300 are compared with the case where the white light image and the special light image are used as in the third configuration example. Can be simplified.

ここで、上記実施形態では、画像処理装置301を構成する各部をハードウェアで構成することとしたが、本実施形態はこれに限定されず、CPUがプログラムを実行することによってソフトウェアとして実現してもよい。この場合、制御装置300や画像処理装置301は、例えば図35等で後述するコンピュータシステムにより実現される。   Here, in the above embodiment, each unit constituting the image processing apparatus 301 is configured by hardware. However, the present embodiment is not limited to this, and is realized as software by the CPU executing a program. Also good. In this case, the control device 300 and the image processing device 301 are realized by a computer system described later with reference to FIG.

各部が行う処理の一部をソフトウェアで構成する場合の一例として、あらかじめ取得された画像に対して画像処理装置301が行う処理をソフトウェアで実現する場合の処理手順を、図34に示すフローチャートを用いて説明する。例えば、あらかじめ取得された画像とは、A/D変換部310が出力するベイヤ配列の出力画像を、RAWファイルとして記録媒体に記録した画像である。   As an example of a case where a part of the processing performed by each unit is configured by software, a processing procedure when the processing performed by the image processing apparatus 301 for an image acquired in advance is realized by software is illustrated in a flowchart illustrated in FIG. I will explain. For example, an image acquired in advance is an image obtained by recording an output image of the Bayer array output from the A / D conversion unit 310 on a recording medium as a RAW file.

図34に示すように、この処理が開始されると、上述した強調処理や判定処理に用いるパラメータをメモリから読み込む(ステップS30)。次に、白色光画像をメモリから読み込む(ステップS31)。次に、読み込んだ白色光画像から第2の構成例と同様の手法により注目領域を検出する(ステップS32)。次に、上述の第3の構成例と同様に、表示すべき注目領域を判定する処理を行い(ステップS33)、強調処理によりアラート画像を作成し(ステップS34)、そのアラート画像を白色光画像に重畳する(ステップS35)。そして、全ての画像に対して一連の処理が完了した場合は処理を終了し(ステップS36、YES)、未処理の画像が残っている場合は同様の処理を継続する(ステップS36、NO)。   As shown in FIG. 34, when this process is started, parameters used in the above-described enhancement process and determination process are read from the memory (step S30). Next, a white light image is read from the memory (step S31). Next, the attention area is detected from the read white light image by the same method as in the second configuration example (step S32). Next, similarly to the above-described third configuration example, a process for determining a region of interest to be displayed is performed (step S33), an alert image is created by enhancement processing (step S34), and the alert image is converted into a white light image. (Step S35). Then, if a series of processing is completed for all the images, the processing ends (step S36, YES), and if an unprocessed image remains, the same processing is continued (step S36, NO).

7.コンピュータシステム
以上に説明したように、制御装置300や画像処理装置301は、ハードウェアにより実現してもよく、あるいは、CPUがその各部の処理を行う構成とし、CPUがプログラムを実行することによってソフトウェアとして実現してもよい。あるいは、各部が行う処理の一部をソフトウェアで構成してもよい。
7). Computer System As described above, the control device 300 and the image processing device 301 may be realized by hardware, or configured such that the CPU performs processing of each unit, and the CPU executes software to execute the program. It may be realized as. Or you may comprise a part of process which each part performs with software.

撮像部200を別体とし、制御装置300や画像処理装置301の各部が行う処理をソフトウェアとして実現する場合には、ワークステーションやパソコン等の公知のコンピュータシステムを制御装置や画像処理装置として用いることができる。そして、制御装置300や画像処理装置301の各部が行う処理を実現するためのプログラム(制御プログラム、画像処理プログラム)を予め用意し、このプログラムをコンピュータシステムのCPUが実行することによって実現できる。   When the imaging unit 200 is separated and the processing performed by each unit of the control device 300 and the image processing device 301 is realized as software, a known computer system such as a workstation or a personal computer is used as the control device or the image processing device. Can do. A program (control program, image processing program) for realizing processing performed by each unit of the control device 300 and the image processing device 301 is prepared in advance, and this program can be realized by the CPU of the computer system.

図35は、本変形例におけるコンピュータシステム600の構成を示すシステム構成図であり、図36は、このコンピュータシステム600における本体部610の構成を示すブロック図である。図35に示すように、コンピュータシステム600は、本体部610と、本体部610からの指示によって表示画面621に画像等の情報を表示するためのディスプレイ620と、このコンピュータシステム600に種々の情報を入力するためのキーボード630と、ディスプレイ620の表示画面621上の任意の位置を指定するためのマウス640とを備える。   FIG. 35 is a system configuration diagram showing a configuration of a computer system 600 in this modification, and FIG. 36 is a block diagram showing a configuration of a main body 610 in the computer system 600. As shown in FIG. 35, the computer system 600 includes a main body 610, a display 620 for displaying information such as an image on the display screen 621 according to instructions from the main body 610, and various information on the computer system 600. A keyboard 630 for inputting and a mouse 640 for designating an arbitrary position on the display screen 621 of the display 620 are provided.

また、このコンピュータシステム600における本体部610は、図36に示すように、CPU611と、RAM612と、ROM613と、ハードディスクドライブ(HDD)614と、CD−ROM660を受け入れるCD−ROMドライブ615と、USBメモリ670を着脱可能に接続するUSBポート616と、ディスプレイ620、キーボード630およびマウス640を接続するI/Oインターフェース617と、ローカルエリアネットワークまたは広域エリアネットワーク(LAN/WAN)N1に接続するためのLANインターフェース618を備える。   As shown in FIG. 36, the main body 610 in the computer system 600 includes a CPU 611, a RAM 612, a ROM 613, a hard disk drive (HDD) 614, a CD-ROM drive 615 that accepts a CD-ROM 660, and a USB memory. USB port 616 to which 670 is detachably connected, I / O interface 617 to which display 620, keyboard 630 and mouse 640 are connected, and a LAN interface for connection to a local area network or wide area network (LAN / WAN) N1 618.

さらに、このコンピュータシステム600には、インターネット等の公衆回線N3に接続するためのモデム650が接続されるとともに、LANインターフェース618およびローカルエリアネットワークまたは広域エリアネットワークN1を介して、他のコンピュータシステムであるパソコン(PC)681、サーバ682、プリンタ683等が接続される。   Further, the computer system 600 is connected to a modem 650 for connecting to a public line N3 such as the Internet, and is another computer system via a LAN interface 618 and a local area network or a wide area network N1. A personal computer (PC) 681, a server 682, a printer 683, and the like are connected.

そして、このコンピュータシステム600は、所定の記録媒体に記録されたプログラム(例えば図22、図23)を参照して、上述した処理手順を実現するためのプログラムを読み出して実行することで制御装置や画像処理装置を実現する。ここで、所定の記録媒体とは、CD−ROM660やUSBメモリ670の他、MOディスクやDVDディスク、フレキシブルディスク(FD)、光磁気ディスク、ICカード等を含む「可搬用の物理媒体」、コンピュータシステム600の内外に備えられるHDD614やRAM612、ROM613等の「固定用の物理媒体」、モデム650を介して接続される公衆回線N3や、他のコンピュータシステム(PC)681またはサーバ682が接続されるローカルエリアネットワークまたは広域エリアネットワークN1等のように、プログラムの送信に際して短期にプログラムを記憶する「通信媒体」等、コンピュータシステム600によって読み取り可能な画像処理プログラムを記録するあらゆる記録媒体を含む。   The computer system 600 refers to a program (for example, FIGS. 22 and 23) recorded on a predetermined recording medium, reads out and executes a program for realizing the above-described processing procedure, An image processing apparatus is realized. Here, the predetermined recording medium is a “portable physical medium” including an MO disk, a DVD disk, a flexible disk (FD), a magneto-optical disk, an IC card, etc. in addition to the CD-ROM 660 and the USB memory 670, a computer A “fixed physical medium” such as HDD 614, RAM 612, and ROM 613 provided inside and outside the system 600, a public line N3 connected via the modem 650, and another computer system (PC) 681 or server 682 are connected. It includes any recording medium that records an image processing program readable by the computer system 600, such as a “communication medium” that stores the program in a short time when transmitting the program, such as a local area network or a wide area network N1.

すなわち、画像処理プログラムは、「可搬用の物理媒体」「固定用の物理媒体」「通信媒体」等の記録媒体にコンピュータ読み取り可能に記録されるものであり、コンピュータシステム600は、このような記録媒体から画像処理プログラムを読み出して実行することで画像処理装置を実現する。なお、画像処理プログラムは、コンピュータシステム600によって実行されることに限定されるものではなく、他のコンピュータシステム(PC)681またはサーバ682が画像処理プログラムを実行する場合や、これらが協働して画像処理プログラムを実行するような場合にも、本発明を同様に適用することができる。   That is, the image processing program is recorded on a recording medium such as “portable physical medium”, “fixed physical medium”, and “communication medium” in a computer-readable manner. An image processing apparatus is realized by reading and executing an image processing program from a medium. Note that the image processing program is not limited to be executed by the computer system 600, and when the other computer system (PC) 681 or the server 682 executes the image processing program or in cooperation therewith. The present invention can be similarly applied to a case where an image processing program is executed.

また本実施形態は、本実施形態の各部(白色光画像取得部、特殊光画像取得部、注目領域検出部、アラート画像表示設定部、表示態様制御部、注目領域制御部、制御部等)を実現するプログラムコードが記録されたコンピュータプログラムプロダクトにも適用できる。   In addition, in this embodiment, each part (white light image acquisition unit, special light image acquisition unit, attention area detection unit, alert image display setting unit, display mode control unit, attention area control unit, control unit, etc.) of this embodiment is used. The present invention can also be applied to a computer program product in which a program code to be realized is recorded.

例えば、コンピュータプログラムプロダクトは、プログラムコードが記録された情報記憶媒体(DVD等の光ディスク媒体、ハードディスク媒体、メモリ媒体等)、プログラムコードが記録されたコンピュータ、プログラムコードが記録されたインターネットシステム(例えば、サーバとクライアント端末を含むシステム)など、プログラムコードが組み込まれた情報記憶媒体、装置、機器或いはシステム等である。この場合に、本実施形態の各構成要素や各処理プロセスは各モジュールにより実装され、これらの実装されたモジュールにより構成されるプログラムコードは、コンピュータプログラムプロダクトに記録される。   For example, a computer program product includes an information storage medium (an optical disk medium such as a DVD, a hard disk medium, a memory medium, etc.) in which a program code is recorded, a computer in which the program code is recorded, and an Internet system in which the program code is recorded (for example, A system including a server and a client terminal), etc., such as an information storage medium, apparatus, device or system in which a program code is incorporated. In this case, each component and each processing process of this embodiment are mounted by each module, and the program code constituted by these mounted modules is recorded in the computer program product.

以上、本発明を適用した実施形態およびその変形例について説明したが、本発明は、各実施形態やその変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上記した各実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、各実施形態や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態や変形例で説明した構成要素を適宜組み合わせてもよい。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能である。   As mentioned above, although embodiment and its modification which applied this invention were described, this invention is not limited to each embodiment and its modification as it is, and in the range which does not deviate from the summary of invention in an implementation stage. The component can be modified and embodied. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiments and modifications. For example, some constituent elements may be deleted from all the constituent elements described in each embodiment or modification. Furthermore, you may combine suitably the component demonstrated in different embodiment and modification. Thus, various modifications and applications are possible without departing from the spirit of the invention.

また、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(第1の内視鏡装置、第2の内視鏡装置、通常光画像等)と共に記載された用語(カプセル型内視鏡、スコープ型内視鏡、白色光画像等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。   Further, in the specification or drawings, terms (capsule type endoscopes) described at least once together with different terms having a broader meaning or the same meaning (first endoscope device, second endoscope device, normal light image, etc.). Mirror, scope endoscope, white light image, etc.) may be replaced by the different terms anywhere in the specification or drawings.

100 光源部、110 白色光源、120 集光レンズ、200 撮像部、
210 ライトガイドファイバ、220 照明レンズ、230 対物レンズ、
240 ハーフミラー、250 第1撮像素子、260 第2撮像素子、
300 制御装置、301 画像処理装置、310,311 A/D変換部、
320 白色光画像取得部、321 白色光画像生成部、322 白色光画像記憶部、
330 特殊光画像取得部、331 特殊光画像生成部、332 特殊光画像記憶部、
340 注目領域検出部、341 局所領域設定部、342 特徴量算出部、
343 領域検出部、344 タグ情報付与部、345 特徴量算出部、
346 領域検出部、350 アラート画像表示設定部、351 対応領域選出部、
352 強調処理部、360 表示態様制御部、361 表示可否判定部、
362 アラート画像重畳部、370 制御部、380 注目領域制御部、
381 注目領域選択部、390 表示態様制御部、400 表示部、
500 外部I/F部、600 コンピュータシステム、610 本体部、
611 CPU、612 RAM、613 ROM、614 HDD、
615 CD−ROMドライブ、616 USBポート、
617 I/Oインターフェース、618 LANインターフェース、
620 ディスプレイ、621 表示画面、630 キーボード、640 マウス、
650 モデム、660 CD−ROM、670 USBメモリ、681 PC、
682 サーバ、683 プリンタ、3611 領域数判定部、
3612 領域サイズ判定部、3613 検出回数算出部、3614 メモリ、
3615 経過時間判定部、3616 アラート画像選択部、
a(m,n) 局所領域、
Area_Num,Size_Min,Size_Max,Area_Time 閾値、
r,g,b 色フィルタ、g2,b2 色フィルタ、F 特徴量、H 色相、
N1 広域エリアネットワーク、N3 公衆回線、Pt 検出回数
100 light source unit, 110 white light source, 120 condenser lens, 200 imaging unit,
210 light guide fiber, 220 illumination lens, 230 objective lens,
240 half mirror, 250 first image sensor, 260 second image sensor,
300 control device, 301 image processing device, 310, 311 A / D conversion unit,
320 white light image acquisition unit, 321 white light image generation unit, 322 white light image storage unit,
330 special light image acquisition unit, 331 special light image generation unit, 332 special light image storage unit,
340 attention area detection section, 341 local area setting section, 342 feature amount calculation section,
343 area detection unit, 344 tag information addition unit, 345 feature amount calculation unit,
346 region detection unit, 350 alert image display setting unit, 351 corresponding region selection unit,
352 enhancement processing unit, 360 display mode control unit, 361 display availability determination unit,
362 alert image superimposing unit, 370 control unit, 380 attention area control unit,
381 region of interest selection unit, 390 display mode control unit, 400 display unit,
500 external I / F unit, 600 computer system, 610 main unit,
611 CPU, 612 RAM, 613 ROM, 614 HDD,
615 CD-ROM drive, 616 USB port,
617 I / O interface, 618 LAN interface,
620 display, 621 display screen, 630 keyboard, 640 mouse,
650 modem, 660 CD-ROM, 670 USB memory, 681 PC,
682 server, 683 printer, 3611 area number determination unit,
3612 area size determination unit, 3613 detection frequency calculation unit, 3614 memory,
3615 elapsed time determination unit, 3616 alert image selection unit,
a (m, n) local region,
Area_Num, Size_Min, Size_Max, Area_Time threshold,
r, g, b color filter, g2, b2 color filter, F feature quantity, H hue,
N1 wide area network, N3 public line, Pt detection count

Claims (41)

白色の波長帯域における情報を有した被写体像を含む通常光画像と、前記通常光画像に対応する、特定の波長帯域における情報を有した被写体像を含む特殊光画像との少なくとも一方の画像である取得画像を取得する画像取得部と、
前記取得画像の画素の特徴量に基づいて、注目すべき領域である注目領域を検出する注目領域検出部と、
前記注目領域の検出結果に応じて、前記注目領域に対応するアラート画像を表示すべきか否かの判定を行う判定部と、
前記判定部によりアラート画像を表示すべきと判定された注目領域である表示対象注目領域に対応するアラート画像を表示する制御を行う表示態様制御部と、
を含むことを特徴とする画像処理装置。
It is at least one image of a normal light image including a subject image having information in a white wavelength band and a special light image including a subject image having information in a specific wavelength band corresponding to the normal light image. An image acquisition unit for acquiring an acquired image;
An attention area detection unit that detects an attention area that is an attention area based on a feature amount of a pixel of the acquired image;
A determination unit configured to determine whether or not to display an alert image corresponding to the attention area according to the detection result of the attention area;
A display mode control unit that performs control to display an alert image corresponding to a display target attention area that is an attention area that is determined by the determination unit to display an alert image;
An image processing apparatus comprising:
請求項1において、
アラート画像生成部を含み、
前記表示態様制御部は、
前記アラート画像生成部により生成された前記注目領域に対応するアラート画像の中から、前記表示対象注目領域に対応するアラート画像を表示する制御を行うことを特徴とする画像処理装置。
In claim 1,
Including an alert image generator,
The display mode control unit
An image processing apparatus that performs control to display an alert image corresponding to the display target attention area from among the alert images corresponding to the attention area generated by the alert image generation unit.
請求項2において、
前記判定部は、
前記注目領域の検出結果に応じて、前記アラート画像生成部により生成されたアラート画像を表示すべきか否かの判定を行い、
前記表示態様制御部は、
前記判定部により非表示と判定されたアラート画像を非表示にする制御を行うことを特徴とする画像処理装置。
In claim 2,
The determination unit
In accordance with the detection result of the attention area, it is determined whether or not to display the alert image generated by the alert image generation unit,
The display mode control unit
An image processing apparatus that performs control to hide an alert image determined to be non-displayed by the determination unit.
請求項1において、
アラート画像生成部を含み、
前記判定部は、
アラート画像を表示すべきか否かの判定を行って、前記注目領域検出部により検出された前記注目領域の中から前記表示対象注目領域を選択し、
前記アラート画像生成部は、
前記判定部により選択された前記表示対象注目領域に対応するアラート画像を生成し、
前記表示態様制御部は、
前記アラート画像生成部により生成されたアラート画像を表示する制御を行うことを特徴とする画像処理装置。
In claim 1,
Including an alert image generator,
The determination unit
It is determined whether or not an alert image should be displayed, and the display target attention area is selected from the attention areas detected by the attention area detection section,
The alert image generator
Generating an alert image corresponding to the display target attention area selected by the determination unit;
The display mode control unit
An image processing apparatus that performs control to display an alert image generated by the alert image generation unit.
請求項1において、
前記判定部は、
前記注目領域の検出結果に基づいて、前記取得画像内における前記注目領域の数情報と前記注目領域のサイズ情報と前記注目領域の検出経過時間情報のうちの少なくとも1つ以上の情報を取得し、取得した前記情報に応じて、前記アラート画像を表示すべきか否かの判定を行うことを特徴とする画像処理装置。
In claim 1,
The determination unit
Based on the detection result of the attention area, acquiring at least one information of the number information of the attention area in the acquired image, the size information of the attention area, and the detection elapsed time information of the attention area, An image processing apparatus that determines whether or not to display the alert image according to the acquired information.
請求項5において、
前記判定部は、
前記数情報により表される前記注目領域の数が所定の閾値よりも大きい場合には、検出された前記注目領域の一部の注目領域に対応するアラート画像を非表示とする判定を行うことを特徴とする画像処理装置。
In claim 5,
The determination unit
When the number of the attention areas represented by the number information is larger than a predetermined threshold, it is determined to hide the alert image corresponding to a part of the detected attention area of the attention area. A featured image processing apparatus.
請求項5において、
前記判定部は、
前記数情報により表される前記注目領域の数が所定の閾値よりも大きい場合には、検出された前記注目領域の全部の注目領域に対応するアラート画像を非表示とする判定を行うことを特徴とする画像処理装置。
In claim 5,
The determination unit
When the number of the attention areas represented by the number information is larger than a predetermined threshold value, it is determined that alert images corresponding to all attention areas of the detected attention areas are not displayed. An image processing apparatus.
請求項5において、
前記判定部は、
前記サイズ情報により表されるサイズが所定の閾値よりも大きい注目領域に対応するアラート画像を非表示と判定することを特徴とする画像処理装置。
In claim 5,
The determination unit
An image processing apparatus that determines that an alert image corresponding to a region of interest whose size represented by the size information is larger than a predetermined threshold is not displayed.
請求項8において、
前記判定部は、
前記数情報により表される前記注目領域の数が所定の閾値よりも小さい場合には、前記サイズが第1の閾値よりも大きい注目領域に対応するアラート画像を非表示とする判定を行い、前記注目領域の数が所定の閾値よりも大きい場合には、前記サイズが第2の閾値よりも大きい注目領域に対応するアラート画像を非表示とする判定を行うことを特徴とする画像処理装置。
In claim 8,
The determination unit
When the number of the attention areas represented by the number information is smaller than a predetermined threshold, the alert image corresponding to the attention area whose size is larger than the first threshold is determined to be hidden, An image processing apparatus, wherein when the number of attention areas is larger than a predetermined threshold, the alert image corresponding to the attention area whose size is larger than the second threshold is determined not to be displayed.
請求項9において、
前記第2の閾値は、
前記第1の閾値よりも小さい閾値であることを特徴とする画像処理装置。
In claim 9,
The second threshold is:
An image processing apparatus having a threshold value smaller than the first threshold value.
請求項5において、
前記判定部は、
前記検出経過時間情報により表される検出経過時間が所定の閾値を超える前記注目領域に対応するアラート画像を非表示とする判定を行うことを特徴とする画像処理装置。
In claim 5,
The determination unit
An image processing apparatus that performs a determination to hide an alert image corresponding to the region of interest whose detection elapsed time represented by the detection elapsed time information exceeds a predetermined threshold.
請求項11において、
前記判定部は、
前記検出経過時間情報として、前記注目領域が検出されたフレーム数をカウントすることを特徴とする画像処理装置。
In claim 11,
The determination unit
An image processing apparatus that counts the number of frames in which the region of interest is detected as the detection elapsed time information.
請求項11において、
前記注目領域検出部は、
前記取得画像を複数の局所領域に分割し、各局所領域が前記注目領域に該当するか否かを検出し、
前記判定部は、
前記注目領域に該当すると検出されたフレーム数を前記各局所領域においてカウントすることを特徴とする画像処理装置。
In claim 11,
The attention area detector
Dividing the acquired image into a plurality of local regions, detecting whether each local region corresponds to the region of interest;
The determination unit
An image processing apparatus that counts the number of frames detected as corresponding to the region of interest in each of the local regions.
請求項13において、
前記判定部は、
前記注目領域に該当すると検出された局所領域のうち、前回のフレームにおいて前記注目領域に該当すると検出された局所領域のカウント値をインクリメントし、
前記注目領域に該当すると検出された局所領域のうち、前回のフレームにおいて前記注目領域に非該当であると検出された局所領域のカウント値を初期値に設定することを特徴とする画像処理装置。
In claim 13,
The determination unit
Among the local areas detected to correspond to the attention area, increment the count value of the local area detected to correspond to the attention area in the previous frame,
An image processing apparatus, wherein a count value of a local area detected as not corresponding to the attention area in a previous frame among local areas detected as corresponding to the attention area is set as an initial value.
請求項13において、
前記注目領域検出部は、
前記注目領域に該当すると検出された局所領域のうち隣接する局所領域を注目領域群とし、
前記判定部は、
前記注目領域群内の各局所領域における前記注目領域に該当したフレーム数に基づいて前記注目領域群の前記検出経過時間情報を算出して、前記注目領域群に対応するアラート画像の表示可否を判定することを特徴とする画像処理装置。
In claim 13,
The attention area detector
Of the local regions detected to correspond to the region of interest, an adjacent local region is a region of interest group,
The determination unit
The detection elapsed time information of the attention area group is calculated based on the number of frames corresponding to the attention area in each local area in the attention area group, and it is determined whether or not the alert image corresponding to the attention area group can be displayed. An image processing apparatus.
請求項1において、
前記アラート画像の表示・非表示の指示がインターフェース部を介して入力され、
前記表示態様制御部は、
前記インターフェース部にアラート画像の表示の指示が入力された場合に、前記判定部による判定結果に依らず、前記注目領域に対応するアラート画像を表示する制御を行うことを特徴とする画像処理装置。
In claim 1,
An instruction to display / hide the alert image is input via the interface unit,
The display mode control unit
An image processing apparatus that performs control to display an alert image corresponding to the region of interest when an instruction to display an alert image is input to the interface unit, regardless of a determination result by the determination unit.
請求項1において、
前記表示態様制御部は、
前記表示対象注目領域に対応するアラート画像を出力画像に重畳する重畳部を有し、
前記表示態様制御部は、
前記表示対象注目領域に対応するアラート画像が重畳された前記出力画像を表示する制御を行うことを特徴とする画像処理装置。
In claim 1,
The display mode control unit
A superimposing unit that superimposes an alert image corresponding to the display target attention area on an output image;
The display mode control unit
An image processing apparatus that controls to display the output image on which an alert image corresponding to the display target attention area is superimposed.
請求項17において、
前記重畳部は、
前記表示対象注目領域に対応するアラート画像を、前記出力画像としての前記通常光画像に重畳することを特徴とする画像処理装置。
In claim 17,
The superimposing unit is
An image processing apparatus, wherein an alert image corresponding to the display target attention area is superimposed on the normal light image as the output image.
請求項2において、
領域選出部を含み、
前記注目領域検出部は、
前記特殊光画像から前記注目領域を検出し、
前記領域選出部は、
前記通常光画像から、前記注目領域に対応する領域である対応注目領域を選出し、
前記アラート画像生成部は、
前記通常光画像に含まれる前記対応注目領域内の画素に対して強調処理を行って、前記アラート画像を生成することを特徴とする画像処理装置。
In claim 2,
Including an area selection section,
The attention area detector
Detecting the region of interest from the special light image;
The area selection unit
From the normal light image, a corresponding attention area that is an area corresponding to the attention area is selected,
The alert image generator
An image processing apparatus, wherein the alert image is generated by performing enhancement processing on pixels in the corresponding attention area included in the normal light image.
請求項2において、
領域選出部を含み、
前記注目領域検出部は、
前記特殊光画像から前記注目領域を検出し、
前記領域選出部は、
前記通常光画像から、前記注目領域に対応する領域である対応注目領域を選出し、
前記アラート画像生成部は、
前記通常光画像内の前記対応注目領域と、前記対応注目領域以外の領域である非対応注目領域との境界線上に位置する画素に対して強調処理を行って、前記アラート画像を生成することを特徴とする画像処理装置。
In claim 2,
Including an area selection section,
The attention area detector
Detecting the region of interest from the special light image;
The area selection unit
From the normal light image, a corresponding attention area that is an area corresponding to the attention area is selected,
The alert image generator
Generating an alert image by performing enhancement processing on pixels located on a boundary line between the corresponding attention area in the normal light image and a non-corresponding attention area that is an area other than the corresponding attention area. A featured image processing apparatus.
請求項4において、
領域選出部を含み、
前記注目領域検出部は、
前記特殊光画像から前記注目領域を検出し、
前記領域選出部は、
前記通常光画像から、前記注目領域に対応する領域である対応注目領域を選出し、
前記アラート画像生成部は、
前記判定部により選択された注目領域に対応する前記対応注目領域内の画素に対して強調処理を行って、前記アラート画像を生成することを特徴とする画像処理装置。
In claim 4,
Including an area selection section,
The attention area detector
Detecting the region of interest from the special light image;
The area selection unit
From the normal light image, a corresponding attention area that is an area corresponding to the attention area is selected,
The alert image generator
An image processing apparatus, wherein the alert image is generated by performing enhancement processing on pixels in the corresponding attention area corresponding to the attention area selected by the determination unit.
請求項4において、
領域選出部を含み、
前記注目領域検出部は、
前記特殊光画像から前記注目領域を検出し、
前記領域選出部は、
前記通常光画像から、前記注目領域に対応する領域である対応注目領域を選出し、
前記アラート画像生成部は、
前記判定部により選択された注目領域に対応する前記対応注目領域と、前記対応注目領域以外の領域である非対応注目領域との境界線上に位置する画素に対して強調処理を行って、前記注目領域に対応するアラート画像を生成することを特徴とする画像処理装置。
In claim 4,
Including an area selection section,
The attention area detector
Detecting the region of interest from the special light image;
The area selection unit
From the normal light image, a corresponding attention area that is an area corresponding to the attention area is selected,
The alert image generator
Emphasis processing is performed on pixels located on a boundary line between the corresponding attention area corresponding to the attention area selected by the determination unit and the non-corresponding attention area that is an area other than the corresponding attention area, and the attention is performed. An image processing apparatus that generates an alert image corresponding to a region.
請求項1において、
前記注目領域検出部は、
前記特殊光画像内の画素の特定の色特徴量をもとに、前記注目領域を検出することを特徴とする画像処理装置。
In claim 1,
The attention area detector
An image processing apparatus that detects the region of interest based on a specific color feature amount of a pixel in the special light image.
請求項1において、
前記注目領域検出部は、
前記通常光画像内の画素の特定の色特徴量をもとに、前記注目領域を検出することを特徴とする画像処理装置。
In claim 1,
The attention area detector
An image processing apparatus that detects the region of interest based on a specific color feature amount of a pixel in the normal light image.
請求項1において、
前記注目領域は、
病変部を表す領域であることを特徴とする画像処理装置。
In claim 1,
The region of interest is
An image processing apparatus characterized by being an area representing a lesion.
請求項1において、
前記特定の波長帯域は、
前記白色の波長帯域よりも狭い帯域であることを特徴とする画像処理装置。
In claim 1,
The specific wavelength band is
An image processing apparatus having a band narrower than the white wavelength band.
請求項26において、
前記通常光画像および前記特殊光画像は生体内を写した生体内画像であり、
前記生体内画像に含まれる前記特定の波長帯域は、血液中のヘモグロビンに吸収される波長の波長帯域であることを特徴とする画像処理装置。
In claim 26,
The normal light image and the special light image are in-vivo images obtained by copying the inside of the living body,
The image processing apparatus according to claim 1, wherein the specific wavelength band included in the in-vivo image is a wavelength band of a wavelength absorbed by hemoglobin in blood.
請求項27において、
前記特定の波長帯域は、390nm〜445nm、または530nm〜550nmであることを特徴とする画像処理装置。
In claim 27,
The image processing apparatus according to claim 1, wherein the specific wavelength band is 390 nm to 445 nm or 530 nm to 550 nm.
請求項1において、
前記通常光画像および前記特殊光画像は生体内を写した生体内画像であり、
前記生体内画像に含まれる前記特定の波長帯域は、蛍光物質が発する蛍光の波長帯域であることを特徴とする画像処理装置。
In claim 1,
The normal light image and the special light image are in-vivo images obtained by copying the inside of the living body,
The image processing apparatus according to claim 1, wherein the specific wavelength band included in the in-vivo image is a wavelength band of fluorescence emitted from a fluorescent material.
請求項29において、
前記特定の波長帯域は、490nm〜625nmの波長帯域であることを特徴とする画像処理装置。
In claim 29,
The image processing apparatus according to claim 1, wherein the specific wavelength band is a wavelength band of 490 nm to 625 nm.
請求項1において、
前記通常光画像および前記特殊光画像は生体内を写した生体内画像であり、
前記生体内画像に含まれる前記特定の波長帯域は、赤外光の波長帯域であることを特徴とする画像処理装置。
In claim 1,
The normal light image and the special light image are in-vivo images obtained by copying the inside of the living body,
The image processing apparatus, wherein the specific wavelength band included in the in-vivo image is a wavelength band of infrared light.
請求項31において、
前記特定の波長帯域は、790nm〜820nm、または905nm〜970nmの波長帯域であることを特徴とする画像処理装置。
In claim 31,
The specific wavelength band is a wavelength band of 790 nm to 820 nm, or 905 nm to 970 nm.
請求項1において、
前記画像取得部は、
前記通常光画像に基づいて、前記特殊光画像を取得する特殊光画像取得部を有することを特徴とする画像処理装置。
In claim 1,
The image acquisition unit
An image processing apparatus comprising: a special light image acquisition unit that acquires the special light image based on the normal light image.
請求項33において、
前記特殊光画像取得部は、
取得された前記通常光画像から、前記白色の波長帯域における信号を抽出する信号抽出部を有し、
前記特殊光画像取得部は、
抽出された前記白色の波長帯域における信号に基づいて、前記特定の波長帯域における信号を含む前記特殊光画像を生成することを特徴とする画像処理装置。
In claim 33,
The special light image acquisition unit
A signal extraction unit that extracts a signal in the white wavelength band from the acquired normal light image;
The special light image acquisition unit
An image processing apparatus that generates the special light image including a signal in the specific wavelength band based on the extracted signal in the white wavelength band.
請求項34において、
前記特殊光画像取得部は、
前記白色の波長帯域における信号から、前記特定の波長帯域における信号を算出するためのマトリクスデータを設定するマトリクスデータ設定部を有し、
前記特殊光画像取得部は、
設定された前記マトリクスデータを用いて、前記白色の波長帯域における信号から前記特定の波長帯域における信号を算出して、前記特殊光画像を生成することを特徴とする画像処理装置。
In claim 34,
The special light image acquisition unit
A matrix data setting unit for setting matrix data for calculating a signal in the specific wavelength band from the signal in the white wavelength band;
The special light image acquisition unit
An image processing apparatus, wherein the special light image is generated by calculating a signal in the specific wavelength band from a signal in the white wavelength band using the set matrix data.
請求項1乃至35のいずれかに記載の画像処理装置を含むことを特徴とする内視鏡装置。   An endoscope apparatus comprising the image processing apparatus according to any one of claims 1 to 35. 請求項36において、
前記表示態様制御部による制御により、前記表示対象注目領域に対応するアラート画像を表示する表示部を含むことを特徴とする内視鏡装置。
In claim 36,
An endoscope apparatus comprising: a display unit configured to display an alert image corresponding to the display target attention area under the control of the display mode control unit.
請求項36において、
光源と、
前記白色の波長帯域の光を透過する白色光フィルタと、
前記特定の波長帯域の光を透過する特殊光フィルタと、
を含み、
前記画像取得部は、
前記光源からの光を被写体に照射して得られた光を前記白色光フィルタに通過させて前記通常光画像を取得し、前記光源からの光を被写体に照射して得られた光を前記特殊光フィルタに通過させて前記特殊光画像を取得することを特徴とする内視鏡装置。
In claim 36,
A light source;
A white light filter that transmits light in the white wavelength band;
A special optical filter that transmits light of the specific wavelength band;
Including
The image acquisition unit
The light obtained by irradiating the subject with light from the light source is passed through the white light filter to obtain the normal light image, and the light obtained by irradiating the subject with light from the light source is used as the special light. An endoscope apparatus, wherein the special light image is acquired by passing through an optical filter.
請求項36において、
前記白色の波長帯域の光を発する白色光光源と、
前記特定の波長帯域の光を発する特殊光光源と、
を含み、
前記画像取得部は、
前記白色光光源からの光を被写体に照射して得られた前記通常光画像を取得し、前記特殊光光源からの光を前記被写体に照射して得られた前記特殊光画像を取得することを特徴とする内視鏡装置。
In claim 36,
A white light source that emits light in the white wavelength band;
A special light source that emits light of the specific wavelength band;
Including
The image acquisition unit
Obtaining the normal light image obtained by irradiating the subject with light from the white light source, and obtaining the special light image obtained by irradiating the subject with light from the special light source. Endoscopic device characterized.
白色の波長帯域における情報を有した被写体像を含む通常光画像と、前記通常光画像に対応する、特定の波長帯域における情報を有した被写体像を含む特殊光画像との少なくとも一方の画像である取得画像を取得する画像取得部と、
前記取得画像の画素の特徴量に基づいて、注目すべき領域である注目領域を検出する注目領域検出部と、
前記注目領域の検出結果に応じて、前記注目領域に対応するアラート画像を表示すべきか否かの判定を行う判定部と、
前記判定部によりアラート画像を表示すべきと判定された注目領域である表示対象注目領域に対応するアラート画像を表示する制御を行う表示態様制御部として、
コンピュータを機能させることを特徴とするプログラム。
It is at least one image of a normal light image including a subject image having information in a white wavelength band and a special light image including a subject image having information in a specific wavelength band corresponding to the normal light image. An image acquisition unit for acquiring an acquired image;
An attention area detection unit that detects an attention area that is an attention area based on a feature amount of a pixel of the acquired image;
A determination unit configured to determine whether or not to display an alert image corresponding to the attention area according to the detection result of the attention area;
As a display mode control unit that performs control to display an alert image corresponding to a display target attention area that is an attention area determined to display an alert image by the determination unit,
A program characterized by causing a computer to function.
白色の波長帯域における情報を有した被写体像を含む通常光画像と、前記通常光画像に対応する、特定の波長帯域における情報を有した被写体像を含む特殊光画像との少なくとも一方の画像である取得画像を取得し、
前記取得画像の画素の特徴量に基づいて、注目すべき領域である注目領域を検出し、
前記注目領域の検出結果に応じて、前記注目領域に対応するアラート画像を表示すべきか否かの判定を行い、
前記判定部によりアラート画像を表示すべきと判定された注目領域である表示対象注目領域に対応するアラート画像を表示する制御を行うことを特徴とする画像処理方法。
It is at least one image of a normal light image including a subject image having information in a white wavelength band and a special light image including a subject image having information in a specific wavelength band corresponding to the normal light image. Acquire the acquired image,
Based on the feature amount of the pixel of the acquired image, the attention area that is the attention area is detected,
In accordance with the detection result of the attention area, it is determined whether or not to display an alert image corresponding to the attention area,
An image processing method comprising: performing control to display an alert image corresponding to a display target attention area which is an attention area determined to display an alert image by the determination section.
JP2010132351A 2010-06-09 2010-06-09 Image processor, endoscopic device, program and image processing method Withdrawn JP2011255006A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010132351A JP2011255006A (en) 2010-06-09 2010-06-09 Image processor, endoscopic device, program and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010132351A JP2011255006A (en) 2010-06-09 2010-06-09 Image processor, endoscopic device, program and image processing method

Publications (1)

Publication Number Publication Date
JP2011255006A true JP2011255006A (en) 2011-12-22

Family

ID=45471875

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010132351A Withdrawn JP2011255006A (en) 2010-06-09 2010-06-09 Image processor, endoscopic device, program and image processing method

Country Status (1)

Country Link
JP (1) JP2011255006A (en)

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014013778A1 (en) * 2012-07-17 2014-01-23 Hoya株式会社 Image processing device and endoscopic instrument
WO2014084134A1 (en) * 2012-11-30 2014-06-05 オリンパス株式会社 Observation device
CN104203065A (en) * 2012-03-08 2014-12-10 奥林巴斯株式会社 Image processing device, program, and image processing method
WO2016199273A1 (en) * 2015-06-11 2016-12-15 オリンパス株式会社 Endoscope device and operation method for endoscope device
JP2017060806A (en) * 2016-11-17 2017-03-30 Hoya株式会社 Image processor and endoscope apparatus
WO2017073337A1 (en) * 2015-10-27 2017-05-04 オリンパス株式会社 Endoscope device
WO2017081976A1 (en) * 2015-11-10 2017-05-18 オリンパス株式会社 Endoscope device
WO2017203560A1 (en) * 2016-05-23 2017-11-30 オリンパス株式会社 Endoscope image processing device
WO2018078724A1 (en) * 2016-10-25 2018-05-03 オリンパス株式会社 Endoscope image processing device and endoscope image processing method
WO2018159363A1 (en) * 2017-03-01 2018-09-07 富士フイルム株式会社 Endoscope system and method for operating same
WO2018198327A1 (en) * 2017-04-28 2018-11-01 オリンパス株式会社 Endoscope diagnosis assist system, endoscope diagnosis assist program, and endoscope diagnosis assist method
WO2018198161A1 (en) * 2017-04-24 2018-11-01 オリンパス株式会社 Endoscope image processing apparatus and endoscope image processing method
WO2018203383A1 (en) * 2017-05-02 2018-11-08 オリンパス株式会社 Image processing device and image processing program
WO2019065111A1 (en) * 2017-09-26 2019-04-04 富士フイルム株式会社 Medical image processing system, endoscope system, diagnosis support device, and medical service support device
WO2019123986A1 (en) * 2017-12-22 2019-06-27 富士フイルム株式会社 Medical image processing device and method, endoscope system, processor device, and diagnosis support device and program
JPWO2018105063A1 (en) * 2016-12-07 2019-07-04 オリンパス株式会社 Image processing device
JP2019111351A (en) * 2013-03-14 2019-07-11 ルミセル, インコーポレーテッドLumicell, Inc. Medical imaging device and methods of use
WO2019146075A1 (en) * 2018-01-26 2019-08-01 オリンパス株式会社 Endoscope image processing device, endoscope image processing program, and endoscope image processing method
WO2020036109A1 (en) * 2018-08-17 2020-02-20 富士フイルム株式会社 Medical image processing device, endoscope system, and operation method for medical image processing device
CN110831487A (en) * 2017-07-14 2020-02-21 富士胶片株式会社 Medical image processing device, endoscope system, diagnosis support device, and medical service support device
WO2020039931A1 (en) * 2018-08-20 2020-02-27 富士フイルム株式会社 Endoscopic system and medical image processing system
WO2020040086A1 (en) * 2018-08-20 2020-02-27 富士フイルム株式会社 Medical image processing system
WO2020059526A1 (en) 2018-09-18 2020-03-26 富士フイルム株式会社 Medical image processing device, processor device, medical image processing method, and program
JP2020065685A (en) * 2018-10-24 2020-04-30 富士フイルム株式会社 Endoscope system
WO2020090729A1 (en) * 2018-11-01 2020-05-07 富士フイルム株式会社 Medical image processing apparatus, medical image processing method and program, and diagnosis assisting apparatus
US10653295B2 (en) 2015-09-29 2020-05-19 Fujifilm Corporation Image processing apparatus, endoscope system, and image processing method
WO2020110214A1 (en) * 2018-11-28 2020-06-04 オリンパス株式会社 Endoscope system, image processing method for endoscope, and image processing program for endoscope
WO2020152758A1 (en) * 2019-01-21 2020-07-30 オリンパス株式会社 Endoscopic instrument and endoscopic system
CN111568340A (en) * 2019-02-19 2020-08-25 富士胶片株式会社 Endoscope system
JPWO2019054265A1 (en) * 2017-09-15 2020-10-01 富士フイルム株式会社 Medical image processing equipment
JPWO2019078237A1 (en) * 2017-10-18 2020-10-22 富士フイルム株式会社 Medical image processing equipment, endoscopy system, diagnostic support equipment, and medical business support equipment
CN111989025A (en) * 2018-03-30 2020-11-24 奥林巴斯株式会社 Diagnosis support device, diagnosis support method, and diagnosis support program
CN112584742A (en) * 2018-08-20 2021-03-30 富士胶片株式会社 Medical image processing system
CN112969402A (en) * 2018-10-30 2021-06-15 奥林巴斯株式会社 Endoscope system, and image processing apparatus and image processing method for endoscope system
EP3851025A4 (en) * 2018-09-11 2021-10-13 NEC Corporation Information processing device, control method, and program
US11341637B2 (en) 2017-05-26 2022-05-24 Olympus Corporation Endoscope image processing device and endoscope image processing method
WO2022270582A1 (en) * 2021-06-24 2022-12-29 株式会社Aiメディカルサービス Examination assistance device, examination assistance method, and examination assistance program
US11559186B2 (en) 2015-08-13 2023-01-24 Hoya Corporation Evaluation value calculation device and electronic endoscope system
US11571108B2 (en) 2015-08-13 2023-02-07 Hoya Corporation Evaluation value calculation device and electronic endoscope system
US11871903B2 (en) 2018-06-19 2024-01-16 Olympus Corporation Endoscopic image processing apparatus, endoscopic image processing method, and non-transitory computer readable recording medium
CN112584742B (en) * 2018-08-20 2024-04-30 富士胶片株式会社 Medical image processing system

Cited By (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104203065B (en) * 2012-03-08 2017-04-12 奥林巴斯株式会社 Image processing device and image processing method
CN104203065A (en) * 2012-03-08 2014-12-10 奥林巴斯株式会社 Image processing device, program, and image processing method
CN106859578A (en) * 2012-03-08 2017-06-20 奥林巴斯株式会社 Image processing apparatus and image processing method
JP2014018332A (en) * 2012-07-17 2014-02-03 Hoya Corp Image processor and endoscope apparatus
CN104470416A (en) * 2012-07-17 2015-03-25 Hoya株式会社 Image processing device and endoscopic instrument
US9430833B2 (en) 2012-07-17 2016-08-30 Hoya Corporation Image processing device and endoscope device
EP2875776A4 (en) * 2012-07-17 2016-10-19 Hoya Corp Image processing device and endoscopic instrument
WO2014013778A1 (en) * 2012-07-17 2014-01-23 Hoya株式会社 Image processing device and endoscopic instrument
WO2014084134A1 (en) * 2012-11-30 2014-06-05 オリンパス株式会社 Observation device
CN104736036A (en) * 2012-11-30 2015-06-24 奥林巴斯株式会社 Observation device
EP2926713A4 (en) * 2012-11-30 2016-07-20 Olympus Corp Observation device
JPWO2014084134A1 (en) * 2012-11-30 2017-01-05 オリンパス株式会社 Observation device
JP2019111351A (en) * 2013-03-14 2019-07-11 ルミセル, インコーポレーテッドLumicell, Inc. Medical imaging device and methods of use
US10791937B2 (en) 2013-03-14 2020-10-06 Lumicell, Inc. Medical imaging device and methods of use
US10813554B2 (en) 2013-03-14 2020-10-27 Lumicell, Inc. Medical imaging device and methods of use
US11471056B2 (en) 2013-03-14 2022-10-18 Lumicell, Inc. Medical imaging device and methods of use
JPWO2016199273A1 (en) * 2015-06-11 2018-03-29 オリンパス株式会社 Endoscope apparatus and method for operating endoscope apparatus
CN107613839B (en) * 2015-06-11 2019-10-01 奥林巴斯株式会社 The working method of endoscope apparatus and endoscope apparatus
WO2016199273A1 (en) * 2015-06-11 2016-12-15 オリンパス株式会社 Endoscope device and operation method for endoscope device
CN107613839A (en) * 2015-06-11 2018-01-19 奥林巴斯株式会社 The method of work of endoscope apparatus and endoscope apparatus
US11559186B2 (en) 2015-08-13 2023-01-24 Hoya Corporation Evaluation value calculation device and electronic endoscope system
US11571108B2 (en) 2015-08-13 2023-02-07 Hoya Corporation Evaluation value calculation device and electronic endoscope system
US10653295B2 (en) 2015-09-29 2020-05-19 Fujifilm Corporation Image processing apparatus, endoscope system, and image processing method
WO2017073337A1 (en) * 2015-10-27 2017-05-04 オリンパス株式会社 Endoscope device
JPWO2017073337A1 (en) * 2015-10-27 2017-11-09 オリンパス株式会社 Endoscope apparatus and video processor
WO2017081976A1 (en) * 2015-11-10 2017-05-18 オリンパス株式会社 Endoscope device
US10863893B2 (en) 2015-11-10 2020-12-15 Olympus Corporation Endoscope apparatus
JPWO2017081976A1 (en) * 2015-11-10 2017-11-16 オリンパス株式会社 Endoscope device
WO2017203560A1 (en) * 2016-05-23 2017-11-30 オリンパス株式会社 Endoscope image processing device
JPWO2017203560A1 (en) * 2016-05-23 2019-03-22 オリンパス株式会社 Endoscope image processing device
US10893792B2 (en) 2016-10-25 2021-01-19 Olympus Corporation Endoscope image processing apparatus and endoscope image processing method
WO2018078724A1 (en) * 2016-10-25 2018-05-03 オリンパス株式会社 Endoscope image processing device and endoscope image processing method
JP2017060806A (en) * 2016-11-17 2017-03-30 Hoya株式会社 Image processor and endoscope apparatus
JPWO2018105063A1 (en) * 2016-12-07 2019-07-04 オリンパス株式会社 Image processing device
US11145053B2 (en) 2016-12-07 2021-10-12 Olympus Corporation Image processing apparatus and computer-readable storage medium storing instructions for specifying lesion portion and performing differentiation classification in response to judging that differentiation classification operation is engaged based on signal from endoscope
JPWO2018159363A1 (en) * 2017-03-01 2019-12-19 富士フイルム株式会社 Endoscope system and operation method thereof
US11033175B2 (en) 2017-03-01 2021-06-15 Fujifilm Corporation Endoscope system and operation method therefor
WO2018159363A1 (en) * 2017-03-01 2018-09-07 富士フイルム株式会社 Endoscope system and method for operating same
EP3590413A4 (en) * 2017-03-01 2020-03-25 Fujifilm Corporation Endoscope system and method for operating same
US11176665B2 (en) 2017-04-24 2021-11-16 Olympus Corporation Endoscopic image processing device and endoscopic image processing method
WO2018198161A1 (en) * 2017-04-24 2018-11-01 オリンパス株式会社 Endoscope image processing apparatus and endoscope image processing method
WO2018198327A1 (en) * 2017-04-28 2018-11-01 オリンパス株式会社 Endoscope diagnosis assist system, endoscope diagnosis assist program, and endoscope diagnosis assist method
CN110868907A (en) * 2017-04-28 2020-03-06 奥林巴斯株式会社 Endoscopic diagnosis support system, endoscopic diagnosis support program, and endoscopic diagnosis support method
JPWO2018198327A1 (en) * 2017-04-28 2020-03-12 オリンパス株式会社 Endoscope diagnosis support system, endoscope diagnosis support program, and endoscope diagnosis support method
WO2018203383A1 (en) * 2017-05-02 2018-11-08 オリンパス株式会社 Image processing device and image processing program
US11341637B2 (en) 2017-05-26 2022-05-24 Olympus Corporation Endoscope image processing device and endoscope image processing method
US10891737B2 (en) 2017-07-14 2021-01-12 Fujifilm Corporation Medical image processing device, endoscope system, diagnosis support device, and medical service support device
CN110831487A (en) * 2017-07-14 2020-02-21 富士胶片株式会社 Medical image processing device, endoscope system, diagnosis support device, and medical service support device
EP3653106A4 (en) * 2017-07-14 2020-07-08 Fujifilm Corporation Medical image processing device, endoscope system, diagnosis assistance device, and medical operation assistance device
US11449988B2 (en) 2017-09-15 2022-09-20 Fujifilm Corporation Medical image processing apparatus
JPWO2019054265A1 (en) * 2017-09-15 2020-10-01 富士フイルム株式会社 Medical image processing equipment
JPWO2019065111A1 (en) * 2017-09-26 2020-10-22 富士フイルム株式会社 Medical image processing system, endoscopy system, diagnostic support device, and medical business support device
WO2019065111A1 (en) * 2017-09-26 2019-04-04 富士フイルム株式会社 Medical image processing system, endoscope system, diagnosis support device, and medical service support device
JPWO2019078237A1 (en) * 2017-10-18 2020-10-22 富士フイルム株式会社 Medical image processing equipment, endoscopy system, diagnostic support equipment, and medical business support equipment
US11426054B2 (en) 2017-10-18 2022-08-30 Fujifilm Corporation Medical image processing system, endoscope system, diagnosis support apparatus, and medical service support apparatus
JP7176041B2 (en) 2017-12-22 2022-11-21 富士フイルム株式会社 Medical image processing device and method, endoscope system, processor device, diagnosis support device and program
WO2019123986A1 (en) * 2017-12-22 2019-06-27 富士フイルム株式会社 Medical image processing device and method, endoscope system, processor device, and diagnosis support device and program
JPWO2019123986A1 (en) * 2017-12-22 2020-12-03 富士フイルム株式会社 Medical image processing equipment and methods, endoscopic systems, processor equipment, diagnostic support equipment and programs
JP2021121348A (en) * 2017-12-22 2021-08-26 富士フイルム株式会社 Medical image processing device and method, endoscope system, processor device, diagnosis support device, and program
WO2019146075A1 (en) * 2018-01-26 2019-08-01 オリンパス株式会社 Endoscope image processing device, endoscope image processing program, and endoscope image processing method
US11457876B2 (en) 2018-03-30 2022-10-04 Olympus Corporation Diagnosis assisting apparatus, storage medium, and diagnosis assisting method for displaying diagnosis assisting information in a region and an endoscopic image in another region
JPWO2019187049A1 (en) * 2018-03-30 2021-03-18 オリンパス株式会社 Diagnostic support device, diagnostic support program, and diagnostic support method
CN111989025A (en) * 2018-03-30 2020-11-24 奥林巴斯株式会社 Diagnosis support device, diagnosis support method, and diagnosis support program
US11871903B2 (en) 2018-06-19 2024-01-16 Olympus Corporation Endoscopic image processing apparatus, endoscopic image processing method, and non-transitory computer readable recording medium
JP7337073B2 (en) 2018-08-17 2023-09-01 富士フイルム株式会社 MEDICAL IMAGE PROCESSING APPARATUS, ENDOSCOPE SYSTEM, AND METHOD OF OPERATION OF MEDICAL IMAGE PROCESSING APPARATUS
WO2020036109A1 (en) * 2018-08-17 2020-02-20 富士フイルム株式会社 Medical image processing device, endoscope system, and operation method for medical image processing device
JPWO2020036109A1 (en) * 2018-08-17 2021-08-26 富士フイルム株式会社 How to operate a medical image processing device, an endoscopic system, and a medical image processing device
JPWO2020039931A1 (en) * 2018-08-20 2021-09-09 富士フイルム株式会社 Endoscopic system and medical image processing system
US11867896B2 (en) 2018-08-20 2024-01-09 Fujifilm Corporation Endoscope system and medical image processing system
CN112584742B (en) * 2018-08-20 2024-04-30 富士胶片株式会社 Medical image processing system
US11862327B2 (en) 2018-08-20 2024-01-02 Fujifilm Corporation Medical image processing system
CN112584745B (en) * 2018-08-20 2024-03-22 富士胶片株式会社 Endoscope system and medical image processing system
WO2020040086A1 (en) * 2018-08-20 2020-02-27 富士フイルム株式会社 Medical image processing system
WO2020039931A1 (en) * 2018-08-20 2020-02-27 富士フイルム株式会社 Endoscopic system and medical image processing system
JP7280270B2 (en) 2018-08-20 2023-05-23 富士フイルム株式会社 endoscope system
CN112584745A (en) * 2018-08-20 2021-03-30 富士胶片株式会社 Endoscope system and medical image processing system
CN112584742A (en) * 2018-08-20 2021-03-30 富士胶片株式会社 Medical image processing system
EP3851025A4 (en) * 2018-09-11 2021-10-13 NEC Corporation Information processing device, control method, and program
US11957300B2 (en) 2018-09-11 2024-04-16 Nec Corporation Information processing apparatus, control method, and program
WO2020059526A1 (en) 2018-09-18 2020-03-26 富士フイルム株式会社 Medical image processing device, processor device, medical image processing method, and program
JP2020065685A (en) * 2018-10-24 2020-04-30 富士フイルム株式会社 Endoscope system
CN112969402A (en) * 2018-10-30 2021-06-15 奥林巴斯株式会社 Endoscope system, and image processing apparatus and image processing method for endoscope system
CN112969403A (en) * 2018-11-01 2021-06-15 富士胶片株式会社 Medical image processing device, medical image processing method, medical image processing program, and diagnosis support device
JPWO2020090729A1 (en) * 2018-11-01 2021-09-24 富士フイルム株式会社 Medical image processing equipment, medical image processing methods and programs, diagnostic support equipment
JP7315576B2 (en) 2018-11-01 2023-07-26 富士フイルム株式会社 Medical image processing device, operating method and program for medical image processing device, diagnostic support device, and endoscope system
WO2020090729A1 (en) * 2018-11-01 2020-05-07 富士フイルム株式会社 Medical image processing apparatus, medical image processing method and program, and diagnosis assisting apparatus
CN113164023A (en) * 2018-11-28 2021-07-23 奥林巴斯株式会社 Endoscope system, image processing method for endoscope, and image processing program for endoscope
WO2020110214A1 (en) * 2018-11-28 2020-06-04 オリンパス株式会社 Endoscope system, image processing method for endoscope, and image processing program for endoscope
US11642005B2 (en) 2018-11-28 2023-05-09 Olympus Corporation Endoscope system, endoscope image processing method, and storage medium
JPWO2020110214A1 (en) * 2018-11-28 2021-09-27 オリンパス株式会社 Endoscope system, image processing method for endoscopes, and image processing program for endoscopes
CN113164023B (en) * 2018-11-28 2024-02-23 奥林巴斯株式会社 Endoscope system, image processing method for endoscope, and computer-readable storage medium
JP7189969B2 (en) 2019-01-21 2022-12-14 オリンパス株式会社 Image processing device, method of operating image processing device, and image processing program
WO2020152758A1 (en) * 2019-01-21 2020-07-30 オリンパス株式会社 Endoscopic instrument and endoscopic system
JPWO2020152758A1 (en) * 2019-01-21 2021-12-09 オリンパス株式会社 Image processing device, diagnostic support method and image processing program
CN111568340A (en) * 2019-02-19 2020-08-25 富士胶片株式会社 Endoscope system
CN111568340B (en) * 2019-02-19 2024-01-05 富士胶片株式会社 Endoscope system
WO2022270582A1 (en) * 2021-06-24 2022-12-29 株式会社Aiメディカルサービス Examination assistance device, examination assistance method, and examination assistance program

Similar Documents

Publication Publication Date Title
JP2011255006A (en) Image processor, endoscopic device, program and image processing method
JP5541914B2 (en) Image processing apparatus, electronic apparatus, program, and operation method of endoscope apparatus
JP5658873B2 (en) Image processing apparatus, electronic apparatus, endoscope system, and program
JP5802364B2 (en) Image processing apparatus, electronic apparatus, endoscope system, and program
JP6633641B2 (en) Image processing apparatus, endoscope system, and image processing method
JP5591570B2 (en) Image processing apparatus, image processing method, and program
EP2517614B1 (en) Image processing device, endoscope system, program and image processing method
US10426318B2 (en) Image processing apparatus, endoscope system, and image processing method
JP6336949B2 (en) Image processing apparatus, image processing method, and endoscope system
JP6640866B2 (en) Image processing apparatus, endoscope system, and image processing method
JP2012005512A (en) Image processor, endoscope apparatus, endoscope system, program, and image processing method
JP2011218090A (en) Image processor, endoscope system, and program
WO2017057414A1 (en) Image processing device, endoscope system, and image processing method
WO2018079205A1 (en) Processor device and endoscopic system
JP2020065685A (en) Endoscope system
JP6054806B2 (en) Image processing apparatus and method for operating endoscope system
JP2012110481A (en) Endoscope apparatus, focus control method, and program
CN115361898A (en) Medical image processing device, endoscope system, method for operating medical image processing device, and program for medical image processing device
JP5940604B2 (en) Image processing apparatus, method of operating image processing apparatus, and program
JP6731065B2 (en) Endoscope system and operating method thereof
JP2010213746A (en) Endoscopic image processing device and method and program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130903