JP5816459B2 - Electronic endoscope system, operation method of electronic endoscope system, and software - Google Patents

Electronic endoscope system, operation method of electronic endoscope system, and software Download PDF

Info

Publication number
JP5816459B2
JP5816459B2 JP2011109690A JP2011109690A JP5816459B2 JP 5816459 B2 JP5816459 B2 JP 5816459B2 JP 2011109690 A JP2011109690 A JP 2011109690A JP 2011109690 A JP2011109690 A JP 2011109690A JP 5816459 B2 JP5816459 B2 JP 5816459B2
Authority
JP
Japan
Prior art keywords
threshold value
value
threshold
pixels
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011109690A
Other languages
Japanese (ja)
Other versions
JP2012239518A (en
Inventor
貴雄 牧野
貴雄 牧野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hoya Corp
Original Assignee
Hoya Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hoya Corp filed Critical Hoya Corp
Priority to JP2011109690A priority Critical patent/JP5816459B2/en
Publication of JP2012239518A publication Critical patent/JP2012239518A/en
Application granted granted Critical
Publication of JP5816459B2 publication Critical patent/JP5816459B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)

Description

本発明は、画像において所定の特徴を有する部分を検出する電子内視鏡システムに関する。   The present invention relates to an electronic endoscope system that detects a portion having a predetermined characteristic in an image.

電子内視鏡システムは、被験者の体内に挿入される内視鏡スコープと被験者の体外に設けられる内視鏡プロセッサとを備える。内視鏡スコープの遠位端部には、ライトガイド先端部及び撮像素子が設けられる。ライトガイド先端部から、照明光が観察対象物に対して照射され、撮像素子は、体内の観察対象物を撮像して得られた観察画像を内視鏡プロセッサに送信する。内視鏡プロセッサは、観察画像を画像処理した後、モニタに表示する。   The electronic endoscope system includes an endoscope scope that is inserted into a subject's body and an endoscope processor that is provided outside the subject's body. The distal end portion of the endoscope scope is provided with a light guide tip portion and an image sensor. Illumination light is irradiated from the distal end of the light guide to the observation object, and the imaging element transmits an observation image obtained by imaging the observation object in the body to the endoscope processor. The endoscope processor displays the observation image on the monitor after image processing.

撮像素子が出力した輝度信号を用いて、赤色、緑色、及び青色の輝度を示す輝度信号が画素毎に作成される。赤色の輝度を表す輝度信号をR信号、緑色の輝度を表す輝度信号をG信号、そして青色の輝度を表す輝度信号をB信号という。臓器の表層粘膜内にあるヘモグロビン量の二次元分布を画像化するため、G信号又はB信号をR信号で除した値に対して対数をとる(特許文献1)。術者は、これにより作成された画像を見て、臓器の表層における正常部と異常部とを判別する。   Using the luminance signal output from the image sensor, luminance signals indicating red, green, and blue luminance are generated for each pixel. A luminance signal representing red luminance is referred to as an R signal, a luminance signal representing green luminance is referred to as a G signal, and a luminance signal representing blue luminance is referred to as a B signal. In order to image a two-dimensional distribution of the amount of hemoglobin in the surface mucosa of an organ, a logarithm is taken with respect to a value obtained by dividing the G signal or B signal by the R signal (Patent Document 1). The surgeon determines the normal part and the abnormal part on the surface layer of the organ by looking at the image thus created.

特開平6−335451号公報JP-A-6-335451

しかし、G信号をR信号で除しただけでは、R及びG各信号が正常部と異常部との双方に同程度近接する場合、このR及びG各信号を有する画素が正常部と異常部のいずれに属するか判別できないおそれがある。   However, by dividing the G signal by the R signal, if the R and G signals are close to both the normal part and the abnormal part, the pixels having the R and G signals are separated from the normal part and the abnormal part. There is a possibility that it cannot be identified.

本発明はこれらの問題に鑑みてなされたものであり、正常部と異常部とを正確かつ明確に分別することが可能な電子内視鏡システムを得ることを目的とする。   The present invention has been made in view of these problems, and an object thereof is to obtain an electronic endoscope system capable of accurately and clearly separating a normal part and an abnormal part.

本願第1の発明による電子内視鏡システムは、内視鏡画像の各画素において、画素の特徴を示す特徴量を算出する算出部と、既定の初期閾値と特徴量との関係に応じて動的閾値を生成する生成部と、動的閾値を用いて全ての画素を2つの集団に分ける判定部とを備え、生成部は、1つの集団に属する画素の特徴量を用いて限界閾値を決定し、初期閾値から限界閾値までの範囲において、一時的に定める仮閾値の近傍に含まれる特徴量を有する画素の数が最小となる仮閾値を動的閾値として決定することを特徴とする。   The electronic endoscope system according to the first invention of the present application operates in accordance with a relationship between a calculation unit that calculates a feature amount indicating a feature of a pixel and a predetermined initial threshold value and the feature amount in each pixel of the endoscopic image. A generation unit that generates a dynamic threshold and a determination unit that divides all pixels into two groups using a dynamic threshold, and the generation unit determines a limit threshold using the feature values of pixels belonging to one group In the range from the initial threshold value to the limit threshold value, the temporary threshold value that minimizes the number of pixels having the feature amount included in the vicinity of the temporarily determined temporary threshold value is determined as the dynamic threshold value.

生成部は、1つの集団に属する特徴量の重心を限界閾値として決定することが好ましい。   The generation unit preferably determines the centroid of the feature values belonging to one group as the limit threshold.

生成部は、限界閾値と初期閾値との差を所定の値で除して得られる移動ステップごとに仮閾値を一時的に定めることが好ましい。   The generation unit preferably temporarily sets a temporary threshold for each movement step obtained by dividing the difference between the limit threshold and the initial threshold by a predetermined value.

生成部は、限界閾値と初期閾値との差を所定の値で除して得られる値の半分を近傍値として算出し、仮閾値から近傍値を減じた値から仮閾値に近傍値を加えた値までの計数範囲に属する特徴量の数が最小となる仮閾値を動的閾値として決定することが好ましい。   The generation unit calculates a half value obtained by dividing the difference between the limit threshold value and the initial threshold value by a predetermined value as the neighborhood value, and adds the neighborhood value to the provisional threshold value from the value obtained by subtracting the neighborhood value from the provisional threshold value. It is preferable to determine, as the dynamic threshold, a temporary threshold that minimizes the number of feature amounts belonging to the count range up to the value.

1つの画素は複数の輝度情報を有し、算出部は、輝度情報のうちの2つを他の1つの輝度情報で正規化して特徴量を算出することが好ましい。   One pixel preferably has a plurality of pieces of luminance information, and the calculation unit preferably calculates the feature amount by normalizing two pieces of luminance information with the other piece of luminance information.

生成部は、1つの集団に属する特徴量の中央値を限界閾値として決定してもよい。   The generation unit may determine a median value of the feature values belonging to one group as a limit threshold value.

生成部は、1つの集団に属する特徴量のうち、初期閾値との差が最も大きい値を限界閾値として決定してもよい。   The generation unit may determine a value having the largest difference from the initial threshold among the feature values belonging to one group as the limit threshold.

生成部は、移動ステップの半分を近傍値として算出し、仮閾値から近傍値を減じた値から仮閾値に近傍値を加えた値までの計数範囲に属する特徴量の数が最小となる仮閾値を動的閾値として決定することが好ましい。   The generation unit calculates a half of the movement step as a neighborhood value, and the provisional threshold that minimizes the number of feature quantities belonging to the count range from a value obtained by subtracting the neighborhood value from the provisional threshold to a value obtained by adding the neighborhood value to the provisional threshold. Is preferably determined as the dynamic threshold.

本願第2の発明による画像処理方法は、画像の各画素において、画素の特徴を示す特徴量を算出するステップと、既定の初期閾値と特徴量との関係に応じて画素を2つの集団に仕分けるステップと、仕分けられた2つの集団のうち1つの集団に属する画素の特徴量を用いて限界閾値を決定するステップと、初期閾値から限界閾値までの範囲において、一時的に定める仮閾値の近傍に含まれる特徴量を有する画素の数が最小となる仮閾値を動的閾値として決定するステップと、動的閾値を用いて全ての画素を2つの集団に分けるステップとを備えることを特徴とする。   The image processing method according to the second invention of this application classifies the pixels into two groups according to the relationship between the step of calculating the feature quantity indicating the feature of the pixel in each pixel of the image and the predetermined initial threshold value and the feature quantity. A step, a step of determining a limit threshold value using a feature amount of pixels belonging to one of the two classified groups, and a temporary threshold value that is temporarily determined in a range from the initial threshold value to the limit threshold value. The method includes a step of determining, as a dynamic threshold, a temporary threshold that minimizes the number of pixels having the included feature amount, and a step of dividing all pixels into two groups using the dynamic threshold.

本願第3の発明によるソフトウェアは、画像の各画素において、画素の特徴を示す特徴量を算出部に算出させるステップと、既定の初期閾値と特徴量との関係に応じて画素を2つの集団へと生成部に仕分けさせるステップと、仕分けられた2つの集団のうち1つの集団に属する画素の特徴量を用いて限界閾値を生成部に決定させるステップと、初期閾値から限界閾値までの範囲において、一時的に定める仮閾値の近傍に含まれる特徴量を有する画素の数が最小となる仮閾値を動的閾値として生成部に決定させるステップと、動的閾値を用いて全ての画素を2つの集団へと判定部に仕分けさせるステップとを備えることを特徴とする。   The software according to the third aspect of the present application is configured to cause a pixel to be divided into two groups according to a step of causing the calculation unit to calculate a feature amount indicating a feature of the pixel in each pixel of the image and a predetermined initial threshold value and the feature amount. In the range from the initial threshold value to the limit threshold value, the step of causing the generation unit to sort, the step of causing the generation unit to determine the limit threshold value using the feature amount of the pixels belonging to one group of the two classified groups, A step of causing the generation unit to determine, as a dynamic threshold, a temporary threshold that minimizes the number of pixels having a feature amount included in the vicinity of the temporarily determined temporary threshold; and two groups of all pixels using the dynamic threshold And a step of causing the determination unit to classify.

本発明によれば、正常部と異常部とを正確かつ明確に分別することが可能な電子内視鏡システムを得る。   According to the present invention, an electronic endoscope system capable of accurately and clearly separating a normal part and an abnormal part is obtained.

電子内視鏡システムのブロック図である。It is a block diagram of an electronic endoscope system. 演算処理を示したフローチャートである。It is the flowchart which showed the arithmetic processing. 撮影画像の一例を示した図である。It is the figure which showed an example of the picked-up image. 正規化された輝度情報を示した図である。It is the figure which showed the normalized luminance information. 正規化された輝度情報をPCA処理した結果を示した図である。It is the figure which showed the result of having performed the PCA process on the normalized luminance information. 動的閾値生成処理を示したフローチャートである。It is the flowchart which showed the dynamic threshold value generation process. 動的閾値生成処理の概念をグラフ上に示した図である。It is the figure which showed the concept of the dynamic threshold value generation process on the graph.

以下、本発明における電子内視鏡システム100の実施形態について添付図面を参照して説明する。まず、図1を用いて電子内視鏡システム100の構成について説明する。   Hereinafter, an embodiment of an electronic endoscope system 100 according to the present invention will be described with reference to the accompanying drawings. First, the configuration of the electronic endoscope system 100 will be described with reference to FIG.

電子内視鏡システム100は、被験者の体内に挿入される内視鏡スコープ110と、被験者の体外に設けられて画像処理を行う内視鏡プロセッサ120と、内視鏡プロセッサ120に接続されるモニタ140とを主に備える。内視鏡スコープ110は、被写体像を撮像して得られた輝度情報を内視鏡プロセッサ120に送信し、内視鏡プロセッサ120は、受信した輝度情報に画像処理を施して表示画像を作成し、モニタ140に表示画像を表示させる。   The electronic endoscope system 100 includes an endoscope scope 110 that is inserted into a subject's body, an endoscope processor 120 that is provided outside the subject's body and performs image processing, and a monitor that is connected to the endoscope processor 120. 140 mainly. The endoscope scope 110 transmits luminance information obtained by capturing a subject image to the endoscope processor 120, and the endoscope processor 120 performs image processing on the received luminance information to create a display image. The display image is displayed on the monitor 140.

内視鏡スコープ110の構成について説明する。内視鏡スコープ110の遠位端部には、撮像レンズ111及びCCD112が主に設けられる。CCD112は撮像レンズ111を介して被写体像を受光し、赤色、青色、及び緑色の3つの光の輝度情報を出力する。内視鏡スコープ110の全長に渡ってライトガイド113が設けられ、照明光を遠位端部まで運ぶ。   The configuration of the endoscope scope 110 will be described. An imaging lens 111 and a CCD 112 are mainly provided at the distal end portion of the endoscope scope 110. The CCD 112 receives a subject image via the imaging lens 111 and outputs luminance information of three lights of red, blue, and green. A light guide 113 is provided over the entire length of the endoscope scope 110 and carries the illumination light to the distal end.

CCD112の撮像面には複数の画素が設けられる。1つの画素の受光面には、赤色、青色、又は緑色いずれか1つの波長帯の光を透過するフィルタが取り付けられる。赤色のフィルタが取り付けられた画素は、赤色の波長帯を有する光の輝度を輝度情報として出力し、青色のフィルタが取り付けられた画素は青色の輝度情報、緑色のフィルタが取り付けられた画素は緑色の輝度情報を出力する。以下、赤色の波長帯を有する光の輝度を赤色輝度情報、青色の波長帯を有する光の輝度を青色輝度情報、そして緑色の波長帯を有する光の輝度を緑色輝度情報と呼ぶ。CCD112が出力した輝度情報は、1つの画素に対して1つの色の輝度情報のみが存在する。CCD112が出力した輝度情報は、内視鏡プロセッサ120に送信される。   A plurality of pixels are provided on the imaging surface of the CCD 112. A filter that transmits light in any one wavelength band of red, blue, or green is attached to the light receiving surface of one pixel. Pixels with a red filter attached output the luminance of light having a red wavelength band as luminance information, pixels with a blue filter attached have blue luminance information, and pixels with a green filter attached have green color The brightness information of is output. Hereinafter, the luminance of light having a red wavelength band is referred to as red luminance information, the luminance of light having a blue wavelength band is referred to as blue luminance information, and the luminance of light having a green wavelength band is referred to as green luminance information. The luminance information output from the CCD 112 includes only luminance information of one color for one pixel. The luminance information output from the CCD 112 is transmitted to the endoscope processor 120.

内視鏡スコープ110は内視鏡プロセッサ120に接続される。内視鏡プロセッサ120は、主処理部121と演算部127とから主に構成される。主処理部121は、内視鏡スコープ110から上記輝度信号を受け取り、画像処理を行って撮影画像を作成した後、モニタ140に撮影画像を出力する。演算部127は、主処理部121から撮影画像を受信して撮影画像を正常部と異常部とに区分し、異常部に関する情報を出力する。異常部に関する情報は、撮影画像における異常部の位置である。撮影画像における異常部は、病気によって変化した病変部に相当する。   The endoscope scope 110 is connected to the endoscope processor 120. The endoscope processor 120 is mainly composed of a main processing unit 121 and a calculation unit 127. The main processing unit 121 receives the luminance signal from the endoscope scope 110, performs image processing to create a captured image, and then outputs the captured image to the monitor 140. The computing unit 127 receives the captured image from the main processing unit 121, classifies the captured image into a normal part and an abnormal part, and outputs information on the abnormal part. The information regarding the abnormal part is the position of the abnormal part in the captured image. The abnormal part in the photographed image corresponds to a lesion part changed by a disease.

主処理部121について説明する。主処理部121は、画像入力処理部123、画像メモリ124、結果表示部125、光源126、及びシステムコントローラ122を有する。   The main processing unit 121 will be described. The main processing unit 121 includes an image input processing unit 123, an image memory 124, a result display unit 125, a light source 126, and a system controller 122.

画像入力処理部123は、CCD112から輝度情報を受信して、撮影画像を作成する。撮影画像を作成する処理について説明する。前述のように、CCD112が出力した輝度情報は、1つの画素に対して1つの色の輝度情報のみが存在する。しかし、撮影画像における1つの画素は、3つの色の輝度情報を必要とする。そこで、画像入力処理部123は、CCD112の1つの画素の周囲に存在する画素の輝度情報を用いて、CCD112の1つの画素に欠けている色の輝度情報を作成する。例えば、赤色輝度情報を有する画素に対して、青色輝度情報及び緑色輝度情報を作成する。これにより、撮影画像における画素は、赤色、青色、及び緑色の3つの輝度情報を有することになる。画像メモリ124は、画像入力処理部123が作成した撮影画像を記憶する。   The image input processing unit 123 receives luminance information from the CCD 112 and creates a captured image. Processing for creating a captured image will be described. As described above, the luminance information output from the CCD 112 includes only luminance information of one color for one pixel. However, one pixel in the captured image requires luminance information of three colors. Therefore, the image input processing unit 123 uses the luminance information of pixels existing around one pixel of the CCD 112 to create luminance information of a color lacking in one pixel of the CCD 112. For example, blue luminance information and green luminance information are created for a pixel having red luminance information. Thereby, the pixel in the captured image has three pieces of luminance information of red, blue, and green. The image memory 124 stores the captured image created by the image input processing unit 123.

システムコントローラ122は、画像メモリ124に記憶された撮影画像を演算部127に送信する。後述するように、撮影画像に含まれる異常部の位置を演算部127は算出してシステムコントローラ122に出力する。システムコントローラ122は、異常部の位置を演算部127から受信し、異常部の位置を結果表示部125に送信する。結果表示部125は、撮影画像において異常部が占める範囲に印を付けた表示画像を作成する。そして、モニタ140は、結果表示部125が作成した表示画像を表示する。   The system controller 122 transmits the captured image stored in the image memory 124 to the calculation unit 127. As will be described later, the calculation unit 127 calculates the position of the abnormal part included in the captured image and outputs it to the system controller 122. The system controller 122 receives the position of the abnormal part from the calculation unit 127 and transmits the position of the abnormal part to the result display unit 125. The result display unit 125 creates a display image in which the range occupied by the abnormal part in the captured image is marked. The monitor 140 displays the display image created by the result display unit 125.

光源126は、システムコントローラ122の信号に応じて、ライトガイド113に照明光を供給する。   The light source 126 supplies illumination light to the light guide 113 in accordance with a signal from the system controller 122.

次に、演算部127について説明する。演算部127は、画像処理部128、動的閾値生成部129、及び病変判定部130を有する。画像処理部128は、後述する特徴量を撮影画像に対して算出する。動的閾値生成部129は、撮影画像における正常部と異常部とを区分する動的閾値を、画像処理部128が算出した特徴量に基づいて算出する。動的閾値については後述する。病変判定部130は、動的閾値生成部129が算出した閾値を用いて、撮影画像における正常部と異常部とを区分する。   Next, the calculation unit 127 will be described. The calculation unit 127 includes an image processing unit 128, a dynamic threshold value generation unit 129, and a lesion determination unit 130. The image processing unit 128 calculates a feature amount to be described later with respect to the captured image. The dynamic threshold value generation unit 129 calculates a dynamic threshold value that distinguishes between a normal part and an abnormal part in the captured image based on the feature amount calculated by the image processing unit 128. The dynamic threshold will be described later. The lesion determination unit 130 uses the threshold value calculated by the dynamic threshold value generation unit 129 to classify the normal part and the abnormal part in the captured image.

図2を参照して、演算部127が実行する演算処理について説明する。演算処理は、演算部127が撮影画像を受信したときに実行される。まず、ステップS21において、後述する正規化処理及びPCA(Principal Component Analysis)処理を用いて画像処理部128が特徴量を算出する。そして、次にステップS22では、後述する動的閾値生成処理を用いて動的閾値生成部129が動的閾値を生成する。ステップS23では、病変判定部130が撮影画像において正常部と病変部とを区分、すなわち正常部及び病変部を判定する。最後のステップS24において判定結果をシステムコントローラ122に出力し、処理が終了する。   With reference to FIG. 2, the calculation process executed by the calculation unit 127 will be described. The calculation process is executed when the calculation unit 127 receives a captured image. First, in step S21, the image processing unit 128 calculates a feature amount by using a normalization process and a PCA (Principal Component Analysis) process which will be described later. In step S22, the dynamic threshold value generation unit 129 generates a dynamic threshold value using a dynamic threshold value generation process described later. In step S23, the lesion determination unit 130 classifies the normal part and the lesion part in the captured image, that is, determines the normal part and the lesion part. In the last step S24, the determination result is output to the system controller 122, and the process ends.

次に、図1を用いて画像処理部128について詳細に説明する。画像処理部128は、システムコントローラ122から撮影画像、すなわち赤色輝度情報、青色輝度情報、及び緑色輝度情報を受信して、特徴量を算出する。特徴量は、画素の特性を表す値であって、正規化処理及びPCA処理によって画素1つ1つに対して求められる。正規化処理及びPCA処理は、画像処理部128によって実行される。正規化処理は、明るさの大小が画素分離処理の結果に影響を及ぼすことを防ぐため、1つの輝度情報を用いて他の2つの輝度情報を正規化する処理である。PCA処理は、画像を構成する画素各々の特性を求める処理である。画素各々の特性は、一般にPCAスコアと呼ばれ、本発明では、特徴量と呼ばれる。   Next, the image processing unit 128 will be described in detail with reference to FIG. The image processing unit 128 receives a captured image, that is, red luminance information, blue luminance information, and green luminance information from the system controller 122, and calculates a feature amount. The feature amount is a value representing the characteristic of the pixel, and is obtained for each pixel by normalization processing and PCA processing. Normalization processing and PCA processing are executed by the image processing unit 128. The normalization process is a process for normalizing the other two pieces of luminance information using one piece of luminance information in order to prevent the brightness level from affecting the result of the pixel separation process. The PCA process is a process for obtaining characteristics of each pixel constituting an image. The characteristic of each pixel is generally called a PCA score, and in the present invention is called a feature amount.

次に、正規化処理の詳細について図3及び図4を用いて説明する。図3は、説明のため簡略化して表した観察画像の一例である。観察画像は、桃色の領域A、朱色の領域B、及び肌色の領域Cを有する。領域C、領域A、領域Bの順で赤みが強くなる。   Next, details of the normalization process will be described with reference to FIGS. FIG. 3 is an example of an observation image that is simplified for explanation. The observation image has a pink area A, a vermilion area B, and a skin color area C. Redness increases in the order of region C, region A, and region B.

正規化処理は、領域A、領域B、及び領域Cに含まれる画素の輝度情報を処理する。領域A、領域B、及び領域Cそれぞれに含まれる画素の青色輝度情報及び緑色輝度情報を、赤色輝度情報で各々除する。これにより、各画素の青色輝度情報及び緑色輝度情報が正規化され、観察画像における各画素は、青色輝度情報を赤色輝度情報で除した値(以下、B/R値とする)と、緑色輝度情報を赤色輝度情報で除した値(以下、G/R値とする)を有することになる。正規化された青色輝度情報及び緑色輝度情報をグラフにしたものを図4に示す。正規化することにより、画素の明るさによる影響を排して、画素分離処理することが可能になる。   The normalization process processes the luminance information of the pixels included in the area A, the area B, and the area C. The blue luminance information and the green luminance information of the pixels included in each of the region A, the region B, and the region C are respectively divided by the red luminance information. Thereby, the blue luminance information and the green luminance information of each pixel are normalized, and each pixel in the observation image has a value obtained by dividing the blue luminance information by the red luminance information (hereinafter referred to as a B / R value) and a green luminance. It has a value (hereinafter referred to as G / R value) obtained by dividing the information by the red luminance information. FIG. 4 shows a graph of normalized blue luminance information and green luminance information. By normalizing, it is possible to eliminate the influence of pixel brightness and perform pixel separation processing.

次に、PCA処理について図3及び図5を用いて説明する。   Next, the PCA process will be described with reference to FIGS.

PCA処理を実行する前に、以下の処理が実行される。予め撮影済みの初期観察画像を用意する。説明のため、図3に示される画像を初期観察画像とする。初期観察画像における正常部及び異常部は既知であって、初期観察画像が有する画素は正常部と異常部に予め分類される。正常部は第1の集団、異常部は第2の集団に分類される。ここで、図3における領域A及び領域Bを異常部とし、領域Cを正常部とすると、領域A及び領域Bが第2の集団に、領域Cが第1の集団に分類される。初期観察画像の各画素は、初期赤色輝度情報、初期青色輝度情報、及び初期緑色輝度情報から成る初期輝度信号を有する。そして、初期輝度信号を正規化処理により正規化して初期正規化信号、すなわち初期B/R値及び初期G/R値を得る。   Before executing the PCA process, the following process is executed. An initial observation image that has been captured in advance is prepared. For the sake of explanation, the image shown in FIG. The normal part and the abnormal part in the initial observation image are known, and the pixels of the initial observation image are classified in advance into a normal part and an abnormal part. The normal part is classified into the first group, and the abnormal part is classified into the second group. Here, assuming that the region A and the region B in FIG. 3 are abnormal parts and the region C is a normal part, the regions A and B are classified into the second group and the region C is classified into the first group. Each pixel of the initial observation image has an initial luminance signal composed of initial red luminance information, initial blue luminance information, and initial green luminance information. Then, the initial luminance signal is normalized by a normalization process to obtain an initial normalized signal, that is, an initial B / R value and an initial G / R value.

PCA処理では、これらの初期正規化信号に対してPCA処理を行い、PCAスコアを算出する。PCA処理は、主成分分析とも呼ばれ、相関関係にあるいくつかの要因を合成(圧縮)して、いくつかの成分にし、その総合力や特性を求める処理である。   In the PCA processing, PCA processing is performed on these initial normalized signals, and a PCA score is calculated. The PCA process is also called a principal component analysis, and is a process for combining (compressing) several factors having a correlation into several components to obtain their total power and characteristics.

まず、正常部と異常部から特定の画素を数点取得し、それらの初期正規化信号に関して分散共分散行列を求める。いいかえると、特定の画素の初期B/R値及び初期G/R値に対して分散共分散行列が求められる。ここで、求められた分散共分散行列が以下の行列であるとする。

Figure 0005816459
First, several specific pixels are acquired from the normal part and the abnormal part, and a variance-covariance matrix is obtained for these initial normalized signals. In other words, a variance covariance matrix is obtained for the initial B / R value and the initial G / R value of a specific pixel. Here, it is assumed that the obtained variance-covariance matrix is the following matrix.
Figure 0005816459

次に、分散共分散行列の固有値及び固有値ベクトルを求める。ここで、以下のように固有値5.0817及び4.4406が求められる。

Figure 0005816459
そして、以下のような固有ベクトルが求められる。
Figure 0005816459
そして、大きい方の固有値に対応する固有ベクトルを第1主成分ベクトル、小さい方の固有値に対応する固有ベクトルを第2主成分ベクトルとする。すなわち、第1主成分ベクトルは(−0.5323, 0.8466)、第2主成分ベクトルは(−0.8466, −0.5323)となる。特定の画素の正規化信号ベクトル(B/R, G/R)と第1または第2主成分ベクトルの内積を計算することで、その画素の第1主成分PC1または第2主成分PC2が求められる。第1主成分及び第2主成分がPCAスコア、すなわち特徴量を成す。以下、第1主成分PC1を特徴量1、第2主成分PC2を特徴量2と呼ぶ。 Next, eigenvalues and eigenvalue vectors of the variance-covariance matrix are obtained. Here, eigenvalues 5.0817 and 4.4406 are obtained as follows.
Figure 0005816459
Then, the following eigenvectors are obtained.
Figure 0005816459
The eigenvector corresponding to the larger eigenvalue is set as the first principal component vector, and the eigenvector corresponding to the smaller eigenvalue is set as the second principal component vector. That is, the first principal component vector is (−0.5323, 0.8466), and the second principal component vector is (−0.8466, −0.5323). By calculating the inner product of the normalized signal vector (B / R, G / R) of the specific pixel and the first or second principal component vector, the first principal component PC1 or the second principal component PC2 of the pixel is obtained. It is done. The first principal component and the second principal component form a PCA score, that is, a feature amount. Hereinafter, the first principal component PC1 is referred to as a feature amount 1 and the second principal component PC2 is referred to as a feature amount 2.

上記のようにして求めた固有ベクトル(第1及び第2主成分ベクトル)と、領域A、領域B、及び領域Cに含まれる画素に関する初期B/R値及び初期G/R値からPCAスコアを計算すると、図5に示すグラフを得る。この固有ベクトルが、実際に入力された撮影画像の特徴量が計算される。   PCA score is calculated from the eigenvectors (first and second principal component vectors) obtained as described above, and the initial B / R values and the initial G / R values for the pixels included in the regions A, B, and C. Then, the graph shown in FIG. 5 is obtained. This eigenvector is used to calculate the feature amount of the captured image actually input.

次に、図1を用いて動的閾値生成部129について詳細に説明する。動的閾値生成部129は、画像処理部128が算出した特徴量1に基づいて、正常部と異常部とを区分する閾値を動的に算出する。この閾値を動的閾値と呼ぶ。動的閾値は、動的閾値決定処理によって撮影画像ごとに算出される。すなわち撮影画像ごとに変化する閾値であるため、動的閾値と呼ばれる。   Next, the dynamic threshold value generation unit 129 will be described in detail with reference to FIG. The dynamic threshold value generation unit 129 dynamically calculates a threshold value for classifying the normal part and the abnormal part based on the feature amount 1 calculated by the image processing unit 128. This threshold is called a dynamic threshold. The dynamic threshold is calculated for each captured image by the dynamic threshold determination process. In other words, since this is a threshold that changes for each captured image, it is called a dynamic threshold.

次に、病変判定部130について詳細に説明する。病変判定部130は、動的閾値に基づいて撮影画像に含まれる画素から異常部を判定する。より詳しく説明すると、動的閾値よりも大きい特徴量1を有する画素を病変部として判定する。   Next, the lesion determination unit 130 will be described in detail. The lesion determination unit 130 determines an abnormal part from the pixels included in the captured image based on the dynamic threshold. More specifically, a pixel having a feature amount 1 larger than the dynamic threshold is determined as a lesion.

次に図6及び7を用いて動的閾値決定処理について説明する。この処理では、正常部と異常部とを暫定的に分けるために用いる初期閾値が予め定められている。動的閾値決定処理は、初期閾値によって分けられた2つの集団のうち1つの集団の重心を求め、初期閾値から重心までの間において正常部と病変部とを最も良く分ける動的閾値を探索する処理である。初期閾値から重心まで所定の移動ステップで仮の閾値を移動させ、その仮閾値の近傍に位置する画素の数が最も少ないときに、その仮閾値を動的閾値として決定する。動的閾値決定処理のフローチャートは図6に示される。   Next, the dynamic threshold value determination process will be described with reference to FIGS. In this process, an initial threshold value used for provisionally dividing the normal part and the abnormal part is determined in advance. The dynamic threshold value determination process obtains the center of gravity of one group out of the two groups divided by the initial threshold value, and searches for the dynamic threshold value that best separates the normal part and the lesioned part between the initial threshold value and the center of gravity. It is processing. The temporary threshold value is moved from the initial threshold value to the center of gravity by a predetermined movement step, and when the number of pixels located in the vicinity of the temporary threshold value is the smallest, the temporary threshold value is determined as the dynamic threshold value. A flowchart of the dynamic threshold value determination process is shown in FIG.

図7を参照すると、正常部と病変部とが特徴量1及び2に応じて分布している。動的閾値決定処理のステップS61では、まず、これらを初期閾値で2つの集団に分離する。特徴量1が初期閾値よりも大きい集団を暫定的病変部集団と呼ぶ。そして、暫定的病変部集団の重心を求める。重心の特徴量1が限界閾値である。   Referring to FIG. 7, the normal part and the lesion part are distributed according to the feature amounts 1 and 2. In step S61 of the dynamic threshold value determination process, these are first separated into two groups with an initial threshold value. A group in which the feature amount 1 is larger than the initial threshold is referred to as a provisional lesion group. Then, the center of gravity of the provisional lesion group is obtained. The feature value 1 of the center of gravity is the limit threshold.

次のステップS62では、重心と初期閾値との差を所定の値で除して仮閾値の移動ステップを算出し、そして、移動値を2で除して近傍値を算出する。所定の値は、観察対象物、照明光の種類、経験値等に応じて定められる値であって、例えば10が用いられる。近傍値は仮閾値の近傍の範囲を示す値である。そして、仮閾値を初期閾値と同じ値に設定する。   In the next step S62, the difference between the center of gravity and the initial threshold is divided by a predetermined value to calculate a temporary threshold moving step, and the moving value is divided by 2 to calculate a neighborhood value. The predetermined value is a value determined according to the object to be observed, the type of illumination light, the experience value, and the like, for example, 10 is used. The neighborhood value is a value indicating a range in the vicinity of the temporary threshold. Then, the temporary threshold is set to the same value as the initial threshold.

ステップS63では、現在の仮閾値から移動ステップだけ移動した値を新たな仮閾値とする。いいかえると、現在の仮閾値に移動ステップの値を加えた値を新たな仮閾値とする。   In step S63, the value moved by the moving step from the current temporary threshold is set as a new temporary threshold. In other words, a value obtained by adding the value of the movement step to the current temporary threshold value is set as a new temporary threshold value.

ステップS64では、仮閾値から近傍値を引いた値から仮閾値に近傍値を加えた値までの計数範囲に存在する画素の数を数える。この数を近傍画素数と呼ぶ。計数範囲に存在する画素を図7に示す。   In step S64, the number of pixels existing in the counting range from the value obtained by subtracting the neighborhood value from the provisional threshold to the value obtained by adding the neighborhood value to the provisional threshold is counted. This number is called the number of neighboring pixels. The pixels existing in the counting range are shown in FIG.

ステップS65では、仮閾値に移動ステップを加えた値が限界閾値よりも大きいか否かを判断する。大きい場合、処理はステップS66に進み、大きくない場合、処理はステップS63に戻る。ステップS63からS65までを繰り返すことにより、仮閾値と近傍画素数との対応関係を複数得る。   In step S65, it is determined whether or not the value obtained by adding the moving step to the temporary threshold is greater than the limit threshold. If so, the process proceeds to step S66. If not, the process returns to step S63. By repeating steps S63 to S65, a plurality of correspondence relationships between the temporary threshold and the number of neighboring pixels are obtained.

ステップS66では、近傍画素数がもっとも少ない仮閾値を動的閾値として決定する。そして、ステップS67において、病変判定部130が、動的閾値を超える特徴量1を有する画素を病変部と判定する。その後、処理が終了する。   In step S66, the temporary threshold with the smallest number of neighboring pixels is determined as the dynamic threshold. In step S <b> 67, the lesion determination unit 130 determines that a pixel having the feature amount 1 exceeding the dynamic threshold is a lesion. Thereafter, the process ends.

動的閾値生成処理は、撮影画像が演算部127に入力される度に実行される。すなわち、撮影画像ごとに動的閾値を設定し、設定した動的閾値を用いて撮影画像ごとに正常部と病変部とを判定する。これにより、時々刻々と変化する撮影条件に左右されずに正確に正常部と病変部とを判定することができる。また、重心を限界閾値とすることにより、撮影画像に含まれるノイズの影響を最小限に抑えながら正常部と病変部とを判定することができる。   The dynamic threshold value generation process is executed every time a captured image is input to the calculation unit 127. That is, a dynamic threshold is set for each captured image, and a normal part and a lesioned part are determined for each captured image using the set dynamic threshold. Thereby, it is possible to accurately determine the normal portion and the lesioned portion without being influenced by the imaging conditions that change from moment to moment. In addition, by setting the center of gravity as a limit threshold, it is possible to determine a normal part and a lesion part while minimizing the influence of noise included in the captured image.

本実施形態によれば、撮影条件の変化に左右されずに、正常部と異常部とを正確かつ明確に分別することができる。   According to the present embodiment, the normal part and the abnormal part can be accurately and clearly separated without being affected by changes in the photographing conditions.

なお、正規化において除数は赤色輝度情報でなくても良く、青色輝度情報又は緑色輝度情報であってもよい。   In normalization, the divisor may not be red luminance information, but may be blue luminance information or green luminance information.

また、PCA処理でなく、フィッシャー判別法により分類された正規化信号に対してNN法又はベイズ識別法を適用しても良い。   Further, the NN method or the Bayes identification method may be applied to the normalized signal classified by the Fisher discrimination method instead of the PCA process.

撮像部はCCD112に限定されず、例えばCMOS等の撮像素子であっても良い。   The imaging unit is not limited to the CCD 112, and may be an imaging element such as a CMOS.

特徴量1の重心ではなく、1つの集団に属する特徴量1のうち初期閾値との差が最も大きい最大特徴量、又は最大特徴量の例えば9割の値、あるいは中央値(メジアン)を限界閾値として使用しても良い。重心と同様の効果を得る。   Not the centroid of the feature quantity 1, but the maximum feature quantity having the largest difference from the initial threshold among the feature quantities 1 belonging to one group, or 90% of the maximum feature quantity or the median (median) is the threshold threshold May be used as The same effect as the center of gravity is obtained.

移動ステップは、重心と初期閾値との差を10で除した値に限定されず、近傍値は、移動ステップを2で除した値に限定されない。   The movement step is not limited to a value obtained by dividing the difference between the center of gravity and the initial threshold value by 10, and the neighborhood value is not limited to a value obtained by dividing the movement step by 2.

計数範囲は、仮閾値から近傍値を減じた値から仮閾値までの値、あるいは仮閾値から仮閾値に近傍値を加えた値までの値であってもよい。   The count range may be a value from a value obtained by subtracting the neighborhood value from the provisional threshold to the provisional threshold, or a value from the provisional threshold to a value obtained by adding the neighborhood value to the provisional threshold.

動的閾値生成処理のステップS66において、近傍画素の密度が最も小さい仮閾値を動的閾値として決定してもよい。密度は、近傍画素数を近傍範囲の大きさで除して求められる。 In step S66 of the dynamic threshold value generation process, a temporary threshold value with the smallest density of neighboring pixels may be determined as the dynamic threshold value. The density is obtained by dividing the number of neighboring pixels by the size of the neighboring range.

100 電子内視鏡システム
110 内視鏡スコープ
111 撮像レンズ
112 CCD
113 ライトガイド
120 内視鏡プロセッサ
121 主処理部
122 システムコントローラ
123 画像入力処理部
124 画像メモリ
125 結果表示部
126 光源
127 演算部
128 画像処理部
129 動的閾値生成部
130 病変判定部
140 モニタ
100 Electronic Endoscope System 110 Endoscope Scope 111 Imaging Lens 112 CCD
113 Light Guide 120 Endoscope Processor 121 Main Processing Unit 122 System Controller 123 Image Input Processing Unit 124 Image Memory 125 Result Display Unit 126 Light Source 127 Calculation Unit 128 Image Processing Unit 129 Dynamic Threshold Generation Unit 130 Lesion Determination Unit 140 Monitor

Claims (9)

内視鏡画像の各画素において、画素の特徴を示す特徴量を算出する算出部と、
既定の初期閾値と特徴量との関係に応じて動的閾値を生成する生成部と、
前記動的閾値を用いて全ての画素を2つの集団に分ける判定部とを備え、
前記生成部は、1つの集団に属する画素の特徴量を用いて限界閾値を決定し、初期閾値から限界閾値までの範囲において、一時的に定める仮閾値を所定の移動ステップで移動させ、その仮閾値の近傍に含まれる特徴量を有する画素の数が最小となるかもしくは近傍画素の密度が最も小さくなる仮閾値を動的閾値として決定し、
前記生成部は、限界閾値と初期閾値との差を所定の値で除して得られる移動ステップごとに仮閾値を定める電子内視鏡システム。
For each pixel of the endoscopic image, a calculation unit that calculates a feature amount indicating the feature of the pixel;
A generation unit that generates a dynamic threshold according to a relationship between a predetermined initial threshold and a feature amount;
A determination unit that divides all pixels into two groups using the dynamic threshold,
The generation unit determines a limit threshold value using the feature values of pixels belonging to one group, moves a temporary threshold value that is temporarily determined in a range from the initial threshold value to the limit threshold value, and moves the temporary threshold value. A provisional threshold value that minimizes the number of pixels having a feature amount included in the vicinity of the threshold value or minimizes the density of neighboring pixels is determined as a dynamic threshold value ,
The said production | generation part is an electronic endoscope system which determines a temporary threshold value for every movement step obtained by dividing | segmenting the difference of a limit threshold value and an initial threshold value by a predetermined value .
前記生成部は、1つの集団に属する特徴量の重心を限界閾値として決定する請求項1に記載の電子内視鏡システム。   The electronic endoscope system according to claim 1, wherein the generation unit determines a centroid of feature amounts belonging to one group as a limit threshold. 前記生成部は、限界閾値と初期閾値との差を所定の値で除して得られる値の半分を近傍値として算出し、仮閾値から近傍値を減じた値から仮閾値に近傍値を加えた値までの計数範囲に属する特徴量の数が最小となる仮閾値を動的閾値として決定する請求項1乃至のいずれかに記載の電子内視鏡システム。 The generation unit calculates a half value obtained by dividing the difference between the limit threshold value and the initial threshold value by a predetermined value as a neighborhood value, and adds the neighborhood value to the provisional threshold value from a value obtained by subtracting the neighborhood value from the provisional threshold value. the electronic endoscope system according to any one of claims 1 to 2 the number of feature amounts belonging to counting range up value determines the tentative threshold becomes minimum as the dynamic threshold was. 1つの前記画素は複数の輝度情報を有し、前記算出部は、輝度情報のうちの2つを他の1つの輝度情報で正規化して特徴量を算出する請求項1乃至のいずれかに記載の電子内視鏡システム。 One of the pixels includes a plurality of luminance information, the calculating unit, in any one of claims 1 to 3 for calculating the feature quantity by normalizing the two other one luminance information in the luminance information The electronic endoscope system described. 前記生成部は、1つの集団に属する特徴量の中央値を限界閾値として決定する請求項1に記載の電子内視鏡システム。   The electronic endoscope system according to claim 1, wherein the generation unit determines a median value of feature values belonging to one group as a limit threshold value. 前記生成部は、1つの集団に属する特徴量のうち、初期閾値との差が最も大きい値を限界閾値として決定する請求項1に記載の電子内視鏡システム。   The electronic endoscope system according to claim 1, wherein the generation unit determines a value having the largest difference from the initial threshold among the feature values belonging to one group as a limit threshold. 前記生成部は、前記移動ステップの半分を近傍値として算出し、仮閾値から近傍値を減じた値から仮閾値に近傍値を加えた値までの計数範囲に属する特徴量の数が最小となる仮閾値を動的閾値として決定する請求項に記載の電子内視鏡システム。 The generation unit calculates half of the movement step as a neighborhood value, and the number of feature quantities belonging to the count range from a value obtained by subtracting the neighborhood value from the provisional threshold to a value obtained by adding the neighborhood value to the provisional threshold is minimized. The electronic endoscope system according to claim 1 , wherein the temporary threshold is determined as a dynamic threshold. 電子内視鏡システムの動作方法であって、
算出部が、画像の各画素において、画素の特徴を示す特徴量を算出し、
生成部が、既定の初期閾値と特徴量との関係に応じて画素を2つの集団に仕分け、
判定部が、仕分けられた2つの集団のうち1つの集団に属する画素の特徴量を用いて限界閾値を決定する方法であって、
前記生成部が、初期閾値から限界閾値までの範囲において、一時的に定める仮閾値を、限界閾値と初期閾値との差を所定の値で除して得られる移動ステップで移動させ、その仮閾値の近傍に含まれる特徴量を有する画素の数が最小となるかもしくは近傍画素の密度が最も小さくなる仮閾値を動的閾値として決定し、
前記判定部が、前記動的閾値を用いて全ての画素を2つの集団に分けることを特徴とする電子内視鏡システムの動作方法。
A method for operating an electronic endoscope system, comprising:
The calculation unit calculates a feature amount indicating a feature of the pixel in each pixel of the image,
The generation unit sorts the pixels into two groups according to the relationship between the predetermined initial threshold and the feature amount,
The determination unit is a method of determining a limit threshold value using a feature amount of pixels belonging to one group out of two classified groups,
In the range from the initial threshold value to the limit threshold value, the generating unit moves the temporary threshold value temporarily determined by a movement step obtained by dividing the difference between the limit threshold value and the initial threshold value by a predetermined value, and the temporary threshold value. A provisional threshold value that minimizes the number of pixels having the feature amount included in the neighborhood of or the density of neighboring pixels is minimized is determined as the dynamic threshold value,
The operation method of the electronic endoscope system, wherein the determination unit divides all pixels into two groups using the dynamic threshold.
電子内視鏡システムにおいて、
画像の各画素において、画素の特徴を示す特徴量を算出部に算出させるステップと、
既定の初期閾値と特徴量との関係に応じて画素を2つの集団へと生成部に仕分けさせるステップと、
仕分けられた2つの集団のうち1つの集団に属する画素の特徴量を用いて限界閾値を生成部に決定させるステップと、
初期閾値から限界閾値までの範囲において、一時的に定める仮閾値を、限界閾値と初期閾値との差を所定の値で除して得られる移動ステップで移動させ、その仮閾値の近傍に含まれる特徴量を有する画素の数が最小となるかもしくは近傍画素の密度が最も小さくなる仮閾値を動的閾値として生成部に決定させるステップと、
前記動的閾値を用いて全ての画素を2つの集団へと判定部に仕分けさせるステップとを実行させることを特徴とするソフトウェア。
In electronic endoscope system,
For each pixel of the image, causing the calculation unit to calculate a feature amount indicating the feature of the pixel;
Causing the generation unit to classify the pixels into two groups according to a relationship between a predetermined initial threshold and a feature amount;
A step of causing the generation unit to determine a limit threshold value using a feature amount of pixels belonging to one group out of the two groups sorted;
In the range from the initial threshold value to the limit threshold value, the temporary threshold value temporarily determined is moved by a movement step obtained by dividing the difference between the limit threshold value and the initial threshold value by a predetermined value, and is included in the vicinity of the temporary threshold value. A step of causing the generation unit to determine, as a dynamic threshold, a temporary threshold that minimizes the number of pixels having a feature amount or the density of neighboring pixels is the smallest;
And causing the determination unit to sort all pixels into two groups using the dynamic threshold.
JP2011109690A 2011-05-16 2011-05-16 Electronic endoscope system, operation method of electronic endoscope system, and software Expired - Fee Related JP5816459B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011109690A JP5816459B2 (en) 2011-05-16 2011-05-16 Electronic endoscope system, operation method of electronic endoscope system, and software

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011109690A JP5816459B2 (en) 2011-05-16 2011-05-16 Electronic endoscope system, operation method of electronic endoscope system, and software

Publications (2)

Publication Number Publication Date
JP2012239518A JP2012239518A (en) 2012-12-10
JP5816459B2 true JP5816459B2 (en) 2015-11-18

Family

ID=47461887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011109690A Expired - Fee Related JP5816459B2 (en) 2011-05-16 2011-05-16 Electronic endoscope system, operation method of electronic endoscope system, and software

Country Status (1)

Country Link
JP (1) JP5816459B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5764592B2 (en) * 2013-02-22 2015-08-19 東京エレクトロン株式会社 Substrate processing apparatus, substrate processing apparatus monitoring apparatus, and substrate processing apparatus monitoring method
WO2023053854A1 (en) * 2021-09-29 2023-04-06 京都府公立大学法人 Diagnostic assistance device and diagnostic assistance program

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62160593A (en) * 1986-01-09 1987-07-16 Toshiba Corp Character reader
JP3483912B2 (en) * 1993-07-29 2004-01-06 株式会社東芝 Color discriminating apparatus and color discriminating method
JP2002312775A (en) * 2001-04-13 2002-10-25 Canon Inc Image processor, radiation image processing system and image processing method
JP4554647B2 (en) * 2003-04-25 2010-09-29 オリンパス株式会社 Image display device, image display method, and image display program
JP4652694B2 (en) * 2004-01-08 2011-03-16 オリンパス株式会社 Image processing method
JP4025823B2 (en) * 2004-02-24 2007-12-26 国立精神・神経センター総長 Diagnosis support method and apparatus for brain disease
JP2007094689A (en) * 2005-09-28 2007-04-12 Sharp Corp Image verification device, image verification method, image verification program, and computer readable recording medium recording image verification program
JP4040651B2 (en) * 2005-12-02 2008-01-30 株式会社日立製作所 Camera shake correction method and image system
JP5312807B2 (en) * 2008-01-08 2013-10-09 オリンパス株式会社 Image processing apparatus and image processing program
JP4946882B2 (en) * 2008-01-16 2012-06-06 日本電気株式会社 Image processing apparatus, image processing system, image processing method, and program
JP5117353B2 (en) * 2008-11-07 2013-01-16 オリンパス株式会社 Image processing apparatus, image processing program, and image processing method
JP5305850B2 (en) * 2008-11-14 2013-10-02 オリンパス株式会社 Image processing apparatus, image processing program, and image processing method

Also Published As

Publication number Publication date
JP2012239518A (en) 2012-12-10

Similar Documents

Publication Publication Date Title
US9186051B2 (en) Image processing device, computer-readable recording device, and image processing method
US10812733B2 (en) Control method, control device, mobile terminal, and computer-readable storage medium
US10223785B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium extracting one or more representative images
US9959618B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
JP5147308B2 (en) Image extraction apparatus and image extraction program
US10360474B2 (en) Image processing device, endoscope system, and image processing method
JP6494253B2 (en) Object detection apparatus, object detection method, image recognition apparatus, and computer program
US8994801B2 (en) Image processing apparatus
US20200234070A1 (en) Inspection support device, endoscope device, inspection support method, and inspection support program
US20210133473A1 (en) Learning apparatus and learning method
JP7308258B2 (en) Medical imaging device and method of operating medical imaging device
US20160007856A1 (en) Fluorescence observation apparatus
JPWO2012114600A1 (en) Medical image processing apparatus and method of operating medical image processing apparatus
JPWO2016110993A1 (en) Endoscope system, endoscope apparatus, and control method for endoscope system
CN111278349A (en) Medical image processing apparatus
WO2016151711A1 (en) Image processing device, image processing method, and image processing program
CN110740676A (en) Endoscope system and method for operating endoscope system
JP6784261B2 (en) Information processing equipment, image processing system, image processing method and program
JP2011024628A (en) Image processor, image processing program, and image processing method
KR102503872B1 (en) Information processing device, information processing method, and program
US20220285010A1 (en) Medical image processing apparatus, medical image processing method, and program
JP5816459B2 (en) Electronic endoscope system, operation method of electronic endoscope system, and software
EP2506212B1 (en) Image processing apparatus, image processing method, and image processing program
JP5825886B2 (en) Image processing apparatus, image processing method for endoscope apparatus, and image processing software
EP4026479A1 (en) Medical image processing device, endoscope system, medical image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141125

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150630

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150915

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150928

R150 Certificate of patent or registration of utility model

Ref document number: 5816459

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees