JP7189173B2 - IMAGE PROCESSING METHOD, IMAGING DEVICE AND IMAGE PROCESSING DEVICE - Google Patents

IMAGE PROCESSING METHOD, IMAGING DEVICE AND IMAGE PROCESSING DEVICE Download PDF

Info

Publication number
JP7189173B2
JP7189173B2 JP2020082525A JP2020082525A JP7189173B2 JP 7189173 B2 JP7189173 B2 JP 7189173B2 JP 2020082525 A JP2020082525 A JP 2020082525A JP 2020082525 A JP2020082525 A JP 2020082525A JP 7189173 B2 JP7189173 B2 JP 7189173B2
Authority
JP
Japan
Prior art keywords
image
image data
image processing
pixel data
unevenness correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020082525A
Other languages
Japanese (ja)
Other versions
JP2021177604A (en
Inventor
耕司 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fibertech Co Ltd
Original Assignee
Fibertech Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fibertech Co Ltd filed Critical Fibertech Co Ltd
Priority to JP2020082525A priority Critical patent/JP7189173B2/en
Publication of JP2021177604A publication Critical patent/JP2021177604A/en
Application granted granted Critical
Publication of JP7189173B2 publication Critical patent/JP7189173B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)

Description

本発明は画像処理方法、撮像装置及び画像処理装置に関する。 The present invention relates to an image processing method, an imaging device, and an image processing device.

複数のコアを含むイメージガイドファイバを有する内視鏡が知られている。複数のコアの各々は、観察対象の表面で反射した後に入射した光を伝送する。複数のコアの隙間はクラッドで充填されている。入射した光はコアとクラッドの界面で全反射を繰り返しながら伝送され、コア内に閉じ込められる。一方、クラッドは光を殆ど伝送しないため、内視鏡に接続された表示装置に表示される観察対象の画像の領域において、クラッドに対応する領域の輝度が低くなる。これによって、観察者は、所謂網目模様を視認する。 Endoscopes with image guide fibers that include multiple cores are known. Each of the plurality of cores transmits incident light after being reflected by the surface being observed. The gaps between the multiple cores are filled with clad. Incident light is transmitted while repeating total reflection at the interface between the core and the clad, and is confined within the core. On the other hand, since the clad hardly transmits light, the luminance of the region corresponding to the clad is low in the region of the image of the observation target displayed on the display device connected to the endoscope. The observer thus sees a so-called mesh pattern.

特許文献1には、このような網目模様を除去する技術が開示されている。具体的には、表示される観察対象の画像において、コアに対応する領域及びその外側のクラッドに対応する領域の色を、当該コアに対応する領域の一点の色に置き換える。これによって、クラッドに対応する領域の色がコアに対応する領域の色に基づいて補完され、網目模様を除去又は低減することができるとされている。 Patent Literature 1 discloses a technique for removing such a mesh pattern. Specifically, in the displayed image of the observation target, the colors of the region corresponding to the core and the region corresponding to the outer cladding are replaced with the color of one point in the region corresponding to the core. According to this document, the color of the region corresponding to the cladding is interpolated based on the color of the region corresponding to the core, and the mesh pattern can be removed or reduced.

特開平8-191439号公報JP-A-8-191439

しかしながら、特許文献1に開示された方法では、コアに対応する領域及びその外側のクラッドに対応する領域の色を、当該コアに対応する領域の一点の色に置き換えることにより、当該コアに対応する領域に各点の異なる輝度と色度の情報が単一の輝度と色度に置き換えられるため、表示される画像の解像度が劣化する。 However, in the method disclosed in Patent Document 1, by replacing the color of the region corresponding to the core and the region corresponding to the outer cladding with the color of one point in the region corresponding to the core, Since the different luminance and chromaticity information for each point in the region is replaced with a single luminance and chromaticity, the resolution of the displayed image is degraded.

本発明の目的は、内視鏡システムによって表示される画像の解像度の劣化を抑えた上で、網目模様を実質的に除去することが可能な画像処理方法を提供することにある。 SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing method capable of substantially removing a mesh pattern while suppressing degradation in resolution of an image displayed by an endoscope system.

上記目的を達成するための主たる発明は、観察対象の表面で反射した後に入射した光を伝送する複数のコアを含むイメージガイドファイバを有する内視鏡と、前記内視鏡を接続可能であり、前記光を検知して電気信号に変換するイメージセンサ及び前記イメージセンサによって変換された電気信号に基づいて、複数の画素データから構成される画像データを生成する画像生成部を有する撮像装置と、を備える内視鏡システムにおける画像処理方法であって、基準面を撮影して基準画像データを生成するステップと、前記基準画像データに施すと、前記基準画像データを構成する複数の画素データの各々の輝度成分を均一にする輝度ムラ補正演算を導出するステップと、観察対象を撮影して観察画像データを生成するステップと、前記観察画像データを構成する複数の画素データの各々に、前記輝度ムラ補正演算を施すステップとを含む画像処理方法である。本発明の他の特徴については、後述する明細書及び図面の記載により明らかにする。 The main invention for achieving the above object is an endoscope having an image guide fiber including a plurality of cores that transmit incident light after being reflected on the surface of an observation target, and the endoscope, and connectable to the endoscope, an imaging device having an image sensor that detects the light and converts it into an electrical signal; An image processing method in an endoscope system comprising: a step of photographing a reference plane to generate reference image data; deriving a luminance unevenness correction operation for uniforming luminance components; photographing an observation target to generate observed image data; and performing an operation. Other features of the present invention will be clarified by the description of the specification and drawings described later.

本発明によれば、内視鏡システムによって表示される画像の解像度の劣化を抑えた上で、網目模様を実質的に除去することが可能な画像処理方法を提供することができる。 According to the present invention, it is possible to provide an image processing method capable of substantially removing a mesh pattern while suppressing degradation in resolution of an image displayed by an endoscope system.

実施形態の内視鏡システムの全体構成を説明する概略図である。BRIEF DESCRIPTION OF THE DRAWINGS It is the schematic explaining the whole structure of the endoscope system of embodiment. 実施形態の内視鏡の構成を示す図である。It is a figure which shows the structure of the endoscope of embodiment. 実施形態の内視鏡における挿入部の断面を示す図である。It is a figure which shows the cross section of the insertion part in the endoscope of embodiment. 実施形態の内視鏡における挿入部の断面を示す図である。It is a figure which shows the cross section of the insertion part in the endoscope of embodiment. 実施形態の撮像装置の機能ブロック図である。1 is a functional block diagram of an imaging device according to an embodiment; FIG. 実施形態のイメージセンサに到達する光の経路を説明する図である。It is a figure explaining the path|route of the light which reaches|attains the image sensor of embodiment. 実施形態の画像処理方法のフローチャートである。4 is a flowchart of an image processing method according to an embodiment; 実施例の画像処理条件及び評価結果を示す表である。4 is a table showing image processing conditions and evaluation results of Examples. 実施例1の条件で基準画像に画像処理を施した場合の表示画像である。10 is a display image when image processing is performed on the reference image under the conditions of Example 1. FIG. 実施例1の条件で観察画像に画像処理を施した場合の表示画像である。4 is a display image obtained by subjecting an observed image to image processing under the conditions of Example 1. FIG. 実施例2の条件で基準画像に画像処理を施した場合の表示画像である。It is a display image when image processing is performed on the reference image under the conditions of Example 2. FIG. 実施例2の条件で観察画像に画像処理を施した場合の表示画像である。It is a display image when image processing is performed on the observed image under the conditions of Example 2. FIG. 比較例1の条件で基準画像に画像処理を施した場合の表示画像である。It is a display image when image processing is performed on the reference image under the conditions of Comparative Example 1. FIG. 比較例1の条件で観察画像に画像処理を施した場合の表示画像である。It is a display image when image processing is performed on the observed image under the conditions of Comparative Example 1. FIG. 比較例2の条件で基準画像に画像処理を施した場合の表示画像である。It is a display image when image processing is performed on the reference image under the conditions of Comparative Example 2. FIG. 比較例2の条件で観察画像に画像処理を施した場合の表示画像である。It is a display image when image processing is performed on the observed image under the conditions of Comparative Example 2. FIG. 実施例3の条件で基準画像に画像処理を施した場合の表示画像である。It is a display image when image processing is performed on the reference image under the conditions of Example 3. FIG. 実施例3の条件で観察画像に画像処理を施した場合の表示画像である。It is a display image when image processing is performed on the observed image under the conditions of Example 3. FIG. 比較例3の条件で基準画像に画像処理を施した場合の表示画像である。It is a display image when image processing is performed on the reference image under the conditions of Comparative Example 3. FIG. 比較例3の条件で観察画像に画像処理を施した場合の表示画像である。It is a display image when image processing is performed on the observed image under the conditions of Comparative Example 3. FIG. 比較例4の条件で基準画像に画像処理を施した場合の表示画像である。It is a display image when image processing is performed on the reference image under the conditions of Comparative Example 4. FIG. 比較例4の条件で観察画像に画像処理を施した場合の表示画像である。It is a display image when image processing is performed on the observation image under the conditions of Comparative Example 4. FIG. 比較例5の条件で基準画像に画像処理を施した場合の表示画像である。10 is a display image when image processing is performed on the reference image under the conditions of Comparative Example 5. FIG. 比較例5の条件で観察画像に画像処理を施した場合の表示画像である。It is a display image when image processing is performed on the observed image under the conditions of Comparative Example 5. FIG.

<実施形態>
==内視鏡システム==
図1は、本実施形態の内視鏡システム1の構成を説明する図である。内視鏡システム1は、内視鏡2と、撮像装置3と、光源装置4と、表示装置5とを備えている。
<Embodiment>
== Endoscope System ==
FIG. 1 is a diagram illustrating the configuration of an endoscope system 1 according to this embodiment. The endoscope system 1 includes an endoscope 2 , an imaging device 3 , a light source device 4 and a display device 5 .

[内視鏡]
図2は、本実施形態の内視鏡2の構成を説明する図である。内視鏡2は、たとえば、涙道のような生体内部(すなわち、観察対象)を観察することを目的とした医療機器である。本実施形態の内視鏡2は、挿入部21と、把持部22と、リード部23とを有している。
[Endoscope]
FIG. 2 is a diagram illustrating the configuration of the endoscope 2 of this embodiment. The endoscope 2 is, for example, a medical device intended to observe the inside of a living body (that is, an observation target) such as the lacrimal duct. The endoscope 2 of this embodiment has an insertion section 21 , a grip section 22 and a lead section 23 .

挿入部21は、観察対象に挿入される細長の部材である。挿入部21は、図1及び図2示すように、その基端部が把持部22に接続される。 The insertion section 21 is an elongated member that is inserted into an observation target. As shown in FIGS. 1 and 2, the insertion portion 21 is connected to the grip portion 22 at its proximal end.

図3は、挿入部21の長さ方向と垂直な面であって、イメージガイドファイバ212が通る面における断面図である。図4は、挿入部21の軸心を通る面の断面図である。挿入部21は、対物レンズ211と、イメージガイドファイバ212と、ライトガイドファイバ213と、外装パイプ214とを有している。 FIG. 3 is a cross-sectional view of a plane perpendicular to the longitudinal direction of the insertion portion 21 and through which the image guide fiber 212 passes. FIG. 4 is a cross-sectional view of a plane passing through the axis of the insertion portion 21. As shown in FIG. The insertion section 21 has an objective lens 211 , an image guide fiber 212 , a light guide fiber 213 and an exterior pipe 214 .

対物レンズ211は、観察対象の表面で反射した光を集光するためのレンズである。対物レンズ211は、挿入部21の先端部に設けられている。 The objective lens 211 is a lens for condensing the light reflected by the surface of the observation target. The objective lens 211 is provided at the distal end of the insertion section 21 .

イメージガイドファイバ212は、対物レンズ211を介して入射した光を、撮像装置3に伝送する。イメージガイドファイバ212は、複数のコア212a、クラッド212b及びジャケット212cを含んでいる。複数のコア212aの各々は、観察対象の表面で反射し、対物レンズ211を介して入射した光を伝送する。複数のコア212aの各々の材質は、例えば、石英、ガラス、プラスチック等である。 The image guide fiber 212 transmits the light incident through the objective lens 211 to the imaging device 3 . Image guide fiber 212 includes a plurality of cores 212a, claddings 212b and jackets 212c. Each of the plurality of cores 212 a transmits light that is reflected by the surface of the observation target and has entered through the objective lens 211 . The material of each of the plurality of cores 212a is, for example, quartz, glass, plastic, or the like.

クラッド212bは、複数のコア212aの外側の隙間を充填する。クラッド212bの材質は、例えば石英、ガラス、プラスチック等であって、コア212aに比べて屈折率が小さい材質である。ジャケット212cは、複数のコア212a及びクラッド212bを被覆する。 The cladding 212b fills the gaps outside the plurality of cores 212a. The material of the clad 212b is, for example, quartz, glass, plastic, or the like, and has a lower refractive index than the core 212a. A jacket 212c covers the plurality of cores 212a and claddings 212b.

ライトガイドファイバ213は、観察対象を照明する。本実施形態では、挿入部21は、5本のライトガイドファイバ213を有している。本実施形態のライトガイドファイバ213は、コア213a及びクラッド213bを含んでいる。コア213aは、光源装置4からの光を伝送する。クラッド213bは、コア213aの外側を充填する。コア213a及びクラッド213bの材質は特に限定されない。たとえば、コア212a及びクラッド212bと同様の材質で形成される。 A light guide fiber 213 illuminates the observation target. In this embodiment, the insertion section 21 has five light guide fibers 213 . The light guide fiber 213 of this embodiment includes a core 213a and a cladding 213b. The core 213 a transmits light from the light source device 4 . Cladding 213b fills the outside of core 213a. Materials for the core 213a and the clad 213b are not particularly limited. For example, it is made of the same material as the core 212a and the clad 212b.

外装パイプ214は、管状の部材であって、その内部に、イメージガイドファイバ212及びライトガイドファイバ213が配置される。外装パイプ214は、ステンレス鋼等の金属で構成される。外装パイプ214の内部において、対物レンズ211、イメージガイドファイバ212及びライトガイドファイバ213の外側は充填剤214aで充填されている。 The exterior pipe 214 is a tubular member in which the image guide fibers 212 and the light guide fibers 213 are arranged. The exterior pipe 214 is made of metal such as stainless steel. Inside the exterior pipe 214, the outsides of the objective lens 211, the image guide fiber 212 and the light guide fiber 213 are filled with a filler 214a.

把持部22は、内視鏡2を使用する際に観察者が把持する部分である。把持部22の一端には、挿入部21の基端部が接続されている。把持部22の他端には、リード部23が接続されている。 The grip portion 22 is a portion that is gripped by the observer when using the endoscope 2 . A base end portion of the insertion portion 21 is connected to one end of the grip portion 22 . A lead portion 23 is connected to the other end of the grip portion 22 .

リード部23は、把持部22に連結されている。リード部23は、分岐部23aを介して2つに分岐している。分岐した一方の末端にはイメージガイドプラグ23bが設けられ、他方の末端にはライトガイドプラグ23cが設けられている。 The lead portion 23 is connected to the grip portion 22 . The lead portion 23 is branched into two via a branch portion 23a. An image guide plug 23b is provided at one branched end, and a light guide plug 23c is provided at the other end.

イメージガイドプラグ23bには、挿入部21から把持部22及び分岐部23aを通って延出するイメージガイドファイバ212の端部が接続されている。ライトガイドプラグ23cには、挿入部21から把持部22及び分岐部23aを通って延出するライトガイドファイバ213の端部が接続されている。 An end portion of an image guide fiber 212 extending from the insertion portion 21 through the grip portion 22 and the branch portion 23a is connected to the image guide plug 23b. An end portion of a light guide fiber 213 extending from the insertion portion 21 through the grip portion 22 and the branch portion 23a is connected to the light guide plug 23c.

[撮像装置]
図5は、本実施形態の撮像装置3の機能ブロック図である。図6は、本実施形態のイメージセンサ31に到達する光の経路を説明する図である。撮像装置3は、内視鏡2からの光を検知して観察対象の画像データを生成し、当該画像データに画像処理を施す。そして、画像処理が施された画像データに対応する出力信号を表示装置5に出力する。撮像装置3には、内視鏡端子3aが設けられている(図1参照)。内視鏡端子3aに内視鏡2のイメージガイドプラグ23bを接続することにより、撮像装置3に対して内視鏡2が接続される。撮像装置3は、接眼レンズ30と、イメージセンサ31と、画像生成部32と、画像処理部33と、出力信号生成部34とを有している。
[Imaging device]
FIG. 5 is a functional block diagram of the imaging device 3 of this embodiment. FIG. 6 is a diagram illustrating the path of light reaching the image sensor 31 of this embodiment. The imaging device 3 detects light from the endoscope 2, generates image data of an observation target, and applies image processing to the image data. Then, an output signal corresponding to the image data subjected to image processing is output to the display device 5 . The imaging device 3 is provided with an endoscope terminal 3a (see FIG. 1). The endoscope 2 is connected to the imaging device 3 by connecting the image guide plug 23b of the endoscope 2 to the endoscope terminal 3a. The imaging device 3 has an eyepiece lens 30 , an image sensor 31 , an image generator 32 , an image processor 33 and an output signal generator 34 .

(接眼レンズ)
接眼レンズ30は、図6に示すように、イメージガイドファイバ212に伝送された光を集光し、観察対象の拡大された像をイメージセンサ31上に結像させる。
(eyepiece)
The eyepiece 30 collects the light transmitted to the image guide fiber 212 and forms an enlarged image of the observation target on the image sensor 31, as shown in FIG.

(イメージセンサ)
イメージセンサ31は、接眼レンズ30を介して光を検知し、当該光の強度に応じた電気信号に変換する。イメージセンサ31としては、例えば、CMOS、CCD等を用いることができる。
(image sensor)
The image sensor 31 detects light through the eyepiece lens 30 and converts it into an electrical signal corresponding to the intensity of the light. As the image sensor 31, for example, CMOS, CCD, or the like can be used.

イメージセンサ31には、複数の画素が設けられている。複数の画素は、行列状に配列されている。本実施形態では、複数の画素の各々には、赤、緑又は青の光を検知する受光素子が、それぞれ1つずつ配置されている。受光素子としては、例えばフォトダイオード等を用いることができる。 The image sensor 31 is provided with a plurality of pixels. A plurality of pixels are arranged in a matrix. In this embodiment, each of a plurality of pixels is provided with one light receiving element for detecting red, green, or blue light. For example, a photodiode or the like can be used as the light receiving element.

(画像生成部)
画像生成部32は、イメージセンサ31によって変換された電気信号に基づいて、画像データを生成する。画像データは、画像を表現するためのデータである。画像データは、複数の画素データから構成される。複数の画素データの各々は、画素情報と、色情報とを有している。
(Image generator)
The image generator 32 generates image data based on the electrical signal converted by the image sensor 31 . Image data is data for representing an image. Image data is composed of a plurality of pixel data. Each of the plurality of pixel data has pixel information and color information.

画素情報は、複数の画素データの各々に対応する画素を特定する情報である。画素情報は、例えば一の整数i(i=1~Np)で表現さてもよい。Npは、イメージセンサ31に設けられた画素の数に対応する値である。または、画素情報は、画素が配置された行及び列を示す二の整数m及びn(m=1~Nr、n=1~Nc)で表現されてもよい。Nr及びNcはそれぞれ、イメージセンサ31に行列状に配置された複数の画素の行及び列の数に対応する値である。 The pixel information is information specifying a pixel corresponding to each of the plurality of pixel data. Pixel information may be represented by, for example, one integer i (i=1 to Np). Np is a value corresponding to the number of pixels provided in the image sensor 31 . Alternatively, the pixel information may be represented by two integers m and n (m=1 to Nr, n=1 to Nc) indicating the rows and columns in which the pixels are arranged. Nr and Nc are values corresponding to the numbers of rows and columns of a plurality of pixels arranged in a matrix on the image sensor 31, respectively.

色情報は、画素情報によって特定される画素に配置された受光素子が検知した光の色を表現する情報である。色情報は、RGB空間を用いた表現(以下、RGB表現)を用いる。具体的に、RGB表現による色情報は、R、G及びBそれぞれの輝度値で示される。R、G及びBの輝度値はそれぞれ、例えば、0~1の範囲で、256階調で表される。 The color information is information expressing the color of light detected by the light-receiving element arranged in the pixel specified by the pixel information. For color information, representation using the RGB space (hereinafter referred to as RGB representation) is used. Specifically, color information represented by RGB is represented by luminance values of R, G, and B, respectively. The luminance values of R, G, and B are each represented by 256 gradations within a range of 0 to 1, for example.

本実施形態では、複数の画素データの各々は、RGB表現による色情報(R(i)、G(i)、B(i))を有している。iは、対応する画素情報である。R(i)、G(i)及びB(i)はそれぞれ、画素情報iで特定される画素に配置された、赤、緑及び青の光を検知する受光素子が出力した電気信号に基づいて定められる。 In this embodiment, each of the plurality of pixel data has color information (R(i), G(i), B(i)) expressed in RGB. i is the corresponding pixel information. R(i), G(i), and B(i) are based on electrical signals output from light receiving elements that detect red, green, and blue light, respectively, arranged in pixels specified by pixel information i. Determined.

後述する本実施形態の画像処理方法において、画像生成部32が生成する画像データは、基準画像データ及び観察画像データである。基準画像データは、内視鏡システム1に対してキャリブレーションを施すための画像データである。基準画像データは、予め用意された基準面を撮影して生成された画像データである。基準面は、単色且つ無彩色である色が施された平板等の表面である。 In the image processing method of this embodiment, which will be described later, the image data generated by the image generator 32 are reference image data and observation image data. The reference image data is image data for calibrating the endoscope system 1 . The reference image data is image data generated by photographing a reference plane prepared in advance. The reference surface is the surface of a flat plate or the like which is colored in a monochromatic and achromatic color.

観察画像データは、観察対象を撮影して生成された画像データである。観察画像データは、所定の時間間隔で、複数生成される。複数の観察画像データの各々は、表示装置5に観察対象の動画を表示するためのフレームのもとになる画像データである。 Observation image data is image data generated by photographing an observation target. A plurality of observation image data are generated at predetermined time intervals. Each of the plurality of observed image data is image data that forms a frame for displaying a moving image of an observation target on the display device 5 .

以下、単に「画像データ」と呼称する場合、基準画像データ及び観察画像データのいずれも当てはまる。 Hereinafter, when simply referred to as "image data", both reference image data and observation image data are applicable.

(画像処理部)
画像処理部33は、画像生成部32によって生成された画像データに対し、輝度ムラ補正、色ムラ補正、及び平滑化を施す。
(Image processing unit)
The image processing unit 33 performs luminance unevenness correction, color unevenness correction, and smoothing on the image data generated by the image generation unit 32 .

輝度ムラ補正は、輝度ムラを除去又は低減させるために画像データに施す処理である。輝度ムラとは、表示装置5に表示された画像(以下、表示画像)の各所における明るさのばらつきをいう。以下、輝度ムラが生じる原因について説明する。 Brightness unevenness correction is processing performed on image data in order to remove or reduce brightness unevenness. The luminance unevenness refers to variations in brightness at various locations in an image displayed on the display device 5 (hereinafter referred to as a display image). The cause of uneven brightness will be described below.

コア212aに入射した光は、コア212aとクラッド212bとの界面で全反射を繰り返しながら伝搬する。しかし、イメージガイドファイバ212の製造工程において生じるばらつきや、長期間の使用に伴う変形や劣化等により、コア212aを伝搬する光が、コア212aとクラッド212bとの界面で全反射せず、その一部がクラッド212b側へ入射する場合がある。このような場合、基準面や観察対象が単色であっても、その表面で反射し、コア212aに入射して伝搬し、イメージセンサ31へ到達する光の量は、コア212a毎にばらつきがある。 The light incident on the core 212a propagates while repeating total reflection at the interface between the core 212a and the clad 212b. However, due to variations in the manufacturing process of the image guide fiber 212 and deformation and deterioration due to long-term use, the light propagating through the core 212a is not totally reflected at the interface between the core 212a and the clad 212b, and some part of the light may enter the clad 212b side. In such a case, even if the reference surface or the observation object is monochromatic, the amount of light that is reflected on the surface, enters the core 212a, propagates, and reaches the image sensor 31 varies from core 212a to core 212a. .

このため、画像データに対して、輝度ムラ補正を施さないと、表示画像に輝度ムラが生じる場合がある。輝度ムラ補正の具体的な処理の手順については後述する。 Therefore, if the image data is not subjected to luminance unevenness correction, luminance unevenness may occur in the displayed image. A specific processing procedure for luminance unevenness correction will be described later.

尚、本実施形態の輝度ムラ補正によって、所謂網目模様を実質的に除去することができる。網目模様とは、クラッド212bに起因して、表示画像に生じる網目状の模様をいう。以下、網目模様が生じる原因について説明する。 It should be noted that the so-called mesh pattern can be substantially removed by the luminance unevenness correction of this embodiment. A mesh pattern refers to a mesh-like pattern that occurs in a display image due to the cladding 212b. The cause of the generation of the mesh pattern will be described below.

クラッド212b側へ入射した光の一部は、クラッド212bを伝搬してイメージセンサ31へ到達する。クラッド212bを伝搬してイメージセンサ31へ到達する光の量は、複数のコア212aを伝搬してイメージセンサ31へ到達する光の量に比べて微小である。このため、表示装置5に表示される観察対象の画像において、クラッド212bに対応する領域の輝度が他の領域の輝度に比べて低くなる。これにより、クラッド212bに対応する領域が、網目模様として視認される。 Part of the light incident on the clad 212 b side propagates through the clad 212 b and reaches the image sensor 31 . The amount of light that propagates through the cladding 212b and reaches the image sensor 31 is smaller than the amount of light that propagates through the plurality of cores 212a and reaches the image sensor 31 . Therefore, in the image of the observation target displayed on the display device 5, the brightness of the region corresponding to the clad 212b is lower than the brightness of other regions. As a result, the region corresponding to the clad 212b is visually recognized as a mesh pattern.

また、色ムラ補正は、色ムラを除去又は低減させるために、画像データに施す処理である。色ムラとは、表示画像の各所における色彩のばらつきをいう。以下、色ムラが生じる原因について説明する。 Further, color unevenness correction is processing performed on image data in order to remove or reduce color unevenness. Color unevenness refers to variations in color at various locations in a displayed image. The cause of color unevenness will be described below.

前述のように、コア212aを伝搬する光が、コア212aとクラッド212bとの界面で全反射せず、その一部がクラッド212b側へ入射する場合がある。このとき、一部の波長領域の光のみがクラッド212b側へ入射する場合がある。このような場合、観察対象の表面が無彩色であっても、当該観察対象の表面で反射し、コア212aに入射して伝搬し、イメージセンサ31へ到達する光は、有彩色となる場合がある。 As described above, the light propagating through the core 212a may not be totally reflected at the interface between the core 212a and the clad 212b, and part of it may enter the clad 212b side. At this time, only light in a partial wavelength range may enter the clad 212b side. In such a case, even if the surface of the observation target is achromatic, the light that is reflected by the surface of the observation target, enters the core 212a, propagates, and reaches the image sensor 31 may become chromatic. be.

このため、画像データに対して、色ムラ補正を施さないと、表示装置5に表示される観察対象の画像に色ムラが生じる場合がある。色ムラ補正の具体的な処理の手順については後述する。 Therefore, if the image data is not subjected to color unevenness correction, color unevenness may occur in the image of the observation target displayed on the display device 5 . A specific processing procedure for color unevenness correction will be described later.

平滑化は、表示装置5に表示される観察対象の画像からノイズを除去したり、当該画像をぼかしたりするための処理である。平滑化は、例えば、行列状に配列された複数の画素の各々に対応する画素データの色情報を、その画素を中心とした複数の画素(例えば、9個又は25個)の画素データの色情報の平均値に置き換えることによって実現できる。平滑化は、所定の平滑化フィルタを用いて実行する。所定の平滑化フィルタは、コア212aの径、コア212aの密度、接眼レンズ30の像倍率及びイメージセンサ31の画素の密度に基づいて決定される。 Smoothing is a process for removing noise from the image of the observation target displayed on the display device 5 or blurring the image. For example, smoothing is performed by converting the color information of pixel data corresponding to each of a plurality of pixels arranged in a matrix to the color of pixel data of a plurality of pixels (for example, 9 or 25 pixels) centering on that pixel. It can be realized by replacing with an average value of information. Smoothing is performed using a predetermined smoothing filter. A predetermined smoothing filter is determined based on the diameter of the core 212 a , the density of the core 212 a , the image magnification of the eyepiece 30 and the pixel density of the image sensor 31 .

コア212aの密度とは、ジャケット212cの内部におけるコア212aの数密度であり、具体的には、コア212aの本数を、ジャケット212cの内部の断面積で除した数である。画素の密度とは、例えば1インチあたりに配置される画素の数(ppi)で定義される密度である。 The density of the cores 212a is the number density of the cores 212a inside the jacket 212c. Specifically, it is the number obtained by dividing the number of cores 212a by the cross-sectional area inside the jacket 212c. The pixel density is, for example, a density defined by the number of pixels arranged per inch (ppi).

平滑化において、平均値を取るための画素の数が大きいほど、網目模様の低減具合は大きくなるが、表示画像の解像度の劣化具合が大きくなる。 In smoothing, the greater the number of pixels for taking the average value, the greater the reduction of the mesh pattern, but the greater the deterioration of the resolution of the displayed image.

特に、平滑化において、平均値を取るための画素の数を増加させることにより、網目模様を実質的に除去することができるが、表示画像の解像度が著しく劣化する。 In particular, in smoothing, by increasing the number of pixels to be averaged, the cross-hatch pattern can be substantially eliminated, but the resolution of the displayed image is significantly degraded.

一方、表示画像の解像度の劣化が肉眼で視認することができない条件での平滑化(弱い平滑化)を実行した場合、肉眼で容易に視認できる程度の網目模様が残る。しかし、弱い平滑化とともに、輝度ムラ補正を実行した場合、表示画像の解像度の劣化を抑えた上で、網目模様を除去することができる。平滑化の具体的な処理の手順については後述する。 On the other hand, when the smoothing (weak smoothing) is performed under the condition that the degradation of the resolution of the display image cannot be visually recognized with the naked eye, a mesh pattern that is easily visible with the naked eye remains. However, when luminance non-uniformity correction is performed along with weak smoothing, the mesh pattern can be removed while suppressing deterioration of the resolution of the displayed image. A specific processing procedure for smoothing will be described later.

尚、本明細書において、画像生成部32によって生成された直後の画像データに対して画像処理を施した後の画像データについて、「画像処理が施された画像データ」等と呼称する。ここでの「画像処理」は、輝度ムラ補正、色ムラ補正又は平滑化のいずれか一以上の画像処理を含む。 In this specification, the image data immediately after being generated by the image generation unit 32 is referred to as "image data subjected to image processing" or the like. The “image processing” here includes any one or more of image processing of brightness unevenness correction, color unevenness correction, and smoothing.

画像処理部33が輝度ムラ補正及び色ムラ補正を実行する手順について説明する前に、YUV表現について説明する。なお、輝度ムラ補正と色ムラ補正を実行する手順について、以下の説明ではYUV色空間を用いた方法で説明を行うが、用いられる色空間についてはこれに限定されるものではない。輝度の指標と彩度の指標を数値的に表現可能な色空間であればどのような色空間を用いても良く、たとえば、RGB空間、CIE-XYZ表色系、CIE-L*a*b色空間、HSI空間6角錐モデル(HSV)、HSI空間双6角錐モデル(HSL)などを用いても良い。また、各々の色空間での色情報の線形もしくは非線形変換を行った色空間を用いても良い。画像処理部33は、輝度ムラ補正及び色ムラ補正を実行する際に、YUV表現を用いて処理を実行する。具体的に、画像処理部33は、先ず、RGB表現による画像データの色情報を、YUV表現による色情報に変換する。 Before describing the procedure for the image processing unit 33 to perform luminance unevenness correction and color unevenness correction, YUV representation will be described. In the following description, the procedure for performing luminance unevenness correction and color unevenness correction will be described using a method using the YUV color space, but the color space used is not limited to this. Any color space may be used as long as it can numerically represent the index of luminance and the index of saturation. For example, RGB space, CIE-XYZ color system, CIE-L*a*b Color space, HSI space hexagonal pyramid model (HSV), HSI space bihexagonal pyramid model (HSL), etc. may be used. Also, a color space obtained by performing linear or nonlinear conversion of color information in each color space may be used. The image processing unit 33 performs processing using YUV representation when performing luminance unevenness correction and color unevenness correction. Specifically, the image processing unit 33 first converts color information of image data represented by RGB into color information represented by YUV.

YUV表現による色情報は、Y、U及びVで示される。Y、U及びVは、RGB表現による色情報に、所定の線形変換を施すことによって得られる。所定の線形変換の定義は幾つか提案されている。以下の説明では、ITU-R BT.709の定義を用いて説明を行うが、これに限定されるものではなく、ITU-R BT.601やPAL規格、などを用いても良い。ITU-R BT.709の定義によるYUV表現による色情報は、RGB表現による色情報に対して以下の線形変換を施すことにより得られる。 Color information in YUV representation is indicated by Y, U and V. Y, U, and V are obtained by applying a predetermined linear transformation to color information represented by RGB. Several definitions of the given linear transformation have been proposed. In the following description, the definition of ITU-R BT.709 will be used, but the definition is not limited to ITU-R BT.709. 601, PAL standard, or the like may be used. Color information in YUV representation defined by ITU-R BT.709 is obtained by performing the following linear transformation on color information in RGB representation.

Y=0.2126R+0.7152G+0.0722B
U=0.5389(B-Y)=-0.1146R-0.3854G+0.5000B
V=0.6350(R-Y)=0.5000R-0.4542G-0.0458B
Y=0.2126R+0.7152G+0.0722B
U=0.5389(BY)=-0.1146R-0.3854G+0.5000B
V=0.6350(RY)=0.5000R-0.4542G-0.0458B

また、RGB表現による色情報は、ITU-R BT.709の定義によれば、YUV表現による色情報に対して以下の線形変換を施すことにより得られる。
R=Y+1.575V
G=Y-0.187U-0.468V
B=Y+1.856U
According to the definition of ITU-R BT.709, color information represented by RGB is obtained by performing the following linear transformation on color information represented by YUV.
R=Y+1.575V
G=Y-0.187U-0.468V
B = Y + 1.856U

Yは、色情報が表現する色の輝度を示す値である。U及びVが0である場合のYUV表現での色情報(Y,U,V)=(Y,0,0)は、輝度がYである無彩色に対応する。また、Yが0である場合のYUV表現での色情報(Y,U,V)=(0,U,V)は、RGB表現では(R,G,B)=(0,0,0)となることから、黒に対応する。 Y is a value indicating the brightness of the color represented by the color information. Color information (Y, U, V)=(Y, 0, 0) in YUV representation when U and V are 0 corresponds to an achromatic color whose luminance is Y. Also, color information (Y, U, V)=(0, U, V) in YUV representation when Y is 0 is (R, G, B)=(0, 0, 0) in RGB representation. Therefore, it corresponds to black.

Uは、それが0である場合の色情報(Y,0,V)と比べた場合の、相対的なBの輝度を示す値である。Vは、それが0である場合の色情報(Y,U,0)と比べた場合の、相対的なRの輝度を示す値である。 U is a value that indicates the relative B luminance when compared to the color information (Y, 0, V) when it is 0; V is a value that indicates the relative R luminance when compared to the color information (Y, U, 0) when it is 0;

本明細書において、YUV表現による色情報(Y,U,V)のYを「輝度成分」と呼称し、U及びVを「色差成分」と呼称することがある。 In this specification, Y of color information (Y, U, V) in YUV representation may be referred to as "luminance component", and U and V may be referred to as "chrominance components".

輝度ムラ補正及び色ムラ補正の処理において、基準画像データを構成する複数の画素データの各々の色情報(Yc(i),Uc(i),Vc(i))を用いる。ここで、iは画素を特定するための番号であり、前述のように、iは1~Npの整数である(以下、同様)。 Color information (Yc(i), Uc(i), Vc(i)) of each of the plurality of pixel data constituting the reference image data is used in the process of luminance unevenness correction and color unevenness correction. Here, i is a number for specifying a pixel, and as described above, i is an integer from 1 to Np (the same applies hereinafter).

単色である基準面で反射する光の色情報は、当該基準面に亘って均一である。しかし、当該基準面で反射し、複数のコア212aを伝搬してイメージセンサ31に到達した光の輝度は、前述の理由により、均一になるとは限らない。 The color information of light reflected from a monochromatic reference surface is uniform across the reference surface. However, the brightness of the light reflected by the reference surface, propagated through the plurality of cores 212a, and reached the image sensor 31 is not necessarily uniform for the reason described above.

従って、基準面が単色であっても、イメージセンサ31に到達した光の輝度成分Yc(i)は、全てのi(i=1~Np)について一定であるとは限らない。 Therefore, even if the reference plane is monochromatic, the luminance component Yc(i) of the light reaching the image sensor 31 is not always constant for all i (i=1 to Np).

また、無彩色である基準面で反射する光の色情報は、色差成分が0となる。しかし、前述のように、基準面で反射し、複数のコア212aを伝搬してイメージセンサ31に到達した光は、有彩色になる場合がある。 Further, the color difference component of the color information of the light reflected by the achromatic reference plane is zero. However, as described above, the light that is reflected by the reference surface, propagates through the plurality of cores 212a, and reaches the image sensor 31 may become chromatic.

従って、基準面が無彩色であっても、イメージセンサ31に到達した光の色差成分Uc(i)及びVc(i)は、0であるとは限らない。 Therefore, even if the reference surface is achromatic, the color difference components Uc(i) and Vc(i) of the light reaching the image sensor 31 are not always zero.

以下、画像処理部33が実行する輝度ムラ補正の具体的な処理の手順について説明する。輝度ムラ補正は、画像処理部33が、輝度ムラ補正演算を導出し、画像データに対し、当該輝度ムラ補正演算を施すことによって実現される。 A specific process procedure for luminance unevenness correction performed by the image processing unit 33 will be described below. The uneven brightness correction is realized by the image processing unit 33 deriving a brightness unevenness correction calculation and applying the brightness unevenness correction calculation to the image data.

輝度ムラ補正演算は、それを基準画像データに対して施した場合に、当該基準画像データを構成する複数の画素データの各々の色情報の輝度成分を均一にする演算である。 The luminance unevenness correction calculation is a calculation that, when applied to the reference image data, uniforms the luminance components of the color information of each of the plurality of pixel data constituting the reference image data.

以下、画像処理部33が、輝度ムラ補正演算を導出する処理について説明し、次いで、輝度ムラ補正演算を画像データに施す処理について説明する。 Hereinafter, the process of deriving the uneven brightness correction calculation by the image processing unit 33 will be described, and then the process of applying the uneven brightness correction calculation to the image data will be described.

輝度ムラ補正演算は、輝度ムラ補正値を用いた演算である。輝度ムラ補正演算を導出するために、先ず、輝度ムラ補正値を取得する。 The brightness non-uniformity correction calculation is a calculation using a brightness non-uniformity correction value. In order to derive the luminance non-uniformity correction calculation, first, the luminance non-uniformity correction value is obtained.

輝度ムラ補正値は、予め設定された輝度値であるY0、及び基準画像データを構成する複数の画素データの各々の色情報(Yc(i),Uc(i),Vc(i))の輝度成分Yc(i)である。 The brightness unevenness correction value is the brightness of Y0, which is a brightness value set in advance, and the color information (Yc(i), Uc(i), Vc(i)) of each of the plurality of pixel data constituting the reference image data. component Yc(i).

輝度ムラ補正演算は、具体的には、任意の画像データを構成する複数の画素データの各々の色情報(Y(i),U(i),V(i))の輝度成分に、Y0/Yc(i)を乗じることにより、色情報(Y(i)Y0/Yc(i),U(i),V(i))に変換する演算である。 Specifically, the luminance unevenness correction calculation is performed by adding Y0/ By multiplying Yc(i), it is an operation for converting into color information (Y(i)Y0/Yc(i), U(i), V(i)).

輝度ムラ補正演算を、基準画像データを構成する複数の画素データの各々に施すと、その色情報(Yc(i),Uc(i),Vc(i))が、(Y0,Uc(i),Vc(i))に変換される。つまり、前述のように、輝度ムラ補正演算によって、基準画像データを構成する複数の画素データの全ての色情報の輝度成分は均一になる。 When luminance unevenness correction calculation is applied to each of a plurality of pixel data constituting the reference image data, the color information (Yc(i), Uc(i), Vc(i)) becomes (Y0, Uc(i) , Vc(i)). In other words, as described above, the luminance unevenness correction calculation makes the luminance components of all the color information of the plurality of pixel data forming the reference image data uniform.

次いで、画像処理部33が実行する色ムラ補正の具体的な処理の手順について説明する。色ムラ補正は、画像処理部33が、色ムラ補正演算を導出し、画像データに対し、当該色ムラ補正演算を施すことによって実現される。 Next, a specific processing procedure of color unevenness correction executed by the image processing unit 33 will be described. The color unevenness correction is realized by the image processing unit 33 deriving the color unevenness correction calculation and applying the color unevenness correction calculation to the image data.

色ムラ補正演算は、それを基準画像データに対して施した場合に、基準画像データを構成する複数の画素データの各々の色情報の色差成分を除去する演算である。 The color unevenness correction operation is an operation for removing the color difference component of the color information of each of the plurality of pixel data forming the reference image data when it is applied to the reference image data.

以下、画像処理部33が、色ムラ補正値演算を導出する処理について説明し、次いで、色ムラ補正演算を画像データに施す処理について説明する。 Hereinafter, the process of deriving the color unevenness correction value calculation by the image processing unit 33 will be described, and then the process of applying the color unevenness correction calculation to the image data will be described.

色ムラ補正演算は、色ムラ補正値を用いた演算である。色ムラ補正演算を導出するために、先ず、色ムラ補正値を取得する。 The color nonuniformity correction calculation is a calculation using color nonuniformity correction values. In order to derive the color non-uniformity correction calculation, first, the color non-uniformity correction value is obtained.

色ムラ補正値は、基準画像データを構成する複数の画素データの各々の色情報(Yc(i),Uc(i),Vc(i))の色差成分Uc(i)及びVc(i)である。 The color unevenness correction value is the color difference components Uc(i) and Vc(i) of the color information (Yc(i), Uc(i), Vc(i)) of each of the plurality of pixel data constituting the reference image data. be.

色ムラ補正演算は、具体的には、画像データを構成する複数の画素データの各々の色情報(Y(i),U(i),V(i))のU(i)を、色差補正値Uc(i)だけ減じ、V(i)を、色差補正値Vc(i)だけ減じる演算である。 Specifically, the color unevenness correction calculation is performed by correcting U(i) of the color information (Y(i), U(i), V(i)) of each of the plurality of pixel data constituting the image data. This is an operation for subtracting the value Uc(i) and subtracting V(i) by the color difference correction value Vc(i).

色ムラ補正演算を、基準画像データを構成する複数の画素データの各々に施すと、その色情報(Yc(i),Uc(i),Vc(i))を、(Yc(i),0,0)と変換する。つまり、前述のように、色ムラ補正演算によって、基準画像データを構成する複数の画素データの全ての色情報の色差成分は除去される。 When the color unevenness correction calculation is applied to each of the plurality of pixel data constituting the reference image data, the color information (Yc(i), Uc(i), Vc(i)) is converted to (Yc(i), 0 , 0). That is, as described above, the color difference components of all the color information of the plurality of pixel data forming the reference image data are removed by the color unevenness correction calculation.

以上、輝度ムラ補正、色ムラ補正及び平滑化について説明したが、画像処理部33は、輝度補正、コントラスト補正、ホワイトバランス補正、ガンマ補正のような画像処理を施すこともできる。これらの処理については公知の手法を用いることが可能である。 Although brightness unevenness correction, color unevenness correction, and smoothing have been described above, the image processing unit 33 can also perform image processing such as brightness correction, contrast correction, white balance correction, and gamma correction. A known technique can be used for these processes.

(出力信号生成部)
出力信号生成部34は、画像処理部33によって処理された画像データに基づく出力信号を生成し、当該出力信号を表示装置5に出力する。
(output signal generator)
The output signal generator 34 generates an output signal based on the image data processed by the image processor 33 and outputs the output signal to the display device 5 .

[光源装置]
光源装置4は、観察対象を照明するための光をライトガイドファイバ213に供給する。光源装置4には、ソケット4aが設けられている(図1参照)。ソケット4aに内視鏡2のライトガイドプラグ23cを接続することにより、光源装置4に対して内視鏡2が接続される。これによって、光源装置4は、観察対象を照明するための光をライトガイドファイバ213に供給することができる。光源装置4は、光を発生させるLEDもしくはハロゲンランプ等の光源を有する。
[Light source device]
The light source device 4 supplies the light guide fiber 213 with light for illuminating the observation target. The light source device 4 is provided with a socket 4a (see FIG. 1). The endoscope 2 is connected to the light source device 4 by connecting the light guide plug 23c of the endoscope 2 to the socket 4a. This allows the light source device 4 to supply the light guide fiber 213 with light for illuminating the observation target. The light source device 4 has a light source such as an LED or a halogen lamp that generates light.

[表示装置]
表示装置5は、出力信号生成部34が出力した出力信号に基づいて、観察対象の画像を表示する。
[Display device]
The display device 5 displays the image of the observation target based on the output signal output by the output signal generator 34 .

<画像処理方法>
本実施形態の撮像装置3が実行する画像処理方法について、詳細に説明する。図7は、本実施形態の画像処理方法を説明するフローチャートである。
<Image processing method>
The image processing method executed by the imaging device 3 of this embodiment will be described in detail. FIG. 7 is a flowchart for explaining the image processing method of this embodiment.

本実施形態の画像処理方法は、基準画像データを生成するステップS1と、輝度ムラ補正演算を導出するステップS2と、色ムラ補正演算を導出するステップS3と、観察画像データを生成するステップS4と、輝度ムラ補正演算を施すステップS5と、色ムラ補正演算を施すステップS6と、平滑化するステップS7と、表示画面に表示するステップS8とを含む。以下、それぞれについて詳述する。 The image processing method of the present embodiment comprises step S1 of generating reference image data, step S2 of deriving brightness non-uniformity correction calculation, step S3 of deriving color non-uniformity correction calculation, and step S4 of generating observed image data. , a step S5 of performing brightness unevenness correction calculation, a step S6 of performing color unevenness correction calculation, a smoothing step S7, and a step S8 of displaying on the display screen. Each will be described in detail below.

1.基準画像データを生成するステップS1
ステップS1において、画像生成部32は、基準画像データを生成する。
1. Step S1 of generating reference image data
In step S1, the image generator 32 generates reference image data.

具体的に、内視鏡2が接続された状態で観察者が光源装置4のスイッチをオンに切り替えた場合、光源装置4は光を発生させ、ライトガイドファイバ213に供給する。ライトガイドファイバ213は、供給された光を伝播し、内視鏡2の先端部から出射するので、観察者は、内視鏡2を基準面に向ける。これによって、光源装置4は、ライトガイドファイバ213を介して基準面を照明する。この状態で、観察者は、撮像装置3のキャリブレーションボタン(図示せず)を押す。これに応じて、画像生成部32は、基準画像データを生成する。つまり、画像生成部32は、基準画像データを構成する複数の画素データの各々の画素情報及び色情報(Rc(i),Gc(i),Bc(i))を生成する。 Specifically, when the observer switches on the light source device 4 while the endoscope 2 is connected, the light source device 4 generates light and supplies it to the light guide fiber 213 . The light guide fiber 213 propagates the supplied light and emits it from the distal end of the endoscope 2, so the observer directs the endoscope 2 toward the reference plane. Thereby, the light source device 4 illuminates the reference plane through the light guide fiber 213 . In this state, the observer presses a calibration button (not shown) of the imaging device 3 . In response to this, the image generator 32 generates reference image data. In other words, the image generator 32 generates pixel information and color information (Rc(i), Gc(i), Bc(i)) of each of the plurality of pixel data forming the reference image data.

2.輝度ムラ補正演算を導出するステップS2
ステップS2において、画像処理部33は、輝度ムラ補正演算を導出する。
2. Step S2 of deriving luminance unevenness correction calculation
In step S2, the image processing unit 33 derives luminance unevenness correction calculation.

具体的に、先ず、ステップS1で画像生成部32によって生成された基準画像データを構成する複数の画素データの各々の色情報(Rc(i),Gc(i),Bc(i))を、YUV空間で表現される色情報(Yc(i),Uc(i),Vc(i))に変換する。 Specifically, first, the color information (Rc(i), Gc(i), Bc(i)) of each of the plurality of pixel data constituting the reference image data generated by the image generation unit 32 in step S1 is Convert to color information (Yc(i), Uc(i), Vc(i)) expressed in YUV space.

そして、画像処理部33は、輝度ムラ補正値として、予め設定された輝度値Y0、及び色情報の輝度成分Yc(i)を取得する。 Then, the image processing unit 33 acquires the preset luminance value Y0 and the luminance component Yc(i) of the color information as the luminance unevenness correction value.

3.色ムラ補正演算を導出するステップS3
ステップS3において、画像処理部33は、色ムラ補正演算を導出する。
3. Step S3 for Deriving Color Unevenness Correction Calculation
In step S3, the image processing unit 33 derives color unevenness correction calculation.

先ず、画像処理部33は、色ムラ補正値として、基準画像データを構成する複数の画素データの各々の色情報(Yc(i),Uc(i),Vc(i))の色差成分Uc(i)及びVc(i)を取得する。 First, the image processing unit 33 calculates the color difference component Uc( i) and Vc(i).

4.観察画像データを生成するステップS4
ステップS4において、画像生成部32は、観察画像データを生成する。
4. Step S4 of generating observation image data
In step S4, the image generator 32 generates observation image data.

具体的に、ステップS4では、観察者は、光源装置4のスイッチをオンに維持する。そうすると、光源装置4からの光が、内視鏡2のライトガイドファイバ213を伝搬し、内視鏡2の先端部から出射する状態が維持されるので、観察者は、内視鏡2を観察対象に向ける。これによって、光源装置4は、ライトガイドファイバ213を介して観察対象を照明する。この状態で、観察者が、撮像装置3の撮影ボタン(図示せず)を押すことによって、撮像装置3は、観察を開始する。これに応じて、画像生成部32は、観察対象の画像データを生成する。つまり、観察画像データを構成する複数の画素データの各々の画素情報及び色情報(Y´(i),U´(i),V´(i))が得られる。 Specifically, in step S4, the observer keeps the switch of the light source device 4 on. Then, the light from the light source device 4 propagates through the light guide fiber 213 of the endoscope 2 and is maintained in a state of being emitted from the distal end portion of the endoscope 2, so that the observer observes the endoscope 2. Aim at the target. Thereby, the light source device 4 illuminates the observation target through the light guide fiber 213 . In this state, when the observer presses a shooting button (not shown) of the imaging device 3, the imaging device 3 starts observation. In response to this, the image generator 32 generates image data of the observation target. That is, the pixel information and color information (Y'(i), U'(i), V'(i)) of each of the plurality of pixel data constituting the observed image data are obtained.

5.輝度ムラ補正演算を施すステップS5
ステップS5において、画像処理部33は、観察対象の画像データを構成する複数の画素データの各々に、輝度ムラ補正演算を施す。
5. Step S5 of performing luminance unevenness correction calculation
In step S5, the image processing unit 33 performs luminance unevenness correction calculation on each of the plurality of pixel data constituting the image data of the observation target.

具体的に、画像処理部33は、画素データの各々の色情報(Y´(i),U´(i),V´(i))に対し、ステップS2で導出した輝度ムラ補正演算を施し、(Y´(i)Y0/Yc(i),U´(i),V´(i))に変換する。 Specifically, the image processing unit 33 performs the uneven brightness correction calculation derived in step S2 on each color information (Y'(i), U'(i), V'(i)) of the pixel data. , (Y'(i)Y0/Yc(i), U'(i), V'(i)).

6.色ムラ補正演算を施すステップS6
ステップS6において、画像処理部33は、観察対象の画像データを構成する複数の画素データの各々に、色ムラ補正演算を施す。
6. Step S6 for color unevenness correction calculation
In step S6, the image processing unit 33 performs color unevenness correction calculations on each of the plurality of pixel data constituting the image data of the observation target.

具体的に、観察対象の画像データを構成する複数の画素データの各々の色情報(Y´(i),U´(i),V´(i))に、ステップS3で導出した色ムラ補正演算を施し、以下のように変換する。
(Y´(i),U´(i),V´(i))→(Y´(i),U´(i)-Uc(i),V´(i)-Vc(i))
Specifically, the color unevenness correction derived in step S3 is applied to each of the color information (Y'(i), U'(i), V'(i)) of the plurality of pixel data constituting the image data to be observed. Perform calculations and convert as follows.
(Y'(i), U'(i), V'(i)) → (Y'(i), U'(i)-Uc(i), V'(i)-Vc(i))

7.平滑化するステップS7
ステップS7において、画像処理部33は、観察対象の画像データを構成する複数の画素データの各々を平滑化する。
7. Smoothing step S7
In step S7, the image processing unit 33 smoothes each of the plurality of pixel data forming the image data of the observation target.

8.表示装置に表示するステップS8
ステップS8において、出力信号生成部34は、ステップS5~S7までの画像処理が施された観察画像データに基づく出力信号を生成し、当該出力信号を表示装置5に出力する。ステップS5~S7までの画像処理が施された観察画像データを、観察対象の一フレームの画像データとする。表示装置5は、当該出力信号に基づいて、観察対象の一フレームの画像を表示する。
8. Step S8 of displaying on the display device
In step S8, the output signal generator 34 generates an output signal based on the observed image data subjected to image processing in steps S5 to S7, and outputs the output signal to the display device 5. FIG. The observed image data that has been subjected to image processing in steps S5 to S7 is assumed to be image data of one frame of the observation target. The display device 5 displays a one-frame image of the observation target based on the output signal.

以上のステップにより、一フレームの画像データについて、本実施形態の画像処理方法が実行される。観察対象の観察を終了せずに継続する場合(ステップS9:No)は、ステップS4に戻り、後続するフレームの画像データについて同様の処理を行う。つまり、後続するフレームの画像データに対しても、ステップS2で導出した色ムラ補正演算及びステップS3で導出した色ムラ補正演算を用いた画像処理を施す。 Through the above steps, the image processing method of this embodiment is executed for one frame of image data. If the observation of the observation target is to be continued without ending (step S9: No), the process returns to step S4, and similar processing is performed on the image data of subsequent frames. That is, the image data of the succeeding frame is also subjected to image processing using the color unevenness correction calculation derived in step S2 and the color unevenness correction calculation derived in step S3.

尚、本実施形態の内視鏡システム1による画像処理方法の各ステップは、上記の順番に限定されるものではない。例えば、輝度ムラ補正演算を施すステップS5、色ムラ補正演算を施すステップS6、及び平滑化するステップS7を実行する順番は任意である。 Note that each step of the image processing method by the endoscope system 1 of the present embodiment is not limited to the order described above. For example, the order of performing the step S5 of performing luminance unevenness correction calculation, the step S6 of performing color unevenness correction calculation, and the smoothing step S7 is arbitrary.

また、色ムラ補正演算を施すステップS6及び平滑化するステップS7は任意のステップである。 Further, the step S6 of performing color unevenness correction calculation and the step S7 of smoothing are optional steps.

以上から明らかなように、本実施形態の画像処理方法は、観察対象の表面で反射した後に入射した光を伝送する複数のコア212aを含むイメージガイドファイバ212を有する内視鏡2と、内視鏡2を接続可能であり、接眼レンズ30を介して光を検知して電気信号に変換するイメージセンサ31及びイメージセンサ31によって変換された電気信号に基づいて、複数の画素データから構成される画像データを生成する画像生成部32を有する撮像装置3と、を備える内視鏡システム1における画像処理方法であって、基準面を撮影して基準画像データを生成するステップと、基準画像データを構成する複数の画素データの各々の輝度成分を均一にする輝度ムラ補正演算を導出するステップと、観察対象を撮影して観察画像データを生成するステップと、観察画像データを構成する複数の画素データの各々に、輝度ムラ補正演算を施すステップとを含む。 As is clear from the above, the image processing method of the present embodiment includes an endoscope 2 having an image guide fiber 212 including a plurality of cores 212a that transmit incident light after being reflected by the surface of an observation object, and an endoscope. An image composed of a plurality of pixel data based on an image sensor 31 to which a mirror 2 can be connected and which detects light through an eyepiece lens 30 and converts it into an electrical signal and the electrical signal converted by the image sensor 31. An image processing method in an endoscope system 1 comprising an imaging device 3 having an image generation unit 32 for generating data, comprising: a step of capturing a reference plane to generate reference image data; and a step of forming the reference image data. a step of deriving a luminance non-uniformity correction operation that uniforms luminance components of each of a plurality of pixel data, a step of photographing an observation target to generate observation image data, and a step of generating observation image data; each of which includes a step of performing a brightness unevenness correction operation.

このような画像処理方法によれば、複数の画素データの内、クラッド212bに対応する領域の複数の画素データの各々に対しても輝度ムラ補正が施される。クラッド212bに対応する領域の複数の画素データの補正前の輝度は、コア212aに対応する領域の複数の画素データの補正前の輝度に比べて低い。しかし、輝度ムラ補正によって、クラッド212bに対応する領域の複数の画素データの補正後の輝度は、コア212aに対応する領域の複数の画素データの補正後の輝度と同程度になる。その結果、表示装置5に表示される表示画像の網目模様が実質的に除去される。また、複数の画素データの各々に輝度ムラ補正演算を施しているため、表示画像の解像度の劣化を抑えることができる。 According to such an image processing method, among the plurality of pixel data, each of the plurality of pixel data in the region corresponding to the clad 212b is also subjected to luminance unevenness correction. The pre-correction brightness of the plurality of pixel data in the region corresponding to the cladding 212b is lower than the pre-correction brightness of the plurality of pixel data in the region corresponding to the core 212a. However, due to the luminance unevenness correction, the corrected luminance of the plurality of pixel data in the region corresponding to the cladding 212b is approximately the same as the corrected luminance of the plurality of pixel data in the region corresponding to the core 212a. As a result, the mesh pattern of the display image displayed on the display device 5 is substantially eliminated. In addition, since luminance non-uniformity correction calculation is applied to each of the plurality of pixel data, it is possible to suppress degradation of the resolution of the display image.

つまり、このような画像処理方法によれば、内視鏡システム1によって表示される画像の解像度の劣化を抑えた上で、網目模様を実質的に除去することができる。なお、網目模様を実質的に除去するとは、網目模様を肉眼で視認することが困難な程度に低減することをいう。 That is, according to such an image processing method, it is possible to substantially remove the mesh pattern while suppressing degradation in resolution of the image displayed by the endoscope system 1 . In addition, substantially removing the mesh pattern refers to reducing the mesh pattern to such an extent that it is difficult to visually recognize the mesh pattern with the naked eye.

また、上記画像処理方法において、基準面は、無彩色であり、画像処理方法は、基準画像データを構成する複数の画素データの各々の色差成分を除去する色ムラ補正演算を導出するステップと、観察画像データを構成する複数の画素データの各々に、色ムラ補正演算を施すステップと、を含む。 Further, in the above image processing method, the reference surface is achromatic, and the image processing method includes the step of deriving a color unevenness correction operation for removing color difference components of each of the plurality of pixel data constituting the reference image data; and a step of performing a color unevenness correction operation on each of the plurality of pixel data constituting the observed image data.

このような画像処理方法によれば、更に、内視鏡システム1によって表示される画像の色ムラを除去することができる。 According to such an image processing method, color unevenness in the image displayed by the endoscope system 1 can be further removed.

また、上記画像処理方法において、観察画像データを構成する複数の画素データの各々を、コア212aの径、コア212aの密度、接眼レンズ30の像倍率及びイメージセンサ31の画素密度に基づいて決定された平滑化フィルタを用いて平滑化するステップを含む。 Further, in the above image processing method, each of the plurality of pixel data constituting the observed image data is determined based on the diameter of the core 212a, the density of the core 212a, the image magnification of the eyepiece 30, and the pixel density of the image sensor 31. smoothing using a smoothing filter.

このような画像処理方法によれば、更に、内視鏡システム1によって表示される画像の網目模様を除去することができる。 According to such an image processing method, the mesh pattern of the image displayed by the endoscope system 1 can be further removed.

本実施形態の撮像装置3は、各々が光を検知して電気信号に変換するイメージセンサ31と、イメージセンサ31によって変換された電気信号に基づいて、複数の画素データから構成される画像データを生成する画像生成部32と、基準面を撮影して得られた基準画像データを構成する複数の画素データの各々の輝度成分を均一にする輝度ムラ補正演算を導出し、観察対象を撮影して得られた観察対象の画像データを構成する複数の画素データの各々に輝度ムラ補正演算を施す画像処理部33と、を備える。 The imaging device 3 of this embodiment includes an image sensor 31 that detects light and converts it into an electric signal, and image data composed of a plurality of pixel data based on the electric signal converted by the image sensor 31. The image generation unit 32 generates an image, and a brightness unevenness correction operation is derived to uniform the brightness components of each of the plurality of pixel data constituting the reference image data obtained by capturing the reference plane, and the observation target is captured. An image processing unit 33 is provided for performing luminance unevenness correction calculation on each of a plurality of pixel data constituting the obtained image data of the observation target.

このような撮像装置3によれば、表示装置5に表示される画像の画質の劣化を抑えた上で、輝度ムラを除去し、網目模様を実質的に除去することができる。 According to such an imaging device 3, deterioration of the image quality of the image displayed on the display device 5 can be suppressed, luminance unevenness can be removed, and the mesh pattern can be substantially removed.

また、上記撮像装置3において、画像処理部33は、基準画像データを構成する複数の画素データの各々の色差成分を除去する色ムラ補正演算を導出し、観察対象の画像データを構成する複数の画素データの各々に色ムラ補正演算を更に施す。 Further, in the imaging device 3, the image processing unit 33 derives a color unevenness correction operation for removing the color difference components of each of the plurality of pixel data constituting the reference image data, Each of the pixel data is further subjected to a color unevenness correction operation.

このような撮像装置3によれば、更に、表示装置5に表示される画像の色ムラを除去することができる。 According to such an imaging device 3 , it is possible to further eliminate color unevenness in the image displayed on the display device 5 .

また、上記撮像装置3において、画像処理部33は、観察対象の画像データを構成する複数の画素データの各々を平滑化する。 Further, in the imaging device 3, the image processing section 33 smoothes each of the plurality of pixel data constituting the image data of the observation target.

このような撮像装置3によれば、更に、表示装置5に表示される画像の網目模様を除去することができる。 According to such an imaging device 3, the mesh pattern of the image displayed on the display device 5 can be further removed.

<変形例>
本実施形態では、撮像装置3が画像処理部33を備える態様を示したが、これに限られない。変形例として、撮像装置3とは別の構成として、撮像装置3に接続可能な画像処理装置を備え、当該画像処理装置が本実施形態の画像処理部33と同様の機能を有する画像処理部を備える態様としてもよい。
<Modification>
Although the imaging device 3 has the image processing unit 33 in this embodiment, the present invention is not limited to this. As a modification, an image processing device connectable to the imaging device 3 is provided as a configuration separate from the imaging device 3, and the image processing device includes an image processing section having the same function as the image processing section 33 of the present embodiment. It is good also as a mode provided.

変形例の画像処理装置は、基準面を撮影して得られた基準画像データを構成する複数の画素データの各々の輝度成分を均一にする輝度ムラ補正演算を導出し、観察対象を撮影して得られた観察画像データを構成する複数の画素データの各々に輝度ムラ補正演算を施す。 The image processing apparatus of the modified example derives a luminance non-uniformity correction calculation that uniforms the luminance components of each of the plurality of pixel data constituting the reference image data obtained by photographing the reference plane, and photographs the observation target. A luminance non-uniformity correction operation is performed on each of a plurality of pixel data constituting the obtained observed image data.

このような画像処理装置によれば、表示装置5に表示される画像の画質の劣化を抑えた上で、輝度ムラを除去し、網目模様を実質的に除去することができる。 According to such an image processing apparatus, it is possible to suppress the degradation of the image quality of the image displayed on the display device 5, remove the luminance unevenness, and substantially remove the mesh pattern.

また、上記画像処理装置において、基準画像データを構成する複数の画素データの各々の色差成分を除去する色ムラ補正演算を導出し、観察対象の画像データを構成する複数の画素データの各々に色ムラ補正演算を更に施す。 Further, in the above image processing apparatus, a color unevenness correction operation for removing color difference components of each of the plurality of pixel data constituting the reference image data is derived, and each of the plurality of pixel data constituting the image data of the observation object is colored. Non-uniformity correction calculation is further performed.

このような画像処理装置によれば、更に、表示装置5に表示される画像の色ムラを除去することができる。 According to such an image processing apparatus, it is possible to further eliminate color unevenness in the image displayed on the display device 5 .

また、上記画像処理装置において、観察対象の画像データを構成する複数の画素データの各々を平滑化する。 Further, in the image processing apparatus, each of the plurality of pixel data forming the image data of the observation target is smoothed.

このような画像処理装置によれば、更に、表示装置5に表示される画像の網目模様を除去することができる。 According to such an image processing device, it is possible to further remove the mesh pattern from the image displayed on the display device 5 .

観察対象を撮影して、表示装置5に表示された当該観察対象の画像(以下、表示画像)について評価を行った。具体的には、いずれの画像処理も施さない場合の表示画像と比較し、各画像処理条件による表示画像の、輝度ムラの低減具合、色ムラの低減具合、網目模様の低減具合及び解像度の劣化具合について評価を行った。 An observation target was photographed, and an image of the observation target displayed on the display device 5 (hereinafter referred to as a display image) was evaluated. Specifically, compared with the displayed image when no image processing is performed, the degree of reduction in luminance unevenness, the degree of color unevenness, the degree of reduction in mesh patterns, and the deterioration in resolution of the displayed image under each image processing condition. I evaluated the condition.

これらの評価は、観察者の目視により行った。図8は、実施例1~3及び比較例1~5の画像処理条件及び得られた表示画像についての評価結果をまとめた表である。以下、詳細に説明する。 These evaluations were made visually by an observer. FIG. 8 is a table summarizing the image processing conditions of Examples 1 to 3 and Comparative Examples 1 to 5 and the evaluation results of the display images obtained. A detailed description will be given below.

[共通条件]
実施例1~3及び比較例1~5に共通する条件について説明する。基準画像を得るための基準面としては、白色の板の表面を用いた。観察対象としては、人間の手のひらを用いた。手のひらを開いた状態で、その手のひらの中央部に内視鏡の挿入部を正対させた状態で、手のひらを観察した。
[Common conditions]
Conditions common to Examples 1 to 3 and Comparative Examples 1 to 5 will be described. The surface of a white plate was used as a reference plane for obtaining a reference image. A human palm was used as an observation object. The palm was observed with the palm open and the insertion site of the endoscope facing the center of the palm.

本実施例では、内視鏡としては、ファイバーテック社製涙道ファイバースコープを用いた。撮像装置としては、ファイバーテック社製3CMOS HDカメラ FC-304を用い、画像処理部を制御するプログラムを、上記実施形態と同様の制御を実行させるよう調整した。光源装置としてはファイバーテック社製 光源装置 FL-301を用いた。表示装置としては、池上通信機社製MLW-2425Cを用いた。 In this example, a lacrimal fiberscope manufactured by Fibertech was used as an endoscope. A 3CMOS HD camera FC-304 manufactured by Fibertech Co., Ltd. was used as the imaging device, and the program for controlling the image processing unit was adjusted to execute the same control as in the above embodiment. A light source device FL-301 manufactured by Fiber Tech was used as the light source device. As the display device, MLW-2425C manufactured by Ikegami Tsushinki Co., Ltd. was used.

内視鏡において、イメージガイドファイバの径は、0.35mmである。イメージガイドファイバが有するコアは10000本である。コアの各々の径は3.5±0.5μmである。コアの密度は、100000本/mm2である。 In an endoscope, the diameter of the image guide fiber is 0.35 mm. The image guide fiber has 10000 cores. Each core has a diameter of 3.5±0.5 μm. The core density is 100,000/mm 2 .

撮像装置において、イメージセンサには、3mm×5.4mmの領域に複数の画素が配列されている。複数の画素は、1080行1920列の行列状に、計2073600個配列されている。画素密度は、900~920ppiである。また、イメージガイドファイバとイメージセンサの間には接眼レンズがあり、イメージガイドファイバに伝送された光による像を拡大してイメージセンサに結像しており、その接眼レンズの像倍率は5.5±1倍とした。 In the imaging device, the image sensor has a plurality of pixels arranged in an area of 3 mm×5.4 mm. A total of 2,073,600 pixels are arranged in a matrix of 1,080 rows and 1,920 columns. The pixel density is 900-920 ppi. An eyepiece lens is provided between the image guide fiber and the image sensor, and the image formed by the light transmitted to the image guide fiber is enlarged and formed on the image sensor. The image magnification of the eyepiece lens is 5.5. ±1 times.

[個別条件]
図8に、各実施例及び各比較例における、輝度ムラ補正及び色ムラ補正の有無を示した。具体的に、処理を実行した場合を「有」で示し、処理を実行しなかった場合を「無」で示している。平滑化については、処理を実行しなかった場合を「無」で示し、実行した場合を「強」または「弱」で示している。「弱」及び「強」はそれぞれ、複数の画素の各々に対応する画素データの色情報を、その画素を中心とした25個及び49個の画素の画素データの色情報の平均値に置き換える平滑化に対応する。「弱」及び「強」をそれぞれ、「弱い平滑化」及び「強い平滑化」と呼称する。
[Individual conditions]
FIG. 8 shows the presence or absence of luminance unevenness correction and color unevenness correction in each example and each comparative example. Specifically, "Yes" indicates that the process was executed, and "No" indicates that the process was not executed. As for the smoothing, "none" indicates that the process was not performed, and "strong" or "weak" indicates that it was performed. ``Weak'' and ``Strong'' are smoothing methods that replace the color information of pixel data corresponding to each of a plurality of pixels with the average value of the color information of pixel data of 25 and 49 pixels centering on that pixel, respectively. correspond to "Weak" and "strong" are referred to as "weak smoothing" and "strong smoothing" respectively.

[評価方法]
網目模様の低減具合、輝度ムラの低減具合、色ムラの低減具合及び解像度の劣化具合について、二重丸、一重丸、三角又はバツの4段階で評価した。
[Evaluation method]
The degree of reduction in mesh pattern, the degree of reduction in luminance unevenness, the degree of reduction in color unevenness, and the degree of deterioration in resolution were evaluated in four stages of double circles, single circles, triangles, and crosses.

ここで、網目模様の低減具合、輝度ムラの低減具合及び色ムラの低減具合については、以下の基準で評価を行った。バツは、顕著に視認できると評価された結果を示す。三角は、バツに比べて低減されているが、肉眼で容易に視認できると評価された結果を示す。一重丸は、実質的に除去されたと評価された結果を示す。実質的に除去されたとは、除去されたわけではないが、肉眼で視認することが困難な程度に低減されたと評価された結果を示す。二重丸は、除去されたと評価された結果を示す。除去されたとは、肉眼で視認することができない程度に低減されたと評価された結果を示す。 Here, the degree of reduction in mesh pattern, the degree of reduction in luminance unevenness, and the degree of reduction in color unevenness were evaluated according to the following criteria. A cross indicates a result rated as significantly visible. Triangles indicate results evaluated as reduced compared to crosses but easily visible to the naked eye. A single circle indicates a result evaluated as being substantially removed. The term "substantially removed" indicates a result evaluated as having been reduced to such an extent that it is difficult to visually recognize with the naked eye, although it is not necessarily removed. Double circles indicate results evaluated as removed. “Removed” indicates a result evaluated as being reduced to the extent that it cannot be visually recognized with the naked eye.

また、解像度の劣化具合については、平滑化が施されていない条件の一つであり、解像度が良好であると評価された比較例1を二重丸とし、これを基準に評価を行った。二重丸は、比較例1に比べて劣化していないと評価された結果を示す。ここで、劣化していないとは、肉眼で劣化を視認することができないことを示す。一重丸は、比較例1に比べて実質的に劣化していないと評価された結果を示す。ここで、実質的に劣化していないとは、劣化はしたが、肉眼で劣化を視認することは困難であることを示す。三角は、肉眼で容易に視認できる程度に劣化したと評価された結果を示す。バツは、著しく劣化したと評価された結果を示す。 Further, regarding the degree of degradation of resolution, Comparative Example 1, which is one of the conditions in which no smoothing is performed and was evaluated as having good resolution, is marked with a double circle, and the evaluation was performed based on this. A double circle indicates a result evaluated as not degraded compared to Comparative Example 1. Here, "not degraded" means that degradation cannot be visually recognized with the naked eye. A single circle indicates a result evaluated as not substantially degraded compared to Comparative Example 1. Here, "substantially not degraded" means that although degraded, it is difficult to visually recognize the degradation with the naked eye. Triangles indicate results evaluated as degraded to the extent that they can be easily visually recognized with the naked eye. A cross indicates a result evaluated as significantly deteriorated.

[評価結果]
図8には、網目模様、輝度ムラ及び色ムラの低減具合並びに解像度の劣化具合についての評価結果が示されている。図9A~16Bには、実施例1~3及び比較例1~5の条件で得られた、基準面及び観察対象の、表示画像を示している。
[Evaluation results]
FIG. 8 shows the evaluation results of the degree of reduction of mesh patterns, luminance unevenness and color unevenness, and the degree of deterioration of resolution. 9A to 16B show displayed images of the reference plane and the observation object obtained under the conditions of Examples 1 to 3 and Comparative Examples 1 to 5. FIG.

(輝度ムラ補正の効果)
実施例1と比較例1との評価結果を比較して、輝度ムラ補正の効果について考察する。図9Aは、実施例1の条件で基準画像に画像処理を施した場合の表示画像である。図9Bは、実施例1の条件で観察画像に画像処理を施した場合の表示画像である。図11Aは、比較例1の条件で基準画像に画像処理を施した、つまりいずれの画像処理も施していない場合の表示画像である。図11Bは、比較例1の条件で観察画像に画像処理を施した、つまりいずれの画像処理も施していない場合の表示画像である。
(Effect of luminance unevenness correction)
By comparing the evaluation results of Example 1 and Comparative Example 1, the effect of luminance unevenness correction will be considered. FIG. 9A is a display image when image processing is performed on the reference image under the conditions of the first embodiment. 9B is a display image when image processing is performed on the observation image under the conditions of Example 1. FIG. FIG. 11A is a display image when the reference image is subjected to image processing under the conditions of Comparative Example 1, that is, when no image processing is performed. FIG. 11B is a display image obtained by subjecting the observation image to image processing under the conditions of Comparative Example 1, that is, when no image processing is performed.

実施例1及び比較例1の表示画像を比較すると、基準画像及び観察画像について、輝度ムラ補正を画像データに施すことによって、輝度ムラの除去のみならず、網目模様が実質的に除去されていることがわかる。 Comparing the display images of Example 1 and Comparative Example 1, it can be seen that not only the luminance unevenness is removed but also the mesh pattern is substantially removed by performing luminance unevenness correction on the image data of the reference image and the observation image. I understand.

(色ムラ補正の効果)
実施例2と実施例1との評価結果を比較して、色ムラ補正の効果について考察する。図10Aは、実施例2の条件で基準画像に画像処理を施した場合の表示画像である。図10Bは、実施例2の条件で観察画像に画像処理を施した場合の表示画像である。
(Effect of color unevenness correction)
The evaluation results of Example 2 and Example 1 are compared to discuss the effect of color unevenness correction. FIG. 10A is a display image when image processing is performed on the reference image under the conditions of the second embodiment. 10B is a display image when image processing is performed on the observed image under the conditions of Example 2. FIG.

実施例2及び実施例1の表示画像を比較すると、基準画像及び観察画像について、色ムラ補正を画像データに施すことによって、色ムラが除去されることがわかる。また、基準画像及び観察画像について、色ムラ補正を画像データに施しても、網目模様は除去又は低減されないことがわかる。 Comparing the display images of Example 2 and Example 1, it can be seen that color unevenness is removed by applying color unevenness correction to the image data of the reference image and the observed image. Moreover, it can be seen that the mesh pattern is not removed or reduced even if the color unevenness correction is applied to the image data of the reference image and the observation image.

(輝度ムラ補正と弱い平滑化との相乗効果)
実施例2、実施例3、比較例3及び比較例4の評価結果を比較することによって、輝度ムラ補正と弱い平滑化との相乗効果について考察する。図10Aは、実施例2の条件で基準画像に画像処理を施した場合の表示画像である。図10Bは、実施例2の条件で観察画像に画像処理を施した場合の表示画像である。図13Aは、実施例3の条件で基準画像に画像処理を施した場合の表示画像である。図13Bは、実施例3の条件で観察画像に画像処理を施した場合の表示画像である。図14Aは、比較例3の条件で基準画像に画像処理を施した場合の表示画像である。図14Bは、比較例3の条件で観察画像に画像処理を施した場合の表示画像である。図15Aは、比較例4の条件で基準画像に画像処理を施した場合の表示画像である。図15Bは、比較例4の条件で観察画像に画像処理を施した場合の表示画像である。
(Synergistic effect of luminance unevenness correction and weak smoothing)
By comparing the evaluation results of Example 2, Example 3, Comparative Example 3, and Comparative Example 4, the synergistic effect of luminance unevenness correction and weak smoothing will be considered. FIG. 10A is a display image when image processing is performed on the reference image under the conditions of the second embodiment. 10B is a display image when image processing is performed on the observed image under the conditions of Example 2. FIG. 13A is a display image when image processing is performed on the reference image under the conditions of Example 3. FIG. 13B is a display image when image processing is performed on the observed image under the conditions of Example 3. FIG. 14A is a display image when image processing is performed on the reference image under the conditions of Comparative Example 3. FIG. 14B is a display image when image processing is performed on the observed image under the conditions of Comparative Example 3. FIG. 15A is a display image when image processing is performed on the reference image under the conditions of Comparative Example 4. FIG. 15B is a display image when image processing is performed on the observed image under the conditions of Comparative Example 4. FIG.

実施例2及び比較例3から、輝度ムラ補正又は弱い平滑化の一方を画像データに施すことのみによっては、網目模様は除去されたと評価できないことがわかる。つまり、これらのいずれか一方の画像処理のみによっては、網目模様を肉眼で視認することができない程度に低減された(つまり、二重丸)とは評価できないことがわかる。 From Example 2 and Comparative Example 3, it can be seen that it is not possible to evaluate that the mesh pattern has been removed simply by applying either luminance unevenness correction or weak smoothing to the image data. In other words, it can be understood that it cannot be evaluated that the mesh pattern has been reduced to the extent that it cannot be visually recognized with the naked eye (that is, double circles) by only one of these image processes.

一方、比較例4から、強い平滑化を画像データに施すことによって、網目模様が除去されることがわかる。しかし、強い平滑化を画像データに施すことによって、画像の解像度が劣化することがわかる。 On the other hand, it can be seen from Comparative Example 4 that the mesh pattern is removed by applying strong smoothing to the image data. However, it can be seen that applying strong smoothing to the image data degrades the resolution of the image.

実施例3から、輝度ムラ補正及び弱い平滑化を画像データに施すことによって、画像の解像度の劣化を伴わずに、網目模様が除去されることがわかる。
From Example 3, it can be seen that the mesh pattern is removed without deteriorating the resolution of the image by applying luminance unevenness correction and weak smoothing to the image data.

1:内視鏡システム
2:内視鏡
21:挿入部
211:対物レンズ
212:イメージガイドファイバ
212a:コア
212b:クラッド
212c:ジャケット
213:ライトガイドファイバ
213a:コア
213b:クラッド
214:外装パイプ
214a:充填剤
22:把持部
23:リード部
23a:分岐部
23b:イメージガイドプラグ
23c:ライトガイドプラグ
3:撮像装置
3a:内視鏡端子
30:接眼レンズ
31:イメージセンサ
32:画像生成部
33:画像処理部
34:出力信号生成部
4:光源装置
4a:ソケット
5:表示装置
1: Endoscope system 2: Endoscope 21: Insertion section 211: Objective lens 212: Image guide fiber 212a: Core 212b: Clad 212c: Jacket 213: Light guide fiber 213a: Core 213b: Clad 214: Exterior pipe 214a: Filler 22: Grip 23: Lead 23a: Branch 23b: Image guide plug 23c: Light guide plug 3: Imaging device 3a: Endoscope terminal 30: Eyepiece 31: Image sensor 32: Image generator 33: Image Processing unit 34: Output signal generation unit 4: Light source device 4a: Socket 5: Display device

Claims (9)

観察対象の表面で反射した後に入射した光を伝送する複数のコアを含むイメージガイドファイバを有する内視鏡と、
前記内視鏡を接続可能であり、接眼レンズを介して前記光を検知し、電気信号に変換するイメージセンサ及び前記電気信号に基づいて、複数の画素データから構成される画像データを生成する画像生成部を有する撮像装置と、を備える内視鏡システムにおける画像処理方法であって、
基準面を撮影して基準画像データを生成するステップと、
前記基準画像データを構成する複数の画素データの各々の輝度成分を均一にする輝度ムラ補正演算を導出するステップと、
観察対象を撮影して観察画像データを生成するステップと、
前記観察画像データを構成する複数の画素データの各々に、前記輝度ムラ補正演算を施すステップと
を含む画像処理方法。
An endoscope having an image guide fiber that includes a plurality of cores that transmit incident light after reflection off a surface to be observed;
An image sensor connectable to the endoscope that detects the light through an eyepiece and converts it into an electrical signal, and an image that generates image data composed of a plurality of pixel data based on the electrical signal. An image processing method in an endoscope system comprising an imaging device having a generation unit,
imaging a reference plane to generate reference image data;
a step of deriving a luminance non-uniformity correction calculation that uniforms luminance components of each of a plurality of pixel data constituting the reference image data;
a step of photographing an observation target to generate observation image data;
and a step of performing the luminance unevenness correction operation on each of a plurality of pixel data constituting the observed image data.
前記基準面は、無彩色であり、前記画像処理方法は、
前記基準画像データを構成する複数の画素データの各々の色差成分を除去する色ムラ補正演算を導出するステップと、
前記観察画像データを構成する複数の画素データの各々に、前記色ムラ補正演算を施すステップと、
を含む請求項1に記載の画像処理方法。
The reference surface is achromatic, and the image processing method includes
deriving a color unevenness correction operation for removing color difference components of each of a plurality of pixel data constituting the reference image data;
performing the color unevenness correction operation on each of a plurality of pixel data constituting the observed image data;
The image processing method according to claim 1, comprising:
前記観察画像データを構成する複数の画素データの各々を、前記コアの径、前記コアの密度、前記接眼レンズの像倍率及び前記イメージセンサの画素密度に基づいて決定された平滑化フィルタを用いて平滑化するステップを含む請求項1又は2に記載の画像処理方法。 Each of the plurality of pixel data constituting the observed image data is processed using a smoothing filter determined based on the diameter of the core, the density of the core, the image magnification of the eyepiece, and the pixel density of the image sensor. 3. An image processing method according to claim 1, comprising a smoothing step. 観察対象の表面で反射した後に入射した光を伝送する複数のコアを含むイメージガイドファイバを有する内視鏡と、
前記内視鏡を接続可能であり、接眼レンズを介して光を検知して電気信号に変換するイメージセンサと、
前記イメージセンサによって変換された電気信号に基づいて、複数の画素データから構成される画像データを生成する画像生成部と、
基準面を撮影して得られた基準画像データを構成する複数の画素データの各々の輝度成分を均一にする輝度ムラ補正演算を導出し、
観察対象を撮影して得られた観察画像データを構成する複数の画素データの各々に前記輝度ムラ補正演算を施す画像処理部と、
有する撮像装置
を備えた内視鏡システム
An endoscope having an image guide fiber that includes a plurality of cores that transmit incident light after reflection off a surface to be observed;
an image sensor connectable to the endoscope, which detects light through an eyepiece and converts it into an electrical signal;
an image generator that generates image data composed of a plurality of pixel data based on the electric signal converted by the image sensor;
Deriving a brightness non-uniformity correction operation for uniforming brightness components of each of a plurality of pixel data constituting reference image data obtained by photographing a reference plane,
an image processing unit that performs the brightness unevenness correction operation on each of a plurality of pixel data constituting observation image data obtained by photographing an observation target;
an imaging device having
An endoscope system with a
前記画像処理部は、
前記基準画像データを構成する複数の画素データの各々の色差成分を除去する色ムラ補正演算を導出し、
前記観察画像データを構成する複数の画素データの各々に前記色ムラ補正演算を施すことを特徴とする請求項4に記載の内視鏡システム
The image processing unit
deriving a color unevenness correction operation for removing color difference components of each of a plurality of pixel data constituting the reference image data;
5. The endoscope system according to claim 4, wherein said color unevenness correction operation is applied to each of a plurality of pixel data constituting said observation image data.
前記画像処理部は、
前記観察画像データを構成する複数の画素データの各々を平滑化することを特徴とする請求項4又は5に記載の内視鏡システム
The image processing unit
6. The endoscope system according to claim 4, wherein each of a plurality of pixel data constituting said observation image data is smoothed.
観察対象の表面で反射した後に入射した光を伝送する複数のコアを含むイメージガイドファイバを有する内視鏡と、
前記内視鏡を接続可能であり、接眼レンズを介して光を検知して電気信号に変換するイメージセンサと、前記イメージセンサによって変換された電気信号に基づいて、複数の画素データから構成される画像データを生成する画像生成部とを有する撮像装置と、
前記撮像装置に接続可能であり、
基準面を撮影して得られた基準画像データを構成する複数の画素データの各々の輝度成分を均一にする輝度ムラ補正演算を導出し、
観察対象を撮影して得られた観察画像データを構成する複数の画素データの各々に前記輝度ムラ補正演算を施す画像処理装置
を備えた内視鏡システム
An endoscope having an image guide fiber that includes a plurality of cores that transmit incident light after reflection off a surface to be observed;
An image sensor that can be connected to the endoscope and detects light through an eyepiece and converts it into an electric signal, and a plurality of pixel data based on the electric signal converted by the image sensor. an imaging device having an image generator that generates image data;
connectable to the imaging device;
Deriving a brightness non-uniformity correction operation for uniforming brightness components of each of a plurality of pixel data constituting reference image data obtained by photographing a reference plane,
an image processing device for performing the brightness unevenness correction operation on each of a plurality of pixel data constituting observation image data obtained by photographing an observation target ;
An endoscope system with a
前記画像処理装置は、
前記基準画像データを構成する複数の画素データの各々の色差成分を除去する色ムラ補正演算を導出し、
前記観察画像データを構成する複数の画素データの各々に前記色ムラ補正演算を施すことを特徴とする請求項7に記載の内視鏡システム
The image processing device is
deriving a color unevenness correction operation for removing color difference components of each of a plurality of pixel data constituting the reference image data;
8. The endoscope system according to claim 7, wherein said color unevenness correction operation is applied to each of a plurality of pixel data constituting said observation image data.
前記画像処理装置は、
前記観察画像データを構成する複数の画素データの各々を平滑化することを特徴とする請求項7又は8に記載の内視鏡システム
The image processing device is
9. The endoscope system according to claim 7, wherein each of a plurality of pixel data forming said observation image data is smoothed.
JP2020082525A 2020-05-08 2020-05-08 IMAGE PROCESSING METHOD, IMAGING DEVICE AND IMAGE PROCESSING DEVICE Active JP7189173B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020082525A JP7189173B2 (en) 2020-05-08 2020-05-08 IMAGE PROCESSING METHOD, IMAGING DEVICE AND IMAGE PROCESSING DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020082525A JP7189173B2 (en) 2020-05-08 2020-05-08 IMAGE PROCESSING METHOD, IMAGING DEVICE AND IMAGE PROCESSING DEVICE

Publications (2)

Publication Number Publication Date
JP2021177604A JP2021177604A (en) 2021-11-11
JP7189173B2 true JP7189173B2 (en) 2022-12-13

Family

ID=78409627

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020082525A Active JP7189173B2 (en) 2020-05-08 2020-05-08 IMAGE PROCESSING METHOD, IMAGING DEVICE AND IMAGE PROCESSING DEVICE

Country Status (1)

Country Link
JP (1) JP7189173B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000350193A (en) 1999-06-03 2000-12-15 Olympus Optical Co Ltd Image processing unit and endoscope system
JP2014241580A (en) 2013-05-13 2014-12-25 キヤノン株式会社 Imaging apparatus

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0469615A (en) * 1990-07-10 1992-03-04 Olympus Optical Co Ltd White balance adjuster for endoscope
JPH06343134A (en) * 1993-05-31 1994-12-13 Shimadzu Corp Fiberscope

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000350193A (en) 1999-06-03 2000-12-15 Olympus Optical Co Ltd Image processing unit and endoscope system
JP2014241580A (en) 2013-05-13 2014-12-25 キヤノン株式会社 Imaging apparatus

Also Published As

Publication number Publication date
JP2021177604A (en) 2021-11-11

Similar Documents

Publication Publication Date Title
JP6456416B2 (en) Medical inspection devices such as microscopes and endoscopes using pseudo colors
CN108113630B (en) Endoscope system
EP2301414B1 (en) Endoscope system
JP6420230B2 (en) Endoscope system, processor device, and operation method of endoscope system
EP2862501A2 (en) Calibration method and endoscope system
US10499027B2 (en) Processor device and method of operating the same
WO2019230095A1 (en) Camera apparatus, image processing method, and camera system
JP6389140B2 (en) Endoscope system, processor device, and operation method of endoscope system
WO2017110180A1 (en) Endoscopic system, processor device, and method for operating endoscopic system
WO2017183324A1 (en) Endoscope system, processor device, and endoscope system operation method
JP7374600B2 (en) Medical image processing device and medical observation system
JPWO2019093355A1 (en) Endoscopic system and how to operate it
JP6218709B2 (en) Endoscope system, processor device, operation method of endoscope system, and operation method of processor device
WO2019093356A1 (en) Endoscope system and operation method therefor
JP7189173B2 (en) IMAGE PROCESSING METHOD, IMAGING DEVICE AND IMAGE PROCESSING DEVICE
JP4898578B2 (en) Image processing system, imaging system, and microscope imaging system
JP4606838B2 (en) Electronic endoscope device
JP6570490B2 (en) Endoscope system and method for operating endoscope system
JPH06125871A (en) Electronic endoscope device
JP2012143464A (en) White balance adjustment system and endoscope processor
US11122225B2 (en) Medical image processing apparatus and medical observation system
JP2017144247A (en) Endoscope system
JP6378140B2 (en) Endoscope system and operating method thereof
US20220409029A1 (en) Endoscope and endoscope system
JP6423245B2 (en) Endoscope system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221201

R150 Certificate of patent or registration of utility model

Ref document number: 7189173

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150