JP7189173B2 - IMAGE PROCESSING METHOD, IMAGING DEVICE AND IMAGE PROCESSING DEVICE - Google Patents
IMAGE PROCESSING METHOD, IMAGING DEVICE AND IMAGE PROCESSING DEVICE Download PDFInfo
- Publication number
- JP7189173B2 JP7189173B2 JP2020082525A JP2020082525A JP7189173B2 JP 7189173 B2 JP7189173 B2 JP 7189173B2 JP 2020082525 A JP2020082525 A JP 2020082525A JP 2020082525 A JP2020082525 A JP 2020082525A JP 7189173 B2 JP7189173 B2 JP 7189173B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- image processing
- pixel data
- unevenness correction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 97
- 238000003384 imaging method Methods 0.000 title claims description 34
- 238000003672 processing method Methods 0.000 title claims description 26
- 238000012937 correction Methods 0.000 claims description 120
- 239000000835 fiber Substances 0.000 claims description 36
- 238000009499 grossing Methods 0.000 claims description 33
- 230000000052 comparative effect Effects 0.000 description 29
- 238000000034 method Methods 0.000 description 25
- 238000003780 insertion Methods 0.000 description 15
- 230000037431 insertion Effects 0.000 description 15
- 230000008569 process Effects 0.000 description 13
- 238000005253 cladding Methods 0.000 description 12
- 238000011156 evaluation Methods 0.000 description 10
- 230000009467 reduction Effects 0.000 description 10
- 230000015556 catabolic process Effects 0.000 description 9
- 238000006731 degradation reaction Methods 0.000 description 9
- 230000006866 deterioration Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 239000000945 filler Substances 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000004033 plastic Substances 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 239000010453 quartz Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N silicon dioxide Inorganic materials O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 2
- 230000002195 synergetic effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 229910052736 halogen Inorganic materials 0.000 description 1
- 150000002367 halogens Chemical class 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 229910001220 stainless steel Inorganic materials 0.000 description 1
- 239000010935 stainless steel Substances 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Endoscopes (AREA)
Description
本発明は画像処理方法、撮像装置及び画像処理装置に関する。 The present invention relates to an image processing method, an imaging device, and an image processing device.
複数のコアを含むイメージガイドファイバを有する内視鏡が知られている。複数のコアの各々は、観察対象の表面で反射した後に入射した光を伝送する。複数のコアの隙間はクラッドで充填されている。入射した光はコアとクラッドの界面で全反射を繰り返しながら伝送され、コア内に閉じ込められる。一方、クラッドは光を殆ど伝送しないため、内視鏡に接続された表示装置に表示される観察対象の画像の領域において、クラッドに対応する領域の輝度が低くなる。これによって、観察者は、所謂網目模様を視認する。 Endoscopes with image guide fibers that include multiple cores are known. Each of the plurality of cores transmits incident light after being reflected by the surface being observed. The gaps between the multiple cores are filled with clad. Incident light is transmitted while repeating total reflection at the interface between the core and the clad, and is confined within the core. On the other hand, since the clad hardly transmits light, the luminance of the region corresponding to the clad is low in the region of the image of the observation target displayed on the display device connected to the endoscope. The observer thus sees a so-called mesh pattern.
特許文献1には、このような網目模様を除去する技術が開示されている。具体的には、表示される観察対象の画像において、コアに対応する領域及びその外側のクラッドに対応する領域の色を、当該コアに対応する領域の一点の色に置き換える。これによって、クラッドに対応する領域の色がコアに対応する領域の色に基づいて補完され、網目模様を除去又は低減することができるとされている。
しかしながら、特許文献1に開示された方法では、コアに対応する領域及びその外側のクラッドに対応する領域の色を、当該コアに対応する領域の一点の色に置き換えることにより、当該コアに対応する領域に各点の異なる輝度と色度の情報が単一の輝度と色度に置き換えられるため、表示される画像の解像度が劣化する。
However, in the method disclosed in
本発明の目的は、内視鏡システムによって表示される画像の解像度の劣化を抑えた上で、網目模様を実質的に除去することが可能な画像処理方法を提供することにある。 SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing method capable of substantially removing a mesh pattern while suppressing degradation in resolution of an image displayed by an endoscope system.
上記目的を達成するための主たる発明は、観察対象の表面で反射した後に入射した光を伝送する複数のコアを含むイメージガイドファイバを有する内視鏡と、前記内視鏡を接続可能であり、前記光を検知して電気信号に変換するイメージセンサ及び前記イメージセンサによって変換された電気信号に基づいて、複数の画素データから構成される画像データを生成する画像生成部を有する撮像装置と、を備える内視鏡システムにおける画像処理方法であって、基準面を撮影して基準画像データを生成するステップと、前記基準画像データに施すと、前記基準画像データを構成する複数の画素データの各々の輝度成分を均一にする輝度ムラ補正演算を導出するステップと、観察対象を撮影して観察画像データを生成するステップと、前記観察画像データを構成する複数の画素データの各々に、前記輝度ムラ補正演算を施すステップとを含む画像処理方法である。本発明の他の特徴については、後述する明細書及び図面の記載により明らかにする。 The main invention for achieving the above object is an endoscope having an image guide fiber including a plurality of cores that transmit incident light after being reflected on the surface of an observation target, and the endoscope, and connectable to the endoscope, an imaging device having an image sensor that detects the light and converts it into an electrical signal; An image processing method in an endoscope system comprising: a step of photographing a reference plane to generate reference image data; deriving a luminance unevenness correction operation for uniforming luminance components; photographing an observation target to generate observed image data; and performing an operation. Other features of the present invention will be clarified by the description of the specification and drawings described later.
本発明によれば、内視鏡システムによって表示される画像の解像度の劣化を抑えた上で、網目模様を実質的に除去することが可能な画像処理方法を提供することができる。 According to the present invention, it is possible to provide an image processing method capable of substantially removing a mesh pattern while suppressing degradation in resolution of an image displayed by an endoscope system.
<実施形態>
==内視鏡システム==
図1は、本実施形態の内視鏡システム1の構成を説明する図である。内視鏡システム1は、内視鏡2と、撮像装置3と、光源装置4と、表示装置5とを備えている。
<Embodiment>
== Endoscope System ==
FIG. 1 is a diagram illustrating the configuration of an
[内視鏡]
図2は、本実施形態の内視鏡2の構成を説明する図である。内視鏡2は、たとえば、涙道のような生体内部(すなわち、観察対象)を観察することを目的とした医療機器である。本実施形態の内視鏡2は、挿入部21と、把持部22と、リード部23とを有している。
[Endoscope]
FIG. 2 is a diagram illustrating the configuration of the
挿入部21は、観察対象に挿入される細長の部材である。挿入部21は、図1及び図2示すように、その基端部が把持部22に接続される。
The
図3は、挿入部21の長さ方向と垂直な面であって、イメージガイドファイバ212が通る面における断面図である。図4は、挿入部21の軸心を通る面の断面図である。挿入部21は、対物レンズ211と、イメージガイドファイバ212と、ライトガイドファイバ213と、外装パイプ214とを有している。
FIG. 3 is a cross-sectional view of a plane perpendicular to the longitudinal direction of the
対物レンズ211は、観察対象の表面で反射した光を集光するためのレンズである。対物レンズ211は、挿入部21の先端部に設けられている。
The
イメージガイドファイバ212は、対物レンズ211を介して入射した光を、撮像装置3に伝送する。イメージガイドファイバ212は、複数のコア212a、クラッド212b及びジャケット212cを含んでいる。複数のコア212aの各々は、観察対象の表面で反射し、対物レンズ211を介して入射した光を伝送する。複数のコア212aの各々の材質は、例えば、石英、ガラス、プラスチック等である。
The
クラッド212bは、複数のコア212aの外側の隙間を充填する。クラッド212bの材質は、例えば石英、ガラス、プラスチック等であって、コア212aに比べて屈折率が小さい材質である。ジャケット212cは、複数のコア212a及びクラッド212bを被覆する。
The
ライトガイドファイバ213は、観察対象を照明する。本実施形態では、挿入部21は、5本のライトガイドファイバ213を有している。本実施形態のライトガイドファイバ213は、コア213a及びクラッド213bを含んでいる。コア213aは、光源装置4からの光を伝送する。クラッド213bは、コア213aの外側を充填する。コア213a及びクラッド213bの材質は特に限定されない。たとえば、コア212a及びクラッド212bと同様の材質で形成される。
A
外装パイプ214は、管状の部材であって、その内部に、イメージガイドファイバ212及びライトガイドファイバ213が配置される。外装パイプ214は、ステンレス鋼等の金属で構成される。外装パイプ214の内部において、対物レンズ211、イメージガイドファイバ212及びライトガイドファイバ213の外側は充填剤214aで充填されている。
The
把持部22は、内視鏡2を使用する際に観察者が把持する部分である。把持部22の一端には、挿入部21の基端部が接続されている。把持部22の他端には、リード部23が接続されている。
The
リード部23は、把持部22に連結されている。リード部23は、分岐部23aを介して2つに分岐している。分岐した一方の末端にはイメージガイドプラグ23bが設けられ、他方の末端にはライトガイドプラグ23cが設けられている。
The
イメージガイドプラグ23bには、挿入部21から把持部22及び分岐部23aを通って延出するイメージガイドファイバ212の端部が接続されている。ライトガイドプラグ23cには、挿入部21から把持部22及び分岐部23aを通って延出するライトガイドファイバ213の端部が接続されている。
An end portion of an
[撮像装置]
図5は、本実施形態の撮像装置3の機能ブロック図である。図6は、本実施形態のイメージセンサ31に到達する光の経路を説明する図である。撮像装置3は、内視鏡2からの光を検知して観察対象の画像データを生成し、当該画像データに画像処理を施す。そして、画像処理が施された画像データに対応する出力信号を表示装置5に出力する。撮像装置3には、内視鏡端子3aが設けられている(図1参照)。内視鏡端子3aに内視鏡2のイメージガイドプラグ23bを接続することにより、撮像装置3に対して内視鏡2が接続される。撮像装置3は、接眼レンズ30と、イメージセンサ31と、画像生成部32と、画像処理部33と、出力信号生成部34とを有している。
[Imaging device]
FIG. 5 is a functional block diagram of the
(接眼レンズ)
接眼レンズ30は、図6に示すように、イメージガイドファイバ212に伝送された光を集光し、観察対象の拡大された像をイメージセンサ31上に結像させる。
(eyepiece)
The
(イメージセンサ)
イメージセンサ31は、接眼レンズ30を介して光を検知し、当該光の強度に応じた電気信号に変換する。イメージセンサ31としては、例えば、CMOS、CCD等を用いることができる。
(image sensor)
The
イメージセンサ31には、複数の画素が設けられている。複数の画素は、行列状に配列されている。本実施形態では、複数の画素の各々には、赤、緑又は青の光を検知する受光素子が、それぞれ1つずつ配置されている。受光素子としては、例えばフォトダイオード等を用いることができる。
The
(画像生成部)
画像生成部32は、イメージセンサ31によって変換された電気信号に基づいて、画像データを生成する。画像データは、画像を表現するためのデータである。画像データは、複数の画素データから構成される。複数の画素データの各々は、画素情報と、色情報とを有している。
(Image generator)
The
画素情報は、複数の画素データの各々に対応する画素を特定する情報である。画素情報は、例えば一の整数i(i=1~Np)で表現さてもよい。Npは、イメージセンサ31に設けられた画素の数に対応する値である。または、画素情報は、画素が配置された行及び列を示す二の整数m及びn(m=1~Nr、n=1~Nc)で表現されてもよい。Nr及びNcはそれぞれ、イメージセンサ31に行列状に配置された複数の画素の行及び列の数に対応する値である。
The pixel information is information specifying a pixel corresponding to each of the plurality of pixel data. Pixel information may be represented by, for example, one integer i (i=1 to Np). Np is a value corresponding to the number of pixels provided in the
色情報は、画素情報によって特定される画素に配置された受光素子が検知した光の色を表現する情報である。色情報は、RGB空間を用いた表現(以下、RGB表現)を用いる。具体的に、RGB表現による色情報は、R、G及びBそれぞれの輝度値で示される。R、G及びBの輝度値はそれぞれ、例えば、0~1の範囲で、256階調で表される。 The color information is information expressing the color of light detected by the light-receiving element arranged in the pixel specified by the pixel information. For color information, representation using the RGB space (hereinafter referred to as RGB representation) is used. Specifically, color information represented by RGB is represented by luminance values of R, G, and B, respectively. The luminance values of R, G, and B are each represented by 256 gradations within a range of 0 to 1, for example.
本実施形態では、複数の画素データの各々は、RGB表現による色情報(R(i)、G(i)、B(i))を有している。iは、対応する画素情報である。R(i)、G(i)及びB(i)はそれぞれ、画素情報iで特定される画素に配置された、赤、緑及び青の光を検知する受光素子が出力した電気信号に基づいて定められる。 In this embodiment, each of the plurality of pixel data has color information (R(i), G(i), B(i)) expressed in RGB. i is the corresponding pixel information. R(i), G(i), and B(i) are based on electrical signals output from light receiving elements that detect red, green, and blue light, respectively, arranged in pixels specified by pixel information i. Determined.
後述する本実施形態の画像処理方法において、画像生成部32が生成する画像データは、基準画像データ及び観察画像データである。基準画像データは、内視鏡システム1に対してキャリブレーションを施すための画像データである。基準画像データは、予め用意された基準面を撮影して生成された画像データである。基準面は、単色且つ無彩色である色が施された平板等の表面である。
In the image processing method of this embodiment, which will be described later, the image data generated by the
観察画像データは、観察対象を撮影して生成された画像データである。観察画像データは、所定の時間間隔で、複数生成される。複数の観察画像データの各々は、表示装置5に観察対象の動画を表示するためのフレームのもとになる画像データである。
Observation image data is image data generated by photographing an observation target. A plurality of observation image data are generated at predetermined time intervals. Each of the plurality of observed image data is image data that forms a frame for displaying a moving image of an observation target on the
以下、単に「画像データ」と呼称する場合、基準画像データ及び観察画像データのいずれも当てはまる。 Hereinafter, when simply referred to as "image data", both reference image data and observation image data are applicable.
(画像処理部)
画像処理部33は、画像生成部32によって生成された画像データに対し、輝度ムラ補正、色ムラ補正、及び平滑化を施す。
(Image processing unit)
The
輝度ムラ補正は、輝度ムラを除去又は低減させるために画像データに施す処理である。輝度ムラとは、表示装置5に表示された画像(以下、表示画像)の各所における明るさのばらつきをいう。以下、輝度ムラが生じる原因について説明する。 Brightness unevenness correction is processing performed on image data in order to remove or reduce brightness unevenness. The luminance unevenness refers to variations in brightness at various locations in an image displayed on the display device 5 (hereinafter referred to as a display image). The cause of uneven brightness will be described below.
コア212aに入射した光は、コア212aとクラッド212bとの界面で全反射を繰り返しながら伝搬する。しかし、イメージガイドファイバ212の製造工程において生じるばらつきや、長期間の使用に伴う変形や劣化等により、コア212aを伝搬する光が、コア212aとクラッド212bとの界面で全反射せず、その一部がクラッド212b側へ入射する場合がある。このような場合、基準面や観察対象が単色であっても、その表面で反射し、コア212aに入射して伝搬し、イメージセンサ31へ到達する光の量は、コア212a毎にばらつきがある。
The light incident on the
このため、画像データに対して、輝度ムラ補正を施さないと、表示画像に輝度ムラが生じる場合がある。輝度ムラ補正の具体的な処理の手順については後述する。 Therefore, if the image data is not subjected to luminance unevenness correction, luminance unevenness may occur in the displayed image. A specific processing procedure for luminance unevenness correction will be described later.
尚、本実施形態の輝度ムラ補正によって、所謂網目模様を実質的に除去することができる。網目模様とは、クラッド212bに起因して、表示画像に生じる網目状の模様をいう。以下、網目模様が生じる原因について説明する。
It should be noted that the so-called mesh pattern can be substantially removed by the luminance unevenness correction of this embodiment. A mesh pattern refers to a mesh-like pattern that occurs in a display image due to the
クラッド212b側へ入射した光の一部は、クラッド212bを伝搬してイメージセンサ31へ到達する。クラッド212bを伝搬してイメージセンサ31へ到達する光の量は、複数のコア212aを伝搬してイメージセンサ31へ到達する光の量に比べて微小である。このため、表示装置5に表示される観察対象の画像において、クラッド212bに対応する領域の輝度が他の領域の輝度に比べて低くなる。これにより、クラッド212bに対応する領域が、網目模様として視認される。
Part of the light incident on the clad 212 b side propagates through the clad 212 b and reaches the
また、色ムラ補正は、色ムラを除去又は低減させるために、画像データに施す処理である。色ムラとは、表示画像の各所における色彩のばらつきをいう。以下、色ムラが生じる原因について説明する。 Further, color unevenness correction is processing performed on image data in order to remove or reduce color unevenness. Color unevenness refers to variations in color at various locations in a displayed image. The cause of color unevenness will be described below.
前述のように、コア212aを伝搬する光が、コア212aとクラッド212bとの界面で全反射せず、その一部がクラッド212b側へ入射する場合がある。このとき、一部の波長領域の光のみがクラッド212b側へ入射する場合がある。このような場合、観察対象の表面が無彩色であっても、当該観察対象の表面で反射し、コア212aに入射して伝搬し、イメージセンサ31へ到達する光は、有彩色となる場合がある。
As described above, the light propagating through the
このため、画像データに対して、色ムラ補正を施さないと、表示装置5に表示される観察対象の画像に色ムラが生じる場合がある。色ムラ補正の具体的な処理の手順については後述する。
Therefore, if the image data is not subjected to color unevenness correction, color unevenness may occur in the image of the observation target displayed on the
平滑化は、表示装置5に表示される観察対象の画像からノイズを除去したり、当該画像をぼかしたりするための処理である。平滑化は、例えば、行列状に配列された複数の画素の各々に対応する画素データの色情報を、その画素を中心とした複数の画素(例えば、9個又は25個)の画素データの色情報の平均値に置き換えることによって実現できる。平滑化は、所定の平滑化フィルタを用いて実行する。所定の平滑化フィルタは、コア212aの径、コア212aの密度、接眼レンズ30の像倍率及びイメージセンサ31の画素の密度に基づいて決定される。
Smoothing is a process for removing noise from the image of the observation target displayed on the
コア212aの密度とは、ジャケット212cの内部におけるコア212aの数密度であり、具体的には、コア212aの本数を、ジャケット212cの内部の断面積で除した数である。画素の密度とは、例えば1インチあたりに配置される画素の数(ppi)で定義される密度である。
The density of the
平滑化において、平均値を取るための画素の数が大きいほど、網目模様の低減具合は大きくなるが、表示画像の解像度の劣化具合が大きくなる。 In smoothing, the greater the number of pixels for taking the average value, the greater the reduction of the mesh pattern, but the greater the deterioration of the resolution of the displayed image.
特に、平滑化において、平均値を取るための画素の数を増加させることにより、網目模様を実質的に除去することができるが、表示画像の解像度が著しく劣化する。 In particular, in smoothing, by increasing the number of pixels to be averaged, the cross-hatch pattern can be substantially eliminated, but the resolution of the displayed image is significantly degraded.
一方、表示画像の解像度の劣化が肉眼で視認することができない条件での平滑化(弱い平滑化)を実行した場合、肉眼で容易に視認できる程度の網目模様が残る。しかし、弱い平滑化とともに、輝度ムラ補正を実行した場合、表示画像の解像度の劣化を抑えた上で、網目模様を除去することができる。平滑化の具体的な処理の手順については後述する。 On the other hand, when the smoothing (weak smoothing) is performed under the condition that the degradation of the resolution of the display image cannot be visually recognized with the naked eye, a mesh pattern that is easily visible with the naked eye remains. However, when luminance non-uniformity correction is performed along with weak smoothing, the mesh pattern can be removed while suppressing deterioration of the resolution of the displayed image. A specific processing procedure for smoothing will be described later.
尚、本明細書において、画像生成部32によって生成された直後の画像データに対して画像処理を施した後の画像データについて、「画像処理が施された画像データ」等と呼称する。ここでの「画像処理」は、輝度ムラ補正、色ムラ補正又は平滑化のいずれか一以上の画像処理を含む。
In this specification, the image data immediately after being generated by the
画像処理部33が輝度ムラ補正及び色ムラ補正を実行する手順について説明する前に、YUV表現について説明する。なお、輝度ムラ補正と色ムラ補正を実行する手順について、以下の説明ではYUV色空間を用いた方法で説明を行うが、用いられる色空間についてはこれに限定されるものではない。輝度の指標と彩度の指標を数値的に表現可能な色空間であればどのような色空間を用いても良く、たとえば、RGB空間、CIE-XYZ表色系、CIE-L*a*b色空間、HSI空間6角錐モデル(HSV)、HSI空間双6角錐モデル(HSL)などを用いても良い。また、各々の色空間での色情報の線形もしくは非線形変換を行った色空間を用いても良い。画像処理部33は、輝度ムラ補正及び色ムラ補正を実行する際に、YUV表現を用いて処理を実行する。具体的に、画像処理部33は、先ず、RGB表現による画像データの色情報を、YUV表現による色情報に変換する。
Before describing the procedure for the
YUV表現による色情報は、Y、U及びVで示される。Y、U及びVは、RGB表現による色情報に、所定の線形変換を施すことによって得られる。所定の線形変換の定義は幾つか提案されている。以下の説明では、ITU-R BT.709の定義を用いて説明を行うが、これに限定されるものではなく、ITU-R BT.601やPAL規格、などを用いても良い。ITU-R BT.709の定義によるYUV表現による色情報は、RGB表現による色情報に対して以下の線形変換を施すことにより得られる。 Color information in YUV representation is indicated by Y, U and V. Y, U, and V are obtained by applying a predetermined linear transformation to color information represented by RGB. Several definitions of the given linear transformation have been proposed. In the following description, the definition of ITU-R BT.709 will be used, but the definition is not limited to ITU-R BT.709. 601, PAL standard, or the like may be used. Color information in YUV representation defined by ITU-R BT.709 is obtained by performing the following linear transformation on color information in RGB representation.
Y=0.2126R+0.7152G+0.0722B
U=0.5389(B-Y)=-0.1146R-0.3854G+0.5000B
V=0.6350(R-Y)=0.5000R-0.4542G-0.0458B
Y=0.2126R+0.7152G+0.0722B
U=0.5389(BY)=-0.1146R-0.3854G+0.5000B
V=0.6350(RY)=0.5000R-0.4542G-0.0458B
また、RGB表現による色情報は、ITU-R BT.709の定義によれば、YUV表現による色情報に対して以下の線形変換を施すことにより得られる。
R=Y+1.575V
G=Y-0.187U-0.468V
B=Y+1.856U
According to the definition of ITU-R BT.709, color information represented by RGB is obtained by performing the following linear transformation on color information represented by YUV.
R=Y+1.575V
G=Y-0.187U-0.468V
B = Y + 1.856U
Yは、色情報が表現する色の輝度を示す値である。U及びVが0である場合のYUV表現での色情報(Y,U,V)=(Y,0,0)は、輝度がYである無彩色に対応する。また、Yが0である場合のYUV表現での色情報(Y,U,V)=(0,U,V)は、RGB表現では(R,G,B)=(0,0,0)となることから、黒に対応する。 Y is a value indicating the brightness of the color represented by the color information. Color information (Y, U, V)=(Y, 0, 0) in YUV representation when U and V are 0 corresponds to an achromatic color whose luminance is Y. Also, color information (Y, U, V)=(0, U, V) in YUV representation when Y is 0 is (R, G, B)=(0, 0, 0) in RGB representation. Therefore, it corresponds to black.
Uは、それが0である場合の色情報(Y,0,V)と比べた場合の、相対的なBの輝度を示す値である。Vは、それが0である場合の色情報(Y,U,0)と比べた場合の、相対的なRの輝度を示す値である。 U is a value that indicates the relative B luminance when compared to the color information (Y, 0, V) when it is 0; V is a value that indicates the relative R luminance when compared to the color information (Y, U, 0) when it is 0;
本明細書において、YUV表現による色情報(Y,U,V)のYを「輝度成分」と呼称し、U及びVを「色差成分」と呼称することがある。 In this specification, Y of color information (Y, U, V) in YUV representation may be referred to as "luminance component", and U and V may be referred to as "chrominance components".
輝度ムラ補正及び色ムラ補正の処理において、基準画像データを構成する複数の画素データの各々の色情報(Yc(i),Uc(i),Vc(i))を用いる。ここで、iは画素を特定するための番号であり、前述のように、iは1~Npの整数である(以下、同様)。 Color information (Yc(i), Uc(i), Vc(i)) of each of the plurality of pixel data constituting the reference image data is used in the process of luminance unevenness correction and color unevenness correction. Here, i is a number for specifying a pixel, and as described above, i is an integer from 1 to Np (the same applies hereinafter).
単色である基準面で反射する光の色情報は、当該基準面に亘って均一である。しかし、当該基準面で反射し、複数のコア212aを伝搬してイメージセンサ31に到達した光の輝度は、前述の理由により、均一になるとは限らない。
The color information of light reflected from a monochromatic reference surface is uniform across the reference surface. However, the brightness of the light reflected by the reference surface, propagated through the plurality of
従って、基準面が単色であっても、イメージセンサ31に到達した光の輝度成分Yc(i)は、全てのi(i=1~Np)について一定であるとは限らない。
Therefore, even if the reference plane is monochromatic, the luminance component Yc(i) of the light reaching the
また、無彩色である基準面で反射する光の色情報は、色差成分が0となる。しかし、前述のように、基準面で反射し、複数のコア212aを伝搬してイメージセンサ31に到達した光は、有彩色になる場合がある。
Further, the color difference component of the color information of the light reflected by the achromatic reference plane is zero. However, as described above, the light that is reflected by the reference surface, propagates through the plurality of
従って、基準面が無彩色であっても、イメージセンサ31に到達した光の色差成分Uc(i)及びVc(i)は、0であるとは限らない。
Therefore, even if the reference surface is achromatic, the color difference components Uc(i) and Vc(i) of the light reaching the
以下、画像処理部33が実行する輝度ムラ補正の具体的な処理の手順について説明する。輝度ムラ補正は、画像処理部33が、輝度ムラ補正演算を導出し、画像データに対し、当該輝度ムラ補正演算を施すことによって実現される。
A specific process procedure for luminance unevenness correction performed by the
輝度ムラ補正演算は、それを基準画像データに対して施した場合に、当該基準画像データを構成する複数の画素データの各々の色情報の輝度成分を均一にする演算である。 The luminance unevenness correction calculation is a calculation that, when applied to the reference image data, uniforms the luminance components of the color information of each of the plurality of pixel data constituting the reference image data.
以下、画像処理部33が、輝度ムラ補正演算を導出する処理について説明し、次いで、輝度ムラ補正演算を画像データに施す処理について説明する。
Hereinafter, the process of deriving the uneven brightness correction calculation by the
輝度ムラ補正演算は、輝度ムラ補正値を用いた演算である。輝度ムラ補正演算を導出するために、先ず、輝度ムラ補正値を取得する。 The brightness non-uniformity correction calculation is a calculation using a brightness non-uniformity correction value. In order to derive the luminance non-uniformity correction calculation, first, the luminance non-uniformity correction value is obtained.
輝度ムラ補正値は、予め設定された輝度値であるY0、及び基準画像データを構成する複数の画素データの各々の色情報(Yc(i),Uc(i),Vc(i))の輝度成分Yc(i)である。 The brightness unevenness correction value is the brightness of Y0, which is a brightness value set in advance, and the color information (Yc(i), Uc(i), Vc(i)) of each of the plurality of pixel data constituting the reference image data. component Yc(i).
輝度ムラ補正演算は、具体的には、任意の画像データを構成する複数の画素データの各々の色情報(Y(i),U(i),V(i))の輝度成分に、Y0/Yc(i)を乗じることにより、色情報(Y(i)Y0/Yc(i),U(i),V(i))に変換する演算である。 Specifically, the luminance unevenness correction calculation is performed by adding Y0/ By multiplying Yc(i), it is an operation for converting into color information (Y(i)Y0/Yc(i), U(i), V(i)).
輝度ムラ補正演算を、基準画像データを構成する複数の画素データの各々に施すと、その色情報(Yc(i),Uc(i),Vc(i))が、(Y0,Uc(i),Vc(i))に変換される。つまり、前述のように、輝度ムラ補正演算によって、基準画像データを構成する複数の画素データの全ての色情報の輝度成分は均一になる。 When luminance unevenness correction calculation is applied to each of a plurality of pixel data constituting the reference image data, the color information (Yc(i), Uc(i), Vc(i)) becomes (Y0, Uc(i) , Vc(i)). In other words, as described above, the luminance unevenness correction calculation makes the luminance components of all the color information of the plurality of pixel data forming the reference image data uniform.
次いで、画像処理部33が実行する色ムラ補正の具体的な処理の手順について説明する。色ムラ補正は、画像処理部33が、色ムラ補正演算を導出し、画像データに対し、当該色ムラ補正演算を施すことによって実現される。
Next, a specific processing procedure of color unevenness correction executed by the
色ムラ補正演算は、それを基準画像データに対して施した場合に、基準画像データを構成する複数の画素データの各々の色情報の色差成分を除去する演算である。 The color unevenness correction operation is an operation for removing the color difference component of the color information of each of the plurality of pixel data forming the reference image data when it is applied to the reference image data.
以下、画像処理部33が、色ムラ補正値演算を導出する処理について説明し、次いで、色ムラ補正演算を画像データに施す処理について説明する。
Hereinafter, the process of deriving the color unevenness correction value calculation by the
色ムラ補正演算は、色ムラ補正値を用いた演算である。色ムラ補正演算を導出するために、先ず、色ムラ補正値を取得する。 The color nonuniformity correction calculation is a calculation using color nonuniformity correction values. In order to derive the color non-uniformity correction calculation, first, the color non-uniformity correction value is obtained.
色ムラ補正値は、基準画像データを構成する複数の画素データの各々の色情報(Yc(i),Uc(i),Vc(i))の色差成分Uc(i)及びVc(i)である。 The color unevenness correction value is the color difference components Uc(i) and Vc(i) of the color information (Yc(i), Uc(i), Vc(i)) of each of the plurality of pixel data constituting the reference image data. be.
色ムラ補正演算は、具体的には、画像データを構成する複数の画素データの各々の色情報(Y(i),U(i),V(i))のU(i)を、色差補正値Uc(i)だけ減じ、V(i)を、色差補正値Vc(i)だけ減じる演算である。 Specifically, the color unevenness correction calculation is performed by correcting U(i) of the color information (Y(i), U(i), V(i)) of each of the plurality of pixel data constituting the image data. This is an operation for subtracting the value Uc(i) and subtracting V(i) by the color difference correction value Vc(i).
色ムラ補正演算を、基準画像データを構成する複数の画素データの各々に施すと、その色情報(Yc(i),Uc(i),Vc(i))を、(Yc(i),0,0)と変換する。つまり、前述のように、色ムラ補正演算によって、基準画像データを構成する複数の画素データの全ての色情報の色差成分は除去される。 When the color unevenness correction calculation is applied to each of the plurality of pixel data constituting the reference image data, the color information (Yc(i), Uc(i), Vc(i)) is converted to (Yc(i), 0 , 0). That is, as described above, the color difference components of all the color information of the plurality of pixel data forming the reference image data are removed by the color unevenness correction calculation.
以上、輝度ムラ補正、色ムラ補正及び平滑化について説明したが、画像処理部33は、輝度補正、コントラスト補正、ホワイトバランス補正、ガンマ補正のような画像処理を施すこともできる。これらの処理については公知の手法を用いることが可能である。
Although brightness unevenness correction, color unevenness correction, and smoothing have been described above, the
(出力信号生成部)
出力信号生成部34は、画像処理部33によって処理された画像データに基づく出力信号を生成し、当該出力信号を表示装置5に出力する。
(output signal generator)
The
[光源装置]
光源装置4は、観察対象を照明するための光をライトガイドファイバ213に供給する。光源装置4には、ソケット4aが設けられている(図1参照)。ソケット4aに内視鏡2のライトガイドプラグ23cを接続することにより、光源装置4に対して内視鏡2が接続される。これによって、光源装置4は、観察対象を照明するための光をライトガイドファイバ213に供給することができる。光源装置4は、光を発生させるLEDもしくはハロゲンランプ等の光源を有する。
[Light source device]
The
[表示装置]
表示装置5は、出力信号生成部34が出力した出力信号に基づいて、観察対象の画像を表示する。
[Display device]
The
<画像処理方法>
本実施形態の撮像装置3が実行する画像処理方法について、詳細に説明する。図7は、本実施形態の画像処理方法を説明するフローチャートである。
<Image processing method>
The image processing method executed by the
本実施形態の画像処理方法は、基準画像データを生成するステップS1と、輝度ムラ補正演算を導出するステップS2と、色ムラ補正演算を導出するステップS3と、観察画像データを生成するステップS4と、輝度ムラ補正演算を施すステップS5と、色ムラ補正演算を施すステップS6と、平滑化するステップS7と、表示画面に表示するステップS8とを含む。以下、それぞれについて詳述する。 The image processing method of the present embodiment comprises step S1 of generating reference image data, step S2 of deriving brightness non-uniformity correction calculation, step S3 of deriving color non-uniformity correction calculation, and step S4 of generating observed image data. , a step S5 of performing brightness unevenness correction calculation, a step S6 of performing color unevenness correction calculation, a smoothing step S7, and a step S8 of displaying on the display screen. Each will be described in detail below.
1.基準画像データを生成するステップS1
ステップS1において、画像生成部32は、基準画像データを生成する。
1. Step S1 of generating reference image data
In step S1, the
具体的に、内視鏡2が接続された状態で観察者が光源装置4のスイッチをオンに切り替えた場合、光源装置4は光を発生させ、ライトガイドファイバ213に供給する。ライトガイドファイバ213は、供給された光を伝播し、内視鏡2の先端部から出射するので、観察者は、内視鏡2を基準面に向ける。これによって、光源装置4は、ライトガイドファイバ213を介して基準面を照明する。この状態で、観察者は、撮像装置3のキャリブレーションボタン(図示せず)を押す。これに応じて、画像生成部32は、基準画像データを生成する。つまり、画像生成部32は、基準画像データを構成する複数の画素データの各々の画素情報及び色情報(Rc(i),Gc(i),Bc(i))を生成する。
Specifically, when the observer switches on the
2.輝度ムラ補正演算を導出するステップS2
ステップS2において、画像処理部33は、輝度ムラ補正演算を導出する。
2. Step S2 of deriving luminance unevenness correction calculation
In step S2, the
具体的に、先ず、ステップS1で画像生成部32によって生成された基準画像データを構成する複数の画素データの各々の色情報(Rc(i),Gc(i),Bc(i))を、YUV空間で表現される色情報(Yc(i),Uc(i),Vc(i))に変換する。
Specifically, first, the color information (Rc(i), Gc(i), Bc(i)) of each of the plurality of pixel data constituting the reference image data generated by the
そして、画像処理部33は、輝度ムラ補正値として、予め設定された輝度値Y0、及び色情報の輝度成分Yc(i)を取得する。
Then, the
3.色ムラ補正演算を導出するステップS3
ステップS3において、画像処理部33は、色ムラ補正演算を導出する。
3. Step S3 for Deriving Color Unevenness Correction Calculation
In step S3, the
先ず、画像処理部33は、色ムラ補正値として、基準画像データを構成する複数の画素データの各々の色情報(Yc(i),Uc(i),Vc(i))の色差成分Uc(i)及びVc(i)を取得する。
First, the
4.観察画像データを生成するステップS4
ステップS4において、画像生成部32は、観察画像データを生成する。
4. Step S4 of generating observation image data
In step S4, the
具体的に、ステップS4では、観察者は、光源装置4のスイッチをオンに維持する。そうすると、光源装置4からの光が、内視鏡2のライトガイドファイバ213を伝搬し、内視鏡2の先端部から出射する状態が維持されるので、観察者は、内視鏡2を観察対象に向ける。これによって、光源装置4は、ライトガイドファイバ213を介して観察対象を照明する。この状態で、観察者が、撮像装置3の撮影ボタン(図示せず)を押すことによって、撮像装置3は、観察を開始する。これに応じて、画像生成部32は、観察対象の画像データを生成する。つまり、観察画像データを構成する複数の画素データの各々の画素情報及び色情報(Y´(i),U´(i),V´(i))が得られる。
Specifically, in step S4, the observer keeps the switch of the
5.輝度ムラ補正演算を施すステップS5
ステップS5において、画像処理部33は、観察対象の画像データを構成する複数の画素データの各々に、輝度ムラ補正演算を施す。
5. Step S5 of performing luminance unevenness correction calculation
In step S5, the
具体的に、画像処理部33は、画素データの各々の色情報(Y´(i),U´(i),V´(i))に対し、ステップS2で導出した輝度ムラ補正演算を施し、(Y´(i)Y0/Yc(i),U´(i),V´(i))に変換する。
Specifically, the
6.色ムラ補正演算を施すステップS6
ステップS6において、画像処理部33は、観察対象の画像データを構成する複数の画素データの各々に、色ムラ補正演算を施す。
6. Step S6 for color unevenness correction calculation
In step S6, the
具体的に、観察対象の画像データを構成する複数の画素データの各々の色情報(Y´(i),U´(i),V´(i))に、ステップS3で導出した色ムラ補正演算を施し、以下のように変換する。
(Y´(i),U´(i),V´(i))→(Y´(i),U´(i)-Uc(i),V´(i)-Vc(i))
Specifically, the color unevenness correction derived in step S3 is applied to each of the color information (Y'(i), U'(i), V'(i)) of the plurality of pixel data constituting the image data to be observed. Perform calculations and convert as follows.
(Y'(i), U'(i), V'(i)) → (Y'(i), U'(i)-Uc(i), V'(i)-Vc(i))
7.平滑化するステップS7
ステップS7において、画像処理部33は、観察対象の画像データを構成する複数の画素データの各々を平滑化する。
7. Smoothing step S7
In step S7, the
8.表示装置に表示するステップS8
ステップS8において、出力信号生成部34は、ステップS5~S7までの画像処理が施された観察画像データに基づく出力信号を生成し、当該出力信号を表示装置5に出力する。ステップS5~S7までの画像処理が施された観察画像データを、観察対象の一フレームの画像データとする。表示装置5は、当該出力信号に基づいて、観察対象の一フレームの画像を表示する。
8. Step S8 of displaying on the display device
In step S8, the
以上のステップにより、一フレームの画像データについて、本実施形態の画像処理方法が実行される。観察対象の観察を終了せずに継続する場合(ステップS9:No)は、ステップS4に戻り、後続するフレームの画像データについて同様の処理を行う。つまり、後続するフレームの画像データに対しても、ステップS2で導出した色ムラ補正演算及びステップS3で導出した色ムラ補正演算を用いた画像処理を施す。 Through the above steps, the image processing method of this embodiment is executed for one frame of image data. If the observation of the observation target is to be continued without ending (step S9: No), the process returns to step S4, and similar processing is performed on the image data of subsequent frames. That is, the image data of the succeeding frame is also subjected to image processing using the color unevenness correction calculation derived in step S2 and the color unevenness correction calculation derived in step S3.
尚、本実施形態の内視鏡システム1による画像処理方法の各ステップは、上記の順番に限定されるものではない。例えば、輝度ムラ補正演算を施すステップS5、色ムラ補正演算を施すステップS6、及び平滑化するステップS7を実行する順番は任意である。
Note that each step of the image processing method by the
また、色ムラ補正演算を施すステップS6及び平滑化するステップS7は任意のステップである。 Further, the step S6 of performing color unevenness correction calculation and the step S7 of smoothing are optional steps.
以上から明らかなように、本実施形態の画像処理方法は、観察対象の表面で反射した後に入射した光を伝送する複数のコア212aを含むイメージガイドファイバ212を有する内視鏡2と、内視鏡2を接続可能であり、接眼レンズ30を介して光を検知して電気信号に変換するイメージセンサ31及びイメージセンサ31によって変換された電気信号に基づいて、複数の画素データから構成される画像データを生成する画像生成部32を有する撮像装置3と、を備える内視鏡システム1における画像処理方法であって、基準面を撮影して基準画像データを生成するステップと、基準画像データを構成する複数の画素データの各々の輝度成分を均一にする輝度ムラ補正演算を導出するステップと、観察対象を撮影して観察画像データを生成するステップと、観察画像データを構成する複数の画素データの各々に、輝度ムラ補正演算を施すステップとを含む。
As is clear from the above, the image processing method of the present embodiment includes an
このような画像処理方法によれば、複数の画素データの内、クラッド212bに対応する領域の複数の画素データの各々に対しても輝度ムラ補正が施される。クラッド212bに対応する領域の複数の画素データの補正前の輝度は、コア212aに対応する領域の複数の画素データの補正前の輝度に比べて低い。しかし、輝度ムラ補正によって、クラッド212bに対応する領域の複数の画素データの補正後の輝度は、コア212aに対応する領域の複数の画素データの補正後の輝度と同程度になる。その結果、表示装置5に表示される表示画像の網目模様が実質的に除去される。また、複数の画素データの各々に輝度ムラ補正演算を施しているため、表示画像の解像度の劣化を抑えることができる。
According to such an image processing method, among the plurality of pixel data, each of the plurality of pixel data in the region corresponding to the clad 212b is also subjected to luminance unevenness correction. The pre-correction brightness of the plurality of pixel data in the region corresponding to the
つまり、このような画像処理方法によれば、内視鏡システム1によって表示される画像の解像度の劣化を抑えた上で、網目模様を実質的に除去することができる。なお、網目模様を実質的に除去するとは、網目模様を肉眼で視認することが困難な程度に低減することをいう。
That is, according to such an image processing method, it is possible to substantially remove the mesh pattern while suppressing degradation in resolution of the image displayed by the
また、上記画像処理方法において、基準面は、無彩色であり、画像処理方法は、基準画像データを構成する複数の画素データの各々の色差成分を除去する色ムラ補正演算を導出するステップと、観察画像データを構成する複数の画素データの各々に、色ムラ補正演算を施すステップと、を含む。 Further, in the above image processing method, the reference surface is achromatic, and the image processing method includes the step of deriving a color unevenness correction operation for removing color difference components of each of the plurality of pixel data constituting the reference image data; and a step of performing a color unevenness correction operation on each of the plurality of pixel data constituting the observed image data.
このような画像処理方法によれば、更に、内視鏡システム1によって表示される画像の色ムラを除去することができる。
According to such an image processing method, color unevenness in the image displayed by the
また、上記画像処理方法において、観察画像データを構成する複数の画素データの各々を、コア212aの径、コア212aの密度、接眼レンズ30の像倍率及びイメージセンサ31の画素密度に基づいて決定された平滑化フィルタを用いて平滑化するステップを含む。
Further, in the above image processing method, each of the plurality of pixel data constituting the observed image data is determined based on the diameter of the
このような画像処理方法によれば、更に、内視鏡システム1によって表示される画像の網目模様を除去することができる。
According to such an image processing method, the mesh pattern of the image displayed by the
本実施形態の撮像装置3は、各々が光を検知して電気信号に変換するイメージセンサ31と、イメージセンサ31によって変換された電気信号に基づいて、複数の画素データから構成される画像データを生成する画像生成部32と、基準面を撮影して得られた基準画像データを構成する複数の画素データの各々の輝度成分を均一にする輝度ムラ補正演算を導出し、観察対象を撮影して得られた観察対象の画像データを構成する複数の画素データの各々に輝度ムラ補正演算を施す画像処理部33と、を備える。
The
このような撮像装置3によれば、表示装置5に表示される画像の画質の劣化を抑えた上で、輝度ムラを除去し、網目模様を実質的に除去することができる。
According to such an
また、上記撮像装置3において、画像処理部33は、基準画像データを構成する複数の画素データの各々の色差成分を除去する色ムラ補正演算を導出し、観察対象の画像データを構成する複数の画素データの各々に色ムラ補正演算を更に施す。
Further, in the
このような撮像装置3によれば、更に、表示装置5に表示される画像の色ムラを除去することができる。
According to such an
また、上記撮像装置3において、画像処理部33は、観察対象の画像データを構成する複数の画素データの各々を平滑化する。
Further, in the
このような撮像装置3によれば、更に、表示装置5に表示される画像の網目模様を除去することができる。
According to such an
<変形例>
本実施形態では、撮像装置3が画像処理部33を備える態様を示したが、これに限られない。変形例として、撮像装置3とは別の構成として、撮像装置3に接続可能な画像処理装置を備え、当該画像処理装置が本実施形態の画像処理部33と同様の機能を有する画像処理部を備える態様としてもよい。
<Modification>
Although the
変形例の画像処理装置は、基準面を撮影して得られた基準画像データを構成する複数の画素データの各々の輝度成分を均一にする輝度ムラ補正演算を導出し、観察対象を撮影して得られた観察画像データを構成する複数の画素データの各々に輝度ムラ補正演算を施す。 The image processing apparatus of the modified example derives a luminance non-uniformity correction calculation that uniforms the luminance components of each of the plurality of pixel data constituting the reference image data obtained by photographing the reference plane, and photographs the observation target. A luminance non-uniformity correction operation is performed on each of a plurality of pixel data constituting the obtained observed image data.
このような画像処理装置によれば、表示装置5に表示される画像の画質の劣化を抑えた上で、輝度ムラを除去し、網目模様を実質的に除去することができる。
According to such an image processing apparatus, it is possible to suppress the degradation of the image quality of the image displayed on the
また、上記画像処理装置において、基準画像データを構成する複数の画素データの各々の色差成分を除去する色ムラ補正演算を導出し、観察対象の画像データを構成する複数の画素データの各々に色ムラ補正演算を更に施す。 Further, in the above image processing apparatus, a color unevenness correction operation for removing color difference components of each of the plurality of pixel data constituting the reference image data is derived, and each of the plurality of pixel data constituting the image data of the observation object is colored. Non-uniformity correction calculation is further performed.
このような画像処理装置によれば、更に、表示装置5に表示される画像の色ムラを除去することができる。
According to such an image processing apparatus, it is possible to further eliminate color unevenness in the image displayed on the
また、上記画像処理装置において、観察対象の画像データを構成する複数の画素データの各々を平滑化する。 Further, in the image processing apparatus, each of the plurality of pixel data forming the image data of the observation target is smoothed.
このような画像処理装置によれば、更に、表示装置5に表示される画像の網目模様を除去することができる。
According to such an image processing device, it is possible to further remove the mesh pattern from the image displayed on the
観察対象を撮影して、表示装置5に表示された当該観察対象の画像(以下、表示画像)について評価を行った。具体的には、いずれの画像処理も施さない場合の表示画像と比較し、各画像処理条件による表示画像の、輝度ムラの低減具合、色ムラの低減具合、網目模様の低減具合及び解像度の劣化具合について評価を行った。 An observation target was photographed, and an image of the observation target displayed on the display device 5 (hereinafter referred to as a display image) was evaluated. Specifically, compared with the displayed image when no image processing is performed, the degree of reduction in luminance unevenness, the degree of color unevenness, the degree of reduction in mesh patterns, and the deterioration in resolution of the displayed image under each image processing condition. I evaluated the condition.
これらの評価は、観察者の目視により行った。図8は、実施例1~3及び比較例1~5の画像処理条件及び得られた表示画像についての評価結果をまとめた表である。以下、詳細に説明する。 These evaluations were made visually by an observer. FIG. 8 is a table summarizing the image processing conditions of Examples 1 to 3 and Comparative Examples 1 to 5 and the evaluation results of the display images obtained. A detailed description will be given below.
[共通条件]
実施例1~3及び比較例1~5に共通する条件について説明する。基準画像を得るための基準面としては、白色の板の表面を用いた。観察対象としては、人間の手のひらを用いた。手のひらを開いた状態で、その手のひらの中央部に内視鏡の挿入部を正対させた状態で、手のひらを観察した。
[Common conditions]
Conditions common to Examples 1 to 3 and Comparative Examples 1 to 5 will be described. The surface of a white plate was used as a reference plane for obtaining a reference image. A human palm was used as an observation object. The palm was observed with the palm open and the insertion site of the endoscope facing the center of the palm.
本実施例では、内視鏡としては、ファイバーテック社製涙道ファイバースコープを用いた。撮像装置としては、ファイバーテック社製3CMOS HDカメラ FC-304を用い、画像処理部を制御するプログラムを、上記実施形態と同様の制御を実行させるよう調整した。光源装置としてはファイバーテック社製 光源装置 FL-301を用いた。表示装置としては、池上通信機社製MLW-2425Cを用いた。 In this example, a lacrimal fiberscope manufactured by Fibertech was used as an endoscope. A 3CMOS HD camera FC-304 manufactured by Fibertech Co., Ltd. was used as the imaging device, and the program for controlling the image processing unit was adjusted to execute the same control as in the above embodiment. A light source device FL-301 manufactured by Fiber Tech was used as the light source device. As the display device, MLW-2425C manufactured by Ikegami Tsushinki Co., Ltd. was used.
内視鏡において、イメージガイドファイバの径は、0.35mmである。イメージガイドファイバが有するコアは10000本である。コアの各々の径は3.5±0.5μmである。コアの密度は、100000本/mm2である。 In an endoscope, the diameter of the image guide fiber is 0.35 mm. The image guide fiber has 10000 cores. Each core has a diameter of 3.5±0.5 μm. The core density is 100,000/mm 2 .
撮像装置において、イメージセンサには、3mm×5.4mmの領域に複数の画素が配列されている。複数の画素は、1080行1920列の行列状に、計2073600個配列されている。画素密度は、900~920ppiである。また、イメージガイドファイバとイメージセンサの間には接眼レンズがあり、イメージガイドファイバに伝送された光による像を拡大してイメージセンサに結像しており、その接眼レンズの像倍率は5.5±1倍とした。 In the imaging device, the image sensor has a plurality of pixels arranged in an area of 3 mm×5.4 mm. A total of 2,073,600 pixels are arranged in a matrix of 1,080 rows and 1,920 columns. The pixel density is 900-920 ppi. An eyepiece lens is provided between the image guide fiber and the image sensor, and the image formed by the light transmitted to the image guide fiber is enlarged and formed on the image sensor. The image magnification of the eyepiece lens is 5.5. ±1 times.
[個別条件]
図8に、各実施例及び各比較例における、輝度ムラ補正及び色ムラ補正の有無を示した。具体的に、処理を実行した場合を「有」で示し、処理を実行しなかった場合を「無」で示している。平滑化については、処理を実行しなかった場合を「無」で示し、実行した場合を「強」または「弱」で示している。「弱」及び「強」はそれぞれ、複数の画素の各々に対応する画素データの色情報を、その画素を中心とした25個及び49個の画素の画素データの色情報の平均値に置き換える平滑化に対応する。「弱」及び「強」をそれぞれ、「弱い平滑化」及び「強い平滑化」と呼称する。
[Individual conditions]
FIG. 8 shows the presence or absence of luminance unevenness correction and color unevenness correction in each example and each comparative example. Specifically, "Yes" indicates that the process was executed, and "No" indicates that the process was not executed. As for the smoothing, "none" indicates that the process was not performed, and "strong" or "weak" indicates that it was performed. ``Weak'' and ``Strong'' are smoothing methods that replace the color information of pixel data corresponding to each of a plurality of pixels with the average value of the color information of pixel data of 25 and 49 pixels centering on that pixel, respectively. correspond to "Weak" and "strong" are referred to as "weak smoothing" and "strong smoothing" respectively.
[評価方法]
網目模様の低減具合、輝度ムラの低減具合、色ムラの低減具合及び解像度の劣化具合について、二重丸、一重丸、三角又はバツの4段階で評価した。
[Evaluation method]
The degree of reduction in mesh pattern, the degree of reduction in luminance unevenness, the degree of reduction in color unevenness, and the degree of deterioration in resolution were evaluated in four stages of double circles, single circles, triangles, and crosses.
ここで、網目模様の低減具合、輝度ムラの低減具合及び色ムラの低減具合については、以下の基準で評価を行った。バツは、顕著に視認できると評価された結果を示す。三角は、バツに比べて低減されているが、肉眼で容易に視認できると評価された結果を示す。一重丸は、実質的に除去されたと評価された結果を示す。実質的に除去されたとは、除去されたわけではないが、肉眼で視認することが困難な程度に低減されたと評価された結果を示す。二重丸は、除去されたと評価された結果を示す。除去されたとは、肉眼で視認することができない程度に低減されたと評価された結果を示す。 Here, the degree of reduction in mesh pattern, the degree of reduction in luminance unevenness, and the degree of reduction in color unevenness were evaluated according to the following criteria. A cross indicates a result rated as significantly visible. Triangles indicate results evaluated as reduced compared to crosses but easily visible to the naked eye. A single circle indicates a result evaluated as being substantially removed. The term "substantially removed" indicates a result evaluated as having been reduced to such an extent that it is difficult to visually recognize with the naked eye, although it is not necessarily removed. Double circles indicate results evaluated as removed. “Removed” indicates a result evaluated as being reduced to the extent that it cannot be visually recognized with the naked eye.
また、解像度の劣化具合については、平滑化が施されていない条件の一つであり、解像度が良好であると評価された比較例1を二重丸とし、これを基準に評価を行った。二重丸は、比較例1に比べて劣化していないと評価された結果を示す。ここで、劣化していないとは、肉眼で劣化を視認することができないことを示す。一重丸は、比較例1に比べて実質的に劣化していないと評価された結果を示す。ここで、実質的に劣化していないとは、劣化はしたが、肉眼で劣化を視認することは困難であることを示す。三角は、肉眼で容易に視認できる程度に劣化したと評価された結果を示す。バツは、著しく劣化したと評価された結果を示す。 Further, regarding the degree of degradation of resolution, Comparative Example 1, which is one of the conditions in which no smoothing is performed and was evaluated as having good resolution, is marked with a double circle, and the evaluation was performed based on this. A double circle indicates a result evaluated as not degraded compared to Comparative Example 1. Here, "not degraded" means that degradation cannot be visually recognized with the naked eye. A single circle indicates a result evaluated as not substantially degraded compared to Comparative Example 1. Here, "substantially not degraded" means that although degraded, it is difficult to visually recognize the degradation with the naked eye. Triangles indicate results evaluated as degraded to the extent that they can be easily visually recognized with the naked eye. A cross indicates a result evaluated as significantly deteriorated.
[評価結果]
図8には、網目模様、輝度ムラ及び色ムラの低減具合並びに解像度の劣化具合についての評価結果が示されている。図9A~16Bには、実施例1~3及び比較例1~5の条件で得られた、基準面及び観察対象の、表示画像を示している。
[Evaluation results]
FIG. 8 shows the evaluation results of the degree of reduction of mesh patterns, luminance unevenness and color unevenness, and the degree of deterioration of resolution. 9A to 16B show displayed images of the reference plane and the observation object obtained under the conditions of Examples 1 to 3 and Comparative Examples 1 to 5. FIG.
(輝度ムラ補正の効果)
実施例1と比較例1との評価結果を比較して、輝度ムラ補正の効果について考察する。図9Aは、実施例1の条件で基準画像に画像処理を施した場合の表示画像である。図9Bは、実施例1の条件で観察画像に画像処理を施した場合の表示画像である。図11Aは、比較例1の条件で基準画像に画像処理を施した、つまりいずれの画像処理も施していない場合の表示画像である。図11Bは、比較例1の条件で観察画像に画像処理を施した、つまりいずれの画像処理も施していない場合の表示画像である。
(Effect of luminance unevenness correction)
By comparing the evaluation results of Example 1 and Comparative Example 1, the effect of luminance unevenness correction will be considered. FIG. 9A is a display image when image processing is performed on the reference image under the conditions of the first embodiment. 9B is a display image when image processing is performed on the observation image under the conditions of Example 1. FIG. FIG. 11A is a display image when the reference image is subjected to image processing under the conditions of Comparative Example 1, that is, when no image processing is performed. FIG. 11B is a display image obtained by subjecting the observation image to image processing under the conditions of Comparative Example 1, that is, when no image processing is performed.
実施例1及び比較例1の表示画像を比較すると、基準画像及び観察画像について、輝度ムラ補正を画像データに施すことによって、輝度ムラの除去のみならず、網目模様が実質的に除去されていることがわかる。 Comparing the display images of Example 1 and Comparative Example 1, it can be seen that not only the luminance unevenness is removed but also the mesh pattern is substantially removed by performing luminance unevenness correction on the image data of the reference image and the observation image. I understand.
(色ムラ補正の効果)
実施例2と実施例1との評価結果を比較して、色ムラ補正の効果について考察する。図10Aは、実施例2の条件で基準画像に画像処理を施した場合の表示画像である。図10Bは、実施例2の条件で観察画像に画像処理を施した場合の表示画像である。
(Effect of color unevenness correction)
The evaluation results of Example 2 and Example 1 are compared to discuss the effect of color unevenness correction. FIG. 10A is a display image when image processing is performed on the reference image under the conditions of the second embodiment. 10B is a display image when image processing is performed on the observed image under the conditions of Example 2. FIG.
実施例2及び実施例1の表示画像を比較すると、基準画像及び観察画像について、色ムラ補正を画像データに施すことによって、色ムラが除去されることがわかる。また、基準画像及び観察画像について、色ムラ補正を画像データに施しても、網目模様は除去又は低減されないことがわかる。 Comparing the display images of Example 2 and Example 1, it can be seen that color unevenness is removed by applying color unevenness correction to the image data of the reference image and the observed image. Moreover, it can be seen that the mesh pattern is not removed or reduced even if the color unevenness correction is applied to the image data of the reference image and the observation image.
(輝度ムラ補正と弱い平滑化との相乗効果)
実施例2、実施例3、比較例3及び比較例4の評価結果を比較することによって、輝度ムラ補正と弱い平滑化との相乗効果について考察する。図10Aは、実施例2の条件で基準画像に画像処理を施した場合の表示画像である。図10Bは、実施例2の条件で観察画像に画像処理を施した場合の表示画像である。図13Aは、実施例3の条件で基準画像に画像処理を施した場合の表示画像である。図13Bは、実施例3の条件で観察画像に画像処理を施した場合の表示画像である。図14Aは、比較例3の条件で基準画像に画像処理を施した場合の表示画像である。図14Bは、比較例3の条件で観察画像に画像処理を施した場合の表示画像である。図15Aは、比較例4の条件で基準画像に画像処理を施した場合の表示画像である。図15Bは、比較例4の条件で観察画像に画像処理を施した場合の表示画像である。
(Synergistic effect of luminance unevenness correction and weak smoothing)
By comparing the evaluation results of Example 2, Example 3, Comparative Example 3, and Comparative Example 4, the synergistic effect of luminance unevenness correction and weak smoothing will be considered. FIG. 10A is a display image when image processing is performed on the reference image under the conditions of the second embodiment. 10B is a display image when image processing is performed on the observed image under the conditions of Example 2. FIG. 13A is a display image when image processing is performed on the reference image under the conditions of Example 3. FIG. 13B is a display image when image processing is performed on the observed image under the conditions of Example 3. FIG. 14A is a display image when image processing is performed on the reference image under the conditions of Comparative Example 3. FIG. 14B is a display image when image processing is performed on the observed image under the conditions of Comparative Example 3. FIG. 15A is a display image when image processing is performed on the reference image under the conditions of Comparative Example 4. FIG. 15B is a display image when image processing is performed on the observed image under the conditions of Comparative Example 4. FIG.
実施例2及び比較例3から、輝度ムラ補正又は弱い平滑化の一方を画像データに施すことのみによっては、網目模様は除去されたと評価できないことがわかる。つまり、これらのいずれか一方の画像処理のみによっては、網目模様を肉眼で視認することができない程度に低減された(つまり、二重丸)とは評価できないことがわかる。 From Example 2 and Comparative Example 3, it can be seen that it is not possible to evaluate that the mesh pattern has been removed simply by applying either luminance unevenness correction or weak smoothing to the image data. In other words, it can be understood that it cannot be evaluated that the mesh pattern has been reduced to the extent that it cannot be visually recognized with the naked eye (that is, double circles) by only one of these image processes.
一方、比較例4から、強い平滑化を画像データに施すことによって、網目模様が除去されることがわかる。しかし、強い平滑化を画像データに施すことによって、画像の解像度が劣化することがわかる。 On the other hand, it can be seen from Comparative Example 4 that the mesh pattern is removed by applying strong smoothing to the image data. However, it can be seen that applying strong smoothing to the image data degrades the resolution of the image.
実施例3から、輝度ムラ補正及び弱い平滑化を画像データに施すことによって、画像の解像度の劣化を伴わずに、網目模様が除去されることがわかる。
From Example 3, it can be seen that the mesh pattern is removed without deteriorating the resolution of the image by applying luminance unevenness correction and weak smoothing to the image data.
1:内視鏡システム
2:内視鏡
21:挿入部
211:対物レンズ
212:イメージガイドファイバ
212a:コア
212b:クラッド
212c:ジャケット
213:ライトガイドファイバ
213a:コア
213b:クラッド
214:外装パイプ
214a:充填剤
22:把持部
23:リード部
23a:分岐部
23b:イメージガイドプラグ
23c:ライトガイドプラグ
3:撮像装置
3a:内視鏡端子
30:接眼レンズ
31:イメージセンサ
32:画像生成部
33:画像処理部
34:出力信号生成部
4:光源装置
4a:ソケット
5:表示装置
1: Endoscope system 2: Endoscope 21: Insertion section 211: Objective lens 212:
Claims (9)
前記内視鏡を接続可能であり、接眼レンズを介して前記光を検知し、電気信号に変換するイメージセンサ及び前記電気信号に基づいて、複数の画素データから構成される画像データを生成する画像生成部を有する撮像装置と、を備える内視鏡システムにおける画像処理方法であって、
基準面を撮影して基準画像データを生成するステップと、
前記基準画像データを構成する複数の画素データの各々の輝度成分を均一にする輝度ムラ補正演算を導出するステップと、
観察対象を撮影して観察画像データを生成するステップと、
前記観察画像データを構成する複数の画素データの各々に、前記輝度ムラ補正演算を施すステップと
を含む画像処理方法。 An endoscope having an image guide fiber that includes a plurality of cores that transmit incident light after reflection off a surface to be observed;
An image sensor connectable to the endoscope that detects the light through an eyepiece and converts it into an electrical signal, and an image that generates image data composed of a plurality of pixel data based on the electrical signal. An image processing method in an endoscope system comprising an imaging device having a generation unit,
imaging a reference plane to generate reference image data;
a step of deriving a luminance non-uniformity correction calculation that uniforms luminance components of each of a plurality of pixel data constituting the reference image data;
a step of photographing an observation target to generate observation image data;
and a step of performing the luminance unevenness correction operation on each of a plurality of pixel data constituting the observed image data.
前記基準画像データを構成する複数の画素データの各々の色差成分を除去する色ムラ補正演算を導出するステップと、
前記観察画像データを構成する複数の画素データの各々に、前記色ムラ補正演算を施すステップと、
を含む請求項1に記載の画像処理方法。 The reference surface is achromatic, and the image processing method includes
deriving a color unevenness correction operation for removing color difference components of each of a plurality of pixel data constituting the reference image data;
performing the color unevenness correction operation on each of a plurality of pixel data constituting the observed image data;
The image processing method according to claim 1, comprising:
前記内視鏡を接続可能であり、接眼レンズを介して光を検知して電気信号に変換するイメージセンサと、
前記イメージセンサによって変換された電気信号に基づいて、複数の画素データから構成される画像データを生成する画像生成部と、
基準面を撮影して得られた基準画像データを構成する複数の画素データの各々の輝度成分を均一にする輝度ムラ補正演算を導出し、
観察対象を撮影して得られた観察画像データを構成する複数の画素データの各々に前記輝度ムラ補正演算を施す画像処理部と、
を有する撮像装置と
を備えた内視鏡システム。 An endoscope having an image guide fiber that includes a plurality of cores that transmit incident light after reflection off a surface to be observed;
an image sensor connectable to the endoscope, which detects light through an eyepiece and converts it into an electrical signal;
an image generator that generates image data composed of a plurality of pixel data based on the electric signal converted by the image sensor;
Deriving a brightness non-uniformity correction operation for uniforming brightness components of each of a plurality of pixel data constituting reference image data obtained by photographing a reference plane,
an image processing unit that performs the brightness unevenness correction operation on each of a plurality of pixel data constituting observation image data obtained by photographing an observation target;
an imaging device having
An endoscope system with a
前記基準画像データを構成する複数の画素データの各々の色差成分を除去する色ムラ補正演算を導出し、
前記観察画像データを構成する複数の画素データの各々に前記色ムラ補正演算を施すことを特徴とする請求項4に記載の内視鏡システム。 The image processing unit
deriving a color unevenness correction operation for removing color difference components of each of a plurality of pixel data constituting the reference image data;
5. The endoscope system according to claim 4, wherein said color unevenness correction operation is applied to each of a plurality of pixel data constituting said observation image data.
前記観察画像データを構成する複数の画素データの各々を平滑化することを特徴とする請求項4又は5に記載の内視鏡システム。 The image processing unit
6. The endoscope system according to claim 4, wherein each of a plurality of pixel data constituting said observation image data is smoothed.
前記内視鏡を接続可能であり、接眼レンズを介して光を検知して電気信号に変換するイメージセンサと、前記イメージセンサによって変換された電気信号に基づいて、複数の画素データから構成される画像データを生成する画像生成部とを有する撮像装置と、
前記撮像装置に接続可能であり、
基準面を撮影して得られた基準画像データを構成する複数の画素データの各々の輝度成分を均一にする輝度ムラ補正演算を導出し、
観察対象を撮影して得られた観察画像データを構成する複数の画素データの各々に前記輝度ムラ補正演算を施す画像処理装置と
を備えた内視鏡システム。 An endoscope having an image guide fiber that includes a plurality of cores that transmit incident light after reflection off a surface to be observed;
An image sensor that can be connected to the endoscope and detects light through an eyepiece and converts it into an electric signal, and a plurality of pixel data based on the electric signal converted by the image sensor. an imaging device having an image generator that generates image data;
connectable to the imaging device;
Deriving a brightness non-uniformity correction operation for uniforming brightness components of each of a plurality of pixel data constituting reference image data obtained by photographing a reference plane,
an image processing device for performing the brightness unevenness correction operation on each of a plurality of pixel data constituting observation image data obtained by photographing an observation target ;
An endoscope system with a
前記基準画像データを構成する複数の画素データの各々の色差成分を除去する色ムラ補正演算を導出し、
前記観察画像データを構成する複数の画素データの各々に前記色ムラ補正演算を施すことを特徴とする請求項7に記載の内視鏡システム。 The image processing device is
deriving a color unevenness correction operation for removing color difference components of each of a plurality of pixel data constituting the reference image data;
8. The endoscope system according to claim 7, wherein said color unevenness correction operation is applied to each of a plurality of pixel data constituting said observation image data.
前記観察画像データを構成する複数の画素データの各々を平滑化することを特徴とする請求項7又は8に記載の内視鏡システム。
The image processing device is
9. The endoscope system according to claim 7, wherein each of a plurality of pixel data forming said observation image data is smoothed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020082525A JP7189173B2 (en) | 2020-05-08 | 2020-05-08 | IMAGE PROCESSING METHOD, IMAGING DEVICE AND IMAGE PROCESSING DEVICE |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020082525A JP7189173B2 (en) | 2020-05-08 | 2020-05-08 | IMAGE PROCESSING METHOD, IMAGING DEVICE AND IMAGE PROCESSING DEVICE |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021177604A JP2021177604A (en) | 2021-11-11 |
JP7189173B2 true JP7189173B2 (en) | 2022-12-13 |
Family
ID=78409627
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020082525A Active JP7189173B2 (en) | 2020-05-08 | 2020-05-08 | IMAGE PROCESSING METHOD, IMAGING DEVICE AND IMAGE PROCESSING DEVICE |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7189173B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000350193A (en) | 1999-06-03 | 2000-12-15 | Olympus Optical Co Ltd | Image processing unit and endoscope system |
JP2014241580A (en) | 2013-05-13 | 2014-12-25 | キヤノン株式会社 | Imaging apparatus |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0469615A (en) * | 1990-07-10 | 1992-03-04 | Olympus Optical Co Ltd | White balance adjuster for endoscope |
JPH06343134A (en) * | 1993-05-31 | 1994-12-13 | Shimadzu Corp | Fiberscope |
-
2020
- 2020-05-08 JP JP2020082525A patent/JP7189173B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000350193A (en) | 1999-06-03 | 2000-12-15 | Olympus Optical Co Ltd | Image processing unit and endoscope system |
JP2014241580A (en) | 2013-05-13 | 2014-12-25 | キヤノン株式会社 | Imaging apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP2021177604A (en) | 2021-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6456416B2 (en) | Medical inspection devices such as microscopes and endoscopes using pseudo colors | |
CN108113630B (en) | Endoscope system | |
EP2301414B1 (en) | Endoscope system | |
JP6420230B2 (en) | Endoscope system, processor device, and operation method of endoscope system | |
EP2862501A2 (en) | Calibration method and endoscope system | |
US10499027B2 (en) | Processor device and method of operating the same | |
WO2019230095A1 (en) | Camera apparatus, image processing method, and camera system | |
JP6389140B2 (en) | Endoscope system, processor device, and operation method of endoscope system | |
WO2017110180A1 (en) | Endoscopic system, processor device, and method for operating endoscopic system | |
WO2017183324A1 (en) | Endoscope system, processor device, and endoscope system operation method | |
JP7374600B2 (en) | Medical image processing device and medical observation system | |
JPWO2019093355A1 (en) | Endoscopic system and how to operate it | |
JP6218709B2 (en) | Endoscope system, processor device, operation method of endoscope system, and operation method of processor device | |
WO2019093356A1 (en) | Endoscope system and operation method therefor | |
JP7189173B2 (en) | IMAGE PROCESSING METHOD, IMAGING DEVICE AND IMAGE PROCESSING DEVICE | |
JP4898578B2 (en) | Image processing system, imaging system, and microscope imaging system | |
JP4606838B2 (en) | Electronic endoscope device | |
JP6570490B2 (en) | Endoscope system and method for operating endoscope system | |
JPH06125871A (en) | Electronic endoscope device | |
JP2012143464A (en) | White balance adjustment system and endoscope processor | |
US11122225B2 (en) | Medical image processing apparatus and medical observation system | |
JP2017144247A (en) | Endoscope system | |
JP6378140B2 (en) | Endoscope system and operating method thereof | |
US20220409029A1 (en) | Endoscope and endoscope system | |
JP6423245B2 (en) | Endoscope system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210727 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220520 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220825 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221122 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221201 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7189173 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |