JP2017079930A - Scan type endoscope apparatus - Google Patents
Scan type endoscope apparatus Download PDFInfo
- Publication number
- JP2017079930A JP2017079930A JP2015209889A JP2015209889A JP2017079930A JP 2017079930 A JP2017079930 A JP 2017079930A JP 2015209889 A JP2015209889 A JP 2015209889A JP 2015209889 A JP2015209889 A JP 2015209889A JP 2017079930 A JP2017079930 A JP 2017079930A
- Authority
- JP
- Japan
- Prior art keywords
- detection
- signal
- unit
- image
- gradation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Endoscopes (AREA)
Abstract
Description
本発明は、照明光を走査して内視鏡画像を生成する走査型内視鏡装置に関する。 The present invention relates to a scanning endoscope apparatus that generates an endoscopic image by scanning illumination light.
近年、内視鏡は、医療分野及び工業用分野において広く用いられるようになっている。また、照明光を光ファイバにより導光し、導光した照明光を被検体上で走査して内視鏡画像を生成する走査型内視鏡が種々提案されている。走査型内視鏡は、挿入部を細径化するのに適する。
例えば、第1の従来例としての特開2014−046141号公報の走査型内視鏡装置においては、蛍光の褪色を軽減するために、画像の中心領域と周辺領域とで蛍光レベルの平均値を計算して、光源にフィードバックして一様な明るさの内視鏡画像を取得できるようにしている。
また、第2の従来例としての特開2014−061227号公報の走査型内視鏡装置においては、内視鏡画像の褪色を軽減するために、画像の中心領域では光源パルスを密に、周辺領域では光源パルスを疎にして、一様な明るさの内視鏡画像を取得できるようにしている。
In recent years, endoscopes have been widely used in the medical field and industrial field. Various scanning endoscopes have been proposed in which illumination light is guided by an optical fiber, and the guided illumination light is scanned on a subject to generate an endoscope image. The scanning endoscope is suitable for reducing the diameter of the insertion portion.
For example, in the scanning endoscope apparatus disclosed in Japanese Patent Application Laid-Open No. 2014-046141 as the first conventional example, the average value of the fluorescence level is set between the central region and the peripheral region of the image in order to reduce the fading of the fluorescence. It is calculated and fed back to the light source so that an endoscopic image with uniform brightness can be acquired.
Further, in the scanning endoscope apparatus disclosed in Japanese Patent Application Laid-Open No. 2014-061227 as the second conventional example, in order to reduce discoloration of the endoscope image, the light source pulses are densely arranged in the central region of the image, In the region, light source pulses are sparse so that an endoscopic image with uniform brightness can be acquired.
走査型内視鏡においても、通常の内視鏡の場合と同様にモニタに表示される内視鏡画像を、検査や診断等に適した明るさに設定するために、画面上における所定の領域の画素値の統計量を計算する検波が行われることがある。
走査型内視鏡においては、走査軌跡や走査速度は、製造時の個体差や製造バラツキ、振動制御のバラツキなどに起因して、設計値から走査型内視鏡に固有な量だけずれる。その結果、画面上におけるある領域の明るさが、照明光を順次パルス発光させた場合における何番目のサンプリングされる信号から得られるかは、走査型内視鏡によって異なってしまう。
即ち、従来例の走査型内視鏡装置や方法を用いて画面上の決まった領域の検波を行おうとした場合、何番目にサンプリングされる信号の統計量(例えば平均値)を取るかえを、走査型内視鏡ごとに変えなければならなくなる。このため、検波に係る計算量の増大や回路規模を大きくしなければならない。
In a scanning endoscope, a predetermined area on the screen is set in order to set an endoscopic image displayed on a monitor to a brightness suitable for examination, diagnosis, etc., as in the case of a normal endoscope. Detection may be performed to calculate the statistic of the pixel value.
In the scanning endoscope, the scanning trajectory and the scanning speed are deviated from the design value by an amount unique to the scanning endoscope due to individual differences during manufacturing, manufacturing variations, vibration control variations, and the like. As a result, the number of the sampled signal when the brightness of a certain area on the screen is obtained by sequentially illuminating the illumination light varies depending on the scanning endoscope.
That is, when trying to detect a predetermined area on the screen using the conventional scanning endoscope apparatus or method, how to take the statistical amount (for example, average value) of the signal sampled, It must be changed for each scanning endoscope. For this reason, it is necessary to increase the amount of calculation related to detection and increase the circuit scale.
しかしながら、上記の第1の従来例、及び第2の従来例とも、上記検波に係る計算量を低減する内容を開示していない。
本発明は上述した点に鑑みてなされたもので、走査軌跡等にばらつきが存在するような場合においても、内視鏡画像の明るさを表す検波値を簡単に取得できる走査型内視鏡装置を提供することを目的とする。
However, neither the first conventional example nor the second conventional example discloses the contents for reducing the amount of calculation related to the detection.
The present invention has been made in view of the above points, and a scanning endoscope apparatus that can easily obtain a detection value representing the brightness of an endoscopic image even when there is a variation in a scanning trajectory or the like. The purpose is to provide.
本発明の一態様の走査型内視鏡装置は、照明光を発生する光源部と、第1端部に入射された前記照明光を第2端部に導光する導光部と、前記導光部の第2端部を渦巻き軌道を描くように振動させる走査部と、前記第2端部から被検体に照射された照明光に応じた反射光を検出する検出部と、前記検出部において検出される被検体像に対応する検出信号を変換して、直交座標系で表される生成画像に対応する画像信号を生成し、前記画像信号において指定された指定領域の画像信号強度の統計量を算出し、前記統計量として前記指定領域の明るさを表す検波値を算出する信号処理部と、を有する。 The scanning endoscope apparatus according to one aspect of the present invention includes a light source unit that generates illumination light, a light guide unit that guides the illumination light incident on the first end to the second end, and the guide. A scanning unit that vibrates the second end of the light unit so as to draw a spiral trajectory; a detection unit that detects reflected light according to illumination light applied to the subject from the second end; and the detection unit The detection signal corresponding to the detected subject image is converted to generate an image signal corresponding to the generated image represented in the orthogonal coordinate system, and the image signal intensity statistic of the specified area specified in the image signal And a signal processing unit that calculates a detection value representing the brightness of the designated region as the statistic.
本発明によれば、走査内視鏡における走査軌跡等にばらつきが存在するような場合においても、内視鏡画像の明るさを表す検波値を簡単に取得できる。 According to the present invention, even when there are variations in the scanning trajectory or the like in the scanning endoscope, a detection value representing the brightness of the endoscope image can be easily obtained.
以下、図面を参照して本発明の実施形態を説明する。
(第1の実施形態)
図1に示すように本発明の第1の実施形態の走査型内視鏡装置1は、被検体としての例えば患者2の内部に挿入され、患者2の体内を検査するための走査型内視鏡3と、この走査型内視鏡3が着脱自在に接続される走査型内視鏡制御装置(本体装置と略記)4と、本体装置4により生成された画像信号が入力されることにより対応する生成画像を内視鏡画像として表示するモニタ5とを有する。また、本体装置4に対して、術者等のユーザは、キーボードなどからなる入力部6を操作して、走査型内視鏡装置1の動作を選択したり、制御することができる。例えば、入力部6から後述する検波部33により検波値を算出する領域としての指定領域(又は検波領域)を指定(又は設定)したり、本実施形態の動作モードを選択することができる。このため、入力部6は、指定領域(又は検波領域)を設定する指定領域設定部6aの機能を持つ。また、動作モードを選択する動作モード選択部の機能を持つ。
走査型内視鏡3は、細長の挿入部11を有し、この挿入部11内には、照明光を導光する導光部を形成する照明用光ファイバ12が配設されている。照明用光ファイバ12の第1端部となる基端には、本体装置4に設けられた光源部21が発生した照明光が入射される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
As shown in FIG. 1, a
The
照明用光ファイバ12は、基端に入射された照明光を第2端部となる先端に導光する。先端に導光された照明光は、この先端から図示しない集光レンズを経て患者2の患部等の検査部位(被写体)2aに集光して照射される。なお、照明光は、パルス発光するように制御される。
照明用光ファイバ12の先端付近には、走査部13が設けられ、本体装置4の駆動部22が出力する駆動信号が駆動線14を介して印加されることにより、走査部13は照明用光ファイバ12の先端を渦巻き状又は螺旋状の走査軌跡を描くように振動させる。そして、被写体2aに照射された照明光は、渦巻き状又は螺旋状の走査軌跡を描くように照射位置が変化する。
図2は基準の被写体に対して1フレーム分の画像を取得する際に、パルス発光した照明光の照射位置を序数で示した図である。走査開始位置でパルス発光した際には序数O1(図2中では単に1、以下のO2等においても同様)で示す照射位置となり、渦巻き状の走査軌跡を描く最中において順次パルス発光した際の照射位置が序数O2,O3,…となり、走査終了位置でパルス発光した際の照射位置が序数Onとなる。
The illumination
A
FIG. 2 is an ordinal number showing the irradiation position of the illumination light pulsed when acquiring an image for one frame with respect to the reference subject. When pulsed light is emitted at the scanning start position, it becomes an irradiation position indicated by ordinal number O1 (simply 1 in FIG. 2, the same applies to the following O2 etc.), and when pulsed light is emitted sequentially while drawing a spiral scanning locus. The irradiation position is the ordinal number O2, O3,..., And the irradiation position when the pulse emission is performed at the scanning end position is the ordinal number On.
図1に示すように挿入部11内には、被検体において反射された照明光を検出する第2の導光部を形成する受光用光ファイバ15が配設されている。受光用光ファイバ15の先端は、挿入部11の先端に配置され、先端に入射された反射光を受光用光ファイバ15の基端に導光する。
基端に導光された反射光は、本体装置4における光電変換素子を備えた検出部23に入射され、光電変換されて検出信号となる。この検出信号は、信号処理部24に入力され、信号処理部24は、モニタ5に表示する生成画像の画像信号を生成する。
また、走査型内視鏡3は、挿入部11の基端に設けたコネクタ部11a内に設けたメモリ16を有する。このメモリ16は、序数Oiと照射位置の2次元座標位置(Xi,Yi)とが関連付けた情報(配置情報)を例えばルックアップテーブル(LUT)16aとして格納している。
図3はLUT16aの例を示す。図3に示すようにLUT16aは、パルス発光する際の序数Oiと照射位置の座標(Xi,Yi)とが関連付けて格納している。従って、信号処理部24は、序数Oiに対応した検出信号に対して、LUT16aの配置情報を参照することにより、座標位置の検出信号、つまり座標位置が特定される画素の検出信号を生成することができる。
As shown in FIG. 1, a light receiving
The reflected light guided to the base end enters the
Further, the
FIG. 3 shows an example of the LUT 16a. As shown in FIG. 3, in the LUT 16a, the ordinal number Oi at the time of pulse light emission and the coordinates (Xi, Yi) of the irradiation position are stored in association with each other. Accordingly, the
図1に示すように本体装置4は、照明光を発生する光源部21と、走査部13に印加する駆動信号を生成する駆動部22と、受光用光ファイバ15により検出した反射光を光電変換して検出信号を生成する検出部23と、検出部23により生成される検出信号から画像信号を生成する信号処理部24とを有する。
また、本体装置4は、本体装置4内部の光源部21、駆動部22、検出部23、信号処理部24の動作を制御するコントローラ25を有する。入力部6から入力される入力信号、又は入力データはコントローラ25に入力され、コントローラ25は入力信号、又は入力データに応じた制御動作を行う。ユーザは、入力部6を構成するキーボードから検波部33が検波値を算出する指定領域のアドレスを指定したり、入力部6を構成するマウスから指定領域の枠を指定することができる。そして、コントローラ25は、指定領域の領域範囲を表すアドレス範囲の情報を検波部33に送り、検波部33は、指定領域の画像信号強度の統計量を検波値として算出する処理を行う。
As shown in FIG. 1, the
The
図1に示すように信号処理部24は、検出部23の検出信号から、渦巻き状走査の画像信号としての第1の画像信号を生成する第1の画像生成部31と、第1の画像信号から直交座標系で表されるラスタ走査の画像信号に変換するラスタ変換部32と、ラスタ変換部32により変換されたラスタ走査の画像信号から、該ラスタ走査の画像信号の画像(又は生成画像)における指定領域の検波値を算出する検波部33と、ラスタ走査の画像信号に、ゲイン調整による明るさ調整や輪郭強調等の画像処理を行う画像処理部34とを有する。
また、信号処理部24は、走査型内視鏡3のメモリ16に格納された配置情報を読み出し、信号処理部24内部のメモリ35に格納する。つまり、メモリ35は、メモリ16のLUT16aと同じ情報をLUT35aとして格納する。なお、メモリ35のLUT35aを用いないで、メモリ16のLUT16aを用いるようにしても良い。
図4は信号処理部24等のより詳細な構成を示す。検出部23は、例えばアバランシェフォトダイオード(APDと略記)23aにより構成される。このAPD23aは、逆バイアス電圧の印加により増倍率(ゲイン)を可変できるフォトダイオードである。そして、コントローラ25からの逆バイアス電圧の値によりAPD23aから出力される検出信号の増倍率(ゲイン)を可変することができる。
As shown in FIG. 1, the
Further, the
FIG. 4 shows a more detailed configuration of the
後述するように光源部21もコントローラ25からの光量制御信号により、光源部21が発生するパルス発光する照明光の光量を調整する機能を備える。
第1の画像生成部31は、APD23aから出力される検出信号を、A/D変換回路31aによりデジタルの検出信号に変換して例えば第1の画像生成部31内部のメモリ31bに序数の順序で格納する。座標付与回路31cは、検出信号における序数Oiに対応する位置情報を、メモリ35のLUT35aから読み出し、各検出信号が検出された場合の位置情報を持つ画素信号を生成する。換言すると、座標付与回路31cは、渦巻き状に走査した場合の検出信号に、それぞれ位置情報を付与して、渦巻き状の走査の画像信号としての第1の画像信号を生成し、メモリ31dに格納する。なお、第1の画像信号をメモリ31dに格納する代わりに、メモリ35に格納しても良い。
第1の画像信号は、ラスタ変換部32を構成する補間回路(又は補正回路)32aに入力され、補間回路32aは、渦巻き状の走査の第1の画像信号からラスタ走査の画像信号に変換するための補間処理を行う。
As will be described later, the
The first
The first image signal is input to an interpolation circuit (or correction circuit) 32a constituting the
図5は、第1の画像信号からラスタ走査の画像信号に変換するための説明図を示す。図5における左側の図は、渦巻き状の走査軌跡(図5ではTrで示す)の座標系とラスタ走査の直交座標系とを重ねた状態を模式的に示す。この図5において、ラスタ走査の画像信号を形成する各画素位置は、格子点の位置となる。
図5の左側の図における注目する格子点Pgの近傍部分は、その右側に示す拡大図のようになる。なお、この場合の注目する格子点Pgは、ラスタ走査の画素信号を生成しようとする生成対象(又は補間処理対象)の格子点を意味する。
拡大図に示すように一般的にはラスタ走査の格子点の位置と、渦巻き状の走査の画素信号の位置とはずれているため、補間回路32aは、各格子点の近傍領域に存在する渦巻き状の走査の画素信号を用いて各格子点の画素信号を生成するための処理としての補間処理を行う。
図5に示す例では、注目する格子点Pgの近傍を通る1つの曲線に沿った画素信号SO1,SO2,SO3が存在する。また、これらの画素信号SO1,SO2,SO3よりも、格子点Pgからの距離がより離間した曲線に沿った画素信号SO4も存在する。
FIG. 5 is an explanatory diagram for converting the first image signal into an image signal for raster scanning. The diagram on the left side in FIG. 5 schematically shows a state in which a coordinate system of a spiral scanning locus (indicated by Tr in FIG. 5) and an orthogonal coordinate system of raster scanning are overlapped. In FIG. 5, each pixel position forming an image signal for raster scanning is a grid point position.
The vicinity of the target lattice point Pg in the left side of FIG. 5 is as shown in the enlarged view on the right side. Note that the grid point Pg of interest in this case means a grid point to be generated (or an interpolation process target) for generating a raster scan pixel signal.
As shown in the enlarged view, since the position of the lattice point of raster scanning is generally deviated from the position of the pixel signal of spiral scanning, the
In the example shown in FIG. 5, there are pixel signals SO1, SO2 and SO3 along one curve passing through the vicinity of the grid point Pg of interest. Also, there is a pixel signal SO4 along a curve that is more distant from the grid point Pg than these pixel signals SO1, SO2, SO3.
補間回路32aは、格子点Pgからの距離が最も小さい距離に存在する画素信号を優先して、格子点Pgの画素信号を生成する。
具体的には、図5に示すように注目する格子点Pgの周囲において、上下、左右方向の両側に隣接する格子間距離に基づいて設定された設定領域A内において、複数の画素信号SO1,SO2,…,SOk,…が存在した場合には格子点Pgの画素信号Sgiを、例えば
Sgi=ΣCk×SOk/ΣCk (1)
により算出しても良い。ここで、Σは、設定領域A内でCk×SOk又はCkの総和を表し、Ckは、格子点Pgからの距離が小さい程、大きくなる重み付け係数を表す。また、重み付け係数Ckの総和で除算している。なお、設定領域Aは、四角形の場合に限らず、円形の領域でも良い。
また、補間回路32aは、例えば格子点Pgからの距離が閾値Lth以下となる格子点Pgの近傍領域内に画素信号が存在する場合には、近傍領域内に存在する画素信号のみから格子点Pgの画素信号を生成する。図5に示すように距離が閾値Lth以下となる領域内に1つの画素信号SO2のみが存在する場合には、格子点Pgの画素信号Sgiを、Sgi=SO2として画素信号Sgiを生成するようにしても良い。距離が閾値Lth以下となる領域内に、複数の画素信号が存在する場合には、複数の画素信号平均値で算出する。
The
Specifically, as shown in FIG. 5, a plurality of pixel signals SO1 and SO1 are set in the setting area A set based on the distance between adjacent grids on both sides in the vertical and horizontal directions around the target grid point Pg. When SO2,..., SOk,... Exist, the pixel signal Sgi at the lattice point Pg is, for example, Sgi = ΣCk × SOk / ΣCk (1)
You may calculate by. Here, Σ represents the sum of Ck × SOk or Ck in the setting area A, and Ck represents a weighting coefficient that increases as the distance from the grid point Pg decreases. In addition, it is divided by the sum of the weighting coefficients Ck. Note that the setting area A is not limited to a rectangular area, and may be a circular area.
For example, when the pixel signal is present in the vicinity region of the lattice point Pg whose distance from the lattice point Pg is equal to or less than the threshold value Lth, the
また、図5に示すように格子点Pgを中心としてその周囲に設定した設定領域A内に1つも画素信号が存在しない場合には、通常の撮像素子において発生する欠陥画素又は(画素値が欠落する)欠落画素の場合と同様に、格子点Pgに隣接する周囲の格子点の画素信号から補間により生成する。
具体的には、設定領域A内に1つも(渦巻き状の走査の)画素信号が存在しない場合の格子点Pgに関しては、その格子点Pgの左右方向の両側に隣接する2つの格子点Pgl,Pgrの両画像信号の平均値や、その格子点Pgの上下方向の両側に隣接する2つの格子点Pgu,Pgdの両画像信号の平均値等を、格子点Pgの画像信号とすれば良い。
一方、例えば図5において走査軌跡Trの外側における例えば格子点Pgaにおいては設定領域A内に1つの画素信号が存在しない状態となり、かつその両側の格子点における精々一方のみの格子点の画素信号しか、格子点の画素信号が存在しない状態となる。
Also, as shown in FIG. 5, when no pixel signal exists in the setting area A set around the lattice point Pg as a center, defective pixels generated in a normal image sensor or (pixel value is missing) In the same manner as in the case of missing pixels, the pixel is generated by interpolation from pixel signals of surrounding grid points adjacent to the grid point Pg.
Specifically, with respect to the lattice point Pg in the case where no pixel signal (in a spiral scan) exists in the setting area A, two lattice points Pgl adjacent to both sides in the left-right direction of the lattice point Pg, The average value of both image signals of Pgr, the average value of both image signals of two lattice points Pgu and Pgd adjacent to both sides in the vertical direction of the lattice point Pg, and the like may be used as the image signal of the lattice point Pg.
On the other hand, for example, at the grid point Pga outside the scanning trajectory Tr in FIG. 5, for example, one pixel signal does not exist in the setting area A, and only pixel signals of only one grid point at the grid points on both sides thereof are present. The pixel signal at the lattice point does not exist.
そのために、この場合には、補間回路32aは、上記のような欠落画素でなく、走査軌跡Trの走査領域(走査範囲)Rsの外側の領域、つまり実際には検出信号が検出されていない未検出領域(未走査領域)において、ラスタ変換を行っている状態であるとして、その格子点の画素信号を周囲の格子点の画素信号を用いて補間する処理を行わない。
但し、上記の格子点Pgaは、ラスタ走査による画像信号を生成する領域としての四角形(換言すると正方形又は長方形)の領域内に含まれるため、補間回路32aは、結果的に、この未検出領域における画素又は画像信号も出力することになる(このような場合の信号処理に関しては後述する)。
このようにして、補間回路32aは渦巻き状の走査領域内の第1の画像信号から、この渦巻き状の走査領域にほぼ一致する領域のラスタ走査の画像信号を生成し、生成したラスタ走査の画像信号をメモリ32bに格納する。
図6は、例えば図2に示す渦巻き状の走査の第1の画像信号からラスタ走査の画像信号に変換したものを模式的に示す。
Therefore, in this case, the
However, since the lattice point Pga is included in a quadrangular region (in other words, a square or a rectangle) as a region for generating an image signal by raster scanning, the interpolating
In this way, the
FIG. 6 schematically shows, for example, a conversion from the first image signal of the spiral scan shown in FIG. 2 to the image signal of the raster scan.
図6における左側に示す円形の走査領域Rsの第1の画像信号SOは、ラスタ変換の再に、この円形の走査領域Rsに対応する円形の対応領域Rrの画像信号Sgaと、円形の対応領域Rrの外側となり、未検出領域Ruの画像信号Sguとに変換される。ここで、円形の対応領域Rrと未検出領域Ruとが表示領域Rdとなる。また、画像信号Sgaと画像信号Sguとがラスタ走査の画像信号Sgを形成する。
また、図7Aは、図6における第1の画像信号SOを形成する第1の画素信号から、ラスタ走査の画像信号Sgを形成するラスタ走査の画素信号に変換された処理結果を示す。
図7Aにおける左側の第1の画素信号は、補間回路32aにより、右側の画素信号に変換される。なお、図7Aにおいては左側の第1の画素信号をSOi(i=1,2,3,…,i,n)で示し、右側の画素信号をSgi(i=1,2,3,…,i,m)で示している。図5を参照して説明した補間処理により、一般的には第1の画素信号SOiの数nと画素信号Sgiの数mとは異なる。また、図7Aにおいては、画素信号Sgiがメモリ32bに格納されるアドレスAiも示している。
The first image signal SO of the circular scanning region Rs shown on the left side in FIG. 6 is converted into the image signal Sga of the circular corresponding region Rr corresponding to the circular scanning region Rs and the circular corresponding region after raster conversion. Outside of Rr, it is converted into an image signal Sgu of the undetected area Ru. Here, the circular corresponding region Rr and the undetected region Ru become the display region Rd. Further, the image signal Sga and the image signal Sgu form an image signal Sg for raster scanning.
FIG. 7A shows a processing result obtained by converting the first pixel signal forming the first image signal SO in FIG. 6 into the raster scanning pixel signal forming the raster scanning image signal Sg.
The left first pixel signal in FIG. 7A is converted into a right pixel signal by the
図6において示したように右側の画素信号Sgiは、対応領域Rrの画像信号Sgaと未検出領域Ruの画像信号Sguを形成する画素信号となる。このため、右側の画素信号Sgiは、対応領域Rrの画像信号を形成する画素信号Sgai(図7B参照)と、未検出領域Ruの画像信号を形成する画素信号Sgui(図7B参照)とからなる。
本実施形態においては、検波部33が精度良く検波値を算出し易くするために、ラスタ走査の画素信号Sgiをメモリ32bに格納する場合、対応領域Rrの画素信号Sgaiと、未検出領域Ruの画素信号Sguiとを識別可能とする識別情報を付加して、メモリ32bに格納する。
識別情報として、例えば1階調の情報を用いる。例えばA/D変換後の検出信号に基づく画素信号の画素値(又は信号レベル)の階調を表す階調数が、0〜4095(12ビットの範囲での処理)の場合、未検出領域Ruの画素信号Sgibに対しては、0の階調数に割り当て、対応領域Rrの画素信号Sgiaに対しては1〜4095の階調数に割り当てるオフセット処理を行うオフセット処理回路32cを有する(図4においてはOFFSETで略記)。
As shown in FIG. 6, the right pixel signal Sgi is a pixel signal that forms the image signal Sga of the corresponding region Rr and the image signal Sgu of the undetected region Ru. Therefore, the right pixel signal Sgi is composed of a pixel signal Sgai (see FIG. 7B) that forms an image signal of the corresponding region Rr and a pixel signal Sgui (see FIG. 7B) that forms an image signal of the undetected region Ru. .
In the present embodiment, in order to facilitate the
As the identification information, for example, information of one gradation is used. For example, when the number of gradations representing the gradation of the pixel value (or signal level) of the pixel signal based on the detection signal after A / D conversion is 0 to 4095 (processing in a 12-bit range), the undetected region Ru Is provided with an offset
図4に示すように、ラスタ変換部32の内部にオフセット処理回路32cを設けているが、ラスタ変換部32の外部、より具体的には、ラスタ変換部32の信号入力よりも前段側の例えば第1の画像生成部31に設けるようにしても良い。
上記オフセット処理回路32cにより、例えば、対応領域Rrの画素信号Sgiaにおいて、オフセット処理前において0の階調のものは、オフセット処理後に1の階調の画素信号になる。このため、オフセット処理による階調のシフトにより、走査領域Rs内において検出された検出信号の階調が0であり、ラスタ変換後においても階調が0となる信号と、未検出領域のため画素値が存在しないためにラスタ変換により階調が0となる画素信号とを、階調0か1かにより識別できることになる。
換言すると、このようなオフセット処理のような処理を施さない従来例の場合においては、走査領域Rsにおいて検出された検出信号の階調が0の画素信号と、(走査領域Rsの領域外となる)未検出領域のために画素値が検出されていないために階調が0とされてしまう画素信号とを識別することが出来ない欠点があった。
As shown in FIG. 4, an offset
By the offset
In other words, in the case of the conventional example in which processing such as offset processing is not performed, the pixel signal of the detection signal detected in the scanning region Rs is 0 and (outside the region of the scanning region Rs). ) There is a drawback that it is impossible to distinguish a pixel signal whose gradation is set to 0 because the pixel value is not detected due to the undetected area.
そして、本実施形態は、この欠点を解消している。なお、走査領域Rs,対応領域Rrにおける画素信号は、画素値が検出された画素信号により生成されるために、走査領域Rs又は対応領域Rrを、検出領域Rとも言う。
対応領域Rrの画素信号Sgiaは、オフセット処理を行う前においては、0〜4095の範囲内の階調Q(Q=0〜4095)となるが、オフセット処理により、例えば1階調分だけ階調数が高くなるようにQ+1の階調に移動してもよい。この場合、オフセット処理前の階調数が最大の場合(Q=4095)と最大より1小さい場合(Q=4094)は、いずれもオフセット処理後に最大階調(Q=4095)となってしまう。すなわち、オフセット前の最大階調(Q=4095)は、飽和した状態の信号となり階調情報が失われることになる。しかし多くの場合、人間の目は、階調数が小さい場合の差よりも階調数が大きい場合の差に鈍感である。したがって、1階調分を加算して画素信号を生成することにより、最大階調以外の画素信号の階調情報を損なわない上記の構成は多くの場合好適である。
ただし、オフセット処理の方法は1階調を加算する方法に限らない。例えば、1階調を減算することにより、最小階調(Q=0)以外の階調情報を損なわない構成としてもよい。また、階調情報が損なわれる階調数を画面領域ごとに変える構成としてもよい。
図7Bは、対応領域Rrの(画像信号Sgaを形成する)画素信号Sgaiと未検出領域Ruの(画像信号Sguを形成する)画素信号Sguiとを階調(信号レベル)により区分けした様子を示す。この図7Bから分かるように階調が1以上と、階調が1未満となる0の階調とにより、両領域の画素信号を簡単に識別できるようになる。なお、1/2の階調閾値を用い、この階調閾値以上か否かの(比較器による)比較結果で、両領域の画素信号を識別しても良い。
このようにオフセット処理として1階調分の情報を利用することにより、ラスタ走査の画素信号Sgiにおいて、対応領域Rrの画素信号Sgiaと、未検出領域Ruの画素信号Sgibとを階調、又は信号レベルにより簡単に識別することができるようにしている。
And this embodiment has eliminated this fault. In addition, since the pixel signal in the scanning region Rs and the corresponding region Rr is generated by the pixel signal in which the pixel value is detected, the scanning region Rs or the corresponding region Rr is also referred to as the detection region R.
The pixel signal Sgia of the corresponding region Rr has a gradation Q (Q = 0 to 4095) within a range of 0 to 4095 before the offset process is performed. You may move to the gradation of Q + 1 so that the number becomes high. In this case, when the number of gradations before the offset process is maximum (Q = 4095) and when it is smaller than the maximum (Q = 4094), the maximum gradation (Q = 4095) is obtained after the offset process. That is, the maximum gradation (Q = 4095) before offset becomes a saturated signal, and gradation information is lost. However, in many cases, the human eye is less sensitive to the difference when the number of gradations is larger than the difference when the number of gradations is small. Therefore, in many cases, the above-described configuration in which the gradation information of the pixel signal other than the maximum gradation is not impaired by adding one gradation to generate the pixel signal is suitable.
However, the offset processing method is not limited to the method of adding one gradation. For example, the gradation information other than the minimum gradation (Q = 0) may not be lost by subtracting one gradation. Further, the number of gradations at which gradation information is lost may be changed for each screen area.
FIG. 7B shows a state in which the pixel signal Sgai (forming the image signal Sga) in the corresponding region Rr and the pixel signal Sgui (forming the image signal Sgu) in the undetected region Ru are divided by gradation (signal level). . As can be seen from FIG. 7B, the pixel signals in both areas can be easily identified by the gradation of 1 or more and the gradation of 0 where the gradation is less than 1. Note that a half gradation threshold value may be used, and pixel signals in both regions may be identified by a comparison result (by a comparator) whether or not the gradation threshold value is exceeded.
As described above, by using the information for one gradation as the offset processing, the pixel signal Sgia of the corresponding region Rr and the pixel signal Sgib of the undetected region Ru in the pixel signal Sgi of raster scanning are converted into gradations or signals. It can be easily identified by level.
図4に示すようにメモリ32bに格納されたラスタ走査の画像信号は、検波部33を形成する検波値算出回路33aにより、モニタ5に表示される生成画像における指定された領域としての指定領域の明るさを表す検波値を算出する。
また、メモリ32bに格納されたラスタ走査の画像信号Sgは、画像処理部34内のデジタルアンプ34aにおいて、シフトされた1階調分減算された後、増幅される。その後、画像処理回路34bにおいて輪郭強調等の画像処理が施された画像信号が生成され、モニタ5に出力され、生成画像として表示される。なお、1階調のシフトが無視できるような画像信号の場合には、デジタルアンプ34aにおいて、1階調分減算する処理を行わないようにしても良い。
図4に示すように検波部33は、指定領域の明るさを表す検波値を算出する検波値算出回路33aにより形成される。
As shown in FIG. 4, the raster scanning image signal stored in the
The raster scanning image signal Sg stored in the
As shown in FIG. 4, the
この検波値算出回路33aには、入力部6からユーザにより指定された指定領域に対応するアドレスの情報がコントローラ25を介して入力される。
検波値算出回路33aは、コントローラ25から入力されるアドレス情報により、モニタ5に表示する生成画像の画像信号における指定領域の画素信号の統計量として例えば画素信号の画素値の総和を算出し、指定領域において未検出領域Ruを除外した正味の検出領域の面積で除算したる平均値を検波値として算出する。
なお、本実施形態においては、動作モードとして簡易モードが選択された場合には、検波値算出回路33aは、指定領域における検出領域と未検出領域とを識別しないで、指定領域における画素信号の画素値の総和値を算出し、指定領域の面積で除算した統計量を検波値として算出する。
これに対して、動作モードとして標準モードが選択された場合には、検波値算出回路33aは、(指定領域において未検出領域Ruを除外した)正味の検出領域における画素信号の総和値を算出し、かつ(指定領域において未検出領域Ruを除外した)正味の検出領域の面積で、除算した平均値を検波値として算出する。この場合、1フレームないし数フレームT分の正味の検出領域における画素信号の総和値を算出し、正味の検出領域の面積SdとTとを乗算した値で、除算した平均値を検波値として算出するようにしても良い。
Information of an address corresponding to a designated area designated by the user is input from the
Based on the address information input from the
In the present embodiment, when the simple mode is selected as the operation mode, the detection
On the other hand, when the standard mode is selected as the operation mode, the detection
検波値算出回路33aにより算出された検波値は、コントローラ25に入力され、コントローラ25は、算出された検波値と、選択された動作モードとに基づいて、モニタ5に表示される生成画像の明るさを調整する制御動作を行う。
なお、図4に示すようにコントローラ25の内部のメモリ25aには、基準の明るさの情報、又は基準の明るさに対応する基準の検波値を格納している。つまり、メモリ25aは、基準の明るさ情報格納部を形成する。
また、図4に示すように光源部21は、照明光となるレーザ光を発生するレーザダイオード(図4ではLDと略記)21aと、レーザダイオード21aがレーザ光を発生するパルス電圧を制御するレーザ制御回路21bとを備える。
The detection value calculated by the detection
As shown in FIG. 4, the reference brightness information or the reference detection value corresponding to the reference brightness is stored in the
As shown in FIG. 4, the
本実施形態の走査型内視鏡装置1は、照明光を発生する光源部21と、第1端部に入射された前記照明光を第2端部に導光する導光部を形成する照明用光ファイバ12と、前記導光部の第2端部を渦巻き状軌跡を描くように振動させる走査部13と、前記第2端部から被検体を形成する患者2に照射された照明光に応じた反射光を検出する検出部23と、前記検出部23において検出される被検体像に対応する検出信号を変換して、直交座標系で表される生成画像に対応する画像信号を生成し、前記画像信号において指定された指定領域の画像信号強度の統計量を算出し、前記統計量として前記指定領域の明るさを表す検波値を算出する処理をする信号処理部24と、を有することを特徴とする。
次に本実施形態の動作を説明する。
本実施形態の走査型内視鏡装置1を図1に示すように設定した後、本体装置4の電源スイッチをONにする。すると、走査型内視鏡装置1は動作状態となる。
The
Next, the operation of this embodiment will be described.
After setting the
最初のステップS1において術者は、入力部6から複数の動作モードを選択する入力を行う。本実施形態においては、例えば簡易モードと、標準モードとの2つの動作モードが用意されており、ユーザは1つの動作モードを選択する。なお、3つ以上の動作モードを用意するようにしても良い。そして、術者は走査型内視鏡3を患者2の体内に挿入する。
次のステップS2においてコントローラ25は、光源部21、駆動部22、検出部23等を動作させ、照明用光ファイバ12の先端付近に設けた走査部13を駆動すると共に、照明光をパルス発光させて光走査を開始する。
次のステップS3において信号処理部24(の第1の画像生成部31)は、第1の画像信号を生成する。患者2の検査部位等の被写体に照射された照明光の反射光は受光用光ファイバ15により受光(検出)され、検出部23により光電変換された検出信号となり、第1の画像生成部31は渦巻き状走査軌跡に対応した第1の画像信号を生成する。
In the first step S1, the surgeon performs input for selecting a plurality of operation modes from the
In the next step S2, the
In the next step S3, the signal processing unit 24 (the first
次のステップS4においてラスタ変換部32は、第1の画像信号に対して、ラスタ変換する。ラスタ変換部32は、第1の画像信号に対して、ラスタ変換してラスタ走査の画像信号を生成する。
図9はラスタ変換の処理の詳細を示す1例である。
ラスタ変換の処理が開始すると、最初のステップS21において補間回路32aは、表示領域Rd中における各格子点を含むその周囲に図5に示したような設定領域Aを設定する。
次のステップS22において補間回路32aは、各格子点の周囲の設定領域A内に渦巻き状走査の画素信号が存在する場合の各格子点を特定する。
次のステップS23において補間回路32aは、格子点からの距離を考慮して、渦巻き状走査の画素信号を用いて格子点の画素信号を生成する。格子点の画素信号を生成する処理に関しては、図5において説明した。
In the next step S4, the
FIG. 9 is an example showing details of raster conversion processing.
When the raster conversion process is started, in the first step S21, the
In the next step S <b> 22, the
In the next step S23, the
次のステップS24において補間回路32aは、ステップS22の格子点全てに対して、ステップS23の処理を終了したか否かを判定する。
ステップS22の格子点全てに対して、ステップS23の処理を終了していない場合には、ステップS23の処理を繰り返す。そして、ステップS22の格子点全てに対して、ステップS23の処理を終了した判定結果の場合にはステップS25の処理に進む。
ステップS25において補間回路32aは、上述した格子点以外の(表示領域Rdに含まれる)格子点に対して、当該格子点の周囲の設定領域Aに渦巻き状走査の画素信号が存在しない格子点があるか否かの判定を行う。
渦巻き状走査の画素信号が存在しない格子点がある場合には、次のステップS26において補間回路32aは、当該格子点の上下、又は左右両側の各格子点がそれぞれ画素信号を有するか否かを判定する。
両側の各格子点がそれぞれ画素信号を有する場合には、次のステップS27において補間回路32aは、両側の各格子点がそれぞれ画素信号の平均値により当該格子点の画素信号を生成し、ステップS29の処理に移る。
In the next step S24, the
If the processing in step S23 has not been completed for all the lattice points in step S22, the processing in step S23 is repeated. Then, in the case of the determination result obtained by completing the process of step S23 for all the lattice points of step S22, the process proceeds to the process of step S25.
In step S25, the
If there is a grid point where there is no spiral scanning pixel signal, in the next step S26, the
When each grid point on both sides has a pixel signal, in the next step S27, the
一方、ステップS26の判定処理において、精々、処理対象の格子点に対して、一方の側に隣接する格子点のみが画素信号を有する場合には、ステップS28において補間回路32aは、当該処理対象の格子点は、走査領域Rs又は対応領域Rrの外の未検出領域Ruの格子点であると判定し、ステップS29の処理に移る。
ステップS29において補間回路32aは、ステップS25の格子点全てに対する処理を終了したか否かを判定する。ステップS25の格子点全てに対する処理を終了していない判定結果の場合には、ステップS26の処理に戻り、上述した処理を繰り返す。
このようにして、ステップS25の格子点全てに対する処理を終了した場合には、ステップS30の処理に移る。また、ステップS25の判定処理において、設定領域A内に渦巻き状走査の画素信号が存在する場合には、ステップS30の処理に移る。
On the other hand, in the determination process of step S26, when only the grid point adjacent to one side has the pixel signal at all, the
In step S29, the
Thus, when the process for all the lattice points in step S25 is completed, the process proceeds to step S30. Further, in the determination process in step S25, if a pixel signal for spiral scanning exists in the setting area A, the process proceeds to step S30.
ステップS30において補間回路32a(のオフセット処理回路32c)は、未検出領域Ruの格子点の画素信号を0階調の画像信号として生成し、未検出領域Ru以外となる対応領域Rr(又は検出領域R)の格子点の画素信号に対しては、ステップS23又はステップS27において生成した画素信号に、1階調分を加算した階調の画素信号を生成する処理を行う。そして、図9の処理を終了し、図8における次のステップS5の処理に移る。
ステップS9の処理により、対応領域Rr(又は検出領域R)における0階調の画素信号が存在した場合その画素信号の階調は1となり、未検出領域Ruに含まれる0階調の画素信号とを識別又は区別できるようになる。
図8におけるステップS5において信号処理部24(の画像処理部34)は、輪郭強調等を施したラスタ走査の画像信号をモニタ5に出力し、モニタ5は生成画像を表示する。
In step S30, the
If there is a 0 gradation pixel signal in the corresponding region Rr (or detection region R) by the processing in step S9, the gradation of the pixel signal becomes 1, and the 0 gradation pixel signal included in the undetected region Ru Can be identified or distinguished.
In step S5 in FIG. 8, the signal processing unit 24 (the
次のステップS6においてコントローラ25は、入力部6から指定領域が指定されたか否かの判定を行う。そして、コントローラ25は、入力部6から指定領域が指定されるのを待つ。
図10は、表示領域Rdに表示された生成画像において、入力部6から指定された指定領域Rbを示す。一般的に、指定領域Rdは、検出領域Rと未検出領域Ruとを含むように設定(指定)される場合がある。簡易モードにおいては、指定領域Rdは、検出領域Rとほぼ等しいと近似し、簡易モード以外の動作モードにおいては、指定領域Rdにおいて検出領域Rを算出する。なお、図10に示すように正方形の場合を含む長方形の指定領域Rbを指定する場合には、対角線方向に対向する2点P1,P2のアドレスを指定しても良いし、マウスなどで2点を指定するようにしても良い。
また、2点鎖線で示すように、より複雑な形状の指定領域Rbを指定することもできる。
In the next step S <b> 6, the
FIG. 10 shows a designated region Rb designated from the
In addition, as indicated by a two-dot chain line, it is possible to designate a designated region Rb having a more complicated shape.
次のステップS7においてコントローラ25は、ステップS1において簡易モードが選択されたか否かの判定を行う。
簡易モードが選択されている場合には、次のステップS8において検波部33(を形成する検波値算出回路33a)は指定領域の検波値を算出する(これに対して、後述するように簡易モード以外のモードでは指定領域における検出領域を算出し、検出領域の検波値を算出する)。検波部33は、算出した検波値をコントローラ25に送る。
次のステップS9においてコントローラ25は、検波値を基準の明るさ(に対応する基準の検波値)と比較し、基準の明るさとなるように画像処理部34のデジタルアンプ34aのデジタルのゲインを調整(制御)する。
次のステップS10においてコントローラ25は、入力部6から内視鏡検査を終了する指示入力がされたか否かを判定する。内視鏡検査を終了する指示入力がされない場合には、ステップS8の処理に戻るようにコントローラ25は制御し、内視鏡検査を終了する指示入力がされた場合には図8の処理を終了する。
In the next step S7, the
When the simple mode is selected, in the next step S8, the detection unit 33 (the detection
In the next step S9, the
In the next step S <b> 10, the
ステップS7において簡易モードが選択されていない場合には、ステップS11においてコントローラ25は、標準モードが選択されたと判定し、この判定結果の情報を検波部33に送る。
次のステップS12において検波部33は、指定領域中における検出領域を算出する。図10の場合、指定領域Rb中における検出領域R(又は対応領域Rr)を算出する。換言すると、指定領域Rb中における未検出領域Ruを算出し、指定領域Rbから斜線で示す未検出領域Ruを減算して指定領域Rb中の検出領域R(又は対応領域Rr)を算出する。
次のステップS13において検波部33は、指定領域Rb中の検出領域R(又は対応領域Rr)において検波値を算出する。検波部33は、算出した検波値をコントローラ25に送る。
次のステップS14aからS14fにおいてコントローラ25は、検波値を基準の明るさに対応する基準の検波値と比較する。そして、コントローラ25は、基準の検波値となるようにデジタルアンプ34a、APD23a、光源部21の順の優先度を考慮して明るさ調整を行う。
If the simple mode is not selected in step S7, the
In the next step S12, the
In the next step S13, the
In the next steps S14a to S14f, the
具体的には、検波値が基準の明るさに対応する基準の検波値とずれている場合、ステップS14aにおいてコントローラ25は、画像処理部34のデジタルアンプ34aのデジタルのゲインを予め設定されたゲインの範囲内で、検波値が基準の検波値に等しくする方向にゲイン調整(制御)する。その後の次のステップS14bにおいてコントローラ25は、検波値が基準の検波値に一致したか判定する。
ステップS14bにおいて検波値が基準の検波値に一致しない場合には、次のステップS14cにおいてコントローラ25はAPD23aの増倍率を、予め設定された増倍率の範囲内で、検波値が基準の検波値に等しくする方向に調整(制御)する。その後の次のステップS14dにおいてコントローラ25は、検波値が基準の検波値に一致したか判定する。
ステップS14dにおいて検波値が基準の検波値に一致しない場合には、次のステップS14eにおいてコントローラ25は、光源部21におけるレーザダイオード21aの光量を所定の範囲内で調整し、検波値が基準の検波値に一致するように調整する。その後のステップS14fにおいてコントローラ25は、検波値が基準の検波値に一致したか判定する。ステップS14fにおいて検波値が基準の検波値に一致しない場合には、ステップS14aの処理に戻り、同様の処理を繰り返す。
Specifically, when the detection value is different from the reference detection value corresponding to the reference brightness, in step S14a, the
If the detection value does not match the reference detection value in step S14b, in the next step S14c, the
If the detection value does not match the reference detection value in step S14d, in the next step S14e, the
一方、ステップS14b、ステップS14d、又はステップS14fにおいて検波値が基準の検波値に一致した場合には、ステップS15の処理に移る。ステップS15においてコントローラ25は、入力部6から内視鏡検査を終了する指示入力がされたか否かを判定する。内視鏡検査を終了する指示入力がされない場合には、ステップS13の処理に戻るようにコントローラ25は制御する。
一方、内視鏡検査を終了する指示入力がされた場合には図8の処理を終了する。
このように動作する第1の実施形態によれば、走査内視鏡2における走査軌跡等にばらつきが存在するような場合においても、内視鏡画像の明るさを表す検波値を簡単に取得できる。
より詳細に述べると、本体装置4に接続される走査型内視鏡3に搭載された走査部13等に個体差や渦巻き状の走査軌跡にばらつきが存在するような場合においても、ラスタ変換後の直交座標系で表される画像信号又は生成画像のアドレスは、それらのばらつきに関係なく、いつも同じになる。その結果、走査部13等の個体差や走査軌跡に影響されることなく、検波値を取得する指定領域を直交座標系上で設定でき、指定領域内の生成画像の明るさを表す検波値を、ラスタ変換前の場合に比較して少ない計算量で簡単に取得することができ、回路規模を小さくできる。
また、本実施形態においては、実際に光走査を行って検出した検出領域内の検出信号としての画像信号(又は画素信号)と、ラスタ変換の際に含まれるようになった未検出領域の検出信号としての画像信号(又は画素信号)とを階調を表す階調信号等の識別信号で識別又は区別できるようにしているので、検波値を取得する指定領域として未検出領域が含まれるように指定された場合においても指定領域内の検出領域に対する検波値(つまり画像の明るさ)を精度良く算出することができる。
また、本実施形態によれば、検波値を算出した場合、生成画像の明るさを調整可能とする複数の明るさ調整手段(明るさ調整デバイス)の1つ又は複数を用いて、観察し易い明るさに調整することができる。また、この場合、複数の明るさ調整において、優先度の高いものを優先して明るさ調整をすることもできる。
また、本実施形態によれば、ラスタ変換前においての画像の中心部等、他の領域よりのサンプリング密度(検出密度)が集中している領域が存在する場合でも、ラスタ変換後においての画素密度は、他の領域と変わらなくなるため、必要以上に多くの画素値を用いて統計量としての検波値を算出する必要がなくなる。その結果、ラスタ変換前の検出信号から算出する場合に比べて、検波値を算出する計算量を低減することができる。
On the other hand, if the detection value matches the reference detection value in step S14b, step S14d, or step S14f, the process proceeds to step S15. In step S <b> 15, the
On the other hand, when the instruction input for ending the endoscopic examination is made, the processing in FIG. 8 is ended.
According to the first embodiment that operates in this way, even when there are variations in the scanning trajectory or the like in the
More specifically, even after the raster conversion, even when there are individual differences or variations in the spiral scanning trajectory in the
Further, in the present embodiment, detection of an image signal (or pixel signal) as a detection signal in a detection area actually detected by optical scanning and detection of an undetected area included in the raster conversion. Since an image signal (or pixel signal) as a signal can be identified or distinguished by an identification signal such as a gradation signal representing gradation, an undetected area is included as a designated area for acquiring a detection value. Even when designated, the detection value (that is, the brightness of the image) for the detection region within the designated region can be calculated with high accuracy.
Further, according to the present embodiment, when the detection value is calculated, it is easy to observe using one or more of a plurality of brightness adjusting means (brightness adjusting devices) that can adjust the brightness of the generated image. The brightness can be adjusted. Further, in this case, in a plurality of brightness adjustments, the brightness adjustment can be performed with priority given to the one having a higher priority.
Further, according to the present embodiment, even when there is a region where sampling density (detection density) from other regions is concentrated, such as the center of the image before raster conversion, the pixel density after raster conversion Since it is not different from other regions, it is not necessary to calculate a detection value as a statistic using more pixel values than necessary. As a result, the amount of calculation for calculating the detection value can be reduced as compared with the case of calculating from the detection signal before raster conversion.
上述した実施形態においては、図9において説明したようにラスタ変換を行った際に、未検出領域の画素信号を検出領域(又は対応領域)における0階調の画素信号とを、例えば検出領域(又は対応領域)の画素信号に1階調加算した階調にシフトすることにより両領域の画素信号を簡単に区別できるようにしているので、精度の良い検波値を算出することができる。
このように両領域の画素信号を区別できるようにする場合、例えば一方の領域の画素信号には識別のためのフラグビットを付け、他方の領域の画素信号にはフラグビットを付けないようにして区別(識別)できるようにしても良い。
また、上述した実施形態においては、ラスタ変換を行った処理の最後に1階調のオフセット処理で両領域の画像信号を区別(識別)できるようにしたが、図11に示すようにラスタ変換を行う前段側において1階調のオフセット処理を施すようにしても良い。
In the above-described embodiment, when raster conversion is performed as described with reference to FIG. 9, the pixel signal of the undetected area is converted to the pixel signal of 0 gradation in the detection area (or corresponding area), for example, the detection area ( Alternatively, the pixel signals in both areas can be easily distinguished by shifting to a gradation obtained by adding one gradation to the pixel signal in the corresponding area), so that a highly accurate detection value can be calculated.
In this way, when making it possible to distinguish the pixel signals of both regions, for example, a flag bit for identification is added to the pixel signal of one region, and a flag bit is not attached to the pixel signal of the other region. You may make it distinguishable (identification).
In the above-described embodiment, the image signals in both areas can be distinguished (identified) by one-tone offset processing at the end of the raster conversion processing. However, as shown in FIG. One-tone offset processing may be performed on the preceding stage.
図11に示す例では、例えばA/D変換回路31aにおいてA/D変換を行った際に、検出領域の第1の画像信号が生成される前の信号に対して、未検出領域の信号と、信号の階調により区別できるように1階調分オフセットさせるようにした例を示す。
図11における左側に示すA/D変換前のアナログの信号Saiの階調範囲が0〜4095であるとした場合、A/D変換後のデジタルの信号Saaiの階調範囲を1〜4095となるように1階調分オフセットさせるようにしても良い。
具体的にはA/D変換前のアナログで階調Qiの信号Sai(但し、Qi=0〜4095)は、A/D変換後に階調Qi′(Qi′=Qi+1)のデジタルの信号Saaiに1階調分オフセットさせるようにしても良い。但し、最大の階調の場合のみ、Qi′=Qiとする。
但し、ラスタ変換を行う場合には、ラスタ変換前の検出信号(第1の画像信号又は第1の画素信号)に対して、1階調分だけ加算されたことを考慮して、ラスタ変換を行う必要がある。
In the example illustrated in FIG. 11, for example, when A / D conversion is performed in the A /
When the gradation range of the analog signal Sai before A / D conversion shown on the left side in FIG. 11 is 0 to 4095, the gradation range of the digital signal Saai after A / D conversion is 1 to 4095. In this way, it may be offset by one gradation.
More specifically, an analog signal Qai of gradation Qi before A / D conversion (Qi = 0 to 4095) is converted to a digital signal Saai of gradation Qi ′ (Qi ′ = Qi + 1) after A / D conversion. It may be offset by one gradation. However, only in the case of the maximum gradation, Qi ′ = Qi.
However, when raster conversion is performed, the raster conversion is performed in consideration of the addition of one gradation to the detection signal (first image signal or first pixel signal) before the raster conversion. There is a need to do.
なお、上述した実施形態を変形した構成にしても良い。例えば、簡易モード、標準モードでそれぞれ別々の実施形態を構成するようにしても良い。また、簡易モード及び標準モードの動作を変形しても良い。例えば、上述すた簡易モードにおいて、検波値を算出するのみの構成にしても良い。
また、上述した標準モードの動作として、算出した検波値が基準の検波値に一致するように、デジタルアンプ34a、APD23a、レーザ光源の優先順序で調整(制御)する場合、デジタルアンプ34aによる1回当たりのゲインの調整量、APD23aにより1回当たりの増倍率の調整量、レーザ光源による1回当たりの光量調整量を、優先順序が高いもの程、大きくするようにしても良い。
また、算出した検波値が基準の検波値に一致するように調整(制御)する場合の優先順序をデジタルアンプ34a、APD23a、レーザ光源からユーザが指定できるようにしても良いし、デジタルアンプ34a、APD23a、レーザ光源の3つを用いる場合に限らず、1つ又は2つを用いるように選択できるようにしても良い。
Note that the above-described embodiment may be modified. For example, different embodiments may be configured in the simple mode and the standard mode. Further, the operation in the simple mode and the standard mode may be modified. For example, in the simple mode described above, the detection value may be calculated only.
Further, as an operation in the above-described standard mode, when adjustment (control) is performed in the priority order of the
In addition, the user may be able to specify the priority order when adjusting (controlling) the calculated detection value to match the reference detection value from the
1…走査型内視鏡装置、2…被検体、3…走査型内視鏡、4…本体装置、5…モニタ、6…入力部、11…挿入部、12…照明用光ファイバ、13…走査部、15…走査部、16…メモリ、16a…LUT、21…光源部、22…駆動部、23…検出部、23a…APD、24…信号処理部、25…コントローラ、31…第1の画像生成部、31a…A/D変換回路、31c…座標付与回路、32…ラスタ変換部、32a…補間回路、、32b…メモリ、32c…オフセット処理回路、33…検波部、33a…検波値算出回路、34…画像処理部、34a…デジタルアンプ、35…メモリ、35a…LUT
DESCRIPTION OF
Claims (9)
第1端部に入射された前記照明光を第2端部に導光する導光部と、
前記導光部の第2端部を渦巻き軌道を描くように振動させる走査部と、
前記第2端部から被検体に照射された照明光に応じた反射光を検出する検出部と、
前記検出部において検出される被検体像に対応する検出信号を変換して、直交座標系で表される生成画像に対応する画像信号を生成し、前記画像信号において指定された指定領域の画像信号強度の統計量を算出し、前記統計量として前記指定領域の明るさを表す検波値を算出する信号処理部と、
を有することを特徴とする走査型内視鏡装置。 A light source unit that generates illumination light;
A light guide that guides the illumination light incident on the first end to the second end;
A scanning unit that vibrates the second end of the light guide unit so as to draw a spiral trajectory;
A detection unit that detects reflected light according to illumination light applied to the subject from the second end;
A detection signal corresponding to the subject image detected by the detection unit is converted to generate an image signal corresponding to a generated image represented by an orthogonal coordinate system, and an image signal of a specified region specified in the image signal A signal processing unit that calculates an intensity statistic and calculates a detection value representing the brightness of the specified region as the statistic;
A scanning endoscope apparatus comprising:
前記生成画像に含まれる、前記検出信号が得られなかった画素に対して、前記画像信号強度の1階調に相当する値が付与されていることを特徴とする請求項1に記載の走査型内視鏡装置。 The image signal intensity is expressed in gradation.
2. The scanning type according to claim 1, wherein a value corresponding to one gradation of the image signal intensity is given to a pixel included in the generated image where the detection signal is not obtained. Endoscopic device.
前記生成画像の含まれる、前記検出信号が得られた画素には、前記検出信号強度と1階調ずれた前記画像信号強度が付与されていることを特徴とする請求項2に記載の走査型内視鏡装置。 The detection signal intensity of the detection signal is expressed in gradation.
3. The scanning type according to claim 2, wherein the image signal intensity, which is included in the generated image and from which the detection signal is obtained, is shifted by one gradation from the detection signal intensity. 4. Endoscopic device.
前記検出強度信号は前記諧調表現の1階調を利用しないで表現されており、
前記生成画像の含まれる、前記検出信号が得られなかった画素には、利用されない前記1階調に相当する値が付与されていることを特徴とする請求項2に記載の走査型内視鏡装置。 The detection signal intensity of the detection signal is expressed in gradation.
The detected intensity signal is expressed without using one gradation of the gradation expression,
The scanning endoscope according to claim 2, wherein a value corresponding to the one gradation that is not used is assigned to a pixel in which the detection signal is not obtained, which is included in the generated image. apparatus.
Sequential control by a predetermined amount in order of priority of the amplification factor of the digital amplifier provided in the signal processing unit, the amplification factor of the detection unit, and the irradiation light intensity of the light source unit so that the detection value becomes a reference detection value The scanning endoscope apparatus according to claim 8, further comprising a control unit that performs the control.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015209889A JP6599728B2 (en) | 2015-10-26 | 2015-10-26 | Scanning endoscope device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015209889A JP6599728B2 (en) | 2015-10-26 | 2015-10-26 | Scanning endoscope device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017079930A true JP2017079930A (en) | 2017-05-18 |
JP6599728B2 JP6599728B2 (en) | 2019-10-30 |
Family
ID=58712425
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015209889A Active JP6599728B2 (en) | 2015-10-26 | 2015-10-26 | Scanning endoscope device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6599728B2 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09262206A (en) * | 1996-03-28 | 1997-10-07 | Asahi Optical Co Ltd | Light controller for electronic endoscope |
JP2010125270A (en) * | 2008-12-01 | 2010-06-10 | Hoya Corp | Endoscope apparatus |
JP2012245161A (en) * | 2011-05-27 | 2012-12-13 | Olympus Corp | Endoscope apparatus |
JP2013183911A (en) * | 2012-03-08 | 2013-09-19 | Hoya Corp | Electronic endoscope system |
WO2015145826A1 (en) * | 2014-03-28 | 2015-10-01 | オリンパス株式会社 | Scanning endoscopic device |
WO2015186384A1 (en) * | 2014-06-02 | 2015-12-10 | オリンパス株式会社 | Endoscope system |
-
2015
- 2015-10-26 JP JP2015209889A patent/JP6599728B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09262206A (en) * | 1996-03-28 | 1997-10-07 | Asahi Optical Co Ltd | Light controller for electronic endoscope |
JP2010125270A (en) * | 2008-12-01 | 2010-06-10 | Hoya Corp | Endoscope apparatus |
JP2012245161A (en) * | 2011-05-27 | 2012-12-13 | Olympus Corp | Endoscope apparatus |
JP2013183911A (en) * | 2012-03-08 | 2013-09-19 | Hoya Corp | Electronic endoscope system |
WO2015145826A1 (en) * | 2014-03-28 | 2015-10-01 | オリンパス株式会社 | Scanning endoscopic device |
WO2015186384A1 (en) * | 2014-06-02 | 2015-12-10 | オリンパス株式会社 | Endoscope system |
Also Published As
Publication number | Publication date |
---|---|
JP6599728B2 (en) | 2019-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8994804B2 (en) | Scanning endoscope system | |
EP2756790B1 (en) | Endoscopic system | |
JP5963982B2 (en) | Image processing system and image processing apparatus | |
JP2010115391A (en) | Endoscope apparatus | |
JP2010125270A (en) | Endoscope apparatus | |
JP6401800B2 (en) | Image processing apparatus, operation method of image processing apparatus, operation program for image processing apparatus, and endoscope apparatus | |
US20210282630A1 (en) | Image processing device and method, endoscope system, and program | |
JP5841513B2 (en) | Scanning endoscope system | |
JP2015077415A (en) | Scanning type internal observation device and method of obtaining observation image using the same | |
JP5244164B2 (en) | Endoscope device | |
US11612041B2 (en) | Light source device, medical observation system, illumination method, and computer readable recording medium | |
WO2014020943A1 (en) | Endoscope system | |
JP2005204958A (en) | Autofluorescently observable electronic endoscope apparatus and system | |
JPWO2018235460A1 (en) | Endoscope system | |
JP6599728B2 (en) | Scanning endoscope device | |
US9974432B2 (en) | Scanning endoscope apparatus with drive signal correction | |
JP2002102147A (en) | Fluorescent image acquisition device | |
JP6257475B2 (en) | Scanning endoscope device | |
JP2017086549A (en) | Scanning endoscope apparatus | |
JP6574105B2 (en) | Endoscope apparatus and endoscope system | |
US20230347169A1 (en) | Phototherapy device, phototherapy method, and computer-readable recording medium | |
JP2018033783A (en) | Endoscope processor | |
JP6806481B2 (en) | Imaging device, control method of imaging device, and program | |
JP5945390B2 (en) | Observation apparatus, operation method of observation apparatus, and image processing program | |
JP2015033456A (en) | Endoscope system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180720 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190416 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190514 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190716 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190716 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190903 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191003 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6599728 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |