JP2017079930A - Scan type endoscope apparatus - Google Patents

Scan type endoscope apparatus Download PDF

Info

Publication number
JP2017079930A
JP2017079930A JP2015209889A JP2015209889A JP2017079930A JP 2017079930 A JP2017079930 A JP 2017079930A JP 2015209889 A JP2015209889 A JP 2015209889A JP 2015209889 A JP2015209889 A JP 2015209889A JP 2017079930 A JP2017079930 A JP 2017079930A
Authority
JP
Japan
Prior art keywords
detection
signal
unit
image
gradation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015209889A
Other languages
Japanese (ja)
Other versions
JP6599728B2 (en
Inventor
正憲 住吉
Masanori Sumiyoshi
正憲 住吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2015209889A priority Critical patent/JP6599728B2/en
Publication of JP2017079930A publication Critical patent/JP2017079930A/en
Application granted granted Critical
Publication of JP6599728B2 publication Critical patent/JP6599728B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a scan type endoscope apparatus capable of easily acquiring a detection value indicating the brightness of an endoscope image even when there is a variation in a scan trajectory, etc.SOLUTION: Return light detected by a light receiving optical fiber 15 is converted to a detection signal at a detection part 23. A first image signal corresponding to a spiral scan trajectory is generated at a first image generation part 31, and converted to an image signal of a rectangular coordinate system by a raster conversion part 32. A detection value indicating the brightness of a designated area is calculated at a detection part 33.SELECTED DRAWING: Figure 1

Description

本発明は、照明光を走査して内視鏡画像を生成する走査型内視鏡装置に関する。   The present invention relates to a scanning endoscope apparatus that generates an endoscopic image by scanning illumination light.

近年、内視鏡は、医療分野及び工業用分野において広く用いられるようになっている。また、照明光を光ファイバにより導光し、導光した照明光を被検体上で走査して内視鏡画像を生成する走査型内視鏡が種々提案されている。走査型内視鏡は、挿入部を細径化するのに適する。
例えば、第1の従来例としての特開2014−046141号公報の走査型内視鏡装置においては、蛍光の褪色を軽減するために、画像の中心領域と周辺領域とで蛍光レベルの平均値を計算して、光源にフィードバックして一様な明るさの内視鏡画像を取得できるようにしている。
また、第2の従来例としての特開2014−061227号公報の走査型内視鏡装置においては、内視鏡画像の褪色を軽減するために、画像の中心領域では光源パルスを密に、周辺領域では光源パルスを疎にして、一様な明るさの内視鏡画像を取得できるようにしている。
In recent years, endoscopes have been widely used in the medical field and industrial field. Various scanning endoscopes have been proposed in which illumination light is guided by an optical fiber, and the guided illumination light is scanned on a subject to generate an endoscope image. The scanning endoscope is suitable for reducing the diameter of the insertion portion.
For example, in the scanning endoscope apparatus disclosed in Japanese Patent Application Laid-Open No. 2014-046141 as the first conventional example, the average value of the fluorescence level is set between the central region and the peripheral region of the image in order to reduce the fading of the fluorescence. It is calculated and fed back to the light source so that an endoscopic image with uniform brightness can be acquired.
Further, in the scanning endoscope apparatus disclosed in Japanese Patent Application Laid-Open No. 2014-061227 as the second conventional example, in order to reduce discoloration of the endoscope image, the light source pulses are densely arranged in the central region of the image, In the region, light source pulses are sparse so that an endoscopic image with uniform brightness can be acquired.

走査型内視鏡においても、通常の内視鏡の場合と同様にモニタに表示される内視鏡画像を、検査や診断等に適した明るさに設定するために、画面上における所定の領域の画素値の統計量を計算する検波が行われることがある。
走査型内視鏡においては、走査軌跡や走査速度は、製造時の個体差や製造バラツキ、振動制御のバラツキなどに起因して、設計値から走査型内視鏡に固有な量だけずれる。その結果、画面上におけるある領域の明るさが、照明光を順次パルス発光させた場合における何番目のサンプリングされる信号から得られるかは、走査型内視鏡によって異なってしまう。
即ち、従来例の走査型内視鏡装置や方法を用いて画面上の決まった領域の検波を行おうとした場合、何番目にサンプリングされる信号の統計量(例えば平均値)を取るかえを、走査型内視鏡ごとに変えなければならなくなる。このため、検波に係る計算量の増大や回路規模を大きくしなければならない。
In a scanning endoscope, a predetermined area on the screen is set in order to set an endoscopic image displayed on a monitor to a brightness suitable for examination, diagnosis, etc., as in the case of a normal endoscope. Detection may be performed to calculate the statistic of the pixel value.
In the scanning endoscope, the scanning trajectory and the scanning speed are deviated from the design value by an amount unique to the scanning endoscope due to individual differences during manufacturing, manufacturing variations, vibration control variations, and the like. As a result, the number of the sampled signal when the brightness of a certain area on the screen is obtained by sequentially illuminating the illumination light varies depending on the scanning endoscope.
That is, when trying to detect a predetermined area on the screen using the conventional scanning endoscope apparatus or method, how to take the statistical amount (for example, average value) of the signal sampled, It must be changed for each scanning endoscope. For this reason, it is necessary to increase the amount of calculation related to detection and increase the circuit scale.

特開2014−046141号公報JP 2014-0461141 A 特開2014−061227号公報JP 2014-061227 A

しかしながら、上記の第1の従来例、及び第2の従来例とも、上記検波に係る計算量を低減する内容を開示していない。
本発明は上述した点に鑑みてなされたもので、走査軌跡等にばらつきが存在するような場合においても、内視鏡画像の明るさを表す検波値を簡単に取得できる走査型内視鏡装置を提供することを目的とする。
However, neither the first conventional example nor the second conventional example discloses the contents for reducing the amount of calculation related to the detection.
The present invention has been made in view of the above points, and a scanning endoscope apparatus that can easily obtain a detection value representing the brightness of an endoscopic image even when there is a variation in a scanning trajectory or the like. The purpose is to provide.

本発明の一態様の走査型内視鏡装置は、照明光を発生する光源部と、第1端部に入射された前記照明光を第2端部に導光する導光部と、前記導光部の第2端部を渦巻き軌道を描くように振動させる走査部と、前記第2端部から被検体に照射された照明光に応じた反射光を検出する検出部と、前記検出部において検出される被検体像に対応する検出信号を変換して、直交座標系で表される生成画像に対応する画像信号を生成し、前記画像信号において指定された指定領域の画像信号強度の統計量を算出し、前記統計量として前記指定領域の明るさを表す検波値を算出する信号処理部と、を有する。   The scanning endoscope apparatus according to one aspect of the present invention includes a light source unit that generates illumination light, a light guide unit that guides the illumination light incident on the first end to the second end, and the guide. A scanning unit that vibrates the second end of the light unit so as to draw a spiral trajectory; a detection unit that detects reflected light according to illumination light applied to the subject from the second end; and the detection unit The detection signal corresponding to the detected subject image is converted to generate an image signal corresponding to the generated image represented in the orthogonal coordinate system, and the image signal intensity statistic of the specified area specified in the image signal And a signal processing unit that calculates a detection value representing the brightness of the designated region as the statistic.

本発明によれば、走査内視鏡における走査軌跡等にばらつきが存在するような場合においても、内視鏡画像の明るさを表す検波値を簡単に取得できる。   According to the present invention, even when there are variations in the scanning trajectory or the like in the scanning endoscope, a detection value representing the brightness of the endoscope image can be easily obtained.

図1は本発明の第1の実施形態の走査型内視鏡装置の全体構成を示す図。−FIG. 1 is a diagram showing an overall configuration of a scanning endoscope apparatus according to a first embodiment of the present invention. − 図2は照明様光ファイバの先端を走査部で駆動し、パルス発光した照明光の照射位置が渦巻き状の走査軌跡を描く様子を示す図。FIG. 2 is a diagram showing a state in which the tip of an illumination-like optical fiber is driven by a scanning unit, and the irradiation position of pulsed illumination light draws a spiral scanning locus. 図3は光源をパルス発光させる場合の序数と照射位置の座標とが関連付けられたLUTの内容を表形式で示す図。FIG. 3 is a table showing the contents of the LUT in which the ordinal number and the coordinates of the irradiation position are associated with each other when the light source emits pulses. 図4は信号処理部等の構成を示すブロック図。FIG. 4 is a block diagram illustrating a configuration of a signal processing unit and the like. 図5は渦巻き状走査の第1の画像信号からラスタ走査の画像信号に変換する場合の説明図。FIG. 5 is an explanatory diagram when converting the first image signal of the spiral scan into the image signal of the raster scan. 図6は渦巻き状走査の第1の画像信号がラスタ変換によりラスタ走査の画像信号に変換された様子を模式的に示す図。FIG. 6 is a diagram schematically illustrating a state in which the first image signal of the spiral scan is converted into the raster scan image signal by raster conversion. 図7Aは渦巻き状走査の第1の画素信号がラスタ変換されて、ラスタ走査の画素信号に変換され、メモリに格納された様子を模式的に示す図。FIG. 7A is a diagram schematically illustrating a state in which the first pixel signal of the spiral scan is raster-converted, converted into a raster-scan pixel signal, and stored in the memory. 図7Bはラスタ走査の画素信号に対して、1階調分シフトするオフセット処理により、渦巻き状走査の検出信号の階調が0となる画素信号を、未検出信号のために階調が0となる画素信号とを識別できるように階調において区分けした様子を示す図。FIG. 7B shows a pixel signal in which the gradation of the detection signal of the spiral scan becomes 0 by the offset process for shifting the gradation scanning pixel signal by one gradation, and the gradation is 0 for the non-detection signal. The figure which shows a mode that it divided in the gradation so that it might distinguish from the pixel signal which becomes. 図8は第1の実施形態の代表的な処理内容を示すフローチャート。FIG. 8 is a flowchart showing typical processing contents of the first embodiment. 図9は図8におけるラスタ変換の処理の詳細な処理内容を示すフローチャート。FIG. 9 is a flowchart showing detailed processing contents of the raster conversion processing in FIG. 図10は表示領域の生成画像に対して検波値を取得する領域としての指定領域を設定した様子を示す図。FIG. 10 is a diagram illustrating a state in which a designated area is set as an area for obtaining a detection value for a generated image in the display area. 図11はA/D変換を行う前後において検出信号に1階調分シフトする例を示す図。FIG. 11 is a diagram illustrating an example in which the detection signal is shifted by one gradation before and after performing A / D conversion.

以下、図面を参照して本発明の実施形態を説明する。
(第1の実施形態)
図1に示すように本発明の第1の実施形態の走査型内視鏡装置1は、被検体としての例えば患者2の内部に挿入され、患者2の体内を検査するための走査型内視鏡3と、この走査型内視鏡3が着脱自在に接続される走査型内視鏡制御装置(本体装置と略記)4と、本体装置4により生成された画像信号が入力されることにより対応する生成画像を内視鏡画像として表示するモニタ5とを有する。また、本体装置4に対して、術者等のユーザは、キーボードなどからなる入力部6を操作して、走査型内視鏡装置1の動作を選択したり、制御することができる。例えば、入力部6から後述する検波部33により検波値を算出する領域としての指定領域(又は検波領域)を指定(又は設定)したり、本実施形態の動作モードを選択することができる。このため、入力部6は、指定領域(又は検波領域)を設定する指定領域設定部6aの機能を持つ。また、動作モードを選択する動作モード選択部の機能を持つ。
走査型内視鏡3は、細長の挿入部11を有し、この挿入部11内には、照明光を導光する導光部を形成する照明用光ファイバ12が配設されている。照明用光ファイバ12の第1端部となる基端には、本体装置4に設けられた光源部21が発生した照明光が入射される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
As shown in FIG. 1, a scanning endoscope apparatus 1 according to a first embodiment of the present invention is inserted into, for example, a patient 2 as a subject, and a scanning endoscope for examining the inside of the patient 2. The mirror 3, a scanning endoscope control device (abbreviated as a main body device) 4 to which the scanning endoscope 3 is detachably connected, and an image signal generated by the main body device 4 is input. And a monitor 5 for displaying the generated image as an endoscopic image. Further, a user such as an operator can select or control the operation of the scanning endoscope apparatus 1 by operating the input unit 6 including a keyboard or the like with respect to the main body apparatus 4. For example, it is possible to designate (or set) a designated region (or a detection region) as a region for calculating a detection value from the input unit 6 using the detection unit 33 described later, or to select an operation mode of the present embodiment. For this reason, the input unit 6 has a function of a designated region setting unit 6a for setting a designated region (or detection region). Also, it has a function of an operation mode selection unit for selecting an operation mode.
The scanning endoscope 3 includes an elongated insertion portion 11, and an illumination optical fiber 12 that forms a light guide portion that guides illumination light is disposed in the insertion portion 11. Illumination light generated by the light source unit 21 provided in the main body device 4 is incident on the base end serving as the first end of the illumination optical fiber 12.

照明用光ファイバ12は、基端に入射された照明光を第2端部となる先端に導光する。先端に導光された照明光は、この先端から図示しない集光レンズを経て患者2の患部等の検査部位(被写体)2aに集光して照射される。なお、照明光は、パルス発光するように制御される。
照明用光ファイバ12の先端付近には、走査部13が設けられ、本体装置4の駆動部22が出力する駆動信号が駆動線14を介して印加されることにより、走査部13は照明用光ファイバ12の先端を渦巻き状又は螺旋状の走査軌跡を描くように振動させる。そして、被写体2aに照射された照明光は、渦巻き状又は螺旋状の走査軌跡を描くように照射位置が変化する。
図2は基準の被写体に対して1フレーム分の画像を取得する際に、パルス発光した照明光の照射位置を序数で示した図である。走査開始位置でパルス発光した際には序数O1(図2中では単に1、以下のO2等においても同様)で示す照射位置となり、渦巻き状の走査軌跡を描く最中において順次パルス発光した際の照射位置が序数O2,O3,…となり、走査終了位置でパルス発光した際の照射位置が序数Onとなる。
The illumination optical fiber 12 guides the illumination light incident on the proximal end to the distal end serving as the second end. The illumination light guided to the tip is condensed and irradiated from the tip to an examination site (subject) 2a such as an affected part of the patient 2 through a condenser lens (not shown). The illumination light is controlled to emit pulses.
A scanning unit 13 is provided in the vicinity of the distal end of the illumination optical fiber 12, and a drive signal output from the drive unit 22 of the main body device 4 is applied via the drive line 14. The tip of the fiber 12 is vibrated so as to draw a spiral or spiral scanning locus. The illumination position of the illumination light applied to the subject 2a changes so as to draw a spiral or spiral scanning locus.
FIG. 2 is an ordinal number showing the irradiation position of the illumination light pulsed when acquiring an image for one frame with respect to the reference subject. When pulsed light is emitted at the scanning start position, it becomes an irradiation position indicated by ordinal number O1 (simply 1 in FIG. 2, the same applies to the following O2 etc.), and when pulsed light is emitted sequentially while drawing a spiral scanning locus. The irradiation position is the ordinal number O2, O3,..., And the irradiation position when the pulse emission is performed at the scanning end position is the ordinal number On.

図1に示すように挿入部11内には、被検体において反射された照明光を検出する第2の導光部を形成する受光用光ファイバ15が配設されている。受光用光ファイバ15の先端は、挿入部11の先端に配置され、先端に入射された反射光を受光用光ファイバ15の基端に導光する。
基端に導光された反射光は、本体装置4における光電変換素子を備えた検出部23に入射され、光電変換されて検出信号となる。この検出信号は、信号処理部24に入力され、信号処理部24は、モニタ5に表示する生成画像の画像信号を生成する。
また、走査型内視鏡3は、挿入部11の基端に設けたコネクタ部11a内に設けたメモリ16を有する。このメモリ16は、序数Oiと照射位置の2次元座標位置(Xi,Yi)とが関連付けた情報(配置情報)を例えばルックアップテーブル(LUT)16aとして格納している。
図3はLUT16aの例を示す。図3に示すようにLUT16aは、パルス発光する際の序数Oiと照射位置の座標(Xi,Yi)とが関連付けて格納している。従って、信号処理部24は、序数Oiに対応した検出信号に対して、LUT16aの配置情報を参照することにより、座標位置の検出信号、つまり座標位置が特定される画素の検出信号を生成することができる。
As shown in FIG. 1, a light receiving optical fiber 15 that forms a second light guide for detecting illumination light reflected by the subject is disposed in the insertion portion 11. The distal end of the light receiving optical fiber 15 is disposed at the distal end of the insertion portion 11 and guides the reflected light incident on the distal end to the proximal end of the light receiving optical fiber 15.
The reflected light guided to the base end enters the detection unit 23 including the photoelectric conversion element in the main body device 4 and is photoelectrically converted into a detection signal. This detection signal is input to the signal processing unit 24, and the signal processing unit 24 generates an image signal of a generated image to be displayed on the monitor 5.
Further, the scanning endoscope 3 has a memory 16 provided in a connector part 11 a provided at the proximal end of the insertion part 11. The memory 16 stores information (placement information) associated with the ordinal number Oi and the two-dimensional coordinate position (Xi, Yi) of the irradiation position, for example, as a lookup table (LUT) 16a.
FIG. 3 shows an example of the LUT 16a. As shown in FIG. 3, in the LUT 16a, the ordinal number Oi at the time of pulse light emission and the coordinates (Xi, Yi) of the irradiation position are stored in association with each other. Accordingly, the signal processing unit 24 refers to the arrangement information of the LUT 16a with respect to the detection signal corresponding to the ordinal number Oi, thereby generating a detection signal for the coordinate position, that is, a detection signal for the pixel whose coordinate position is specified. Can do.

図1に示すように本体装置4は、照明光を発生する光源部21と、走査部13に印加する駆動信号を生成する駆動部22と、受光用光ファイバ15により検出した反射光を光電変換して検出信号を生成する検出部23と、検出部23により生成される検出信号から画像信号を生成する信号処理部24とを有する。
また、本体装置4は、本体装置4内部の光源部21、駆動部22、検出部23、信号処理部24の動作を制御するコントローラ25を有する。入力部6から入力される入力信号、又は入力データはコントローラ25に入力され、コントローラ25は入力信号、又は入力データに応じた制御動作を行う。ユーザは、入力部6を構成するキーボードから検波部33が検波値を算出する指定領域のアドレスを指定したり、入力部6を構成するマウスから指定領域の枠を指定することができる。そして、コントローラ25は、指定領域の領域範囲を表すアドレス範囲の情報を検波部33に送り、検波部33は、指定領域の画像信号強度の統計量を検波値として算出する処理を行う。
As shown in FIG. 1, the main body device 4 photoelectrically converts reflected light detected by a light source unit 21 that generates illumination light, a drive unit 22 that generates a drive signal to be applied to the scanning unit 13, and a light receiving optical fiber 15. And a signal processing unit 24 that generates an image signal from the detection signal generated by the detection unit 23.
The main body device 4 includes a controller 25 that controls operations of the light source unit 21, the drive unit 22, the detection unit 23, and the signal processing unit 24 inside the main body device 4. An input signal or input data input from the input unit 6 is input to the controller 25, and the controller 25 performs a control operation according to the input signal or input data. The user can specify the address of the designated area where the detection unit 33 calculates the detection value from the keyboard constituting the input unit 6, or can designate the frame of the designated area from the mouse constituting the input unit 6. Then, the controller 25 sends address range information representing the region range of the designated region to the detection unit 33, and the detection unit 33 performs a process of calculating the statistic of the image signal intensity of the designated region as a detection value.

図1に示すように信号処理部24は、検出部23の検出信号から、渦巻き状走査の画像信号としての第1の画像信号を生成する第1の画像生成部31と、第1の画像信号から直交座標系で表されるラスタ走査の画像信号に変換するラスタ変換部32と、ラスタ変換部32により変換されたラスタ走査の画像信号から、該ラスタ走査の画像信号の画像(又は生成画像)における指定領域の検波値を算出する検波部33と、ラスタ走査の画像信号に、ゲイン調整による明るさ調整や輪郭強調等の画像処理を行う画像処理部34とを有する。
また、信号処理部24は、走査型内視鏡3のメモリ16に格納された配置情報を読み出し、信号処理部24内部のメモリ35に格納する。つまり、メモリ35は、メモリ16のLUT16aと同じ情報をLUT35aとして格納する。なお、メモリ35のLUT35aを用いないで、メモリ16のLUT16aを用いるようにしても良い。
図4は信号処理部24等のより詳細な構成を示す。検出部23は、例えばアバランシェフォトダイオード(APDと略記)23aにより構成される。このAPD23aは、逆バイアス電圧の印加により増倍率(ゲイン)を可変できるフォトダイオードである。そして、コントローラ25からの逆バイアス電圧の値によりAPD23aから出力される検出信号の増倍率(ゲイン)を可変することができる。
As shown in FIG. 1, the signal processing unit 24 includes a first image generation unit 31 that generates a first image signal as an image signal for spiral scanning from the detection signal of the detection unit 23, and a first image signal. A raster conversion unit 32 that converts the image signal into a raster scan image signal represented by an orthogonal coordinate system, and an image (or generated image) of the raster scan image signal from the raster scan image signal converted by the raster conversion unit 32 A detection unit 33 that calculates a detection value of a designated region in the image processing unit, and an image processing unit 34 that performs image processing such as brightness adjustment and edge enhancement by gain adjustment on an image signal of raster scanning.
Further, the signal processing unit 24 reads out the arrangement information stored in the memory 16 of the scanning endoscope 3 and stores it in the memory 35 inside the signal processing unit 24. That is, the memory 35 stores the same information as the LUT 16a of the memory 16 as the LUT 35a. Note that the LUT 16a of the memory 16 may be used without using the LUT 35a of the memory 35.
FIG. 4 shows a more detailed configuration of the signal processing unit 24 and the like. The detection unit 23 includes, for example, an avalanche photodiode (abbreviated as APD) 23a. The APD 23a is a photodiode whose gain (gain) can be varied by applying a reverse bias voltage. Then, the multiplication factor (gain) of the detection signal output from the APD 23a can be varied according to the value of the reverse bias voltage from the controller 25.

後述するように光源部21もコントローラ25からの光量制御信号により、光源部21が発生するパルス発光する照明光の光量を調整する機能を備える。
第1の画像生成部31は、APD23aから出力される検出信号を、A/D変換回路31aによりデジタルの検出信号に変換して例えば第1の画像生成部31内部のメモリ31bに序数の順序で格納する。座標付与回路31cは、検出信号における序数Oiに対応する位置情報を、メモリ35のLUT35aから読み出し、各検出信号が検出された場合の位置情報を持つ画素信号を生成する。換言すると、座標付与回路31cは、渦巻き状に走査した場合の検出信号に、それぞれ位置情報を付与して、渦巻き状の走査の画像信号としての第1の画像信号を生成し、メモリ31dに格納する。なお、第1の画像信号をメモリ31dに格納する代わりに、メモリ35に格納しても良い。
第1の画像信号は、ラスタ変換部32を構成する補間回路(又は補正回路)32aに入力され、補間回路32aは、渦巻き状の走査の第1の画像信号からラスタ走査の画像信号に変換するための補間処理を行う。
As will be described later, the light source unit 21 also has a function of adjusting the amount of illumination light emitted in pulses generated by the light source unit 21 based on a light amount control signal from the controller 25.
The first image generation unit 31 converts the detection signal output from the APD 23a into a digital detection signal by the A / D conversion circuit 31a and, for example, in the ordinal order in the memory 31b in the first image generation unit 31. Store. The coordinate providing circuit 31c reads position information corresponding to the ordinal number Oi in the detection signal from the LUT 35a of the memory 35, and generates a pixel signal having position information when each detection signal is detected. In other words, the coordinate applying circuit 31c adds position information to each detection signal when scanning in a spiral shape, generates a first image signal as an image signal of the spiral scan, and stores it in the memory 31d. To do. Note that the first image signal may be stored in the memory 35 instead of being stored in the memory 31d.
The first image signal is input to an interpolation circuit (or correction circuit) 32a constituting the raster conversion unit 32. The interpolation circuit 32a converts the first image signal of the spiral scan into the image signal of the raster scan. Interpolation processing is performed.

図5は、第1の画像信号からラスタ走査の画像信号に変換するための説明図を示す。図5における左側の図は、渦巻き状の走査軌跡(図5ではTrで示す)の座標系とラスタ走査の直交座標系とを重ねた状態を模式的に示す。この図5において、ラスタ走査の画像信号を形成する各画素位置は、格子点の位置となる。
図5の左側の図における注目する格子点Pgの近傍部分は、その右側に示す拡大図のようになる。なお、この場合の注目する格子点Pgは、ラスタ走査の画素信号を生成しようとする生成対象(又は補間処理対象)の格子点を意味する。
拡大図に示すように一般的にはラスタ走査の格子点の位置と、渦巻き状の走査の画素信号の位置とはずれているため、補間回路32aは、各格子点の近傍領域に存在する渦巻き状の走査の画素信号を用いて各格子点の画素信号を生成するための処理としての補間処理を行う。
図5に示す例では、注目する格子点Pgの近傍を通る1つの曲線に沿った画素信号SO1,SO2,SO3が存在する。また、これらの画素信号SO1,SO2,SO3よりも、格子点Pgからの距離がより離間した曲線に沿った画素信号SO4も存在する。
FIG. 5 is an explanatory diagram for converting the first image signal into an image signal for raster scanning. The diagram on the left side in FIG. 5 schematically shows a state in which a coordinate system of a spiral scanning locus (indicated by Tr in FIG. 5) and an orthogonal coordinate system of raster scanning are overlapped. In FIG. 5, each pixel position forming an image signal for raster scanning is a grid point position.
The vicinity of the target lattice point Pg in the left side of FIG. 5 is as shown in the enlarged view on the right side. Note that the grid point Pg of interest in this case means a grid point to be generated (or an interpolation process target) for generating a raster scan pixel signal.
As shown in the enlarged view, since the position of the lattice point of raster scanning is generally deviated from the position of the pixel signal of spiral scanning, the interpolation circuit 32a has a spiral shape existing in the vicinity of each lattice point. An interpolation process is performed as a process for generating a pixel signal of each grid point using the pixel signal of the scanning.
In the example shown in FIG. 5, there are pixel signals SO1, SO2 and SO3 along one curve passing through the vicinity of the grid point Pg of interest. Also, there is a pixel signal SO4 along a curve that is more distant from the grid point Pg than these pixel signals SO1, SO2, SO3.

補間回路32aは、格子点Pgからの距離が最も小さい距離に存在する画素信号を優先して、格子点Pgの画素信号を生成する。
具体的には、図5に示すように注目する格子点Pgの周囲において、上下、左右方向の両側に隣接する格子間距離に基づいて設定された設定領域A内において、複数の画素信号SO1,SO2,…,SOk,…が存在した場合には格子点Pgの画素信号Sgiを、例えば
Sgi=ΣCk×SOk/ΣCk (1)
により算出しても良い。ここで、Σは、設定領域A内でCk×SOk又はCkの総和を表し、Ckは、格子点Pgからの距離が小さい程、大きくなる重み付け係数を表す。また、重み付け係数Ckの総和で除算している。なお、設定領域Aは、四角形の場合に限らず、円形の領域でも良い。
また、補間回路32aは、例えば格子点Pgからの距離が閾値Lth以下となる格子点Pgの近傍領域内に画素信号が存在する場合には、近傍領域内に存在する画素信号のみから格子点Pgの画素信号を生成する。図5に示すように距離が閾値Lth以下となる領域内に1つの画素信号SO2のみが存在する場合には、格子点Pgの画素信号Sgiを、Sgi=SO2として画素信号Sgiを生成するようにしても良い。距離が閾値Lth以下となる領域内に、複数の画素信号が存在する場合には、複数の画素信号平均値で算出する。
The interpolation circuit 32a gives priority to the pixel signal that exists at the smallest distance from the grid point Pg, and generates a pixel signal at the grid point Pg.
Specifically, as shown in FIG. 5, a plurality of pixel signals SO1 and SO1 are set in the setting area A set based on the distance between adjacent grids on both sides in the vertical and horizontal directions around the target grid point Pg. When SO2,..., SOk,... Exist, the pixel signal Sgi at the lattice point Pg is, for example, Sgi = ΣCk × SOk / ΣCk (1)
You may calculate by. Here, Σ represents the sum of Ck × SOk or Ck in the setting area A, and Ck represents a weighting coefficient that increases as the distance from the grid point Pg decreases. In addition, it is divided by the sum of the weighting coefficients Ck. Note that the setting area A is not limited to a rectangular area, and may be a circular area.
For example, when the pixel signal is present in the vicinity region of the lattice point Pg whose distance from the lattice point Pg is equal to or less than the threshold value Lth, the interpolation circuit 32a determines the lattice point Pg from only the pixel signal present in the vicinity region. Are generated. As shown in FIG. 5, when only one pixel signal SO2 exists in the region where the distance is equal to or less than the threshold value Lth, the pixel signal Sgi at the lattice point Pg is set to Sgi = SO2 to generate the pixel signal Sgi. May be. When there are a plurality of pixel signals in an area where the distance is equal to or less than the threshold value Lth, the average value of the plurality of pixel signals is calculated.

また、図5に示すように格子点Pgを中心としてその周囲に設定した設定領域A内に1つも画素信号が存在しない場合には、通常の撮像素子において発生する欠陥画素又は(画素値が欠落する)欠落画素の場合と同様に、格子点Pgに隣接する周囲の格子点の画素信号から補間により生成する。
具体的には、設定領域A内に1つも(渦巻き状の走査の)画素信号が存在しない場合の格子点Pgに関しては、その格子点Pgの左右方向の両側に隣接する2つの格子点Pgl,Pgrの両画像信号の平均値や、その格子点Pgの上下方向の両側に隣接する2つの格子点Pgu,Pgdの両画像信号の平均値等を、格子点Pgの画像信号とすれば良い。
一方、例えば図5において走査軌跡Trの外側における例えば格子点Pgaにおいては設定領域A内に1つの画素信号が存在しない状態となり、かつその両側の格子点における精々一方のみの格子点の画素信号しか、格子点の画素信号が存在しない状態となる。
Also, as shown in FIG. 5, when no pixel signal exists in the setting area A set around the lattice point Pg as a center, defective pixels generated in a normal image sensor or (pixel value is missing) In the same manner as in the case of missing pixels, the pixel is generated by interpolation from pixel signals of surrounding grid points adjacent to the grid point Pg.
Specifically, with respect to the lattice point Pg in the case where no pixel signal (in a spiral scan) exists in the setting area A, two lattice points Pgl adjacent to both sides in the left-right direction of the lattice point Pg, The average value of both image signals of Pgr, the average value of both image signals of two lattice points Pgu and Pgd adjacent to both sides in the vertical direction of the lattice point Pg, and the like may be used as the image signal of the lattice point Pg.
On the other hand, for example, at the grid point Pga outside the scanning trajectory Tr in FIG. 5, for example, one pixel signal does not exist in the setting area A, and only pixel signals of only one grid point at the grid points on both sides thereof are present. The pixel signal at the lattice point does not exist.

そのために、この場合には、補間回路32aは、上記のような欠落画素でなく、走査軌跡Trの走査領域(走査範囲)Rsの外側の領域、つまり実際には検出信号が検出されていない未検出領域(未走査領域)において、ラスタ変換を行っている状態であるとして、その格子点の画素信号を周囲の格子点の画素信号を用いて補間する処理を行わない。
但し、上記の格子点Pgaは、ラスタ走査による画像信号を生成する領域としての四角形(換言すると正方形又は長方形)の領域内に含まれるため、補間回路32aは、結果的に、この未検出領域における画素又は画像信号も出力することになる(このような場合の信号処理に関しては後述する)。
このようにして、補間回路32aは渦巻き状の走査領域内の第1の画像信号から、この渦巻き状の走査領域にほぼ一致する領域のラスタ走査の画像信号を生成し、生成したラスタ走査の画像信号をメモリ32bに格納する。
図6は、例えば図2に示す渦巻き状の走査の第1の画像信号からラスタ走査の画像信号に変換したものを模式的に示す。
Therefore, in this case, the interpolation circuit 32a is not a missing pixel as described above, but is a region outside the scanning region (scanning range) Rs of the scanning locus Tr, that is, the detection signal is not actually detected. Assuming that raster conversion is being performed in the detection area (unscanned area), the pixel signal of the grid point is not interpolated using the pixel signals of the surrounding grid points.
However, since the lattice point Pga is included in a quadrangular region (in other words, a square or a rectangle) as a region for generating an image signal by raster scanning, the interpolating circuit 32a eventually results in this undetected region. Pixel or image signals are also output (signal processing in such a case will be described later).
In this way, the interpolation circuit 32a generates a raster scan image signal in a region that substantially matches the spiral scan region from the first image signal in the spiral scan region, and the generated raster scan image. The signal is stored in the memory 32b.
FIG. 6 schematically shows, for example, a conversion from the first image signal of the spiral scan shown in FIG. 2 to the image signal of the raster scan.

図6における左側に示す円形の走査領域Rsの第1の画像信号SOは、ラスタ変換の再に、この円形の走査領域Rsに対応する円形の対応領域Rrの画像信号Sgaと、円形の対応領域Rrの外側となり、未検出領域Ruの画像信号Sguとに変換される。ここで、円形の対応領域Rrと未検出領域Ruとが表示領域Rdとなる。また、画像信号Sgaと画像信号Sguとがラスタ走査の画像信号Sgを形成する。
また、図7Aは、図6における第1の画像信号SOを形成する第1の画素信号から、ラスタ走査の画像信号Sgを形成するラスタ走査の画素信号に変換された処理結果を示す。
図7Aにおける左側の第1の画素信号は、補間回路32aにより、右側の画素信号に変換される。なお、図7Aにおいては左側の第1の画素信号をSOi(i=1,2,3,…,i,n)で示し、右側の画素信号をSgi(i=1,2,3,…,i,m)で示している。図5を参照して説明した補間処理により、一般的には第1の画素信号SOiの数nと画素信号Sgiの数mとは異なる。また、図7Aにおいては、画素信号Sgiがメモリ32bに格納されるアドレスAiも示している。
The first image signal SO of the circular scanning region Rs shown on the left side in FIG. 6 is converted into the image signal Sga of the circular corresponding region Rr corresponding to the circular scanning region Rs and the circular corresponding region after raster conversion. Outside of Rr, it is converted into an image signal Sgu of the undetected area Ru. Here, the circular corresponding region Rr and the undetected region Ru become the display region Rd. Further, the image signal Sga and the image signal Sgu form an image signal Sg for raster scanning.
FIG. 7A shows a processing result obtained by converting the first pixel signal forming the first image signal SO in FIG. 6 into the raster scanning pixel signal forming the raster scanning image signal Sg.
The left first pixel signal in FIG. 7A is converted into a right pixel signal by the interpolation circuit 32a. In FIG. 7A, the left first pixel signal is indicated by SOi (i = 1, 2, 3,..., I, n), and the right pixel signal is indicated by Sgi (i = 1, 2, 3,... i, m). In general, the number n of the first pixel signals SOi and the number m of the pixel signals Sgi are different from each other by the interpolation processing described with reference to FIG. FIG. 7A also shows an address Ai where the pixel signal Sgi is stored in the memory 32b.

図6において示したように右側の画素信号Sgiは、対応領域Rrの画像信号Sgaと未検出領域Ruの画像信号Sguを形成する画素信号となる。このため、右側の画素信号Sgiは、対応領域Rrの画像信号を形成する画素信号Sgai(図7B参照)と、未検出領域Ruの画像信号を形成する画素信号Sgui(図7B参照)とからなる。
本実施形態においては、検波部33が精度良く検波値を算出し易くするために、ラスタ走査の画素信号Sgiをメモリ32bに格納する場合、対応領域Rrの画素信号Sgaiと、未検出領域Ruの画素信号Sguiとを識別可能とする識別情報を付加して、メモリ32bに格納する。
識別情報として、例えば1階調の情報を用いる。例えばA/D変換後の検出信号に基づく画素信号の画素値(又は信号レベル)の階調を表す階調数が、0〜4095(12ビットの範囲での処理)の場合、未検出領域Ruの画素信号Sgibに対しては、0の階調数に割り当て、対応領域Rrの画素信号Sgiaに対しては1〜4095の階調数に割り当てるオフセット処理を行うオフセット処理回路32cを有する(図4においてはOFFSETで略記)。
As shown in FIG. 6, the right pixel signal Sgi is a pixel signal that forms the image signal Sga of the corresponding region Rr and the image signal Sgu of the undetected region Ru. Therefore, the right pixel signal Sgi is composed of a pixel signal Sgai (see FIG. 7B) that forms an image signal of the corresponding region Rr and a pixel signal Sgui (see FIG. 7B) that forms an image signal of the undetected region Ru. .
In the present embodiment, in order to facilitate the detection unit 33 to calculate the detection value with high accuracy, when the pixel signal Sgi of the raster scan is stored in the memory 32b, the pixel signal Sgai of the corresponding region Rr and the undetected region Ru Identification information that enables identification of the pixel signal Sgui is added and stored in the memory 32b.
As the identification information, for example, information of one gradation is used. For example, when the number of gradations representing the gradation of the pixel value (or signal level) of the pixel signal based on the detection signal after A / D conversion is 0 to 4095 (processing in a 12-bit range), the undetected region Ru Is provided with an offset processing circuit 32c that performs offset processing that is assigned to the number of gradations of 0 for the pixel signal Sgib, and assigned to the number of gradations of 1 to 4095 for the pixel signal Sgia of the corresponding region Rr (FIG. 4). Is abbreviated as OFFSET).

図4に示すように、ラスタ変換部32の内部にオフセット処理回路32cを設けているが、ラスタ変換部32の外部、より具体的には、ラスタ変換部32の信号入力よりも前段側の例えば第1の画像生成部31に設けるようにしても良い。
上記オフセット処理回路32cにより、例えば、対応領域Rrの画素信号Sgiaにおいて、オフセット処理前において0の階調のものは、オフセット処理後に1の階調の画素信号になる。このため、オフセット処理による階調のシフトにより、走査領域Rs内において検出された検出信号の階調が0であり、ラスタ変換後においても階調が0となる信号と、未検出領域のため画素値が存在しないためにラスタ変換により階調が0となる画素信号とを、階調0か1かにより識別できることになる。
換言すると、このようなオフセット処理のような処理を施さない従来例の場合においては、走査領域Rsにおいて検出された検出信号の階調が0の画素信号と、(走査領域Rsの領域外となる)未検出領域のために画素値が検出されていないために階調が0とされてしまう画素信号とを識別することが出来ない欠点があった。
As shown in FIG. 4, an offset processing circuit 32 c is provided inside the raster conversion unit 32, but more specifically, outside the raster conversion unit 32, more specifically, for example, on the upstream side of the signal input to the raster conversion unit 32. You may make it provide in the 1st image generation part 31. FIG.
By the offset processing circuit 32c, for example, in the pixel signal Sgia in the corresponding region Rr, a pixel having a gradation of 0 before the offset process becomes a pixel signal having a gradation of 1 after the offset process. For this reason, the gradation of the detection signal detected in the scanning region Rs due to the gradation shift by the offset process is 0, and the signal that the gradation becomes 0 even after the raster conversion and the pixel for the undetected region. Since there is no value, a pixel signal whose gradation is 0 by raster conversion can be identified by whether the gradation is 0 or 1.
In other words, in the case of the conventional example in which processing such as offset processing is not performed, the pixel signal of the detection signal detected in the scanning region Rs is 0 and (outside the region of the scanning region Rs). ) There is a drawback that it is impossible to distinguish a pixel signal whose gradation is set to 0 because the pixel value is not detected due to the undetected area.

そして、本実施形態は、この欠点を解消している。なお、走査領域Rs,対応領域Rrにおける画素信号は、画素値が検出された画素信号により生成されるために、走査領域Rs又は対応領域Rrを、検出領域Rとも言う。
対応領域Rrの画素信号Sgiaは、オフセット処理を行う前においては、0〜4095の範囲内の階調Q(Q=0〜4095)となるが、オフセット処理により、例えば1階調分だけ階調数が高くなるようにQ+1の階調に移動してもよい。この場合、オフセット処理前の階調数が最大の場合(Q=4095)と最大より1小さい場合(Q=4094)は、いずれもオフセット処理後に最大階調(Q=4095)となってしまう。すなわち、オフセット前の最大階調(Q=4095)は、飽和した状態の信号となり階調情報が失われることになる。しかし多くの場合、人間の目は、階調数が小さい場合の差よりも階調数が大きい場合の差に鈍感である。したがって、1階調分を加算して画素信号を生成することにより、最大階調以外の画素信号の階調情報を損なわない上記の構成は多くの場合好適である。
ただし、オフセット処理の方法は1階調を加算する方法に限らない。例えば、1階調を減算することにより、最小階調(Q=0)以外の階調情報を損なわない構成としてもよい。また、階調情報が損なわれる階調数を画面領域ごとに変える構成としてもよい。
図7Bは、対応領域Rrの(画像信号Sgaを形成する)画素信号Sgaiと未検出領域Ruの(画像信号Sguを形成する)画素信号Sguiとを階調(信号レベル)により区分けした様子を示す。この図7Bから分かるように階調が1以上と、階調が1未満となる0の階調とにより、両領域の画素信号を簡単に識別できるようになる。なお、1/2の階調閾値を用い、この階調閾値以上か否かの(比較器による)比較結果で、両領域の画素信号を識別しても良い。
このようにオフセット処理として1階調分の情報を利用することにより、ラスタ走査の画素信号Sgiにおいて、対応領域Rrの画素信号Sgiaと、未検出領域Ruの画素信号Sgibとを階調、又は信号レベルにより簡単に識別することができるようにしている。
And this embodiment has eliminated this fault. In addition, since the pixel signal in the scanning region Rs and the corresponding region Rr is generated by the pixel signal in which the pixel value is detected, the scanning region Rs or the corresponding region Rr is also referred to as the detection region R.
The pixel signal Sgia of the corresponding region Rr has a gradation Q (Q = 0 to 4095) within a range of 0 to 4095 before the offset process is performed. You may move to the gradation of Q + 1 so that the number becomes high. In this case, when the number of gradations before the offset process is maximum (Q = 4095) and when it is smaller than the maximum (Q = 4094), the maximum gradation (Q = 4095) is obtained after the offset process. That is, the maximum gradation (Q = 4095) before offset becomes a saturated signal, and gradation information is lost. However, in many cases, the human eye is less sensitive to the difference when the number of gradations is larger than the difference when the number of gradations is small. Therefore, in many cases, the above-described configuration in which the gradation information of the pixel signal other than the maximum gradation is not impaired by adding one gradation to generate the pixel signal is suitable.
However, the offset processing method is not limited to the method of adding one gradation. For example, the gradation information other than the minimum gradation (Q = 0) may not be lost by subtracting one gradation. Further, the number of gradations at which gradation information is lost may be changed for each screen area.
FIG. 7B shows a state in which the pixel signal Sgai (forming the image signal Sga) in the corresponding region Rr and the pixel signal Sgui (forming the image signal Sgu) in the undetected region Ru are divided by gradation (signal level). . As can be seen from FIG. 7B, the pixel signals in both areas can be easily identified by the gradation of 1 or more and the gradation of 0 where the gradation is less than 1. Note that a half gradation threshold value may be used, and pixel signals in both regions may be identified by a comparison result (by a comparator) whether or not the gradation threshold value is exceeded.
As described above, by using the information for one gradation as the offset processing, the pixel signal Sgia of the corresponding region Rr and the pixel signal Sgib of the undetected region Ru in the pixel signal Sgi of raster scanning are converted into gradations or signals. It can be easily identified by level.

図4に示すようにメモリ32bに格納されたラスタ走査の画像信号は、検波部33を形成する検波値算出回路33aにより、モニタ5に表示される生成画像における指定された領域としての指定領域の明るさを表す検波値を算出する。
また、メモリ32bに格納されたラスタ走査の画像信号Sgは、画像処理部34内のデジタルアンプ34aにおいて、シフトされた1階調分減算された後、増幅される。その後、画像処理回路34bにおいて輪郭強調等の画像処理が施された画像信号が生成され、モニタ5に出力され、生成画像として表示される。なお、1階調のシフトが無視できるような画像信号の場合には、デジタルアンプ34aにおいて、1階調分減算する処理を行わないようにしても良い。
図4に示すように検波部33は、指定領域の明るさを表す検波値を算出する検波値算出回路33aにより形成される。
As shown in FIG. 4, the raster scanning image signal stored in the memory 32 b is stored in a designated area as a designated area in the generated image displayed on the monitor 5 by the detection value calculation circuit 33 a forming the detection unit 33. A detection value representing brightness is calculated.
The raster scanning image signal Sg stored in the memory 32b is subtracted by one shifted gradation and then amplified by the digital amplifier 34a in the image processing unit 34. Thereafter, an image signal subjected to image processing such as contour enhancement in the image processing circuit 34b is generated, output to the monitor 5, and displayed as a generated image. Note that in the case of an image signal in which the shift of one gradation can be ignored, the digital amplifier 34a may not perform the process of subtracting one gradation.
As shown in FIG. 4, the detection unit 33 is formed by a detection value calculation circuit 33 a that calculates a detection value representing the brightness of the designated region.

この検波値算出回路33aには、入力部6からユーザにより指定された指定領域に対応するアドレスの情報がコントローラ25を介して入力される。
検波値算出回路33aは、コントローラ25から入力されるアドレス情報により、モニタ5に表示する生成画像の画像信号における指定領域の画素信号の統計量として例えば画素信号の画素値の総和を算出し、指定領域において未検出領域Ruを除外した正味の検出領域の面積で除算したる平均値を検波値として算出する。
なお、本実施形態においては、動作モードとして簡易モードが選択された場合には、検波値算出回路33aは、指定領域における検出領域と未検出領域とを識別しないで、指定領域における画素信号の画素値の総和値を算出し、指定領域の面積で除算した統計量を検波値として算出する。
これに対して、動作モードとして標準モードが選択された場合には、検波値算出回路33aは、(指定領域において未検出領域Ruを除外した)正味の検出領域における画素信号の総和値を算出し、かつ(指定領域において未検出領域Ruを除外した)正味の検出領域の面積で、除算した平均値を検波値として算出する。この場合、1フレームないし数フレームT分の正味の検出領域における画素信号の総和値を算出し、正味の検出領域の面積SdとTとを乗算した値で、除算した平均値を検波値として算出するようにしても良い。
Information of an address corresponding to a designated area designated by the user is input from the input unit 6 to the detected value calculation circuit 33a via the controller 25.
Based on the address information input from the controller 25, the detection value calculation circuit 33a calculates, for example, the sum of the pixel values of the pixel signal as a statistic of the pixel signal in the specified region in the image signal of the generated image displayed on the monitor 5. An average value obtained by dividing the area of the net detection region excluding the undetected region Ru in the region is calculated as a detection value.
In the present embodiment, when the simple mode is selected as the operation mode, the detection value calculation circuit 33a does not distinguish between the detection area and the non-detection area in the designated area, and the pixel of the pixel signal in the designated area. The total value of the values is calculated, and a statistic obtained by dividing by the area of the designated region is calculated as a detection value.
On the other hand, when the standard mode is selected as the operation mode, the detection value calculation circuit 33a calculates the sum value of the pixel signals in the net detection area (excluding the undetected area Ru in the designated area). And the average value divided by the area of the net detection region (excluding the undetected region Ru in the designated region) is calculated as the detection value. In this case, the sum value of the pixel signals in the net detection region for one frame to several frames T is calculated, and the average value obtained by dividing the sum of the areas Sd and T of the net detection region is calculated as the detection value. You may make it do.

検波値算出回路33aにより算出された検波値は、コントローラ25に入力され、コントローラ25は、算出された検波値と、選択された動作モードとに基づいて、モニタ5に表示される生成画像の明るさを調整する制御動作を行う。
なお、図4に示すようにコントローラ25の内部のメモリ25aには、基準の明るさの情報、又は基準の明るさに対応する基準の検波値を格納している。つまり、メモリ25aは、基準の明るさ情報格納部を形成する。
また、図4に示すように光源部21は、照明光となるレーザ光を発生するレーザダイオード(図4ではLDと略記)21aと、レーザダイオード21aがレーザ光を発生するパルス電圧を制御するレーザ制御回路21bとを備える。
The detection value calculated by the detection value calculation circuit 33a is input to the controller 25. The controller 25 determines the brightness of the generated image displayed on the monitor 5 based on the calculated detection value and the selected operation mode. A control operation for adjusting the height is performed.
As shown in FIG. 4, the reference brightness information or the reference detection value corresponding to the reference brightness is stored in the memory 25 a inside the controller 25. That is, the memory 25a forms a reference brightness information storage unit.
As shown in FIG. 4, the light source unit 21 includes a laser diode (abbreviated as LD in FIG. 4) 21a that generates laser light serving as illumination light, and a laser that controls a pulse voltage at which the laser diode 21a generates laser light. And a control circuit 21b.

本実施形態の走査型内視鏡装置1は、照明光を発生する光源部21と、第1端部に入射された前記照明光を第2端部に導光する導光部を形成する照明用光ファイバ12と、前記導光部の第2端部を渦巻き状軌跡を描くように振動させる走査部13と、前記第2端部から被検体を形成する患者2に照射された照明光に応じた反射光を検出する検出部23と、前記検出部23において検出される被検体像に対応する検出信号を変換して、直交座標系で表される生成画像に対応する画像信号を生成し、前記画像信号において指定された指定領域の画像信号強度の統計量を算出し、前記統計量として前記指定領域の明るさを表す検波値を算出する処理をする信号処理部24と、を有することを特徴とする。
次に本実施形態の動作を説明する。
本実施形態の走査型内視鏡装置1を図1に示すように設定した後、本体装置4の電源スイッチをONにする。すると、走査型内視鏡装置1は動作状態となる。
The scanning endoscope apparatus 1 according to this embodiment includes a light source unit 21 that generates illumination light, and an illumination that forms a light guide unit that guides the illumination light incident on the first end to the second end. The optical fiber 12, the scanning unit 13 that vibrates the second end of the light guide unit so as to draw a spiral trajectory, and the illumination light applied to the patient 2 that forms the subject from the second end. A detection unit 23 that detects the reflected light according to the detection unit, and a detection signal corresponding to the subject image detected by the detection unit 23 is converted to generate an image signal corresponding to the generation image represented by the orthogonal coordinate system. A signal processing unit 24 that performs a process of calculating a statistic of the image signal intensity of the specified area specified in the image signal and calculating a detection value representing the brightness of the specified area as the statistic. It is characterized by.
Next, the operation of this embodiment will be described.
After setting the scanning endoscope apparatus 1 of this embodiment as shown in FIG. 1, the power switch of the main body apparatus 4 is turned ON. Then, the scanning endoscope apparatus 1 is in an operating state.

最初のステップS1において術者は、入力部6から複数の動作モードを選択する入力を行う。本実施形態においては、例えば簡易モードと、標準モードとの2つの動作モードが用意されており、ユーザは1つの動作モードを選択する。なお、3つ以上の動作モードを用意するようにしても良い。そして、術者は走査型内視鏡3を患者2の体内に挿入する。
次のステップS2においてコントローラ25は、光源部21、駆動部22、検出部23等を動作させ、照明用光ファイバ12の先端付近に設けた走査部13を駆動すると共に、照明光をパルス発光させて光走査を開始する。
次のステップS3において信号処理部24(の第1の画像生成部31)は、第1の画像信号を生成する。患者2の検査部位等の被写体に照射された照明光の反射光は受光用光ファイバ15により受光(検出)され、検出部23により光電変換された検出信号となり、第1の画像生成部31は渦巻き状走査軌跡に対応した第1の画像信号を生成する。
In the first step S1, the surgeon performs input for selecting a plurality of operation modes from the input unit 6. In the present embodiment, for example, two operation modes, a simple mode and a standard mode, are prepared, and the user selects one operation mode. Three or more operation modes may be prepared. Then, the operator inserts the scanning endoscope 3 into the patient 2.
In the next step S2, the controller 25 operates the light source unit 21, the drive unit 22, the detection unit 23, etc., drives the scanning unit 13 provided near the tip of the illumination optical fiber 12, and causes the illumination light to emit pulses. To start optical scanning.
In the next step S3, the signal processing unit 24 (the first image generation unit 31 thereof) generates a first image signal. The reflected light of the illumination light applied to the subject such as the examination site of the patient 2 is received (detected) by the light receiving optical fiber 15 and becomes a detection signal photoelectrically converted by the detecting unit 23, and the first image generating unit 31 A first image signal corresponding to the spiral scanning trajectory is generated.

次のステップS4においてラスタ変換部32は、第1の画像信号に対して、ラスタ変換する。ラスタ変換部32は、第1の画像信号に対して、ラスタ変換してラスタ走査の画像信号を生成する。
図9はラスタ変換の処理の詳細を示す1例である。
ラスタ変換の処理が開始すると、最初のステップS21において補間回路32aは、表示領域Rd中における各格子点を含むその周囲に図5に示したような設定領域Aを設定する。
次のステップS22において補間回路32aは、各格子点の周囲の設定領域A内に渦巻き状走査の画素信号が存在する場合の各格子点を特定する。
次のステップS23において補間回路32aは、格子点からの距離を考慮して、渦巻き状走査の画素信号を用いて格子点の画素信号を生成する。格子点の画素信号を生成する処理に関しては、図5において説明した。
In the next step S4, the raster conversion unit 32 performs raster conversion on the first image signal. The raster conversion unit 32 performs raster conversion on the first image signal to generate an image signal for raster scanning.
FIG. 9 is an example showing details of raster conversion processing.
When the raster conversion process is started, in the first step S21, the interpolation circuit 32a sets a setting area A as shown in FIG. 5 around each grid point in the display area Rd.
In the next step S <b> 22, the interpolation circuit 32 a specifies each grid point when the pixel signal of the spiral scan exists in the setting area A around each grid point.
In the next step S23, the interpolation circuit 32a generates the pixel signal of the lattice point using the spiral scanning pixel signal in consideration of the distance from the lattice point. The process for generating the pixel signal of the lattice point has been described with reference to FIG.

次のステップS24において補間回路32aは、ステップS22の格子点全てに対して、ステップS23の処理を終了したか否かを判定する。
ステップS22の格子点全てに対して、ステップS23の処理を終了していない場合には、ステップS23の処理を繰り返す。そして、ステップS22の格子点全てに対して、ステップS23の処理を終了した判定結果の場合にはステップS25の処理に進む。
ステップS25において補間回路32aは、上述した格子点以外の(表示領域Rdに含まれる)格子点に対して、当該格子点の周囲の設定領域Aに渦巻き状走査の画素信号が存在しない格子点があるか否かの判定を行う。
渦巻き状走査の画素信号が存在しない格子点がある場合には、次のステップS26において補間回路32aは、当該格子点の上下、又は左右両側の各格子点がそれぞれ画素信号を有するか否かを判定する。
両側の各格子点がそれぞれ画素信号を有する場合には、次のステップS27において補間回路32aは、両側の各格子点がそれぞれ画素信号の平均値により当該格子点の画素信号を生成し、ステップS29の処理に移る。
In the next step S24, the interpolation circuit 32a determines whether or not the processing in step S23 has been completed for all the lattice points in step S22.
If the processing in step S23 has not been completed for all the lattice points in step S22, the processing in step S23 is repeated. Then, in the case of the determination result obtained by completing the process of step S23 for all the lattice points of step S22, the process proceeds to the process of step S25.
In step S25, the interpolation circuit 32a determines that grid points other than the above-described grid points (included in the display area Rd) have no spiral scan pixel signal in the setting area A around the grid points. It is determined whether or not there is.
If there is a grid point where there is no spiral scanning pixel signal, in the next step S26, the interpolation circuit 32a determines whether each of the grid points above and below the grid point or on both the left and right sides has a pixel signal. judge.
When each grid point on both sides has a pixel signal, in the next step S27, the interpolation circuit 32a generates a pixel signal of the grid point based on the average value of the pixel signals at each grid point on both sides, and step S29. Move on to processing.

一方、ステップS26の判定処理において、精々、処理対象の格子点に対して、一方の側に隣接する格子点のみが画素信号を有する場合には、ステップS28において補間回路32aは、当該処理対象の格子点は、走査領域Rs又は対応領域Rrの外の未検出領域Ruの格子点であると判定し、ステップS29の処理に移る。
ステップS29において補間回路32aは、ステップS25の格子点全てに対する処理を終了したか否かを判定する。ステップS25の格子点全てに対する処理を終了していない判定結果の場合には、ステップS26の処理に戻り、上述した処理を繰り返す。
このようにして、ステップS25の格子点全てに対する処理を終了した場合には、ステップS30の処理に移る。また、ステップS25の判定処理において、設定領域A内に渦巻き状走査の画素信号が存在する場合には、ステップS30の処理に移る。
On the other hand, in the determination process of step S26, when only the grid point adjacent to one side has the pixel signal at all, the interpolation circuit 32a determines that the process target grid point in step S28. The lattice point is determined to be a lattice point of the undetected region Ru outside the scanning region Rs or the corresponding region Rr, and the process proceeds to step S29.
In step S29, the interpolation circuit 32a determines whether or not the processing for all the lattice points in step S25 has been completed. If the determination result indicates that the processing for all the lattice points in step S25 has not been completed, the processing returns to step S26 and the above-described processing is repeated.
Thus, when the process for all the lattice points in step S25 is completed, the process proceeds to step S30. Further, in the determination process in step S25, if a pixel signal for spiral scanning exists in the setting area A, the process proceeds to step S30.

ステップS30において補間回路32a(のオフセット処理回路32c)は、未検出領域Ruの格子点の画素信号を0階調の画像信号として生成し、未検出領域Ru以外となる対応領域Rr(又は検出領域R)の格子点の画素信号に対しては、ステップS23又はステップS27において生成した画素信号に、1階調分を加算した階調の画素信号を生成する処理を行う。そして、図9の処理を終了し、図8における次のステップS5の処理に移る。
ステップS9の処理により、対応領域Rr(又は検出領域R)における0階調の画素信号が存在した場合その画素信号の階調は1となり、未検出領域Ruに含まれる0階調の画素信号とを識別又は区別できるようになる。
図8におけるステップS5において信号処理部24(の画像処理部34)は、輪郭強調等を施したラスタ走査の画像信号をモニタ5に出力し、モニタ5は生成画像を表示する。
In step S30, the interpolation circuit 32a (offset processing circuit 32c thereof) generates a pixel signal of a grid point in the undetected area Ru as an image signal of 0 gradation, and a corresponding area Rr (or detection area) other than the undetected area Ru. For the pixel signal at the grid point R), a process of generating a pixel signal having a gradation obtained by adding one gradation to the pixel signal generated in step S23 or step S27 is performed. Then, the process of FIG. 9 is terminated, and the process proceeds to the next step S5 in FIG.
If there is a 0 gradation pixel signal in the corresponding region Rr (or detection region R) by the processing in step S9, the gradation of the pixel signal becomes 1, and the 0 gradation pixel signal included in the undetected region Ru Can be identified or distinguished.
In step S5 in FIG. 8, the signal processing unit 24 (the image processing unit 34 thereof) outputs an image signal of raster scanning subjected to contour enhancement or the like to the monitor 5, and the monitor 5 displays the generated image.

次のステップS6においてコントローラ25は、入力部6から指定領域が指定されたか否かの判定を行う。そして、コントローラ25は、入力部6から指定領域が指定されるのを待つ。
図10は、表示領域Rdに表示された生成画像において、入力部6から指定された指定領域Rbを示す。一般的に、指定領域Rdは、検出領域Rと未検出領域Ruとを含むように設定(指定)される場合がある。簡易モードにおいては、指定領域Rdは、検出領域Rとほぼ等しいと近似し、簡易モード以外の動作モードにおいては、指定領域Rdにおいて検出領域Rを算出する。なお、図10に示すように正方形の場合を含む長方形の指定領域Rbを指定する場合には、対角線方向に対向する2点P1,P2のアドレスを指定しても良いし、マウスなどで2点を指定するようにしても良い。
また、2点鎖線で示すように、より複雑な形状の指定領域Rbを指定することもできる。
In the next step S <b> 6, the controller 25 determines whether or not a designated area is designated from the input unit 6. Then, the controller 25 waits for the designated area to be designated from the input unit 6.
FIG. 10 shows a designated region Rb designated from the input unit 6 in the generated image displayed in the display region Rd. In general, the designated region Rd may be set (designated) to include the detection region R and the undetected region Ru. In the simple mode, it is approximated that the designated area Rd is substantially equal to the detection area R, and in the operation mode other than the simple mode, the detection area R is calculated in the designated area Rd. As shown in FIG. 10, when designating a rectangular designation region Rb including the case of a square, the addresses of two points P1 and P2 facing diagonally may be designated, or two points may be designated with a mouse or the like. May be specified.
In addition, as indicated by a two-dot chain line, it is possible to designate a designated region Rb having a more complicated shape.

次のステップS7においてコントローラ25は、ステップS1において簡易モードが選択されたか否かの判定を行う。
簡易モードが選択されている場合には、次のステップS8において検波部33(を形成する検波値算出回路33a)は指定領域の検波値を算出する(これに対して、後述するように簡易モード以外のモードでは指定領域における検出領域を算出し、検出領域の検波値を算出する)。検波部33は、算出した検波値をコントローラ25に送る。
次のステップS9においてコントローラ25は、検波値を基準の明るさ(に対応する基準の検波値)と比較し、基準の明るさとなるように画像処理部34のデジタルアンプ34aのデジタルのゲインを調整(制御)する。
次のステップS10においてコントローラ25は、入力部6から内視鏡検査を終了する指示入力がされたか否かを判定する。内視鏡検査を終了する指示入力がされない場合には、ステップS8の処理に戻るようにコントローラ25は制御し、内視鏡検査を終了する指示入力がされた場合には図8の処理を終了する。
In the next step S7, the controller 25 determines whether or not the simple mode is selected in step S1.
When the simple mode is selected, in the next step S8, the detection unit 33 (the detection value calculation circuit 33a forming the calculation unit) calculates the detection value of the designated region (as opposed to the simple mode as will be described later). In other modes, the detection area in the specified area is calculated, and the detection value in the detection area is calculated). The detection unit 33 sends the calculated detection value to the controller 25.
In the next step S9, the controller 25 compares the detection value with the reference brightness (corresponding reference detection value), and adjusts the digital gain of the digital amplifier 34a of the image processing unit 34 so that the reference brightness is obtained. (Control.
In the next step S <b> 10, the controller 25 determines whether or not an instruction input for ending the endoscopy has been made from the input unit 6. When the instruction input for ending the endoscopic examination is not made, the controller 25 controls to return to the process of step S8, and when the instruction input for ending the endoscopic examination is made, the process of FIG. 8 is finished. To do.

ステップS7において簡易モードが選択されていない場合には、ステップS11においてコントローラ25は、標準モードが選択されたと判定し、この判定結果の情報を検波部33に送る。
次のステップS12において検波部33は、指定領域中における検出領域を算出する。図10の場合、指定領域Rb中における検出領域R(又は対応領域Rr)を算出する。換言すると、指定領域Rb中における未検出領域Ruを算出し、指定領域Rbから斜線で示す未検出領域Ruを減算して指定領域Rb中の検出領域R(又は対応領域Rr)を算出する。
次のステップS13において検波部33は、指定領域Rb中の検出領域R(又は対応領域Rr)において検波値を算出する。検波部33は、算出した検波値をコントローラ25に送る。
次のステップS14aからS14fにおいてコントローラ25は、検波値を基準の明るさに対応する基準の検波値と比較する。そして、コントローラ25は、基準の検波値となるようにデジタルアンプ34a、APD23a、光源部21の順の優先度を考慮して明るさ調整を行う。
If the simple mode is not selected in step S7, the controller 25 determines in step S11 that the standard mode is selected, and sends information on the determination result to the detection unit 33.
In the next step S12, the detection unit 33 calculates a detection area in the designated area. In the case of FIG. 10, the detection area R (or corresponding area Rr) in the designated area Rb is calculated. In other words, the undetected area Ru in the specified area Rb is calculated, and the detected area R (or corresponding area Rr) in the specified area Rb is calculated by subtracting the undetected area Ru indicated by hatching from the specified area Rb.
In the next step S13, the detection unit 33 calculates a detection value in the detection region R (or the corresponding region Rr) in the designated region Rb. The detection unit 33 sends the calculated detection value to the controller 25.
In the next steps S14a to S14f, the controller 25 compares the detection value with a reference detection value corresponding to the reference brightness. Then, the controller 25 performs brightness adjustment in consideration of the priority in the order of the digital amplifier 34a, the APD 23a, and the light source unit 21 so that the reference detection value is obtained.

具体的には、検波値が基準の明るさに対応する基準の検波値とずれている場合、ステップS14aにおいてコントローラ25は、画像処理部34のデジタルアンプ34aのデジタルのゲインを予め設定されたゲインの範囲内で、検波値が基準の検波値に等しくする方向にゲイン調整(制御)する。その後の次のステップS14bにおいてコントローラ25は、検波値が基準の検波値に一致したか判定する。
ステップS14bにおいて検波値が基準の検波値に一致しない場合には、次のステップS14cにおいてコントローラ25はAPD23aの増倍率を、予め設定された増倍率の範囲内で、検波値が基準の検波値に等しくする方向に調整(制御)する。その後の次のステップS14dにおいてコントローラ25は、検波値が基準の検波値に一致したか判定する。
ステップS14dにおいて検波値が基準の検波値に一致しない場合には、次のステップS14eにおいてコントローラ25は、光源部21におけるレーザダイオード21aの光量を所定の範囲内で調整し、検波値が基準の検波値に一致するように調整する。その後のステップS14fにおいてコントローラ25は、検波値が基準の検波値に一致したか判定する。ステップS14fにおいて検波値が基準の検波値に一致しない場合には、ステップS14aの処理に戻り、同様の処理を繰り返す。
Specifically, when the detection value is different from the reference detection value corresponding to the reference brightness, in step S14a, the controller 25 sets the digital gain of the digital amplifier 34a of the image processing unit 34 to a preset gain. Within this range, the gain is adjusted (controlled) so that the detected value becomes equal to the reference detected value. In the next step S14b thereafter, the controller 25 determines whether or not the detection value matches the reference detection value.
If the detection value does not match the reference detection value in step S14b, in the next step S14c, the controller 25 sets the multiplication value of the APD 23a to the reference detection value within a preset multiplication factor range. Adjust (control) in the same direction. In the next subsequent step S14d, the controller 25 determines whether the detected value matches the reference detected value.
If the detection value does not match the reference detection value in step S14d, in the next step S14e, the controller 25 adjusts the light amount of the laser diode 21a in the light source unit 21 within a predetermined range, and the detection value is the reference detection value. Adjust to match the value. In subsequent step S14f, the controller 25 determines whether the detection value matches the reference detection value. If the detection value does not match the reference detection value in step S14f, the process returns to step S14a and the same process is repeated.

一方、ステップS14b、ステップS14d、又はステップS14fにおいて検波値が基準の検波値に一致した場合には、ステップS15の処理に移る。ステップS15においてコントローラ25は、入力部6から内視鏡検査を終了する指示入力がされたか否かを判定する。内視鏡検査を終了する指示入力がされない場合には、ステップS13の処理に戻るようにコントローラ25は制御する。
一方、内視鏡検査を終了する指示入力がされた場合には図8の処理を終了する。
このように動作する第1の実施形態によれば、走査内視鏡2における走査軌跡等にばらつきが存在するような場合においても、内視鏡画像の明るさを表す検波値を簡単に取得できる。
より詳細に述べると、本体装置4に接続される走査型内視鏡3に搭載された走査部13等に個体差や渦巻き状の走査軌跡にばらつきが存在するような場合においても、ラスタ変換後の直交座標系で表される画像信号又は生成画像のアドレスは、それらのばらつきに関係なく、いつも同じになる。その結果、走査部13等の個体差や走査軌跡に影響されることなく、検波値を取得する指定領域を直交座標系上で設定でき、指定領域内の生成画像の明るさを表す検波値を、ラスタ変換前の場合に比較して少ない計算量で簡単に取得することができ、回路規模を小さくできる。
また、本実施形態においては、実際に光走査を行って検出した検出領域内の検出信号としての画像信号(又は画素信号)と、ラスタ変換の際に含まれるようになった未検出領域の検出信号としての画像信号(又は画素信号)とを階調を表す階調信号等の識別信号で識別又は区別できるようにしているので、検波値を取得する指定領域として未検出領域が含まれるように指定された場合においても指定領域内の検出領域に対する検波値(つまり画像の明るさ)を精度良く算出することができる。
また、本実施形態によれば、検波値を算出した場合、生成画像の明るさを調整可能とする複数の明るさ調整手段(明るさ調整デバイス)の1つ又は複数を用いて、観察し易い明るさに調整することができる。また、この場合、複数の明るさ調整において、優先度の高いものを優先して明るさ調整をすることもできる。
また、本実施形態によれば、ラスタ変換前においての画像の中心部等、他の領域よりのサンプリング密度(検出密度)が集中している領域が存在する場合でも、ラスタ変換後においての画素密度は、他の領域と変わらなくなるため、必要以上に多くの画素値を用いて統計量としての検波値を算出する必要がなくなる。その結果、ラスタ変換前の検出信号から算出する場合に比べて、検波値を算出する計算量を低減することができる。
On the other hand, if the detection value matches the reference detection value in step S14b, step S14d, or step S14f, the process proceeds to step S15. In step S <b> 15, the controller 25 determines whether or not an instruction to end the endoscopy has been input from the input unit 6. When the instruction input for ending the endoscopic examination is not made, the controller 25 controls to return to the process of step S13.
On the other hand, when the instruction input for ending the endoscopic examination is made, the processing in FIG. 8 is ended.
According to the first embodiment that operates in this way, even when there are variations in the scanning trajectory or the like in the scanning endoscope 2, a detection value that represents the brightness of the endoscopic image can be easily obtained. .
More specifically, even after the raster conversion, even when there are individual differences or variations in the spiral scanning trajectory in the scanning unit 13 or the like mounted on the scanning endoscope 3 connected to the main body device 4. The address of the image signal or generated image expressed in the orthogonal coordinate system is always the same regardless of the variation. As a result, it is possible to set the designated area for obtaining the detection value on the orthogonal coordinate system without being affected by the individual difference or the scanning trajectory of the scanning unit 13 and the like, and to detect the detection value representing the brightness of the generated image in the designated area. As compared with the case before raster conversion, it can be easily obtained with a small calculation amount, and the circuit scale can be reduced.
Further, in the present embodiment, detection of an image signal (or pixel signal) as a detection signal in a detection area actually detected by optical scanning and detection of an undetected area included in the raster conversion. Since an image signal (or pixel signal) as a signal can be identified or distinguished by an identification signal such as a gradation signal representing gradation, an undetected area is included as a designated area for acquiring a detection value. Even when designated, the detection value (that is, the brightness of the image) for the detection region within the designated region can be calculated with high accuracy.
Further, according to the present embodiment, when the detection value is calculated, it is easy to observe using one or more of a plurality of brightness adjusting means (brightness adjusting devices) that can adjust the brightness of the generated image. The brightness can be adjusted. Further, in this case, in a plurality of brightness adjustments, the brightness adjustment can be performed with priority given to the one having a higher priority.
Further, according to the present embodiment, even when there is a region where sampling density (detection density) from other regions is concentrated, such as the center of the image before raster conversion, the pixel density after raster conversion Since it is not different from other regions, it is not necessary to calculate a detection value as a statistic using more pixel values than necessary. As a result, the amount of calculation for calculating the detection value can be reduced as compared with the case of calculating from the detection signal before raster conversion.

上述した実施形態においては、図9において説明したようにラスタ変換を行った際に、未検出領域の画素信号を検出領域(又は対応領域)における0階調の画素信号とを、例えば検出領域(又は対応領域)の画素信号に1階調加算した階調にシフトすることにより両領域の画素信号を簡単に区別できるようにしているので、精度の良い検波値を算出することができる。
このように両領域の画素信号を区別できるようにする場合、例えば一方の領域の画素信号には識別のためのフラグビットを付け、他方の領域の画素信号にはフラグビットを付けないようにして区別(識別)できるようにしても良い。
また、上述した実施形態においては、ラスタ変換を行った処理の最後に1階調のオフセット処理で両領域の画像信号を区別(識別)できるようにしたが、図11に示すようにラスタ変換を行う前段側において1階調のオフセット処理を施すようにしても良い。
In the above-described embodiment, when raster conversion is performed as described with reference to FIG. 9, the pixel signal of the undetected area is converted to the pixel signal of 0 gradation in the detection area (or corresponding area), for example, the detection area ( Alternatively, the pixel signals in both areas can be easily distinguished by shifting to a gradation obtained by adding one gradation to the pixel signal in the corresponding area), so that a highly accurate detection value can be calculated.
In this way, when making it possible to distinguish the pixel signals of both regions, for example, a flag bit for identification is added to the pixel signal of one region, and a flag bit is not attached to the pixel signal of the other region. You may make it distinguishable (identification).
In the above-described embodiment, the image signals in both areas can be distinguished (identified) by one-tone offset processing at the end of the raster conversion processing. However, as shown in FIG. One-tone offset processing may be performed on the preceding stage.

図11に示す例では、例えばA/D変換回路31aにおいてA/D変換を行った際に、検出領域の第1の画像信号が生成される前の信号に対して、未検出領域の信号と、信号の階調により区別できるように1階調分オフセットさせるようにした例を示す。
図11における左側に示すA/D変換前のアナログの信号Saiの階調範囲が0〜4095であるとした場合、A/D変換後のデジタルの信号Saaiの階調範囲を1〜4095となるように1階調分オフセットさせるようにしても良い。
具体的にはA/D変換前のアナログで階調Qiの信号Sai(但し、Qi=0〜4095)は、A/D変換後に階調Qi′(Qi′=Qi+1)のデジタルの信号Saaiに1階調分オフセットさせるようにしても良い。但し、最大の階調の場合のみ、Qi′=Qiとする。
但し、ラスタ変換を行う場合には、ラスタ変換前の検出信号(第1の画像信号又は第1の画素信号)に対して、1階調分だけ加算されたことを考慮して、ラスタ変換を行う必要がある。
In the example illustrated in FIG. 11, for example, when A / D conversion is performed in the A / D conversion circuit 31 a, the signal before the first image signal in the detection area is generated and the signal in the undetected area An example of offsetting by one gradation so that it can be distinguished by the gradation of the signal is shown.
When the gradation range of the analog signal Sai before A / D conversion shown on the left side in FIG. 11 is 0 to 4095, the gradation range of the digital signal Saai after A / D conversion is 1 to 4095. In this way, it may be offset by one gradation.
More specifically, an analog signal Qai of gradation Qi before A / D conversion (Qi = 0 to 4095) is converted to a digital signal Saai of gradation Qi ′ (Qi ′ = Qi + 1) after A / D conversion. It may be offset by one gradation. However, only in the case of the maximum gradation, Qi ′ = Qi.
However, when raster conversion is performed, the raster conversion is performed in consideration of the addition of one gradation to the detection signal (first image signal or first pixel signal) before the raster conversion. There is a need to do.

なお、上述した実施形態を変形した構成にしても良い。例えば、簡易モード、標準モードでそれぞれ別々の実施形態を構成するようにしても良い。また、簡易モード及び標準モードの動作を変形しても良い。例えば、上述すた簡易モードにおいて、検波値を算出するのみの構成にしても良い。
また、上述した標準モードの動作として、算出した検波値が基準の検波値に一致するように、デジタルアンプ34a、APD23a、レーザ光源の優先順序で調整(制御)する場合、デジタルアンプ34aによる1回当たりのゲインの調整量、APD23aにより1回当たりの増倍率の調整量、レーザ光源による1回当たりの光量調整量を、優先順序が高いもの程、大きくするようにしても良い。
また、算出した検波値が基準の検波値に一致するように調整(制御)する場合の優先順序をデジタルアンプ34a、APD23a、レーザ光源からユーザが指定できるようにしても良いし、デジタルアンプ34a、APD23a、レーザ光源の3つを用いる場合に限らず、1つ又は2つを用いるように選択できるようにしても良い。
Note that the above-described embodiment may be modified. For example, different embodiments may be configured in the simple mode and the standard mode. Further, the operation in the simple mode and the standard mode may be modified. For example, in the simple mode described above, the detection value may be calculated only.
Further, as an operation in the above-described standard mode, when adjustment (control) is performed in the priority order of the digital amplifier 34a, the APD 23a, and the laser light source so that the calculated detection value matches the reference detection value, the digital amplifier 34a performs once. The higher the priority order, the larger the gain adjustment amount, the gain adjustment amount per time by the APD 23a, and the light amount adjustment amount per time by the laser light source may be increased.
In addition, the user may be able to specify the priority order when adjusting (controlling) the calculated detection value to match the reference detection value from the digital amplifier 34a, the APD 23a, and the laser light source, or the digital amplifier 34a, It is not limited to using three APDs 23a and laser light sources, but it may be possible to select one or two.

1…走査型内視鏡装置、2…被検体、3…走査型内視鏡、4…本体装置、5…モニタ、6…入力部、11…挿入部、12…照明用光ファイバ、13…走査部、15…走査部、16…メモリ、16a…LUT、21…光源部、22…駆動部、23…検出部、23a…APD、24…信号処理部、25…コントローラ、31…第1の画像生成部、31a…A/D変換回路、31c…座標付与回路、32…ラスタ変換部、32a…補間回路、、32b…メモリ、32c…オフセット処理回路、33…検波部、33a…検波値算出回路、34…画像処理部、34a…デジタルアンプ、35…メモリ、35a…LUT DESCRIPTION OF SYMBOLS 1 ... Scanning endoscope apparatus, 2 ... Subject, 3 ... Scanning endoscope, 4 ... Main body apparatus, 5 ... Monitor, 6 ... Input part, 11 ... Insertion part, 12 ... Optical fiber for illumination, 13 ... Scanning unit, 15 ... scanning unit, 16 ... memory, 16a ... LUT, 21 ... light source unit, 22 ... driving unit, 23 ... detection unit, 23a ... APD, 24 ... signal processing unit, 25 ... controller, 31 ... first Image generation unit, 31a ... A / D conversion circuit, 31c ... coordinate application circuit, 32 ... raster conversion unit, 32a ... interpolation circuit, 32b ... memory, 32c ... offset processing circuit, 33 ... detection unit, 33a ... detection value calculation Circuit 34... Image processor 34 a Digital amplifier 35 Memory 35 a LUT

Claims (9)

照明光を発生する光源部と、
第1端部に入射された前記照明光を第2端部に導光する導光部と、
前記導光部の第2端部を渦巻き軌道を描くように振動させる走査部と、
前記第2端部から被検体に照射された照明光に応じた反射光を検出する検出部と、
前記検出部において検出される被検体像に対応する検出信号を変換して、直交座標系で表される生成画像に対応する画像信号を生成し、前記画像信号において指定された指定領域の画像信号強度の統計量を算出し、前記統計量として前記指定領域の明るさを表す検波値を算出する信号処理部と、
を有することを特徴とする走査型内視鏡装置。
A light source unit that generates illumination light;
A light guide that guides the illumination light incident on the first end to the second end;
A scanning unit that vibrates the second end of the light guide unit so as to draw a spiral trajectory;
A detection unit that detects reflected light according to illumination light applied to the subject from the second end;
A detection signal corresponding to the subject image detected by the detection unit is converted to generate an image signal corresponding to a generated image represented by an orthogonal coordinate system, and an image signal of a specified region specified in the image signal A signal processing unit that calculates an intensity statistic and calculates a detection value representing the brightness of the specified region as the statistic;
A scanning endoscope apparatus comprising:
前記画像信号強度は諧調表現されており、
前記生成画像に含まれる、前記検出信号が得られなかった画素に対して、前記画像信号強度の1階調に相当する値が付与されていることを特徴とする請求項1に記載の走査型内視鏡装置。
The image signal intensity is expressed in gradation.
2. The scanning type according to claim 1, wherein a value corresponding to one gradation of the image signal intensity is given to a pixel included in the generated image where the detection signal is not obtained. Endoscopic device.
前記検出信号の検出信号強度は諧調表現されており、
前記生成画像の含まれる、前記検出信号が得られた画素には、前記検出信号強度と1階調ずれた前記画像信号強度が付与されていることを特徴とする請求項2に記載の走査型内視鏡装置。
The detection signal intensity of the detection signal is expressed in gradation.
3. The scanning type according to claim 2, wherein the image signal intensity, which is included in the generated image and from which the detection signal is obtained, is shifted by one gradation from the detection signal intensity. 4. Endoscopic device.
前記検出信号の検出信号強度は諧調表現されており、
前記検出強度信号は前記諧調表現の1階調を利用しないで表現されており、
前記生成画像の含まれる、前記検出信号が得られなかった画素には、利用されない前記1階調に相当する値が付与されていることを特徴とする請求項2に記載の走査型内視鏡装置。
The detection signal intensity of the detection signal is expressed in gradation.
The detected intensity signal is expressed without using one gradation of the gradation expression,
The scanning endoscope according to claim 2, wherein a value corresponding to the one gradation that is not used is assigned to a pixel in which the detection signal is not obtained, which is included in the generated image. apparatus.
前記統計量は、前記指定領域の前記画像信号強度の平均値であることを特徴とする請求項1に記載の走査型内視鏡装置。   The scanning endoscope apparatus according to claim 1, wherein the statistic is an average value of the image signal intensity of the designated region. 前記検波値が基準の検波値となるように、前記信号処理部に設けたデジタルアンプの増幅率、前記検出部の増幅率、前記光源部の照射光強度における少なくとも1つを制御する制御部を有することを特徴とする請求項1に記載の走査型内視鏡装置。   A control unit that controls at least one of an amplification factor of a digital amplifier provided in the signal processing unit, an amplification factor of the detection unit, and an irradiation light intensity of the light source unit so that the detection value becomes a reference detection value; The scanning endoscope apparatus according to claim 1, comprising: 前記検波値が基準の検波値となるように、前記信号処理部に設けたデジタルアンプの増幅率、前記検出部の増幅率、前記光源部の照射光強度の優先順序で、所定量づつ順次制御する制御部を有することを特徴とする請求項1に記載の走査型内視鏡装置。   Sequential control by a predetermined amount in order of priority of the amplification factor of the digital amplifier provided in the signal processing unit, the amplification factor of the detection unit, and the irradiation light intensity of the light source unit so that the detection value becomes a reference detection value The scanning endoscope apparatus according to claim 1, further comprising a control unit that performs the operation. 前記信号処理部は、前記指定領域の明るさを表す前記検波値を算出する場合、前記指定領域内に含まれる前記検出信号が検出されていない未検出領域を除外し、前記検出部により検出信号が検出された正味の検出領域内に対応した検波値を、前記指定領域の明るさを表す前記検波値として算出することを特徴とする請求項1に記載の走査型内視鏡装置。   When calculating the detection value representing the brightness of the designated area, the signal processing unit excludes an undetected area where the detection signal included in the designated area is not detected, and detects the detection signal by the detection section. 2. The scanning endoscope apparatus according to claim 1, wherein a detection value corresponding to a net detection area in which is detected is calculated as the detection value representing brightness of the designated area. 前記検波値が基準の検波値となるように、前記信号処理部に設けたデジタルアンプの増幅率、前記検出部の増幅率、前記光源部の照射光強度の優先順序で、所定量づつ順次制御する制御部を有することを特徴とする請求項8に記載の走査型内視鏡装置。

Sequential control by a predetermined amount in order of priority of the amplification factor of the digital amplifier provided in the signal processing unit, the amplification factor of the detection unit, and the irradiation light intensity of the light source unit so that the detection value becomes a reference detection value The scanning endoscope apparatus according to claim 8, further comprising a control unit that performs the control.

JP2015209889A 2015-10-26 2015-10-26 Scanning endoscope device Active JP6599728B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015209889A JP6599728B2 (en) 2015-10-26 2015-10-26 Scanning endoscope device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015209889A JP6599728B2 (en) 2015-10-26 2015-10-26 Scanning endoscope device

Publications (2)

Publication Number Publication Date
JP2017079930A true JP2017079930A (en) 2017-05-18
JP6599728B2 JP6599728B2 (en) 2019-10-30

Family

ID=58712425

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015209889A Active JP6599728B2 (en) 2015-10-26 2015-10-26 Scanning endoscope device

Country Status (1)

Country Link
JP (1) JP6599728B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09262206A (en) * 1996-03-28 1997-10-07 Asahi Optical Co Ltd Light controller for electronic endoscope
JP2010125270A (en) * 2008-12-01 2010-06-10 Hoya Corp Endoscope apparatus
JP2012245161A (en) * 2011-05-27 2012-12-13 Olympus Corp Endoscope apparatus
JP2013183911A (en) * 2012-03-08 2013-09-19 Hoya Corp Electronic endoscope system
WO2015145826A1 (en) * 2014-03-28 2015-10-01 オリンパス株式会社 Scanning endoscopic device
WO2015186384A1 (en) * 2014-06-02 2015-12-10 オリンパス株式会社 Endoscope system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09262206A (en) * 1996-03-28 1997-10-07 Asahi Optical Co Ltd Light controller for electronic endoscope
JP2010125270A (en) * 2008-12-01 2010-06-10 Hoya Corp Endoscope apparatus
JP2012245161A (en) * 2011-05-27 2012-12-13 Olympus Corp Endoscope apparatus
JP2013183911A (en) * 2012-03-08 2013-09-19 Hoya Corp Electronic endoscope system
WO2015145826A1 (en) * 2014-03-28 2015-10-01 オリンパス株式会社 Scanning endoscopic device
WO2015186384A1 (en) * 2014-06-02 2015-12-10 オリンパス株式会社 Endoscope system

Also Published As

Publication number Publication date
JP6599728B2 (en) 2019-10-30

Similar Documents

Publication Publication Date Title
US8994804B2 (en) Scanning endoscope system
EP2756790B1 (en) Endoscopic system
JP5963982B2 (en) Image processing system and image processing apparatus
JP2010115391A (en) Endoscope apparatus
JP2010125270A (en) Endoscope apparatus
JP6401800B2 (en) Image processing apparatus, operation method of image processing apparatus, operation program for image processing apparatus, and endoscope apparatus
US20210282630A1 (en) Image processing device and method, endoscope system, and program
JP5841513B2 (en) Scanning endoscope system
JP2015077415A (en) Scanning type internal observation device and method of obtaining observation image using the same
JP5244164B2 (en) Endoscope device
US11612041B2 (en) Light source device, medical observation system, illumination method, and computer readable recording medium
WO2014020943A1 (en) Endoscope system
JP2005204958A (en) Autofluorescently observable electronic endoscope apparatus and system
JPWO2018235460A1 (en) Endoscope system
JP6599728B2 (en) Scanning endoscope device
US9974432B2 (en) Scanning endoscope apparatus with drive signal correction
JP2002102147A (en) Fluorescent image acquisition device
JP6257475B2 (en) Scanning endoscope device
JP2017086549A (en) Scanning endoscope apparatus
JP6574105B2 (en) Endoscope apparatus and endoscope system
US20230347169A1 (en) Phototherapy device, phototherapy method, and computer-readable recording medium
JP2018033783A (en) Endoscope processor
JP6806481B2 (en) Imaging device, control method of imaging device, and program
JP5945390B2 (en) Observation apparatus, operation method of observation apparatus, and image processing program
JP2015033456A (en) Endoscope system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190716

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191003

R151 Written notification of patent or utility model registration

Ref document number: 6599728

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250