JP2014097124A - Imaging system - Google Patents

Imaging system Download PDF

Info

Publication number
JP2014097124A
JP2014097124A JP2012249523A JP2012249523A JP2014097124A JP 2014097124 A JP2014097124 A JP 2014097124A JP 2012249523 A JP2012249523 A JP 2012249523A JP 2012249523 A JP2012249523 A JP 2012249523A JP 2014097124 A JP2014097124 A JP 2014097124A
Authority
JP
Japan
Prior art keywords
imaging
image
illumination
signal
band
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012249523A
Other languages
Japanese (ja)
Other versions
JP5856943B2 (en
Inventor
Soichiro Kojika
聡一郎 小鹿
Kazumasa Kaneko
和真 金子
Susumu Hashimoto
進 橋本
Susumu Kawada
晋 川田
Tomoki Iwasaki
智樹 岩崎
Yuji Kutsuma
祐二 久津間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Medical Systems Corp
Original Assignee
Olympus Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Medical Systems Corp filed Critical Olympus Medical Systems Corp
Priority to JP2012249523A priority Critical patent/JP5856943B2/en
Publication of JP2014097124A publication Critical patent/JP2014097124A/en
Application granted granted Critical
Publication of JP5856943B2 publication Critical patent/JP5856943B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging system capable of accommodating to a case when observation is performed by switching illumination light, and forming an image of the quality easy to observe and no conspicuous noise.SOLUTION: An imaging system that switches between first illumination light by a narrow band filter group 6 and second illumination light by a broad band filter group 7 to illuminate the body cavity of a patient 9, includes an AGC circuit 47 for amplifying an imaging signal imaged with a CCD 35, and an emphasizing circuit 55 for performing contour emphasizing processing. According to the content of the contour emphasizing processing, and the information on the combination of the first illumination light by the narrow band filter group and the second illumination light by the broad band filter group, the imaging system performs a control to suppress the maximum value of a gain to amplify the imaging signal by the AGC circuit 47.

Description

本発明は被写体を撮像する撮像システムに関する。   The present invention relates to an imaging system for imaging a subject.

近年、体腔内に挿入される内視鏡のように撮像手段を備えた撮像システムが広く用いられるようになっている。
また、通常の可視領域の照明光の照明のもとで撮像する通常光観察モード又は白色光観察(WLI観察)モードの他に、可視領域の照明光とは異なり、狭帯域の照明光のもとで撮像を行う狭帯域光観察(NBI観察)モード等の特殊光観察を行うことができる撮像システムも実用化されている。
例えばWO2010/131620号公報の第1の従来例には、狭帯域光観察を行うための面順次方式の撮像装置が開示されている。狭帯域光観察では、血管を高いコントラストで観察するために、血液に強く吸収され、かつ粘膜表層で強く反射・散乱される、という特長を併せ持つ光の利用に着目し、青色狭帯域光と緑色狭帯域光とを順次、生体組織に照射し、その反射光を撮像することにより、粘膜表層の毛細血管と深部の太い血管とのコントラストを強調表示する。
In recent years, an imaging system including an imaging unit such as an endoscope inserted into a body cavity has been widely used.
In addition to the normal light observation mode or the white light observation (WLI observation) mode for imaging under the illumination of the normal visible region illumination light, the narrow-band illumination light is different from the visible region illumination light. In addition, an imaging system capable of performing special light observation such as a narrow-band light observation (NBI observation) mode in which imaging is performed is also put into practical use.
For example, a first conventional example of WO2010 / 131620 discloses a frame sequential imaging device for performing narrowband light observation. Narrowband light observation focuses on the use of light that is strongly absorbed by blood and strongly reflected / scattered by the mucosal surface layer in order to observe blood vessels with high contrast. By irradiating the biological tissue sequentially with the narrow-band light and imaging the reflected light, the contrast between the capillary blood vessel in the mucosal surface layer and the deep blood vessel in the deep part is highlighted.

また、青色狭帯域光は、緑色狭帯域光に比較して、照明光量が不足しがちとなるため、上記公報の第1の従来例の撮像装置においては、緑色の狭帯域光Gと青色の2つの狭帯域光B1,B2を順次照射し、狭帯域光G,B1,B2に対応する反射光画像(狭帯域画像)から作成した狭帯域光観察画像を用いて狭帯域光観察を行うようにしている。また、この第1の従来例の撮像装置は、明るさ制御を行う構成を開示している。
また、特開2001−8097号公報の第2の従来例は、光源からの光照射に基づき被観察体内を撮像する撮像素子と、露光量情報を入力し上記光源からの光出力を可変制御する光量制御回路と、上記撮像素子から出力された画像信号のゲインを可変制御するゲイン制御回路と、上記画像信号に対して輪郭強調を行うディテール回路と、上記露光量情報により画像明るさが不足する状態で上記光量制御回路による光出力が上限値にあることを検出したとき、上記ゲイン制御回路により画像信号のゲインを上げると共に、このゲイン値の上昇に比例して上記ディテール回路のディテール量を下げるように制御する制御回路とを設けた内視鏡システムを開示している。
In addition, since the blue narrow band light tends to be insufficient in the amount of illumination light compared with the green narrow band light, in the first conventional example of the above publication, the green narrow band light G and the blue narrow band light Two narrowband lights B1 and B2 are sequentially irradiated, and narrowband light observation is performed using a narrowband light observation image created from reflected light images (narrowband images) corresponding to the narrowband lights G, B1 and B2. I have to. In addition, the imaging device of the first conventional example discloses a configuration for performing brightness control.
In the second conventional example of Japanese Patent Application Laid-Open No. 2001-8097, an image sensor that images the inside of an observation object based on light irradiation from a light source, and exposure information is input to variably control light output from the light source. A light amount control circuit, a gain control circuit that variably controls the gain of the image signal output from the image sensor, a detail circuit that performs edge enhancement on the image signal, and the exposure amount information results in insufficient image brightness. When it is detected that the light output by the light amount control circuit is at the upper limit value, the gain control circuit increases the gain of the image signal and decreases the detail circuit detail amount in proportion to the increase of the gain value. An endoscope system provided with a control circuit for controlling in this way is disclosed.

WO2010/131620号公報WO 2010/131620 特開2001−8097号公報JP 2001-8097 A

上記第1の従来例は、可視領域の照明光と狭帯域の照明光とを切り替えることにより通常光観察モードと狭帯域光観察モードとで観察できるようにしているが、照明光を切り替えて照明光量が不足し易い狭帯域光による観察を行うような場合において、明るさ制御のためにノイズが目立つようになる欠点が発生する。
また、第2の従来例は、露光量が不足する場合には、ゲイン可変手段により画像信号のゲインを所定の明るさの画像が得られるようにゲインを増大すると共に、ゲイン値の上昇に比例してディテール回路のディテール量を下げるように制御するが、通常の照明光の場合に適用することを想定しているため、通常の照明光よりも光量がかなり小さい狭帯域光の場合にはノイズが顕著になってしまう欠点がある。
本発明は上述した点に鑑みてなされたもので、照明光を切り替えて観察を行う場合に対応でき、ノイズが目立つことなく、観察し易い画質の画像を生成することができる撮像システムを提供することを目的とする。
In the first conventional example, the observation light can be observed in the normal light observation mode and the narrow band light observation mode by switching between the illumination light in the visible region and the illumination light in the narrow band. In the case of performing observation with narrow-band light where the amount of light tends to be insufficient, there is a drawback that noise becomes conspicuous for brightness control.
In the second conventional example, when the exposure amount is insufficient, the gain of the image signal is increased by the gain variable means so that an image having a predetermined brightness can be obtained, and is proportional to the increase of the gain value. The detail circuit is controlled to reduce the amount of detail, but it is assumed to be applied to the case of normal illumination light.Therefore, noise is generated in the case of narrowband light that is much smaller than normal illumination light. Has the disadvantage of becoming prominent.
The present invention has been made in view of the above-described points, and provides an imaging system that can cope with a case where observation is performed by switching illumination light, and that can generate an image having an image quality that is easy to observe without noticeable noise. For the purpose.

本発明の一態様の撮像システムは、第1の狭帯域及び第2の狭帯域を備えた第1の照明帯域の照明光と、複数の広帯域を備えた第2の照明帯域の照明光とを切り替えて照明を行う照明手段と、前記照明手段により照明された被写体を撮像する撮像手段と、
前記撮像手段により出力される撮像信号の撮像信号レベルを変更する信号レベル可変手段と、前記信号レベル可変手段から出力される信号から画像信号を生成し、生成した画像信号に対して輪郭強調処理を行う画像処理手段と、前記画像処理手段が行う輪郭強調処理内容と、前記照明手段における前記第1の照明帯域を形成する前記第1の狭帯域及び前記第2の狭帯域の組み合わせ及び前記第2の照明帯域を形成する前記複数の広帯域の組み合わせの情報に応じて、前記信号レベル可変手段による前記撮像信号レベルを制御する信号レベル可変制御手段と、を備える。
An imaging system of one embodiment of the present invention includes illumination light in a first illumination band having a first narrow band and a second narrow band, and illumination light in a second illumination band having a plurality of wide bands. Illuminating means for switching and illuminating; imaging means for imaging the subject illuminated by the illuminating means;
A signal level variable means for changing an imaging signal level of an imaging signal output by the imaging means, an image signal is generated from the signal output from the signal level variable means, and an edge enhancement process is performed on the generated image signal. A combination of the first narrow band and the second narrow band forming the first illumination band in the illumination unit, and the second Signal level variable control means for controlling the imaging signal level by the signal level variable means in accordance with the information of the combination of the plurality of wide bands forming the illumination band.

本発明によれば、照明光を切り替えて観察を行う場合に対応でき、ノイズが目立つことなく、観察し易い画質の画像を生成することができる。   ADVANTAGE OF THE INVENTION According to this invention, it can respond to the case where it observes by switching illumination light, and can produce | generate the image of the image quality which is easy to observe, without noise conspicuous.

図1は本発明の第1の実施形態の撮像システムの全体構成を示す図。FIG. 1 is a diagram illustrating an overall configuration of an imaging system according to a first embodiment of the present invention. 図2は回転フィルタの内周側に設けた第1フィルタ群を構成する狭帯域フィルタの波長に対する透過特性を示す図。FIG. 2 is a diagram showing the transmission characteristics with respect to the wavelength of the narrow band filter constituting the first filter group provided on the inner peripheral side of the rotary filter. 図3は回転フィルタの外周側に設けた第2フィルタ群を構成する広帯域フィルタの波長に対する透過特性を示す図。FIG. 3 is a diagram illustrating transmission characteristics with respect to wavelengths of a wideband filter constituting a second filter group provided on the outer peripheral side of the rotary filter. 図4は明るさ算出部の構成を示すブロック図。FIG. 4 is a block diagram illustrating a configuration of a brightness calculation unit. 図5は合成処理部の構成を示すブロック図。FIG. 5 is a block diagram illustrating a configuration of a synthesis processing unit. 図6Aは合成率に応じてノイズ低減の強度をステップ状に変更する特性例を示す図。FIG. 6A is a diagram illustrating a characteristic example in which the noise reduction intensity is changed stepwise according to the synthesis rate. 図6Bは合成率に応じてノイズ低減の強度を連続的に変更する特性例を示す図。FIG. 6B is a diagram illustrating a characteristic example in which the intensity of noise reduction is continuously changed according to the synthesis rate. 図7Aは狭帯域光観察モード時における強調レベルなどに応じてAGC回路のゲイン最大値を抑制する制御内容を示す図。FIG. 7A is a diagram showing control contents for suppressing the maximum gain value of the AGC circuit in accordance with the enhancement level in the narrow-band light observation mode. 図7Bは通常光観察モード時における強調レベルに応じてAGC回路のゲイン最大値を抑制する制御内容を示す図。FIG. 7B is a diagram showing the control contents for suppressing the maximum gain value of the AGC circuit according to the enhancement level in the normal light observation mode. 図8は強調回路が行う強調の種類に応じてAGC回路のゲイン最大値を抑制する制御内容を示す図。FIG. 8 is a diagram showing control contents for suppressing the maximum gain value of the AGC circuit according to the type of emphasis performed by the emphasis circuit. 図9は第1の実施形態における処理内容を示すフローチャート。FIG. 9 is a flowchart showing the processing contents in the first embodiment. 図10は第1の実施形態の変形例の撮像システムの全体構成を示す図。FIG. 10 is a diagram illustrating an overall configuration of an imaging system according to a modification of the first embodiment. 図11は第1の実施形態の変形例におけるNBI観察モード時でのゲイン最大値を制限する内容を示す図。FIG. 11 is a diagram showing the contents for limiting the maximum gain value in the NBI observation mode in the modification of the first embodiment. 図12は表示される画像を複数の領域に分割した様子を示す図。FIG. 12 is a diagram illustrating a state in which a displayed image is divided into a plurality of regions. 図13Aは明領域及び暗領域に応じて構造強調を行う周波数特性を変更する内容を示す図。FIG. 13A is a diagram showing the content of changing frequency characteristics for performing structure enhancement according to a bright region and a dark region. 図13Bは明領域及び暗領域と、電子ズームの有無に応じて構造強調を行う強度などを変更する内容を示す図。FIG. 13B is a diagram showing the contents of changing the intensity and the like for structure enhancement according to the presence or absence of the electronic zoom according to the presence or absence of the electronic zoom. 図14は撮像素子をAチャンネルとBチャンネルとの2線を用いて読み出す場合における欠陥画素とその周辺の8画素の関係を示す図。FIG. 14 is a diagram showing a relationship between a defective pixel and its surrounding eight pixels when the image sensor is read out using two lines of an A channel and a B channel. 図15は60コマ/秒の画像を50コマ/秒の画像に変換する65変換回路の画像メモリに入力される画像のタイミングと、65変換されて画像メモリから出力される画像のタイミング等を示すタイミング図。FIG. 15 shows the timing of an image input to an image memory of a 65 conversion circuit that converts an image of 60 frames / second into an image of 50 frames / second, the timing of an image converted from 65 and output from the image memory, and the like. Timing diagram. 図16は65変換した画像信号を同時化メモリに書き込みして、同時化したRGB信号として読み出すタイミングを示すタイミング図。FIG. 16 is a timing chart showing the timing at which 65-converted image signals are written into the synchronization memory and read out as synchronized RGB signals.

以下、図面を参照して本発明の実施形態を説明する。
(第1の実施形態)
図1に示す本発明の第1の実施形態の撮像システム1は、患者9の体腔内に挿入され、体腔内の患部等を被写体として内視鏡検査を行う内視鏡2と、内視鏡2に複数の狭帯域光からなる照明光と、複数の広帯域光からなる照明光とを選択的に供給する光源装置3と、内視鏡2に搭載された撮像手段に対する信号処理を行う信号処理手段としてのビデオプロセッサ4と、このビデオプロセッサ4から出力される画像信号をカラー表示するカラー表示手段としてのカラーモニタ5とを有する。
内視鏡2は、体腔内に挿入し易いように細長で可撓性を有する挿入部11と、この挿入部11の後端(基端)に設けられた操作部12と、操作部12の側部などから延出されたユニバーサルケーブル13とを有する。挿入部11、操作部12、ユニバーサルケーブル13内には、照明光を伝達するライトガイド14が挿通され、ライトガイド14の端部に設けた光源用コネクタ15は、第1の狭帯域及び第2の狭帯域を備えた第1の照明帯域の照明光と、複数の広帯域を備えた第2の照明帯域の照明光とを切り替えて照明を行う照明手段を構成する光源装置3に着脱自在に接続される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
An imaging system 1 according to the first embodiment of the present invention shown in FIG. 1 includes an endoscope 2 that is inserted into a body cavity of a patient 9 and performs an endoscopic examination using an affected part in the body cavity as a subject, and an endoscope. 2 is a light source device 3 that selectively supplies illumination light composed of a plurality of narrow-band lights and illumination light composed of a plurality of broadband lights, and signal processing that performs signal processing on the imaging means mounted on the endoscope 2. A video processor 4 as a means and a color monitor 5 as a color display means for color-displaying an image signal output from the video processor 4 are provided.
The endoscope 2 includes an elongated and flexible insertion portion 11 so that it can be easily inserted into a body cavity, an operation portion 12 provided at the rear end (base end) of the insertion portion 11, And a universal cable 13 extending from a side portion or the like. A light guide 14 for transmitting illumination light is inserted into the insertion portion 11, the operation portion 12, and the universal cable 13, and the light source connector 15 provided at the end of the light guide 14 includes the first narrow band and the second narrow band. The illumination light of the first illumination band having a narrow band and the illumination light of the second illumination band having a plurality of broadbands are detachably connected to the light source device 3 constituting the illumination means for performing illumination. Is done.

光源装置3は、ランプ電源回路20によるランプ点灯電源により発光するランプ21を有する。このランプ21は、例えばキセノンランプなどにより構成され、可視領域をカバーする広帯域の光を発生する。
そして、以下に説明するように光源装置3は、通常光観察モード又は白色光の観察モード(WLI観察モード又はWLIモード)に対応した広帯域R、G、B面順次照明光と、狭帯域光観察モード(NBI観察モード又はNMIモード)に対応した狭帯域G、B面順次照明光との一方の面順次照明光をライトガイド14に供給する。
なお、狭帯域のG、B面順次光は、広帯域R、G、B面順次照明光に比較すると、照明光量が不足しがちになり易く、かつ狭帯域のG面順次光に比較して狭帯域のB面順次光の照明光量がライトガイド14での伝送ロスなどにより小さくなり易いため、本実施形態においては、以下に説明するように狭帯域G面順次光の1回の照明に対して狭帯域B面順次光の照明を2回行う構成にしている。2回の内の一方がB1の照明光、他方がB2の照明光となる。
The light source device 3 has a lamp 21 that emits light by a lamp lighting power source by a lamp power circuit 20. The lamp 21 is constituted by a xenon lamp, for example, and generates broadband light covering the visible region.
Then, as will be described below, the light source device 3 includes the broadband R, G, B plane sequential illumination light corresponding to the normal light observation mode or the white light observation mode (WLI observation mode or WLI mode), and narrowband light observation. One surface sequential illumination light of narrow band G and B surface sequential illumination light corresponding to the mode (NBI observation mode or NMI mode) is supplied to the light guide 14.
Note that the narrow band G and B plane sequential light tends to be short of the amount of illumination light compared to the broadband R, G and B plane sequential illumination light, and is narrower than the narrow band G plane sequential light. Since the amount of illumination of the B-band sequential light in the band is likely to be small due to transmission loss in the light guide 14 and the like, in the present embodiment, as described below, one illumination of the narrow-band G-plane sequential light is performed. The narrow-band B-plane sequential light illumination is performed twice. One of the two times is B1 illumination light and the other is B2 illumination light.

メインとなる狭帯域B面順次光を狭帯域B1の面順次光、サブ(スレーブ)の狭帯域B面順次光を狭帯域B2の面順次光とした場合、本実施形態においては、狭帯域G、B1、B2の面順次照明光又は狭帯域B2を最初にした狭帯域B2,G,B1の面順次照明光による照明を行う。そして、同じ狭帯域のB1の照明光とB2の照明光とでそれぞれ撮像した撮像画像を合成することによって、狭帯域のB1又はB2の照明光でそれぞれ撮像したB1の撮像画像(又はB2の撮像画像)よりも明るい画像を生成することができるようにしている。
また、照明光量が不足する場合には、撮像信号レベルを変更する信号レベル変更手段としてのAGC回路47によるゲインにより撮像信号レベルを上げ、明るい画像を生成することができるようにしている。但し、面順次照明のため、動きのある被写体を撮像した場合には、合成画像に輪郭ずれ等が発生する。そのため、後述するように本実施形態においては観察モード、輪郭強調レベル、2つの画像を合成する場合の合成係数(又は合成比率)に応じて、AGC回路47によるゲインの最大値を制限し、ノイズが目立たない画像がえられるようにする。
When the main narrow-band B-plane sequential light is the narrow-band B1 plane-sequential light and the sub (slave) narrow-band B-plane sequential light is the narrow-band B2 plane-sequential light, in this embodiment, the narrow-band G , B1 and B2 are sequentially illuminated, or narrow-band B2, G, and B1 are sequentially used for illumination. Then, by combining the captured images captured with the same narrowband B1 illumination light and B2 illumination light, respectively, the B1 captured images (or B2 capture images) respectively captured with the narrowband B1 or B2 illumination light. An image brighter than (image) can be generated.
Further, when the amount of illumination light is insufficient, the imaging signal level is increased by the gain of the AGC circuit 47 as signal level changing means for changing the imaging signal level so that a bright image can be generated. However, due to frame sequential illumination, when a moving subject is imaged, a contour shift or the like occurs in the composite image. Therefore, as described later, in this embodiment, the maximum value of the gain by the AGC circuit 47 is limited according to the observation mode, the contour enhancement level, and the synthesis coefficient (or synthesis ratio) when two images are synthesized, and noise is reduced. Try to get an image that doesn't stand out.

ランプ21の光は、その照明光路中に配置された絞り22Aにより、通過する光量が調整された後、モータ23により回転される回転カラーフィルタ24を通り、コンデンサレンズ25で集光されてライトガイド14の入射端面に入射される。なお、絞り22Aは、絞り駆動回路22Bにより、絞り22Aにおける通過光量を決定する開口の大きさを可変する。なお、絞り22Aには、絞り22Aの開口量を検出するセンサ(図示略)を有し、最大の開口量となった開放状態においては、最大の開口量又は開放状態を検出した信号を絞り駆動回路22Bを介して後述する制御回路32に出力する。
なお、センサは、絞り駆動回路22Bを介することなく、直接制御回路32に出力しても良い。
回転カラーフィルタ24は、内周側周方向と外周側周方向に沿ってそれぞれ配置された複数の扇形状のフィルタを備え、第1の照明帯域の照明光と、第2の照明帯域の照明光を生成する第1フィルタ群6と第2フィルタ群7を有する。
The light of the lamp 21 is adjusted by the diaphragm 22A arranged in the illumination optical path, and after passing through the rotating color filter 24 rotated by the motor 23, is condensed by the condenser lens 25 and is condensed into the light guide. 14 is incident on the incident end face. The aperture 22A varies the size of the aperture that determines the amount of light passing through the aperture 22A by the aperture drive circuit 22B. The diaphragm 22A has a sensor (not shown) that detects the opening amount of the diaphragm 22A. In the open state where the maximum opening amount is reached, the maximum opening amount or a signal that detects the open state is driven by the diaphragm. It outputs to the control circuit 32 mentioned later via the circuit 22B.
The sensor may output directly to the control circuit 32 without going through the aperture drive circuit 22B.
The rotating color filter 24 includes a plurality of fan-shaped filters respectively disposed along the inner circumferential side circumferential direction and the outer circumferential side circumferential direction, and includes illumination light in the first illumination band and illumination light in the second illumination band. Has a first filter group 6 and a second filter group 7.

内周側の円環部分に、緑(G),青(B)の波長帯域における狭帯域の光をそれぞれ透過するGフィルタ6G、Bフィルタ6B1及び6B2が配置されて、第1フィルタ群6が構成される。なお、Bフィルタ6B1及び6B2は、同じ特性のフィルタであり、Bフィルタ26B1がメインで使用されるフィルタで、Bフィルタ26B2がサブで使用されるフィルタである。
外周側の円環部分には、赤(R)、緑(G)、青(B)の広帯域の光をそれぞれ透過するR,G,Bフィルタ7R,7G,7Bが配置され、第2フィルた群7を構成する。
図2はGフィルタ6G、Bフィルタ6B1及び6B2の透過特性を示す。具体的には、Gフィルタ6Gは、540nmを中心とした530−550nmの狭帯域のG光を透過し、Bフィルタ6B1及び6B2は、例えば415nmを中心とした400−430nmの狭帯域のB光(B1光、B2光ともいう)を透過する。なお、図2においては、符号フィルタ6G、6B1、6B2を記載しないで、その透過特性をG,B1(B2)で示している。
G filters 6G, B filters 6B1 and 6B2 that respectively transmit narrowband light in the green (G) and blue (B) wavelength bands are arranged in the annular portion on the inner peripheral side, and the first filter group 6 Composed. The B filters 6B1 and 6B2 are filters having the same characteristics. The B filter 26B1 is a filter used mainly, and the B filter 26B2 is a filter used as a sub.
R, G, and B filters 7R, 7G, and 7B that transmit red (R), green (G), and blue (B) broadband light respectively are disposed on the outer ring portion, and the second fill Group 7 is configured.
FIG. 2 shows transmission characteristics of the G filter 6G and the B filters 6B1 and 6B2. Specifically, the G filter 6G transmits a narrow band G light of 530 to 550 nm centered at 540 nm, and the B filters 6B1 and 6B2 have a narrow band B light of 400 to 430 nm centered at 415 nm, for example. Transmits (also referred to as B1 light or B2 light). In FIG. 2, the code filters 6G, 6B1, and 6B2 are not shown, and their transmission characteristics are indicated by G and B1 (B2).

図3は、R,G,Bフィルタ7R,7G,7B(図中ではRw,Gw,Bwで示す)の透過特性を示し、R,G,Bフィルタ7R,7G,7Bは、通常のR,G,Bの広帯域の波長帯域の光をそれぞれ通過する。なお、第1フィルタ群6と第2フィルた群7を、それぞれ狭帯域フィルタ群と広帯域フィルタ群とも言う。
なお、本明細書においては、図2に示す狭帯域の透過特性を有するGフィルタ6G、Bフィルタ6B1及び6B2の透過特性をG,B1(B2)で示し、図3に示す広帯域の透過特性を有するR,G,Bフィルタ7R,7G,7Bの透過特性、又はそれらの光をRw,Gw,Bwで示す。
回転カラーフィルタ24を回転するモータ23は、ラック28に取り付けてあり、このラック28は移動用モータ29の回転軸に取り付けたピニオンギア29aと噛合している。図1の実線で示す状態においては、回転カラーフィルタ24の外周側のR,G,Bフィルタ7R,7G,7B(Rw,Gw,Bw)が照明光路中に配置されたWLI観察モードに対応した照明を行う状態であり、モータ23により回転されることにより、広帯域のR、G、B面順次照明光がライトガイド14の入射端面に入射される。
FIG. 3 shows transmission characteristics of R, G, B filters 7R, 7G, 7B (indicated by Rw, Gw, Bw in the figure). R, G, B filters 7R, 7G, 7B The light passes through a wide wavelength band of G and B, respectively. The first filter group 6 and the second filter group 7 are also referred to as a narrow band filter group and a wide band filter group, respectively.
In this specification, the transmission characteristics of the G filter 6G, B filters 6B1 and 6B2 having the narrow band transmission characteristics shown in FIG. 2 are indicated by G and B1 (B2), and the broadband transmission characteristics shown in FIG. The transmission characteristics of the R, G, and B filters 7R, 7G, and 7B, or the light thereof, are indicated by Rw, Gw, and Bw.
A motor 23 that rotates the rotary color filter 24 is attached to a rack 28, and the rack 28 meshes with a pinion gear 29 a attached to the rotation shaft of the moving motor 29. 1 corresponds to the WLI observation mode in which the R, G, B filters 7R, 7G, 7B (Rw, Gw, Bw) on the outer peripheral side of the rotating color filter 24 are arranged in the illumination optical path. Illumination is performed, and rotation by the motor 23 causes broadband R, G, B plane sequential illumination light to enter the incident end face of the light guide 14.

内視鏡2の操作部12には観察モードを選択又は切り替える観察モード切替手段としての観察モードスイッチ31が設けられており、制御回路32は観察モードスイッチ31の操作に対応して光源装置3による照明光の切替と、ビデオプロセッサ4による照明光に対応した動作の制御を行う。例えば、術者等のユーザが観察モードスイッチ31を操作してWLI観察モードから、NBI観察モードに切り替える操作をすると、ビデオプロセッサ4内の制御回路32は、モータ29を回転駆動して、回転カラーフィルタ24及びモータ23を図1における矢印で示すように上方側に移動させる。
回転カラーフィルタ24が2点鎖線で示すように上方側に移動すると、内周側のB2G、6B2フィルタ6B2,6G、6B1が照明光路中に配置される状態に切り替わる。この状態においては、モータ23により回転カラーフィルタ24が回転されることにより、狭帯域のB2,G、B1面順次照明光がライトガイド14の入射端面に入射される。
ライトガイド14により伝送された照明光は、挿入部11の先端部33の照明窓に臨むライトガイド先端面から照明光として体腔内に出射され、体腔内の患部等の被写体を照明する。照明された被写体は、照明窓に隣接して設けられた観察窓に取り付けられた対物レンズ系34によってその結像位置に、撮像面が配置された撮像素子としての例えば電荷結像素子(CCDと略記)35に結像される。照明手段により照明された被写体を撮像する撮像手段は、被写体の光学像を結ぶ対物レンズ系34と、その結像位置に配置されたCCD35とにより構成される。
The operation unit 12 of the endoscope 2 is provided with an observation mode switch 31 as an observation mode switching means for selecting or switching an observation mode, and the control circuit 32 is operated by the light source device 3 in response to the operation of the observation mode switch 31. The illumination light is switched and the operation corresponding to the illumination light by the video processor 4 is controlled. For example, when a user such as an operator operates the observation mode switch 31 to switch from the WLI observation mode to the NBI observation mode, the control circuit 32 in the video processor 4 rotates the motor 29 to rotate the color. The filter 24 and the motor 23 are moved upward as indicated by arrows in FIG.
When the rotating color filter 24 moves upward as indicated by a two-dot chain line, the inner B2G and 6B2 filters 6B2, 6G, and 6B1 are switched to a state where they are arranged in the illumination optical path. In this state, the rotating color filter 24 is rotated by the motor 23 so that the narrow-band B2, G, B1 plane sequential illumination light enters the incident end face of the light guide 14.
The illumination light transmitted by the light guide 14 is emitted into the body cavity as illumination light from the light guide distal end surface facing the illumination window of the distal end portion 33 of the insertion portion 11, and illuminates a subject such as an affected part in the body cavity. An illuminated subject is, for example, a charge imaging element (CCD and CCD) as an imaging element in which an imaging surface is arranged at an imaging position by an objective lens system 34 attached to an observation window provided adjacent to the illumination window. (Abbreviation) 35 is imaged. The image pickup means for picking up the subject illuminated by the illumination means includes an objective lens system 34 that connects an optical image of the subject, and a CCD 35 arranged at the image formation position.

撮像手段を構成するCCD35は、挿入部11等を挿通された信号線を介してユニバーサルケーブル13の端部に設けた信号コネクタ36の電気接点と接続される。信号コネクタ36は、ビデオプロセッサ4に着脱自在に接続される。CCD35はビデオプロセッサ4内に設けたCCDドライバ41が発生するCCD駆動信号の印加により、CCD35の撮像面に結像された光学像を光電変換した信号を撮像信号として出力する。
なお、光源装置3が広帯域のR、G、B面順次照明光を生成している場合においては、CCD35は、広帯域のR、G、B面順次照明光のもとでそれぞれ光電変換した信号としての広帯域のR、G、Bの撮像信号を面順次で出力する。
一方、光源装置3が狭帯域のB2、G、B1面順次照明光を生成している場合においては、CCD35は、狭帯域のB2、G、B1面順次照明光のもとでそれぞれ光電変換した信号としての狭帯域のB2、G、B1の撮像信号を面順次で出力する。
The CCD 35 constituting the image pickup means is connected to an electrical contact of a signal connector 36 provided at an end of the universal cable 13 through a signal line inserted through the insertion portion 11 and the like. The signal connector 36 is detachably connected to the video processor 4. The CCD 35 outputs a signal obtained by photoelectrically converting an optical image formed on the imaging surface of the CCD 35 as an imaging signal by applying a CCD driving signal generated by a CCD driver 41 provided in the video processor 4.
In the case where the light source device 3 generates broadband R, G, B plane sequential illumination light, the CCD 35 performs a photoelectric conversion signal on the basis of the broadband R, G, B plane sequential illumination light. Wide-band R, G, and B imaging signals are output in frame sequential order.
On the other hand, when the light source device 3 generates narrow-band B2, G, B1 plane sequential illumination light, the CCD 35 performs photoelectric conversion under the narrow-band B2, G, B1 plane sequential illumination light, respectively. The narrowband B2, G, and B1 imaging signals as signals are output in frame sequential order.

以下においては、(殆どの場合において)広帯域のR、G、B面順次照明光を、Rw、Gw、Bw面順次光、広帯域のR、G、Bの撮像信号を、Rw、Gw、Bwの撮像信号のように表記し、狭帯域のB2、G、B1面順次照明光や、狭帯域のB2、G、B1の撮像信号と区別する。
CCD35から面順次で出力される撮像信号(具体的には、Rw、Gw、Bwの撮像信号又はB2、G、B1の撮像信号)は、ビデオプロセッサ4内のアナログ処理部42に入力され、アナログ処理部42を構成するプリアンプにより低雑音指数で増幅された後、相関2重サンプリング回路(CDS回路と略記)によりベースバンドの信号成分が抽出される。CDS回路を経たベースバンドの信号は、A/D変換回路43によりデジタルの撮像信号に変換された後、面順次の撮像信号を同時化する同時化制御部44と撮像画像の明るさを算出する明るさ算出部45とに入力される。
In the following, in most cases, broadband R, G, B plane sequential illumination light, Rw, Gw, Bw plane sequential light, broadband R, G, B imaging signals, Rw, Gw, Bw It is expressed as an imaging signal, and is distinguished from narrow-band B2, G, B1 plane sequential illumination light and narrow-band B2, G, B1 imaging signals.
Imaging signals (specifically, imaging signals of Rw, Gw, and Bw or imaging signals of B2, G, and B1) output from the CCD 35 in the surface order are input to the analog processing unit 42 in the video processor 4 and are analog. After being amplified with a low noise figure by a preamplifier constituting the processing unit 42, a baseband signal component is extracted by a correlated double sampling circuit (abbreviated as CDS circuit). The baseband signal that has passed through the CDS circuit is converted into a digital imaging signal by the A / D conversion circuit 43, and then the synchronization control unit 44 that synchronizes the frame sequential imaging signal and the brightness of the captured image are calculated. This is input to the brightness calculation unit 45.

同時化制御部44は、面順次の撮像信号を同時化するための同時化メモリ46と接続されている。同時化メモリ46は、R,G,Bメモリ46a,46b,46cを有する。そして、Rw、Gw、Bwの撮像信号が入力された場合には、同時化制御部44は、R,G,Bメモリ46a,46b,46cにそれぞれRw、Gw、Bwの撮像信号を格納する。
一方、B2、G、B1の撮像信号が入力された場合には、同時化制御部44は、R,G,Bメモリ46a,46b,46cにそれぞれB2、G、B1の撮像信号を格納する。
同時化制御部44は、広帯域のRw、Gw、Bwの撮像信号又は狭帯域のB2、G、B1の撮像信号を同時化メモリ46に格納した後、同時に読み出し、各フレームにおける撮像信号の(撮像信号)レベルを変更する撮像信号レベル可変手段としての自動利得制御回路(AGC回路と略記)47に出力する。
The synchronization control unit 44 is connected to a synchronization memory 46 for synchronizing frame-sequential imaging signals. The synchronization memory 46 has R, G, B memories 46a, 46b, 46c. When Rw, Gw, and Bw imaging signals are input, the synchronization control unit 44 stores the Rw, Gw, and Bw imaging signals in the R, G, and B memories 46a, 46b, and 46c, respectively.
On the other hand, when B2, G, and B1 image signals are input, the synchronization control unit 44 stores the B2, G, and B1 image signals in the R, G, and B memories 46a, 46b, and 46c, respectively.
The synchronization control unit 44 stores the broadband Rw, Gw, and Bw imaging signals or the narrowband B2, G, and B1 imaging signals in the synchronization memory 46, and then simultaneously reads the imaging signals (imaging signals) in each frame. (Signal) level is output to an automatic gain control circuit (abbreviated as AGC circuit) 47 as an imaging signal level varying means for changing the level.

明るさ算出部45は、撮像画像の明るさを明るさ算出部45内に設けたマトリクス処理部65によるマトリクス処理(又は色変換マトリクス処理)により算出する。明るさ算出部45は、少なくとも1フレーム期間より長い時間における撮像画像の平均の明るさ(又は輝度)を算出する。平均の明るさ(又は輝度)を算出する場合の時間をユーザが設定することができるようにしても良い。
明るさ算出部45は、WLI観察モードの場合には、広帯域のRw、Gw、Bw面順次照明光でのRw、Gw、Bwの撮像信号に対応した1種類の明るさを算出する。
一方、NBI観察モードの場合には、所定の時間(例えば1フレーム期間、又は2フレーム期間)内において、狭帯域のB2、G、B1面順次照明光におけるB2、G照明光と、B1、G照明光とでそれぞれ撮像した撮像信号から2組の明るさ(第1の明るさと第2の明るさ)を算出する。
なお、本実施形態においては、B1照明光をマスター照明光、B2照明光をマスター照明光に対して補助的(従属的)に使用されるスレーブ照明光とも呼ぶ。また、B1、G照明光をマスター側照明光、B2、G照明光をスレーブ側照明光とも呼ぶ。
The brightness calculation unit 45 calculates the brightness of the captured image by matrix processing (or color conversion matrix processing) by a matrix processing unit 65 provided in the brightness calculation unit 45. The brightness calculation unit 45 calculates the average brightness (or luminance) of the captured image for a time longer than at least one frame period. The user may be allowed to set the time for calculating the average brightness (or luminance).
In the WLI observation mode, the brightness calculation unit 45 calculates one type of brightness corresponding to the imaging signals of Rw, Gw, and Bw with broadband Rw, Gw, and Bw sequential illumination light.
On the other hand, in the NBI observation mode, within a predetermined time (for example, one frame period or two frame periods), the B2, G illumination light and the B1, G illumination light in the narrow band B2, G, B1 plane sequential illumination light Two sets of brightness (first brightness and second brightness) are calculated from imaging signals respectively captured with illumination light.
In the present embodiment, the B1 illumination light is also referred to as master illumination light, and the B2 illumination light is also referred to as slave illumination light that is used as an auxiliary (subordinate) to the master illumination light. B1 and G illumination light are also referred to as master side illumination light, and B2 and G illumination light are also referred to as slave side illumination light.

上記AGC回路47の出力信号は、以下に説明するように輪郭強調処理を行う強調回路55を含む画像処理手段としての画像処理部50を構成する合成処理部51に、切替スイッチ52を介して入力される。画像処理部50は、撮像信号レベル可変手段としてのAGC回路47から出力された信号から画像信号を生成し、生成した画像信号に対して輪郭強調処理等を行う。
NBI観察モードにおいては、AGC回路47の出力信号は、切替スイッチ52を介して(B1照明光の下でCCD35により撮像された)B1撮像画像と(B2照明光の下でCCD35により撮像された)B2撮像画像の合成を行う合成処理部51に入力される。合成処理部51は、合成により生成した画像信号を後段側に出力する。
WLI観察モードにおいては、制御回路32によって切替スイッチ52は接点a、bにおける設定aが選択されるように切替が制御される。この場合には、AGC回路47の出力信号は、合成処理部51をバイパスしてノイズ低減処理を行うノイズリダクション(NRと略記)回路53に入力される。
The output signal of the AGC circuit 47 is input via a changeover switch 52 to a composition processing unit 51 that constitutes an image processing unit 50 as an image processing unit including an enhancement circuit 55 that performs contour enhancement processing as described below. Is done. The image processing unit 50 generates an image signal from the signal output from the AGC circuit 47 serving as the imaging signal level varying unit, and performs edge enhancement processing and the like on the generated image signal.
In the NBI observation mode, the output signal of the AGC circuit 47 is transmitted via the changeover switch 52 to the B1 captured image (captured by the CCD 35 under the B1 illumination light) and (captured by the CCD 35 under the B2 illumination light). The data is input to the synthesis processing unit 51 that synthesizes the B2 captured image. The composition processing unit 51 outputs the image signal generated by the composition to the subsequent stage side.
In the WLI observation mode, the switch 52 is controlled by the control circuit 32 so that the setting a at the contacts a and b is selected. In this case, the output signal of the AGC circuit 47 is input to a noise reduction (abbreviated as NR) circuit 53 that performs noise reduction processing bypassing the synthesis processing unit 51.

NR回路53は、ノイズ低減処理を行う際の処理強度(NR強度とも言う)と合成処理部51による合成率の値とをルックアップテーブルのように関連付けた情報として格納したROM53aと接続されている。そして、NR回路53は、ROM53aの情報を参照して、合成率の値に応じた強度でノイズ低減の動作を行う。
NR回路53から出力される画像信号は、拡大/縮小回路54に入力され、拡大/縮小回路54は、入力される画像信号の画像サイズを電気的な信号処理により拡大(電子ズーム)又は縮小を行う。拡大/縮小回路54の出力信号は、強調回路55に入力され、強調回路55は、輪郭を強調する輪郭強調処理を行う。
強調回路55から出力される画像信号は、マトリクス処理部56に入力され、マトリクス処理部56は、1フレーム期間単位でマトリクス処理によりカラーモニタ5のRGBチャンネルに出力するR,G,B画像の画像信号Ro,Go,Boを生成する。
The NR circuit 53 is connected to a ROM 53a that stores processing intensity (also referred to as NR intensity) at the time of noise reduction processing and the value of the synthesis rate by the synthesis processing unit 51 as information that is associated like a lookup table. . Then, the NR circuit 53 refers to the information in the ROM 53a and performs a noise reduction operation with an intensity corresponding to the value of the synthesis rate.
The image signal output from the NR circuit 53 is input to the enlargement / reduction circuit 54. The enlargement / reduction circuit 54 enlarges (electronic zoom) or reduces the image size of the input image signal by electrical signal processing. Do. The output signal of the enlargement / reduction circuit 54 is input to the enhancement circuit 55, and the enhancement circuit 55 performs contour enhancement processing for enhancing the contour.
The image signal output from the enhancement circuit 55 is input to the matrix processing unit 56, and the matrix processing unit 56 outputs R, G, B images output to the RGB channels of the color monitor 5 by matrix processing in units of one frame period. Signals Ro, Go, Bo are generated.

マトリクス処理部56は、WLI観察モード時においては、単位マトリクスとなり、NBI観察モード時は、色調変更する場合には、後述する(1)式のα、β、γを含むマトリクスを採用する。
このマトリクス処理部56により生成された画像信号Ro,Go,Boは、D/A変換回路57によりアナログの画像信号Rt′,Gt′,Bt′に変換された後、カラーモニタ5のRGBチャンネルに入力される。
カラーモニタ5には、WLI観察モードにおいては、WLI観察画像がカラー表示され、NBI観察モードにおいては、NBI観察画像がカラーないしは擬似カラーで表示される。
The matrix processing unit 56 becomes a unit matrix in the WLI observation mode, and adopts a matrix including α, β, and γ in the expression (1) described later when changing the color tone in the NBI observation mode.
The image signals Ro, Go, Bo generated by the matrix processing unit 56 are converted into analog image signals Rt ′, Gt ′, Bt ′ by the D / A conversion circuit 57, and then converted into the RGB channels of the color monitor 5. Entered.
On the color monitor 5, the WLI observation image is displayed in color in the WLI observation mode, and the NBI observation image is displayed in color or pseudo color in the NBI observation mode.

また、ビデオプロセッサ4には、合成係数設定手段(又は合成比率設定手段)としての合成比率設定部(又は合成係数設定部)58a、輪郭強調レベル設定部58b等の各種の設定を行う操作パネル58を備え、操作パネル58により設定した信号は制御回路32に入力される。
術者等のユーザは、合成比率設定部58aから合成比率a′を設定する操作を行うことにより、制御回路32を介して合成比率a′が合成処理部51に入力され、合成処理部51は実際に合成する際に使用する合成比率acとしてこの合成比率a′を用いて2組の撮像信号(B1撮像信号とB2撮像信号)の合成処理を行う。
合成処理部51は、ユーザにより設定される合成比率a′を優先して使用するが、この設定が行われない場合には、明るさ算出部45により算出される後述する合成比率aを合成比率acとして合成処理を行う。
Further, the video processor 4 has an operation panel 58 for performing various settings such as a composition ratio setting unit (or composition coefficient setting unit) 58a and a contour enhancement level setting unit 58b as composition coefficient setting means (or composition ratio setting means). The signal set by the operation panel 58 is input to the control circuit 32.
A user such as an operator performs an operation of setting the composition ratio a ′ from the composition ratio setting unit 58a, whereby the composition ratio a ′ is input to the composition processing unit 51 via the control circuit 32, and the composition processing unit 51 Using this synthesis ratio a ′ as the synthesis ratio ac used when actually synthesizing, two sets of imaging signals (B1 imaging signal and B2 imaging signal) are synthesized.
The composition processing unit 51 preferentially uses the composition ratio a ′ set by the user. When this setting is not performed, the composition ratio a described later calculated by the brightness calculation unit 45 is used as the composition ratio. The synthesis process is performed as ac.

図1では、明るさ算出部45から合成比率の情報を合成処理部51に直接出力するラインを示しているが、明るさ算出部45により算出した合成比率aの情報を制御回路32に出力し、制御回路32が纏めて合成処理部51の合成処理を制御しても良い。本実施形態では、後者の場合を想定して以下の説明を行う。
また、明るさ算出部45は、算出した明るさの目標の明るさからの差分を、調光制御部59に出力する。調光制御部59は、入力された差分の信号を調光信号として光源装置3の絞り駆動回路22Bに出力し、絞り駆動回路22Bは調光信号に基づいて絞り22Aを通過する光量を調整する。
また、ビデオプロセッサ4内には、制御回路32がAGC回路47のAGCゲイン(以下、単にゲインと略記)の範囲を制限する制御情報60aを格納した制御情報格納部としての例えばフラッシュメモリ60を有する。
In FIG. 1, a line for directly outputting the synthesis ratio information from the brightness calculation unit 45 to the synthesis processing unit 51 is shown, but the information of the synthesis ratio a calculated by the brightness calculation unit 45 is output to the control circuit 32. The control circuit 32 may collectively control the synthesis processing of the synthesis processing unit 51. In the present embodiment, the following description is given assuming the latter case.
Further, the brightness calculation unit 45 outputs the difference of the calculated brightness from the target brightness to the dimming control unit 59. The dimming control unit 59 outputs the input difference signal as a dimming signal to the aperture driving circuit 22B of the light source device 3, and the aperture driving circuit 22B adjusts the amount of light passing through the aperture 22A based on the dimming signal. .
Further, in the video processor 4, the control circuit 32 has, for example, a flash memory 60 as a control information storage unit that stores control information 60 a that limits the range of the AGC gain (hereinafter simply referred to as gain) of the AGC circuit 47. .

制御回路32は、フラッシュメモリ60に格納された制御情報60aを参照してAGC回路47のゲインを、AGC回路47のゲイン制御端子に印加するゲイン制御信号Cgで制御する。なお、AGC回路47は、3つの特性が揃ったAGC回路により構成され、ゲイン制御端子に印加されるゲイン制御信号Cgの電圧値に応じた同じゲインでB2,G,B1の撮像信号を増幅して後段側に出力する。
なお、後述するようにNBI観察モードにおいては、2組の明るさの算出値及び目標の明るさとの差分値等に応じてB1の撮像信号とB2の撮像信号とを合成する場合の合成係数としての合成比率aを可変設定する。
本実施形態における明るさ算出部45は、例えば図4に示すような構成によりCCD35により撮像された撮像画像の平均の明るさ(輝度)を算出する。なお、図4においては、所定の時間として例えば2フレーム期間に設定した場合での平均の明るさを算出する場合の例を示しているが、1フレーム期間T1に設定して、1フレーム期間T1での平均の明るさを算出しても良いし、3フレーム期間等、複数のフレーム期間において平均の明るさを算出しても良い。なお、図4における点線に関しては後述する。
The control circuit 32 refers to the control information 60 a stored in the flash memory 60 and controls the gain of the AGC circuit 47 with the gain control signal Cg applied to the gain control terminal of the AGC circuit 47. The AGC circuit 47 is composed of an AGC circuit having three characteristics, and amplifies the imaging signals B2, G, and B1 with the same gain according to the voltage value of the gain control signal Cg applied to the gain control terminal. Output to the rear stage.
As will be described later, in the NBI observation mode, as a synthesis coefficient in the case of synthesizing the B1 imaging signal and the B2 imaging signal in accordance with the difference between the two sets of brightness calculation values and the target brightness, etc. The composite ratio a is variably set.
The brightness calculation unit 45 in the present embodiment calculates the average brightness (luminance) of the captured image captured by the CCD 35 with the configuration shown in FIG. 4, for example. FIG. 4 shows an example of calculating the average brightness when the predetermined time is set to, for example, two frame periods. However, it is set to one frame period T1 and set to one frame period T1. Average brightness may be calculated, or average brightness may be calculated in a plurality of frame periods such as three frame periods. The dotted line in FIG. 4 will be described later.

図4に示すように明るさ算出部45は、例えば3組のフレームメモリ61R,61R′,61G,61G′,61B,61B′を有し、Rw、Gw、Bwの撮像信号又はB1、G、B2の撮像信号の複数フレーム(ここでは2フレーム)分の撮像信号の平均値(平均信号値)となる/Rw、/Gw、/Bw又は/B2、/G、/B1の撮像信号を算出する平均値算出部62を有する。
図4に示す構成例では、1フレーム目のRw又はB2の撮像信号が入力された場合には、制御回路32は切替スイッチSW1とSW2aとを切り替え、フレームメモリ61RにRw又はB2の撮像信号を格納する。フレームメモリ61Rに格納されたRw又はB2の撮像信号をRw−1(B2−1)で示す。次の1フレーム目のGw又はGの撮像信号が入力された場合には、制御回路32は切替スイッチSW1とSW2bとを切り替え、フレームメモリ61GにGw又はGの撮像信号を格納する。フレームメモリ61Gに格納されたGw又はGの撮像信号をGw−1(G−1)で示す。
As shown in FIG. 4, the brightness calculation unit 45 includes, for example, three sets of frame memories 61R, 61R ′, 61G, 61G ′, 61B, 61B ′, and Rw, Gw, Bw imaging signals or B1, G, The imaging signals of / Rw, / Gw, / Bw or / B2, / G, / B1, which are the average values (average signal values) of the imaging signals of a plurality of frames (here, 2 frames) of the imaging signal of B2 are calculated. An average value calculation unit 62 is included.
In the configuration example shown in FIG. 4, when the Rw or B2 imaging signal of the first frame is input, the control circuit 32 switches the changeover switches SW1 and SW2a, and the Rw or B2 imaging signal is sent to the frame memory 61R. Store. The imaging signal of Rw or B2 stored in the frame memory 61R is indicated by Rw-1 (B2-1). When the Gw or G imaging signal of the next first frame is input, the control circuit 32 switches the selector switches SW1 and SW2b and stores the Gw or G imaging signal in the frame memory 61G. The Gw or G imaging signal stored in the frame memory 61G is denoted by Gw-1 (G-1).

さらに次の1フレーム目のBw又はB1の撮像信号が入力された場合には、制御回路32は切替スイッチSW1とSW2cとを切り替え、フレームメモリ61BにBw又はB1の撮像信号を格納する。フレームメモリ61Bに格納されたBw又はB1の撮像信号をBw−1(B1−1)で示す。
次の2フレーム目のRw又はB1の撮像信号が入力された場合には、制御回路32は切替スイッチSW1とSW2aとを切り替え、フレームメモリ61R′にRw又はB2の撮像信号を格納する。フレームメモリ61R′に格納されたRw又はB2の撮像信号をRw−2(B2−2)で示す。同様に、フレームメモリ61G′にはGw−2(G−2)で示す撮像信号が格納され、フレームメモリ61B′にはBw−2(B1−2)で示す撮像信号が格納される。
Further, when an imaging signal of Bw or B1 in the next first frame is input, the control circuit 32 switches the selector switches SW1 and SW2c and stores the imaging signal of Bw or B1 in the frame memory 61B. An image signal of Bw or B1 stored in the frame memory 61B is indicated by Bw-1 (B1-1).
When the image signal of Rw or B1 in the next second frame is input, the control circuit 32 switches the changeover switches SW1 and SW2a and stores the image signal of Rw or B2 in the frame memory 61R ′. The imaging signal of Rw or B2 stored in the frame memory 61R ′ is indicated by Rw-2 (B2-2). Similarly, an imaging signal indicated by Gw-2 (G-2) is stored in the frame memory 61G ′, and an imaging signal indicated by Bw-2 (B1-2) is stored in the frame memory 61B ′.

また、フレームメモリ61Rに格納されたRw―1(B2―1)の撮像信号とフレームメモリ61R′に格納されたRw―2(B2―2)の撮像信号とは加算器63aにより、対応する画素が加算されて平均値となる/Rw(/B2)が算出される。
例えば、1回目のRw(又はB2)照明光の下でCCD35により撮像され、プリアンプで増幅された後、CDS回路により抽出されたベースバインドの撮像信号成分を、A/D変換回路43によりデジタル信号に変換した撮像信号Rw−1(B2−1)における2次元の画素位置(i,j)の信号レベルをRw―1(i,j)(B2―1(i,j))で表した場合、/Rw=(Rw―1(i,j)+Rw―2(i,j))/2となり、/B2=(B2―1(i,j)+B2―2(i,j))/2となる。なお、2フレーム分の撮像信号から平均値を算出する例を示したが、3フレーム以上の複数フレームで平均値を算出しても良い。
The Rw-1 (B2-1) imaging signal stored in the frame memory 61R and the Rw-2 (B2-2) imaging signal stored in the frame memory 61R ′ are added to the corresponding pixels by the adder 63a. Are added together to calculate / Rw (/ B2) which is an average value.
For example, the base-bound imaging signal component that is imaged by the CCD 35 under the first Rw (or B2) illumination light, amplified by the preamplifier, and extracted by the CDS circuit is converted into a digital signal by the A / D conversion circuit 43. When the signal level of the two-dimensional pixel position (i, j) in the imaging signal Rw-1 (B2-1) converted into is expressed as Rw-1 (i, j) (B2-1 (i, j)) , / Rw = (Rw-1 (i, j) + Rw-2 (i, j)) / 2, and / B2 = (B2-1 (i, j) + B2-2 (i, j)) / 2 Become. In addition, although the example which calculates an average value from the image pick-up signal for 2 frames was shown, you may calculate an average value with several frames more than 3 frames.

同様にフレームメモリ61Gに格納されたGw―1(G―1)の撮像信号とフレームメモリ61G′に格納されたGw―2(G―2)の撮像信号とは加算器63bにより加算されて平均値となる/Gw(/G)が算出される。
また、同様にフレームメモリ61Bに格納されたBw―1(B1―1)の撮像信号とフレームメモリ61B′に格納されたBw―2(B1―2)の撮像信号とは加算器63cにより加算されて平均値となる/Bw(/B1)が算出される。
平均値算出部62を構成する加算器63a,63b,63cは、それぞれ算出した/Rw(/B2)、/Gw(/G)、/Bw(/B1)の撮像信号をそれぞれR画像、G画像、B画像明るさ算出部64a,64b,64cに出力する。
R画像、G画像、B画像明るさ算出部64a,64b,64cは、例えば/Rw(/B2)、/Gw(/G)、/Bw(/B1)の撮像信号を、有効画素領域の画素単位で積算して、(積算に用いた有効画素領域の)画素数で除算して各成分画像の明るさ<Rwf>,<Gwf>,<Bwf>(<B2f>、<Gf>,<B1f>)を算出する。
Similarly, the Gw-1 (G-1) imaging signal stored in the frame memory 61G and the Gw-2 (G-2) imaging signal stored in the frame memory 61G 'are added by the adder 63b and averaged. A value / Gw (/ G) is calculated.
Similarly, the Bw-1 (B1-1) imaging signal stored in the frame memory 61B and the Bw-2 (B1-2) imaging signal stored in the frame memory 61B ′ are added by the adder 63c. The average value / Bw (/ B1) is calculated.
The adders 63a, 63b, and 63c constituting the average value calculation unit 62 respectively calculate the image pickup signals of / Rw (/ B2), / Gw (/ G), and / Bw (/ B1) calculated as R image and G image, respectively. , B image brightness calculation units 64a, 64b and 64c.
The R image, G image, and B image brightness calculation units 64a, 64b, and 64c, for example, output image signals of / Rw (/ B2), / Gw (/ G), and / Bw (/ B1) to pixels in the effective pixel region. Accumulated in units and divided by the number of pixels (of the effective pixel area used for integration) brightness of each component image <Rwf>, <Gwf>, <Bwf>(<B2f>,<Gf>,<B1f>).

各成分画像の明るさ<Rwf>,<Gwf>,<Bwf>(<B2f>、<Gf>,<B1f>)は、マトリクス処理部65に入力される。マトリクス処理部65は、WLI観察モードにおいては、単位のマトリクスによりRm,Gm,Bmの信号を算出する。
つまり、入力される各成分画像の明るさ<Rwf>,<Gwf>,<Bwf>をRm,Gm,Bmの信号として出力する。一方、NBI観察モードの場合においては、マトリクス処理部65は、下記の(1)式に示すマトリクス処理してRm,Gm,Bmの信号を算出する。算出したRm,Gm,Bmの信号を輝度算出部66に出力する。
[数式1]

Figure 2014097124
なお、(1)式におけるα、β、γは、マトリクス係数である。α、β、γは、上述したマトリクス処理部56におけるNBI観察モード時におけるカラーモニタ5においてカラー表示する場合の色調を希望する色調に変更したものに対応している。 The brightness <Rwf>, <Gwf>, <Bwf>(<B2f>,<Gf>,<B1f>) of each component image is input to the matrix processing unit 65. In the WLI observation mode, the matrix processing unit 65 calculates Rm, Gm, and Bm signals using a unit matrix.
That is, the brightness <Rwf>, <Gwf>, <Bwf> of each input component image is output as Rm, Gm, Bm signals. On the other hand, in the case of the NBI observation mode, the matrix processing unit 65 calculates signals of Rm, Gm, and Bm by performing matrix processing shown in the following equation (1). The calculated Rm, Gm, and Bm signals are output to the luminance calculation unit 66.
[Formula 1]
Figure 2014097124
In the equation (1), α, β, and γ are matrix coefficients. α, β, and γ correspond to those in which the color tone in the color monitor 5 in the NBI observation mode in the matrix processing unit 56 is changed to a desired color tone.

これらの値は、例えば、0.7〜1.5の範囲から適宜に選択設定することができる。
(1)式の右辺のRf,Gf,Bfは、NBI観察モードにおけるマスター側照明光の場合とスレーブ側照明光の場合とにそれぞれ対応する<R1f>,<Gf>,<B1f>と、<R2f>,<Gf>,<B2f>となる。ここでは、マスター側照明光の場合とスレーブ側照明光の場合とにおいて、Gfを共通に使用しているが、共通に使用する場合に限定されない。Gfを共用した場合には、画像のずれを低減できる利点を有する。
NBI観察モードにおいては、(1)式は2組のRm,Gm,Bmの信号を算出する。輝度算出部66は、WLI観察モードでは下記の(2)式により輝度Yを算出する。
These values can be appropriately selected and set from a range of 0.7 to 1.5, for example.
Rf, Gf, and Bf on the right side of the equation (1) are <R1f>, <Gf>, <B1f> and <B1f> respectively corresponding to the case of the master side illumination light and the case of the slave side illumination light in the NBI observation mode. R2f>, <Gf>, <B2f>. Here, Gf is used in common in the case of the master side illumination light and in the case of the slave side illumination light, but it is not limited to the case of using in common. When Gf is shared, there is an advantage that image shift can be reduced.
In the NBI observation mode, Equation (1) calculates two sets of Rm, Gm, and Bm signals. The luminance calculation unit 66 calculates the luminance Y by the following equation (2) in the WLI observation mode.

Y=0.3Rm+0.59Gm+0.11Bm (2)
一方、NBI観察モードにおいては、輝度算出部66は、マスター側照明光の場合に対して下記の(3)式により輝度Y1を算出する。
Y1=0.3Rm+0.59Gm+0.11Bm
=0.3・α<G>+0.59・β<B1>+0.11・γ<B1> (3)
また、NBI観察モードにおいては、輝度算出部66は、スレーブ側照明光の場合に対して下記の(4)式により輝度Y2を算出する。
Y2=0.3Rm+0.59Gm+0.11Bm
=0.3・α<G>+0.59・β<B2>+0.11・γ<B2> (4)
また、輝度算出部66は、WLI観察モードの場合においては、目標の明るさ(輝度)Ywsと輝度Yとの差分ΔYw(=Yws−Y)と、NBI観察モードの場合においては、目標の明るさ(輝度)Ysと輝度Y1との差分ΔY1(=Ys−Y1)を算出する差分算出部66aを有する。
Y = 0.3Rm + 0.59Gm + 0.11Bm (2)
On the other hand, in the NBI observation mode, the luminance calculation unit 66 calculates the luminance Y1 by the following equation (3) for the case of the master side illumination light.
Y1 = 0.3Rm + 0.59Gm + 0.11Bm
= 0.3 · α <G> + 0.59 · β <B1> + 0.11 · γ <B1> (3)
In the NBI observation mode, the luminance calculation unit 66 calculates the luminance Y2 by the following equation (4) for the case of slave side illumination light.
Y2 = 0.3Rm + 0.59Gm + 0.11Bm
= 0.3 · α <G> + 0.59 · β <B2> + 0.11 · γ <B2> (4)
Further, the luminance calculation unit 66 determines the difference ΔYw (= Yws−Y) between the target brightness (luminance) Yws and the luminance Y in the case of the WLI observation mode, and the target brightness in the case of the NBI observation mode. A difference calculation unit 66a for calculating a difference ΔY1 (= Ys−Y1) between the brightness (luminance) Ys and the luminance Y1.

なお、メモリなどにより構成される目標明るさ格納部67は、WLI観察モードの場合における目標の明るさ(輝度)Ywsの値と、NBI観察モードにおける目標の明るさ(輝度)Ysの値を格納し、差分算出部66aは、目標明るさ格納部67に格納された情報を参照して差分ΔYw、ΔY1を算出する。
WLI観察モードの場合又はNBI観察モードの場合においては、明るさ算出部45(の輝度算出部66)は、差分ΔYw又はΔY1を調光制御部59に出力し、調光制御部59は差分ΔYw又はΔY1に応じて絞り駆動回路22Bを介して絞り22Aの開口量を調整する。
例えば、調光制御部59は、差分ΔYwが正の場合(算出された輝度Yが目標の明るさ(輝度)Ywsより小さい場合)には、絞り22Aを開くように制御する調光信号を出力し、差分ΔYwが負の場合には、絞り22Aを閉じるように制御する調光信号を出力する。
The target brightness storage unit 67 configured by a memory or the like stores a target brightness (luminance) Yws value in the WLI observation mode and a target brightness (luminance) Ys value in the NBI observation mode. Then, the difference calculating unit 66a calculates the differences ΔYw and ΔY1 with reference to the information stored in the target brightness storage unit 67.
In the case of the WLI observation mode or the NBI observation mode, the brightness calculation unit 45 (the luminance calculation unit 66) outputs the difference ΔYw or ΔY1 to the dimming control unit 59, and the dimming control unit 59 outputs the difference ΔYw. Alternatively, the aperture amount of the diaphragm 22A is adjusted via the diaphragm drive circuit 22B according to ΔY1.
For example, when the difference ΔYw is positive (when the calculated luminance Y is smaller than the target brightness (luminance) Yws), the dimming control unit 59 outputs a dimming signal that controls to open the aperture 22A. However, when the difference ΔYw is negative, a dimming signal for controlling to close the aperture 22A is output.

上記差分又はΔYwを差分ΔY1に置換したNBI観察モードの場合においても調光制御部59は、同様の制御を行う。また、NBI観察モードの場合において、差分ΔY1が0以下となる場合には、マスター側照明のみにより、目標の明るさ(輝度)Ysが得られるため、合成処理部51におけるB1及びB2撮像画像との画像を合成する場合の合成係数としての合成比率acを0にする。
また、明るさ算出部45により算出される差分ΔYw、ΔY1に応じて制御回路32を介してAGC回路47のAGCゲインが制御される。なお、本実施形態においては、WLI観察モードの場合とNBI観察モードの場合とでは、後述するようにAGC回路47のAGCゲインの制御範囲(ゲイン最大値)を異なるように設定している(図7A,図7B参照)。
また、明るさ算出部45の輝度算出部66は、NBI観察モードの場合においては、差分ΔY1がΔY1>0の場合には下記の(5)式により、合成係数を構成する合成比率aを算出する演算手段を構成する合成比率算出部66bを有する。
Even in the NBI observation mode in which the difference or ΔYw is replaced with the difference ΔY1, the dimming control unit 59 performs the same control. Further, in the NBI observation mode, when the difference ΔY1 is 0 or less, the target brightness (luminance) Ys is obtained only by the master side illumination. The synthesis ratio ac as a synthesis coefficient in the case of synthesizing these images is set to zero.
Further, the AGC gain of the AGC circuit 47 is controlled via the control circuit 32 in accordance with the differences ΔYw and ΔY1 calculated by the brightness calculation unit 45. In the present embodiment, the AGC gain control range (maximum gain value) of the AGC circuit 47 is set to be different between the case of the WLI observation mode and the case of the NBI observation mode, as will be described later (FIG. 7A, see FIG. 7B).
In addition, in the NBI observation mode, the brightness calculation unit 66 of the brightness calculation unit 45 calculates the composition ratio a constituting the composition coefficient by the following equation (5) when the difference ΔY1 is ΔY1> 0. And a composite ratio calculation unit 66b that constitutes a calculation means.

ΔY1=Y2×a 、a=ΔY1/Y2 (5)
合成比率算出部66bは、差分ΔY1と輝度Y2の比(ΔY1/Y2)とから合成比率aを算出する演算手段を構成する。
合成比率算出部66bは、算出した合成比率aを例えば制御回路32を介して合成処理部49に出力する。合成処理部51は、(合成比率設定部58aによる合成比率a′の設定がされない場合には)算出された合成比率aを合成処理部51において実際に合成する合成比率acに設定してマスター照明によるB1の撮像画像と、スレーブ照明によるB2の撮像画像とを合成する。
ΔY1 = Y2 × a, a = ΔY1 / Y2 (5)
The combination ratio calculation unit 66b constitutes a calculation unit that calculates the combination ratio a from the difference ΔY1 and the ratio of the luminance Y2 (ΔY1 / Y2).
The composition ratio calculation unit 66b outputs the calculated composition ratio a to the composition processing unit 49 via the control circuit 32, for example. The combination processing unit 51 sets the calculated combination ratio a to the combination ratio ac that is actually combined in the combination processing unit 51 (in the case where the combination ratio a ′ is not set by the combination ratio setting unit 58a). The captured image of B1 is synthesized with the captured image of B2 by slave illumination.

これに対して、合成比率設定部58aによる合成比率a′が設定がされている場合には、合成処理部51は、合成比率a′を優先して合成比率acに設定して、画像の合成に使用する。なお、合成処理部51は、実際には、後述する(6)式又は図5に示すようにGの撮像画像も含めた合成画像を生成する。但し、Gの撮像画像に対しては、単に1+acの係数を乗算して生成する。このため、異なるタイミングで撮像した複数の画像を合成するという定義を用いる場合には、B1の撮像画像とB2の撮像画像とから合成する場合がその定義に対応した撮像画像となる。
例えば、合成処理部51に入力される動画を構成する各フレームの撮像画像成分となるB2,G,B1の撮像画像をRin,Gin,Binとし、合成処理部51から出力される合成された合成画像をRt,Gt,Btとすると、合成処理部51は以下の(6)式のような合成画像の信号を生成して後段側に出力する。
On the other hand, when the composition ratio a ′ is set by the composition ratio setting unit 58a, the composition processing unit 51 preferentially sets the composition ratio a ′ to the composition ratio ac and combines the images. Used for. Note that the composition processing unit 51 actually generates a composite image including a G captured image as shown in equation (6) described later or FIG. However, the G captured image is generated by simply multiplying by a coefficient of 1 + ac. For this reason, when the definition of combining a plurality of images captured at different timings is used, a combination of the captured image of B1 and the captured image of B2 is a captured image corresponding to the definition.
For example, the synthesized images output from the synthesis processing unit 51 are set as Rin, Gin, and Bin as the captured images of B2, G, and B1, which are the captured image components of each frame constituting the moving image input to the synthesis processing unit 51. Assuming that the images are Rt, Gt, and Bt, the composition processing unit 51 generates a composite image signal such as the following equation (6) and outputs it to the subsequent stage.

[数式6]

Figure 2014097124
(6)式によれば、合成処理部51は、Rt,Gt,BtとしてB2,(1+ac)G,ac・B2+B1の画像を生成する。
このように、合成処理部51は、出力画像成分としてのBtの合成画像としてac・B2+B1画像を生成する。また、合成処理部51は、Btの合成画像の生成に対応して、Gtの画像成分として(1+ac)・Gの画像を生成する。
合成処理部51の後段側における画像処理部50を構成するNR回路53、拡大/縮小回路54、強調回路55等においては、合成処理部51により生成された合成画像の画像信号に対して、それぞれノイズ低減、拡大/縮小処理、輪郭強調処理等を行う。
なお、本明細書においては、合成処理部51により生成される主要な合成画像成分Btを生成するB1の撮像画像とB2の撮像画像とそれぞれ乗算する係数の比1:acを合成比率とも言う。 [Formula 6]
Figure 2014097124
According to Expression (6), the composition processing unit 51 generates an image of B2, (1 + ac) G, ac · B2 + B1 as Rt, Gt, and Bt.
In this way, the composition processing unit 51 generates an ac · B2 + B1 image as a composite image of Bt as an output image component. Further, in response to the generation of the Bt composite image, the composition processing unit 51 generates a (1 + ac) · G image as the Gt image component.
In the NR circuit 53, the enlargement / reduction circuit 54, the enhancement circuit 55, and the like constituting the image processing unit 50 on the subsequent stage side of the synthesis processing unit 51, the image signal of the synthesized image generated by the synthesis processing unit 51 is respectively applied. Noise reduction, enlargement / reduction processing, contour enhancement processing, and the like are performed.
In the present specification, the ratio 1: ac of coefficients for multiplying the captured image of B1 and the captured image of B2 that generate the main composite image component Bt generated by the composite processing unit 51 is also referred to as a composite ratio.

図5は合成処理部51の構成例を示す。B2の撮像画像(の撮像信号)は合成処理部51をスルーしてRtの画像信号となる。また、G及びB1の撮像画像(の撮像信号)は、乗算器71a及び加算器71bの一方の入力端にそれぞれ入力され、乗算器71a及び加算器71bは、出力端からGt,Btの合成画像の画像信号としてNR回路53に出力する。
乗算器71aにおける他方の入力端には、制御回路32から乗算される係数として、1+acが入力され、乗算器71aは、Gの撮像画像に1+acの係数を乗算して、(1+ac)Gの合成画像を出力する。
また、加算器71bの他方の入力端には、B2の撮像画像を乗算器71cにより係数acを乗算したac・B2の撮像画像が入力され、加算器71bは、両撮像画像を加算してac・B2+B1の合成画像を出力する。この係数acは制御回路32が出力する。
FIG. 5 shows a configuration example of the composition processing unit 51. The captured image (imaging signal) of B2 passes through the synthesis processing unit 51 and becomes an Rt image signal. In addition, the captured images of G and B1 (the captured signals thereof) are respectively input to one input terminal of the multiplier 71a and the adder 71b, and the multiplier 71a and the adder 71b are combined images of Gt and Bt from the output terminal. Is output to the NR circuit 53 as an image signal.
The other input terminal of the multiplier 71a receives 1 + ac as a coefficient to be multiplied from the control circuit 32. The multiplier 71a multiplies the captured image of G by the coefficient of 1 + ac to synthesize (1 + ac) G. Output an image.
The other input terminal of the adder 71b receives an ac · B2 captured image obtained by multiplying the captured image of B2 by the coefficient ac by the multiplier 71c, and the adder 71b adds both captured images to ac. -A composite image of B2 + B1 is output. The coefficient ac is output by the control circuit 32.

なお、(6)式又は図5の構成においては、合成処理部51が、Rt,Gt,BtとしてB2,(1+ac)G,ac・B2+B1の画像を生成する例で示しているが、Rtとしてac・B2を出力するようにマトリクス係数や乗算係数を設定しても良い。
また、より簡略化して合成処理部51が、Rt,Gt,Btとして0,(1+ac)G,ac・B2+B1画像を生成するようにしても良い。
また、本実施形態においては、制御回路32は、NR回路53によるノイズ低減する強度を合成比率ac又は合成率に応じて変化させる。本実施形態においては、図6A又は図6Bに示すように合成率の値に応じてノイズ低減する強度を大きくするように制御する。なお、図6A又は図6Bにおいては、合成比率acが0の場合を0%の合成率、合成比率acが1の場合を100%の合成率として表している。
また、図6Aにおいては、0%の合成率ではノイズ低減の強度をNRminに設定し、合成率の増大と共にステップ状にノイズ低減の強度を大きくし、100%の合成率ではノイズ低減の強度をNRmaxに設定している。図6Bでは0%の合成率ではノイズ低減の強度を0に設定し、合成率の増大と共に連続的にノイズ低減の強度を大きくし、100%の合成率ではノイズ低減の強度をNRmaxに設定している。
In the configuration of equation (6) or FIG. 5, the composition processing unit 51 shows an example of generating an image of B2, (1 + ac) G, ac · B2 + B1 as Rt, Gt, Bt. A matrix coefficient or a multiplication coefficient may be set so as to output ac · B2.
Further, the synthesis processing unit 51 may generate the 0, (1 + ac) G, ac · B2 + B1 images as Rt, Gt, and Bt in a more simplified manner.
In the present embodiment, the control circuit 32 changes the intensity of noise reduction by the NR circuit 53 according to the synthesis ratio ac or the synthesis rate. In the present embodiment, as shown in FIG. 6A or FIG. 6B, control is performed to increase the noise reduction intensity according to the value of the synthesis rate. In FIG. 6A or 6B, the case where the composition ratio ac is 0 is represented as 0% composition rate, and the case where the composition ratio ac is 1 is represented as 100% composition rate.
In FIG. 6A, the noise reduction strength is set to NRmin at a synthesis rate of 0%, and the noise reduction strength is increased stepwise as the synthesis rate increases, and the noise reduction strength is increased at a synthesis rate of 100%. NRmax is set. In FIG. 6B, the noise reduction strength is set to 0 at a synthesis rate of 0%, the noise reduction strength is continuously increased as the synthesis rate increases, and the noise reduction strength is set to NRmax at a synthesis rate of 100%. ing.

合成率が大きい場合には、ノイズ低減の強度を大きくし、ノイズ低減の機能を大きくする。一方、合成率が小さい場合には、合成率が大きい場合よりはノイズ低減の強度を小さく(低く)し、ノイズ低減処理の際の画像の解像度の劣化を防止する。換言すると、本実施形態では、画像の解像度を維持しつつ、良好なノイズ低減を行うことができるようにノイズ低減処理を行うようにしている。
また、マトリクス処理部56は、NBI観察モードにおいては入力される画像をRt′,Gt′,Bt′とした場合、(7)式のようなRo,G,Boの画像を生成してD/A変換回路57を介してカラーモニタ5のR,G,Bチャンネルに出力する。
[数式7]

Figure 2014097124
なお、Rt′として0に設定しても良い。 When the synthesis rate is large, the noise reduction strength is increased and the noise reduction function is increased. On the other hand, when the synthesis rate is small, the intensity of noise reduction is made smaller (lower) than when the synthesis rate is high, and deterioration of the resolution of the image during the noise reduction process is prevented. In other words, in this embodiment, noise reduction processing is performed so that good noise reduction can be performed while maintaining the resolution of the image.
Further, in the NBI observation mode, when the input image is Rt ′, Gt ′, and Bt ′, the matrix processing unit 56 generates Ro, G, and Bo images as shown in the equation (7) and performs D / D The data is output to the R, G, and B channels of the color monitor 5 via the A conversion circuit 57.
[Formula 7]
Figure 2014097124
Rt ′ may be set to 0.

また、本実施形態においては、制御回路32は、観察モードと、強調回路55で輪郭強調を行う場合の強調レベルLと、合成処理部51における合成比率acに応じて、(撮像信号レベル可変手段としての)AGC回路47のゲインを制御する。つまり、制御回路32は、信号レベル可変手段としてのAGC回路47のゲインを制御するゲイン制御部32aの機能を有する。ゲイン制御部32aは、フラッシュメモリ60に格納された制御情報60a等を参照して、AGC回路47のゲインをノイズを低減するように制御する。
図7Aは、NBI観察モード時におけるAGC回路47のゲインの範囲を、強調レベルLと、合成比率acとに応じて制限する内容を示す。このようにAGC回路47のゲインを制限することにより、本実施形態は、カラーモニタ5に表示される画像におけるノイズが目立たつことなく、観察し易い画像が得られるようにする。
In the present embodiment, the control circuit 32 (imaging signal level varying means) according to the observation mode, the enhancement level L when the enhancement circuit 55 performs edge enhancement, and the composition ratio ac in the composition processing unit 51. The gain of the AGC circuit 47 is controlled. That is, the control circuit 32 has a function of a gain control unit 32a that controls the gain of the AGC circuit 47 as the signal level varying means. The gain control unit 32a refers to the control information 60a stored in the flash memory 60 and controls the gain of the AGC circuit 47 so as to reduce noise.
FIG. 7A shows contents for limiting the gain range of the AGC circuit 47 in the NBI observation mode in accordance with the enhancement level L and the composition ratio ac. In this way, by limiting the gain of the AGC circuit 47, the present embodiment makes it possible to obtain an image that is easy to observe without causing noticeable noise in the image displayed on the color monitor 5.

図7Aに示すように強調レベルLは、0−7までの8段階で輪郭強調する場合の強調レベルLが増大する。なお、強調レベルLが0は、強調を行わない場合を示す。そして、本実施形態においては、強調レベルLが増大するにつれてAGC回路47のゲイン最大値が小さくなるように制御(制限)する。
また、合成比率が設定されていない場合(換言すると合成比率acが0)に比較して、合成比率が設定された場合(つまり合成比率acが0より大きく1以下の場合)には、AGC回路47のゲイン最大値がより小さい値となるように制御(制限)される。図7Aの具体例では、合成比率acが0の場合のゲイン最大値に対して、合成比率acが0より大きい場合には、その1/2のゲイン最大値に制限する。
図7Aに示すゲイン制御内容は、輪郭の強調レベルLが大きい程ノイズが目立つようになる(ノイジーになる)ので、ゲイン最大値が小さくなるように制限する。また、合成比率acが0より大きく設定されると、合成比率acが0の場合よりもノイジーになるため、合成比率acが0の場合よりもゲイン最大値が小さくなるように制限する。
As shown in FIG. 7A, the enhancement level L increases when the contour is enhanced in eight stages from 0 to 7. An enhancement level L of 0 indicates that no enhancement is performed. In the present embodiment, control (limitation) is performed so that the maximum gain value of the AGC circuit 47 decreases as the enhancement level L increases.
Further, when the composition ratio is set (that is, when the composition ratio ac is greater than 0 and equal to or less than 1) compared to when the composition ratio is not set (in other words, when the composition ratio ac is 0), the AGC circuit. Control (limitation) is performed so that the maximum gain value of 47 becomes a smaller value. In the specific example of FIG. 7A, when the synthesis ratio ac is greater than 0 when the synthesis ratio ac is 0, when the synthesis ratio ac is greater than 0, the gain is limited to a half gain maximum value.
In the gain control content shown in FIG. 7A, noise becomes more conspicuous (noisy) as the contour emphasis level L increases, so that the maximum gain value is limited. Further, if the synthesis ratio ac is set to be greater than 0, it becomes noisy than when the synthesis ratio ac is 0. Therefore, the maximum gain value is limited to be smaller than when the synthesis ratio ac is 0.

このようにゲイン最大値を制限することにより、カラーモニタ5で表示される画像のノイズが目立たないようにすることができる。なお、図7Aにおいて、強調レベルLと合成比率の割合に応じてゲイン最大値を点線で示すように、合成比率acの値をより反映したゲイン最大値となるように制限しても良い。
図7Aの点線で示すようにゲイン最大値を制限する場合、合成画像における主要な画像成分(B1+ac・B2)を生成する場合の合成割合に相当する値を(B1+ac・B2)≒(1+ac)B1と近似して、(1+ac)を合成割合の大きさと見なすことができる。そして、(1+ac)が大きい程、ゲイン最大値が小さくなるように制御回路32のゲイン制御部32aが抑制するようにする。その理由として、B1とB2の撮像画像は、時間的に異なるタイミングで撮像された画像であるため、カラーモニタ5において動きのある動画で表示する場合、(1+ac)が小さい方が輪郭、構造のずれが少ない良好な画質の画像と考えられる。
By limiting the maximum gain value in this way, it is possible to make the noise of the image displayed on the color monitor 5 inconspicuous. In FIG. 7A, the maximum gain value may be limited to a value that more reflects the value of the combination ratio ac, as indicated by the dotted line in accordance with the ratio between the emphasis level L and the combination ratio.
When the maximum gain value is limited as shown by the dotted line in FIG. 7A, the value corresponding to the composition ratio when generating the main image component (B1 + ac · B2) in the composite image is (B1 + ac · B2) ≈ (1 + ac) B1. And (1 + ac) can be regarded as the magnitude of the synthesis ratio. The gain control unit 32a of the control circuit 32 suppresses the maximum gain value as (1 + ac) increases. The reason is that the picked-up images of B1 and B2 are images picked up at different timings. Therefore, when the moving image is displayed on the color monitor 5, a smaller (1 + ac) has a contour and structure. It is considered that the image has good image quality with little deviation.

このため、(1+ac)の値が大きくなると、輪郭、構造のずれが画質を低下させる要因となりえる。従って、上記のように(1+ac)が大きい程、ゲイン最大値が小さくなるようにゲインを抑制することにより、ノイズが目立たない画質の良い画像が得られるようにできる。
一方、WLI観察モードにおいては、合成処理部51は動作しないため、AGC回路47のゲイン最大値は強調レベルLのみで決定される。図7BはWLI観察モードでの強調レベルLに対応して設定されるゲイン最大値を示す。WLI観察モードの場合においても、輪郭強調のレベルが大きい程ノイズが目立つようになる(ノイジーになる)ので、ゲイン最大値が小さくなるように制限する。
For this reason, when the value of (1 + ac) becomes large, the deviation of the outline and the structure can be a factor of deteriorating the image quality. Therefore, by suppressing the gain so that the maximum gain value becomes smaller as (1 + ac) becomes larger as described above, it is possible to obtain an image with good image quality in which noise is not conspicuous.
On the other hand, in the WLI observation mode, since the composition processing unit 51 does not operate, the maximum gain value of the AGC circuit 47 is determined only by the enhancement level L. FIG. 7B shows the maximum gain value set corresponding to the enhancement level L in the WLI observation mode. Even in the WLI observation mode, noise becomes more conspicuous (noisy) as the contour emphasis level increases, so that the maximum gain value is limited.

WLI観察モードにおいては、NBI観察モードの場合に比較して照明光量をかなり大きくできるので、NBI観察モードの場合に得られる画像に比較するとノイズレベルはかなり小さくできる。
従って、図7Bに示す具体例では、NBI観察モードの場合に比較して、強調レベルLを大きくする程、ゲイン最大値を小さくするように制限するが、NBI観察モードの場合よりは緩和したゲイン最大値となるように制限している。このように本実施形態は、照明光を切り替えて異なる観察モードで観察を行う場合に対応でき、ノイズが目立つことなく、観察し易い画質の画像を生成することができる撮像システムを提供する目的を達成する。特に、照明光が不足しがちとなる第1の狭帯域(具体的にはG)及び第2の狭帯域(具体的にはB1,B2)を備えた第1の照明帯域の照明光のもとで撮像したNBI観察モードの場合において、ノイズが目立つことなく、観察し易い画質の画像を生成するようにゲイン最大値を制限又は抑制する。
In the WLI observation mode, the amount of illumination light can be made considerably larger than in the NBI observation mode, so that the noise level can be made considerably smaller than in the image obtained in the NBI observation mode.
Therefore, in the specific example shown in FIG. 7B, the gain maximum value is limited to be smaller as the enhancement level L is larger than in the NBI observation mode, but the gain is more relaxed than in the NBI observation mode. It is limited to the maximum value. As described above, the present embodiment has an object to provide an imaging system that can cope with a case where observation is performed in different observation modes by switching illumination light, and that can generate an image with an image quality that is easy to observe without noticeable noise. Achieve. In particular, the illumination light in the first illumination band having the first narrow band (specifically G) and the second narrow band (specifically B1 and B2) in which the illumination light tends to be insufficient. In the case of the NBI observation mode imaged in (1) and (2), the maximum gain value is limited or suppressed so as to generate an image having an image quality that is easy to observe without causing noticeable noise.

なお、図7Aでは輪郭強調の強調レベルLで説明したが、画像中における輪郭強調(エッジ強調)と共に、周波数帯域により模様や構造を強調する構造強調等の強調処理の種類に応じて、AGC回路47のゲイン最大値を制限するようにしても良い。
例えば、構造強調Aにおいては、周波数fa以下の周波数帯域での輝度レベルを強調し、構造強調Bにおいては、周波数faよりも高い周波数fb(fb>fa)以下の周波数帯域での輝度レベルを強調する構造強調と、これらの構造強調における強調レベルとほぼ同じ強調レベルL(例えばL=2)の輪郭強調とにおいて、図8に示すようにゲイン最大値を制限するようにしても良い。
In FIG. 7A, the enhancement level L for edge enhancement has been described. However, an AGC circuit is used depending on the type of enhancement processing such as structure enhancement for emphasizing a pattern or structure with a frequency band along with edge enhancement (edge enhancement) in an image. The maximum gain value of 47 may be limited.
For example, in the structure enhancement A, the luminance level in the frequency band below the frequency fa is emphasized, and in the structure enhancement B, the luminance level in the frequency band below the frequency fb (fb> fa) higher than the frequency fa is emphasized. The maximum gain value may be limited as shown in FIG. 8 in the structure enhancement to be performed and the outline enhancement at an enhancement level L (for example, L = 2) that is substantially the same as the enhancement level in these structure enhancements.

図8に示す例では、強調レベルLが同じとした場合、より高い周波数fbまで構造強調を行う場合の方がノイジーの画像となるため、構造強調Aの場合よりも構造強調Bの場合の方でのゲイン最大値が小さくなるように制限する。
また、強調レベルLが同じとした場合、輪郭強調の方が構造強調の場合よりもノイジーの画像となるため、構造強調Bの場合よりも輪郭強調の場合の方でのゲイン最大値が小さくなるように制限する。このようにすることにより、ノイズが目立たない画像を表示できる。なお、図8においては、1つの強調レベルの場合に対して示しており、強調レベルLを可変した場合には、図7Aのようにゲイン最大値も変更すれば良い。また、図8をWLI観察モードの場合にも適用することができる。
In the example shown in FIG. 8, when the enhancement level L is the same, the structure enhancement to the higher frequency fb results in a noisy image, so the structure enhancement B is more than the structure enhancement A. The maximum gain at is limited so as to be small.
Further, when the enhancement level L is the same, the contour enhancement results in a noisy image as compared with the structure enhancement. Therefore, the maximum gain value in the case of the contour enhancement is smaller than that in the case of the structure enhancement B. To be limited. By doing so, it is possible to display an image in which noise is not noticeable. FIG. 8 shows the case of one emphasis level. When the emphasis level L is varied, the maximum gain value may be changed as shown in FIG. 7A. Also, FIG. 8 can be applied to the WLI observation mode.

このように本実施形態の撮像システム1は、第1の狭帯域及び第2の狭帯域を備えた第1の照明帯域の照明光と、複数の広帯域を備えた第2の照明帯域の照明光とを切り替えて照明を行う照明手段を構成する光源装置3と、前記照明手段により照明された被写体を撮像する撮像手段を構成するCCD35と、前記撮像手段により出力される撮像信号の撮像信号レベルを変更する信号レベル可変手段としてのAGC回路47と、前記信号レベル可変手段から出力される信号から画像信号を生成し、生成した画像信号に対して輪郭強調処理を行う強調回路55を含む画像処理手段としての画像処理部50と、前記画像処理手段が行う輪郭強調処理内容と、前記照明手段における前記第1の狭帯域及び前記第2の狭帯域を備えた前記第1の照明帯域の照明光と、前記複数の広帯域を備えた前記第2の照明帯域の照明光との情報に応じて、前記信号レベル可変手段による前記撮像信号レベルを制御する信号レベル可変制御手段としてのゲイン制御部32aと、を備えることを特徴とする。   As described above, the imaging system 1 of the present embodiment includes the illumination light in the first illumination band having the first narrow band and the second narrow band, and the illumination light in the second illumination band having a plurality of wide bands. The light source device 3 that constitutes the illumination means that performs illumination, the CCD 35 that constitutes the imaging means that images the subject illuminated by the illumination means, and the imaging signal level of the imaging signal output by the imaging means An AGC circuit 47 as a signal level changing means to be changed, and an image processing means including an enhancement circuit 55 for generating an image signal from a signal output from the signal level changing means and performing an edge enhancement process on the generated image signal. As the image processing unit 50, the content of contour enhancement processing performed by the image processing means, and the first illumination band including the first narrow band and the second narrow band in the illumination means Gain control unit as signal level variable control means for controlling the imaging signal level by the signal level variable means according to information of illumination light and illumination light of the second illumination band having the plurality of wide bands 32a.

また、本実施形態においては、前記第1の照明帯域の照明は、回転カラーフィルタ24を1回転させる時間を1フレーム期間T1として、1フレーム期間T1の整数N倍とする所定の時間N×T1内に、前記第1の狭帯域の照明光による第1回M1の照明と、前記第2の狭帯域を有する照明光による第2回M2(=2×M1)の照明との組み合わせからなり、更に、前記第1の回数M1のうちの第1の所定回M1−1(=M1)の照明に基づく前記撮像手段による第1の撮像信号と、前記第2の回数M2のうちの第2の所定回M2−1(=M1)の照明に基づく前記撮像手段による第2の撮像信号とを用いた色変換マトリクス処理によって第1の明るさを算出し、前記第1の回数M1のうちの第3の所定回M3−1(=M1)の照明に基づく第1の撮像信号と、前記第2の回数M2のうちの第4の所定回M4−1(=M1)の照明に基づく第3の撮像信号とを用いた色変換マトリクス処理によって第2の明るさを算出する明るさ算出手段としての明るさ算出部45と、前記第1の明るさと所定の目標明るさとの差分と、前記第2の明るさとの比に基づいて、各1フレーム期間において前記第1及び前記第2の撮像信号に対して前記第1及び前記第3の撮像信号を合成する場合の合成係数を算出する演算手段としての合成比率算出部66bと、を備え、前記画像処理手段は、前記演算手段による合成係数、又は合成係数設定手段としての合成比率設定部58aにより設定される合成係数に基づき、各1フレーム期間内における前記第1及び第2の撮像信号に対して前記第1及び第3の撮像信号を合成し、生成した画像信号に対して輪郭強調処理を行い、前記信号レベル可変手段としてのAGC回路47は、前記照明手段が前記第1の狭帯域及び第2の狭帯域の組み合わせからなる前記第1の照明帯域の照明光のもとで撮像された撮像信号である場合、前記画像処理手段が行う前記輪郭強調処理内容と前記合成係数とに基づき、前記第1、第2及び第3の撮像信号を処理する前記信号レベル可変手段を制御する。なお、上記のN,回数M1,M2等は、例えば1回、或いは2回等の値に設定しても良いし、( )で示す関係を満たすように設定しても良い。   In the present embodiment, the illumination in the first illumination band is a predetermined time N × T1 which is an integer N times the one frame period T1, where the time for one rotation of the rotating color filter 24 is one frame period T1. And a combination of the first M1 illumination with the first narrowband illumination light and the second M2 (= 2 × M1) illumination with the second narrowband illumination light, Furthermore, the first imaging signal by the imaging means based on the illumination of the first predetermined number M1-1 (= M1) of the first number of times M1, and the second number of the second number of times M2. First brightness is calculated by color conversion matrix processing using the second imaging signal by the imaging means based on illumination of M2-1 (= M1) predetermined times, and the first brightness of the first number M1 is calculated. No. 3 based on M3-1 (= M1) illumination The second brightness is obtained by color conversion matrix processing using one imaging signal and a third imaging signal based on the illumination of the fourth predetermined number M4-1 (= M1) of the second number of times M2. On the basis of a ratio between the first brightness and a predetermined target brightness, and the ratio between the second brightness and the brightness calculation unit 45 serving as a brightness calculation means for calculating A synthesis ratio calculating unit 66b as a calculation unit that calculates a synthesis coefficient when the first and third imaging signals are combined with the first and second imaging signals, and the image processing unit includes: The first and second imaging signals in each one frame period based on the synthesis coefficient by the arithmetic means or the synthesis coefficient set by the synthesis ratio setting unit 58a as the synthesis coefficient setting means. And third shot The AGC circuit 47 serving as the signal level variable means is composed of a combination of the first narrow band and the second narrow band. In the case of an imaging signal imaged under illumination light in the first illumination band, the first, second, and third are based on the contents of the edge enhancement performed by the image processing means and the synthesis coefficient. The signal level varying means for processing the image pickup signal is controlled. The above N, number of times M1, M2, etc. may be set to values such as once or twice, or may be set so as to satisfy the relationship indicated by ().

次に本実施形態の動作を図9のフローチャートを参照して説明する。撮像システム1の電源がONされると、制御回路32は、最初のステップS1の初期設定の処理として、例えばWLI観察モードで照明及び撮像を行う状態となるように制御する。つまり、ステップS2に示すように制御回路32は、光源装置3のモータ29を制御し、回転カラーフィルタ24の外周側の広帯域フィルタ群7が照明光路中に配置されるようにする。そして、被写体は、広帯域フィルタ群7による広帯域照明光、つまり、広帯域R,G,B照明光(換言するとRw,Gw,Bw照明光)で照明される。
また、ステップS3に示すように制御回路32は、広帯域照明光で照明された被写体をCCD35で撮像し、ビデオプロセッサ4は広帯域の撮像信号又は画像信号を生成する。
その場合、ステップS4において制御回路32のゲイン制御部32aは、強調レベルLの値に応じてAGC回路47によるゲイン最大値を抑制する。つまり、強調レベルLが大きい程、AGC回路47によるゲイン最大値を抑制する。
Next, the operation of this embodiment will be described with reference to the flowchart of FIG. When the power supply of the imaging system 1 is turned on, the control circuit 32 performs control so that illumination and imaging are performed in the WLI observation mode, for example, as the initial setting process in the first step S1. That is, as shown in step S2, the control circuit 32 controls the motor 29 of the light source device 3 so that the wide band filter group 7 on the outer peripheral side of the rotating color filter 24 is arranged in the illumination optical path. The subject is illuminated with broadband illumination light by the broadband filter group 7, that is, broadband R, G, B illumination light (in other words, Rw, Gw, Bw illumination light).
Further, as shown in step S3, the control circuit 32 images the subject illuminated with the broadband illumination light with the CCD 35, and the video processor 4 generates a broadband imaging signal or image signal.
In that case, in step S4, the gain control unit 32a of the control circuit 32 suppresses the maximum gain value by the AGC circuit 47 according to the value of the enhancement level L. That is, the higher the enhancement level L, the more the maximum gain value by the AGC circuit 47 is suppressed.

そして、ステップS5に示すようにカラーモニタ5は、WLI画像を表示する。
ステップS6に示すように制御回路32は、観察モードスイッチ31による観察モードの切替操作をモニタしている。術者は、被写体としての患部組織の血管の走行状態をより鮮明に観察したいと望むような場合には、観察モードスイッチ31を操作してNBI観察モードに切り替える。
制御回路32は、観察モードの切替操作を検出しない場合には、ステップS3の処理に戻り、観察モードの切替操作を検出した場合にはステップS7に示すように制御回路32は、WLI観察モードからNBI観察モードへ切り替える設定を行う。
Then, as shown in step S5, the color monitor 5 displays the WLI image.
As shown in step S <b> 6, the control circuit 32 monitors the observation mode switching operation by the observation mode switch 31. When the surgeon desires to observe the running state of the blood vessel of the affected tissue as a subject more clearly, the operator operates the observation mode switch 31 to switch to the NBI observation mode.
If the control circuit 32 does not detect the observation mode switching operation, the control circuit 32 returns to the process of step S3. If the observation mode switching operation is detected, the control circuit 32 starts from the WLI observation mode as shown in step S7. Set to switch to NBI observation mode.

つまり、ステップS8に示すように制御回路32は、光源装置3のモータ29を制御し、回転カラーフィルタ24の内周側の狭帯域フィルタ群6が照明光路中に配置されるようにする。そして、被写体は、狭帯域フィルタ群6による狭帯域照明光で照明される。
また、ステップS9に示すように制御回路32は、狭帯域照明光で照明された被写体をCCD35で撮像し、ビデオプロセッサ4の同時化制御部44は狭帯域のB1,G,B2の撮像信号又は画像信号を生成する。
また、ステップS10に示すように明るさ算出部45の輝度算出部66は、明るさを算出すると共に、輝度算出部66における合成比率算出部66bは、合成比率aを算出する。算出された合成比率aは制御回路32に入力される。
ステップS11に示すように制御回路32は、ユーザによる合成比率設定部58aからの設定入力により合成比率a′が設定されているか否かを判定する。
That is, as shown in step S8, the control circuit 32 controls the motor 29 of the light source device 3 so that the narrow band filter group 6 on the inner peripheral side of the rotating color filter 24 is arranged in the illumination optical path. The subject is illuminated with narrowband illumination light from the narrowband filter group 6.
Further, as shown in step S9, the control circuit 32 images the subject illuminated with the narrowband illumination light by the CCD 35, and the synchronization control unit 44 of the video processor 4 performs the narrowband B1, G, B2 imaging signals or An image signal is generated.
Further, as shown in step S10, the luminance calculation unit 66 of the brightness calculation unit 45 calculates the brightness, and the combination ratio calculation unit 66b in the luminance calculation unit 66 calculates the combination ratio a. The calculated composition ratio a is input to the control circuit 32.
As shown in step S11, the control circuit 32 determines whether or not the composition ratio a ′ is set by a setting input from the composition ratio setting unit 58a by the user.

合成比率a′が設定されていない判定結果の場合には、ステップS12に示すように制御回路32は、合成処理部51が合成する場合の合成比率acとして合成比率aを採用するように決定する(ac=a)。
一方、合成比率a′が設定されている判定結果の場合には、ステップS13に示すように制御回路32は、合成処理部51が合成する場合の合成比率acとして(合成比率aに優先して)合成比率a′を採用するように決定する(ac=a′)。
ステップS12又はS13の後のステップS14において制御回路32は、強調レベルLの設定を判定する。制御回路32は、輪郭強調レベル設定部58b等により強調レベルLが設定されている場合、その強調レベルLを確認する。なお、強調レベルLが設定されている場合、その強調レベルLを図示しないメモリ又はフラッシュメモリ60等に格納しても良い。
In the case of a determination result in which the composition ratio a ′ is not set, the control circuit 32 determines to adopt the composition ratio a as the composition ratio ac when the composition processing unit 51 performs composition as shown in step S12. (Ac = a).
On the other hand, in the case of the determination result in which the composition ratio a ′ is set, as shown in step S13, the control circuit 32 sets the composition ratio ac when the composition processing unit 51 performs composition (prior to the composition ratio a). ) It is determined to adopt the synthesis ratio a ′ (ac = a ′).
In step S14 after step S12 or S13, the control circuit 32 determines the setting of the enhancement level L. When the enhancement level L is set by the contour enhancement level setting unit 58b or the like, the control circuit 32 confirms the enhancement level L. If the enhancement level L is set, the enhancement level L may be stored in a memory (not shown), the flash memory 60, or the like.

そして、次のステップS15において制御回路32のゲイン制御部32aは、強調レベルL,合成比率acに応じて、制御情報60aを参照してAGC回路47のゲイン最大値を制限する。具体的には、信号レベル可変制御手段を構成するゲイン制御部32aは、強調レベルLが大きい程、又は合成比率acが大きい程、AGC回路47に入力される撮像信号レベルに対するゲインを抑制するゲイン制御信号CgをAGC回路47のゲイン制御端子に印加する。
AGC回路47を経た信号は、合成処理部51において合成比率ac等を用いて合成画像の画像信号が生成され、NR回路53、拡大/縮小回路54、強調回路55、マトリクス処理部56等を経た後、カラーモニタ5に出力される。そしてステップS16に示すように、カラーモニタ5にはNBI観察画像が表示される。
このように制御することにより、このような制御を行わない場合のカラーモニタ5に表示されるNBI画像がノイジーになることを防止してノイズが目立たない観察し易い画像を得ることができる。
In the next step S15, the gain controller 32a of the control circuit 32 limits the maximum gain value of the AGC circuit 47 with reference to the control information 60a according to the enhancement level L and the synthesis ratio ac. Specifically, the gain control unit 32a constituting the signal level variable control unit is configured to suppress the gain with respect to the imaging signal level input to the AGC circuit 47 as the enhancement level L is larger or the synthesis ratio ac is larger. A control signal Cg is applied to the gain control terminal of the AGC circuit 47.
From the signal that has passed through the AGC circuit 47, an image signal of a composite image is generated by using the composite ratio ac or the like in the composite processing unit 51, and passed through the NR circuit 53, the enlargement / reduction circuit 54, the enhancement circuit 55, the matrix processing unit 56, or the like. Thereafter, the data is output to the color monitor 5. Then, as shown in step S16, the NBI observation image is displayed on the color monitor 5.
By controlling in this way, it is possible to prevent the NBI image displayed on the color monitor 5 when such control is not performed from becoming noisy, and to obtain an easily observable image with no noticeable noise.

また、ステップS17において制御回路32は、観察モードの切替操作をモニタしている。観察モードの切替操作がされた判定結果の場合には、ステップS1の処理に戻る。一方、観察モードの切替操作がされていない判定結果の場合には、次のステップS18において制御回路32は、ユーザにより内視鏡検査の終了の操作が行われたか否かを判定し、終了の操作が行われていない判定結果の場合にはステップS9の処理に戻り、終了の操作が行われた場合には電源をOFFにして図9の処理を終了する。
このように動作する本実施形態によれば、強調回路55による輪郭強調処理内容と、観察モード(観察モードに対応した狭帯域フィルタ群6による照明光の組み合わせと、広帯域フィルタ群7による照明光の組み合わせ)の情報に応じて、信号レベル可変手段を構成するAGC回路47による前記撮像信号レベルを増幅するゲインの最大値を抑制(制限)することにより、ノイズが目立つことなく、観察し易い画質の画像を生成することができる。
In step S17, the control circuit 32 monitors the observation mode switching operation. If the determination result indicates that the observation mode has been switched, the process returns to step S1. On the other hand, in the case of the determination result that the observation mode switching operation has not been performed, in the next step S18, the control circuit 32 determines whether or not the user has performed an operation to end the endoscopy, and the end of the operation is completed. If the determination result indicates that no operation has been performed, the process returns to step S9. If an end operation has been performed, the power is turned off and the process in FIG. 9 ends.
According to this embodiment which operates in this way, the content of the contour enhancement processing by the enhancement circuit 55, the combination of the observation mode (the illumination light by the narrowband filter group 6 corresponding to the observation mode, and the illumination light by the wideband filter group 7). By suppressing (limiting) the maximum value of the gain for amplifying the imaging signal level by the AGC circuit 47 constituting the signal level variable means according to the information of the combination), the image quality is easy to observe without conspicuous noise. An image can be generated.

特に、照明光量が不足しがちになり易いNBI観察モードにおいて、狭帯域のG照明と、このG照明に対して同じ時間間隔で前後するB2照明とB1照明との組み合わせによる撮像信号から明るさ(輝度)を算出し、算出した明るさに応じてB2とB1の撮像画像を合成する合成比率を設定することができるようにすると共に、術者等のユーザが合成処理部51において合成する合成比率を優先してマニュアル設定することもできるようにしている。
そして、合成処理部51において実際に合成処理に使用される合成比率に応じて、強調回路55における輪郭強調処理する強調レベルLがユーザにより設定された場合においても、ノイズが目立たないようにAGC回路47によるゲインの最大値を抑制し、良好な画質の画像が得られるようにしている。従って、術者は、NBI観察モードにおいても、ノイズが目立たない画像を観察でき、円滑な診断を行い易くなる。
In particular, in the NBI observation mode in which the amount of illumination light tends to be insufficient, the brightness (from the imaging signal by the combination of the narrow-band G illumination and the B2 illumination and the B1 illumination that precede and follow this G illumination at the same time interval ( Brightness) and a composition ratio for composing the captured images of B2 and B1 according to the calculated brightness can be set, and a composition ratio that a user such as an operator composes in the composition processing unit 51 Priority is given to the manual setting.
The AGC circuit prevents the noise from being noticeable even when the emphasis level L for the edge emphasis processing in the emphasis circuit 55 is set by the user in accordance with the synthesis ratio actually used in the synthesis processing in the synthesis processing unit 51. The maximum value of the gain due to 47 is suppressed so that an image with good image quality can be obtained. Therefore, the surgeon can observe an image with no noticeable noise even in the NBI observation mode, and it is easy to perform a smooth diagnosis.

補足説明すると、NBI観察モードに設定した場合には、光源装置3での照明光の光量を最大にしても、WLI観察モードの場合よりも光量が小さく、暗い画像になる。従来例においては、光量の不足分をAGC回路によるゲインを増大によりカバーするため、そのゲインが大きくなり、ゲインの増大に伴ってノイズも増大する。また、輪郭強調を行うと、よりノイズが目立つ画像になり易い。
これに対して、本実施形態においては、NBI観察モードにおいては、Gの撮像画像に対して光量がより不足しがちとなるBの撮像画像としてB1及びB2の2つの撮像画像で取得し、1:acの合成比率で合成する(具体的にはB1+ac・B2で合成する)ことによって、1つの場合よりも明るい撮像画像を得られるようにすると共に、合成比率、強調レベルLに応じて、AGC回路47のゲイン最大値を抑制することによって、ノイズが目立たない画像を得られるようにする。本実施形態においては、図7Aの点線で示すように画像合成した場合の合成割合が大きい場合には、合成割合が小さい場合よりも、ゲイン最大値を抑制することにより、画質の良い画像が得られるようにすることもできる。
Supplementally, when the NBI observation mode is set, even if the light amount of the illumination light from the light source device 3 is maximized, the light amount is smaller than that in the WLI observation mode, resulting in a dark image. In the conventional example, since the insufficient amount of light is covered by increasing the gain by the AGC circuit, the gain increases, and the noise increases as the gain increases. Further, when the edge enhancement is performed, an image with more noticeable noise tends to be obtained.
On the other hand, in the present embodiment, in the NBI observation mode, two captured images B1 and B2 are acquired as B captured images in which the light amount tends to be insufficient with respect to the G captured image. : By synthesizing at a synthesis ratio of ac (specifically, synthesizing with B1 + ac · B2), it is possible to obtain a brighter captured image than one case, and AGC according to the synthesis ratio and the enhancement level L By suppressing the gain maximum value of the circuit 47, an image in which noise is not noticeable can be obtained. In the present embodiment, as shown by the dotted line in FIG. 7A, when the composition ratio is large, an image with good image quality can be obtained by suppressing the maximum gain value compared to when the composition ratio is small. It can also be made.

図10は、第1の実施形態の変形例の撮像システム1Bの全体構成を示す。本変形例の撮像システム1Bは、図1の撮像システム1において、内視鏡2における先端部33内に対物レンズ系34を構成する一つのレンズを可動レンズ34aを、対物レンズ系34の光軸方向に移動する移動部81aを備えたアクチュエータ81を設けた内視鏡2Bと、ビデオプロセッサ4内に、上記アクチュエータ81を電気的に駆動するアクチュエータ駆動回路82を備えたビデオプロセッサ4Bとを有する。
アクチュエータ81における移動部81aに可動レンズ34a(のレンズ枠)が取り付けられている。従って、アクチュエータ81によって移動部81aを移動させると、移動部81aと共に可動レンズ34aも光軸方向に移動し、対物レンズ系34がCCD35の撮像面に被写体像をフォーカス状態で結像するフォーカス距離が変化する。
FIG. 10 shows an overall configuration of an imaging system 1B according to a modification of the first embodiment. The imaging system 1B of the present modification is the same as the imaging system 1 in FIG. 1 except that one lens constituting the objective lens system 34 is arranged in the distal end portion 33 of the endoscope 2 as a movable lens 34a, and the optical axis of the objective lens system 34. An endoscope 2B provided with an actuator 81 having a moving portion 81a that moves in the direction, and a video processor 4B provided with an actuator drive circuit 82 that electrically drives the actuator 81 in the video processor 4 are provided.
A movable lens 34a (lens frame) is attached to a moving portion 81a of the actuator 81. Accordingly, when the moving unit 81a is moved by the actuator 81, the movable lens 34a is also moved in the optical axis direction together with the moving unit 81a, and the focus distance at which the objective lens system 34 forms an object image on the imaging surface of the CCD 35 in a focused state is set. Change.

なお、アクチュエータ81は、例えば特開2001−174714号公報の図3等に開示されているように圧電素子を用いて構成することができる。圧電素子を用いたものに限らず、ソレノイドコイルの内側に、バネと連結された移動可能な磁石を移動部として配置した電磁プランジャー等により構成しても良い。
また、内視鏡2Bにおける例えば操作部12には、対物レンズ系34のフォーカス位置を中遠距離の被写体にフォーカスする第1のフォーカス距離の状態と、近距離の被写体にフォーカスする第2のフォーカス距離の状態とに切り替える指示操作を行う操作スイッチとしてのフォーカス切替スイッチ31bが設けてある。ユーザがフォーカス切替スイッチ31bを操作した際に出力されるフォーカス切替信号は、制御回路32に入力され、制御回路32は、フォーカス切替信号に対応した制御信号をアクチュエータ駆動回路82に出力する。
例えば、図10の実線で示す状態においては、対物レンズ系34は、中遠距離の被写体にフォーカスする第1のフォーカス距離の状態(以下、「NORMAL」のフォーカス状態、又は単にNORMALの状態)である。
The actuator 81 can be configured using a piezoelectric element as disclosed in, for example, FIG. 3 of Japanese Patent Application Laid-Open No. 2001-174714. Not only the thing using a piezoelectric element but you may comprise by the electromagnetic plunger etc. which have arrange | positioned the movable magnet connected with the spring as a moving part inside the solenoid coil.
Further, for example, the operation unit 12 in the endoscope 2B includes a first focus distance state in which the focus position of the objective lens system 34 is focused on a medium-distance object and a second focus distance in which a short-distance object is focused. A focus changeover switch 31b is provided as an operation switch for performing an instruction operation for switching to the above state. A focus switching signal output when the user operates the focus switching switch 31b is input to the control circuit 32, and the control circuit 32 outputs a control signal corresponding to the focus switching signal to the actuator drive circuit 82.
For example, in the state indicated by the solid line in FIG. 10, the objective lens system 34 is in a first focus distance state (hereinafter referred to as “NORMAL” focus state or simply NORMAL state) for focusing on a medium-distance subject. .

NORMALの状態においては、対物レンズ系34の被写界深度は、例えば5〜100mm程度となる。このNORMALの状態において、フォーカス切替信号が出力されると、制御回路32はこの信号に対応した制御信号をアクチュエータ駆動回路82に出力し、アクチュエータ駆動回路82は、可動レンズ34aを点線で示す位置に移動し、対物レンズ系34を第2のフォーカス距離の状態(以下、「NEAR FOCUS」のフォーカス状態、又は単にNEARの状態)に設定する。
NEARの状態においては、対物レンズ系34の被写界深度は、例えば2〜5mm程度となり、被写体に接近した近距離において患部等を詳細に拡大観察することができる状態となる。なお、制御回路32は、フォーカス切替スイッチ31bの操作情報をメモリなどに経時的に記憶して、任意の使用状態において、対物レンズ系34がNEAR或いはNORMALのいずれの状態に設定されているかを把握する。なお、本変形例においては可動レンズ34aを2つの位置に駆動する例で説明するが、3つ以上の複数の位置に選択的に設定できるようにしても良い。
In the NORMAL state, the depth of field of the objective lens system 34 is, for example, about 5 to 100 mm. In this NORMAL state, when a focus switching signal is output, the control circuit 32 outputs a control signal corresponding to this signal to the actuator driving circuit 82, and the actuator driving circuit 82 positions the movable lens 34a at the position indicated by the dotted line. The objective lens system 34 is moved to a second focus distance state (hereinafter referred to as “NEAR FOCUS” focus state or simply NEAR state).
In the NEAR state, the depth of field of the objective lens system 34 is, for example, about 2 to 5 mm, so that the affected part or the like can be magnified and observed in detail at a short distance close to the subject. The control circuit 32 stores the operation information of the focus changeover switch 31b with time in a memory or the like, and grasps whether the objective lens system 34 is set to NEAR or NORMAL in any use state. To do. In this modification, the movable lens 34a is driven to two positions. However, the movable lens 34a may be selectively set to a plurality of three or more positions.

また、本変形例においては、制御回路32のゲイン制御部32aは、さらにNEAR及びNORMALの状態に応じて、AGC回路47のゲイン最大値を制限する。
図11は、本変形例におけるNBI観察モード時でのゲイン最大値を制限する内容を示す。図11に示す制御情報は、第1の実施形態と同様に、フラッシュメモリ60に格納されている。
図11の制御情報は、図7Aに示した場合のゲイン最大値を規制する項目として、フォーカス距離(フォーカス状態)の項目が追加されている。
そして、強調レベルLと、合成比率が同じ条件の場合においては、NEARの場合の方がNORMALの場合よりも、ゲイン最大値が大きくなるように(ゲイン最大値を)設定している。その場合の理由は以下のようになる。
In this modification, the gain control unit 32a of the control circuit 32 further limits the maximum gain value of the AGC circuit 47 according to the state of NEAR and NORMAL.
FIG. 11 shows the contents for limiting the maximum gain value in the NBI observation mode in this modification. The control information shown in FIG. 11 is stored in the flash memory 60 as in the first embodiment.
In the control information of FIG. 11, an item of focus distance (focus state) is added as an item for regulating the maximum gain value in the case shown in FIG. 7A.
When the enhancement level L and the synthesis ratio are the same, the maximum gain value is set (the maximum gain value) in the case of NEAR is larger than that in the case of NORMAL. The reason for this is as follows.

NEARのフォーカス距離の状態の場合においては、近距離を照明及び観察する状態であるので、ノイズ゛が目立たない(暗い部分が少なく、暗い部分があったとしても注目していない)。このため、NEARの場合の方がNORMALの場合よりも、ゲイン最大値を大きくできる設定としている。
また、観点を変えて述べると、NEARのフォーカス距離の状態の場合においては、NORMALの場合よりも、(例えば合成比率が同じ値の条件等で比較した場合)強調レベルLをより大きくし易い設定にしている。
NBI観察モードに設定された場合には、毛細血管等を良好に観察したい状態であるので、強調レベルLを上げて、最適な観察を実現し易くする。
これに対して、NORMALのフォーカス状態の場合においては、NEARのフォーカス状態の場合に比較すると、暗部が発生し易く、またノイズが目立ち易い状態となるため、強調レベルLをより下げた値となるように設定している。その他の構成は、図1等で示した構成と同様である。
In the case of the NEAR focus distance state, since the short distance is illuminated and observed, the noise is not noticeable (there are few dark parts and no attention even if there are dark parts). For this reason, the maximum gain value is set to be larger in the case of NEAR than in the case of NORMAL.
In other words, in the case of the NEAR focus distance state, it is easier to increase the enhancement level L than when NORMAL (for example, when the composition ratio is the same value). I have to.
When the NBI observation mode is set, it is a state in which capillary blood vessels and the like are desired to be observed favorably, so that the enhancement level L is increased to make it easy to realize optimal observation.
On the other hand, in the case of the NORMAL focus state, compared to the case of the NEAR focus state, dark portions are more likely to occur and noise is more conspicuous, so the enhancement level L is a lower value. It is set as follows. Other configurations are the same as those shown in FIG.

本変形例によれば、第1の実施形態の効果の他に、フォーカス距離を変更した状態においても、変更されたフォーカス距離においてノイズが目立たないで、生体粘膜の表層付近の毛細血管等をより詳細に観察し易い状態にできる。従って、術者のフォーカス距離の変更に伴って観察し易くするための操作を行うことを不要にでき、操作性を向上することができる。
また、本変形例において以下に説明するように、カラーモニタ5に表示される画像を複数の領域に分け、NORMALのフォーカス距離の状態の場合において明るさ算出部45が、各領域での明るさ(平均輝度)を算出し、明るさが低い(小さい)暗領域での強調レベルLを下げることにより、ノイズが目立たないようにしても良い。
According to this modification, in addition to the effects of the first embodiment, even when the focus distance is changed, noise is not noticeable at the changed focus distance, and the capillaries and the like near the surface layer of the biological mucous membrane are more The state can be easily observed in detail. Therefore, it is not necessary to perform an operation for facilitating observation along with the change of the operator's focus distance, and the operability can be improved.
Further, as described below in this modification, the image displayed on the color monitor 5 is divided into a plurality of regions, and the brightness calculation unit 45 in the case of the NORMAL focus distance state, the brightness in each region. By calculating (average luminance) and lowering the enhancement level L in a dark area where the brightness is low (small), noise may be made inconspicuous.

図12はNORMALのフォーカス距離の状態の場合においてCCD35により撮像した撮像画像(又はカラーモニタ5に表示される画像)を複数の領域Ai(i=1,2,…,16)に区分けした様子を示す。図12においては12個の領域に区分けしているが、この数に限定されるものでない。また、複数の領域Aiの数、領域Aiのサイズを選択的に設定することができる領域設定手段を設け、ユーザが、複数の領域Aiの数、領域Aiのサイズを設定できるようにしても良い。
以下、複数の広帯域の照明光としてのRw,Gw,Bw照明光のもとで撮像した場合について説明するが、狭帯域の照明光のもとで撮像した場合にも同様に適用できる。
図4に示した明るさ算出部45において、加算器63a,63b,63cが撮像信号Rw−1とRw−2、Gw−1とGw−2、Bw−1とBw−2をそれぞれ加算して平均の明るさ(平均輝度)を算出する場合、加算器63a,63b,63cは、図12に示した各領域Aiにおける平均の明るさを算出する領域明るさ算出手段としての領域明るさ算出回路を形成する。そして、算出した各領域Aiにおける平均の明るさを点線で示すように制御回路32に出力すると共に、R画像、G画像、B画像明るさ算出回路64a,64b,64cにも出力する。
FIG. 12 shows a state in which an image captured by the CCD 35 (or an image displayed on the color monitor 5) is divided into a plurality of areas Ai (i = 1, 2,..., 16) in the case of a NORMAL focus distance state. Show. In FIG. 12, although divided into 12 areas, it is not limited to this number. In addition, an area setting unit that can selectively set the number of the plurality of areas Ai and the size of the area Ai may be provided so that the user can set the number of the plurality of areas Ai and the size of the area Ai. .
Hereinafter, although the case where it imaged under the Rw, Gw, and Bw illumination light as a some broadband illumination light is demonstrated, it is applicable similarly when imaged under a narrowband illumination light.
In the brightness calculation unit 45 shown in FIG. 4, the adders 63a, 63b, and 63c add the imaging signals Rw-1 and Rw-2, Gw-1 and Gw-2, and Bw-1 and Bw-2, respectively. When calculating the average brightness (average brightness), the adders 63a, 63b, 63c are area brightness calculation circuits as area brightness calculation means for calculating the average brightness in each area Ai shown in FIG. Form. Then, the calculated average brightness in each area Ai is output to the control circuit 32 as indicated by a dotted line, and is also output to the R image, G image, and B image brightness calculation circuits 64a, 64b, and 64c.

制御回路32における点線で示す領域明るさ判定部32bは、各領域Aiにおける平均の明るさを閾値Vtと比較して、閾値Vt以上の明るい領域(明部又は明領域と記す)か、閾値Vt未満の暗い領域(暗部又は暗領域と記す)であるかを比較回路等により判定する。閾値Vt未満の暗領域と判定された領域に対して、制御回路32の領域明るさ判定部32bはその暗領域での輪郭強調や構造強調する場合の強調レベルLを、明領域の強調レベルLよりも下げるように制御する強調レベル低減制御信号Sout(点線で示す)を強調回路55に出力する。換言すると、制御回路32の領域明るさ判定部32bは、明領域の画像部分に対しては、暗領域の画像部分よりも強調レベルLを大きくするように制御する。
このように制御することにより、暗領域においては、強調レベルLを低減するため、強調レベルLを低減しない場合の画像におけるノイズが目立つようになることを防止でき、また明るい明領域においては輪郭等がより鮮明となる診断し易い画像を生成できる。また、明領域、暗領域に応じて強調レベルLを制御する場合、ユーザにより設定された強調レベルLに対して行うようにしても良いし、予め指定された強調レベルL(例えば、閾値となる強調レベルVL以上となる強調レベルL)に対して行うようにしても良い。
なお、WLI観察モードの場合とNBI観察モードの場合とに応じて、上記閾値Vtの値をそれぞれ設定し、観察モードに応じてそれぞれノイズが目立たないようにしても良い。
The area brightness determination unit 32b indicated by the dotted line in the control circuit 32 compares the average brightness in each area Ai with the threshold value Vt, and determines whether the area is brighter than the threshold value Vt (denoted as a bright part or bright area) or the threshold value Vt. It is determined by a comparison circuit or the like whether the area is less than a dark area (denoted as dark area or dark area). For an area determined to be a dark area less than the threshold value Vt, the area brightness determination unit 32b of the control circuit 32 sets the enhancement level L when performing edge enhancement or structure enhancement in the dark area to the enhancement level L of the bright area. The emphasis level reduction control signal Sout (indicated by a dotted line) that is controlled to be lowered is output to the emphasis circuit 55. In other words, the area brightness determination unit 32b of the control circuit 32 performs control so that the enhancement level L is higher for the image area in the bright area than in the image area in the dark area.
By controlling in this way, the enhancement level L is reduced in the dark region, so that noise in the image when the enhancement level L is not reduced can be prevented from being noticeable. It is possible to generate an image that is clearer and easier to diagnose. Further, when the enhancement level L is controlled according to the bright region and the dark region, the enhancement level L set by the user may be performed, or the enhancement level L specified in advance (for example, a threshold value). You may make it perform with respect to the emphasis level L) used as the emphasis level VL or more.
Note that the threshold value Vt may be set according to the case of the WLI observation mode and the case of the NBI observation mode, respectively, so that noise is not noticeable according to the observation mode.

また、本変形例において、WLI観察モードの場合又はNBI観察モードの場合に対して、さらに領域における明領域或いは暗領域に応じて、各領域における構造部分に対して強調を行う場合の空間周波数特性を変更するようにしても良い。
図13Aは、この場合の内容を示している。明領域に対しては、構造強調を行う場合、高周波側では構造強調を行う強度を大きく(強調レベルLを大きく)し、かつ低周波側では構造強調を行う強度を小さく(強調レベルLを小さく)する。
これに対して、暗領域に対しては、構造強調を行う場合、高周波側及び低周波側とも構造強調を行う強度を小さく(弱く)する。
このようにユーザが見たい部分(画像領域)となる明領域に対しては、高周波側での構造強調の強調レベルLを大きくすることにより、明るい明領域の構造を詳細に観察することができ、かつ暗い暗領域におけるノイズを目立たないように低減できる。
In addition, in this modification, spatial frequency characteristics in the case where enhancement is performed on the structure portion in each region according to the bright region or the dark region in the region in the case of the WLI observation mode or the NBI observation mode. May be changed.
FIG. 13A shows the contents in this case. For the bright region, when structure enhancement is performed, the strength of structure enhancement is increased on the high frequency side (enhancement level L is increased), and the strength of structure enhancement is decreased on the low frequency side (reduction level L is decreased). )
On the other hand, in the dark region, when structure enhancement is performed, the intensity of structure enhancement on both the high-frequency side and the low-frequency side is reduced (weak).
In this way, for a bright region that is a portion (image region) that the user wants to see, by increasing the enhancement level L of the structure enhancement on the high frequency side, the structure of the bright bright region can be observed in detail. In addition, noise in a dark dark region can be reduced so as not to be noticeable.

また、WLI観察モードの場合又はNBI観察モードの場合に対して、構造強調を行う場合の空間周波数特性を変更する代わりに拡大/縮小回路54による電子ズーム(電子拡大)に応じて、構造強調の強調レベルLを変更するようにしても良い。
図13Bは、この場合の内容を示している。電子ズーム無しの場合には、明領域に対しては、構造強調を行う強度を大きく(強調レベルLを大きく)し、かつ暗領域に対しては構造強調を行う強度を小さく(強調レベルLを小さく)する。換言すると、明領域に対しては、暗領域の場合よりも構造強調を行う強度を大きくする。
これに対して、電子ズーム有りの場合には、明領域及び暗領域に対して、構造強調を行う強度を小さく(強調レベルLを小さく)する。
電子ズーム(電子拡大)を行うと、ノイズの粒又は塊が大きくなるため、構造強調を行う強度を小さくし、ノイズが目立たないようにする。なお、電子ズームの倍率に応じて、構造強調する場合の周波数特性を調整するようにしても良い。例えば、電子ズームの倍率を大きくするに従って、構造強調する周波数帯における最大周波数を下げるようにしても良い。
なお、上述した変形例を含む実施形態において、部分的に異なる構成を組み合わせた実施形態又は変形例も本発明に属する。
In addition, in the case of the WLI observation mode or the NBI observation mode, the structure enhancement is performed according to the electronic zoom (electronic enlargement) by the enlargement / reduction circuit 54 instead of changing the spatial frequency characteristics when the structure enhancement is performed. The emphasis level L may be changed.
FIG. 13B shows the contents in this case. In the case of no electronic zoom, the strength for structure enhancement is increased for the bright region (enhancement level L is increased), and the strength for structure enhancement is decreased for the dark region (the enhancement level L is decreased). Small). In other words, for the bright region, the strength for performing structure enhancement is set larger than that in the dark region.
On the other hand, in the case of the electronic zoom, the strength for performing structure enhancement is reduced (the enhancement level L is reduced) in the bright region and the dark region.
When electronic zoom (electronic enlargement) is performed, noise particles or lumps increase, so that the strength of structure enhancement is reduced so that the noise is not noticeable. Note that the frequency characteristics when the structure is emphasized may be adjusted according to the magnification of the electronic zoom. For example, as the magnification of the electronic zoom is increased, the maximum frequency in the frequency band for structure enhancement may be lowered.
In addition, in embodiment containing the modification mentioned above, embodiment or modification which combined a partially different structure also belongs to this invention.

近年、プロセッサに組み合わさる機器は多様化している。記録は大きく、動画記録と静止画記録の2つが有り、静止画記録ではプリンタや写真、電子ファイルなど様々である。一方プロセッサのコネクタも数に限りがあり、どの装置にも通用するシンプルなコネクタが必要とされる。そこで、ステレオピンジャックのように、接点が2,3個のもので、レリーズ制御を伝えることが望ましい。レリーズ制御は一例なので、設定で任意に選べ、録画制御にしたり、キャプチャ制御にしたりできるとよい。また、機器によっては、信号がHであったりLであったりする為、その極性をH又はLと選べると良い。ステレオピンジャックに限らず、15ピン程度の接点を有するものでも、設定で任意に割り当てられると良いし、機器によっては電源とGND(グラウンド)をつないでいるので、それらも選べると良い。   In recent years, devices combined with processors have been diversified. There are two types of recording, moving image recording and still image recording. There are various types of still image recording, such as printers, photographs, and electronic files. On the other hand, the number of connectors of the processor is limited, and a simple connector that can be used in any device is required. Therefore, it is desirable to transmit release control with a few contacts such as a stereo pin jack. Since the release control is an example, it is preferable that the control can be arbitrarily selected in the setting to perform the recording control or the capture control. Depending on the device, the signal may be H or L, so the polarity may be selected as H or L. Not only the stereo pin jack but also those having contacts of about 15 pins may be arbitrarily assigned by setting, and depending on the device, the power source and GND (ground) are connected, so it is also possible to select them.

近年、プロセッサに外付けメモリを接続して画像を記録することがある。外付けメモリにはパスワード保護されているものもある。そこで、画像記録の際には、パスワード保護を無視して記録し、画像を読み出す際にはパスワードによって保護をすると良い。また、近年において、CCDの小型化が進んでいる。それに伴い、画素欠陥の課題があった。画素欠陥には、画素のアドレスを事前に保持しておき、画素欠陥の周辺の画素から補間をする方法が考案されていた。
しかし、画素欠陥は、製造時のみではなく、長期間使用する中で生じることもあった。その為、画素欠陥を検出する方法が課題であった。対象画素と周辺画素の信号レベルを比較することで、対象画素が非常に明るければ、白い傷、非常に暗ければ、黒い傷と考えられた。そのような判定基準で対象画素が欠陥画素であるかを判定すると良い。
In recent years, an image may be recorded by connecting an external memory to a processor. Some external memories are password protected. Therefore, it is better to ignore the password protection when recording an image and to protect it with a password when reading the image. In recent years, the miniaturization of CCDs has progressed. Accordingly, there has been a problem of pixel defects. For pixel defects, a method has been devised in which an address of a pixel is held in advance and interpolation is performed from pixels around the pixel defect.
However, pixel defects may occur not only during manufacturing but also during long-term use. Therefore, a method for detecting pixel defects has been a problem. By comparing the signal levels of the target pixel and the surrounding pixels, it was considered that if the target pixel was very bright, it was a white scratch, and if it was very dark, it was a black scratch. It is preferable to determine whether the target pixel is a defective pixel based on such a determination criterion.

その際、対象画素のアドレスを内部メモリに保持すればよいが、内部メモリは有限の為、観察画面の中央エリアに限定し、そういった判定を施せばよい。
また、撮像素子が高画素化、微細化された際に、撮像素子に欠陥を持つ画素或いはノイズを発生する画素を皆無に製造することは不可能に近い。
このため、画像処理によって、撮像素子の通常画素とは異なるが画素信号を発生する欠陥画素や固定パターンのノイズを補正する技術が多数提案されている。
欠陥画素としては、光電変換された後の信号の電位が所望とならず、あるオフセットの電位を含めた信号となることが知られている。オフセットの電位が正の値であれば、白傷と呼ばれる白いドットとして観察画面に現れ、オフセットの電位が負の値であれば、黒傷と呼ばれる黒いドットとして観察画面に現れる。この欠陥画素を補正する画像処理は、オフセットの電位を推定して除去することができる。また、欠陥画素の位置情報を内視鏡に記憶し、その位置情報に関して、オフセットの電位を推定するように動作させる。
At that time, the address of the target pixel may be held in the internal memory. However, since the internal memory is limited, the determination may be made only in the central area of the observation screen.
In addition, when the image sensor is increased in size and miniaturized, it is almost impossible to manufacture pixels that have defects in the image sensor or pixels that generate noise.
For this reason, many techniques for correcting noise of defective pixels and fixed patterns that generate pixel signals, which are different from normal pixels of the image sensor, have been proposed by image processing.
As a defective pixel, it is known that the potential of a signal after photoelectric conversion is not desired, and becomes a signal including a potential of a certain offset. If the offset potential is a positive value, it appears on the observation screen as white dots called white scratches, and if the offset potential is a negative value, it appears on the observation screen as black dots called black scratches. The image processing for correcting the defective pixel can estimate and remove the offset potential. Further, the position information of the defective pixel is stored in the endoscope, and the operation is performed so as to estimate the offset potential with respect to the position information.

オフセットの電位を推定するには、欠陥画素の周辺8画素からなるべく多くの画素信号を用いて平均値を出してから、欠陥画素がどの程度、この平均値と乖離しているかを元に、推定が可能と考える。しかしながら、撮像素子によっては多線式のものがあり、周辺8画素として、配慮が必要である。例えば、2線式であれば、欠陥画素を含む1線と、その上下の線は異なるチャンネルとなる。前者をAチャンネル、後者をBチャンネルと呼ぶならば、補正とは別の画像処理によって、AチャンネルとBチャンネルが上下に順番に並ぶようにして、画像を構成させることが一般的である。
そして、AチャンネルとBチャンネルは撮像素子から信号を伝送するチャンネルが別々であることを示しており、そのような場合に、チャンネル毎のバラツキによって、感度が変ってくることがある。つまり、同じ量の光がAチャンネルとBチャンネルに入射したとしても、得られる信号が異なってしまう。先に述べた画像処理では、チャンネル毎のバラツキをキャンセルできるように、必要な係数を求めて乗算する方法がある。具体的にはホワイトバランスを取得することで実現する。もしくは、内視鏡に設けられたメモリ(スコープID)に、あらかじめ必要な係数を記憶しておいてもよい。
従って、補正する画像処理は、チャンネル毎のバラツキをキャンセルした後で実施するのが望ましい。もし、チャンネル毎のバラツキをキャンセルするよりも前に、補正する画像処理を適用する場合、次のようなことが望ましい。
In order to estimate the potential of the offset, an average value is calculated using as many pixel signals as possible from the 8 pixels around the defective pixel, and then the degree of deviation of the defective pixel from the average value is estimated. I think it is possible. However, some image sensors have a multi-line type and need to be considered as the surrounding 8 pixels. For example, in the case of a two-wire system, one line including a defective pixel and the upper and lower lines are different channels. If the former is called the A channel and the latter is called the B channel, it is common to form an image by arranging the A channel and the B channel in order up and down by image processing different from correction.
The A channel and the B channel indicate that the channels for transmitting signals from the image sensor are separate. In such a case, the sensitivity may change due to variations in each channel. That is, even if the same amount of light is incident on the A channel and the B channel, the signals obtained are different. In the image processing described above, there is a method of obtaining and multiplying necessary coefficients so that the variation for each channel can be canceled. Specifically, this is achieved by acquiring white balance. Alternatively, necessary coefficients may be stored in advance in a memory (scope ID) provided in the endoscope.
Therefore, it is desirable to perform the image processing to be corrected after canceling the variation for each channel. If image processing to be corrected is applied before canceling the variation for each channel, the following is desirable.

1つの欠陥画素とその周辺8画素に着目した場合、図14のように3ライン分となるので、例えばAチャンネルが一番上、次にBチャンネル、一番下にAチャンネルが位置することになる。欠陥画素はBチャンネルにある。AチャンネルがBチャンネルに比べて感度が小さい場合、具体的にはBチャンネルの感度が1.0、Aチャンネルの感度が0.9であった場合について説明する。
この欠陥画素が白いドットである場合、正の値であるオフセットの電位を算出し、減算することで、欠陥画素が白いドットにならず、適正なものと改善できる。しかし、チャンネル毎に感度の差があるため、オフセットの電位が大きめに見積もられ、欠陥画素は適正に補正されないで、黒いドットになってしまう。なぜなら、Aチャンネルの感度がBチャンネルの感度よりも小さく、欠陥画素の周辺8画素の平均値が小さくなってしまうからである。同様に欠陥画素が黒いドットである場合、負の値であるオフセットの電位を算出し、減算することで、欠陥画素が黒いドットにならないよう補正したいのだが、チャンネル毎の感度の差によって、欠陥画素は黒いドットとなる。
欠陥画素が白いドット、黒いドットのいづれの場合でも、Aチャンネルの感度がBチャンネルの感度よりも大きいとき、補正が適正にならず、白いドットとなる。
If attention is paid to one defective pixel and its surrounding eight pixels, it becomes three lines as shown in FIG. 14. For example, the A channel is located at the top, the B channel, and the A channel at the bottom. Become. The defective pixel is in the B channel. A case where the sensitivity of the A channel is smaller than that of the B channel, specifically, a case where the sensitivity of the B channel is 1.0 and the sensitivity of the A channel is 0.9 will be described.
When the defective pixel is a white dot, the potential of the offset which is a positive value is calculated and subtracted, so that the defective pixel does not become a white dot and can be improved to an appropriate one. However, since there is a difference in sensitivity for each channel, the offset potential is estimated to be large, and the defective pixel is not corrected properly, resulting in a black dot. This is because the sensitivity of the A channel is smaller than the sensitivity of the B channel, and the average value of the 8 pixels around the defective pixel becomes small. Similarly, if the defective pixel is a black dot, I would like to correct the offset potential, which is a negative value, and subtract it to correct the defective pixel so that it does not become a black dot. Pixels are black dots.
Even when the defective pixel is a white dot or a black dot, if the sensitivity of the A channel is larger than the sensitivity of the B channel, the correction is not appropriate, and a white dot is obtained.

この現象を改善するために、欠陥画素の補正後に、白いドットまたは黒いドットになっているかを検出する必要がある。検出法は、欠陥画素の左右の2つの画素の平均値に対し、補正後の欠陥画素が閾値以上の差を持っていれば、検出されたとする。白いドットなら、閾値分だけ減算し、黒いドットなら閾値分だけ加算することで、もはや、白や黒のドットとして視認されないように補正できる。
欠陥画素の位置情報が内視鏡にあらかじめ記憶していない場合や、あらかじめ記憶していても、新たな欠陥画素が生じた際に、その位置情報については記憶されていない場合についての対処法は、次の通りである。
1つの案として、内視鏡から得られる画像信号から欠陥画素を検出することが挙げられる。具体的な方法については、これまでに提案されている。このように、欠陥画素を検出できれば、位置情報が得られ、上記と同様に、白や黒のドットとして視認されないように処理すればよいこととなる。また、上記では、閾値分だけ加算、減算するとしたが、左右の2つの画素の平均値に置き換えてもよい。例えば、内視鏡に記憶された位置情報から処理する場合には、閾値を加算、減算し、検出した位置情報から処理する場合には、左右の2つの画素の平均値に置き換えることが挙げられる。
In order to improve this phenomenon, it is necessary to detect whether the pixel is a white dot or a black dot after correcting the defective pixel. The detection method is assumed to be detected if the corrected defective pixel has a difference equal to or greater than a threshold with respect to the average value of the two pixels on the left and right of the defective pixel. For white dots, the threshold value is subtracted, and for black dots, the threshold value is added, so that it can be corrected so that it is no longer visible as a white or black dot.
What to do when the position information of the defective pixel is not stored in the endoscope in advance, or when the position information is not stored when a new defective pixel occurs even if it is stored in advance It is as follows.
One proposal is to detect defective pixels from an image signal obtained from an endoscope. Specific methods have been proposed so far. In this way, if a defective pixel can be detected, position information can be obtained, and processing may be performed so that it is not visually recognized as white or black dots, as described above. In the above description, the threshold value is added and subtracted. However, it may be replaced with the average value of the two left and right pixels. For example, in the case of processing from position information stored in an endoscope, a threshold value is added or subtracted, and in the case of processing from detected position information, the average value of two left and right pixels may be replaced. .

別の案として、内視鏡から得られる画像信号から欠陥画素を検出させてから、位置情報を得て、内視鏡に記憶させる方法がある。特徴としては、所定の被写体を用い、欠陥画素を検出しやすい条件を整えてから、実施することが望ましい。白のドットを検出するには、照明光を消して内視鏡先端部を暗幕で覆ったあと、10分程度動作させることで安定して白のドットが現れるので、周辺8画素の平均値と比較し、閾値以上の差があれば検出できたとすればよい。
検出した際には、画素の位置情報を内視鏡に記憶することで、この内視鏡を使用するときには白のドットが改善されることとなる。しかし、意図しない条件に配慮しなければならない。例えば、暗幕で覆うことができていない場合、正しい動作ではなくなる。そのため、エラー判定が重要となる。エラー判定の例であるが、位置情報が所定数を超えるような場合、エラーとして報知しつつ、確認してほしい条件を報知してもよい。なぜなら、本法で検出させたい白のドットは多くても20個程度と想定できるのは、CCDに欠陥画素が起こる理由について、多数の文献に掲載があるからである。本法については、白黒のCCDを用いる面順次式でもカラーチップのCCDを用いる同時式にも適用できる。ここで記載の方法は、面順次式によるものなので、同時式に適用するには、白のドットを青等のドットとする様に、カラーチップと画素の関係に配慮すればよい。
As another proposal, there is a method in which a defective pixel is detected from an image signal obtained from an endoscope, and then position information is obtained and stored in the endoscope. As a feature, it is desirable to carry out after using a predetermined subject and preparing conditions for easily detecting defective pixels. To detect white dots, the illumination light is extinguished and the tip of the endoscope is covered with a dark screen, and then the white dots appear stably by operating for about 10 minutes. It is only necessary to compare and detect if there is a difference greater than or equal to the threshold.
When detected, the position information of the pixels is stored in the endoscope, so that white dots are improved when the endoscope is used. However, unintended conditions must be taken into account. For example, if it cannot be covered with a black curtain, the operation is not correct. Therefore, error determination is important. Although it is an example of error determination, when the position information exceeds a predetermined number, a condition to be confirmed may be notified while notifying as an error. This is because it can be assumed that there are at most about 20 white dots to be detected by this method because there are many publications on the reason why defective pixels occur in the CCD. This method can be applied to a frame sequential type using a monochrome CCD or a simultaneous type using a color chip CCD. Since the method described here is based on the frame sequential method, in order to apply it simultaneously, it is necessary to consider the relationship between the color chip and the pixel so that the white dot is a dot such as blue.

また、面順次式を例にしたとき、映像方式とCCDの信号処理に配慮することが必要になる場合がある。映像方式として、NTSCやPALが挙げられる。前者は1秒間に60コマ(60Field)の画像を表示して動画を再現し、後者は50コマの画像を表示して動画を再現する。一方で、CCDの信号処理はNTSCのように、1秒間に60コマとする場合がある。PALに適用する為には、60コマの画像を50コマにレート変換する必要がある。この処理を65変換と呼ぶ。65変換には画像メモリを用い、また、面順次式の場合には同時化されたカラー画像を得るために、同時化メモリを用いる。
同時化メモリは静止画像を得る為のプリフリーズ機能を有することもある。図15に示したように、65変換を行うために画像メモリを用いて、画像メモリに入力される60コマの画像を50コマにレート変換して出力している。例えば画像メモリには図15の上段側に示すように60コマ/秒(60Field/sec)でRO,GO,BO,R1,G1,B1,…の面順次のRGB信号が入力信号としてC65I_R_VALA,C65I_G_VALA,C65I_B_VALA で示すタイミングで順次入力され、書き込まる(以下にも記載のように一部は書き込みが不必要)。一方、画像メモリに書き込みがされたRO,GO,BO,R1,G1,B1,…の面順次のRGB画像は、図15の下段側に示すように50コマ/秒(50Field/sec)で読み出され(但し、RO,R2等の画像は60コマ/秒と50コマ/秒とが同期したタイミングでのスルー出力)、65変換される。
また、図16に示す同時化メモリは例えばRGB用に3つ分のメモリ構成になっており、先のレート変換後のG0画像をG用の同時化メモリに書き込み、60コマ/秒のR0画像をR用の同時化メモリに書き込むように制御する。このとき、R0画像はG0画像と水平・垂直方向の周波数として、画像フォーマットが異なる為、ラインメモリやFPGAの内部メモリを用い、安価に対応することが望ましい。このような方法で、65変換と同時化を安価に実現できる。同時化メモリはプリフリーズ機能を有するので、色ずれの少ない静止画像を提供できる。
In the case of the frame sequential type as an example, it may be necessary to consider the video system and the signal processing of the CCD. Examples of the video system include NTSC and PAL. The former displays 60 frames (60 Field) images per second to reproduce a moving image, and the latter displays 50 frames of images to reproduce a moving image. On the other hand, the signal processing of the CCD may be 60 frames per second like NTSC. In order to apply to PAL, it is necessary to rate convert 60 frames of images to 50 frames. This process is called 65 conversion. An image memory is used for the 65 conversion, and in the case of the frame sequential type, a synchronization memory is used to obtain a synchronized color image.
The synchronized memory may have a pre-freeze function for obtaining a still image. As shown in FIG. 15, an image memory is used to perform 65 conversion, and 60 frames of images input to the image memory are rate converted to 50 frames and output. For example, in the image memory, as shown in the upper part of FIG. 15, the frame sequential RGB signals of RO, GO, BO, R1, G1, B1,... , C65I_B_VALA is sequentially input and written (some need not be written as described below). On the other hand, the frame sequential RGB images of RO, GO, BO, R1, G1, B1,... Written in the image memory are read at 50 frames / sec (50 Field / sec) as shown in the lower part of FIG. (However, images of RO, R2, etc. are through output at the timing at which 60 frames / second and 50 frames / second are synchronized) and are converted into 65.
Also, the synchronization memory shown in FIG. 16 has a memory configuration for three for RGB, for example, and writes the G0 image after the rate conversion to the G synchronization memory to obtain an R0 image of 60 frames / second. Is written to the R synchronous memory. At this time, since the image format of the R0 image is different from that of the G0 image in terms of horizontal and vertical frequencies, it is desirable to use a line memory or an internal memory of the FPGA and to deal with it at low cost. In this way, 65 conversion and synchronization can be realized at low cost. Since the synchronization memory has a pre-freeze function, a still image with little color misregistration can be provided.

また、本発明は、請求項とは若干異なる以下の付記の内容を含む。
付記1.
2つの観察モードにおける切替を行う観察モード切替手段と、
前記観察モード切替手段の切替に応じて、各フレーム期間において、第1の狭帯域及び第2の狭帯域を備えた第1の照明帯域の照明光又は、複数の広帯域を備えた第2の照明帯域の照明光で照明を行う照明手段と、
前記照明手段により照明された被写体を撮像する撮像手段と、
前記撮像手段により出力される撮像信号の撮像信号レベルを変更する信号レベル可変手段と、
前記信号レベル可変手段から出力される信号から画像信号を生成し、生成した画像信号に対して輪郭強調処理を行う画像処理手段と、
前記第1の照明帯域の照明光で照明を行う場合において、前記第1の狭帯域の照明光に前後するタイミングで前記第2の狭帯域の照明光のもとで撮像した2つの撮像画像を合成する処理を行う合成処理手段と、
前記画像処理手段が行う輪郭強調処理内容と、前記照明手段における前記第1の照明帯域を形成する前記第1の狭帯域及び前記第2の狭帯域におけるの組み合わせと、前記第2の照明帯域を形成する前記複数の広帯域の組み合わせの情報と、前記合成処理手段による2つの撮像画像を合成する際の合成係数(合成比率)に応じて、前記信号レベル可変手段による前記撮像信号レベルを制御する信号レベル可変制御手段と、
を備えることを特徴とする撮像システム。
Further, the present invention includes the contents of the following supplementary notes that are slightly different from the claims.
Appendix 1.
An observation mode switching means for switching between the two observation modes;
Depending on the switching of the observation mode switching means, the illumination light of the first illumination band having the first narrow band and the second narrow band or the second illumination having a plurality of wide bands in each frame period Illumination means for illuminating with a band of illumination light;
Imaging means for imaging a subject illuminated by the illumination means;
Signal level variable means for changing the imaging signal level of the imaging signal output by the imaging means;
Image processing means for generating an image signal from the signal output from the signal level varying means, and performing contour enhancement processing on the generated image signal;
When illuminating with illumination light in the first illumination band, two captured images captured under the second narrow-band illumination light at a timing before and after the first narrow-band illumination light. A synthesis processing means for performing a process of combining;
The outline emphasis processing content performed by the image processing means, the combination of the first narrow band and the second narrow band forming the first illumination band in the illumination means, and the second illumination band A signal for controlling the imaging signal level by the signal level varying means according to information on the combination of the plurality of widebands to be formed and a synthesis coefficient (synthesis ratio) when the two captured images are synthesized by the synthesis processing means. Level variable control means;
An imaging system comprising:

付記2.付記1において、前記第1の照明帯域の照明は、1フレーム期間の整数倍となる所定の時間内に、前記第1の狭帯域の照明光による第1回の照明と、前記第2の狭帯域を有する照明光による前記第1回の2倍となる第2回の照明との組み合わせからなり、
更に、前記第1の回数のうちの第1の所定回の照明に基づく前記撮像手段による第1の撮像信号と、前記第2の回数のうちの前記第1の所定回と同じ第2の所定回の照明に基づく前記撮像手段による第2の撮像信号とを用いた色変換マトリクス処理によって第1の明るさを算出し、
前記第1の回数のうちの前記第1の所定回と同じ第3の所定回の照明に基づく第3の撮像信号と、前記第2の回数のうちの前記第2の所定回と同じ第4の所定回の照明に基づく第4の撮像信号とを用いた色変換マトリクス処理によって第2の明るさを算出する明るさ算出手段と、
前記第1の明るさと所定の目標明るさとの差分と、前記第2の明るさとの比に基づいて、各1フレーム期間において前記第1及び第2の撮像信号に対して前記第3及び第4の撮像信号を合成する場合の合成係数を算出する演算手段と、
を備え、
前記画像処理手段は、前記演算手段による合成係数、又は合成係数設定手段により設定される合成係数に基づき、各1フレーム期間内における前記第1及び第2の撮像信号に対して前記第3及び第4の撮像信号を合成し、生成した画像信号に対して輪郭強調処理を行い、
前記信号レベル可変手段は、前記照明手段が前記第1の狭帯域及び第2の狭帯域の組み合わせからなる前記第1の照明帯域の照明光のもとで撮像された撮像信号である場合、前記画像処理手段が行う前記輪郭強調処理内容と前記合成係数とに基づき、前記第1、ないし第4の撮像信号を処理する前記信号レベル可変手段を制御する。
Appendix 2. In Supplementary Note 1, the illumination in the first illumination band includes the first illumination by the illumination light in the first narrow band and the second narrow band within a predetermined time that is an integral multiple of one frame period. It consists of a combination with the second illumination which is twice the first illumination with illumination light having a band,
Further, a first imaging signal by the imaging means based on the first predetermined number of times of the first number of times and a second predetermined number that is the same as the first predetermined number of times of the second number of times. Calculating the first brightness by color conversion matrix processing using the second imaging signal by the imaging means based on the illumination of the times,
A third imaging signal based on the third predetermined number of illuminations that is the same as the first predetermined number of times in the first number of times, and a fourth same as the second predetermined number of times in the second number of times. Brightness calculation means for calculating the second brightness by color conversion matrix processing using a fourth imaging signal based on a predetermined number of illuminations;
Based on the difference between the first brightness and a predetermined target brightness, and the ratio between the second brightness and the third and fourth image signals for the first and second imaging signals in each frame period. Computing means for calculating a synthesis coefficient when synthesizing the imaging signals of
With
The image processing means is configured to output the third and third image signals for the first and second imaging signals in each one frame period based on a synthesis coefficient by the computing means or a synthesis coefficient set by a synthesis coefficient setting means. 4 image pickup signals are combined, and the generated image signal is subjected to edge enhancement processing,
In the case where the signal level varying means is an imaging signal imaged under illumination light of the first illumination band consisting of a combination of the first narrow band and the second narrow band, The signal level varying means for processing the first to fourth imaging signals is controlled based on the outline emphasis processing content performed by the image processing means and the synthesis coefficient.

付記3.付記2において、
前記第1の撮像信号と前記第3の撮像信号は、共通の撮像信号である。
付記4.付記2又は付記3において、
前記撮像手段は、被写体の光学像を結像する対物レンズ系と、
前記光学像が結像される位置に撮像面が配置され、光学像を光電変換する撮像素子と、
前記対物レンズ系を構成する可動レンズを前記対物レンズ系の光軸方向における少なくとも第1の位置と第2の位置との2つの位置に駆動するアクチュエータと、
を備え、
さらに、前記撮像システムは、前記アクチュエータにより前記可動レンズを前記第1の位置に設定することにより、前記対物レンズ系が近距離の被写体にフォーカスした第1のフォーカス距離の状態と、前記アクチュエータにより前記可動レンズを前記第2の位置に設定することにより、前記対物レンズ系が中遠距離の被写体にフォーカスした第2のフォーカス距離の状態とを切り替える指示操作を行う操作スイッチを備え、
前記信号レベル可変手段は、前記対物レンズ系を前記第2のフォーカス距離に設定した場合には、前記第1のフォーカス距離に設定した場合よりも前記撮像信号レベルに対するゲインを抑制する。
Appendix 3. In Appendix 2,
The first imaging signal and the third imaging signal are common imaging signals.
Appendix 4. In Appendix 2 or Appendix 3,
The imaging means includes an objective lens system that forms an optical image of a subject, and
An imaging device in which an imaging surface is arranged at a position where the optical image is formed, and photoelectrically converts the optical image;
An actuator for driving the movable lens constituting the objective lens system to at least two positions, ie, a first position and a second position in the optical axis direction of the objective lens system;
With
Furthermore, the imaging system sets the movable lens to the first position by the actuator, whereby the objective lens system is in a state of a first focus distance focused on a close object, and the actuator An operation switch for performing an instruction operation for switching the state of the second focus distance in which the objective lens system focuses on a medium-distance object by setting the movable lens to the second position;
When the objective lens system is set to the second focus distance, the signal level varying unit suppresses the gain with respect to the imaging signal level more than when the objective lens system is set to the first focus distance.

1…撮像システム、2…内視鏡、3…光源装置、4…ビデオプロセッサ、5…カラーモニタ、6…第1フィルタ群(狭帯域フィルタ群)、7…第2フィルタ群(広帯域フィルタ群)、11…挿入部、14…ライトガイド、21…ランプ、22A…絞り、24…回転フィルタ、31…観察モードスイッチ、32…制御回路、32a…ゲイン制御部、35…CCD、44…同時化制御部、45…明るさ算出部、46…同時化メモリ、47…AGC回路、50…画像処理部、51…合成処理部、53…NR回路、54…拡大/縮小回路、55…強調回路、56…マトリクス処理部、58…操作パネル、58a…合成比率設定部、59…調光制御部、60…フラッシュメモリ、60a…制御情報、62…平均値算出部、64a,64b,64c…明るさ算出部、65…マトリクス処理部、66…輝度算出部、66a…差分算出部、66b…合成比率算出部   DESCRIPTION OF SYMBOLS 1 ... Imaging system, 2 ... Endoscope, 3 ... Light source device, 4 ... Video processor, 5 ... Color monitor, 6 ... 1st filter group (narrowband filter group), 7 ... 2nd filter group (wideband filter group) DESCRIPTION OF SYMBOLS 11 ... Insertion part, 14 ... Light guide, 21 ... Lamp, 22A ... Diaphragm, 24 ... Rotation filter, 31 ... Observation mode switch, 32 ... Control circuit, 32a ... Gain control part, 35 ... CCD, 44 ... Synchronization control 45 ... Brightness calculation unit 46 ... Synchronization memory 47 ... AGC circuit 50 ... Image processing unit 51 ... Composition processing unit 53 ... NR circuit 54 ... Enlargement / reduction circuit 55 ... Enhancement circuit 56 ... Matrix processing unit 58 ... Operation panel 58a ... Combination ratio setting unit 59 ... Dimming control unit 60 ... Flash memory 60a ... Control information 62 ... Average value calculation unit 64a, 64b, 64c ... Brightness Calculator, 65 ... matrix processing unit, 66 ... luminance calculation unit, 66a ... difference calculation unit, 66b ... synthesis ratio calculation unit

Claims (6)

第1の狭帯域及び第2の狭帯域を備えた第1の照明帯域の照明光と、複数の広帯域を備えた第2の照明帯域の照明光とを切り替えて照明を行う照明手段と、
前記照明手段により照明された被写体を撮像する撮像手段と、
前記撮像手段により出力される撮像信号の撮像信号レベルを変更する信号レベル可変手段と、
前記信号レベル可変手段から出力される信号から画像信号を生成し、生成した画像信号に対して輪郭強調処理を行う画像処理手段と、
前記画像処理手段が行う輪郭強調処理内容と、前記照明手段における前記第1の照明帯域を形成する前記第1の狭帯域及び前記第2の狭帯域の組み合わせ及び前記第2の照明帯域を形成する前記複数の広帯域の組み合わせの情報に応じて、前記信号レベル可変手段による前記撮像信号レベルを制御する信号レベル可変制御手段と、
を備えることを特徴とする撮像システム。
Illuminating means for performing illumination by switching between illumination light of a first illumination band having a first narrow band and a second narrow band and illumination light of a second illumination band having a plurality of wide bands;
Imaging means for imaging a subject illuminated by the illumination means;
Signal level variable means for changing the imaging signal level of the imaging signal output by the imaging means;
Image processing means for generating an image signal from the signal output from the signal level varying means, and performing contour enhancement processing on the generated image signal;
The outline emphasis processing content performed by the image processing unit, the combination of the first narrow band and the second narrow band forming the first illumination band in the lighting unit, and the second illumination band are formed. Signal level variable control means for controlling the imaging signal level by the signal level variable means in accordance with information of the plurality of broadband combinations;
An imaging system comprising:
前記第1の照明帯域の照明は、所定の時間内に、前記第1の狭帯域の照明光による第1回の照明と、前記第2の狭帯域を有する照明光による第2回の照明との組み合わせからなり、
更に、前記第1の回数のうちの第1の所定回の照明に基づく前記撮像手段による第1の撮像信号と、前記第2の回数のうちの第2の所定回の照明に基づく前記撮像手段による第2の撮像信号とを用いた色変換マトリクス処理によって第1の明るさを算出し、
前記第1の回数のうちの第3の所定回の照明に基づく第1の撮像信号と、前記第2の回数のうちの第4の所定回の照明に基づく第3の撮像信号とを用いた色変換マトリクス処理によって第2の明るさを算出する明るさ算出手段と、
前記第1の明るさと所定の目標明るさとの差分と、前記第2の明るさとの比に基づいて、各1フレーム期間において前記第1及び第2の撮像信号に対して前記第1及び第3の撮像信号を合成する場合の合成係数を算出する演算手段と、
を備え、
前記画像処理手段は、前記演算手段による合成係数、又は合成係数設定手段により設定される合成係数に基づき、各1フレーム期間内における前記第1及び第2の撮像信号に対して前記第1及び第3の撮像信号を合成し、生成した画像信号に対して輪郭強調処理を行い、
前記信号レベル可変手段は、前記照明手段が前記第1の狭帯域及び第2の狭帯域の組み合わせからなる前記第1の照明帯域の照明光のもとで撮像された撮像信号である場合、前記画像処理手段が行う前記輪郭強調処理内容と前記合成係数とに基づき、前記第1、第2及び第3の撮像信号を処理する前記信号レベル可変手段を制御することを特徴とする請求項1に記載の撮像システム。
The illumination in the first illumination band includes a first illumination with the first narrow-band illumination light and a second illumination with the illumination light having the second narrow band within a predetermined time. A combination of
Further, the first imaging signal by the imaging unit based on the first predetermined number of times of the first number of times and the imaging unit based on the second predetermined number of times of illumination of the second number of times. The first brightness is calculated by color conversion matrix processing using the second imaging signal by
The first imaging signal based on the third predetermined number of times of illumination in the first number of times and the third imaging signal based on the fourth predetermined number of times of illumination in the second number of times are used. Brightness calculation means for calculating the second brightness by color conversion matrix processing;
Based on the difference between the first brightness and a predetermined target brightness and the ratio of the second brightness, the first and third imaging signals for the first and second imaging signals in each one frame period. Computing means for calculating a synthesis coefficient when synthesizing the imaging signals of
With
The image processing unit is configured to perform the first and second imaging signals on the first and second imaging signals in each frame period based on a synthesis coefficient by the calculation unit or a synthesis coefficient set by a synthesis coefficient setting unit. 3 image pickup signals are combined, and contour enhancement processing is performed on the generated image signals.
In the case where the signal level varying means is an imaging signal imaged under illumination light of the first illumination band consisting of a combination of the first narrow band and the second narrow band, 2. The signal level varying means for processing the first, second, and third imaging signals is controlled based on the content of the edge enhancement process performed by the image processing means and the synthesis coefficient. The imaging system described.
前記信号レベル可変手段は、前記輪郭強調処理の強調レベルが大きい程、又は前記合成係数による合成の割合が大きい程、前記撮像信号レベルに対するゲインを抑制することを特徴とする請求項2に記載の撮像システム。   The signal level varying unit suppresses the gain with respect to the imaging signal level as the enhancement level of the edge enhancement process is larger or as a synthesis ratio based on the synthesis coefficient is larger. Imaging system. 前記撮像手段は、被写体の光学像を結像する対物レンズ系と、
前記光学像が結像される位置に撮像面が配置され、光学像を光電変換する撮像素子と、
前記対物レンズ系を構成する可動レンズを前記対物レンズ系の光軸方向における少なくとも第1の位置と第2の位置との2つの位置に駆動するアクチュエータと、
を備え、
さらに、前記撮像システムは、前記アクチュエータにより前記可動レンズを前記第1の位置に設定することにより、前記対物レンズ系が近距離の被写体にフォーカスした第1のフォーカス距離の状態と、前記アクチュエータにより前記可動レンズを前記第2の位置に設定することにより、前記対物レンズ系が中遠距離の被写体にフォーカスした第2のフォーカス距離の状態とを切り替える指示操作を行う操作スイッチを備え、
前記信号レベル可変手段は、前記対物レンズ系を前記第2のフォーカス距離に設定した場合には、前記第1のフォーカス距離に設定した場合よりも前記撮像信号レベルに対するゲインを抑制することを特徴とする請求項3に記載の撮像システム。
The imaging means includes an objective lens system that forms an optical image of a subject, and
An imaging device in which an imaging surface is arranged at a position where the optical image is formed, and photoelectrically converts the optical image;
An actuator for driving the movable lens constituting the objective lens system to at least two positions, ie, a first position and a second position in the optical axis direction of the objective lens system;
With
Furthermore, the imaging system sets the movable lens to the first position by the actuator, whereby the objective lens system is in a state of a first focus distance focused on a close object, and the actuator An operation switch for performing an instruction operation for switching the state of the second focus distance in which the objective lens system focuses on a medium-distance object by setting the movable lens to the second position;
When the objective lens system is set to the second focus distance, the signal level varying unit suppresses the gain with respect to the imaging signal level more than when the objective lens system is set to the first focus distance. The imaging system according to claim 3.
さらに、前記第1の撮像信号と前記第2の撮像信号から生成した撮像画像を分割した複数の各領域における平均の明るさを算出する領域明るさ算出手段と、
前記領域明るさ算出手段により算出された前記平均の明るさが閾値以上となる明領域と、前記閾値未満となる暗領域とを判定する判定手段と、
前記判定手段により判定された明領域においては、暗領域の場合よりも前記輪郭強調処理の強調レベルを大きくするように制御することを特徴とする請求項3に記載の撮像システム。
Furthermore, area brightness calculation means for calculating an average brightness in each of a plurality of areas obtained by dividing the captured image generated from the first imaging signal and the second imaging signal;
A determination unit that determines a bright region in which the average brightness calculated by the region brightness calculation unit is equal to or greater than a threshold value and a dark region that is less than the threshold value;
The imaging system according to claim 3, wherein in the bright region determined by the determination unit, control is performed so that the enhancement level of the contour enhancement processing is higher than that in the dark region.
前記第1の狭帯域は、緑の波長帯域における狭帯域であり、前記第2の狭帯域は、青の波長帯域における狭帯域であることを特徴とする請求項1乃至5のいずれか1つに記載の内視鏡装置。   6. The first narrow band is a narrow band in a green wavelength band, and the second narrow band is a narrow band in a blue wavelength band. The endoscope apparatus described in 1.
JP2012249523A 2012-11-13 2012-11-13 Imaging system Active JP5856943B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012249523A JP5856943B2 (en) 2012-11-13 2012-11-13 Imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012249523A JP5856943B2 (en) 2012-11-13 2012-11-13 Imaging system

Publications (2)

Publication Number Publication Date
JP2014097124A true JP2014097124A (en) 2014-05-29
JP5856943B2 JP5856943B2 (en) 2016-02-10

Family

ID=50939715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012249523A Active JP5856943B2 (en) 2012-11-13 2012-11-13 Imaging system

Country Status (1)

Country Link
JP (1) JP5856943B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017110459A1 (en) * 2015-12-22 2017-12-28 オリンパス株式会社 Endoscope image processing apparatus and endoscope system
WO2023090044A1 (en) * 2021-11-16 2023-05-25 Hoya株式会社 Processor for electronic endoscope and electronic endoscopic system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001008097A (en) * 1999-06-22 2001-01-12 Fuji Photo Optical Co Ltd Electronic endoscope
JP2005257734A (en) * 2004-03-09 2005-09-22 Fujinon Corp Electronic endoscope device provided with auto-focus function
JP2007236416A (en) * 2006-03-03 2007-09-20 Olympus Medical Systems Corp Endoscope apparatus
JP2010200883A (en) * 2009-03-02 2010-09-16 Fujifilm Corp Device, method, and program for processing endoscopic image
US20110069199A1 (en) * 2009-05-14 2011-03-24 Olympus Medical Systems Corp. Image pickup apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001008097A (en) * 1999-06-22 2001-01-12 Fuji Photo Optical Co Ltd Electronic endoscope
JP2005257734A (en) * 2004-03-09 2005-09-22 Fujinon Corp Electronic endoscope device provided with auto-focus function
JP2007236416A (en) * 2006-03-03 2007-09-20 Olympus Medical Systems Corp Endoscope apparatus
US20080306343A1 (en) * 2006-03-03 2008-12-11 Olympus Medical Systems Corp. Endoscopic device
JP2010200883A (en) * 2009-03-02 2010-09-16 Fujifilm Corp Device, method, and program for processing endoscopic image
US20110069199A1 (en) * 2009-05-14 2011-03-24 Olympus Medical Systems Corp. Image pickup apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017110459A1 (en) * 2015-12-22 2017-12-28 オリンパス株式会社 Endoscope image processing apparatus and endoscope system
WO2023090044A1 (en) * 2021-11-16 2023-05-25 Hoya株式会社 Processor for electronic endoscope and electronic endoscopic system

Also Published As

Publication number Publication date
JP5856943B2 (en) 2016-02-10

Similar Documents

Publication Publication Date Title
JP5355846B2 (en) Endoscope image processing device
JP6461739B2 (en) Image processing apparatus, endoscope system, and method of operating image processing apparatus
US10335014B2 (en) Endoscope system, processor device, and method for operating endoscope system
US9498153B2 (en) Endoscope apparatus and shake correction processing method
JP4868976B2 (en) Endoscope device
JP4891990B2 (en) Endoscope device
JP5326065B2 (en) Endoscope device
JP5582948B2 (en) Endoscope device
JP5757891B2 (en) Electronic endoscope system, image processing apparatus, operation method of image processing apparatus, and image processing program
JP2007236416A (en) Endoscope apparatus
CN101142592A (en) Image processing device and endoscope
JP2006061620A (en) Video signal processor for endoscope
JP2010136748A (en) Endoscope apparatus and control method thereof
JP2016077756A (en) Endoscope system, processor device, operation method of endoscope system, and operation method of processor device
JP2012152413A (en) Electronic endoscope system
JP6228833B2 (en) Imaging system and endoscope apparatus
WO2017022324A1 (en) Image signal processing method, image signal processing device and image signal processing program
JP6000838B2 (en) Endoscope device
JP5041936B2 (en) Biological observation device
JP5856943B2 (en) Imaging system
JPH11313247A (en) Endoscope system
JP2006061621A (en) Light control signal generator for endoscope
WO2016059906A1 (en) Endoscope device
CN108882835B (en) Endoscope image signal processing device and method, and storage medium
JP5331863B2 (en) Endoscope device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140917

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150422

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20150525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151214

R151 Written notification of patent or utility model registration

Ref document number: 5856943

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250