JP2018192043A - Endoscope and endoscope system - Google Patents

Endoscope and endoscope system Download PDF

Info

Publication number
JP2018192043A
JP2018192043A JP2017098828A JP2017098828A JP2018192043A JP 2018192043 A JP2018192043 A JP 2018192043A JP 2017098828 A JP2017098828 A JP 2017098828A JP 2017098828 A JP2017098828 A JP 2017098828A JP 2018192043 A JP2018192043 A JP 2018192043A
Authority
JP
Japan
Prior art keywords
filter
light
pixels
pixel
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017098828A
Other languages
Japanese (ja)
Inventor
啓介 筒井
Keisuke Tsutsui
啓介 筒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2017098828A priority Critical patent/JP2018192043A/en
Publication of JP2018192043A publication Critical patent/JP2018192043A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Endoscopes (AREA)
  • Color Television Image Signal Generators (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

To acquire both characteristics of simultaneous-type real-time properties and a frame sequential-type high resolution/color reproducibility.SOLUTION: An endoscope includes: a solid-state image sensor including a plurality of pixels disposed into a two-dimensional matrix shape, and a color filter having color selection filters disposed corresponding to the pixels; and an insertion section on which the solid-state imaging sensor is installed, and that causes return light from a subject to enter the pixels. The color filters cause the return light to enter 50% or more first pixels out of all the pixels of the solid-state imaging sensor without restricting the wavelength band of the return light, cause the return light to enter second pixels other than the first pixels out of all the pixels by restricting the wavelength band of the return light by first spectral characteristics, and causes the return light to enter the remaining third pixels other than the first and second pixels by restricting the wavelength band of the return light by second spectral characteristics different from the first spectral characteristics.SELECTED DRAWING: Figure 1

Description

本発明は、カラーの内視鏡画像を得る内視鏡及び内視鏡システムに関する。   The present invention relates to an endoscope and an endoscope system for obtaining a color endoscope image.

近年、体腔内に細長の挿入部を挿通することにより、体腔内臓器等を観察したり、必要に応じて処置具チャンネル内に挿通した処置具を用いて各種治療処置ができる電子内視鏡が広く用いられている。   In recent years, electronic endoscopes that can observe various organs such as organs in a body cavity by inserting an elongated insertion portion into a body cavity or perform various therapeutic treatments using a treatment instrument inserted into a treatment instrument channel as necessary. Widely used.

電子内視鏡のカラー画像の撮像方式には、モノクロイメージャの読み出しフレーム毎にR,G,Bに対応した可視光を照射することで各カラー画像を得て画像処理で合成することでフルカラー画像を得る面順次式と、カラーイメージャの読出しフレーム毎に白色光を照射して毎読出しごとにフルカラー画像を得る同時式とがある。   A color image capturing method of an electronic endoscope is obtained by irradiating visible light corresponding to R, G, and B for each readout frame of a monochrome imager, thereby obtaining each color image and synthesizing the image by image processing. There are a frame sequential type that obtains a color image and a simultaneous type that irradiates white light for each readout frame of a color imager and obtains a full color image for each readout.

このように電子内視鏡においては、フォトダイオード(PD)部にオンチップカラーフィルタ(以下、OCFという)を搭載したカラーイメージャ、又は、OCFを搭載していないモノクロイメージャが採用される。   As described above, in an electronic endoscope, a color imager in which an on-chip color filter (hereinafter referred to as OCF) is mounted on a photodiode (PD) unit or a monochrome imager in which no OCF is mounted is employed.

カラーイメージャのOCFとして、例えば、特許文献1には、可視光透過フィルタと赤外透過フィルタとを含むカラーフィルタ層及び赤外カットフィルタ層を有する固体撮像装置が開示されている。   As an OCF of a color imager, for example, Patent Document 1 discloses a solid-state imaging device having a color filter layer including a visible light transmission filter and an infrared transmission filter and an infrared cut filter layer.

また、特許文献2には、カラーイメージャのOCFとして、R,G,B3原色のフィルタに加えて、輝度フィルタを配置した固体撮像素子が開示されている。   Patent Document 2 discloses a solid-state imaging device in which a luminance filter is arranged in addition to R, G, and B3 primary color filters as an OCF of a color imager.

また、特許文献3には、カラーイメージャのOCFとして、MgとCy、YとMg、YとCyの組み合わせのいずれか1つの2種類色の分光特性を有する補色フィルタから構成される例が開示されている。   Patent Document 3 discloses an example in which the OCF of the color imager is composed of complementary color filters having spectral characteristics of two kinds of colors, one of combinations of Mg and Cy, Y and Mg, and Y and Cy. ing.

また、特許文献4には、緑色の光を透過するフィルタ数が全フィルタ数の半数以上で、かつ青色の光を透過するフィルタ数が緑色の光を透過するフィルタ数以上であるフィルタユニットを備えて、通常光観察(白色光観察(WLI))及び狭帯域光観察(NBI)のいずれの観察方式においても高い解像度を得る技術が開示されている。   Patent Document 4 includes a filter unit in which the number of filters that transmit green light is more than half of the total number of filters, and the number of filters that transmit blue light is equal to or greater than the number of filters that transmit green light. Thus, a technique for obtaining high resolution in any of the observation methods of normal light observation (white light observation (WLI)) and narrow-band light observation (NBI) is disclosed.

カラーイメージャを搭載した内視鏡は、被写体に白色光を照射し、戻り光を光電変換して、1回の読み出しによって内視鏡のカラー画像を生成する同時式で駆動される。しかし、カラーイメージャは、OCFの配色や配置によってカラー画像を生成する際に色再現性が得にくい場合や解像度が劣化する欠点がある。   An endoscope equipped with a color imager is driven in a simultaneous manner that irradiates a subject with white light, photoelectrically converts return light, and generates a color image of the endoscope by one reading. However, the color imager has a drawback that it is difficult to obtain color reproducibility when the color image is generated by the color arrangement or arrangement of the OCF, and the resolution is deteriorated.

一方、モノクロイメージャを搭載した内視鏡は、R(赤)光,G(緑)光,B(青)光による照明光をフレームごとに被写体に照射し、フレーム毎の戻り光を光電変換して、複数回の読み出しによって、内視鏡のRGBカラー画像を生成する面順次式で駆動される。モノクロイメージャは、カラーイメージャに比べて色再現性を得やすく、有効画素数そのままの画像を得られるため解像度も劣化しない。しかし、モノクロイメージャは、各色のフレームレートがカラーイメージャの1/3となり、動画応答性や画像ブレの点で操作性に難点がある。   On the other hand, an endoscope equipped with a monochrome imager irradiates a subject with illumination light of R (red) light, G (green) light, and B (blue) light for each frame, and photoelectrically converts return light for each frame. Thus, it is driven in a frame sequential manner that generates an RGB color image of the endoscope by multiple readings. A monochrome imager is easier to obtain color reproducibility than a color imager, and an image with the same number of effective pixels can be obtained, so the resolution does not deteriorate. However, the monochrome imager has a frame rate of each color that is 1/3 that of the color imager, and has a difficulty in operability in terms of moving image response and image blurring.

国際公開2014−041742号公報International Publication No. 2014-041742 特開2003−318375号公報JP 2003-318375 A 特開2008−79296号公報JP 2008-79296 A 特開2015−116328号公報Japanese Patent Laying-Open No. 2015-116328

モノクロイメージャを搭載した電子内視鏡において、照明光として白色光を用いた場合には、カラー画像を得ることはできない。一方、カラーイメージャを搭載した電子内視鏡において、面順次式の照明を行った場合には、各色画像の解像度が極めて低く、十分な解像度の画像を得ることはできない。従って、同時式と面順次式の両方の方式で内視鏡システムを動作させる場合には、同時式用のカラーイメージャを搭載した内視鏡と面順次式用のモノクロイメージャを搭載した内視鏡とを別々に用意する必要があるという問題があった。   In an electronic endoscope equipped with a monochrome imager, when white light is used as illumination light, a color image cannot be obtained. On the other hand, when a frame sequential illumination is performed in an electronic endoscope equipped with a color imager, the resolution of each color image is extremely low, and an image with sufficient resolution cannot be obtained. Therefore, when operating the endoscope system by both simultaneous and frame sequential methods, an endoscope equipped with a simultaneous color imager and an endoscope equipped with a monochrome imager for frame sequential. There was a problem that it was necessary to prepare and separately.

本発明は、同時式及び面順次式のいずれの内視鏡に採用した場合でも十分な解像度の内視鏡画像を得ることができるイメージャを採用することで、同時式のリアルタイム性と面順次式の高い解像度及び色再現性の両方の特徴を得ることができる内視鏡及び内視鏡システムを提供することを目的とする。   The present invention employs an imager that can obtain an endoscopic image with a sufficient resolution regardless of whether the endoscope is used for both simultaneous and frame sequential endoscopes. It is an object of the present invention to provide an endoscope and an endoscope system that can obtain characteristics of both high resolution and color reproducibility.

本発明の一態様による内視鏡は、2次元マトリクス状に複数配置された画素と、前記画素に対応して色選択フィルタが配置されたカラーフィルタとを有する固体撮像素子と、前記固体撮像素子が取り付けられ、被検体からの戻り光を前記画素に入射させる挿入部とを具備し、前記カラーフィルタは、前記固体撮像素子の全画素のうちの50%以上の第1の画素に前記戻り光の波長帯域を制限することなく入射させると共に、前記全画素のうちの前記第1の画素以外の第2の画素に第1の分光特性によって前記戻り光の波長帯域を制限して入射させ、前記全画素のうちの前記第1及び第2の画素以外の残りの第3の画素に前記第1の分光特性とは異なる第2の分光特性によって前記戻り光の波長帯域を制限して入射させる。   An endoscope according to one aspect of the present invention includes a solid-state imaging device having a plurality of pixels arranged in a two-dimensional matrix, and a color filter in which a color selection filter is arranged corresponding to the pixels, and the solid-state imaging device , And an insertion section for allowing the return light from the subject to enter the pixel, and the color filter applies the return light to the first pixel of 50% or more of all the pixels of the solid-state imaging device. The wavelength band of the return light is limited to the second pixel other than the first pixel of all the pixels by the first spectral characteristics, and the wavelength band of the return light is incident. The wavelength band of the return light is made incident on the remaining third pixels other than the first and second pixels, out of all the pixels, with the second spectral characteristic different from the first spectral characteristic.

本発明の一態様による内視鏡システムは、上記内視鏡と、前記挿入部を介して前記被検体に照明光を発生する光源装置と、前記光源装置及び前記固体撮像素子を制御して、前記内視鏡を同時式又は面順次式で駆動するプロセッサとを具備する。   An endoscope system according to an aspect of the present invention controls the endoscope, a light source device that generates illumination light through the insertion unit, the light source device, and the solid-state imaging element. And a processor for driving the endoscope in a simultaneous manner or a frame sequential manner.

本発明によれば、同時式及び面順次式のいずれの内視鏡に採用した場合でも十分な解像度の内視鏡画像を得ることができるイメージャを採用することで、同時式のリアルタイム性と面順次式の高い解像度及び色再現性の両方の特徴を得ることができるという効果を有する。   According to the present invention, by adopting an imager that can obtain an endoscopic image with a sufficient resolution even when it is adopted for both a simultaneous type and a plane sequential type endoscope, There is an effect that it is possible to obtain characteristics of both high resolution and color reproducibility in a sequential manner.

本発明の第1の実施の形態に係る内視鏡を含む内視鏡システムの構成を示すブロック図。The block diagram which shows the structure of the endoscope system containing the endoscope which concerns on the 1st Embodiment of this invention. カラーフィルタ22の色選択フィルタの色配列パターンを示す説明図。4 is an explanatory diagram showing a color arrangement pattern of a color selection filter of the color filter 22. FIG. カラーフィルタ22の色選択フィルタの色配列パターンを示す説明図。4 is an explanatory diagram showing a color arrangement pattern of a color selection filter of the color filter 22. FIG. カラーフィルタ22の色選択フィルタの色配列パターンを示す説明図。4 is an explanatory diagram showing a color arrangement pattern of a color selection filter of the color filter 22. FIG. カラーフィルタ22の色選択フィルタの色配列パターンを示す説明図。4 is an explanatory diagram showing a color arrangement pattern of a color selection filter of the color filter 22. FIG. カラーフィルタ22の色選択フィルタの色配列パターンを示す説明図。4 is an explanatory diagram showing a color arrangement pattern of a color selection filter of the color filter 22. FIG. 図2Aに示すカラーフィルタ22を採用した場合におけるR光の照射によって得られる信号を示す説明図。FIG. 2B is an explanatory diagram illustrating a signal obtained by irradiation with R light when the color filter 22 illustrated in FIG. 2A is employed. 図2Aに示すカラーフィルタ22を採用した場合におけるG光の照射によって得られる信号を示す説明図。FIG. 2B is an explanatory diagram illustrating a signal obtained by irradiation with G light when the color filter 22 illustrated in FIG. 2A is employed. 図2Aに示すカラーフィルタ22を採用した場合におけるB光の照射によって得られる信号を示す説明図。FIG. 2B is an explanatory diagram illustrating a signal obtained by irradiation with B light when the color filter 22 illustrated in FIG. 2A is employed. カラーフィルタ22として補色系の色選択フィルタを用いた場合の色配列パターンを示す説明図。FIG. 3 is an explanatory diagram showing a color arrangement pattern when a complementary color selection filter is used as the color filter 22. カラーフィルタ22として補色系の色選択フィルタを用いた場合の色配列パターンを示す説明図。FIG. 3 is an explanatory diagram showing a color arrangement pattern when a complementary color selection filter is used as the color filter 22. カラーフィルタ22として補色系の色選択フィルタを用いた場合の色配列パターンを示す説明図。FIG. 3 is an explanatory diagram showing a color arrangement pattern when a complementary color selection filter is used as the color filter 22. カラーフィルタ22として補色系の色選択フィルタを用いた場合の色配列パターンを示す説明図。FIG. 3 is an explanatory diagram showing a color arrangement pattern when a complementary color selection filter is used as the color filter 22. カラーフィルタ22として補色系の色選択フィルタを用いた場合の色配列パターンを示す説明図。FIG. 3 is an explanatory diagram showing a color arrangement pattern when a complementary color selection filter is used as the color filter 22. 図4Aに示すカラーフィルタ22を採用した場合におけるR光の照射によって得られる信号を示す説明図。Explanatory drawing which shows the signal obtained by irradiation of R light in the case of employ | adopting the color filter 22 shown to FIG. 4A. 図4Aに示すカラーフィルタ22を採用した場合におけるG光の照射によって得られる信号を示す説明図。Explanatory drawing which shows the signal obtained by irradiation of G light at the time of employ | adopting the color filter 22 shown to FIG. 4A. 図4Aに示すカラーフィルタ22を採用した場合におけるB光の照射によって得られる信号を示す説明図。Explanatory drawing which shows the signal obtained by irradiation of B light in the case of employ | adopting the color filter 22 shown to FIG. 4A. デモザイキング処理を行う画像処理部27の具体的な構成を示すブロック図。The block diagram which shows the specific structure of the image process part 27 which performs a demosaicing process. 本発明の第2の実施の形態において採用される動作を示すタイミングチャート。The timing chart which shows the operation | movement employ | adopted in the 2nd Embodiment of this invention. 本発明の第2の実施の形態において採用される動作を示すタイミングチャート。The timing chart which shows the operation | movement employ | adopted in the 2nd Embodiment of this invention.

以下、図面を参照して本発明の実施の形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施の形態)
図1は本発明の第1の実施の形態に係る内視鏡を含む内視鏡システムの構成を示すブロック図である。本実施の形態は、1つのイメージャを搭載した内視鏡によって、同時式及び面順次式のいずれで駆動した場合でも、十分な解像度の内視鏡画像を得ることを可能にするものである。本実施の形態において採用されるイメージャは、後述するように、分光特性が異なる2種類のフィルタと透明なフィルタとを組み合わせて構成されるカラーフィルタを採用することで、色再現性、解像度及び動画応答性に優れた固体撮像素子を備えている。
(First embodiment)
FIG. 1 is a block diagram showing a configuration of an endoscope system including an endoscope according to a first embodiment of the present invention. The present embodiment makes it possible to obtain an endoscopic image having a sufficient resolution regardless of whether it is driven by a simultaneous or frame-sequential method with an endoscope equipped with one imager. As will be described later, the imager employed in the present embodiment employs a color filter configured by combining two types of filters having different spectral characteristics and a transparent filter, so that color reproducibility, resolution, and moving image are obtained. It has a solid-state imaging device with excellent responsiveness.

図1に示すように、内視鏡システム1は、体内又は体腔内に挿入される内視鏡2と、内視鏡2に照明光を供給する光源装置3と、内視鏡2に搭載した撮像部21を駆動すると共に、撮像によって取得された撮像信号に対する画像処理を行う画像処理装置としてのプロセッサ4と、プロセッサ4により生成された表示用画像信号が入力されることにより、表示用画像信号の画像を内視鏡画像として表示する表示部を構成するカラーモニタ5とを有する。   As shown in FIG. 1, an endoscope system 1 is mounted on an endoscope 2 that is inserted into a body or a body cavity, a light source device 3 that supplies illumination light to the endoscope 2, and the endoscope 2. The image signal for display is input by driving the image capturing unit 21 and inputting the processor 4 as an image processing apparatus that performs image processing on the image capturing signal acquired by the image capturing, and the display image signal generated by the processor 4. And a color monitor 5 that constitutes a display unit that displays the image as an endoscopic image.

内視鏡2は、被検体6内に挿入される細長の挿入部7と、挿入部7の後端に設けられた操作部8と、操作部8から延出されたケーブル9とを有し、ケーブル9の端部に設けたコネクタ10は光源装置3に着脱自在に接続される。   The endoscope 2 includes an elongated insertion portion 7 that is inserted into the subject 6, an operation portion 8 provided at the rear end of the insertion portion 7, and a cable 9 that extends from the operation portion 8. The connector 10 provided at the end of the cable 9 is detachably connected to the light source device 3.

挿入部7、操作部8、ケーブル9及びコネクタ10には照明光を伝送するライトガイド11が挿通され、このライトガイド11の基端側端面(入射端面)には、光源装置3から照明光が入射されるようになっている。   A light guide 11 that transmits illumination light is inserted through the insertion unit 7, the operation unit 8, the cable 9, and the connector 10, and illumination light from the light source device 3 is inserted into a base end side end surface (incident end surface) of the light guide 11. It is designed to be incident.

光源装置3は、照明光を発生する第1発光ダイオード(第1LED)12a、第2LED12b、第3LED12cを有する。光源装置3内のLED発光制御回路13は、LED12a,12b,12cを発光させる電力を供給するものであり、LED12a,12b,12cに供給する電流等を可変することでその発光量を制御することができるようになっている。   The light source device 3 includes a first light emitting diode (first LED) 12a, a second LED 12b, and a third LED 12c that generate illumination light. The LED light emission control circuit 13 in the light source device 3 supplies power for causing the LEDs 12a, 12b, and 12c to emit light, and controls the amount of light emission by varying the current supplied to the LEDs 12a, 12b, and 12c. Can be done.

LED12aが発光した光は、ダイクロイックミラー14aを選択的に透過し、集光レンズ15により集光される。また、LED12bが発光した光は、ダイクロイックミラー14bで選択的に反射され、ダイクロイックミラー14aで選択的に反射されて、集光レンズ15により集光される。LED12cが発光した光は、ダイクロイックミラー14bを選択的に透過し、ダイクロイックミラー14aで選択的に反射されて、集光レンズ15により集光される。集光レンズ15は入射された光を集光して、ライトガイド11の入射端面に入射させるようになっている。LED12a,12b,12cは、夫々R(赤)帯域光(R光)、G(緑)帯域光(G光)、B(帯域光)(B光)を出射するものであってもよい。   The light emitted from the LED 12 a is selectively transmitted through the dichroic mirror 14 a and is collected by the condenser lens 15. The light emitted from the LED 12b is selectively reflected by the dichroic mirror 14b, selectively reflected by the dichroic mirror 14a, and collected by the condenser lens 15. The light emitted from the LED 12c selectively passes through the dichroic mirror 14b, is selectively reflected by the dichroic mirror 14a, and is collected by the condenser lens 15. The condenser lens 15 collects the incident light and makes it incident on the incident end face of the light guide 11. The LEDs 12a, 12b, and 12c may emit R (red) band light (R light), G (green) band light (G light), and B (band light) (B light), respectively.

光源装置3は、面順次式での駆動時に、LED発光制御回路13の制御によって、集光レンズ15からR光、G光、B光を順次出射させることも可能である。また、光源装置3は、WLI観察時において、LED発光制御回路13の制御によって、集光レンズ15から例えば波長帯域が385−750nmの白色光を出射させることもできるようになっている。また、光源装置3は、NBI観察時において、LED発光制御回路13の制御によって、集光レンズ15から例えばG光とB光とを同時又は交互に出射させることもできるようになっている。更に、光源装置3は、赤外光(IR)観察等の特殊光観察時において、LED発光制御回路13の制御によって、集光レンズ15から観察対象に必要な帯域の光を出射させることもできるようになっている。   The light source device 3 can sequentially emit R light, G light, and B light from the condenser lens 15 under the control of the LED light emission control circuit 13 when driven in a surface sequential manner. The light source device 3 can also emit white light having a wavelength band of, for example, 385 to 750 nm from the condenser lens 15 under the control of the LED light emission control circuit 13 during WLI observation. The light source device 3 can also emit, for example, G light and B light from the condenser lens 15 simultaneously or alternately under the control of the LED light emission control circuit 13 during NBI observation. Furthermore, the light source device 3 can emit light in a band necessary for the observation target from the condenser lens 15 under the control of the LED light emission control circuit 13 during special light observation such as infrared light (IR) observation. It is like that.

ライトガイド11は、入射端面から入射された照明光を伝送し、挿入部7の先端部に配置されたライトガイド11の先端面から照明レンズ16を介して照明光を被検体6に出射する。LED12a,12b,12c、ダイクロイックミラー14a、14b、LED発光制御回路13、集光レンズ15、ライトガイド11、照明レンズ16は、被検体6を照明する照明部17を構成する。   The light guide 11 transmits the illumination light incident from the incident end surface, and emits the illumination light to the subject 6 from the distal end surface of the light guide 11 disposed at the distal end portion of the insertion portion 7 via the illumination lens 16. The LEDs 12a, 12b, and 12c, the dichroic mirrors 14a and 14b, the LED emission control circuit 13, the condenser lens 15, the light guide 11, and the illumination lens 16 constitute an illumination unit 17 that illuminates the subject 6.

挿入部7の先端部には、照明窓に配置された照明レンズ16に隣接して観察窓が設けられ、観察窓には対物レンズ18が取り付けられている。対物レンズ18の結像位置には、CMOSセンサや電荷結合素子(CCD)等の撮像素子19の撮像面が配置されている。対物レンズ18と撮像素子19は、照明部17で照明された被検体6からの戻り光を受光し、撮像面に結像された被写体光学像を光電変換により撮像する撮像部21を構成する。   An observation window is provided at the distal end of the insertion portion 7 adjacent to the illumination lens 16 disposed in the illumination window, and an objective lens 18 is attached to the observation window. An imaging surface of an imaging device 19 such as a CMOS sensor or a charge coupled device (CCD) is disposed at the imaging position of the objective lens 18. The objective lens 18 and the imaging device 19 constitute an imaging unit 21 that receives the return light from the subject 6 illuminated by the illumination unit 17 and captures the subject optical image formed on the imaging surface by photoelectric conversion.

撮像素子19は、2次元マトリクス状に配置された複数の画素を有しており、各画素において光電変換が行われて、受光された光に応じた撮像信号が出力されるようになっている。撮像素子19の撮像面に対向して、各画素に入射する光の波長帯域を画素毎に制限する色選択フィルタ(単にフィルタともいう)を有するカラーフィルタ22が配設されている。   The imaging device 19 has a plurality of pixels arranged in a two-dimensional matrix, and photoelectric conversion is performed in each pixel so that an imaging signal corresponding to the received light is output. . A color filter 22 having a color selection filter (also simply referred to as a filter) that restricts the wavelength band of light incident on each pixel for each pixel is disposed opposite to the imaging surface of the imaging element 19.

撮像素子19には内視鏡2内を挿通された信号線24の一端が接続され、信号線24の他端は、コネクタ10の接点に接続される。コネクタ10の接点は、さらに接続ケーブル内の信号線25を介してプロセッサ4に着脱自在に接続される。プロセッサ4は、撮像素子19を駆動する撮像素子駆動信号を発生する駆動部26と、撮像素子19から出力される撮像信号に対する画像処理を行い、カラーモニタ5にカラー表示する表示用画像信号を生成する画像処理部27とを有する。   One end of a signal line 24 inserted through the endoscope 2 is connected to the image sensor 19, and the other end of the signal line 24 is connected to a contact of the connector 10. The contact of the connector 10 is further detachably connected to the processor 4 via a signal line 25 in the connection cable. The processor 4 generates a display image signal to be displayed in color on the color monitor 5 by performing image processing on the image pickup signal output from the drive unit 26 that generates the image pickup element drive signal for driving the image pickup element 19 and the image pickup element 19. And an image processing unit 27.

撮像素子19は、駆動部26から撮像素子駆動信号が印加されることにより、光電変換した撮像信号を画像処理部27に出力する。画像処理部27は、撮像信号に対するデモザイキング処理等により画像信号を生成して、カラーモニタ5に出力する。こうして、カラーモニタ5において撮像素子19で撮像した画像が内視鏡画像として表示される。   The imaging device 19 outputs an imaging signal obtained by photoelectric conversion to the image processing unit 27 when an imaging device driving signal is applied from the driving unit 26. The image processing unit 27 generates an image signal by demosaicing processing or the like for the image pickup signal and outputs the image signal to the color monitor 5. Thus, the image captured by the image sensor 19 on the color monitor 5 is displayed as an endoscopic image.

本実施の形態においては、撮像素子19に設けられるカラーフィルタ22は、色選択フィルタとして2種類の分光特性を有する原色フィルタと波長帯域を制限しないフィルタとの3種類の色選択フィルタにより構成されている。また、カラーフィルタ22を、色選択フィルタとして2種類の分光特性を有する補色フィルタと波長帯域を制限しないフィルタとの3種類の色選択フィルタにより構成してもよい。なお、戻り光の波長帯域を制限することなく画素に入射させる色選択フィルタ(以下、Yフィルタという)としては、透明フィルタ、減光フィルタ、グレイフィルタ等が考えられる。また、色選択フィルタが配置されていない場合も、戻り光の波長帯域は制限されない。以下の説明では、Yフィルタが配置されている状態とは、透明フィルタ等のフィルタが配置されている状態だけでなく、色選択フィルタが配置されていない状態も含むものとする。   In the present embodiment, the color filter 22 provided in the image sensor 19 includes three types of color selection filters, which are a primary color filter having two types of spectral characteristics as a color selection filter and a filter that does not limit the wavelength band. Yes. Further, the color filter 22 may be constituted by three types of color selection filters, which are a complementary color filter having two types of spectral characteristics as a color selection filter and a filter that does not limit the wavelength band. In addition, as a color selection filter (hereinafter referred to as a Y filter) that enters a pixel without limiting the wavelength band of the return light, a transparent filter, a neutral density filter, a gray filter, and the like are conceivable. Even when no color selection filter is arranged, the wavelength band of the return light is not limited. In the following description, the state in which the Y filter is disposed includes not only the state in which a filter such as a transparent filter is disposed but also the state in which no color selection filter is disposed.

(原色フィルタの例)
図2A〜図2Eはカラーフィルタ22の色選択フィルタの色配列パターンを示す説明図である。なお、各色選択フィルタは夫々各画素に対応して設けられており、撮像素子19はカラーフィルタ22の色配列に対応した撮像信号を出力することになる。
(Example of primary color filter)
2A to 2E are explanatory diagrams showing color arrangement patterns of the color selection filter of the color filter 22. FIG. Each color selection filter is provided corresponding to each pixel, and the image sensor 19 outputs an image signal corresponding to the color arrangement of the color filter 22.

図2A〜図2Cは原色フィルタを採用した場合の色配列パターンの3つの例を示している。図2A〜図2Cにおいて、GはG光の波長帯域を透過する色選択フィルタ(以下、Gフィルタという)を示し、BはB光の波長帯域を透過する色選択フィルタ(以下、Bフィルタという)を示し、YはYフィルタが配置されている状態、即ち、透明な色選択フィルタが配置されていたり、色選択フィルタが配置されていないことを示している。   2A to 2C show three examples of the color arrangement pattern when the primary color filter is employed. 2A to 2C, G represents a color selection filter (hereinafter referred to as G filter) that transmits the wavelength band of G light, and B represents a color selection filter (hereinafter referred to as B filter) that transmits the wavelength band of B light. Y indicates a state in which the Y filter is disposed, that is, a transparent color selection filter is disposed or a color selection filter is not disposed.

図2A〜図2Cは、光電変換を行う受光素子を構成する各画素に対して、水平及び垂直に2×2毎に同一の色配列パターンのカラーフィルタ22がそれぞれ配設されることを示している。図2AはYフィルタが2×2画素の斜めの2画素に配置され、残りの2画素に1画素ずつGフィルタとBフィルタとがそれぞれ配置される例を示している。また、図2BはYフィルタが2×2画素の垂直方向の2画素に並んで配置され、残りの2画素に1画素ずつGフィルタとBフィルタとがそれぞれ配置される例を示している。また、図2CはYフィルタが2×2画素の水平方向の2画素に並んで配置され、残りの2画素に1画素ずつGフィルタとBフィルタとがそれぞれ配置される例を示している。   2A to 2C show that the color filters 22 having the same color arrangement pattern are disposed horizontally and vertically every 2 × 2 for each pixel constituting the light receiving element that performs photoelectric conversion. Yes. FIG. 2A shows an example in which the Y filter is arranged in two diagonal pixels of 2 × 2 pixels, and the G filter and the B filter are arranged in the remaining two pixels, one pixel each. FIG. 2B shows an example in which Y filters are arranged side by side in two vertical pixels of 2 × 2 pixels, and one G filter and one B filter are arranged for each of the remaining two pixels. FIG. 2C shows an example in which Y filters are arranged in two horizontal pixels of 2 × 2 pixels, and a G filter and a B filter are arranged for each of the remaining two pixels.

即ち、図2A〜図2Cの例は、いずれも、全画素のうちの50%の画素にYフィルタが配置され、残りの50%の画素のうちの半分(全体の25%)の画素に原色フィルタであるGフィルタが配置され、残りの画素(全体の25%の画素)に原色フィルタであるBフィルタが配置される例を示している。なお、本実施の形態においては、Yフィルタは全画素のうちの50%以上の画素に配置されていてもよい。   That is, in all of the examples of FIGS. 2A to 2C, Y filters are arranged in 50% of all pixels, and primary colors are used for half of the remaining 50% pixels (25% of all pixels). An example is shown in which a G filter that is a filter is arranged, and a B filter that is a primary color filter is arranged on the remaining pixels (25% of the pixels). In the present embodiment, the Y filter may be arranged in 50% or more of all pixels.

上述したように、本実施の形態においては、カラーフィルタ22としては、2種類の分光特性を有する原色フィルタとYフィルタとにより構成されるカラーフィルタを採用することができ、図2A〜図2CのGフィルタに代えて、R光の波長帯域を透過する色選択フィルタ(以下、Rフィルタという)を用いて、R,B,Yフィルタによってカラーフィルタ22を構成してもよい。例えば、図2Dは図2AのGフィルタに代えてRフィルタを採用した例を示している。また、図2A〜図2CのBフィルタに代えて、Rフィルタを採用して、R,G,Yフィルタによってカラーフィルタ22を構成してもよい。例えば、図2Eは図2AのBフィルタに代えてRフィルタを採用した例を示している。   As described above, in the present embodiment, as the color filter 22, a color filter composed of a primary color filter having two types of spectral characteristics and a Y filter can be adopted, and the color filters shown in FIGS. Instead of the G filter, a color selection filter (hereinafter referred to as an R filter) that transmits the wavelength band of R light may be used, and the color filter 22 may be configured by R, B, and Y filters. For example, FIG. 2D shows an example in which an R filter is employed instead of the G filter in FIG. 2A. Moreover, it replaces with B filter of FIG. 2A-FIG. 2C, R filter may be employ | adopted and the color filter 22 may be comprised by R, G, and Y filter. For example, FIG. 2E shows an example in which an R filter is employed instead of the B filter in FIG. 2A.

(同時式におけるデモザイキングの例(原色フィルタ))
撮像素子19の各画素には、カラーフィルタ22の各色選択フィルタの分光特性に応じて波長帯域が制限された光が入射する。Rフィルタ、Gフィルタ、Bフィルタ又はYフィルタが配置された各画素をそれぞれR画素、G画素、B画素、Y画素といい、これらのR画素、G画素、B画素、Y画素の光電変換により得られる画素信号をそれぞれR信号、G信号、B信号、Y信号というものとする。なお、Y画素については、被検体6にR光、G光、B光をそれぞれ照射した場合には、Y信号として、R信号、G信号、B信号がそれぞれ得られることになる。
(Example of simultaneous demosaicing (primary color filter))
Light having a wavelength band limited according to the spectral characteristics of each color selection filter of the color filter 22 is incident on each pixel of the image sensor 19. Each pixel in which the R filter, G filter, B filter, or Y filter is disposed is referred to as an R pixel, a G pixel, a B pixel, and a Y pixel, respectively, and photoelectric conversion of these R pixel, G pixel, B pixel, and Y pixel is performed. The obtained pixel signals are referred to as R signal, G signal, B signal, and Y signal, respectively. For the Y pixel, when the subject 6 is irradiated with R light, G light, and B light, respectively, an R signal, a G signal, and a B signal are obtained as the Y signal.

例えば、図2Aの例では、画素P1〜P4からは、それぞれY信号、G信号、B信号、Y信号が得られる。被検体6に白色光を照射した場合の画素P1のY信号は、被検体6にR光、G光、B光をそれぞれ照射した場合における画素P1のR信号、G信号及びB信号の和によって表される。即ち、Y=R+G+Bであり、R=Y−G−Bで表される。画素P1にはYフィルタが配置されているので、画素P1におけるG信号の推定値G’と画素P1におけるB信号の推定値B’とを用いて、画素P1におけるR信号は、R=Y−G’−B’で表される。   For example, in the example of FIG. 2A, a Y signal, a G signal, a B signal, and a Y signal are obtained from the pixels P1 to P4, respectively. The Y signal of the pixel P1 when the subject 6 is irradiated with white light is the sum of the R signal, G signal, and B signal of the pixel P1 when the subject 6 is irradiated with R light, G light, and B light, respectively. expressed. That is, Y = R + G + B, and R = Y−G−B. Since the Y filter is disposed in the pixel P1, the R signal in the pixel P1 is R = Y− using the estimated value G ′ of the G signal in the pixel P1 and the estimated value B ′ of the B signal in the pixel P1. It is represented by G′-B ′.

なお、推定値G’は、水平及び垂直方向に1画素毎に現れる複数のG画素からの複数のG信号を用いた補間処理によって求めることができる。同様に、推定値B’は、水平及び垂直方向に1画素毎に現れる複数のB画素からの複数のB信号を用いた補間処理によって求めることができる。   The estimated value G ′ can be obtained by interpolation processing using a plurality of G signals from a plurality of G pixels appearing for each pixel in the horizontal and vertical directions. Similarly, the estimated value B ′ can be obtained by interpolation processing using a plurality of B signals from a plurality of B pixels appearing for each pixel in the horizontal and vertical directions.

こうして、画素P1について、R信号、推定値G’、推定値B’を求めることができる。同様の手法によって、画素P4についてもR信号、画素P4における推定値G’、推定値B’を求めることができる。また、画素P2については、推定値R’、G信号、推定値B’を求めることができ、画素P3については、推定値R’、推定値G’、B信号を求めることができる。   In this way, the R signal, the estimated value G ′, and the estimated value B ′ can be obtained for the pixel P1. By the same method, the R signal, the estimated value G ′ and the estimated value B ′ in the pixel P4 can be obtained for the pixel P4. Further, the estimated value R ′, the G signal, and the estimated value B ′ can be obtained for the pixel P2, and the estimated value R ′, the estimated value G ′, and the B signal can be obtained for the pixel P3.

なお、Yフィルタとして透明フィルタを採用したり、フィルタを配置しない構成にした場合には、Y画素への入射光量は、他のR画素、G画素、B画素への入射光量よりも大きくなり、デモザイキング処理における演算精度が低下することが考えられる。そこで、このような場合には、Yフィルタとして減光フィルタを採用したり、フィルタが配置されない画素に別途減光フィルタを配置することによって、各画素の感度を一致させるようにしてもよい。例えば、Y画素には、他の画素との分光感度の積分値が所定の一定比以内となるように減光フィルタを取り付けてもよい。
また、R,G,Bフィルタは、相互の通過波長帯域が完全に分離しているとは限らず、通過波長帯域の境界付近において、他のフィルタの通過波長帯域と重なった領域(以下、混色域という)を有することがある。R,G,Bフィルタが混色域を有する場合には、デモザイキング処理における演算精度が低下することが考えられる。そこで、このような演算精度の低下を抑制するために、光源装置3の出射光を制御するようにしてもよい。例えば、光源装置3の各LED12a〜12cの出射光の波長帯域が相互に重なる波長帯域(混色域)を含まないように構成してもよい。
If a transparent filter is used as the Y filter or the filter is not arranged, the amount of incident light on the Y pixel is larger than the amount of incident light on the other R, G, and B pixels, It is conceivable that the calculation accuracy in the demosaicing process decreases. Therefore, in such a case, the sensitivity of each pixel may be matched by adopting a neutral density filter as the Y filter or by separately arranging a neutral density filter in a pixel where no filter is arranged. For example, a neutral density filter may be attached to the Y pixel so that the integral value of the spectral sensitivity with other pixels is within a predetermined constant ratio.
In addition, the R, G, B filters are not necessarily completely separated from each other in the pass wavelength band, and are adjacent to the pass wavelength band of other filters in the vicinity of the pass wavelength band boundary (hereinafter referred to as color mixture). May be referred to as an area). When the R, G, and B filters have a mixed color gamut, it can be considered that the calculation accuracy in the demosaicing process is lowered. Therefore, in order to suppress such a decrease in calculation accuracy, the emitted light of the light source device 3 may be controlled. For example, you may comprise so that the wavelength band (mixed color area) where the wavelength band of the emitted light of each LED12a-12c of the light source device 3 may mutually overlap is not included.

なお、上述したデモザイキングの手法は一例であり、各種デモザイキング手法を採用することができる。即ち、本実施の形態においては、カラーフィルタ22を分光特性が異なる2種類の原色フィルタと波長帯域を制限しないYフィルタとによって構成することにより、所定のデモザイキング処理によってRGB信号を得ることができる。   Note that the demosaicing method described above is merely an example, and various demosaicing methods can be employed. That is, in the present embodiment, the color filter 22 is composed of two kinds of primary color filters having different spectral characteristics and a Y filter that does not limit the wavelength band, whereby an RGB signal can be obtained by a predetermined demosaicing process. .

また、NBI観察時においては、被検体6にG,B光の合成光が照射されることがある。この場合には、例えば、図2Aの画素P1からはG信号とB信号との和であるG+Bが得られる。従って、画素P1におけるG信号の推定値G’を用いて、画素P1におけるB信号は、B=Y−G’で求めることができる。複数のB信号を用いた補間処理によって推定値B’を求めるのではなく、該当する画素の入射光に基づくY信号からB信号を求めており、ベイヤー配列を用いた同時式のNBI観察時よりも高い解像度を得ることができる。   Further, during NBI observation, the subject 6 may be irradiated with the combined light of G and B light. In this case, for example, G + B which is the sum of the G signal and the B signal is obtained from the pixel P1 in FIG. 2A. Therefore, the B signal at the pixel P1 can be obtained by B = Y−G ′ using the estimated value G ′ of the G signal at the pixel P1. Rather than obtaining the estimated value B ′ by interpolation processing using a plurality of B signals, the B signal is obtained from the Y signal based on the incident light of the corresponding pixel, and from the simultaneous NBI observation using the Bayer array High resolution can be obtained.

本実施の形態においては、色選択フィルタによって分光されない色成分については、上述したように演算によって算出するようになっている。この演算において色成分を高精度に算出できるように、Rフィルタとしては、黄(Ye)とRとの間の波長帯域ともいえる570−750nmの波長帯域を通過帯域とする分光特性のフィルタを採用することが好ましい。また、Bフィルタとしては、紫(V)とBとの間の波長帯域ともいえる385−495nmの波長帯域を通過帯域とする分光特性のフィルタを採用することが好ましい。また、Gフィルタとしては、赤(R)と青(B)との間の波長帯域ともいえる450−650nmの波長帯域を通過帯域とする分光特性のフィルタを採用することが好ましい。   In the present embodiment, the color components that are not separated by the color selection filter are calculated by calculation as described above. In order to be able to calculate the color component with high accuracy in this calculation, a filter having a spectral characteristic having a pass band of a wavelength band of 570 to 750 nm that can be said to be a wavelength band between yellow (Ye) and R is adopted as the R filter. It is preferable to do. Further, as the B filter, it is preferable to employ a filter having a spectral characteristic having a pass band in the wavelength band of 385 to 495 nm, which can be said to be a wavelength band between purple (V) and B. Further, as the G filter, it is preferable to employ a spectral characteristic filter having a wavelength band of 450 to 650 nm, which can be said to be a wavelength band between red (R) and blue (B).

このように本実施の形態における内視鏡においては、リアルタイム性に優れた同時式で駆動することができる。更に、本実施の形態においては、面順次式での駆動も可能である。   As described above, the endoscope according to the present embodiment can be driven simultaneously with excellent real-time characteristics. Further, in the present embodiment, it is possible to drive in a frame sequential manner.

(面順次式におけるデモザイキングの例(原色フィルタ))
面順次式では、被検体6にR光、G光、B光が順次照射され、これらの戻り光が撮像素子19の撮像面に順次入射される。YフィルタはこれらのR光、G光、B光をそのまま透過させる。従って、Y画素については、R光照射時にはR画素と同様にR信号を出力し、G光照射時にはG画素と同様にG信号を出力し、B光照射時にはB画素と同様にB信号を出力する。
(Example of demosaicing in surface sequential type (primary color filter))
In the surface sequential method, the subject 6 is sequentially irradiated with R light, G light, and B light, and these return lights are sequentially incident on the imaging surface of the image sensor 19. The Y filter transmits these R light, G light, and B light as they are. Therefore, for the Y pixel, the R signal is output in the same manner as the R pixel when the R light is irradiated, the G signal is output as in the G pixel when the G light is irradiated, and the B signal is output in the same manner as the B pixel when the B light is irradiated. To do.

図3A〜図3Cは、それぞれ図2Aに示すカラーフィルタ22を採用した場合におけるR光、G光、B光の照射によって得られる信号を示す説明図である。図3A〜図3Cにおいて、R,G,Bは夫々R信号、G信号、B信号を示している。
図3Aに示すように、図2Aに示すパターンでは、R光を照射した場合には2×2画素のうち2画素がR画素と同様にR信号を出力する。なお、残りの2画素については、各画素の周囲の画素から得られる複数のR信号を用いた補間処理によって求めることができる。
3A to 3C are explanatory diagrams illustrating signals obtained by irradiation with R light, G light, and B light when the color filter 22 illustrated in FIG. 2A is employed. 3A to 3C, R, G, and B indicate an R signal, a G signal, and a B signal, respectively.
As shown in FIG. 3A, in the pattern shown in FIG. 2A, when R light is irradiated, two pixels out of 2 × 2 pixels output an R signal in the same manner as the R pixel. Note that the remaining two pixels can be obtained by interpolation processing using a plurality of R signals obtained from pixels around each pixel.

また、図3Bに示すように、図2Aに示すパターンでは、G光を照射した場合には、2×2画素のうち3画素がG画素と同様にG信号を出力する。なお、残りの1画素については、当該画素の周囲の画素から得られる複数のG信号を用いた補間処理によって求めることができる。   As shown in FIG. 3B, in the pattern shown in FIG. 2A, when G light is irradiated, 3 pixels out of 2 × 2 pixels output a G signal in the same manner as the G pixel. Note that the remaining one pixel can be obtained by interpolation processing using a plurality of G signals obtained from pixels around the pixel.

また、図3Cに示すように、図2Aに示すパターンでは、B光を照射した場合には、2×2画素のうち3画素がB画素と同様にB信号を出力する。なお、残りの1画素については、当該画素の周囲の画素から得られる複数のB信号を用いた補間処理によって求めることができる。   As shown in FIG. 3C, in the pattern shown in FIG. 2A, when B light is irradiated, three pixels out of 2 × 2 pixels output a B signal in the same manner as the B pixel. The remaining one pixel can be obtained by interpolation processing using a plurality of B signals obtained from pixels around the pixel.

なお、ベイヤー配列のカラーフィルタを採用した場合において面順次式で内視鏡システムを駆動すると、R光照射時に2×2画素のうち1画素からR信号が得られ、B光照射時に2×2画素のうち1画素からB信号が得られ、G光照射時に2×2画素のうち2画素からG信号が得られるのみである。従って、ベイヤー配列を採用したイメージャを用いた場合には、面順次式では十分な解像度が得られない。   When the endoscope system is driven in a frame sequential manner when a Bayer color filter is employed, an R signal is obtained from one pixel out of 2 × 2 pixels when irradiated with R light, and 2 × 2 when irradiated with B light. A B signal is obtained from one pixel of the pixels, and a G signal is obtained only from two of the 2 × 2 pixels at the time of G light irradiation. Therefore, when an imager employing a Bayer arrangement is used, sufficient resolution cannot be obtained by the frame sequential method.

これに対し、本実施の形態においては、カラーフィルタ22を分光特性が異なる2種類の原色フィルタと波長帯域を制限しないYフィルタとによって構成することにより、面順次式を採用した場合でも、十分な解像度のRGB信号を得ることができる。特に、NBI観察時においては、被検体6にG光又はB光を面順次に照射するので、この場合には、全画素の3/4の画素がG画素又はB画素と同様の動作をすることになり、ベイヤー配列を用いた場合よりも極めて高い解像度を得ることができる。
なお、図3A〜図3Cでは図2Aのカラーフィルタの例のみを説明したが、図2B〜図2Eのカラーフィルタの場合も同様に十分な解像度を得ることができる。
On the other hand, in the present embodiment, the color filter 22 is composed of two kinds of primary color filters having different spectral characteristics and a Y filter that does not limit the wavelength band. A resolution RGB signal can be obtained. In particular, during NBI observation, the subject 6 is irradiated with G light or B light in a surface sequential manner. In this case, 3/4 of all pixels operate in the same manner as the G pixel or B pixel. In other words, it is possible to obtain an extremely higher resolution than when the Bayer array is used.
Although only the example of the color filter of FIG. 2A has been described in FIGS. 3A to 3C, sufficient resolution can be obtained in the case of the color filter of FIGS. 2B to 2E.

(補色フィルタの例)
図4A〜図4Eはカラーフィルタ22として補色系の色選択フィルタを用いた場合の色配列パターンを示す説明図である。図4A〜図4Cにおいて、Mgはマゼンタ(Mg)光の波長帯域を透過する色選択フィルタ(以下、Mgフィルタという)を示し、Cyはシアン(Cy)光の波長帯域を透過する色選択フィルタ(以下、Cyフィルタという)を示しており、YはYフィルタである。
(Example of complementary color filter)
4A to 4E are explanatory views showing color arrangement patterns when a complementary color selection filter is used as the color filter 22. 4A to 4C, Mg indicates a color selection filter (hereinafter referred to as Mg filter) that transmits the wavelength band of magenta (Mg) light, and Cy indicates a color selection filter that transmits the wavelength band of cyan (Cy) light ( Hereinafter, it is referred to as a Cy filter), and Y is a Y filter.

図4A〜図4Cにおいても、光電変換を行う受光素子を構成する各画素に対して、水平及び垂直に2×2毎に同一の色配列パターンのカラーフィルタ22がそれぞれ配設されることを示している。図4AはYフィルタが2×2画素の斜めの2画素に配置され、残りの2画素に1画素ずつMgフィルタとCyフィルタとがそれぞれ配置される例を示している。また、図4BはYフィルタが2×2画素の垂直方向の2画素に並んで配置され、残りの2画素に1画素ずつMgフィルタとCyフィルタとがそれぞれ配置される例を示している。また、図4CはYフィルタが2×2画素の水平方向の2画素に並んで配置され、残りの2画素に1画素ずつMgフィルタとCyフィルタとがそれぞれ配置される例を示している。   4A to 4C also show that the color filters 22 having the same color arrangement pattern are arranged horizontally and vertically every 2 × 2 for each pixel constituting the light receiving element that performs photoelectric conversion. ing. FIG. 4A shows an example in which the Y filter is arranged in two diagonal pixels of 2 × 2 pixels, and the Mg filter and the Cy filter are arranged in the remaining two pixels, one pixel each. FIG. 4B shows an example in which Y filters are arranged in two vertical pixels of 2 × 2 pixels, and an Mg filter and a Cy filter are arranged for each of the remaining two pixels. FIG. 4C shows an example in which Y filters are arranged in two horizontal pixels of 2 × 2 pixels, and an Mg filter and a Cy filter are arranged for each of the remaining two pixels.

即ち、図4A〜図4Cの例は、いずれも、全画素のうちの50%の画素にYフィルタが配置され、残りの50%の画素のうちの半分(全体の25%)の画素に補色フィルタであるMgフィルタが配置され、残りの画素(全体の25%の画素)に補色フィルタであるCyフィルタが配置される例を示している。なお、本実施の形態においては、補色フィルタを用いる場合においても、Yフィルタは全画素のうちの50%以上の画素に配置されていてもよい。   That is, in all of the examples of FIGS. 4A to 4C, Y filters are arranged in 50% of all pixels, and complementary colors are used for half of the remaining 50% pixels (25% of all pixels). An example is shown in which an Mg filter that is a filter is disposed, and a Cy filter that is a complementary color filter is disposed on the remaining pixels (25% of the pixels). In the present embodiment, even when a complementary color filter is used, the Y filter may be arranged in 50% or more of all pixels.

上述したように、本実施の形態においては、カラーフィルタ22としては、2種類の分光特性を有する補色フィルタとYフィルタとにより構成されるフィルタを採用することができ、図4A〜図4CのMgフィルタに代えて、黄(Ye)光の波長帯域を透過する色選択フィルタ(以下、Yeフィルタという)を用いて、Ye,Cy,Yフィルタによってカラーフィルタ22を構成してもよい。例えば、図4Dは図4AのMgフィルタに代えてYeフィルタを採用した例を示している。また、図4A〜図4CのCyフィルタに代えて、Yeフィルタを採用して、Ye,Mg,Yフィルタによってカラーフィルタ22を構成してもよい。例えば、図4Eは図4AのCyフィルタに代えてYeフィルタを採用した例を示している。   As described above, in the present embodiment, the color filter 22 may be a filter composed of a complementary color filter having two types of spectral characteristics and a Y filter, and the Mg of FIGS. 4A to 4C. Instead of the filter, a color selection filter (hereinafter referred to as a Ye filter) that transmits the wavelength band of yellow (Ye) light may be used, and the color filter 22 may be configured by Ye, Cy, and Y filters. For example, FIG. 4D shows an example in which a Ye filter is adopted instead of the Mg filter of FIG. 4A. Further, instead of the Cy filter of FIGS. 4A to 4C, a Ye filter may be adopted, and the color filter 22 may be configured by Ye, Mg, and Y filters. For example, FIG. 4E shows an example in which a Ye filter is adopted instead of the Cy filter in FIG. 4A.

(同時式におけるデモザイキングの例(補色フィルタ))
Mgフィルタ、Cyフィルタ、Yeフィルタ又はYフィルタが配置された各画素をそれぞれMg画素、Cy画素、Ye画素、Y画素といい、これらのMg画素、Cy画素、Ye画素、Y画素の光電変換により得られる画素信号をそれぞれMg信号、Cy信号、Ye信号、Y信号というものとする。
(Simultaneous demosaicing example (complementary color filter))
Each pixel in which the Mg filter, Cy filter, Ye filter, or Y filter is arranged is referred to as an Mg pixel, Cy pixel, Ye pixel, and Y pixel, respectively, and photoelectric conversion of these Mg pixel, Cy pixel, Ye pixel, and Y pixel is performed. The obtained pixel signals are referred to as Mg signal, Cy signal, Ye signal, and Y signal, respectively.

Cyフィルタは、G光とB光を透過し、YeフィルタはR光とB光を透過し、MgフィルタはR光とG光とを透過する。即ち、Cyフィルタは白色光からR光を吸収する。例えば、被検体6に白色光を照射した場合には、図4Aの画素P1については、R=Y−Cy’が成立する。なお、Cy’は、画素P1におけるCy信号の推定値Cy’を示している。同様に、画素P1におけるMg信号の推定値Mg’を用いて、画素P1については、G=Y−Mg’が成立する。また、画素P1におけるB信号は、B=Y−R−Gによって得られる。   The Cy filter transmits G light and B light, the Ye filter transmits R light and B light, and the Mg filter transmits R light and G light. That is, the Cy filter absorbs R light from white light. For example, when the subject 6 is irradiated with white light, R = Y−Cy ′ is established for the pixel P1 in FIG. 4A. Cy ′ represents an estimated value Cy ′ of the Cy signal in the pixel P1. Similarly, G = Y−Mg ′ is established for the pixel P1 using the estimated value Mg ′ of the Mg signal in the pixel P1. Further, the B signal in the pixel P1 is obtained by B = YRG.

こうして、画素P1について、R信号、G信号、B信号を求めることができる。同様の手法によって、他の画素P2〜P4についてもR,G,B信号を求めることができる。   Thus, the R signal, the G signal, and the B signal can be obtained for the pixel P1. By the same method, R, G, B signals can be obtained for the other pixels P2 to P4.

なお、上述したデモザイキングの手法は一例であり、各種デモザイキング手法を採用することができる。即ち、本実施の形態においては、カラーフィルタ22を分光特性が異なる2種類の補色フィルタと波長帯域を制限しないYフィルタとによって構成することにより、所定のデモザイキング処理によってRGB信号を得ることができる。   Note that the demosaicing method described above is merely an example, and various demosaicing methods can be employed. That is, in the present embodiment, the color filter 22 is composed of two types of complementary color filters having different spectral characteristics and a Y filter that does not limit the wavelength band, whereby an RGB signal can be obtained by a predetermined demosaicing process. .

また、NBI観察時において、被検体6にG,B光の合成光が照射されることがある。Mg画素はB光を透過するので、この場合には、Mg画素はB信号を出力すると考えることができる。Y画素からはB信号とG信号の和であるB+Gが出力される。また、Cy画素からもB信号とG信号の和であるG+Bが得られる。従って、Y画素及びCy画素については、B信号の推定値B’を減算することで、G信号を求めることができる。複数のG信号を用いた補間処理によって推定値G’を求めるのではなく、該当する画素の入射光に基づく信号からG信号を求めており、ベイヤー配列を用いた同時式のNBI観察時よりも高い解像度を得ることができる。   In addition, during the NBI observation, the subject 6 may be irradiated with the combined light of G and B light. Since the Mg pixel transmits B light, in this case, it can be considered that the Mg pixel outputs a B signal. From the Y pixel, B + G which is the sum of the B signal and the G signal is output. Further, G + B, which is the sum of the B signal and the G signal, is also obtained from the Cy pixel. Therefore, for the Y pixel and the Cy pixel, the G signal can be obtained by subtracting the estimated value B ′ of the B signal. Rather than obtaining the estimated value G ′ by interpolation processing using a plurality of G signals, the G signal is obtained from the signal based on the incident light of the corresponding pixel, and compared with the simultaneous NBI observation using the Bayer array. High resolution can be obtained.

このように、補色フィルタを用いた場合でも、色選択フィルタによって分光されない色成分については、上述したように演算によって算出するようになっている。この演算において色成分を高精度に算出できるように、Mgフィルタとしては、Mgの波長帯域ともいえる385−480nm,610−700nmの波長帯域を通過帯域とする分光特性のフィルタを採用することが好ましい。また、Cyフィルタとしては、Cyの波長帯域ともいえる385−610nmの波長帯域を通過帯域とする分光特性のフィルタを採用することが好ましい。また、Yeフィルタとしては、B光とR光の波長帯域の間の波長帯域とも言える470−750nmの波長帯域を通過帯域とする分光特性のフィルタを採用することが好ましい。   Thus, even when the complementary color filter is used, the color components that are not spectrally separated by the color selection filter are calculated by calculation as described above. In order to calculate the color component with high accuracy in this calculation, it is preferable to employ a filter having spectral characteristics having a pass band in the wavelength band of 385-480 nm and 610-700 nm, which can be said to be the wavelength band of Mg, as the Mg filter. . Further, as the Cy filter, it is preferable to employ a spectral characteristic filter having a 385-610 nm wavelength band as a pass band, which can be said to be a Cy wavelength band. Further, as the Ye filter, it is preferable to employ a filter having spectral characteristics having a pass band of a wavelength band of 470 to 750 nm that can be said to be a wavelength band between the wavelength bands of the B light and the R light.

このように本実施の形態における内視鏡においては、補色フィルタを用いた場合においても、リアルタイム性に優れた同時式で駆動することができる。更に、補色フィルタを採用した場合においても、面順次式での駆動も可能である。   As described above, the endoscope according to the present embodiment can be driven simultaneously with excellent real-time characteristics even when the complementary color filter is used. Further, even when a complementary color filter is employed, it is possible to drive in a frame sequential manner.

(面順次式におけるデモザイキングの例(補色フィルタ))
面順次式では、被検体6にR光、G光、B光が順次照射され、これらの戻り光が撮像素子19の撮像面に順次入射される。YフィルタはこれらのR光、G光、B光をそのまま透過させる。従って、Y画素については、R光照射時にはR画素と同様にR信号を出力し、G光照射時にはG画素と同様にG信号を出力し、B光照射時にはB画素と同様にB信号を出力する。
(Example of demosaicing in frame sequential type (complementary color filter))
In the surface sequential method, the subject 6 is sequentially irradiated with R light, G light, and B light, and these return lights are sequentially incident on the imaging surface of the image sensor 19. The Y filter transmits these R light, G light, and B light as they are. Therefore, for the Y pixel, the R signal is output in the same manner as the R pixel when the R light is irradiated, the G signal is output as in the G pixel when the G light is irradiated, and the B signal is output in the same manner as the B pixel when the B light is irradiated. To do.

図5A〜図5Cは、それぞれ図4Aに示すカラーフィルタ22を採用した場合におけるR光、G光、B光の照射によって得られる信号を示す説明図である。図5A〜図5Cにおいて、R,G,Bは夫々R信号、G信号、B信号を示している。図5Aに示すように、図4Aのパターンでは、R光を照射した場合には2×2画素のうちCy画素を除く3画素がR画素と同様にR信号を出力する。なお、残りの1画素については、各画素の周囲の画素から得られる複数のR信号を用いた補間処理によって求めることができる。   5A to 5C are explanatory diagrams illustrating signals obtained by irradiation with R light, G light, and B light when the color filter 22 illustrated in FIG. 4A is employed. 5A to 5C, R, G, and B indicate an R signal, a G signal, and a B signal, respectively. As shown in FIG. 5A, in the pattern of FIG. 4A, when R light is irradiated, three pixels excluding Cy pixels out of 2 × 2 pixels output R signals in the same manner as R pixels. Note that the remaining one pixel can be obtained by interpolation processing using a plurality of R signals obtained from pixels around each pixel.

また、図5Bに示すように、図4Aのパターンでは、G光を照射した場合には、2×2画素のうちMg画素を除く3画素がG画素と同様にG信号を出力する。なお、残りの1画素については、当該画素の周囲の画素から得られる複数のG信号を用いた補間処理によって求めることができる。   Further, as shown in FIG. 5B, in the pattern of FIG. 4A, when G light is irradiated, three pixels excluding Mg pixels out of 2 × 2 pixels output G signals in the same manner as the G pixels. Note that the remaining one pixel can be obtained by interpolation processing using a plurality of G signals obtained from pixels around the pixel.

また、図5Cに示すように、図4Aのパターンでは、B光を照射した場合には、2×2画素の全ての画素がB画素と同様にB信号を出力する。   Further, as shown in FIG. 5C, in the pattern of FIG. 4A, when the B light is irradiated, all pixels of 2 × 2 pixels output B signals in the same manner as the B pixels.

本実施の形態においては、カラーフィルタ22を分光特性が異なる2種類の補色フィルタと波長帯域を制限しないYフィルタとによって構成することにより、面順次式を採用した場合でも、十分な解像度のRGB信号を得ることができる。特に、NBI観察時においては、ベイヤー配列を用いた場合よりも極めて高い解像度を得ることができる。
なお、図5A〜図5Cでは図4Aのカラーフィルタの例のみを説明したが、図4B〜図4Eのカラーフィルタの場合も同様に十分な解像度を得ることができる。
In the present embodiment, the color filter 22 is composed of two types of complementary color filters having different spectral characteristics and a Y filter that does not limit the wavelength band, so that an RGB signal with sufficient resolution can be obtained even when the frame sequential method is adopted. Can be obtained. In particular, at the time of NBI observation, an extremely higher resolution can be obtained than when the Bayer array is used.
Although only the example of the color filter of FIG. 4A has been described in FIGS. 5A to 5C, sufficient resolution can be obtained similarly in the case of the color filter of FIGS. 4B to 4E.

図6はデモザイキング処理を行う画像処理部27の具体的な構成を示すブロック図である。   FIG. 6 is a block diagram showing a specific configuration of the image processing unit 27 that performs demosaicing processing.

画像処理部27は、画像処理部27内の複数の回路の制御を行う制御回路31を有している。制御回路31は、図示しないCPU等を用いたプロセッサによって構成することができ、メモリに記憶されたプログラムに従って各部を制御することができるようになっていてもよい。画像処理部27には撮像部21からの撮像信号が入力される。前処理回路32は、入力された撮像信号に対して、制御回路31内のメモリ31aに予め格納されているパラメータ値を用いて、撮像信号におけるOB(オプティカルブラック)をクランプして黒レベルを決定する処理や、撮像素子19の欠陥画素に対する補正処理、ノイズ低減処理等を行う。
前処理回路32の出力信号は、ゲイン調整用のアンプ33に入力される。アンプ33は、制御回路31に制御されて、撮像信号を増幅してA/D変換回路34に出力する。制御回路31は、調光検波された検波値に基づいてアンプ33のゲインを調整することにより、カラーモニタ5に表示される内視鏡画像の明るさを調整する。A/D変換回路34は、入力されたアナログの撮像信号をデジタルの撮像信号に変換する。A/D変換回路34の出力信号は、デモザイキング処理回路35に与えられる。
The image processing unit 27 includes a control circuit 31 that controls a plurality of circuits in the image processing unit 27. The control circuit 31 can be configured by a processor using a CPU or the like (not shown), and may be configured to control each unit according to a program stored in the memory. The image processing unit 27 receives an imaging signal from the imaging unit 21. The pre-processing circuit 32 clamps OB (optical black) in the imaging signal and determines a black level using the parameter value stored in advance in the memory 31a in the control circuit 31 for the input imaging signal. Processing, correction processing for defective pixels of the image sensor 19, noise reduction processing, and the like are performed.
The output signal of the preprocessing circuit 32 is input to an amplifier 33 for gain adjustment. The amplifier 33 is controlled by the control circuit 31 to amplify the imaging signal and output it to the A / D conversion circuit 34. The control circuit 31 adjusts the brightness of the endoscopic image displayed on the color monitor 5 by adjusting the gain of the amplifier 33 based on the detection value subjected to the light modulation detection. The A / D conversion circuit 34 converts the input analog imaging signal into a digital imaging signal. The output signal of the A / D conversion circuit 34 is given to the demosaicing processing circuit 35.

デモザイキング処理回路35は、内視鏡が同時式で駆動される場合には、色抽出処理や補間処理等を行ってR,G,B信号を得る。また、デモザイキング処理回路35は、内視鏡が面順次式で駆動される場合には、面順次で入力されるR,G,B信号に補間処理を施した後、面順次でR,G,B信号を出力する。面順次式の場合には、面順次で入力されるR,G,B信号を同時化する必要があり、同時式の場合にはこの同時化処理は不要である。   When the endoscope is driven simultaneously, the demosaicing processing circuit 35 performs color extraction processing, interpolation processing, and the like to obtain R, G, and B signals. Further, when the endoscope is driven in a frame sequential manner, the demosaicing processing circuit 35 performs an interpolation process on the R, G, B signals input in the frame sequential manner, and then performs the R, G in the frame sequential manner. , B signals are output. In the case of the frame sequential type, it is necessary to synchronize the R, G, B signals input in the frame sequential manner, and in the case of the simultaneous type, this synchronization processing is unnecessary.

本実施の形態においては、内視鏡を同時式及び面順次式で駆動することができることから、デモザイキング処理回路35の出力は、スイッチ36aを介して同時化回路38に供給されるようになっている。また、デモザイキング処理回路35の出力は、スイッチ36a,36bを介してホワイトバランス回路40にも供給される。   In the present embodiment, since the endoscope can be driven simultaneously and in a frame sequential manner, the output of the demosaicing processing circuit 35 is supplied to the synchronization circuit 38 via the switch 36a. ing. The output of the demosaicing processing circuit 35 is also supplied to the white balance circuit 40 via the switches 36a and 36b.

スイッチ36a,36bは、制御回路31によって制御されて、内視鏡が同時式で駆動される場合には、デモザイキング処理回路の35の出力を同時化回路38に与え、内視鏡が順次式で駆動される場合には、デモザイキング処理回路の35の出力を直接ホワイトバランス回路40に与える。   The switches 36a and 36b are controlled by the control circuit 31 and when the endoscope is driven in a simultaneous manner, the output of the demosaicing processing circuit 35 is supplied to the synchronization circuit 38, and the endoscope is sequentially operated. , The output of the demosaicing processing circuit 35 is directly supplied to the white balance circuit 40.

画像処理部27には、同時化のために、例えば3つのメモリ39R,39G,39Bを備えたメモリ部39を有する。 同時化回路38は、照明光がR光の場合に得られた撮像信号をメモリ39Rに記憶させ、照明光がG光の場合に得られた撮像信号をメモリ39Gに記憶させ、照明光がB光の場合に得られた撮像信号をメモリ39Bに記憶させる。同時化回路38は、異なるタイミングで取得されたR,G,B信号をメモリ部39から読み出すことにより同時化し、スイッチ36bを介してホワイトバランス回路40に出力する。   The image processing unit 27 includes a memory unit 39 including, for example, three memories 39R, 39G, and 39B for synchronization. The synchronization circuit 38 stores the imaging signal obtained when the illumination light is R light in the memory 39R, and stores the imaging signal obtained when the illumination light is G light in the memory 39G. The imaging signal obtained in the case of light is stored in the memory 39B. The synchronization circuit 38 reads out the R, G, and B signals acquired at different timings from the memory unit 39 and outputs them to the white balance circuit 40 via the switch 36b.

ホワイトバランス回路40は、デモザイキング処理回路35又は同時化回路38からのR,G,B信号が入力される。ホワイトバランス回路40は、例えば3つのゲイン可変アンプにより構成されて、入力されたR,G,B信号のホワイトバランスを調整して後処理回路41及び調光回路42に出力する。   The white balance circuit 40 receives R, G, B signals from the demosaicing processing circuit 35 or the synchronization circuit 38. The white balance circuit 40 is composed of, for example, three gain variable amplifiers, adjusts the white balance of the input R, G, and B signals and outputs the adjusted white balance to the post-processing circuit 41 and the dimming circuit 42.

後処理回路41は、例えば、制御回路31のメモリ31aに予め保存されている階調変数係数や色変換係数、輪郭強調係数を用いて、階調変換処理や、色強調処理、輪郭強調処理を行い、処理後のR,G,B信号を表示用画像信号としてカラーモニタ5に出力する。こうして、カラーモニタ5は、撮像部21により撮像した被検体6の画像を表示する。   The post-processing circuit 41 performs, for example, gradation conversion processing, color enhancement processing, and contour enhancement processing using the gradation variable coefficient, color conversion coefficient, and edge enhancement coefficient stored in advance in the memory 31a of the control circuit 31. The processed R, G, B signals are output to the color monitor 5 as display image signals. In this way, the color monitor 5 displays the image of the subject 6 captured by the imaging unit 21.

調光回路42は、ホワイトバランス回路40から入力される信号から輝度信号を生成し、例えば輝度信号の平均値の信号を明るさ信号として生成し、目標とする明るさとの差分となる信号を調光信号としてLED発光制御回路13に出力する。LED発光制御回路13は、内視鏡画像の 明るさが目標とする明るさになるように、調光信号に基づいてLED12a〜12cの発光量を制御するようになっている。   The dimming circuit 42 generates a luminance signal from the signal input from the white balance circuit 40, for example, generates a signal having an average value of the luminance signal as a brightness signal, and adjusts a signal that is a difference from the target brightness. It outputs to the LED light emission control circuit 13 as an optical signal. The LED light emission control circuit 13 controls the light emission amounts of the LEDs 12a to 12c based on the dimming signal so that the brightness of the endoscope image becomes a target brightness.

次に、このように構成された実施の形態の動作について説明する。   Next, the operation of the embodiment configured as described above will be described.

いま、通常観察を行うものとする。光源装置3は、LED12a〜LED12cを制御して、同時式の場合には集光レンズ15から白色光を出射させ、面順次式の場合には集光レンズ15からR,G,B光をフレーム毎に出力させる。光源装置3の出射光はライトガイド11を介して挿入部7の先端に導かれて照明レンズ16から被検体6に照射される。被検体6からの戻り光は、対物レンズ18を介して撮像素子19に入射する。撮像素子19の画素に対向して設けられたカラーフィルタ22によって、撮像素子19の各画素に入射する光の波長帯域が制限される。   Now, normal observation shall be performed. The light source device 3 controls the LEDs 12a to 12c to emit white light from the condenser lens 15 in the case of the simultaneous type, and to frame R, G, B light from the condenser lens 15 in the case of the frame sequential type. Output every time. The light emitted from the light source device 3 is guided to the distal end of the insertion portion 7 through the light guide 11 and is irradiated onto the subject 6 from the illumination lens 16. The return light from the subject 6 enters the image sensor 19 through the objective lens 18. The color filter 22 provided opposite to the pixels of the image sensor 19 limits the wavelength band of light incident on each pixel of the image sensor 19.

カラーフィルタ22は、2種類の分光特性を有する原色フィルタとYフィルタによる色選択フィルタによって構成されているか、又は、2種類の分光特性を有する補色フィルタとYフィルタによる色選択フィルタによって構成されており、いずれの場合にも、Yフィルタは、全画素の50%以上の画素に対向して設けられている。Yフィルタが配置されている状態は、色選択フィルタが配置されていない状態又は透明フィルタ等が配置されている状態であり、Yフィルタが配置されたY画素には、入射光が波長帯域を制限されることなくそのまま入射される。   The color filter 22 includes a primary color filter having two types of spectral characteristics and a color selection filter using a Y filter, or a complementary color filter having two types of spectral characteristics and a color selection filter using a Y filter. In any case, the Y filter is provided to face 50% or more of all pixels. The state where the Y filter is arranged is a state where no color selection filter is arranged or a state where a transparent filter or the like is arranged, and incident light restricts the wavelength band in the Y pixel where the Y filter is arranged. It is incident as it is without being.

従って、同時式においては、Y画素によって得られるY信号はR+G+Bであり、他の2種類の分光特性を有する原色又は補色フィルタに対応する画素によって得られる2種類の信号との演算によって、R,G,B信号を求めることができる。即ち、撮像素子19からの撮像信号はプロセッサ4に伝送され、画像処理部27内のデモザイキング処理回路35によってデモザイキングされてR,G,B信号が得られる。デモザイキング処理回路35の出力は、スイッチ36a,36bを介してホワイトバランス回路40に供給され、ホワイトバランス処理された後、後処理回路41を介してモニタ5に供給される。こうして、モニタ5において被検体6の内視鏡画像が観察可能となる。   Therefore, in the simultaneous expression, the Y signal obtained by the Y pixel is R + G + B, and R, G, and B are obtained by calculation with two types of signals obtained by the pixels corresponding to the other two primary colors or complementary color filters. G and B signals can be obtained. That is, the image pickup signal from the image pickup device 19 is transmitted to the processor 4 and demosaiced by the demosaicing processing circuit 35 in the image processing unit 27 to obtain R, G, B signals. The output of the demosaicing processing circuit 35 is supplied to the white balance circuit 40 via the switches 36 a and 36 b, subjected to white balance processing, and then supplied to the monitor 5 via the post-processing circuit 41. In this way, an endoscopic image of the subject 6 can be observed on the monitor 5.

また、面順次においては、Y画素によって得られるY信号はR信号、G信号又はB信号であり、他の2種類の分光特性を有する原色又は補色フィルタに対応する画素によって得られる2種類の信号とによって、十分な解像度のR,G,B信号を面順次に得ることができる。即ち、撮像素子19からの撮像信号はプロセッサ4に伝送され、画像処理部27内のデモザイキング処理回路35によって補間処理が行われてR,G,B信号が得られる。デモザイキング処理回路35の出力は、スイッチ36aを介して同時化回路38に供給されて同時化処理される。同時化されたR,G,B信号は、ホワイトバランス回路40に供給されてホワイトバランス処理された後、後処理回路41を介してモニタ5に供給される。こうして、モニタ5において被検体6の内視鏡画像が観察可能となる。   In the field sequential, Y signals obtained by Y pixels are R signals, G signals, or B signals, and two kinds of signals obtained by pixels corresponding to the other primary color or complementary color filters having two kinds of spectral characteristics. Thus, it is possible to obtain R, G, B signals with sufficient resolution in a frame sequential manner. That is, the image pickup signal from the image pickup device 19 is transmitted to the processor 4, and interpolation processing is performed by the demosaicing processing circuit 35 in the image processing unit 27 to obtain R, G, B signals. The output of the demosaicing processing circuit 35 is supplied to the synchronization circuit 38 via the switch 36a and is synchronized. The synchronized R, G, B signals are supplied to the white balance circuit 40 and subjected to white balance processing, and then supplied to the monitor 5 via the post-processing circuit 41. In this way, an endoscopic image of the subject 6 can be observed on the monitor 5.

また、内視鏡では、可視光の一部の波長のみ使用する観察法や可視光以外の帯域も使用する。この理由から、カラーフィルタ22は、Yフィルタが他の2種類の色選択フィルタよりも多く分布されている。これにより、NBI観察においても高い解像度の画像を得ることができる。   In addition, the endoscope uses an observation method that uses only a part of the wavelength of visible light and a band other than visible light. For this reason, the color filter 22 is distributed more in the Y filter than in the other two types of color selection filters. Thereby, an image with high resolution can be obtained even in NBI observation.

NBI観察においては、光源装置3は、LED12a〜LED12cを制御して、同時式において集光レンズ15からG,B光の合成光を出射させ、面順次式において集光レンズ15からG,B光を順次出力する。従って、Y画素によって得られるY信号は、同時式においてはG+Bであり、面順次式ではG信号又はB信号となる。従って、他の2種類の分光特性を有する原色又は補色フィルタに対応する画素によって得られる2種類の信号を用いた補間処理及びY信号との演算によって、ベイヤー配列のフィルタを用いた場合よりも高い解像度のR,G,B信号を得ることができる。   In the NBI observation, the light source device 3 controls the LEDs 12a to 12c to emit the combined light of G and B light from the condensing lens 15 in a simultaneous manner, and the G and B light from the condensing lens 15 in a surface sequential manner. Are output sequentially. Therefore, the Y signal obtained by the Y pixel is G + B in the simultaneous type, and becomes the G signal or the B signal in the frame sequential type. Accordingly, the interpolation processing using the two types of signals obtained by the pixels corresponding to the other two primary colors having the spectral characteristics or the complementary color filter and the calculation with the Y signal are higher than when the Bayer array filter is used. Resolution R, G, B signals can be obtained.

特に、2種類の分光特性を有する色選択フィルタとして補色フィルタを採用して面順次による駆動を行った場合には、NBI観察において、G,B信号が全画素の3/4の画素を利用することができ、極めて高解像度のR,G,B信号を得ることができる。   In particular, when a complementary color filter is used as a color selection filter having two types of spectral characteristics and driving is performed by plane sequential, G and B signals use 3/4 of all pixels in NBI observation. Therefore, extremely high resolution R, G, B signals can be obtained.

また、赤外光(IR)観察時においては、光源装置3は、赤外光(IR)を照射する。この場合には、Y画素から得られるY信号のみを使用することで、高感度なIR観察が可能となる。   Further, at the time of infrared light (IR) observation, the light source device 3 emits infrared light (IR). In this case, high-sensitivity IR observation is possible by using only the Y signal obtained from the Y pixel.

このように本実施の形態においては、イメージャに採用するカラーフィルタを、2種類の分光特性を有する原色フィルタとYフィルタとによって構成するか、又は、2種類の分光特性を有する補色フィルタとYフィルタとによって構成しており、内視鏡を同時式又は面順次式のいずれで駆動した場合でも、R,G,Bカラー画像を得ることができる。また、Yフィルタを全画素の50%以上配置しており、解像度を向上させることができる。更に、NBI観察や赤外光観察等においても、十分な解像度での撮像が可能である。これにより、1つのイメージャを搭載した内視鏡によって、同時式及び面順次式のいずれの駆動方式においても十分な解像度の内視鏡画像を得ることができる。   As described above, in the present embodiment, the color filter employed in the imager is constituted by the primary color filter and the Y filter having two types of spectral characteristics, or the complementary color filter and the Y filter having two types of spectral characteristics. R, G, B color images can be obtained even when the endoscope is driven either simultaneously or in a sequential manner. In addition, the Y filter is arranged at 50% or more of all pixels, so that the resolution can be improved. Furthermore, imaging with sufficient resolution is also possible in NBI observation, infrared light observation, and the like. As a result, an endoscope image having a sufficient resolution can be obtained by an endoscope equipped with one imager in any of the simultaneous driving method and the frame sequential driving method.

(第2の実施の形態)
図7及び図8は本発明の第2の実施の形態において採用される動作を示すタイミングチャートである。なお、本実施の形態におけるハードウェア構成は図1及び図6と同様であり、説明を省略する。また、図2A〜図2C及び図4A〜図4C等において説明したカラーフィルタ22の構成も第1の実施の形態と同様であり、説明を省略する。
(Second Embodiment)
7 and 8 are timing charts showing the operation employed in the second embodiment of the present invention. Note that the hardware configuration in the present embodiment is the same as that in FIGS. 1 and 6, and a description thereof will be omitted. The configuration of the color filter 22 described in FIGS. 2A to 2C and FIGS. 4A to 4C is the same as that of the first embodiment, and the description thereof is omitted.

本実施の形態は同時式の駆動に面順次式の駆動を組み合わせることで、解像度の向上を図るものである。上述したように、ベイヤー配列のカラーフィルタを採用したイメージャを用いて面順次式の駆動を行うと、G信号及びB信号は、2×2の4画素のうちそれぞれ1画素からしか得られない。これに対し、上述したカラーフィルタ22を採用したイメージャを用いて面順次式の駆動を行うと、図3B、図3C、図5B、図5Cに示すように、G信号及びB信号は、2×2の4画素のうちそれぞれ3画素又は4画素から得られ、解像度が高い。   In this embodiment, resolution is improved by combining frame-sequential driving with simultaneous driving. As described above, when frame-sequential driving is performed using an imager that employs a Bayer color filter, the G signal and the B signal can be obtained from only one of the 2 × 2 four pixels. On the other hand, when frame sequential driving is performed using an imager employing the above-described color filter 22, the G signal and the B signal are 2 × as shown in FIGS. 3B, 3C, 5B, and 5C. 2 pixels are obtained from 3 pixels or 4 pixels, respectively, and the resolution is high.

そこで、本実施の形態においては、白色光を照射して同時式の駆動を行う共に、所定のタイミングで解像度、色再現性、感度の面で優位としたい画像を得るための色光を被写体に照射する。例えば、所定のタイミングでB光のみを照射した場合には、B光について、解像度、色再現性、感度の面で優位な画像を得ることができる。   Therefore, in the present embodiment, simultaneous driving is performed by irradiating white light, and at the same time, the subject is irradiated with colored light for obtaining an image that is desired to be superior in terms of resolution, color reproducibility, and sensitivity. To do. For example, when only B light is irradiated at a predetermined timing, an image superior in terms of resolution, color reproducibility, and sensitivity can be obtained for B light.

図7及び図8は上段に垂直同期信号VDによる垂直期間の開始タイミングを示し、中段に照明期間を示し、下段に撮像信号の読み出し期間を示している。なお、図7及び図8においては、Hによって照明期間及び読み出し期間を示している。なお、図7はローリングシャッタ方式の例を示し、図8グローバルシャッタ方式の例である。   7 and 8 show the start timing of the vertical period by the vertical synchronization signal VD in the upper stage, the illumination period in the middle stage, and the readout period of the imaging signal in the lower stage. 7 and 8, the illumination period and the readout period are indicated by H. FIG. 7 shows an example of the rolling shutter system, and FIG. 8 shows an example of the global shutter system.

ローリングシャッタ方式においては、1ラインの読み出しが終了する毎に、読み出しが終わったラインの画素がリセットされ、各ラインの露光可能期間は相互に異なるタイミングで発生する。従って、ある時点では、読み出しが行われる前のラインについては、前のフレームの露光可能期間であり、読み出しが行われた後のラインについては後のフレームの露光可能期間である。従って、ローリングシャッタ方式においては、撮像信号の読み出し中に照明を行うと、前のフレームの露光用の照明と後のフレームの露光用の照明とが混ざった状態で照明されてしまう。そこで、内視鏡においてローリングシャッタ方式による撮像を行う場合には、読み出し期間以外の期間に照明を行うことがある。   In the rolling shutter system, every time reading of one line is completed, pixels of the line where reading is completed are reset, and exposure possible periods of each line occur at different timings. Accordingly, at a certain point in time, the line before the readout is the exposure possible period of the previous frame, and the line after the readout is the exposure possible period of the subsequent frame. Therefore, in the rolling shutter system, if illumination is performed during readout of an imaging signal, illumination is performed in a state in which illumination for exposure of the previous frame and illumination for exposure of the subsequent frame are mixed. Therefore, when performing imaging by a rolling shutter method in an endoscope, illumination may be performed in a period other than the readout period.

図7はこの場合の例を示しており、Hで示す撮像信号の読み出し期間には、Lで示すように照明は行われず、Lで示すように撮像信号の読み出し期間が終了すると、Hで示すように照明が開始される。そして、この照明によって撮像素子19に得られる撮像信号は、次の垂直期間に読み出される。   FIG. 7 shows an example of this case. In the readout period of the imaging signal indicated by H, illumination is not performed as indicated by L, and is indicated by H when the readout period of the imaging signal ends as indicated by L. Illumination is started. And the imaging signal obtained by the imaging device 19 by this illumination is read in the next vertical period.

なお、図8はグローバルシャッタ方式の例であり、画素信号の読み出し期間と同一の期間に露光期間を設定した点のみが図7と異なるのみである。   FIG. 8 shows an example of the global shutter system, which differs from FIG. 7 only in that the exposure period is set in the same period as the pixel signal readout period.

図7及び図8においてハッチング以外の照明期間には、光源装置3は白色光を照射するようになっている。また、駆動部26は、撮像素子19を同時式で駆動し、画像処理部27は、撮像素子19の出力をデモザイキング処理してR,G,B信号を得る。   7 and 8, the light source device 3 emits white light during an illumination period other than hatching. The drive unit 26 drives the image sensor 19 simultaneously, and the image processing unit 27 performs demosaicing processing on the output of the image sensor 19 to obtain R, G, and B signals.

本実施の形態においては、同時式での駆動途中の所定タイミングにおいて、光源装置3は所定の色光の照明光を出射する。図7及び図8ではハッチングによって所定の色光の照明光の照明期間を示している。この照明期間の次のフレーム期間(ハッチングの期間)において、駆動部26は、撮像素子19を面順次式に駆動して撮像信号を読み出し、画像処理部27は、撮像素子19の出力を補間処理する。画像処理部27は、同時式での駆動時にデモザイキング処理によって得たR,G,B信号に、面順次式の駆動時に補間処理によって得た所定色の画像を合成して、R,G,B信号を取得する。   In the present embodiment, the light source device 3 emits illumination light of a predetermined color light at a predetermined timing during simultaneous driving. 7 and 8 show an illumination period of illumination light of a predetermined color light by hatching. In the next frame period (hatching period) after the illumination period, the drive unit 26 drives the image pickup device 19 in a frame sequential manner to read out an image pickup signal, and the image processing unit 27 interpolates the output of the image pickup device 19. To do. The image processing unit 27 synthesizes the R, G, B signals obtained by the demosaicing processing at the time of simultaneous driving and the image of a predetermined color obtained by the interpolation processing at the time of frame sequential driving, B signal is acquired.

例えば、面順次式の駆動時に、光源装置3から照明光としてB光を出射させる。例えば、図4Aの補色フィルタとYフィルタによるカラーフィルタ22が採用された場合には、B光の照明によって、図5Cに示すように全画素からB信号を得ることが可能である。このB信号を同時式での駆動により得られたR,G,B信号と合成することにより、B信号については、解像度、色再現性、感度の面で優位な画像を得ることができる。   For example, B light is emitted from the light source device 3 as illumination light during frame sequential driving. For example, when the color filter 22 including the complementary color filter and the Y filter in FIG. 4A is employed, it is possible to obtain B signals from all the pixels as shown in FIG. 5C by illumination with B light. By synthesizing this B signal with the R, G, B signals obtained by simultaneous driving, an image superior in terms of resolution, color reproducibility and sensitivity can be obtained for the B signal.

なお、面順次式の駆動時に、出射させる光としては、B光に限らず、R光、G光でもよく、また、NBI観察や赤外光観察に用いる色光を出射させてもよい。また、面順次式での駆動は、所定の周期で行うようにしてもよく、周期的でない任意のタイミングで行うようにしてもよい。   Note that the light to be emitted at the time of the frame sequential driving is not limited to the B light, but may be R light or G light, or color light used for NBI observation or infrared light observation may be emitted. Further, the frame sequential driving may be performed at a predetermined cycle or may be performed at an arbitrary timing that is not periodic.

このように本実施の形態においては、イメージャが同時式及び面順次式のいずれで駆動された場合でも、十分な解像度の信号を得ることができることを利用して、同時式によって得られるR,G,B信号と、面順次式で所定の色光に基づいて得た信号とを合成することにより、所定の色光に対応する画像については、解像度、色再現性、感度の面で優位な画像を得ることができる。   As described above, in the present embodiment, R and G obtained by the simultaneous method can be obtained by utilizing the fact that a signal having a sufficient resolution can be obtained regardless of whether the imager is driven by the simultaneous method or the frame sequential method. , B signal and a signal obtained based on a predetermined color light in a frame sequential manner, an image superior in terms of resolution, color reproducibility and sensitivity is obtained for an image corresponding to the predetermined color light. be able to.

本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。   The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, you may delete some components of all the components shown by embodiment.

1…内視鏡システム、2…内視鏡、3…光源装置、4…プロセッサ、7…挿入部、11…ライトガイド、12a〜12c…LED、13…LED発光制御回路、19…撮像素子、21…撮像部、22…カラーフィルタ、27…画像処理部。     DESCRIPTION OF SYMBOLS 1 ... Endoscopy system, 2 ... Endoscope, 3 ... Light source device, 4 ... Processor, 7 ... Insertion part, 11 ... Light guide, 12a-12c ... LED, 13 ... LED light emission control circuit, 19 ... Imaging element, 21 ... an imaging unit, 22 ... a color filter, 27 ... an image processing unit.

Claims (14)

2次元マトリクス状に複数配置された画素と、前記画素に対応して色選択フィルタが配置されたカラーフィルタとを有する固体撮像素子と、
前記固体撮像素子が取り付けられ、被検体からの戻り光を前記画素に入射させる挿入部と
を具備し、
前記カラーフィルタは、
前記固体撮像素子の全画素のうちの50%以上の第1の画素に前記戻り光の波長帯域を制限することなく入射させると共に、前記全画素のうちの前記第1の画素以外の第2の画素に第1の分光特性によって前記戻り光の波長帯域を制限して入射させ、前記全画素のうちの前記第1及び第2の画素以外の残りの第3の画素に前記第1の分光特性とは異なる第2の分光特性によって前記戻り光の波長帯域を制限して入射させる
ことを特徴とする内視鏡。
A solid-state imaging device having a plurality of pixels arranged in a two-dimensional matrix and a color filter in which a color selection filter is arranged corresponding to the pixels;
The solid-state imaging device is attached, and includes an insertion unit that makes return light from a subject enter the pixel,
The color filter is
The first pixel that is 50% or more of all the pixels of the solid-state imaging device is incident on the return light without restricting the wavelength band of the return light, and the second pixel other than the first pixel of the all pixels. A wavelength band of the return light is limited to be incident on the pixel by the first spectral characteristic, and the first spectral characteristic is applied to the remaining third pixels other than the first and second pixels among all the pixels. An endoscope, wherein the wavelength band of the return light is limited by a second spectral characteristic different from that of the return light.
前記第1及び第2の分光特性を与える前記色選択フィルタは、原色フィルタである
ことを特徴とする請求項1に記載の内視鏡。
The endoscope according to claim 1, wherein the color selection filter that gives the first and second spectral characteristics is a primary color filter.
前記原色フィルタは、赤光帯域を通過させるRフィルタ、緑光帯域を通過させるGフィルタ、青光帯域を通過させるBフィルタのうちのいずれか2つのフィルタである
ことを特徴とする請求項2に記載の内視鏡。
The primary color filter is any one of an R filter that passes a red light band, a G filter that passes a green light band, and a B filter that passes a blue light band. Endoscope.
前記原色フィルタは、570−750nmの波長帯域を通過させる第1のフィルタ、385−495nmの波長帯域を通過させる第2のフィルタ、450−650nmの波長帯域を通過させる第3のフィルタのうちのいずれか2つのフィルタである
ことを特徴とする請求項2に記載の内視鏡。
The primary color filter is any one of a first filter that passes the wavelength band of 570-750 nm, a second filter that passes the wavelength band of 385-495 nm, and a third filter that passes the wavelength band of 450-650 nm. The endoscope according to claim 2, wherein the two filters are used.
前記第1及び第2の分光特性を与える前記色選択フィルタは、補色フィルタである
ことを特徴とする請求項1に記載の内視鏡。
The endoscope according to claim 1, wherein the color selection filter that gives the first and second spectral characteristics is a complementary color filter.
前記補色フィルタは、マゼンタ光帯域を通過させるMgフィルタ、シアン光帯域を通過させるCyフィルタ、黄光帯域を通過させるYeフィルタのうちのいずれか2つのフィルタである
ことを特徴とする請求項5に記載の内視鏡。
6. The complementary color filter is any one of a Mg filter that passes a magenta light band, a Cy filter that passes a cyan light band, and a Ye filter that passes a yellow light band. The endoscope described.
前記補色フィルタは、385−610nmの波長帯域を通過させる第4のフィルタ、385−480nm及び610−700nmの波長帯域を通過させる第5のフィルタ、470−750nmの波長帯域を通過させる第6のフィルタのうちのいずれか2つのフィルタである
ことを特徴とする請求項5に記載の内視鏡。
The complementary color filter is a fourth filter that passes the wavelength band of 385-610 nm, a fifth filter that passes the wavelength bands of 385-480 nm and 610-700 nm, and a sixth filter that passes the wavelength band of 470-750 nm. The endoscope according to claim 5, which is any two of the filters.
前記第1の画素に入射する前記戻り光の光量を低減する減光フィルタ
を具備したことを特徴とする請求項1に記載の内視鏡。
The endoscope according to claim 1, further comprising a neutral density filter that reduces an amount of the return light incident on the first pixel.
請求項1から8のいずれか1つに記載の内視鏡と、
前記挿入部を介して前記被検体に照射する照明光を発生する光源装置と、
前記光源装置及び前記固体撮像素子を制御して、前記内視鏡を同時式又は面順次式で駆動するプロセッサと
を具備したことを特徴とする内視鏡システム。
The endoscope according to any one of claims 1 to 8,
A light source device that generates illumination light that irradiates the subject through the insertion unit;
An endoscope system comprising: a processor that controls the light source device and the solid-state imaging device to drive the endoscope in a simultaneous or frame-sequential manner.
前記プロセッサは、前記固体撮像素子の前記第1の画素からの第1の画素信号、前記第2の画素からの第2の画素信号及び前記第3の画素からの第3の画素信号が与えられ、前記第1〜第3の画素信号を用いたデモザイキング処理によってR,G,B信号を得る画像処理回路
を具備することを特徴とする請求項9に記載の内視鏡システム。
The processor is provided with a first pixel signal from the first pixel of the solid-state imaging device, a second pixel signal from the second pixel, and a third pixel signal from the third pixel. The endoscope system according to claim 9, further comprising an image processing circuit that obtains R, G, and B signals by demosaicing processing using the first to third pixel signals.
前記画像処理回路は、前記第1の画素信号を基準にしたデモザイキング処理によって前記R,G,B信号を得る
ことを特徴とする請求項10に記載の内視鏡システム。
The endoscope system according to claim 10, wherein the image processing circuit obtains the R, G, and B signals by demosaicing processing based on the first pixel signal.
前記プロセッサは、通常観察モードにおいて、前記光源装置に385−750nmの範囲の分光特性の白色光を出射させ、
狭帯域光観察モードにおいて、前記光源装置に、G光及びB光帯域を含む照射光を同時又は順次に照射させ、
特殊光観察モードにおいて、前記光源装置に、特殊光観察に必要な帯域のみの光を照射させる
ことを特徴とする請求項9に記載の内視鏡システム。
In the normal observation mode, the processor causes the light source device to emit white light having a spectral characteristic in a range of 385 to 750 nm,
In the narrow band light observation mode, the light source device is irradiated with irradiation light including G light and B light bands simultaneously or sequentially,
The endoscope system according to claim 9, wherein in the special light observation mode, the light source device is irradiated with light only in a band necessary for special light observation.
前記プロセッサは、前記光源装置及び前記固体撮像素子を制御して、前記内視鏡を同時式と面順次式とで切換えて駆動する
ことを特徴とする請求項9に記載の内視鏡システム。
The endoscope system according to claim 9, wherein the processor controls the light source device and the solid-state imaging device to switch and drive the endoscope between a simultaneous type and a frame sequential type.
前記プロセッサは、同時式での駆動途中に面順次式での駆動を行う
ことを特徴とする請求項13に記載の内視鏡システム。
The endoscope system according to claim 13, wherein the processor performs frame sequential driving during simultaneous driving.
JP2017098828A 2017-05-18 2017-05-18 Endoscope and endoscope system Pending JP2018192043A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017098828A JP2018192043A (en) 2017-05-18 2017-05-18 Endoscope and endoscope system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017098828A JP2018192043A (en) 2017-05-18 2017-05-18 Endoscope and endoscope system

Publications (1)

Publication Number Publication Date
JP2018192043A true JP2018192043A (en) 2018-12-06

Family

ID=64568733

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017098828A Pending JP2018192043A (en) 2017-05-18 2017-05-18 Endoscope and endoscope system

Country Status (1)

Country Link
JP (1) JP2018192043A (en)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11225953A (en) * 1998-02-12 1999-08-24 Olympus Optical Co Ltd Endoscope device
JP2003010114A (en) * 2001-06-29 2003-01-14 Fuji Photo Film Co Ltd Electronic endoscope system and its control method
JP2009284959A (en) * 2008-05-27 2009-12-10 Hoya Corp Endoscope
JP2010046354A (en) * 2008-08-22 2010-03-04 Olympus Medical Systems Corp Endoscope system
JP2010193421A (en) * 2009-01-26 2010-09-02 Fujifilm Corp Solid-state imaging device, endoscope apparatus, and drive method of solid-state imaging device
US20120206582A1 (en) * 2011-02-14 2012-08-16 Intuitive Surgical Operations, Inc. Methods and apparatus for demosaicing images with highly correlated color channels
JP2015047402A (en) * 2013-09-03 2015-03-16 富士フイルム株式会社 Endoscope system and operation method of the same
JP2015066063A (en) * 2013-09-27 2015-04-13 富士フイルム株式会社 Endoscope system and endoscope operating method
JP2015119765A (en) * 2013-12-20 2015-07-02 オリンパス株式会社 Endoscope apparatus
WO2016084257A1 (en) * 2014-11-28 2016-06-02 オリンパス株式会社 Endoscope apparatus
JP2017055260A (en) * 2015-09-09 2017-03-16 Hoya株式会社 On-chip color filter

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11225953A (en) * 1998-02-12 1999-08-24 Olympus Optical Co Ltd Endoscope device
JP2003010114A (en) * 2001-06-29 2003-01-14 Fuji Photo Film Co Ltd Electronic endoscope system and its control method
JP2009284959A (en) * 2008-05-27 2009-12-10 Hoya Corp Endoscope
JP2010046354A (en) * 2008-08-22 2010-03-04 Olympus Medical Systems Corp Endoscope system
JP2010193421A (en) * 2009-01-26 2010-09-02 Fujifilm Corp Solid-state imaging device, endoscope apparatus, and drive method of solid-state imaging device
US20120206582A1 (en) * 2011-02-14 2012-08-16 Intuitive Surgical Operations, Inc. Methods and apparatus for demosaicing images with highly correlated color channels
JP2015047402A (en) * 2013-09-03 2015-03-16 富士フイルム株式会社 Endoscope system and operation method of the same
JP2015066063A (en) * 2013-09-27 2015-04-13 富士フイルム株式会社 Endoscope system and endoscope operating method
JP2015119765A (en) * 2013-12-20 2015-07-02 オリンパス株式会社 Endoscope apparatus
WO2016084257A1 (en) * 2014-11-28 2016-06-02 オリンパス株式会社 Endoscope apparatus
JP2017055260A (en) * 2015-09-09 2017-03-16 Hoya株式会社 On-chip color filter

Similar Documents

Publication Publication Date Title
US9675238B2 (en) Endoscopic device
JP6367683B2 (en) Endoscope system, processor device, operation method of endoscope system, and operation method of processor device
JP5303012B2 (en) Endoscope system, processor device for endoscope system, and method for operating endoscope system
JP5271062B2 (en) Endoscope apparatus and method of operating the same
JP5431252B2 (en) Electronic endoscope system, processor device for electronic endoscope, and method for operating electronic endoscope system
US10335014B2 (en) Endoscope system, processor device, and method for operating endoscope system
US10039439B2 (en) Endoscope system and method for operating the same
JP4847250B2 (en) Endoscope device
JP5670264B2 (en) Endoscope system and method for operating endoscope system
US9649018B2 (en) Endoscope system and method for operating the same
US20160089010A1 (en) Endoscope system, processor device, and method for operating endoscope system
JP6362274B2 (en) Endoscope system and method for operating endoscope system
JP2017023620A (en) Image processing apparatus and endoscope system, and method for operating image processing apparatus
JP2012005807A (en) Method of controlling endoscope apparatus and endoscope apparatus
JP6228833B2 (en) Imaging system and endoscope apparatus
JP6285370B2 (en) Endoscope processor device, operation method of endoscope processor device, endoscope control program, and endoscope system
JP6461742B2 (en) Endoscope system and method for operating endoscope system
JP2016032494A (en) Endoscope system, operation method for endoscope system, light source apparatus, and operation method for light source apparatus
JP2017158840A (en) Endoscopic image signal processing apparatus and method, and program
US10091480B2 (en) Driving method of imaging element, imaging device with read-out time and accumulation period
CN111712178A (en) Endoscope system and method for operating same
JP6570490B2 (en) Endoscope system and method for operating endoscope system
JP2018192043A (en) Endoscope and endoscope system
CN108882835B (en) Endoscope image signal processing device and method, and storage medium
JP6277138B2 (en) Endoscope system and operating method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200327

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211005