JP6099445B2 - Imaging system - Google Patents

Imaging system Download PDF

Info

Publication number
JP6099445B2
JP6099445B2 JP2013059736A JP2013059736A JP6099445B2 JP 6099445 B2 JP6099445 B2 JP 6099445B2 JP 2013059736 A JP2013059736 A JP 2013059736A JP 2013059736 A JP2013059736 A JP 2013059736A JP 6099445 B2 JP6099445 B2 JP 6099445B2
Authority
JP
Japan
Prior art keywords
illumination
unit
period
image
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013059736A
Other languages
Japanese (ja)
Other versions
JP2014183909A (en
JP2014183909A5 (en
Inventor
大野 渉
渉 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2013059736A priority Critical patent/JP6099445B2/en
Publication of JP2014183909A publication Critical patent/JP2014183909A/en
Publication of JP2014183909A5 publication Critical patent/JP2014183909A5/ja
Application granted granted Critical
Publication of JP6099445B2 publication Critical patent/JP6099445B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮影用の複数の画素のうち読み出し対象として任意に指定された画素から光電変換後の電気信号を画像情報として出力可能である撮像システムに関する。   The present invention relates to an imaging system capable of outputting an electrical signal after photoelectric conversion as image information from a pixel arbitrarily designated as a readout target among a plurality of pixels for photographing.

従来、医療分野においては、患者等の被検体の臓器を観察する際に内視鏡システムが用いられている。内視鏡システムは、たとえば可撓性を有する細長形状をなし、被検体の体腔内に挿入される撮像装置と、撮像装置の先端に設けられた体内画像を撮像する撮像素子と、被検体を照明する照明光を出射する光源装置と、撮像素子が撮像した体内画像に所定の画像処理を行う処理装置と、処理装置が画像処理を行った体内画像を表示可能な表示装置とを有する。内視鏡システムを用いて体内画像を取得する際には、被検体の体腔内に挿入部を挿入した後、この挿入部の先端から体腔内の生体組織に照明光を照射し、撮像素子が体内画像を撮像する。医師等のユーザは、表示装置が表示する体内画像に基づいて、被検体の臓器の観察を行う。   Conventionally, in the medical field, an endoscope system is used when observing an organ of a subject such as a patient. An endoscope system has, for example, a flexible elongated shape, an imaging device that is inserted into a body cavity of a subject, an imaging element that captures an in-vivo image provided at the tip of the imaging device, and a subject. A light source device that emits illumination light to illuminate, a processing device that performs predetermined image processing on an in-vivo image captured by an imaging device, and a display device that can display an in-vivo image that has been subjected to image processing by the processing device. When acquiring an in-vivo image using an endoscope system, after inserting an insertion portion into a body cavity of a subject, illumination light is irradiated from the distal end of the insertion portion to a living tissue in the body cavity, and the imaging device In-vivo images are taken. A user such as a doctor observes the organ of the subject based on the in-vivo image displayed by the display device.

このような内視鏡システムが有する撮像素子として、CMOS(Complementary Metal Oxide Semiconductor)センサを適用する場合がある。CMOSセンサは、ライン毎にタイミングをずらして露光または読み出しを行うローリングシャッタ方式によって画像データを生成する。   In some cases, a CMOS (Complementary Metal Oxide Semiconductor) sensor is applied as an imaging element included in such an endoscope system. The CMOS sensor generates image data by a rolling shutter system in which exposure or reading is performed at different timings for each line.

上述した内視鏡システムにおいて、隣接するフレーム間の混色を防止するために、フレームごとに照明処理および読み出し処理を行う技術が開示されている(例えば、特許文献1を参照)。また、撮像対象物からの光が背景光によって埋もれないようにするため、隣接するフレームの画像信号を加算して一つの画像を得る技術が開示されている(例えば、特許文献2を参照)。   In the above-described endoscope system, a technique for performing illumination processing and readout processing for each frame in order to prevent color mixing between adjacent frames is disclosed (for example, see Patent Document 1). Moreover, in order to prevent the light from the imaging target from being buried by the background light, a technique is disclosed in which image signals of adjacent frames are added to obtain one image (see, for example, Patent Document 2).

特開2010−068992号公報JP 2010-068992 A 特開2002−281387号公報JP 2002-281387 A

図15は、従来の内視鏡システムの撮影時における光源装置が出射する照明光の出射タイミング、撮像素子の露光と読み出しタイミングおよび画像処理部による処理を模式的に示す図である。ローリングシャッタ方式によって画像データD101〜D109を生成する場合、CMOS型の撮像素子で露光してから電荷を読み出すまでの一連の処理をライン毎に異なるタイミングで行っているため、1フレーム分(図15のF1など)の画像信号を得るには実質的に1フレーム分の読み出し期間以上の期間を要する。これにより、撮像素子や被写体が動いた場合、ぶれの目立つ画像となってしまう。特に、撮像素子や被写体の動きが速い場合、画像の歪みが大きくなるという問題があった。   FIG. 15 is a diagram schematically illustrating an emission timing of illumination light emitted from a light source device at the time of photographing with a conventional endoscope system, exposure and readout timing of an image sensor, and processing by an image processing unit. When the image data D101 to D109 are generated by the rolling shutter method, a series of processes from exposure to reading of charges with a CMOS type image sensor to reading of charges are performed at different timings for each line (FIG. 15). In order to obtain an image signal such as F1), a period longer than the readout period for one frame is substantially required. As a result, when the image sensor or the subject moves, the image is noticeable. In particular, when the movement of the image sensor or the subject is fast, there is a problem that image distortion increases.

また、図15に示すように、1フレーム期間に応じた期間Te100で連続して照明を行なう場合であって、交互に光の波長や強度が互いに異なる複数種の照明光を周期的に出射する場合、あるフレームの読み出し期間中に、照明処理が次の照明期間に移行するため、1フレームの画像において照明光が混色するという問題が生じていた。   In addition, as shown in FIG. 15, in the case where illumination is continuously performed in a period Te100 corresponding to one frame period, a plurality of types of illumination light having mutually different light wavelengths and intensities are periodically emitted. In this case, during the readout period of a certain frame, the illumination process shifts to the next illumination period, which causes a problem that the illumination light is mixed in one frame image.

これらの画像の歪みや混色を防止するため、読み出し開始ラインから終了ラインまでの全ラインで露光時間が一致している同時露光期間(図15の期間Tm100)で照明処理を行う方法も挙げられるが、照明期間が短く、鮮明な画像を得ることができない場合があった。   In order to prevent distortion and color mixing of these images, there is a method of performing illumination processing in a simultaneous exposure period (period Tm100 in FIG. 15) in which the exposure times are the same in all lines from the read start line to the end line. In some cases, the illumination period is short and a clear image cannot be obtained.

本発明は、上記に鑑みてなされたものであって、撮像素子で露光してから電荷を読み出すまでの一連の処理をライン毎に異なるタイミングで行ったとしても、画像のぶれや歪み、混色を抑制することができる撮像システムを提供することを目的とする。   The present invention has been made in view of the above, and even if a series of processing from exposure by an image sensor to reading out charges is performed at different timings for each line, image blurring, distortion, and color mixing are performed. An object is to provide an imaging system that can be suppressed.

上述した課題を解決し、目的を達成するために、本発明にかかる撮像システムは、被写体を照明する照明光を出射する照明部と、光を受光して光電変換を行うことにより撮像信号を生成する画素が二次元状に配列された受光部と、前記受光部から水平ラインごとに前記撮像信号を順次読み出す読み出し部と、前記読み出し部が前記受光部の最初の水平ラインの読み出し開始から次の最初の水平ラインの読み出し開始までの期間に相当する1フレーム期間である第1の期間、前記照明部に前記照明光の消灯を行わせた後、前記1フレーム期間以上である第2の期間、前記照明部に前記照明光を出射させる一連の処理を前記照明部に実行させる照明制御部と、前記読み出し部が前記受光部から読み出した前記第1の期間における第1の撮像信号と前記第2の期間における第2の撮像信号とを加算することによって、前記第2の期間に出射された前記照明光に対応する画像信号を生成する画像処理部と、を備えたことを特徴とする。   In order to solve the above-mentioned problems and achieve the object, an imaging system according to the present invention generates an imaging signal by receiving an illumination unit that emits illumination light that illuminates a subject, and performing photoelectric conversion by receiving the light. A light receiving unit in which pixels to be arranged in a two-dimensional manner, a reading unit that sequentially reads out the imaging signal for each horizontal line from the light receiving unit, and the reading unit starts from the start of reading the first horizontal line of the light receiving unit. A first period that is one frame period corresponding to a period until the start of reading of the first horizontal line, a second period that is equal to or longer than the one frame period after causing the illumination unit to turn off the illumination light, An illumination control unit that causes the illumination unit to execute a series of processes for causing the illumination unit to emit the illumination light; and a first imaging signal in the first period read from the light receiving unit by the reading unit; An image processing unit that generates an image signal corresponding to the illumination light emitted in the second period by adding the second imaging signal in the second period. To do.

また、本発明にかかる撮像システムは、上記発明において、前記照明制御部は、前記読み出し部による前記第1および第2の期間の読み出しタイミングと同期して前記照明部に前記一連の処理を実行させることを特徴とする。   In the imaging system according to the present invention as set forth in the invention described above, the illumination control unit causes the illumination unit to execute the series of processes in synchronization with the readout timing of the first and second periods by the readout unit. It is characterized by that.

また、本発明にかかる撮像システムは、上記発明において、少なくとも静止画撮影を行う旨の指示信号の入力を受け付ける入力部を備え、前記照明制御部は、前記入力部が前記指示信号の入力を受け付けていない場合は前記照明部に連続して照明光を出射させ、前記入力部が前記指示信号の入力を受け付けた場合は前記照明部に前記一連の処理を実行させ、前記画像処理部は、前記入力部に前記指示信号の入力がない場合は連続して出射される前記照明光に応じて撮像信号をもとに表示用の画像信号を生成し、前記入力部に前記指示信号の入力があった場合は前記第1の撮像信号と前記第2の撮像信号とを加算することによって、表示用の画像信号を順次生成することを特徴とする。   The imaging system according to the present invention further includes an input unit that receives an input of an instruction signal for performing at least still image shooting in the above invention, and the illumination control unit receives the input of the instruction signal by the input unit. If not, the illumination unit emits illumination light continuously, and if the input unit receives the input of the instruction signal, the illumination unit executes the series of processes, and the image processing unit When the instruction signal is not input to the input unit, a display image signal is generated based on the imaging signal according to the illumination light continuously emitted, and the instruction signal is input to the input unit. In this case, the first image pickup signal and the second image pickup signal are added to sequentially generate display image signals.

本発明によれば、同一の照明期間を含む複数のフレームに応じた撮像信号を加算して、一つの画像信号を生成するようにしたので、撮像素子で露光してから電荷を読み出すまでの一連の処理をライン毎に異なるタイミングで行ったとしても、画像のぶれや歪み、混色を抑制することができるという効果を奏する。   According to the present invention, imaging signals corresponding to a plurality of frames including the same illumination period are added to generate one image signal. Even if this processing is performed at different timing for each line, there is an effect that blurring, distortion, and color mixing of the image can be suppressed.

図1は、本発明の実施の形態1にかかる内視鏡システムの概略構成を示す図である。FIG. 1 is a diagram illustrating a schematic configuration of an endoscope system according to the first embodiment of the present invention. 図2は、本発明の実施の形態1にかかる内視鏡システムの要部の機能構成を示すブロック図である。FIG. 2 is a block diagram illustrating a functional configuration of a main part of the endoscope system according to the first embodiment of the present invention. 図3は、本発明の実施の形態1にかかる内視鏡システムの撮影時における光源装置が出射する照明光の出射タイミング、撮像素子の露光と読み出しタイミングおよび画像処理部による処理を模式的に示す図である。FIG. 3 schematically shows the emission timing of the illumination light emitted from the light source device, the exposure and readout timing of the image sensor, and the processing by the image processing unit at the time of photographing by the endoscope system according to the first embodiment of the present invention. FIG. 図4は、本発明の実施の形態1にかかる内視鏡システムの撮影時における光源装置が出射する照明光の出射タイミングおよび撮像素子の露光と読み出しタイミングを説明する図である。FIG. 4 is a diagram for explaining the emission timing of the illumination light emitted from the light source device and the exposure and readout timing of the image sensor at the time of photographing by the endoscope system according to the first embodiment of the present invention. 図5は、本発明の実施の形態1の変形例1−1にかかる内視鏡システムの撮影時における光源装置が出射する照明光の出射タイミング、撮像素子の露光と読み出しタイミングおよび画像処理部による処理を模式的に示す図である。FIG. 5 illustrates the illumination light emission timing emitted by the light source device during imaging of the endoscope system according to the modified example 1-1 of the first embodiment of the present invention, the exposure and readout timing of the image sensor, and the image processing unit. It is a figure which shows a process typically. 図6は、本発明の実施の形態1の変形例1−2にかかる内視鏡システムの撮影時における光源装置が出射する照明光の出射タイミング、撮像素子の露光と読み出しタイミングおよび画像処理部による処理を模式的に示す図である。FIG. 6 illustrates the illumination light emission timing emitted from the light source device at the time of photographing by the endoscope system according to Modification 1-2 of the first embodiment of the present invention, the exposure and readout timing of the image sensor, and the image processing unit. It is a figure which shows a process typically. 図7は、本発明の実施の形態1の変形例1−3にかかる内視鏡システムの撮影時における光源装置が出射する照明光の出射タイミング、撮像素子の露光と読み出しタイミングおよび画像処理部による処理を模式的に示す図である。FIG. 7 illustrates the illumination light emission timing emitted from the light source device during imaging of the endoscope system according to Modification 1-3 of Embodiment 1 of the present invention, the exposure and readout timings of the image sensor, and the image processing unit. It is a figure which shows a process typically. 図8は、本発明の実施の形態2にかかる内視鏡システムの要部の機能構成を示すブロック図である。FIG. 8 is a block diagram illustrating a functional configuration of a main part of the endoscope system according to the second embodiment of the present invention. 図9は、本発明の実施の形態2にかかる内視鏡システムの撮影時における光源装置が出射する照明光の出射タイミング、撮像素子の露光と読み出しタイミングおよび画像処理部による処理を模式的に示す図である。FIG. 9 schematically shows the emission timing of the illumination light emitted from the light source device, the exposure and readout timing of the image sensor, and the processing by the image processing unit at the time of photographing by the endoscope system according to the second embodiment of the present invention. FIG. 図10は、本発明の実施の形態2の変形例2−1にかかる内視鏡システムの撮影時における光源装置が出射する照明光の出射タイミング、撮像素子の露光と読み出しタイミングおよび画像処理部による処理を模式的に示す図である。FIG. 10 shows the illumination light emission timing emitted by the light source device during imaging of the endoscope system according to the modified example 2-1 of the second embodiment of the present invention, the exposure and readout timing of the image sensor, and the image processing unit. It is a figure which shows a process typically. 図11は、本発明の実施の形態3にかかる内視鏡システムの要部の機能構成を示すブロック図である。FIG. 11 is a block diagram illustrating a functional configuration of a main part of the endoscope system according to the third embodiment of the present invention. 図12は、本発明の実施の形態3にかかる内視鏡システムの撮影時における光源装置が出射する照明光の出射タイミング、撮像素子の露光と読み出しタイミングおよび画像処理部による処理を模式的に示す図である。FIG. 12 schematically shows the emission timing of illumination light emitted by the light source device, the exposure and readout timing of the image sensor, and the processing by the image processing unit at the time of photographing by the endoscope system according to the third embodiment of the present invention. FIG. 図13は、本発明の実施の形態4にかかる内視鏡システムの撮影時における光源装置が出射する照明光の出射タイミング、撮像素子の露光と読み出しタイミングおよび画像処理部による処理を模式的に示す図である。FIG. 13 schematically shows the emission timing of the illumination light emitted from the light source device, the exposure and readout timing of the image sensor, and the processing by the image processing unit at the time of photographing by the endoscope system according to the fourth embodiment of the present invention. FIG. 図14は、本発明の実施の形態4の変形例4−1にかかる内視鏡システムの撮影時における光源装置が出射する照明光の出射タイミング、撮像素子の露光と読み出しタイミングおよび画像処理部による処理を模式的に示す図である。FIG. 14 shows the emission timing of the illumination light emitted from the light source device at the time of photographing by the endoscope system according to Modification 4-1 of the fourth embodiment of the present invention, the exposure and readout timing of the image sensor, and the image processing unit. It is a figure which shows a process typically. 図15は、従来の内視鏡システムの撮影時における光源装置が出射する照明光の出射タイミング、撮像素子の露光と読み出しタイミングおよび画像処理部による処理を模式的に示す図である。FIG. 15 is a diagram schematically illustrating an emission timing of illumination light emitted from a light source device at the time of photographing with a conventional endoscope system, exposure and readout timing of an image sensor, and processing by an image processing unit.

以下、本発明を実施するための形態(以下、「実施の形態」という)を説明する。実施の形態では、撮像システムの一例として、患者等の被検体の体腔内の画像を撮像して表示する医療用の内視鏡システムについて説明する。また、この実施の形態により、この発明が限定されるものではない。さらに、図面の記載において、同一部分には同一の符号を付して説明する。   Hereinafter, modes for carrying out the present invention (hereinafter referred to as “embodiments”) will be described. In the embodiment, a medical endoscope system that captures and displays an image in a body cavity of a subject such as a patient will be described as an example of an imaging system. Moreover, this invention is not limited by this embodiment. Furthermore, in the description of the drawings, the same portions will be described with the same reference numerals.

(実施の形態1)
図1は、本発明の実施の形態1にかかる内視鏡システムの概略構成を示す図である。図2は、本発明の実施の形態1にかかる内視鏡システムの要部の機能構成を示すブロック図である。
(Embodiment 1)
FIG. 1 is a diagram illustrating a schematic configuration of an endoscope system according to the first embodiment of the present invention. FIG. 2 is a block diagram illustrating a functional configuration of a main part of the endoscope system according to the first embodiment of the present invention.

図1および図2に示す内視鏡システム1は、被検体の体腔内に先端部を挿入することによって被検体の体内画像を撮像する内視鏡2と、内視鏡2の先端から出射する照明光を発生する光源装置3と、内視鏡2が撮像した体内画像に所定の画像処理を施すとともに、内視鏡システム1全体の動作を統括的に制御する処理装置4と、処理装置4が画像処理を施した体内画像を表示する表示装置5と、を備える。   An endoscope system 1 shown in FIGS. 1 and 2 inserts a distal end portion into a body cavity of a subject to capture an in-vivo image of the subject, and emits the light from the distal end of the endoscope 2. A light source device 3 that generates illumination light, a processing device 4 that performs predetermined image processing on an in-vivo image captured by the endoscope 2, and controls the overall operation of the endoscope system 1, and a processing device 4 Includes a display device 5 that displays an in-vivo image subjected to image processing.

内視鏡2は、可撓性を有する細長形状をなす挿入部21と、挿入部21の基端側に接続され、各種の操作信号の入力を受け付ける操作部22と、操作部22から挿入部21が延びる方向と異なる方向に延び、光源装置3および処理装置4に接続する各種ケーブルを内蔵するユニバーサルコード23と、を備える。   The endoscope 2 includes an insertion portion 21 having an elongated shape having flexibility, an operation portion 22 that is connected to a proximal end side of the insertion portion 21 and receives input of various operation signals, and an insertion portion from the operation portion 22. And a universal cord 23 that includes various cables that extend in a direction different from the direction in which 21 extends and connect to the light source device 3 and the processing device 4.

挿入部21は、光を受光して光電変換を行うことにより信号を生成する画素が2次元状に配列された撮像素子244を内蔵した先端部24と、複数の湾曲駒によって構成された湾曲自在な湾曲部25と、湾曲部25の基端側に接続され、可撓性を有する長尺状の可撓管部26と、を有する。   The insertion unit 21 receives a light and performs photoelectric conversion to generate a signal to generate a signal. The insertion unit 21 includes an image pickup element 244 in which pixels are arranged in a two-dimensional shape, and a bendable portion formed by a plurality of bending pieces. And a long flexible tube portion 26 connected to the proximal end side of the bending portion 25 and having flexibility.

先端部24は、グラスファイバ等を用いて構成されて光源装置3が発光した光の導光路をなすライトガイド241と、ライトガイド241の先端に設けられた照明レンズ242と、集光用の光学系243と、光学系243の結像位置に設けられ、光学系243が集光した光を受光して電気信号に光電変換して所定の信号処理を施す撮像素子244と、を有する。   The distal end portion 24 is configured using a glass fiber or the like, and forms a light guide path for light emitted from the light source device 3. An illumination lens 242 provided at the distal end of the light guide 241. And an image sensor 244 that is provided at an image forming position of the optical system 243, receives light collected by the optical system 243, photoelectrically converts the light into an electrical signal, and performs predetermined signal processing.

光学系243は、一または複数のレンズを用いて構成され、画角を変化させる光学ズーム機能および焦点を変化させるフォーカス機能を有する。   The optical system 243 is configured using one or a plurality of lenses, and has an optical zoom function for changing the angle of view and a focus function for changing the focus.

撮像素子244は、光学系243からの光を光電変換して電気信号(撮像信号)を生成するセンサ部244aと、センサ部244aが出力した電気信号に対してノイズ除去やA/D変換を行うアナログフロントエンド部244b(以下、「AFE部244b」という)と、AFE部244bが出力したデジタル信号(画像信号)をパラレル/シリアル変換して外部に送信するP/S変換部244cと、センサ部244aの駆動タイミング、AFE部244bおよびP/S変換部244cにおける各種信号処理のパルスを発生するタイミングジェネレータ244dと、撮像素子244の動作を制御する撮像制御部244eと、を有する。撮像素子244は、CMOSセンサである。   The image sensor 244 photoelectrically converts light from the optical system 243 to generate an electrical signal (imaging signal), and performs noise removal and A / D conversion on the electrical signal output from the sensor unit 244a. An analog front end unit 244b (hereinafter referred to as “AFE unit 244b”), a P / S conversion unit 244c that performs parallel / serial conversion on a digital signal (image signal) output from the AFE unit 244b and transmits the converted signal to the outside, and a sensor unit A timing generator 244d that generates pulses of various signal processing in the AFE unit 244b and the P / S conversion unit 244c, and an imaging control unit 244e that controls the operation of the imaging device 244; The image sensor 244 is a CMOS sensor.

センサ部244aは、光量に応じた電荷を蓄積するフォトダイオードおよびフォトダイオードが蓄積した電荷を増幅する増幅器をそれぞれ有する複数の画素が2次元状に配列され、光学系243からの光を光電変換して電気信号(撮像信号)を生成する受光部244fと、受光部244fの複数の画素のうち読み出し対象として任意に設定された画素が生成した電気信号を画像情報として順次読み出す読み出し部244gと、を有する。また、読み出し部244gは、受光部244fから水平ライン毎に電気信号(撮像信号)を順次読み出してAFE部244bへ出力する。   In the sensor unit 244a, a plurality of pixels each having a photodiode that accumulates electric charge according to the amount of light and an amplifier that amplifies the electric charge accumulated by the photodiode are two-dimensionally arranged, and photoelectrically converts light from the optical system 243. A light receiving unit 244f that generates an electrical signal (imaging signal), and a reading unit 244g that sequentially reads out, as image information, an electrical signal generated by a pixel arbitrarily set as a reading target among a plurality of pixels of the light receiving unit 244f. Have. Further, the reading unit 244g sequentially reads out electrical signals (imaging signals) for each horizontal line from the light receiving unit 244f and outputs them to the AFE unit 244b.

AFE部244bは、電気信号(アナログ)に含まれるノイズ成分を低減するノイズ低減部244hと、電気信号の増幅率(ゲイン)を調整して一定の出力レベルを維持するAGC(Automatic Gain Control)部244iと、AGC部244iを介して出力された画像情報(画像信号)としての電気信号をA/D変換するA/D変換部244jと、を有する。ノイズ低減部244hは、たとえば相関二重サンプリング(Correlated Double Sampling)法を用いてノイズの低減を行う。   The AFE unit 244b includes a noise reduction unit 244h that reduces a noise component included in the electrical signal (analog), and an AGC (Automatic Gain Control) unit that adjusts the amplification factor (gain) of the electrical signal and maintains a constant output level. 244i and an A / D conversion unit 244j that performs A / D conversion on an electrical signal as image information (image signal) output via the AGC unit 244i. The noise reduction unit 244h performs noise reduction using, for example, a correlated double sampling method.

撮像制御部244eは、処理装置4から受信した設定データに従って先端部24の各種動作を制御する。撮像制御部244eは、CPU(Central Processing Unit)や各種プログラムを記録するレジスタ等を用いて構成される。   The imaging control unit 244e controls various operations of the distal end portion 24 according to the setting data received from the processing device 4. The imaging control unit 244e is configured using a CPU (Central Processing Unit), a register that records various programs, and the like.

操作部22は、湾曲部25を上下方向および左右方向に湾曲させる湾曲ノブ221と、被検体の体腔内に生体鉗子、電気メスおよび検査プローブ等の処置具を挿入する処置具挿入部222と、処理装置4、光源装置3に加えて、送気手段、送水手段、画面表示制御等の周辺機器の操作指示信号を入力する操作入力部である複数のスイッチ223と、を有する。処置具挿入部222から挿入される処置具は、先端部24の処置具チャンネル(図示せず)を経由して開口部(図示せず)から表出する。   The operation section 22 includes a bending knob 221 that bends the bending section 25 in the vertical direction and the left-right direction, a treatment instrument insertion section 222 that inserts a treatment instrument such as a biological forceps, an electric knife, and a test probe into the body cavity of the subject. In addition to the processing device 4 and the light source device 3, it has a plurality of switches 223 which are operation input units for inputting operation instruction signals of peripheral devices such as air supply means, water supply means, and screen display control. The treatment tool inserted from the treatment tool insertion portion 222 is exposed from the opening (not shown) via the treatment tool channel (not shown) of the distal end portion 24.

ユニバーサルコード23は、ライトガイド241と、一または複数の信号線をまとめた集合ケーブル245と、を少なくとも内蔵している。   The universal cord 23 includes at least a light guide 241 and a collective cable 245 in which one or a plurality of signal lines are collected.

つぎに、光源装置3の構成について説明する。光源装置3は、照明部31と、照明制御部32と、を備える。   Next, the configuration of the light source device 3 will be described. The light source device 3 includes an illumination unit 31 and an illumination control unit 32.

照明部31は、被写体を照明する照明光を出射する。照明部31は、光源33と、光源ドライバ34と、を有する。   The illumination unit 31 emits illumination light that illuminates the subject. The illumination unit 31 includes a light source 33 and a light source driver 34.

光源33は、白色LEDを用いて構成され、照明制御部32の制御のもと、白色光を発生する。光源33が発生した光は、集光レンズ(図示せず)およびライトガイド241を経由して先端部24から被写体に向けて照射される。   The light source 33 is configured using a white LED, and generates white light under the control of the illumination control unit 32. Light generated by the light source 33 is emitted from the distal end portion 24 toward the subject via a condenser lens (not shown) and a light guide 241.

光源ドライバ34は、光源33に対して照明制御部32の制御のもとで電流を供給することにより、光源33に白色光を発生させる。   The light source driver 34 causes the light source 33 to generate white light by supplying current to the light source 33 under the control of the illumination control unit 32.

照明制御部32は、照明部31による照明光の出射および消灯の制御を行なう。また、照明制御部32は、照明部31が出射する照明光の強度を一定に保つなど、照明部31が出射する照明光の強度を可変制御する。なお、本明細書において、1フレーム期間とは、先頭ラインの読み出し開始から、次の先頭ラインの読み出し開始までの期間のことをいう。   The illumination control unit 32 controls the emission and extinguishing of illumination light by the illumination unit 31. Further, the illumination control unit 32 variably controls the intensity of the illumination light emitted from the illumination unit 31, such as keeping the intensity of the illumination light emitted from the illumination unit 31 constant. In this specification, one frame period refers to a period from the start of reading the first line to the start of reading the next first line.

次に、処理装置4の構成について説明する。処理装置4は、S/P変換部401と、画像処理部402と、明るさ検出部403と、調光部404と、読出アドレス設定部405と、駆動信号生成部406と、入力部407と、記録部408と、制御部409と、基準クロック生成部410と、を備える。   Next, the configuration of the processing device 4 will be described. The processing device 4 includes an S / P conversion unit 401, an image processing unit 402, a brightness detection unit 403, a dimming unit 404, a read address setting unit 405, a drive signal generation unit 406, and an input unit 407. A recording unit 408, a control unit 409, and a reference clock generation unit 410.

S/P変換部401は、撮像素子244から入力された画像情報(撮像信号)をシリアル/パラレル変換して画像処理部402に出力する。なお、画像情報には、撮像信号および撮像素子244を補正する補正パラメータ等が含まれる。   The S / P conversion unit 401 performs serial / parallel conversion on the image information (imaging signal) input from the image sensor 244 and outputs the image information to the image processing unit 402. Note that the image information includes an imaging signal, a correction parameter for correcting the imaging element 244, and the like.

画像処理部402は、S/P変換部401から入力された画像情報をもとに、表示装置5が表示する体内画像情報(画像信号)を生成する。画像処理部402は、画像情報に対して、所定の画像処理を実行して体内画像情報を生成する。ここで、画像処理としては、同時化処理、オプティカルブラック低減処理、ホワイトバランス調整処理、カラーマトリクス演算処理、ガンマ補正処理、色再現処理、エッジ強調処理、複数の画像データを合成する合成処理およびフォーマット変換処理等である。さらに、画像処理部402は、読み出し部244gが受光部244fから読み出した複数のフレームに応じた画像情報を加算して一つの体内画像を生成する。また、画像処理部402は、S/P変換部401から入力された画像情報を制御部409または明るさ検出部403へ出力する。   The image processing unit 402 generates in-vivo image information (image signal) displayed by the display device 5 based on the image information input from the S / P conversion unit 401. The image processing unit 402 performs predetermined image processing on the image information to generate in-vivo image information. Here, as image processing, synchronization processing, optical black reduction processing, white balance adjustment processing, color matrix calculation processing, gamma correction processing, color reproduction processing, edge enhancement processing, composition processing and format for combining a plurality of image data Conversion processing and the like. Further, the image processing unit 402 generates one in-vivo image by adding image information corresponding to a plurality of frames read by the reading unit 244g from the light receiving unit 244f. Further, the image processing unit 402 outputs the image information input from the S / P conversion unit 401 to the control unit 409 or the brightness detection unit 403.

明るさ検出部403は、画像処理部402から入力される画像情報から、各画素に対応する明るさレベルを検出し、検出した明るさレベルを内部に設けられたメモリに記録するとともに制御部409へ出力する。また、明るさ検出部403は、検出した明るさレベルをもとにゲイン調整値を算出し、ゲイン調整値を画像処理部402へ出力する。   The brightness detection unit 403 detects the brightness level corresponding to each pixel from the image information input from the image processing unit 402, records the detected brightness level in a memory provided therein, and the control unit 409. Output to. The brightness detection unit 403 calculates a gain adjustment value based on the detected brightness level, and outputs the gain adjustment value to the image processing unit 402.

調光部404は、制御部409の制御のもと、明るさ検出部403が算出した光照射量をもとに光源装置3が発生する光量や発光タイミング等を設定し、この設定した条件を含む調光信号を光源装置3へ出力する。   Under the control of the control unit 409, the light control unit 404 sets the amount of light generated by the light source device 3, the light emission timing, and the like based on the light irradiation amount calculated by the brightness detection unit 403. The dimming signal including it is output to the light source device 3.

読出アドレス設定部405は、センサ部244aの受光面における読み出し対象の画素および読み出し順序を設定する機能を有する。すなわち、読出アドレス設定部405は、AFE部244bがセンサ部244aから読み出す画素のアドレスを設定する機能を有する。また、読出アドレス設定部405は、設定した読み出し対象の画素のアドレス情報を画像処理部402へ出力する。   The read address setting unit 405 has a function of setting a pixel to be read and a reading order on the light receiving surface of the sensor unit 244a. That is, the read address setting unit 405 has a function of setting an address of a pixel that the AFE unit 244b reads from the sensor unit 244a. Further, the read address setting unit 405 outputs the set address information of the pixel to be read to the image processing unit 402.

駆動信号生成部406は、撮像素子244を駆動するための駆動用のタイミング信号を生成し、集合ケーブル245に含まれる所定の信号線を介してタイミングジェネレータ244dへ送信する。このタイミング信号は、読み出し対象の画素のアドレス情報を含む。   The drive signal generation unit 406 generates a driving timing signal for driving the image sensor 244 and transmits the timing signal to the timing generator 244d via a predetermined signal line included in the collective cable 245. This timing signal includes address information of a pixel to be read.

入力部407は、内視鏡システム1の動作を指示する動作指示信号等の各種信号の入力を受け付ける。   The input unit 407 receives input of various signals such as an operation instruction signal that instructs the operation of the endoscope system 1.

記録部408は、フラッシュメモリやDRAM(Dynamic Random Access Memory)等の半導体メモリを用いて実現される。記録部408は、内視鏡システム1を動作させるための各種プログラム、および内視鏡システム1の動作に必要な各種パラメータ等を含むデータを記録する。また、記録部408は、処理装置4の識別情報を記録する。ここで、識別情報には、処理装置4の固有情報(ID)、年式、スペック情報、伝送方式および伝送レート等が含まれる。   The recording unit 408 is realized using a semiconductor memory such as a flash memory or a DRAM (Dynamic Random Access Memory). The recording unit 408 records data including various programs for operating the endoscope system 1 and various parameters necessary for the operation of the endoscope system 1. The recording unit 408 records the identification information of the processing device 4. Here, the identification information includes unique information (ID) of the processing device 4, year type, specification information, transmission method, transmission rate, and the like.

制御部409は、CPU等を用いて構成され、撮像素子244および光源装置3を含む各構成部の駆動制御、および各構成部に対する情報の入出力制御などを行う。制御部409は、撮像制御のための設定データを、集合ケーブル245に含まれる所定の信号線を介して撮像制御部244eへ送信する。制御部409は、撮像素子244の各ラインの露光タイミングと読み出しタイミングを含む同期信号を光源装置3に出力する。   The control unit 409 is configured using a CPU or the like, and performs drive control of each component including the image sensor 244 and the light source device 3, and input / output control of information with respect to each component. The control unit 409 transmits setting data for imaging control to the imaging control unit 244e via a predetermined signal line included in the collective cable 245. The control unit 409 outputs a synchronization signal including the exposure timing and readout timing of each line of the image sensor 244 to the light source device 3.

基準クロック生成部410は、内視鏡システム1の各構成部の動作の基準となる基準クロック信号を生成し、内視鏡システム1の各構成部に対して生成した基準クロック信号を供給する。   The reference clock generation unit 410 generates a reference clock signal that serves as a reference for the operation of each component of the endoscope system 1 and supplies the generated reference clock signal to each component of the endoscope system 1.

次に、表示装置5について説明する。表示装置5は、映像ケーブルを介して処理装置4が生成した体内画像情報に対応する体内画像を受信して表示する。表示装置5は、液晶ディスプレイまたは有機EL(Electro Luminescence)ディスプレイを用いて構成される。   Next, the display device 5 will be described. The display device 5 receives and displays the in-vivo image corresponding to the in-vivo image information generated by the processing device 4 via the video cable. The display device 5 is configured using a liquid crystal display or an organic EL (Electro Luminescence) display.

以上の構成を有する内視鏡システム1の撮影時における光源装置3が出射する照明光の出射タイミング、撮像素子244の露光と読み出しタイミングおよび画像処理部402による処理について説明する。   The emission timing of the illumination light emitted from the light source device 3 at the time of photographing with the endoscope system 1 having the above configuration, the exposure and readout timing of the image sensor 244, and the processing by the image processing unit 402 will be described.

図3は、内視鏡システム1の撮影時における光源装置3が出射する照明光の出射タイミング、撮像素子244の露光と読み出しタイミングおよび画像処理部402による処理を模式的に示す図である。図3(a)は、時間を示す。図3(b)は、光源装置3が出射する照明光の出射タイミングを示す。図3(c)は、撮像素子244の露光および読み出しタイミングを示す。図3(d)は、画像処理部402による画像生成処理の内容を示す。なお、実施の形態1では、1フレームの水平ラインにおいて、読み出し開始のラインと読み出し終了のラインとの間において、同時露光期間Tm1が短い、またはほぼゼロであるものとして説明する。   FIG. 3 is a diagram schematically showing the emission timing of illumination light emitted from the light source device 3 at the time of photographing by the endoscope system 1, the exposure and readout timing of the image sensor 244, and the processing by the image processing unit 402. FIG. 3A shows time. FIG. 3B shows the emission timing of the illumination light emitted from the light source device 3. FIG. 3C shows the exposure and readout timing of the image sensor 244. FIG. 3D shows the contents of image generation processing by the image processing unit 402. In the first embodiment, it is assumed that in the horizontal line of one frame, the simultaneous exposure period Tm1 is short or almost zero between the read start line and the read end line.

図3に示すように、照明制御部32は、照明部31を制御することによって、撮像素子244のフレームレートに同期して照明部31に照明光を出射または消灯する制御を行う。   As shown in FIG. 3, the illumination control unit 32 controls the illumination unit 31 to emit or illuminate illumination light to the illumination unit 31 in synchronization with the frame rate of the image sensor 244.

具体的には、照明制御部32は、読み出し部244gが受光部244fのフレームF1−1の最初の水平ラインから次のフレームF1−2の最初の水平ラインを読み出すまでの期間(1フレーム期間)、照明部31による照明光の消灯を行う(消灯期間Ts1、第1の期間)。   Specifically, the illumination control unit 32 has a period (one frame period) until the reading unit 244g reads the first horizontal line of the next frame F1-2 from the first horizontal line of the frame F1-1 of the light receiving unit 244f. The illumination light is turned off by the illumination unit 31 (turn-off period Ts1, first period).

続いて、照明制御部32は、読み出し部244gが受光部244fのフレームF1−2の最初の水平ラインから次のフレームF2−1の最初の水平ラインを読み出すまでの期間(1フレーム期間)、照明部31に照明光を出射させる(照明期間Te1、第2の期間)。この際、読み出し部244gは、照明期間Te1において出射された照明光によって露光された画素を含むフレームF1−1,F1−2の撮像データD1−1,D1−2(第1および第2の撮像信号)を受光部244fからそれぞれ読み出して画像処理部402へ出力する。   Subsequently, the illumination controller 32 illuminates a period (one frame period) from when the reading unit 244g reads the first horizontal line of the next frame F2-1 from the first horizontal line of the frame F1-2 of the light receiving unit 244f. The illumination light is emitted from the unit 31 (illumination period Te1, second period). At this time, the reading unit 244g captures the imaging data D1-1 and D1-2 (first and second imaging) of the frames F1-1 and F1-2 including the pixels exposed by the illumination light emitted in the illumination period Te1. Signal) from the light receiving unit 244f and output to the image processing unit 402.

さらに、画像処理部402は、撮像データD1−1と撮像データD1−2とを加算した画像データDd1(画像信号)を生成する。具体的には、画像処理部402は、撮像データD1−1と撮像データD1−2とを画素毎に輝度値を加算することによって、画像データDd1を生成する。これにより、照明期間Te1の照明光で露光された画像に対応する画像信号が生成される。   Further, the image processing unit 402 generates image data Dd1 (image signal) obtained by adding the imaging data D1-1 and the imaging data D1-2. Specifically, the image processing unit 402 generates the image data Dd1 by adding the luminance values of the imaging data D1-1 and the imaging data D1-2 for each pixel. Thereby, an image signal corresponding to an image exposed with the illumination light in the illumination period Te1 is generated.

その後、照明制御部32は、読み出し部244gが受光部244fのフレームF2−1の最初の水平ラインから次のフレームF2−2の最初の水平ラインを読み出すまでの1フレーム期間、照明部31による照明光の消灯を行う(消灯期間Ts2)。続いて、照明制御部32は、読み出し部244gが受光部244fのフレームF2−2の最初の水平ラインから次のフレームF3−1の最初の水平ラインを読み出すまでの1フレーム期間、照明部31に照明光を出射させる(照明期間Te2)。この際、読み出し部244gは、照明期間Te2において出射された照明光によって露光された画素を含むフレームF2−1,F2−2の撮像データD2−1,D2−2を受光部244fからそれぞれ読み出して画像処理部402へ出力する。さらに、画像処理部402は、上述したように、撮像データD2−1と撮像データD2−2とを加算した画像データDd2を生成する。   Thereafter, the illumination control unit 32 performs illumination by the illumination unit 31 for one frame period until the reading unit 244g reads the first horizontal line of the next frame F2-2 from the first horizontal line of the frame F2-1 of the light receiving unit 244f. The light is turned off (turn-off period Ts2). Subsequently, the illumination control unit 32 sets the illumination unit 31 for one frame period until the reading unit 244g reads the first horizontal line of the next frame F3-1 from the first horizontal line of the frame F2-2 of the light receiving unit 244f. Illumination light is emitted (illumination period Te2). At this time, the reading unit 244g reads the imaging data D2-1 and D2-2 of the frames F2-1 and F2-2 including the pixels exposed by the illumination light emitted in the illumination period Te2 from the light receiving unit 244f, respectively. The image is output to the image processing unit 402. Further, as described above, the image processing unit 402 generates image data Dd2 obtained by adding the imaging data D2-1 and the imaging data D2-2.

このように、照明制御部32は、フレームF2−2に続くフレームF3−1,F3−2、フレームF4−1,F4−2、フレームF5−1・・・においても、1フレーム期間ごとに照明光の消灯および出射を繰り返す。読み出し部244gは、各フレームに応じた撮像データD3−1,D3−2、撮像データD4−1,D4−2、撮像データD5−1・・・を受光部244fからそれぞれ読み出して画像処理部402へ出力する。さらに、画像処理部402は、上述したように、撮像データD3−1および撮像データD3−2、撮像データD4−1および撮像データD4−2を加算した画像データDd3,Dd4をそれぞれ生成する。   In this way, the illumination control unit 32 also illuminates every frame period in the frames F3-1, F3-2, F4-1, F4-2, the frame F5-1, etc. following the frame F2-2. Repeat turning off and emitting light. The reading unit 244g reads the imaging data D3-1, D3-2, imaging data D4-1, D4-2, imaging data D5-1,... Corresponding to each frame from the light receiving unit 244f, respectively, and the image processing unit 402. Output to. Further, as described above, the image processing unit 402 generates image data Dd3 and Dd4 obtained by adding the imaging data D3-1 and imaging data D3-2, the imaging data D4-1, and the imaging data D4-2, respectively.

図4は、内視鏡システム1の撮影時における光源装置3が出射する照明光の出射タイミングおよび撮像素子の露光と読み出しタイミングを説明する図である。読み出し部244gによって第nラインの読み出しを行う際、フレームF1−1における照明光照射時の読み出し期間をT1、フレームF1−2における照明光照射時の読み出し期間をT2、1フレーム期間に応じた読み出し期間をTf、フレームF1−1およびフレームF1−2の間のリセット期間をTrとすると、照明光の出射にかかる照明期間Te1は、下式(1)の関係を満たしている。
T1+T2=Tf−Tr ・・・(1)
FIG. 4 is a diagram illustrating the emission timing of the illumination light emitted from the light source device 3 and the exposure and readout timing of the image sensor at the time of photographing with the endoscope system 1. When the reading unit 244g reads the n-th line, the reading period at the time of illumination light irradiation in the frame F1-1 is T1 n , the reading period at the time of illumination light irradiation in the frame F1-2 is T2 n , and according to one frame period. Assuming that the readout period is Tf and the reset period between the frames F1-1 and F1-2 is Tr, the illumination period Te1 for emitting illumination light satisfies the relationship of the following expression (1).
T1 n + T2 n = Tf- Tr ··· (1)

また、次のラインである第n+1ラインでは、下式(2)を満たす。
T1n+1+T2n+1=Tf−Tr ・・・(2)
Further, the following equation (2) is satisfied in the (n + 1) th line as the next line.
T1 n + 1 + T2 n + 1 = Tf−Tr (2)

ここで、読み出し期間Tfおよびリセット期間Trは定数であるため、式(1)、(2)より、下式(3)の関係が成り立つ。
T1+T2=T1n+1+T2n+1 ・・・(3)
すなわち、第nラインにおける露光期間と、第n+1ラインにおける露光期間とは、等しい。なお、照明期間Te1が読み出し期間Tfと等しい場合は、式(1)より、下式(1)’の関係が成り立つ。
T1+T2=Te1−Tr ・・・(1)’
Here, since the readout period Tf and the reset period Tr are constants, the relationship of the following expression (3) is established from the expressions (1) and (2).
T1 n + T2 n = T1 n + 1 + T2 n + 1 (3)
That is, the exposure period in the nth line is equal to the exposure period in the (n + 1) th line. When the illumination period Te1 is equal to the readout period Tf, the relationship of the following equation (1) ′ is established from the equation (1).
T1 n + T2 n = Te1-Tr (1) ′

このとき、Tf(Te1)>>Trである場合、例えば式(1)におけるT1+T2は、T1+T2≒Tfとなり、フレームF1−1およびF1−2の撮像データD1−1,D1−2の和(画像データDd1)は、照明期間Te1において連続して読み出されて生成された画像データであるといえる。これにより、撮像データD1−1,D1−2が加算されて得られた画像データDd1は、同時性が保たれ、ラインごとに歪みのない画像となる。 At this time, if Tf (Te1) >> Tr, for example, T1 n + T2 n in equation (1) becomes T1 n + T2 n ≈Tf, and the imaging data D1-1 and D1 of the frames F1-1 and F1-2 -2 (image data Dd1) can be said to be image data that is read and generated continuously in the illumination period Te1. As a result, the image data Dd1 obtained by adding the imaging data D1-1 and D1-2 is kept simultaneity and becomes an image without distortion for each line.

以上説明した本発明の実施の形態1によれば、同一の照明期間を含む複数のフレームに応じた撮像信号を加算して、一つの画像データ(画像信号)を生成するようにしたので、撮像素子で露光してから電荷を読み出すまでの一連の処理をライン毎に異なるタイミングで行ったとしても、画像のぶれや歪みを抑制することができる。   According to the first embodiment of the present invention described above, since image signals corresponding to a plurality of frames including the same illumination period are added to generate one image data (image signal), imaging is performed. Even if a series of processing from exposure by the element to reading of charges is performed at different timings for each line, image blurring and distortion can be suppressed.

また、本発明の実施の形態1によれば、照明制御部32が、照明期間の前後を消灯期間として照明部31を制御するようにしたので、異なる照明期間によって露光された画像信号が画像生成に使用されることがなく、画像における混色を防止することができる。   Further, according to Embodiment 1 of the present invention, the illumination control unit 32 controls the illumination unit 31 with the illumination period before and after the illumination period, so that image signals exposed in different illumination periods are generated as images. The color mixture in the image can be prevented.

(変形例1−1)
図5は、本実施の形態1の変形例1−1にかかる内視鏡システムの撮影時における光源装置が出射する照明光の出射タイミング、撮像素子の露光と読み出しタイミングおよび画像処理部による処理を模式的に示す図である。図5における(a)〜(d)は、図3の(a)〜(d)と同様である。上述した実施の形態1では、1フレームの水平ラインにおいて、読み出し開始のラインと読み出し終了のラインとの間において、同時露光期間Tm1が短いものとして説明したが、変形例1−1のように1ラインの読み出し期間の1/2以上の同時露光期間Tm2であっても適用可能である。
(Modification 1-1)
FIG. 5 shows the emission timing of the illumination light emitted from the light source device, the exposure and readout timing of the image sensor, and the processing by the image processing unit when the endoscope system according to Modification 1-1 of the first embodiment performs imaging. It is a figure shown typically. (A)-(d) in FIG. 5 is the same as that of (a)-(d) of FIG. In the first embodiment described above, it has been described that the simultaneous exposure period Tm1 is short between the readout start line and the readout end line in the horizontal line of one frame. However, as in Modification 1-1, 1 is used. The present invention is also applicable to a simultaneous exposure period Tm2 that is ½ or more of the line readout period.

(変形例1−2)
図6は、本実施の形態1の変形例1−2にかかる内視鏡システムの撮影時における光源装置が出射する照明光の出射タイミング、撮像素子の露光と読み出しタイミングおよび画像処理部による処理を模式的に示す図である。図6における(a)〜(d)は、図3の(a)〜(d)と同様である。上述した実施の形態1では、照明制御部32による照明部31の照明光の出射タイミングを、読み出し部244gの読み出し開始タイミングと同期させて行うものとして説明したが、変形例1−2では、読み出し部244gの読み出し開始タイミングと異なるタイミングで照明光を出射する。
(Modification 1-2)
FIG. 6 illustrates the emission timing of the illumination light emitted from the light source device, the exposure and readout timing of the image sensor, and the processing by the image processing unit when the endoscope system according to Modification 1-2 of the first embodiment performs imaging. It is a figure shown typically. (A) to (d) in FIG. 6 are the same as (a) to (d) in FIG. In Embodiment 1 described above, the illumination light emission timing of the illumination unit 31 by the illumination control unit 32 has been described as being performed in synchronization with the readout start timing of the readout unit 244g. However, in Modification 1-2, readout is performed. Illumination light is emitted at a timing different from the readout start timing of the unit 244g.

図6に示すように、照明制御部32が、読み出し部244gの読み出し開始タイミングと異なるタイミングで照明光を出射する場合、1フレーム期間に応じた照明光の照明期間Te11は、三つのフレーム(フレームF1−1,F1−2,F1−3)を含む。この際、読み出し部244gは、照明期間Te11において出射された照明光によって露光された画素を含むフレームF1−1,F1−2,F1−3の撮像データD1−1,D1−2,D1−3を受光部244fからそれぞれ読み出して画像処理部402へ出力する。さらに、画像処理部402は、上述したように、撮像データD1−1、撮像データD1−2および撮像データD1−3を加算した画像データDd11を生成する。   As illustrated in FIG. 6, when the illumination control unit 32 emits illumination light at a timing different from the readout start timing of the readout unit 244g, the illumination period Te11 of illumination light corresponding to one frame period includes three frames (frames). F1-1, F1-2, F1-3). At this time, the reading unit 244g captures the imaging data D1-1, D1-2, and D1-3 of the frames F1-1, F1-2, and F1-3 including the pixels exposed by the illumination light emitted in the illumination period Te11. Are respectively read from the light receiving unit 244f and output to the image processing unit 402. Further, as described above, the image processing unit 402 generates image data Dd11 obtained by adding the imaging data D1-1, the imaging data D1-2, and the imaging data D1-3.

このとき、照明制御部32は、照明期間Te11の前後に1フレーム期間に応じた消灯期間Ts11a,Ts11bを設ける。すなわち、照明制御部32は、一つの加算画像データDd11を生成する場合において、消灯、照明、消灯の順で照明部31を制御する。   At this time, the illumination control unit 32 provides extinguishing periods Ts11a and Ts11b corresponding to one frame period before and after the illumination period Te11. That is, the illumination control unit 32 controls the illumination unit 31 in the order of extinction, illumination, and extinction when generating one added image data Dd11.

このように、照明制御部32は、フレームF1−3に続くフレームF2−1,F2−2,F2−3においても、1フレーム期間以上の期間(照明期間Te12)、照明部31による照明光を出射し、照明期間Te12の前後の期間であって、1フレーム期間に応じた期間(消灯期間Ts12a,Ts12b)、照明部31を消灯する制御を行なう。さらに、照明制御部32は、フレームF2−3に続くフレームF3−1,F3−2,F3−3においても、1フレーム期間以上の期間(照明期間Te13)、照明部31による照明光を出射し、照明期間Te13の前後の期間であって、1フレーム期間に応じた期間(消灯期間Ts13a,Ts13b)、照明部31を消灯する制御を行なう。照明制御部32は、この照明処理を繰り返す。   As described above, the illumination control unit 32 also emits illumination light from the illumination unit 31 in the frames F2-1, F2-2, and F2-3 following the frame F1-3 for a period of one frame period or more (illumination period Te12). Control is performed to turn off the illumination unit 31 during the period before and after the illumination period Te12 and corresponding to one frame period (the extinction periods Ts12a and Ts12b). Further, the illumination control unit 32 also emits illumination light from the illumination unit 31 in the frames F3-1, F3-2, and F3-3 following the frame F2-3 for a period of one frame period or more (illumination period Te13). The illumination unit 31 is controlled to be extinguished during the period before and after the illumination period Te13 and corresponding to one frame period (extinguishing periods Ts13a and Ts13b). The illumination control unit 32 repeats this illumination process.

この際、読み出し部244gは、各フレームに応じた撮像データD2−1,D2−2,D2−3、撮像データD3−1,D3−2,D3−3、・・・を受光部244fからそれぞれ読み出して画像処理部402へ出力する。さらに、画像処理部402は、上述したように、撮像データD2−1、撮像データD2−2および撮像データD2−3、撮像データD3−1、撮像データD3−2および撮像データD3−3をそれぞれ加算した画像データDd12,Dd13を生成する。   At this time, the reading unit 244g receives the imaging data D2-1, D2-2, D2-3, the imaging data D3-1, D3-2, D3-3,... According to each frame from the light receiving unit 244f. Read out and output to the image processing unit 402. Further, as described above, the image processing unit 402 receives the imaging data D2-1, imaging data D2-2, imaging data D2-3, imaging data D3-1, imaging data D3-2, and imaging data D3-3, respectively. The added image data Dd12 and Dd13 are generated.

(変形例1−3)
図7は、本実施の形態1の変形例1−3にかかる内視鏡システムの撮影時における光源装置が出射する照明光の出射タイミング、撮像素子の露光と読み出しタイミングおよび画像処理部による処理を模式的に示す図である。図7における(a)〜(d)は、図3の(a)〜(d)と同様である。上述した実施の形態1では、照明制御部32による照明部31の照明光の照明期間Te1が、1フレーム期間に応じた期間であるものとして説明したが、変形例1−3では、1フレーム期間以上として照明光を出射する。
(Modification 1-3)
FIG. 7 shows the emission timing of the illumination light emitted from the light source device, the exposure and readout timing of the image sensor, and the processing by the image processing unit at the time of photographing by the endoscope system according to the modification 1-3 of the first embodiment. It is a figure shown typically. (A)-(d) in FIG. 7 is the same as that of (a)-(d) of FIG. In Embodiment 1 described above, the illumination period Te1 of the illumination light of the illumination unit 31 by the illumination control unit 32 has been described as a period corresponding to one frame period. However, in Modification 1-3, one frame period The illumination light is emitted as described above.

図7に示すように、照明制御部32が、読み出し部244gの読み出し開始タイミングと同期させて1フレーム期間以上の期間(照明期間Te21)、照明部31から照明光を出射する場合、この照明期間Te21は、三つのフレーム(フレームF1−1,F1−2,F1−3)を含む。この際、読み出し部244gは、照明期間Te21において出射された照明光によって露光された画素を含むフレームF1−1,F1−2,F1−3の撮像データD1−1,D1−2,D1−3を受光部244fからそれぞれ読み出して画像処理部402へ出力する。さらに、画像処理部402は、上述したように、撮像データD1−1、撮像データD1−2および撮像データD1−3を加算した画像データDd21をそれぞれ生成する。   As shown in FIG. 7, when the illumination control unit 32 emits illumination light from the illumination unit 31 for a period of one frame period or more (illumination period Te21) in synchronization with the readout start timing of the readout unit 244g, this illumination period Te21 includes three frames (frames F1-1, F1-2, and F1-3). At this time, the reading unit 244g captures the imaging data D1-1, D1-2, and D1-3 of the frames F1-1, F1-2, and F1-3 including the pixels exposed by the illumination light emitted in the illumination period Te21. Are respectively read from the light receiving unit 244f and output to the image processing unit 402. Furthermore, as described above, the image processing unit 402 generates image data Dd21 obtained by adding the imaging data D1-1, the imaging data D1-2, and the imaging data D1-3.

このとき、照明制御部32は、照明期間Te21の前に1フレーム期間に応じた消灯期間Ts21を設ける。すなわち、照明制御部32は、一つの画像データDd21を生成する場合において、消灯、照明の順で照明部31を制御する。   At this time, the illumination control unit 32 provides a turn-off period Ts21 corresponding to one frame period before the illumination period Te21. That is, the illumination control unit 32 controls the illumination unit 31 in the order of turning off and lighting when generating one image data Dd21.

このように、照明制御部32は、フレームF1−3に続くフレームF2−1,F2−2,F2−3、フレームF3−1,F3−2,F3−3・・・においても、1フレーム期間に応じた期間(消灯期間Ts22,Ts23)、照明部31の消灯をそれぞれ行った後、1フレーム期間以上の期間(照明期間Te22,Te23・・・)、照明部31による照明光の出射をそれぞれ行う制御を繰り返す。読み出し部244gは、各フレームに応じた撮像データD2−1,D2−2,D2−3、撮像データD3−1,D3−2,D3−3・・・を受光部244fからそれぞれ読み出して画像処理部402へ出力する。さらに、画像処理部402は、上述したように、撮像データD2−1、撮像データD2−2および撮像データD2−3、撮像データD3−1、撮像データD3−2および撮像データD3−3を加算した画像データDd22,Dd23をそれぞれ生成する。   In this way, the illumination control unit 32 also performs the one frame period in the frames F2-1, F2-2, F2-3, the frames F3-1, F3-2, F3-3,. The illumination unit 31 emits illumination light for a period of one frame period or more (illumination periods Te22, Te23...) Repeat the control to be performed. The readout unit 244g reads out the imaging data D2-1, D2-2, D2-3, the imaging data D3-1, D3-2, D3-3,... Corresponding to each frame from the light receiving unit 244f, respectively, and performs image processing. Output to the unit 402. Further, as described above, the image processing unit 402 adds the imaging data D2-1, the imaging data D2-2, the imaging data D2-3, the imaging data D3-1, the imaging data D3-2, and the imaging data D3-3. The generated image data Dd22 and Dd23 are generated.

(実施の形態2)
次に、本発明の実施の形態2について説明する。図8は、本実施の形態2にかかる内視鏡システムの要部の機能構成を示すブロック図である。なお、上述した実施の形態1と同一の構成には同一の符号を付して説明する。上述した実施の形態1では、一つの光源33によって単一の照明光の照射を行っていたが、実施の形態2では、複数(本実施の形態2では二つ)の光源33a,33bによって照明光の出射を行う。
(Embodiment 2)
Next, a second embodiment of the present invention will be described. FIG. 8 is a block diagram illustrating a functional configuration of a main part of the endoscope system according to the second embodiment. In addition, the same code | symbol is attached | subjected and demonstrated to the structure same as Embodiment 1 mentioned above. In the first embodiment described above, the single illumination light is irradiated by the single light source 33. However, in the second embodiment, illumination is performed by a plurality of (two in the second embodiment) light sources 33a and 33b. Light is emitted.

まず、本実施の形態2にかかる内視鏡システム1aの光源装置3aの構成について説明する。光源装置3aは、照明部31aと、照明制御部32aと、を備える。   First, the configuration of the light source device 3a of the endoscope system 1a according to the second embodiment will be described. The light source device 3a includes an illumination unit 31a and an illumination control unit 32a.

照明部31aは、被写体を照明する照明光を出射する。照明部31aは、光源33a,33bと、光源33a,33bに応じて設けられる第1光源ドライバ34aおよび第2光源ドライバ34bと、を有する。   The illumination unit 31a emits illumination light that illuminates the subject. The illumination unit 31a includes light sources 33a and 33b, and a first light source driver 34a and a second light source driver 34b provided according to the light sources 33a and 33b.

光源33aは、白色LEDを用いて構成され、照明制御部32aの制御のもと、白色光を発生する。光源33aが発生した光は、集光レンズ(図示せず)およびライトガイド241を経由して先端部24から被写体に向けて照射される。   The light source 33a is configured using a white LED, and generates white light under the control of the illumination control unit 32a. The light generated by the light source 33a is emitted from the distal end portion 24 toward the subject via a condenser lens (not shown) and a light guide 241.

第1光源ドライバ34aは、光源33aに対して照明制御部32aの制御のもとで電流を供給することにより、光源33aに白色光を発生させる。   The first light source driver 34a supplies white light to the light source 33a by supplying current to the light source 33a under the control of the illumination control unit 32a.

光源33bは、出射面側にフィルタが取り付けられた白色LEDを用いて構成され、照明制御部32aの制御のもと、フィルタにより抽出された青色光を発生する。光源33bが発生した光は、集光レンズおよびライトガイド241を経由して先端部24から被写体に向けて照射される。また、光源33bからの青色光は、NBI(Narrow Band Imaging:挟帯域光観察)用の照明光として用いられる。なお、光源33bは、例えばフィルタを設けずに青色LEDによって構成されるものであってもよい。   The light source 33b is configured by using a white LED with a filter attached to the exit surface side, and generates blue light extracted by the filter under the control of the illumination control unit 32a. The light generated by the light source 33b is emitted toward the subject from the distal end portion 24 via the condenser lens and the light guide 241. The blue light from the light source 33b is used as illumination light for NBI (Narrow Band Imaging). The light source 33b may be configured by a blue LED without providing a filter, for example.

第2光源ドライバ34bは、光源33bに対して照明制御部32aの制御のもとで電流を供給することにより、光源33bに青色光を発生させる。   The second light source driver 34b supplies blue light to the light source 33b by supplying current to the light source 33b under the control of the illumination control unit 32a.

照明制御部32aは、照明部31aによる照明光の出射および消灯の制御を行なう。また、照明制御部32aは、照明部31aの光源33a,33bを選択したり、照明部31aが出射する照明光の強度を一定に保つなど、照明部31aが出射する照明光の強度を可変制御したりする。   The illumination control unit 32a controls the emission and extinction of illumination light by the illumination unit 31a. Further, the illumination control unit 32a variably controls the intensity of the illumination light emitted from the illumination unit 31a, such as selecting the light sources 33a and 33b of the illumination unit 31a, and keeping the intensity of the illumination light emitted from the illumination unit 31a constant. To do.

図9は、本実施の形態2にかかる内視鏡システムの撮影時における光源装置が出射する照明光の出射タイミング、撮像素子の露光と読み出しタイミングおよび画像処理部による処理を模式的に示す図である。図9における(a)〜(d)は、図3の(a)〜(d)と同様である。   FIG. 9 is a diagram schematically illustrating the emission timing of illumination light emitted from the light source device at the time of photographing by the endoscope system according to the second embodiment, the exposure and readout timing of the image sensor, and the processing by the image processing unit. is there. (A) to (d) in FIG. 9 are the same as (a) to (d) in FIG.

図9に示すように、照明制御部32aは、照明部31aを制御することによって、撮像素子244のフレームレートに同期して照明部31aに照明光を出射または消灯する制御を行う。   As shown in FIG. 9, the illumination control unit 32a controls the illumination unit 31a to emit or extinguish illumination light to the illumination unit 31a in synchronization with the frame rate of the image sensor 244.

具体的には、照明制御部32aは、まず、1フレーム期間に応じた期間、照明部31aによる照明光の消灯を行う(消灯期間Ts31)。   Specifically, the illumination control unit 32a first turns off the illumination light by the illumination unit 31a for a period corresponding to one frame period (extinction period Ts31).

続いて、照明制御部32aは、1フレーム期間に応じた期間、照明部31aの光源33aに照明光を出射させる(第1照明、照明期間Te31)。この際、読み出し部244gは、照明期間Te31において出射された照明光によって露光された画素を含むフレームF1−1,F1−2の撮像データD1−1,D1−2を受光部244fからそれぞれ読み出して画像処理部402へ出力する。さらに、画像処理部402は、上述したように、撮像データD1−1と撮像データD1−2とを加算した画像データDd31を生成する。   Subsequently, the illumination control unit 32a causes the light source 33a of the illumination unit 31a to emit illumination light for a period corresponding to one frame period (first illumination, illumination period Te31). At this time, the readout unit 244g reads out the imaging data D1-1 and D1-2 of the frames F1-1 and F1-2 including the pixels exposed by the illumination light emitted in the illumination period Te31 from the light receiving unit 244f, respectively. The image is output to the image processing unit 402. Further, as described above, the image processing unit 402 generates image data Dd31 obtained by adding the imaging data D1-1 and the imaging data D1-2.

その後、照明制御部32aは、1フレーム期間に応じた期間(消灯期間Ts32)、照明部31aの消灯を行う。続いて、照明制御部32aは、読み出し部244gが受光部244fの1フレーム期間、照明部31aの光源33bに照明光を出射させる(第2照明、照明期間Te32)。この際、読み出し部244gは、期間Te2において出射された照明光によって露光された画素を含むフレームF2−1,F2−2の撮像データD2−1,D2−2を受光部244fからそれぞれ読み出して画像処理部402へ出力する。さらに、画像処理部402は、上述したように、撮像データD2−1と撮像データD2−2とを加算した画像データDd41を生成する。   Thereafter, the illumination control unit 32a turns off the illumination unit 31a for a period corresponding to one frame period (extinguishing period Ts32). Subsequently, in the illumination control unit 32a, the reading unit 244g causes the light source 33b of the illumination unit 31a to emit illumination light for one frame period of the light receiving unit 244f (second illumination, illumination period Te32). At this time, the reading unit 244g reads the imaging data D2-1 and D2-2 of the frames F2-1 and F2-2 including the pixels exposed by the illumination light emitted in the period Te2 from the light receiving unit 244f, respectively. The data is output to the processing unit 402. Further, as described above, the image processing unit 402 generates image data Dd41 obtained by adding the imaging data D2-1 and the imaging data D2-2.

このように、照明制御部32aは、フレームF2−2に続くフレームF3−1,F3−2、フレームF4−1,F4−2、フレームF5−1、・・・においても、1フレーム期間に応じた期間(消灯期間Ts33,Ts34、・・・)、照明部31aの消灯をそれぞれ行い、1フレーム期間に応じた期間(照明期間Te33,Te34、・・・)、光源33a,33bのいずれかによる照明光の照明をそれぞれ行う制御を繰り返す。この際、読み出し部244gは、各フレームに応じた撮像データD3−1,D3−2、撮像データD4−1,D4−2、撮像データD5−1・・・を受光部244fからそれぞれ読み出して画像処理部402へ出力する。さらに、画像処理部402は、上述したように、撮像データD3−1および撮像データD3−2、撮像データD4−1および撮像データD4−2を加算した画像データDd32,Dd42をそれぞれ生成する。   In this way, the illumination control unit 32a also responds to one frame period in frames F3-1, F3-2, frames F4-1, F4-2, frames F5-1,. , The illumination unit 31a is turned off, the period corresponding to one frame period (illumination periods Te33, Te34,...), And the light sources 33a and 33b. The control for illuminating the illumination light is repeated. At this time, the reading unit 244g reads the imaging data D3-1, D3-2, imaging data D4-1, D4-2, imaging data D5-1,... Corresponding to each frame from the light receiving unit 244f, respectively. The data is output to the processing unit 402. Further, as described above, the image processing unit 402 generates image data Dd32 and Dd42 obtained by adding the imaging data D3-1 and imaging data D3-2, the imaging data D4-1, and the imaging data D4-2.

実施の形態2では、図9において光源33a,33bによる照明光の照明を交互に行うものとしているが、交互の照明処理に限らず、所定の回数ごとに切り替えるようにしてもよい。   In the second embodiment, the illumination light is alternately illuminated by the light sources 33a and 33b in FIG. 9, but the illumination light is not limited to the alternate illumination process and may be switched every predetermined number of times.

以上説明した本発明の実施の形態2によれば、異なる光源を有する場合であっても、同一の照明期間を含む複数のフレームに応じた撮像信号を加算して、一つの画像データ(画像信号)を生成するようにしたので、撮像素子で露光してから電荷を読み出すまでの一連の処理をライン毎に異なるタイミングで行ったとしても、各照明光による画像のぶれや歪みを抑制することができる。   According to the second embodiment of the present invention described above, even when different light sources are used, image signals corresponding to a plurality of frames including the same illumination period are added to obtain one image data (image signal). ), The image blur and distortion caused by each illumination light can be suppressed even when a series of processing from exposure to image pickup to readout of charge is performed at different timings for each line. it can.

また、本発明の実施の形態2によれば、照明制御部32aが、照明期間の前後を消灯期間として照明部31aを制御するようにしたので、異なる照明期間によって露光された画像信号が画像生成に使用されることがなく、画像における混色を防止することができる。   In addition, according to the second embodiment of the present invention, the illumination control unit 32a controls the illumination unit 31a with the illumination period before and after the illumination period as the extinguishing period. The color mixture in the image can be prevented.

なお、本発明の実施の形態2では、NBI用の照明光を用いるものとして説明したが、AFI(Auto Fluorescence Imaging:蛍光観察)用の照明光やIRI(Infrared Imaging:赤外光観察)用の照明光等を用いる場合であっても適用することができる。   In the second embodiment of the present invention, the illumination light for NBI is described as being used. However, the illumination light for AFI (Auto Fluorescence Imaging) and the illumination light for IRI (Infrared Imaging) are used. Even when illumination light or the like is used, the present invention can be applied.

(変形例2−1)
図10は、本実施の形態2の変形例2−1にかかる内視鏡システムの撮影時における光源装置が出射する照明光の出射タイミング、撮像素子の露光と読み出しタイミングおよび画像処理部による処理を模式的に示す図である。上述した実施の形態2では、照明制御部32aによる照明部31aの光源33bの照明光の照射期間Te32,Te34が、1フレーム期間に応じた期間であるものとして説明したが、変形例2−1では、1フレーム期間以上の期間、光源33bによる照明光を照射する。
(Modification 2-1)
FIG. 10 shows the emission timing of the illumination light emitted from the light source device at the time of photographing by the endoscope system according to the modified example 2-1 of the second embodiment, the exposure and readout timing of the image sensor, and the processing by the image processing unit. It is a figure shown typically. In the second embodiment described above, the illumination light irradiation periods Te32 and Te34 of the light source 33b of the illumination unit 31a by the illumination control unit 32a have been described as periods corresponding to one frame period, but Modification 2-1 Then, the illumination light from the light source 33b is irradiated for a period of one frame period or more.

図10に示すように、照明制御部32aが、読み出し部244gの読み出し開始タイミングと同期させて1フレーム期間に応じた期間(消灯期間Ts41)、照明部31aの消灯を行った後、1フレーム期間以上(本変形例2−1では2フレーム期間)の期間(照明期間Te41)、光源33bによる照明光を出射する(第2照明)。この場合、照明期間Te41は、三つのフレーム(フレームF1−1,F1−2,F1−3)を含む。この際、読み出し部244gは、期間Te41において出射された照明光によって露光された画素を含むフレームF1−1,F1−2,F1−3の撮像データD1−1,D1−2,D1−3を受光部244fからそれぞれ読み出して画像処理部402へ出力する。さらに、画像処理部402は、上述したように、撮像データD1−1、撮像データD1−2および画像データD1−3を加算した画像データDd51を生成する。   As shown in FIG. 10, after the illumination control unit 32a turns off the illumination unit 31a for a period corresponding to one frame period (light-out period Ts41) in synchronization with the readout start timing of the readout unit 244g, The illumination light emitted from the light source 33b is emitted (second illumination) during the period (illumination period Te41) as described above (two frame periods in the present modification 2-1). In this case, the illumination period Te41 includes three frames (frames F1-1, F1-2, and F1-3). At this time, the reading unit 244g receives the imaging data D1-1, D1-2, and D1-3 of the frames F1-1, F1-2, and F1-3 including the pixels exposed by the illumination light emitted in the period Te41. Each is read from the light receiving unit 244 f and output to the image processing unit 402. Furthermore, as described above, the image processing unit 402 generates the image data Dd51 obtained by adding the imaging data D1-1, the imaging data D1-2, and the image data D1-3.

続いて、照明制御部32aは、1フレーム期間に応じた期間(消灯期間Ts51)、照明部31aの消灯を行った後、1フレーム期間に応じた期間(照明期間Te51)、照明部31aの光源33aに照明光を出射させる(第1照明)。この際、読み出し部244gは、照明期間Te51において出射された照明光によって露光された画素を含むフレームF2−1,F2−2の撮像データD2−1,D2−2を受光部244fからそれぞれ読み出して画像処理部402へ出力する。さらに、画像処理部402は、上述したように、撮像データD2−1と撮像データD2−2とを加算した画像データDd61を生成する。   Subsequently, the illumination control unit 32a turns off the illumination unit 31a for a period corresponding to one frame period (extinguishing period Ts51), and then the period corresponding to one frame period (illumination period Te51), and the light source of the illumination unit 31a. The illumination light is emitted to 33a (first illumination). At this time, the readout unit 244g reads out the imaging data D2-1 and D2-2 of the frames F2-1 and F2-2 including the pixels exposed by the illumination light emitted in the illumination period Te51 from the light receiving unit 244f, respectively. The image is output to the image processing unit 402. Further, as described above, the image processing unit 402 generates image data Dd61 obtained by adding the imaging data D2-1 and the imaging data D2-2.

このように、照明制御部32aは、フレームF2−2に続くフレームF3−1,F3−2,F3−3においても、1フレーム期間に応じた期間(消灯期間Ts42)、照明部31aの消灯を行った後、1フレーム期間以上の期間(照明期間Te42)、光源33bによる照明光を出射させる制御を行なう。読み出し部244gは、各フレームに応じた撮像データD3−1,D3−2,D3−3を受光部244fからそれぞれ読み出して画像処理部402へ出力する。さらに、画像処理部402は、上述したように、撮像データD3−1、撮像データD3−2および撮像データD3−3を加算した画像データDd52を生成する。   As described above, the illumination control unit 32a also turns off the illumination unit 31a in the frames F3-1, F3-2, and F3-3 following the frame F2-2, in a period corresponding to one frame period (extinction period Ts42). Then, control is performed to emit illumination light from the light source 33b for a period of one frame period or more (illumination period Te42). The reading unit 244g reads the imaging data D3-1, D3-2, and D3-3 corresponding to each frame from the light receiving unit 244f and outputs them to the image processing unit 402. Further, as described above, the image processing unit 402 generates image data Dd52 obtained by adding the imaging data D3-1, the imaging data D3-2, and the imaging data D3-3.

その後、照明制御部32aは、上述したように、消灯、第2照明、消灯、第1照明を繰り返して、光源33a,33bによる照明処理によって得られた加算画像データを生成する。これにより、照明光自体が暗い場合や、照明光の届き難い遠点を撮像する場合においても、露光時間を確保するとともに、画像のぶれや歪み、混色を抑制することができる。   Thereafter, as described above, the illumination control unit 32a repeats the turn-off, the second illumination, the turn-off, and the first illumination, and generates the added image data obtained by the illumination process by the light sources 33a and 33b. Thereby, even when the illumination light itself is dark or when imaging a far point where the illumination light is difficult to reach, it is possible to secure the exposure time and to suppress image blurring, distortion, and color mixing.

なお、上述した変形例2−1では、第2照明にかかる照明期間が2フレーム期間に相当するものとして説明したが、照明光の強度などにより3フレーム期間以上の期間に相当する照明期間を設定することも可能である。   In the above-described modification 2-1, the illumination period for the second illumination has been described as corresponding to a two-frame period. However, an illumination period corresponding to a period of three or more frame periods is set according to the intensity of illumination light or the like. It is also possible to do.

(実施の形態3)
次に、本発明の実施の形態3について説明する。図11は、本実施の形態3にかかる内視鏡システムの要部の機能構成を示すブロック図である。図12は、本実施の形態3にかかる内視鏡システムの撮影時における光源装置が出射する照明光の出射タイミング、撮像素子の露光と読み出しタイミングおよび画像処理部による処理を模式的に示す図である。なお、上述した実施の形態1と同一の構成には同一の符号を付して説明する。上述した実施の形態1では、一つの光源33によって単一の照明光の照射を行っていたが、実施の形態3では、異なる波長の照明光を選択的に出射して照明を行う。
(Embodiment 3)
Next, a third embodiment of the present invention will be described. FIG. 11 is a block diagram illustrating a functional configuration of a main part of the endoscope system according to the third embodiment. FIG. 12 is a diagram schematically illustrating the emission timing of illumination light emitted from the light source device at the time of photographing with the endoscope system according to the third embodiment, the exposure and readout timing of the image sensor, and the processing by the image processing unit. is there. In addition, the same code | symbol is attached | subjected and demonstrated to the structure same as Embodiment 1 mentioned above. In the first embodiment described above, the single illumination light is irradiated by the single light source 33. However, in the third embodiment, illumination light having different wavelengths is selectively emitted to perform illumination.

まず、本実施の形態3にかかる内視鏡システム1bの光源装置3bの構成について説明する。光源装置3bは、照明部31bと、照明制御部32bと、を備える。   First, the configuration of the light source device 3b of the endoscope system 1b according to the third embodiment will be described. The light source device 3b includes an illumination unit 31b and an illumination control unit 32b.

照明部31bは、照明制御部32bの制御のもと、被写体に対して、波長帯域が互いに異なる複数の照明光を順次切り替えて出射する。照明部31bは、光源33と、光源ドライバ34と、回転フィルタ35と、駆動部36と、駆動ドライバ37と、を有する。   The illumination unit 31b sequentially switches and emits a plurality of illumination lights having different wavelength bands to the subject under the control of the illumination control unit 32b. The illumination unit 31 b includes a light source 33, a light source driver 34, a rotary filter 35, a drive unit 36, and a drive driver 37.

光源部33は、白色LEDおよび一または複数のレンズ等を用いて構成され、光源ドライバ34の制御のもと、白色光を回転フィルタ35へ出射する。光源部33が発生させた白色光は、回転フィルタ35およびライトガイド241を経由して先端部24の先端から被写体に向けて出射される。   The light source unit 33 is configured using a white LED and one or a plurality of lenses, and emits white light to the rotary filter 35 under the control of the light source driver 34. The white light generated by the light source unit 33 is emitted from the tip of the tip part 24 toward the subject via the rotary filter 35 and the light guide 241.

光源ドライバ34は、照明制御部32bの制御のもと、光源部33に対して電流を供給することにより、光源部33に白色光を出射させる。   The light source driver 34 causes the light source unit 33 to emit white light by supplying a current to the light source unit 33 under the control of the illumination control unit 32b.

回転フィルタ35は、光源部33が出射する白色光の光路上に配置され、回転することにより、光源部33が出射した白色光のうち所定の波長帯域の光のみを透過させる。具体的には、回転フィルタ35は、赤色光(R)、緑色光(G)および青色光(B)それぞれの波長帯域を有する光を透過させる赤色フィルタ311、緑色フィルタ312および青色フィルタ313を有する。回転フィルタ35は、回転することにより、赤、緑および青の波長帯域(例えば、赤:600nm〜700nm、緑:500nm〜600nm、青:400nm〜500nm)の光を順次透過させる。これにより、光源部31aが出射する白色光(W照明)は、狭帯域化した赤色光(R照明)、緑色光(G照明)および青色光(B照明)いずれかの光を内視鏡2に順次出射(面順次方式)することができる。   The rotary filter 35 is disposed on the optical path of the white light emitted from the light source unit 33 and rotates to transmit only light in a predetermined wavelength band among the white light emitted from the light source unit 33. Specifically, the rotary filter 35 includes a red filter 311, a green filter 312, and a blue filter 313 that transmit light having respective wavelength bands of red light (R), green light (G), and blue light (B). . The rotary filter 35 sequentially transmits light in red, green, and blue wavelength bands (for example, red: 600 nm to 700 nm, green: 500 nm to 600 nm, blue: 400 nm to 500 nm) by rotating. As a result, the white light (W illumination) emitted from the light source unit 31a is converted into any one of red light (R illumination), green light (G illumination), and blue light (B illumination) with a narrow band. Can be sequentially emitted (surface sequential method).

駆動部36は、ステッピングモータやDCモータ等を用いて構成され、回転フィルタ35を回転動作させる。   The drive unit 36 is configured using a stepping motor, a DC motor, or the like, and rotates the rotary filter 35.

駆動ドライバ37は、照明制御部32bの制御のもと、駆動部36に所定の電流を供給する。   The drive driver 37 supplies a predetermined current to the drive unit 36 under the control of the illumination control unit 32b.

照明制御部32bは、読み出し部244gの読み出し開始タイミングと同期させて1フレーム期間に応じた消灯期間Ts61で消灯した後、受光部244fの最初のラインの読み出し開始までの期間(1フレーム期間)に応じた期間(第1照明期間Te61)、照明部31bに照明光(例えば赤色フィルタ311を透過した光)を出射させる。第1照明期間Te61の終了後、1フレーム期間に応じた期間(消灯期間Ts62)、照明部33bの消灯を行った後、次の受光部244fの最初のラインの読み出し開始までの期間(1フレーム期間)に応じた期間(第2照明期間Te62)、第1の期間における照明光と波長帯域が異なる照明光(例えば緑色フィルタ312を透過した光)を照明部31bに出射させる。第2照明期間Te62の終了後、1フレーム期間に応じた期間(消灯期間Ts63)、照明部33bの消灯を行った後、次の受光部244fの最初のラインの読み出し開始までの期間(1フレーム期間)に応じた期間(第3照明期間Te63)、第1および第2照明期間における照明光と波長帯域が異なる照明光(例えば青色フィルタ313を透過した光)を照明部31bに出射させる一連の処理を照明部31bに繰り返し実行させる。   The illumination control unit 32b is synchronized with the readout start timing of the readout unit 244g and is extinguished during the extinguishing period Ts61 corresponding to one frame period, and then in a period (one frame period) until the start of readout of the first line of the light receiving unit 244f. During the corresponding period (first illumination period Te61), illumination light (for example, light transmitted through the red filter 311) is emitted to the illumination unit 31b. After the end of the first illumination period Te61, a period corresponding to one frame period (light-out period Ts62), a period from the time when the illumination unit 33b is turned off to the start of reading the first line of the next light receiving unit 244f (one frame) Period (second illumination period Te62), illumination light having a wavelength band different from that of the first period (for example, light transmitted through the green filter 312) is emitted to the illumination unit 31b. After the end of the second illumination period Te62, a period corresponding to one frame period (light extinction period Ts63), a period from when the illumination unit 33b is extinguished to the start of reading the first line of the next light receiving unit 244f (one frame) Period) (a third illumination period Te63), a series of illumination light having a wavelength band different from the illumination light in the first and second illumination periods (for example, light transmitted through the blue filter 313) is emitted to the illumination unit 31b. The process is repeatedly executed by the illumination unit 31b.

具体的には、照明制御部32bは、第1照明期間Te61にR照明を照明部31bに出射させ、第2照明期間Te62にG照明を照明部31bに出射させ、第3照明期間Te63にB照明を照明部31bに出射させる。その後、照明制御部32bは、上述した第1〜第3の期間に応じた照明期間Te64,Te65および消灯期間Ts64,Ts65による一連の照明処理を繰り返す。   Specifically, the illumination control unit 32b emits R illumination to the illumination unit 31b in the first illumination period Te61, emits G illumination to the illumination unit 31b in the second illumination period Te62, and B in the third illumination period Te63. Illumination is emitted to the illumination unit 31b. Thereafter, the illumination control unit 32b repeats a series of illumination processes by the illumination periods Te64 and Te65 and the extinguishing periods Ts64 and Ts65 according to the first to third periods described above.

読み出し部244gは、第1照明期間Te61において出射された照明光(R照明)によって露光された画素を含むフレームF1−1の第1R撮像データDr1−1を受光部244fから読み出して画像処理部402へ出力する。第1照明期間Te61において出射された照明光(R照明)によって露光された画素を含むフレームF1−2の第2R撮像データDr1−2を受光部244fから読み出して画像処理部402へ出力する。さらに、画像処理部402は、上述したように、第1R撮像データDr1−1および第2R撮像データDr1−2を加算したR加算撮像データDr1を生成する。   The readout unit 244g reads out the first R imaging data Dr1-1 of the frame F1-1 including the pixels exposed by the illumination light (R illumination) emitted in the first illumination period Te61 from the light receiving unit 244f, and reads out the image processing unit 402. Output to. The second R imaging data Dr1-2 of the frame F1-2 including the pixels exposed by the illumination light (R illumination) emitted in the first illumination period Te61 is read from the light receiving unit 244f and output to the image processing unit 402. Furthermore, as described above, the image processing unit 402 generates R-added imaging data Dr1 obtained by adding the first R imaging data Dr1-1 and the second R imaging data Dr1-2.

また、読み出し部244gは、第2照明期間Te62において出射された照明光(G照明)によって露光された画素を含むフレームF2−1の第1G撮像データDg1−1を受光部244fから読み出して画像処理部402へ出力する。続けて、読み出し部244gは、第2照明期間Te62において出射された照明光(G照明)によって露光された画素を含むフレームF2−2の第2G撮像画像データDg1−2を受光部244fから読み出して画像処理部402へ出力する。さらに、画像処理部402は、上述したように、第1G撮像データDg1−1および第2G撮像データDg1−2を加算したG加算撮像データDg1を生成する。   The readout unit 244g reads out the first G imaging data Dg1-1 of the frame F2-1 including the pixels exposed by the illumination light (G illumination) emitted in the second illumination period Te62 from the light receiving unit 244f, and performs image processing. Output to the unit 402. Subsequently, the readout unit 244g reads out the second G captured image data Dg1-2 of the frame F2-2 including the pixels exposed by the illumination light (G illumination) emitted in the second illumination period Te62 from the light receiving unit 244f. The image is output to the image processing unit 402. Furthermore, as described above, the image processing unit 402 generates G-added imaging data Dg1 obtained by adding the first G imaging data Dg1-1 and the second G imaging data Dg1-2.

さらに、読み出し部244gは、第3照明期間Te63において出射された照明光(B照明)によって露光された画素を含むフレームF3−1の第1B撮像データDb1−1を受光部244fから読み出して画像処理部402へ出力する。続けて、読み出し部244gは、第3照明期間Te63において出射された照明光(B照明)によって露光された画素を含むフレームF3−2の第2B撮像データDb1−2を受光部244fから読み出して画像処理部402へ出力する。さらに、画像処理部402は、上述したように、第1B撮像データDb1−1および第2B撮像データDb1−2を加算したB加算撮像データDb1を生成する。   Further, the readout unit 244g reads out the first B imaging data Db1-1 of the frame F3-1 including the pixels exposed by the illumination light (B illumination) emitted in the third illumination period Te63 from the light receiving unit 244f, and performs image processing. Output to the unit 402. Subsequently, the readout unit 244g reads out the second B image data Db1-2 of the frame F3-2 including the pixels exposed by the illumination light (B illumination) emitted in the third illumination period Te63 from the light receiving unit 244f, and outputs an image. The data is output to the processing unit 402. Furthermore, as described above, the image processing unit 402 generates B addition imaging data Db1 obtained by adding the first B imaging data Db1-1 and the second B imaging data Db1-2.

このように、読み出し部244gは、順次照明されるR照明、G照明、B照明に対して、各照明の照明期間を含む複数のフレームの画像データを加算することによって、各照明に応じた加算画像データを得ることができる。また、読み出し部244gは、その後も第1照明期間Te64において出射された照明光(R照明)によって露光された画素を含むフレームF4−1,フレームF4−2の第1R撮像データDr2−1および第2R撮像データDr2−2を受光部244fから読み出して画像処理部402へ出力し、画像処理部402が、第1R撮像データDr2−1および第2R撮像データDr2−2を加算したR加算撮像データDr2を生成する。さらに、第2照明期間Te65においても同様に、照明光(G照明)によって露光された画素を含むフレームF5−1,フレームF5−2の第1G撮像データDg2−1および第2G撮像データDg2−2を受光部244fから読み出して画像処理部402へ出力し、画像処理部402が、第1G撮像データDg2−1および第2G撮像データDg2−2を加算したG加算撮像データDg2を生成する。   As described above, the reading unit 244g adds the image data of a plurality of frames including the illumination period of each illumination to the R illumination, the G illumination, and the B illumination that are sequentially illuminated, thereby adding according to each illumination. Image data can be obtained. In addition, the reading unit 244g subsequently performs the first R imaging data Dr2-1 and the first R imaging data Dr2-1 of the frame F4-1 and the frame F4-2 including the pixels exposed by the illumination light (R illumination) emitted in the first illumination period Te64. The 2R imaging data Dr2-2 is read from the light receiving unit 244f and output to the image processing unit 402. The image processing unit 402 adds the first R imaging data Dr2-1 and the second R imaging data Dr2-2, and R addition imaging data Dr2 Is generated. Further, similarly in the second illumination period Te65, the first G imaging data Dg2-1 and the second G imaging data Dg2-2 of the frame F5-1 and the frame F5-2 including the pixels exposed by the illumination light (G illumination). Is read from the light receiving unit 244f and output to the image processing unit 402, and the image processing unit 402 generates G added imaging data Dg2 obtained by adding the first G imaging data Dg2-1 and the second G imaging data Dg2-2.

ここで、画像処理部402は、各照明により得られたR加算撮像データ、G加算撮像データおよびB加算撮像データを加算して、白色画像データを生成する。具体的には、画像処理部402は、R加算撮像データDr1、G加算撮像データDg1およびB加算撮像データDb1を加算して、白色画像データW1を生成する。さらに、画像処理部402は、次の照明処理(R照明)によりR加算撮像データDr2が得られると、G加算撮像データDg1、B加算撮像データDb1およびR加算撮像データDr2を加算して、白色画像データW2を生成する。続けて、画像処理部402は、次の照明処理(G照明)によりG加算画像データDg2が得られると、B加算撮像データDb1、R加算撮像データDr2およびG加算撮像データDg2を加算して、白色画像データW3を生成する。このように、画像処理部402は、順次生成されるR加算撮像データ、G加算撮像データおよびB加算撮像データを用いて、白色画像データを生成する。   Here, the image processing unit 402 adds the R addition imaging data, G addition imaging data, and B addition imaging data obtained by each illumination to generate white image data. Specifically, the image processing unit 402 adds the R addition imaging data Dr1, the G addition imaging data Dg1, and the B addition imaging data Db1 to generate white image data W1. Furthermore, when the R addition imaging data Dr2 is obtained by the next illumination process (R illumination), the image processing unit 402 adds the G addition imaging data Dg1, the B addition imaging data Db1, and the R addition imaging data Dr2 to obtain a white color. Image data W2 is generated. Subsequently, when the G addition image data Dg2 is obtained by the next illumination process (G illumination), the image processing unit 402 adds the B addition imaging data Db1, the R addition imaging data Dr2, and the G addition imaging data Dg2, White image data W3 is generated. As described above, the image processing unit 402 generates white image data by using the R addition imaging data, the G addition imaging data, and the B addition imaging data that are sequentially generated.

以上説明した本発明の実施の形態3によれば、異なる波長の照明光が照射される場合であっても、同一の照明期間を含む複数のフレームに応じた撮像信号を加算して、一つの画像データ(画像信号)を生成するようにしたので、撮像素子で露光してから電荷を読み出すまでの一連の処理をライン毎に異なるタイミングで行ったとしても、画像のぶれや歪みを抑制することができる。   According to Embodiment 3 of the present invention described above, even when illumination light with different wavelengths is irradiated, imaging signals corresponding to a plurality of frames including the same illumination period are added, and one Since image data (image signal) is generated, even if a series of processing from exposure to reading of the image sensor to reading of charges is performed at different timings for each line, image blurring and distortion are suppressed. Can do.

また、本発明の実施の形態3によれば、照明制御部32bが、照明期間の前後を消灯期間として照明部31bを制御するようにしたので、異なる照明期間によって露光された画像信号が画像生成に使用されることがなく、画像における混色を防止することができる。   In addition, according to the third embodiment of the present invention, the illumination control unit 32b controls the illumination unit 31b with the illumination period before and after the illumination period as the extinguishing period, so that image signals exposed in different illumination periods are generated as images. The color mixture in the image can be prevented.

(実施の形態4)
次に、本発明の実施の形態4について説明する。図13は、本実施の形態4にかかる内視鏡システムの撮影時における光源装置が出射する照明光の出射タイミング、撮像素子の露光と読み出しタイミングおよび画像処理部による処理を模式的に示す図である。なお、上述した実施の形態1などと同一の構成には同一の符号を付して説明する。また、本実施の形態4にかかる内視鏡システムは、上述した実施の形態1にかかる内視鏡システムと同一の構成を有する。このため、以下においては、内視鏡システムの撮影時における光源装置が出射する照明光の出射タイミング、撮像素子の露光と読み出しタイミングおよび画像処理部による処理について説明する。本実施の形態4では、動画と静止画を選択的に表示する場合の撮像について説明する。
(Embodiment 4)
Next, a fourth embodiment of the present invention will be described. FIG. 13 is a diagram schematically illustrating the emission timing of illumination light emitted from the light source device at the time of photographing with the endoscope system according to the fourth embodiment, the exposure and readout timing of the image sensor, and the processing by the image processing unit. is there. In addition, the same code | symbol is attached | subjected and demonstrated to the same structure as Embodiment 1 mentioned above. Moreover, the endoscope system according to the fourth embodiment has the same configuration as the endoscope system according to the first embodiment described above. For this reason, in the following, the emission timing of illumination light emitted by the light source device at the time of photographing with the endoscope system, the exposure and readout timing of the image sensor, and the processing by the image processing unit will be described. In the fourth embodiment, imaging in the case where a moving image and a still image are selectively displayed will be described.

制御部409は、入力部407から動画撮影にかかる指示信号の入力を受け付けた旨の信号が入力されると(入力部407が静止画撮影を行う旨の指示信号の入力を受け付けていない場合)、照明制御部32に対して、連続して照明光を出射するよう指示する。照明制御部32は、制御部409の制御のもと、光源33に照明光を出射させる。この際、読み出し部244gは、照明光によって露光された画素を含むフレームF1−1,F1−2,F1−3の撮像データD1−1,D1−2,D1−3を受光部244fからそれぞれ読み出して画像処理部402へ出力する。   When the control unit 409 receives from the input unit 407 a signal indicating that an instruction signal related to moving image shooting has been received (when the input unit 407 does not receive an instruction signal indicating that still image shooting is to be performed) The lighting control unit 32 is instructed to emit the illumination light continuously. The illumination control unit 32 causes the light source 33 to emit illumination light under the control of the control unit 409. At this time, the reading unit 244g reads the imaging data D1-1, D1-2, and D1-3 of the frames F1-1, F1-2, and F1-3 including the pixels exposed by the illumination light from the light receiving unit 244f, respectively. To the image processing unit 402.

画像処理部402は、撮像データD1−1,D1−2,D1−3に対して同時化処理、オプティカルブラック低減処理、ホワイトバランス調整処理、カラーマトリクス演算処理、ガンマ補正処理、色再現処理、エッジ強調処理、複数の画像データを合成する合成処理およびフォーマット変換処理等を施して、表示装置5が表示するための画像データDm1〜Dm3を生成する。   The image processing unit 402 performs synchronization processing, optical black reduction processing, white balance adjustment processing, color matrix calculation processing, gamma correction processing, color reproduction processing, edge processing on the imaging data D1-1, D1-2, and D1-3. Image data Dm1 to Dm3 to be displayed by the display device 5 are generated by performing an emphasis process, a composition process for combining a plurality of image data, a format conversion process, and the like.

ここで、制御部409は、入力部407から静止画撮影にかかる指示信号の入力を受け付けた旨の入力があると、照明制御部32に対して、静止画撮影のための照明処理を行うよう指示する。照明制御部32は、まず、1フレームに応じた期間(消灯期間Ts71)、照明部31の消灯を行う。   Here, when there is an input indicating that the input of an instruction signal related to still image shooting has been received from the input unit 407, the control unit 409 performs illumination processing for still image shooting on the illumination control unit 32. Instruct. The illumination control unit 32 first turns off the illumination unit 31 for a period corresponding to one frame (extinguishment period Ts71).

続いて、照明制御部32は、1フレーム期間に応じた期間(照明期間Te71)、照明部31に照明光を出射させる。この際、読み出し部244gは、照明期間Te71において出射された照明光によって露光された画素を含むフレームF2−1,F2−2の撮像データD2−1,D2−2を受光部244fからそれぞれ読み出して画像処理部402へ出力する。さらに、画像処理部402は、撮像データD2−1と撮像データD2−2とを加算した画像データDd71を生成する。   Subsequently, the illumination control unit 32 causes the illumination unit 31 to emit illumination light for a period corresponding to one frame period (illumination period Te71). At this time, the reading unit 244g reads the imaging data D2-1 and D2-2 of the frames F2-1 and F2-2 including the pixels exposed by the illumination light emitted in the illumination period Te71 from the light receiving unit 244f, respectively. The image is output to the image processing unit 402. Further, the image processing unit 402 generates image data Dd71 obtained by adding the imaging data D2-1 and the imaging data D2-2.

その後、制御部409は、動画撮影にかかる照明処理の制御に戻る。制御部409は、照明制御部32に対して、連続して照明光を出射するよう指示する。照明制御部32は、制御部409の制御のもと、1フレームに応じた期間(消灯期間Ts72)、照明部31の消灯を行った後、照明部31に照明光を出射させる。この際、読み出し部244gは、フレームF3−1,F3−2,F3−3,F3−4の撮像データD3−1,D3−2,D3−3,D3−4を受光部244fからそれぞれ読み出して画像処理部402へ出力する。   Thereafter, the control unit 409 returns to the control of the illumination processing related to moving image shooting. The control unit 409 instructs the illumination control unit 32 to emit illumination light continuously. Under the control of the control unit 409, the illumination control unit 32 turns off the illumination unit 31 for a period corresponding to one frame (extinguishment period Ts72), and then causes the illumination unit 31 to emit illumination light. At this time, the reading unit 244g reads the imaging data D3-1, D3-2, D3-3, and D3-4 of the frames F3-1, F3-2, F3-3, and F3-4 from the light receiving unit 244f, respectively. The image is output to the image processing unit 402.

画像処理部402は、撮像データD3−1,D3−2,D3−3,D3−4に対して同時化処理、オプティカルブラック低減処理、ホワイトバランス調整処理、カラーマトリクス演算処理、ガンマ補正処理、色再現処理、エッジ強調処理、複数の画像データを合成する合成処理およびフォーマット変換処理等を施して、表示装置5が表示するための画像データDm4〜Dm7を生成する。   The image processing unit 402 performs synchronization processing, optical black reduction processing, white balance adjustment processing, color matrix calculation processing, gamma correction processing, color processing on the imaging data D3-1, D3-2, D3-3, and D3-4. Image data Dm4 to Dm7 to be displayed by the display device 5 are generated by performing reproduction processing, edge enhancement processing, composition processing for combining a plurality of image data, format conversion processing, and the like.

上述した処理により、動画撮影期間で得られた表示用の画像情報には、各フレームF1−1,F1−2,F1−3,F3−1,F3−2,F3−3,F3−4に応じた撮像データD1−1〜D1−3,D3−1〜D3−4であって、画像処理が施された画像データDm1〜Dm7が用いられ、静止画撮影期間で得られた表示用の画像情報には、照明期間Te71において出射された照明光によって露光された画素を含むフレームF2−1,F2−2の撮像データD2−1,D2−2をもとに生成された画像データDd71が用いられる。   By the above-described processing, the display image information obtained during the moving image shooting period includes the frames F1-1, F1-2, F1-3, F3-1, F3-2, F3-3, and F3-4. Corresponding imaging data D1-1 to D1-3, D3-1 to D3-4, and image data Dm1 to Dm7 on which image processing has been performed are used, and a display image obtained during a still image capturing period For the information, image data Dd71 generated based on the imaging data D2-1 and D2-2 of the frames F2-1 and F2-2 including the pixels exposed by the illumination light emitted in the illumination period Te71 is used. It is done.

これにより、画像のぶれや歪み、混色があまり気にならない動画撮影の場合には、連続したフレームの画像データを用いた画像が表示装置5に表示され、画像のぶれや歪み、混色の影響を感じうる静止画撮影の場合には、前後に消灯期間を設け、同一の照明期間を含む複数のフレームの画像データを加算して得られた加算画像データを用いた画像が表示装置5に表示される。   As a result, in the case of moving image shooting in which image blurring, distortion, and color mixing are not a concern, an image using continuous frame image data is displayed on the display device 5, and the effects of image blurring, distortion, and color mixing are displayed. In the case of still image shooting that can be felt, an image using the added image data obtained by adding a plurality of frames of image data including the same illumination period is provided on the display device 5 before and after the extinction period. The

以上説明した本発明の実施の形態4によれば、動画撮影中に静止画撮影を行う場合、前後に消灯期間を設け、同一の照明期間を含む複数のフレームに応じた画像信号を加算して、一つの画像データ(加算画像データ)を静止画用に生成するようにしたので、撮像素子で露光してから電荷を読み出すまでの一連の処理をライン毎に異なるタイミングで行ったとしても、画像のぶれや歪みを抑制することができる。   According to Embodiment 4 of the present invention described above, when still image shooting is performed during moving image shooting, an extinguishing period is provided before and after, and image signals corresponding to a plurality of frames including the same illumination period are added. Since one image data (additional image data) is generated for a still image, even if a series of processes from exposure by the image sensor to reading of charges are performed at different timing for each line, the image Shake and distortion can be suppressed.

また、本発明の実施の形態4によれば、照明制御部32が、照明期間の前後を消灯期間として照明部31を制御するようにしたので、異なる照明期間によって露光された画像信号が画像生成に使用されることがなく、画像における混色を防止することができる。   Further, according to the fourth embodiment of the present invention, the illumination control unit 32 controls the illumination unit 31 with the illumination periods before and after the illumination period, so that image signals exposed in different illumination periods are generated as images. The color mixture in the image can be prevented.

(変形例4−1)
図14は、本実施の形態4の変形例4−1にかかる内視鏡システムの撮影時における光源装置が出射する照明光の出射タイミング、撮像素子の露光と読み出しタイミングおよび画像処理部による処理を模式的に示す図である。上述した実施の形態4では、実施の形態1にかかる内視鏡システムの構成における照明処理について説明したが、実施の形態2にかかる内視鏡システム1aの構成(複数の光源を有する構成、図8参照)であっても適用できる。
(Modification 4-1)
FIG. 14 shows the emission timing of illumination light emitted from the light source device, the exposure and readout timing of the image sensor, and the processing by the image processing unit at the time of photographing by the endoscope system according to Modification 4-1 of the fourth embodiment. It is a figure shown typically. In the above-described fourth embodiment, the illumination processing in the configuration of the endoscope system according to the first embodiment has been described. However, the configuration of the endoscope system 1a according to the second embodiment (configuration having a plurality of light sources, FIG. 8).

制御部409は、入力部407により動画撮影にかかる指示の入力があると、照明制御部32aに対して、連続して照明光を出射するよう指示する。具体的には、照明制御部32aは、制御部409の制御のもと、光源33aおよび光源33bによる照明光を交互に連続して出射させる。この際、読み出し部244gは、光源33aからの照明光(第1照明)によって露光された画素を含むフレームF1−1,F1−2の撮像データD1−1,D1−2を受光部244fからそれぞれ読み出して画像処理部402へ出力する。また、読み出し部244gは、光源33bからの照明光(第2照明)によって露光された画素を含むフレームF2−1の画像データD2−1を受光部244fからそれぞれ読み出して画像処理部402へ出力する。   When the input unit 407 inputs an instruction for moving image shooting, the control unit 409 instructs the illumination control unit 32a to emit illumination light continuously. Specifically, the illumination control unit 32a emits illumination light from the light source 33a and the light source 33b alternately and continuously under the control of the control unit 409. At this time, the reading unit 244g receives the imaging data D1-1 and D1-2 of the frames F1-1 and F1-2 including the pixels exposed by the illumination light (first illumination) from the light source 33a from the light receiving unit 244f, respectively. Read out and output to the image processing unit 402. Further, the reading unit 244g reads the image data D2-1 of the frame F2-1 including the pixels exposed by the illumination light (second illumination) from the light source 33b from the light receiving unit 244f, and outputs the image data D2-1 to the image processing unit 402. .

画像処理部402は、撮像データD1−1,D1−2,D2−1に対して同時化処理、オプティカルブラック低減処理、ホワイトバランス調整処理、カラーマトリクス演算処理、ガンマ補正処理、色再現処理、エッジ強調処理、複数の画像データを合成する合成処理およびフォーマット変換処理等を施して、表示装置5が表示するための画像データDm11〜Dm13を生成する。   The image processing unit 402 performs synchronization processing, optical black reduction processing, white balance adjustment processing, color matrix calculation processing, gamma correction processing, color reproduction processing, edge processing on the imaging data D1-1, D1-2, and D2-1. Image data Dm11 to Dm13 to be displayed by the display device 5 are generated by performing an emphasis process, a composition process for combining a plurality of image data, a format conversion process, and the like.

ここで、制御部409は、入力部407により静止画撮影にかかる指示の入力があると、照明制御部32aに対して、静止画撮影のための照明処理を行うよう指示する。照明制御部32aは、まず、1フレームに応じた期間(消灯期間Ts101)、照明部31aの消灯を行う。   Here, when an instruction related to still image shooting is input from the input unit 407, the control unit 409 instructs the illumination control unit 32a to perform illumination processing for still image shooting. The illumination control unit 32a first turns off the illumination unit 31a for a period corresponding to one frame (extinguishment period Ts101).

続いて、照明制御部32aは、1フレーム期間に応じた期間(照明期間Te81)、照明部31aの光源33aに照明光を出射させる(第1照明)。この際、読み出し部244gは、照明期間Te81において出射された照明光によって露光された画素を含むフレームF3−1,F3−2の撮像データD3−1,D3−2を受光部244fからそれぞれ読み出して画像処理部402へ出力する。さらに、画像処理部402は、撮像データD3−1と撮像データD3−2とを加算した画像データDd81を生成する。   Subsequently, the illumination control unit 32a causes the light source 33a of the illumination unit 31a to emit illumination light (first illumination) for a period corresponding to one frame period (illumination period Te81). At this time, the reading unit 244g reads the imaging data D3-1 and D3-2 of the frames F3-1 and F3-2 including the pixels exposed by the illumination light emitted in the illumination period Te81 from the light receiving unit 244f, respectively. The image is output to the image processing unit 402. Further, the image processing unit 402 generates image data Dd81 obtained by adding the imaging data D3-1 and the imaging data D3-2.

続いて、照明制御部32aは、1フレームに応じた期間(消灯期間Ts102)、照明部31aの消灯を行った後、1フレーム期間に応じた期間(照明期間Te91)、照明部31aの光源33bに照明光を出射させる(第2照明)。この際、読み出し部244gは、照明期間Te91において出射された照明光によって露光された画素を含むフレームF4−1,F4−2の撮像データD4−1,D4−2を受光部244fからそれぞれ読み出して画像処理部402へ出力する。さらに、画像処理部402は、撮像データD4−1と撮像データD4−2とを加算した画像データDd91を生成する。   Subsequently, the illumination control unit 32a turns off the illumination unit 31a for a period corresponding to one frame (extinguishing period Ts102), and then the period corresponding to one frame period (illumination period Te91), and the light source 33b of the illumination unit 31a. To emit illumination light (second illumination). At this time, the reading unit 244g reads the imaging data D4-1 and D4-2 of the frames F4-1 and F4-2 including the pixels exposed by the illumination light emitted in the illumination period Te91 from the light receiving unit 244f, respectively. The image is output to the image processing unit 402. Further, the image processing unit 402 generates image data Dd91 obtained by adding the imaging data D4-1 and the imaging data D4-2.

その後、制御部409は、動画撮影にかかる照明処理の制御に戻る。制御部409は、照明制御部32aに対して、連続して照明光を出射するよう指示する。具体的には、照明制御部32aは、制御部409の制御のもと、1フレームに応じた消灯期間Ts103で照明部31aの消灯を行った後、光源33aおよび光源33bによる照明光を交互に連続して出射させる。この際、読み出し部244gは、フレームF4−2に続くフレームF0−1、F2−2(第2照明)の撮像データD0−1,D2−2を受光部244fからそれぞれ読み出して画像処理部402へ出力する。   Thereafter, the control unit 409 returns to the control of the illumination processing related to moving image shooting. The control unit 409 instructs the illumination control unit 32a to continuously emit illumination light. Specifically, the illumination control unit 32a alternately turns off the illumination light from the light source 33a and the light source 33b after the illumination unit 31a is turned off in the turn-off period Ts103 corresponding to one frame under the control of the control unit 409. It emits continuously. At this time, the reading unit 244g reads the imaging data D0-1 and D2-2 of the frames F0-1 and F2-2 (second illumination) subsequent to the frame F4-2 from the light receiving unit 244f, and sends them to the image processing unit 402. Output.

画像処理部402は、撮像データD0−1,D2−2に対して同時化処理、オプティカルブラック低減処理、ホワイトバランス調整処理、カラーマトリクス演算処理、ガンマ補正処理、色再現処理、エッジ強調処理、複数の画像データを合成する合成処理およびフォーマット変換処理等を施して、表示装置5が表示するための画像データDm14,Dm15を生成する。   The image processing unit 402 performs synchronization processing, optical black reduction processing, white balance adjustment processing, color matrix calculation processing, gamma correction processing, color reproduction processing, edge enhancement processing, and a plurality of processing on the imaging data D0-1 and D2-2. The image data Dm14 and Dm15 to be displayed by the display device 5 are generated by performing a combining process and a format conversion process for combining the image data.

上述した処理により、動画撮影期間で得られた表示用の画像情報には、各フレームF0−1,F1−1,F1−2,F2−1,F2−2,F3−1,F3−2,F4−1,F4−2に応じた撮像データD0−1,D1−1,D1−2,D2−1,D2−2であって、画像処理が施された画像データDm11〜Dm15が用いられ、静止画撮影期間で得られた表示用の画像情報には、照明期間Te81,Te91において出射された照明光によって露光された画素を含むフレームF3−1,F3−2,F4−1,F4−2の撮像データD3−1,D3−2,D4−1,D4−2をもとに生成された画像データDd81,Dd91が用いられる。   As a result of the processing described above, the display image information obtained during the moving image shooting period includes the frames F0-1, F1-1, F1-2, F2-1, F2-2, F3-1, F3-2. Imaging data D0-1, D1-1, D1-2, D2-1, and D2-2 corresponding to F4-1 and F4-2, and image data Dm11 to Dm15 subjected to image processing are used. Display image information obtained in the still image shooting period includes frames F3-1, F3-2, F4-1, and F4-2 including pixels exposed by the illumination light emitted in the illumination periods Te81 and Te91. The image data Dd81 and Dd91 generated based on the imaging data D3-1, D3-2, D4-1, and D4-2 are used.

これにより、複数の光源を用いて照明処理が行われる際であっても、画像のぶれや歪み、混色があまり気にならない動画撮影の場合には、連続したフレームの画像データを用いた画像が表示装置5に表示され、画像のぶれや歪み、混色の影響が生じうる静止画撮影の場合には、前後に消灯期間を設け、同一の照明期間を含む複数のフレームの撮像データを加算して得られた画像データを用いた画像が表示装置5に表示される。   As a result, even when illumination processing is performed using a plurality of light sources, in the case of moving image shooting in which image blurring, distortion, and color mixing are not a concern, an image using image data of consecutive frames is obtained. In the case of still image shooting, which is displayed on the display device 5 and may be affected by image blurring, distortion, and color mixing, an extinguishing period is provided before and after, and imaging data of a plurality of frames including the same illumination period are added. An image using the obtained image data is displayed on the display device 5.

1,1a,1b 内視鏡システム
2 内視鏡
3,3a,3b 光源装置
4 処理装置
5 表示装置
21 挿入部
22 操作部
23 ユニバーサルコード
24 先端部
25 湾曲部
26 可撓管部
31,31a,31b 照明部
32,32a,32b 照明制御部
33,33a,33b 光源
34,34a,34b 光源ドライバ
35 回転フィルタ
36 駆動部
37 駆動ドライバ
221 湾曲ノブ
222 処置具挿入部
223 スイッチ
241 ライトガイド
242 照明レンズ
243 光学系
244 撮像素子
244a センサ部
244b アナログフロントエンド(AFE)部
244c P/S変換部
244d タイミングジェネレータ
244e 撮像制御部
244f 受光部
244g 読み出し部
244h ノイズ低減部
244i AGC部
244j A/D変換部
245 集合ケーブル
401 S/P変換部
402 画像処理部
403 明るさ検出部
404 調光部
405 読出アドレス設定部
406 駆動信号生成部
407 入力部
408 記録部
409 制御部
410 基準クロック生成部
DESCRIPTION OF SYMBOLS 1, 1a, 1b Endoscope system 2 Endoscope 3, 3a, 3b Light source device 4 Processing apparatus 5 Display apparatus 21 Insertion part 22 Operation part 23 Universal cord 24 Tip part 25 Bending part 26 Flexible pipe part 31, 31a, 31b Illumination unit 32, 32a, 32b Illumination control unit 33, 33a, 33b Light source 34, 34a, 34b Light source driver 35 Rotating filter 36 Drive unit 37 Drive driver 221 Bending knob 222 Treatment instrument insertion unit 223 Switch 241 Light guide 242 Illumination lens 243 Optical system 244 Imaging device 244a Sensor unit 244b Analog front end (AFE) unit 244c P / S conversion unit 244d Timing generator 244e Imaging control unit 244f Light receiving unit 244g Reading unit 244h Noise reduction unit 244i AGC unit 244j A / D Section 245 collective cable 401 S / P conversion unit 402 image processing unit 403 brightness detector 404 dimmer 405 read address setting section 406 driving signal generation unit 407 input unit 408 recording unit 409 the control unit 410 reference clock generation unit

Claims (5)

被写体を照明する照明光を出射する照明部と、
光を受光して光電変換を行うことにより撮像信号を生成する画素が二次元状に配列された受光部と、
前記受光部から水平ラインごとに前記撮像信号を順次読み出す読み出し部と、
前記読み出し部が前記受光部の最初の水平ラインの読み出し開始から次の最初の水平ラインの読み出し開始までの期間に相当する1フレーム期間である第1の期間、前記照明部に前記照明光の消灯を行わせ、該第1の期間に続く前記1フレーム期間以上の長さを有する第2の期間内において、前記照明部に前記照明光を出射させる一連の処理を前記照明部に実行させる照明制御部と、
記第1の期間において前記読み出し部が読み出した第1の撮像信号と前記第2の期間において前記読み出し部が読み出した第2の撮像信号とを加算することによって、前記第2の期間に出射された前記照明光に対応する画像信号を生成する画像処理部と、
を備えたことを特徴とする撮像システム。
An illumination unit that emits illumination light to illuminate the subject;
A light receiving unit in which pixels that generate an imaging signal by receiving light and performing photoelectric conversion are arranged two-dimensionally;
A readout unit that sequentially reads out the imaging signals for each horizontal line from the light receiving unit;
The reading unit turns off the illumination light in the illumination unit for a first period which is one frame period corresponding to a period from the start of reading of the first horizontal line of the light receiving unit to the start of reading of the next first horizontal line. Control for causing the illumination unit to execute a series of processes for causing the illumination unit to emit the illumination light within a second period having a length equal to or longer than the one frame period following the first period. And
By adding the previous SL second image pickup signal in which the reading unit has read to have you in the first image pickup signal and the second period in which the reading portion have contact to the first period is read out, the second An image processing unit that generates an image signal corresponding to the illumination light emitted during the period;
An imaging system comprising:
前記照明制御部は、前記読み出し部による前記第1および第2の期間の読み出しタイミングと同期して前記照明部に前記一連の処理を実行させることを特徴とする請求項1に記載の撮像システム。   The imaging system according to claim 1, wherein the illumination control unit causes the illumination unit to execute the series of processes in synchronization with the readout timing of the first and second periods by the readout unit. 少なくとも静止画撮影を行う旨の指示信号の入力を受け付ける入力部を備え、
前記照明制御部は、前記入力部が前記指示信号の入力を受け付けていない場合は前記照明部に連続して前記照明光を出射させ、前記入力部が前記指示信号の入力を受け付けた場合は前記照明部に前記一連の処理を実行させ、
前記画像処理部は、前記入力部に前記指示信号の入力がない場合は連続して出射される前記照明光に応じて撮像信号をもとに表示用の画像信号を生成し、前記入力部に前記指示信号の入力があった場合は前記第1の撮像信号と前記第2の撮像信号とを加算することによって、表示用の画像信号を順次生成することを特徴とする請求項1または2に記載の撮像システム。
An input unit for receiving at least an instruction signal for taking a still image;
The lighting control section, when the input unit is not accepting input of the instruction signal to emit the illumination light continuously to the illumination unit, when the input unit accepts an input of the instruction signal is the Let the lighting unit execute the series of processes,
The image processing unit generates an image signal for display based on an imaging signal according to the illumination light continuously emitted when the instruction signal is not input to the input unit, and 3. The display image signal is sequentially generated by adding the first imaging signal and the second imaging signal when the instruction signal is input. The imaging system described.
前記照明制御部は、前記1フレーム期間の1以上の整数倍の長さを有する前記第2の期間内に、前記照明部に前記照明光を出射させる処理を行うことを特徴とする請求項1〜3のいずれか一つに記載の撮像システム。The illumination control unit performs a process of causing the illumination unit to emit the illumination light within the second period having a length that is an integer multiple of 1 or more of the one frame period. The imaging system according to any one of? 前記照明制御部は、前記第2の期間の開始から終了まで前記照明光の出射が継続するように前記照明部を制御することを特徴とする請求項1〜4のいずれか一つに記載の撮像システム。The said illumination control part controls the said illumination part so that the emission of the said illumination light continues from the start to the end of the said 2nd period, The Claim 1 characterized by the above-mentioned. Imaging system.
JP2013059736A 2013-03-22 2013-03-22 Imaging system Active JP6099445B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013059736A JP6099445B2 (en) 2013-03-22 2013-03-22 Imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013059736A JP6099445B2 (en) 2013-03-22 2013-03-22 Imaging system

Publications (3)

Publication Number Publication Date
JP2014183909A JP2014183909A (en) 2014-10-02
JP2014183909A5 JP2014183909A5 (en) 2016-05-12
JP6099445B2 true JP6099445B2 (en) 2017-03-22

Family

ID=51832096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013059736A Active JP6099445B2 (en) 2013-03-22 2013-03-22 Imaging system

Country Status (1)

Country Link
JP (1) JP6099445B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016096430A (en) 2014-11-13 2016-05-26 パナソニックIpマネジメント株式会社 Imaging device and imaging method
WO2016114231A1 (en) * 2015-01-16 2016-07-21 オリンパス株式会社 Endoscope system and processing device
WO2021176890A1 (en) * 2020-03-06 2021-09-10 富士フイルム株式会社 Endoscope system, control method, and control program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4743007B2 (en) * 2006-06-16 2011-08-10 ソニー株式会社 Image processing apparatus, image processing method, recording medium, and program
JP5226195B2 (en) * 2006-07-28 2013-07-03 オリンパスメディカルシステムズ株式会社 Endoscope apparatus and method for operating endoscope apparatus
JP2011250926A (en) * 2010-06-01 2011-12-15 Fujifilm Corp Electronic endoscope system
JP5647930B2 (en) * 2011-04-04 2015-01-07 富士フイルム株式会社 Endoscope system and driving method thereof

Also Published As

Publication number Publication date
JP2014183909A (en) 2014-10-02

Similar Documents

Publication Publication Date Title
JP5452785B1 (en) Imaging system
US9844312B2 (en) Endoscope system for suppressing decrease of frame rate without changing clock rate of reading
JP5259882B2 (en) Imaging device
JP5427316B2 (en) Imaging device
CN106256123B (en) Processing device, imaging device, and endoscope system
US20130307951A1 (en) Imaging apparatus
JP5467182B1 (en) Imaging system
JP5927370B1 (en) Imaging apparatus and processing apparatus
WO2016104386A1 (en) Dimmer, imaging system, method for operating dimmer, and operating program for dimmer
JP7230174B2 (en) Endoscope system, image processing device, and control method for image processing device
WO2015114906A1 (en) Imaging system and imaging device
JP5847368B1 (en) Imaging apparatus and endoscope apparatus
JP6099445B2 (en) Imaging system
JP6945660B2 (en) Imaging system and processing equipment
JP6137892B2 (en) Imaging system
JP6937902B2 (en) Endoscope system
JP2017123997A (en) Imaging system and processing device
JP7213245B2 (en) Endoscope light source device, endoscope light source control method, and endoscope system
JP2016025509A (en) Imaging system and endoscope

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150422

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20150526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160318

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170221

R151 Written notification of patent or utility model registration

Ref document number: 6099445

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250