JP2015047402A - Endoscope system and operation method of the same - Google Patents

Endoscope system and operation method of the same Download PDF

Info

Publication number
JP2015047402A
JP2015047402A JP2013182219A JP2013182219A JP2015047402A JP 2015047402 A JP2015047402 A JP 2015047402A JP 2013182219 A JP2013182219 A JP 2013182219A JP 2013182219 A JP2013182219 A JP 2013182219A JP 2015047402 A JP2015047402 A JP 2015047402A
Authority
JP
Japan
Prior art keywords
image
image data
endoscope
light
illumination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013182219A
Other languages
Japanese (ja)
Other versions
JP6047467B2 (en
Inventor
禎之 守屋
Sadayuki Moriya
禎之 守屋
Original Assignee
富士フイルム株式会社
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社, Fujifilm Corp filed Critical 富士フイルム株式会社
Priority to JP2013182219A priority Critical patent/JP6047467B2/en
Publication of JP2015047402A publication Critical patent/JP2015047402A/en
Application granted granted Critical
Publication of JP6047467B2 publication Critical patent/JP6047467B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To allow a simultaneous system and a frame sequential system to change over between them, and to acquire a static image having small blurring.SOLUTION: An endoscope system changes over an illumination system of a light source device between a simultaneous system and a frame sequential system according to input of a freeze instruction signal for freezing a moving image to perform static image display. In the simultaneous system, the endoscope system makes a plurality of colors of illumination light be simultaneously radiated. In the frame sequential system, the endoscope system makes the plurality of colors of illumination light be radiated in time-sharing. The endoscope system calculates a first blurring amount from respective pieces of image data of a first image data group generated after the changeover of the illumination system, and calculates a second blurring amount from respective pieces of image data of a second image data group generated before the changeover of the illumination system. Based on the first and second blurring amounts, the endoscope system selects the image data for creating a static image from the first and second image data groups.

Description

本発明は、同時方式と面順次方式との切り替えを可能とする内視鏡システム及びその作動方法に関する。   The present invention relates to an endoscope system capable of switching between a simultaneous method and a frame sequential method, and an operation method thereof.
近年の医療においては、光源装置、電子内視鏡、プロセッサ装置を備える内視鏡システムを用いた診断等が広く行われている。光源装置は、照明光を発生して検体内に照射する。電子内視鏡は、照明光が照射されて検体内を撮像素子により撮像して画像信号を生成する。プロセッサ装置は、電子内視鏡により生成された撮像信号を画像処理してモニタに表示するための観察画像を生成する。   In recent medical treatments, diagnosis and the like using an endoscope system including a light source device, an electronic endoscope, and a processor device are widely performed. The light source device generates illumination light and irradiates the specimen. The electronic endoscope is irradiated with illumination light, and the inside of the specimen is imaged by an image sensor to generate an image signal. The processor device performs image processing on the imaging signal generated by the electronic endoscope and generates an observation image for display on the monitor.
この内視鏡システムの照明方式には、面順次(時分割)方式と同時方式とがある。面順次方式は、例えば、赤(R)、緑(G)、青(B)の色の照明光を順番に検体に照射する方式であり、各照明光で照明された検体像は、モノクロ撮像素子により個別に撮像される。同時方式は、R,G,Bの照明光を検体に同時に照射(すなわち、白色光を照射)する方式であり、白色光が照射された検体像は、カラーフィルタを有する同時式撮像素子により撮像される。   As an illumination method of this endoscope system, there are a frame sequential (time division) method and a simultaneous method. The frame sequential method is a method in which, for example, red (R), green (G), and blue (B) illumination lights are sequentially irradiated onto a specimen, and a specimen image illuminated with each illumination light is captured in monochrome. Images are taken individually by the element. The simultaneous method is a method of simultaneously irradiating a specimen with R, G, and B illumination light (that is, irradiating white light), and a specimen image irradiated with white light is imaged by a simultaneous imaging device having a color filter. Is done.
面順次方式は、同時方式に比べて色再現性及び解像度の点で優れる。これに対して、同時方式は、面順次方式に比べて、フレームレートが高いため、画像ブレが生じにくい。面順次方式の場合は、フレームレートが低いことにより画像ブレが生じ易いことに加えて、R,G,Bの各画像が異なるタイミングで取得されるため、画像ブレが起因して、R,G,Bを合成した画像に色ズレが生じてしまう。   The frame sequential method is superior in terms of color reproducibility and resolution compared to the simultaneous method. On the other hand, since the simultaneous method has a higher frame rate than the frame sequential method, image blurring hardly occurs. In the case of the frame sequential method, image blurring is likely to occur due to a low frame rate, and in addition, each of R, G, and B images is acquired at different timings. , B will cause color misregistration.
このように、面順次方式と同時方式とは一長一短であることから、同時式撮像素子を用いるとともに、照明方式を同時方式と面順方式とで切り替え可能とした内視鏡システムが提案されている(特許文献1)。この特許文献1では、面順次方式で動画撮影を行っている間にブレ量を常時検出し、ブレ量が一定以上となった場合に同時方式に切り替えられる。   As described above, since the frame sequential method and the simultaneous method have advantages and disadvantages, an endoscope system that uses a simultaneous image sensor and can switch the illumination method between the simultaneous method and the surface sequential method has been proposed. (Patent Document 1). In Patent Document 1, the amount of blur is always detected while moving image shooting is performed in the frame sequential method, and the method is switched to the simultaneous method when the amount of blur exceeds a certain level.
また、特許文献2では、面順次方式の内視鏡システムにおいて、動画撮影を行っている間にブレ量を常時検出し、静止画を得るフリーズ指示が入力された際に、動画像の複数枚の画像の中から、ブレ量の最も小さい画像を静止画として選択することが提案されている。   Further, in Patent Document 2, in a field sequential endoscope system, a plurality of moving images are detected when a freeze instruction for constantly detecting a blur amount and capturing a still image is input during moving image shooting. It has been proposed to select an image with the smallest blur amount as a still image from among the images.
特開2009−284959号公報JP 2009-284959 A 特許第4847250号公報Japanese Patent No. 4847250
特許文献1,2に記載の内視鏡システムは、動画撮影は面順次方式で実行されているが、内視鏡検査中に動画像を観察する場合には、検体や内視鏡に動きが生じ易いため、一般にはフレームレートが高い同時方式が適している。また、静止画を取得する場合、熟練した医師は、内視鏡の動きを抑えてブレの少ない画像を撮影する能力に長けているため、同時方式よりもむしろ色再現性のよい面順次方式が好まれる。   In the endoscope systems described in Patent Documents 1 and 2, moving image shooting is performed in a frame sequential manner. However, when a moving image is observed during endoscopy, there is movement in the specimen or the endoscope. Since it tends to occur, a simultaneous method with a high frame rate is generally suitable. In addition, when acquiring still images, skilled doctors are good at capturing images with less blurring by suppressing the movement of the endoscope.Therefore, a frame sequential method with better color reproducibility rather than a simultaneous method is used. Liked.
したがって、内視鏡システムを使用する医師の要求に応じて、面順次方式から同時方式への切り替えだけでなく、同時方式から面順次方式への切り替えも可能とし、さらにブレの少ない静止画の取得が望まれている。   Therefore, it is possible not only to switch from the frame sequential method to the simultaneous method but also to switch from the simultaneous method to the frame sequential method according to the request of the doctor who uses the endoscope system, and to acquire still images with less blurring. Is desired.
本発明は、同時方式と面順次方式とが相互に切り替え可能であるとともに、ブレの少ない静止画を取得することを可能とする内視鏡システム及びその作動方法を提供することを目的とする。   An object of the present invention is to provide an endoscope system that can switch between a simultaneous method and a frame sequential method, and that can acquire a still image with less blurring, and an operating method thereof.
上記目的を達成するために、本発明の内視鏡システムは、複数色の照明光を発生する光源装置と、色分離フィルタを有する同時式撮像素子と、同時式撮像素子から読み出した画素信号に基づいて画像データを生成する画像信号処理部と、動画をフリーズさせて静止画とするためのフリーズ指示信号の入力に応じて、複数の照明光を同時照射させる同時方式と、複数の照明光を時分割照射させる面順次方式との間で光源装置の照明方式を切り替える制御部と、照明方式の切り替え後に生成された第1画像データ群の各画像データから第1ブレ量を算出し、照明方式の切り替え前に生成された第2画像データ群の各画像データから第2ブレ量を算出するブレ量算出部と、第1及び第2ブレ量に基づいて、第1及び第2画像データ群から、静止画とする画像データを選択する静止画選択部と、を備える。   In order to achieve the above object, an endoscope system according to the present invention includes a light source device that generates illumination light of multiple colors, a simultaneous image sensor having a color separation filter, and a pixel signal read from the simultaneous image sensor. Based on an image signal processing unit that generates image data based on the input of a freeze instruction signal for freezing a moving image to make a still image, a simultaneous method of simultaneously irradiating a plurality of illumination lights, and a plurality of illumination lights A controller that switches the illumination method of the light source device between the time-sequential irradiation method and a first blur amount calculated from each image data of the first image data group generated after the illumination method is switched, and the illumination method From the first and second image data groups based on the first and second blur amounts, and a blur amount calculation unit that calculates the second blur amount from each image data of the second image data group generated before the switching of , Still images and Comprising a still image selector for selecting that image data.
静止画選択部は、第1ブレ量の最小値が基準値より小さい場合には、第1画像データ群から該最小値を有する画像データを静止画として選択し、第1ブレ量の最小値が基準値以上である場合には、第2ブレ量の最小値が基準値より小さいか否かを判定して、該最小値が基準値より小さい場合には、第2画像データ群から該最小値を有する画像データを静止画として選択し、第2ブレ量の最小値が基準値以上である場合には、第1及び第2ブレ量の最小値のうち小さい方の画像データを、第1及び第2画像データ群から選択することが好ましい。   When the minimum value of the first blur amount is smaller than the reference value, the still image selection unit selects image data having the minimum value from the first image data group as a still image, and the minimum value of the first blur amount is If it is greater than or equal to the reference value, it is determined whether or not the minimum value of the second blur amount is smaller than the reference value. If the minimum value is smaller than the reference value, the minimum value is extracted from the second image data group. Is selected as a still image, and when the minimum value of the second blur amount is equal to or greater than the reference value, the smaller one of the first and second minimum blur values is selected as the first and second image data. It is preferable to select from the second image data group.
静止画選択部は、第1及び第2ブレ量の最小値が共に基準値より小さい場合には、第1及び第2画像データ群から、各最小値を有する画像データをそれぞれ静止画として選択することが好ましい。   When the minimum values of the first and second blur amounts are both smaller than the reference value, the still image selection unit selects image data having each minimum value as a still image from the first and second image data groups. It is preferable.
面順次方式の場合に、複数色の各照明光の照射時に得られた画像データを合成して同時化された画像データを生成する同時化処理部を備え、同時化処理部は、照明方式が同時方式から面順次方式に切り替えられ、静止画選択部により面順次方式の画像データが選択された場合に、合成する複数の画像データを、それぞれ同時方式で得られた画像データの対応する色分解画像と比較することにより位置ズレ量をそれぞれ算出し、算出した位置ズレ量に基づいて位置合わせした上で合成することが好ましい。   In the case of the frame sequential method, the image processing apparatus includes a synchronization processing unit that generates image data obtained by synthesizing image data obtained at the time of irradiation of illumination lights of a plurality of colors. When switching from the simultaneous method to the frame sequential method and the image data of the frame sequential method is selected by the still image selection unit, a plurality of image data to be combined are respectively color-corresponding to the image data obtained by the simultaneous method. It is preferable that the amount of positional deviation is calculated by comparing with an image, and the positions are aligned based on the calculated amount of positional deviation and then combined.
光源装置に、赤色光、緑色光、青色光を発生させる通常光観察モードと、光源装置に、第1及び第2狭帯域光を発生させる狭帯域光観察モードとを有することが好ましい。   Preferably, the light source device has a normal light observation mode that generates red light, green light, and blue light, and a light source device that has a narrow band light observation mode that generates first and second narrow band light.
狭帯域光観察モードの場合に、同時化処理部は、同時方式で生成される画像データの第1狭帯域光または第2狭帯域光に対応する1つの色分解画像を、位置合わせ後に合成する複数の画像データのうちの1つに加算することが好ましい。   In the case of the narrow-band light observation mode, the synchronization processing unit synthesizes one color separation image corresponding to the first narrow-band light or the second narrow-band light of the image data generated by the simultaneous method after alignment. It is preferable to add to one of the plurality of image data.
狭帯域光観察モードでかつ同時方式の場合に、静止画選択部は、第1ブレ量または第2ブレ量に加えて、コントラスト幅に関連する色分離量に基づいて、静止画とする画像データを選択することが好ましい。   In the narrow-band light observation mode and the simultaneous method, the still image selection unit sets image data to be a still image based on the color separation amount related to the contrast width in addition to the first blur amount or the second blur amount. Is preferably selected.
ブレ量算出部は、同時方式で生成される画像データに含まれる1つの色信号と、面順次方式で上記色の照明光の照射時の画像データに含まれる上記色の色信号とに基づいて、第1及び第2ブレ量を算出することが好ましい。   The blur amount calculation unit is based on one color signal included in the image data generated by the simultaneous method and the color signal of the color included in the image data when the illumination light of the color is irradiated by the frame sequential method. It is preferable to calculate the first and second blur amounts.
ブレ量算出部は、画像データ中の空間周波数の高周波成分を積算した積算値に基づいて第1及び第2ブレ量を算出することが好ましい。   It is preferable that the shake amount calculation unit calculates the first and second shake amounts based on an integrated value obtained by integrating the high frequency components of the spatial frequency in the image data.
ブレ量算出部は、時間的に隣接する2つの画像データ間の差分を検出することにより、第1及び第2ブレ量を算出しても良い。   The blur amount calculation unit may calculate the first and second blur amounts by detecting a difference between two temporally adjacent image data.
ブレ量算出部は、画像データに含まれる各色信号に基づいて画像ブレ量をそれぞれ算出し、各画像ブレ量に重み付け係数を乗じて加算することにより、第1及び第2ブレ量を算出しても良い。   The blur amount calculation unit calculates an image blur amount based on each color signal included in the image data, calculates the first and second blur amounts by multiplying each image blur amount by a weighting coefficient, and adds the result. Also good.
色分離フィルタは、補色系であることが好ましい。   The color separation filter is preferably a complementary color system.
静止画選択部により静止画として選択された画像データと、この画像データに特殊画像処理を施したものとを、画像表示装置に同時に表示させるデュアルモードを有することが好ましい。   It is preferable to have a dual mode in which image data selected as a still image by the still image selection unit and the image data subjected to special image processing are simultaneously displayed on the image display device.
ブレ量算出部は、フリーズ指示信号が入力される以前に、画像信号処理部により画像データが生成されるたびに第2ブレ量を算出しても良い。   The blur amount calculation unit may calculate the second blur amount each time image data is generated by the image signal processing unit before the freeze instruction signal is input.
本発明の内視鏡システムの作動方法は、制御部が、動画をフリーズさせて静止画とするためのフリーズ指示信号の入力に応じて、複数色の照明光を同時照射させる同時方式と、複数色の照明光を時分割照射させる面順次方式との間で光源装置の照明方式を切り替えるステップと、ブレ量算出部が、照明方式の切り替え後に生成された第1画像データ群の各画像データから第1ブレ量を算出し、照明方式の切り替え前に生成された第2画像データ群の各画像データから第2ブレ量を算出するステップと、静止画選択部が、第1及び第2ブレ量に基づいて、第1及び第2画像データ群から、静止画とする画像データを選択するステップと、を備える   The operation method of the endoscope system according to the present invention includes a simultaneous method in which a control unit simultaneously irradiates a plurality of colors of illumination light in response to an input of a freeze instruction signal for freezing a moving image to be a still image. The step of switching the illumination method of the light source device between the surface sequential method of irradiating colored illumination light in a time-sharing manner, and the blur amount calculation unit from each image data of the first image data group generated after switching the illumination method A step of calculating a first blur amount, calculating a second blur amount from each image data of the second image data group generated before switching of the illumination method, and the still image selecting unit includes the first and second blur amounts. Selecting image data to be a still image from the first and second image data groups based on
本発明によれば、フリーズ指示信号の入力に応じて、同時方式と面順次方式との間で光源装置の照明方式を切り替え、切り替え後に生成された第1画像データ群の各画像データから第1ブレ量を算出し、切り替え前に生成された第2画像データ群の各画像データから第2ブレ量を算出し、第1及び第2ブレ量のうちの少なくとも一方に基づき、第1及び第2画像データ群から、静止画とする画像データを選択するので、ブレの少ない静止画を取得することができる。   According to the present invention, the illumination method of the light source device is switched between the simultaneous method and the frame sequential method in response to the input of the freeze instruction signal, and the first image data of the first image data group generated after the switching is changed to the first. A blur amount is calculated, a second blur amount is calculated from each image data of the second image data group generated before switching, and the first and second blurs are calculated based on at least one of the first and second blur amounts. Since image data to be a still image is selected from the image data group, a still image with less blur can be acquired.
内視鏡システムの外観図である。It is an external view of an endoscope system. 内視鏡システムの内部構成を示すブロック図である。It is a block diagram which shows the internal structure of an endoscope system. 合波部の構成を説明する図である。It is a figure explaining the structure of a multiplexing part. 補色系色分離フィルタを示す模式図である。It is a schematic diagram which shows a complementary color system color separation filter. 補色系撮像素子からの出力信号を示す図である。It is a figure which shows the output signal from a complementary color type image pick-up element. 通常光観察モードで同時方式の場合の光源及び補色系撮像素子の駆動タイミングを示す図である。It is a figure which shows the drive timing of the light source and complementary color type image pick-up element in the case of a simultaneous system in normal light observation mode. 通常光観察モードで面順次方式の場合の光源及び補色系撮像素子の駆動タイミングを示す図である。It is a figure which shows the drive timing of the light source and complementary color type image pick-up element in the case of a field sequential system in normal light observation mode. 制御部の照明方式の入力制御に関する構成を示すブロック図である。It is a block diagram which shows the structure regarding the input control of the illumination system of a control part. 画像信号処理部の構成を示すブロック図である。It is a block diagram which shows the structure of an image signal processing part. 通常光観察モードにおけるフリーズ指示信号の受信前後の画像データを示す図であり、(A)は同時方式、(B)は面順次方式の場合を示す。It is a figure which shows the image data before and behind reception of the freeze instruction | indication signal in normal light observation mode, (A) shows the case of a simultaneous system, (B) shows the case of a frame sequential system. 静止画選択部による静止画選択処理手順を示すフローチャートである。It is a flowchart which shows the still image selection processing procedure by a still image selection part. 通常光観察モードにおいて同時方式から面順次方式に切り替えられる場合の画像データを示す図である。It is a figure which shows the image data in the case of switching from a simultaneous system to a frame sequential system in normal light observation mode. 内視鏡システムの作用を示すフローチャートである。It is a flowchart which shows the effect | action of an endoscope system. 総ブレ量の算出手順を示すフローチャートである。It is a flowchart which shows the calculation procedure of total blur amount. 通常光観察モードにおける同時化処理時の位置ズレ補正を説明する図である。It is a figure explaining the position shift correction | amendment at the time of the synchronization process in normal light observation mode. 狭帯域光観察モードにおける同時化処理時の位置ズレ補正を説明する図である。It is a figure explaining the position shift correction | amendment at the time of the synchronization process in narrow band light observation mode. 有効領域について説明する図である。It is a figure explaining an effective area | region. デュアルモードについて説明する図である。It is a figure explaining a dual mode. 光源装置内に青色狭帯域フィルタを設けた例を示すブロック図である。It is a block diagram which shows the example which provided the blue narrow-band filter in the light source device.
図1において、内視鏡システム10は、光源装置11と、プロセッサ装置12と、光源装置11及びプロセッサ装置12に着脱自在に接続可能な電子内視鏡(以下、単に内視鏡という)13により構成されている。光源装置11は、照明光を発生して内視鏡13に供給する。内視鏡13は、先端側が検体の体腔内等に挿入されて、体腔内を撮像する。プロセッサ装置12は、内視鏡13の撮像制御を行うと共に、内視鏡13が取得した撮像信号に対して信号処理を施す。   In FIG. 1, an endoscope system 10 includes a light source device 11, a processor device 12, and an electronic endoscope (hereinafter simply referred to as an endoscope) 13 that can be detachably connected to the light source device 11 and the processor device 12. It is configured. The light source device 11 generates illumination light and supplies it to the endoscope 13. The endoscope 13 is inserted into the body cavity or the like of the specimen to image the inside of the body cavity. The processor device 12 controls the imaging of the endoscope 13 and performs signal processing on the imaging signal acquired by the endoscope 13.
プロセッサ装置12には、画像表示装置14及び入力装置15が接続されている。画像表示装置14は、液晶モニタ等であり、プロセッサ装置12により生成された検体内の画像を表す検体画像を表示する。入力装置15は、キーボードやマウスにより構成され、プロセッサ装置12に対して各種情報を入力する。   An image display device 14 and an input device 15 are connected to the processor device 12. The image display device 14 is a liquid crystal monitor or the like, and displays a sample image representing an image in the sample generated by the processor device 12. The input device 15 includes a keyboard and a mouse, and inputs various information to the processor device 12.
内視鏡13は、挿入部16と、操作部17と、ユニバーサルケーブル18と、ライトガイドコネクタ19aと、信号コネクタ19bにより構成されている。挿入部16は、細長く、検体の体腔内等に挿入される。操作部17は、挿入部16の後端に接続されており、スコープスイッチや湾曲操作ダイヤル等が設けられている。スコープスイッチには、観察モードを切り替えるためのモード切替スイッチ17aと、画像表示装置14に表示される動画像をフリーズさせて静止画表示させるためのフリーズスイッチ17bとが含まれている。   The endoscope 13 includes an insertion portion 16, an operation portion 17, a universal cable 18, a light guide connector 19a, and a signal connector 19b. The insertion portion 16 is elongated and inserted into the body cavity of the specimen. The operation unit 17 is connected to the rear end of the insertion unit 16 and is provided with a scope switch, a bending operation dial, and the like. The scope switch includes a mode switch 17a for switching the observation mode and a freeze switch 17b for freezing a moving image displayed on the image display device 14 to display a still image.
ユニバーサルケーブル18は、操作部17から延出されている。ライトガイドコネクタ19a及び信号コネクタ19bは、ユニバーサルケーブル18の端部に設けられている。ライトガイドコネクタ19aは、光源装置11に着脱自在に接続される。信号コネクタ19bは、プロセッサ装置12に着脱自在に接続される。   The universal cable 18 extends from the operation unit 17. The light guide connector 19 a and the signal connector 19 b are provided at the end of the universal cable 18. The light guide connector 19a is detachably connected to the light source device 11. The signal connector 19b is detachably connected to the processor device 12.
内視鏡システム10は、観察モードとして、通常光観察モードと狭帯域光観察モードとを有する。通常光観察モードでは、波長域が青色帯域から赤色帯域に及ぶ通常光(白色光)を検体に照射して撮像が行われ、通常画像が生成される。狭帯域光観察モードでは、波長域の狭い狭帯域光(後述する青色狭帯域光Bnと緑色狭帯域光Gn)を検体に照射して撮像が行われ、特殊画像が生成される。   The endoscope system 10 has a normal light observation mode and a narrow-band light observation mode as observation modes. In the normal light observation mode, imaging is performed by irradiating the specimen with normal light (white light) whose wavelength range extends from the blue band to the red band, and a normal image is generated. In the narrowband light observation mode, imaging is performed by irradiating the specimen with narrowband light (blue narrowband light Bn and green narrowband light Gn, which will be described later) having a narrow wavelength range, and a special image is generated.
通常光観察モードと狭帯域光観察モードとは、前述のモード切替スイッチ17aにより切り替え可能であるが、プロセッサ装置12に接続可能なフットスイッチ(図示せず)や、プロセッサ装置12のフロントパネルに設けられたボタン、入力装置15等により切り替え可能としても良い。   The normal light observation mode and the narrowband light observation mode can be switched by the mode switch 17a described above, but are provided on a foot switch (not shown) that can be connected to the processor device 12 or on the front panel of the processor device 12. It may be possible to switch between the buttons, the input device 15 and the like.
図2において、光源装置11は、複数のLED(Light Emitting Diode)光源20と、光源制御部21と、緑色狭帯域フィルタ22と、フィルタ挿脱部23と、合波部24とを有している。LED光源20は、B(Blue)−LED20aと、G(Green)−LED20bと、R(Red)−LED20cとにより構成されている。   In FIG. 2, the light source device 11 includes a plurality of LED (Light Emitting Diode) light sources 20, a light source control unit 21, a green narrow band filter 22, a filter insertion / removal unit 23, and a multiplexing unit 24. Yes. The LED light source 20 includes B (Blue) -LED 20a, G (Green) -LED 20b, and R (Red) -LED 20c.
B−LED20aは、波長範囲420〜500nmの青色光BLを発生する。G−LED20bは、波長範囲500〜600nmの緑色光GLを発生する。R−LED20cは、波長範囲600〜650nmの赤色光RLを発生する。   The B-LED 20a generates blue light BL having a wavelength range of 420 to 500 nm. The G-LED 20b generates green light GL having a wavelength range of 500 to 600 nm. The R-LED 20c generates red light RL having a wavelength range of 600 to 650 nm.
光源制御部21は、各LED20a〜20cの点灯制御を行う。具体的には、光源制御部21は、通常光観察モード時には、全てのLED20a〜20cを同時または順次に駆動して照明光を発生させ、狭帯域光観察モード時には、B−LED20aとG−LED20bのみを同時または順次に駆動して照明光を発生させる。   The light source control part 21 performs lighting control of each LED 20a-20c. Specifically, in the normal light observation mode, the light source control unit 21 drives all the LEDs 20a to 20c simultaneously or sequentially to generate illumination light, and in the narrow band light observation mode, the B-LED 20a and the G-LED 20b. Only the lights are driven simultaneously or sequentially to generate illumination light.
光源制御部21は、LED光源20による照明方式として、通常光観察モードと狭帯域光観察モードとそれぞれの場合に、同時方式と面順次方式とを可能としている。通常光観察モードで同時方式の場合には、全てのLED20a〜20cを同時に点灯させる。通常光観察モードで面順次方式の場合には、LED20a〜20cをそれぞれ順番に時分割点灯させる。狭帯域光観察モードで同時方式の場合には、B−LED20aとG−LED20bとを同時に点灯させる。狭帯域光観察モードで面順次方式の場合には、B−LED20aとG−LED20bとを順番に時分割点灯させる。   The light source control unit 21 enables the simultaneous method and the frame sequential method as the illumination method by the LED light source 20 in each of the normal light observation mode and the narrow-band light observation mode. In the case of the simultaneous method in the normal light observation mode, all the LEDs 20a to 20c are turned on simultaneously. In the normal light observation mode, the LEDs 20a to 20c are turned on in a time-sharing manner in order. In the case of the simultaneous mode in the narrow-band light observation mode, the B-LED 20a and the G-LED 20b are turned on simultaneously. In the case of the field sequential method in the narrow-band light observation mode, the B-LED 20a and the G-LED 20b are turned on in a time-sharing manner in order.
緑色狭帯域フィルタ22は、フィルタ挿脱部23により、G−LED20bから射出される緑色光GLの光路上に挿脱される。具体的には、緑色狭帯域フィルタ22は、狭帯域光観察モード時には緑色光GLの光路上に挿入され、通常光観察モード時には緑色光GLの光路上から外される。緑色狭帯域フィルタ22は、530〜550nmの波長域の光を透過させる。   The green narrow band filter 22 is inserted into and removed from the optical path of the green light GL emitted from the G-LED 20 b by the filter insertion / removal unit 23. Specifically, the green narrow band filter 22 is inserted on the optical path of the green light GL in the narrow band light observation mode, and is removed from the optical path of the green light GL in the normal light observation mode. The green narrow band filter 22 transmits light in a wavelength range of 530 to 550 nm.
B−LED20aから射出される青色光BLは、半値幅が50nm程度と狭いので、狭帯域光観察モード時には、青色光BLがそのまま青色狭帯域光Bnとして用いられる。これに対して、G−LED20bから射出される緑色光GLは、波長域が広いため、緑色狭帯域フィルタ22を透過させることにより、波長域を20nm程度に波長制限する。狭帯域光観察モード時には、この波長制限された緑色光GLが緑色狭帯域光Gnとて用いられる。青色狭帯域光Bnは、445nm付近に中心波長を有する。緑色狭帯域光Gnは、540nm付近に中心波長を有する。これらの中心波長は、一般に狭帯域光観察で用いられる血液中のヘモグロビンに吸収されやすい波長域に含まれる。   Since the blue light BL emitted from the B-LED 20a has a narrow half width of about 50 nm, the blue light BL is directly used as the blue narrowband light Bn in the narrowband light observation mode. On the other hand, since the green light GL emitted from the G-LED 20b has a wide wavelength band, the wavelength band is limited to about 20 nm by transmitting the green narrow band filter 22. In the narrow-band light observation mode, the wavelength-limited green light GL is used as the green narrow-band light Gn. The blue narrow band light Bn has a center wavelength in the vicinity of 445 nm. The green narrow band light Gn has a center wavelength in the vicinity of 540 nm. These central wavelengths are generally included in a wavelength range that is easily absorbed by hemoglobin in blood used in narrow-band light observation.
合波部24は、図3に示すように、第1及び第2ダイクロイックミラー(DM)25a,25bと、第1〜第4レンズ26a〜26dとによって構成されている。第1〜第3レンズ26a〜26cは、それぞれLED20a〜20cに対応して配置されており、各LED20a〜20cから射出された光を集光して平行光とする   As shown in FIG. 3, the multiplexing unit 24 includes first and second dichroic mirrors (DM) 25 a and 25 b and first to fourth lenses 26 a to 26 d. The 1st-3rd lenses 26a-26c are each arrange | positioned corresponding to LED20a-20c, The light inject | emitted from each LED20a-20c is condensed, and it is set as parallel light.
G−LED20bとR−LED20cとは、第2及び第3レンズ26b,26cにより平行光とされた緑色光GLと赤色光RLとの光路が直交するように配置されており、この交点に第1DM25aが配置されている。第1DM25aの一方の面に緑色光GLが45°の角度で入射し、他方の面に赤色光RLが45°の角度で入射する。第1DM25aは、緑色光GLを透過させ、赤色光RLを反射させる光学特性を有する。これにより、G−LED20bとR−LED20cとの同時点灯時には、第1DM25aを透過した緑色光GLと、第1DM25aにより反射された赤色光RLとが合波される。   The G-LED 20b and the R-LED 20c are arranged so that the optical paths of the green light GL and the red light RL, which are made parallel by the second and third lenses 26b and 26c, are orthogonal to each other, and the first DM 25a is located at this intersection. Is arranged. The green light GL is incident on one surface of the first DM 25a at an angle of 45 °, and the red light RL is incident on the other surface at an angle of 45 °. The first DM 25a has an optical characteristic of transmitting the green light GL and reflecting the red light RL. Thereby, when the G-LED 20b and the R-LED 20c are simultaneously turned on, the green light GL transmitted through the first DM 25a and the red light RL reflected by the first DM 25a are combined.
第1レンズ26aにより平行光とされた青色光BLと、緑色光GLと赤色光RLとの合波(以下、第1合波という)とは、光路が直交し、この交点に第2DM25bが配置されている。第2DM25bの一方の面に青色光BLが45°の角度で入射し、他方の面に第1合波が45°の角度で入射する。第2DM25bは、青色光BLを反射させ、第1合波を透過させる光学特性を有する。これにより、第2DM25bにより反射された青色光BLと、第2DM25bを透過した第1合波とが合波される。この合波された光は、第4レンズ26dにより集光されて、内視鏡13のライトガイド27に入射する。   The blue light BL made parallel by the first lens 26a, and the combined light of the green light GL and the red light RL (hereinafter referred to as the first combined light) have orthogonal optical paths, and the second DM 25b is disposed at this intersection. Has been. The blue light BL is incident on one surface of the second DM 25b at an angle of 45 °, and the first combined wave is incident on the other surface at an angle of 45 °. The second DM 25b has an optical characteristic of reflecting the blue light BL and transmitting the first combined light. As a result, the blue light BL reflected by the second DM 25b and the first combined light transmitted through the second DM 25b are combined. The combined light is collected by the fourth lens 26 d and enters the light guide 27 of the endoscope 13.
通常光観察モードで同時方式の場合には、合波部24により、青色光BL、緑色光GL、赤色光RLが、合波されて通常光(白色光)となり、ライトガイド27に入射する。一方、通常光観察モードで面順次方式の場合には、青色光BL、緑色光GL、赤色光RLがそれぞれ個別に生成されてライトガイド27に入射する。   In the case of the simultaneous method in the normal light observation mode, the light combining unit 24 combines the blue light BL, the green light GL, and the red light RL into normal light (white light) and enters the light guide 27. On the other hand, in the normal light observation mode, in the case of the frame sequential method, the blue light BL, the green light GL, and the red light RL are individually generated and enter the light guide 27.
また、狭帯域光観察モードで同時方式の場合には、前述の緑色狭帯域フィルタ22が第2レンズ26bと第1DM25aとの間に挿入され、B−LED20aから射出された青色狭帯域光Bnと、緑色狭帯域フィルタ22により生成された緑色狭帯域光Gnとが、合波されて、ライトガイド27に入射する。狭帯域光観察モードで面順次方式の場合には、青色狭帯域光Bnと緑色狭帯域光Gnとがそれぞれ個別に生成されてライトガイド27に入射する。   In the case of the simultaneous mode in the narrow band light observation mode, the above-described green narrow band filter 22 is inserted between the second lens 26b and the first DM 25a, and the blue narrow band light Bn emitted from the B-LED 20a The green narrow band light Gn generated by the green narrow band filter 22 is combined and enters the light guide 27. In the case of the field sequential method in the narrow band light observation mode, the blue narrow band light Bn and the green narrow band light Gn are individually generated and enter the light guide 27.
内視鏡13の挿入部16の先端には、照明窓と観察窓とが隣接して設けられており、照明窓に照明レンズ25が取り付けられており、観察窓に対物レンズ26が取り付けられている。内視鏡13内には、ライトガイド27が挿通されており、ライトガイド27の一端が照明レンズ25に対向している。ライトガイド27の他端は、ライトガイドコネクタ19aに配置され、光源装置11内に挿入される。   An illumination window and an observation window are provided adjacent to each other at the distal end of the insertion portion 16 of the endoscope 13, an illumination lens 25 is attached to the illumination window, and an objective lens 26 is attached to the observation window. Yes. A light guide 27 is inserted into the endoscope 13, and one end of the light guide 27 faces the illumination lens 25. The other end of the light guide 27 is disposed on the light guide connector 19 a and is inserted into the light source device 11.
照明レンズ25は、光源装置11からライトガイド27に供給され、ライトガイド27から射出された光を集光して検体内に照射する。対物レンズ26は、検体の生体組織等からの反射光を集光して光学像を結像する。対物レンズ26の結像位置には、光学像を撮像して撮像信号を生成する補色系撮像素子28が配置されている。この補色系撮像素子28は、CCD(Charge Coupled Device)イメージセンサである。   The illumination lens 25 is supplied from the light source device 11 to the light guide 27, collects the light emitted from the light guide 27, and irradiates the sample. The objective lens 26 collects the reflected light from the biological tissue of the specimen and forms an optical image. A complementary color image pickup device 28 that picks up an optical image and generates an image pickup signal is disposed at the image forming position of the objective lens 26. The complementary color image sensor 28 is a CCD (Charge Coupled Device) image sensor.
補色系撮像素子28の撮像面には、光学像を光学的に画素毎に色分離する補色系色分離フィルタ28aが設けられている。この補色系色分離フィルタ28aは、図4に示すように、マゼンタ(Mg)、グリーン(G)、シアン(Cy)、イエロー(Ye)の4種のカラーフィルタセグメントを有し、各カラーフィルタセグメントは画素単位で取り付けられている。したがって、補色系撮像素子28は、Mg、G、Cy、Yeの4種の画素を有し、奇数列を、Mg画素、Cy画素、Mg画素、Ye画素、・・・の順番、偶数列を、G画素、Ye画素、G画素、Cy画素、・・・の順番とするように、奇数行にMg画素とG画素とが交互に配置され、偶数行にCy画素とYe画素とが交互に配置されている。このカラーフィルタ配列は、補色市松色差線順次方式と呼ばれている。   A complementary color system color separation filter 28 a that optically separates an optical image for each pixel is provided on the imaging surface of the complementary color image sensor 28. As shown in FIG. 4, the complementary color separation filter 28a has four color filter segments of magenta (Mg), green (G), cyan (Cy), and yellow (Ye). Are attached in pixel units. Therefore, the complementary color image sensor 28 has four kinds of pixels of Mg, G, Cy, and Ye, and odd-numbered columns are arranged in the order of Mg pixels, Cy pixels, Mg pixels, Ye pixels,. , G pixel, Ye pixel, G pixel, Cy pixel,..., Mg pixels and G pixels are alternately arranged in odd rows, and Cy pixels and Ye pixels are alternately arranged in even rows. Has been placed. This color filter array is called a complementary color checkered color difference line sequential method.
内視鏡13には、フラッシュメモリ等の不揮発性メモリで構成された情報記憶部29が設けられている。情報記憶部29は、内視鏡13の固有情報(撮像素子のカラーフィルタ配列や画素数)等を記憶している。   The endoscope 13 is provided with an information storage unit 29 composed of a nonvolatile memory such as a flash memory. The information storage unit 29 stores unique information of the endoscope 13 (color filter array of the image sensor and the number of pixels) and the like.
プロセッサ装置12は、制御部30と、撮像制御部31と、相関二重サンプリング(CDS)回路32と、A/D変換回路33と、明るさ検波回路34と、調光回路35と、画像信号処理部36と、ブレ量算出部37と、静止画選択部38と、静止画メモリ39と、表示制御部40とを有する。   The processor device 12 includes a control unit 30, an imaging control unit 31, a correlated double sampling (CDS) circuit 32, an A / D conversion circuit 33, a brightness detection circuit 34, a dimming circuit 35, an image signal, The processing unit 36, the shake amount calculation unit 37, the still image selection unit 38, the still image memory 39, and the display control unit 40 are included.
制御部30は、プロセッサ装置12内の各部と、光源装置11との制御を行う。制御部30は、光源装置11及びプロセッサ装置12に内視鏡13が接続された際に、情報記憶部29から内視鏡13の固有情報を読み取る。撮像制御部31は、読み取った固有情報に基づいて補色系撮像素子28を駆動する。   The control unit 30 controls each unit in the processor device 12 and the light source device 11. The control unit 30 reads specific information of the endoscope 13 from the information storage unit 29 when the endoscope 13 is connected to the light source device 11 and the processor device 12. The imaging control unit 31 drives the complementary color imaging element 28 based on the read unique information.
撮像制御部31は、光源装置11の発光タイミングに合わせて、補色系撮像素子28をフィールド読み出し方式で駆動する。具体的には、フィールド読み出し方式では、奇数フィールドと偶数フィールドとの各読み出し時において、列方向に隣接する2画素を2行の各画素信号が混合(加算)して読み出される(図4参照)。この画素信号の混合は、CCDイメージセンサの水平転送路(図示せず)内で行われる。   The imaging control unit 31 drives the complementary color imaging device 28 by the field readout method in accordance with the light emission timing of the light source device 11. Specifically, in the field readout method, at the time of each readout of an odd field and an even field, two pixels adjacent in the column direction are mixed (added) and read out (see FIG. 4). . This mixing of pixel signals is performed in a horizontal transfer path (not shown) of the CCD image sensor.
このフィールド読み出し方式より、補色系撮像素子28からは、奇数フィールドと偶数フィールドとのそれぞれにおいて、図5に示すように、Mg画素とCy画素との混合画素信号(以下、第1混合画素信号という)M1と、G画素とYe画素との混合画素信号(以下、第2混合画素信号という)M2と、Mg画素とYe画素との混合画素信号(以下、第3混合画素信号という)M3と、G画素とCy画素との混合画素信号(以下、第4混合画素信号という)M4が出力される。   With this field readout method, the complementary color image sensor 28 has mixed pixel signals (hereinafter referred to as first mixed pixel signals) of Mg pixels and Cy pixels, as shown in FIG. ) M1, a mixed pixel signal of G pixel and Ye pixel (hereinafter referred to as a second mixed pixel signal) M2, a mixed pixel signal of Mg pixel and Ye pixel (hereinafter referred to as a third mixed pixel signal) M3, A mixed pixel signal (hereinafter referred to as a fourth mixed pixel signal) M4 of the G pixel and the Cy pixel is output.
通常光観察モードで同時方式の場合には、図6に示すように、青色光BL、緑色光GL、赤色光RLが同時に照射され、この照射期間中に奇数フィールド及び偶数フィールドの読み出しが行われる。読み出された奇数フィールド及び偶数フィールドにより1フレーム分の画像が生成される。   In the case of the simultaneous method in the normal light observation mode, as shown in FIG. 6, the blue light BL, the green light GL, and the red light RL are simultaneously irradiated, and the odd and even fields are read during this irradiation period. . An image for one frame is generated by the read odd field and even field.
通常光観察モードで面順次方式の場合には、図7に示すように、青色光BL、緑色光GL、赤色光RLがそれぞれ順番に照射され、各照射期間中に奇数フィールド及び偶数フィールドの読み出しが行われる。読み出された奇数フィールド及び偶数フィールドにより各照射期間につき1フレーム分の画像が生成される。なお、青色光BL、緑色光GL、赤色光RLの発光順序は、この順に限られず、適宜変更して良い。   In the normal light observation mode and the field sequential method, as shown in FIG. 7, the blue light BL, the green light GL, and the red light RL are sequentially irradiated, and the odd field and the even field are read out during each irradiation period. Is done. An image for one frame is generated for each irradiation period by the read odd field and even field. Note that the order of emission of the blue light BL, the green light GL, and the red light RL is not limited to this order, and may be changed as appropriate.
狭帯域光観察モードの場合には、照明光が青色狭帯域光Bnと緑色狭帯域光Gnとの2種類になること以外は通常光観察モードと同一である。   In the narrow-band light observation mode, the illumination light is the same as the normal light observation mode except that the illumination light becomes two types of blue narrow-band light Bn and green narrow-band light Gn.
補色系撮像素子28から出力された信号は、CDS回路32に入力される。CDS回路32は、入力された信号に対して相関二重サンプリングを行って、CCDイメージセンサで生じるノイズ成分を除去する。CDS回路32によりノイズ成分が除去された信号は、A/D変換回路33に入力されると共に、明るさ検波回路34に入力される。A/D変換回路33は、CDS回路32から入力された信号をデジタル信号に変換して、画像信号処理部36に入力する。   The signal output from the complementary color image sensor 28 is input to the CDS circuit 32. The CDS circuit 32 performs correlated double sampling on the input signal to remove noise components generated by the CCD image sensor. The signal from which the noise component has been removed by the CDS circuit 32 is input to the A / D conversion circuit 33 and also to the brightness detection circuit 34. The A / D conversion circuit 33 converts the signal input from the CDS circuit 32 into a digital signal and inputs the digital signal to the image signal processing unit 36.
明るさ検波回路34は、CDS回路32から入力された信号に基づいて、明るさ(信号の平均輝度)を検出する。調光回路35は、明るさ検波回路34により検出された明るさ信号と、基準の明るさ(調光の目標値)との差分である調光信号を生成する。この調光信号は、光源制御部21に入力される。光源制御部21は、基準の明るさが得られるように、複数のLED光源20の発光量を調整する。   The brightness detection circuit 34 detects brightness (average luminance of the signal) based on the signal input from the CDS circuit 32. The dimming circuit 35 generates a dimming signal that is a difference between the brightness signal detected by the brightness detection circuit 34 and the reference brightness (target dimming value). This dimming signal is input to the light source control unit 21. The light source control unit 21 adjusts the light emission amounts of the plurality of LED light sources 20 so that the reference brightness is obtained.
制御部30は、内視鏡13のモード切替スイッチ17aが操作された際に発せられるモード切替信号を受信し、受信したモード切替信号が示す観察モード(通常光観察モードまたは狭帯域光観察モード)に基づいて、光源制御部21を制御する。   The control unit 30 receives a mode switching signal that is generated when the mode switching switch 17a of the endoscope 13 is operated, and an observation mode (normal light observation mode or narrowband light observation mode) indicated by the received mode switching signal. Based on the above, the light source control unit 21 is controlled.
また、制御部30は、検査開始時には、撮像制御部31及び光源制御部21を制御して、補色系撮像素子28及びLED光源20を繰り返し動作させることにより、動画撮影を実行させる。制御部30は、動画撮影中に、内視鏡13のフリーズスイッチ17bからフリーズ指示信号を受信すると、静止画選択部38に静止画の選択を実行させる。   In addition, at the start of inspection, the control unit 30 controls the imaging control unit 31 and the light source control unit 21 to repeatedly perform the complementary color imaging device 28 and the LED light source 20 to execute moving image shooting. When receiving a freeze instruction signal from the freeze switch 17b of the endoscope 13 during moving image shooting, the control unit 30 causes the still image selection unit 38 to select a still image.
動画撮影時と静止画撮影時との照明方式(同時方式または面順次方式)は、入力装置15から設定可能である。具体的には、制御部30には、図8に示すように、動画用照明方式入力部41と、動画用照明方式記憶部42と、静止画用照明方式入力部43と、静止画用照明方式記憶部44と、一括入力部45と、静止画撮影指示部46とが設けられている。動画用照明方式入力部41及び静止画用照明方式入力部43には、入力装置15からそれぞれ個別に照明方式が入力可能となっている。   The illumination method (simultaneous method or frame sequential method) for moving image shooting and still image shooting can be set from the input device 15. Specifically, as shown in FIG. 8, the control unit 30 includes a moving image illumination method input unit 41, a moving image illumination method storage unit 42, a still image illumination method input unit 43, and a still image illumination. A system storage unit 44, a batch input unit 45, and a still image shooting instruction unit 46 are provided. The illumination method can be individually input from the input device 15 to the moving image illumination method input unit 41 and the still image illumination method input unit 43.
また、一括入力部45は、動画撮影時と静止画撮影時との照明方式を一度の入力操作で設定可能とするように、複数のパターンを記憶している。このパターンは入力装置15から選択可能となっており、一括入力部45は、入力装置15により選択されたパターンに応じた照明方式を、動画用照明方式入力部41及び静止画用照明方式入力部43にそれぞれ入力する。   The collective input unit 45 stores a plurality of patterns so that the illumination method for moving image shooting and still image shooting can be set by a single input operation. This pattern can be selected from the input device 15, and the batch input unit 45 selects a lighting method corresponding to the pattern selected by the input device 15 as a moving image lighting method input unit 41 and a still image lighting method input unit. Input to 43 respectively.
動画用照明方式入力部41及び静止画用照明方式入力部43に入力された照明方式は、動画用照明方式記憶部42及び静止画用照明方式記憶部44にそれぞれ記憶されて、光源制御部21に入力される。   The illumination methods input to the moving image illumination method input unit 41 and the still image illumination method input unit 43 are stored in the moving image illumination method storage unit 42 and the still image illumination method storage unit 44, respectively. Is input.
静止画撮影指示部46には、フリーズスイッチ17bからフリーズ指示信号が入力される。静止画撮影指示部46は、フリーズ指示信号を受信すると、このフリーズ指示信号を、静止画選択部38及び光源制御部21に転送する。光源制御部21は、動画用照明方式記憶部42及び静止画用照明方式記憶部44から入力された動画用照明方式と静止画用照明方式が異なる場合に、フリーズ指示信号の入力を受けて照明方式を切り替える。また、静止画撮影が完了した場合に、照明方式を動画用照明方式に戻す。   A freeze instruction signal is input to the still image shooting instruction unit 46 from the freeze switch 17b. When receiving the freeze instruction signal, the still image shooting instruction unit 46 transfers the freeze instruction signal to the still image selection unit 38 and the light source control unit 21. The light source control unit 21 receives an input of a freeze instruction signal and illuminates when the moving image illumination method and the still image illumination method input from the moving image illumination method storage unit 42 and the still image illumination method storage unit 44 are different. Switch the method. In addition, when the still image shooting is completed, the illumination method is returned to the moving image illumination method.
画像信号処理部36には、図9に示すように、Y/C変換部50と、マトリクス演算部51と、フレーム生成部52と、画像メモリ53と、同時化処理部54とが設けられている。Y/C変換部50には、補色系撮像素子28からCDS回路32とA/D変換回路33とを介して、第1〜第4混合画素信号M1〜M4(図5参照)が入力される。   As shown in FIG. 9, the image signal processing unit 36 includes a Y / C conversion unit 50, a matrix calculation unit 51, a frame generation unit 52, an image memory 53, and a synchronization processing unit 54. Yes. First to fourth mixed pixel signals M1 to M4 (see FIG. 5) are input to the Y / C conversion unit 50 from the complementary color imaging device 28 via the CDS circuit 32 and the A / D conversion circuit 33. .
Y/C変換部50は、補色市松色差線順次方式に用いられる周知の演算によりY/C変換を行って輝度信号Y及び色差信号Cr,Cbを生成する。具体的には、輝度信号Y及び色差信号Cr,Cbは、行方向に隣接する第1画素信号M1と第2画素信号M2との加減算と、行方向に隣接する第3画素信号M3と第4画素信号M4との加減算とにより算出される。   The Y / C conversion unit 50 performs Y / C conversion by a known calculation used in the complementary color checkered color difference line sequential method to generate the luminance signal Y and the color difference signals Cr and Cb. Specifically, the luminance signal Y and the color difference signals Cr and Cb are added and subtracted between the first pixel signal M1 and the second pixel signal M2 adjacent in the row direction, and the third pixel signal M3 and the fourth pixel adjacent in the row direction. It is calculated by addition / subtraction with the pixel signal M4.
マトリクス演算部51は、Y/C変換部50により生成された輝度信号Y及び色差信号Cr,Cbに対して所定のマトリクス演算を行うことにより、RGB信号を生成する。Y/C変換部50及びマトリクス演算部51は、Y/C変換及びマトリクス演算を、奇数フィールド及び偶数フィールドについてそれぞれ行う。   The matrix calculation unit 51 generates RGB signals by performing a predetermined matrix calculation on the luminance signal Y and the color difference signals Cr and Cb generated by the Y / C conversion unit 50. The Y / C conversion unit 50 and the matrix calculation unit 51 perform Y / C conversion and matrix calculation for the odd field and the even field, respectively.
フレーム生成部52は、奇数フィールド及び偶数フィールドのそれぞれに対して得られたRGB信号を合成することにより、1フレームの画像データを生成する。画像メモリ53は、複数の画像データを記憶可能であり、フレーム生成部52により生成された画像データを順に記憶する。   The frame generation unit 52 generates one frame of image data by synthesizing the RGB signals obtained for each of the odd field and the even field. The image memory 53 can store a plurality of image data, and sequentially stores the image data generated by the frame generation unit 52.
照明方式が同時方式の場合には、1フレームの画像データには、検体が照明された各色成分(通常光観察モードの場合にはR,G,B成分、狭帯域光観察モードの場合にはB,G成分)が全て含まれている。これに対して、面順次方式の場合には、1フレームの画像データには、いずれか1つの照明光の色成分しか含まれていない。このため、同時方式の場合には、画像メモリ53に記憶された画像データが画像信号処理部36から出力される。面順次方式の場合には、画像メモリ53に記憶された画像データは、同時化処理部54に入力される。   When the illumination method is the simultaneous method, each frame of image data includes each color component (R, G, B components in the normal light observation mode, and in the narrow band light observation mode). (B, G components) are all included. On the other hand, in the case of the frame sequential method, one frame of image data includes only one color component of illumination light. Therefore, in the case of the simultaneous method, the image data stored in the image memory 53 is output from the image signal processing unit 36. In the case of the frame sequential method, the image data stored in the image memory 53 is input to the synchronization processing unit 54.
同時化処理部54は、連続する複数フレーム分(通常光観察モードの場合には3フレーム分、帯域光観察モードの場合には2フレーム分)の画像データから、それぞれ照明光に対応した色成分を抽出し、抽出された各色成分の画像データを合成することにより、同時化された1フレーム分の画像データを生成する。面順次方式の場合には、この同時化された画像データが画像信号処理部36から出力される。   The synchronization processing unit 54 selects color components corresponding to illumination light from image data of a plurality of consecutive frames (three frames in the normal light observation mode and two frames in the band light observation mode). Is extracted, and the extracted image data of each color component is combined to generate synchronized image data for one frame. In the case of the frame sequential method, the synchronized image data is output from the image signal processing unit 36.
ブレ量算出部37は、画像メモリ53に記憶された画像データに基づき、画像ブレ量を算出する。本実施形態では、ブレ量算出部37は、同時方式の場合には、各画像データについて、画像データに含まれるG信号に基づいて画像ブレ量を算出する。一方、面順次方式の場合には、緑色光GL照射時の画像データに含まれるG信号に基づいて画像ブレ量を算出する。RGB信号のうち、G信号が最も輝度信号との相関が大きいことにより、ブレ量算出部37はG信号を用いて画像ブレ量を算出している。   The blur amount calculation unit 37 calculates an image blur amount based on the image data stored in the image memory 53. In the present embodiment, in the case of the simultaneous method, the blur amount calculation unit 37 calculates an image blur amount for each image data based on the G signal included in the image data. On the other hand, in the case of the frame sequential method, the image blur amount is calculated based on the G signal included in the image data at the time of green light GL irradiation. Since the G signal has the highest correlation with the luminance signal among the RGB signals, the blur amount calculation unit 37 calculates the image blur amount using the G signal.
画像ブレ量は、例えば、G信号の空間周波数から所定値以上の高周波成分を抽出し、この高周波成分を積算した積算値の逆数として表される。これは、ブレが生じた場合に、画像にボケが生じて高周波成分が少なり、高周波成分の積算値が低下することに基づいている。   The amount of image blur is expressed, for example, as a reciprocal of an integrated value obtained by extracting high frequency components of a predetermined value or more from the spatial frequency of the G signal and integrating the high frequency components. This is based on the fact that when blurring occurs, the image is blurred and the high-frequency component is reduced, and the integrated value of the high-frequency component is reduced.
静止画選択部38は、フリーズ指示信号の入力に伴って照明モードが切り替えられない場合には、画像メモリ53に記憶された複数の画像データのうち、例えば、フリーズ指示信号の受信前後の複数フレーム分の画像データから、画像ブレ量が最小の画像データを選択する。   When the illumination mode cannot be switched with the input of the freeze instruction signal, the still image selection unit 38, for example, a plurality of frames before and after receiving the freeze instruction signal among the plurality of image data stored in the image memory 53. The image data with the smallest image blur amount is selected from the image data for the minute.
例えば、通常光観察モードで同時方式の場合には、図10(A)に示すように、フリーズ指示信号の受信後の画像データP〜P,P−1〜P−6から画像ブレ量が最小の画像データが選択される。この選択された画像データは、静止画として静止画メモリ39に記憶される。一方、通常光観察モードで面順次方式の場合には、図10(B)に示す画像データP〜P,P−1〜P−6のうち、緑色光GL照射時の画像データP,P,P−3,−6から画像ブレ量が最小の画像データが選択される。この面順次方式で画像データが選択された場合には、その前後の画像データと共に同時化処理部54により同時化処理が行われる。この同時化された1フレーム分の画像データが静止画として静止画メモリ39に記憶される。 For example, in the case of the simultaneous method in the normal light observation mode, as shown in FIG. 10A, the image blur amount is calculated from the image data P 1 to P 6 and P −1 to P −6 after receiving the freeze instruction signal. Is selected. The selected image data is stored in the still image memory 39 as a still image. On the other hand, in the case of the frame sequential method in the normal light observation mode, the image data P 1 at the time of green light GL irradiation among the image data P 1 to P 6 and P −1 to P −6 shown in FIG. , P 4 , P −3, P −6 , the image data with the smallest image blur amount is selected. When image data is selected by this frame sequential method, the synchronization processing unit 54 performs synchronization processing together with the image data before and after the image data. The synchronized image data for one frame is stored in the still image memory 39 as a still image.
静止画選択部38は、フリーズ指示信号の入力に伴って照明モードが切り替えられた場合には、図11に示すフローチャートに示す手順で静止画を選択する。同時方式または面順次方式で動画撮影が開始すると、フリーズ指示信号の待ち受け状態となり、フリーズ指示信号を受信すると光源制御部21により照明方式が切り替えられる。例えば、図12に示すように、フリーズ指示信号の受信に応じて、同時方式から面順次方式に切り替えられ、切り替え前後の複数フレームの画像データP〜P,P−1〜P−6が画像メモリ53に格納される。 When the illumination mode is switched in response to the input of the freeze instruction signal, the still image selection unit 38 selects a still image according to the procedure shown in the flowchart shown in FIG. When moving image shooting is started in the simultaneous method or the frame sequential method, a freeze instruction signal is waited for. When the freeze instruction signal is received, the illumination method is switched by the light source control unit 21. For example, as shown in FIG. 12, the simultaneous method is switched to the frame sequential method in response to reception of the freeze instruction signal, and image data P 1 to P 6 and P −1 to P −6 of a plurality of frames before and after the switching are changed. Stored in the image memory 53.
まず、ブレ量算出部37により、切り替え後の画像データP〜P(第1画像データ群)の各画像データから画像ブレ量(以下、切り替え後の画像データの画像ブレ量を「第1ブレ量」という)が算出される。静止画選択部38は、算出された複数の第1ブレ量のうちの最小値LV1を特定する。そして、静止画選択部38は、最小値LV1が基準値より小さいか否かを判定し、最小値LV1が基準値より小さい場合には、その最小値LV1の第1ブレ量が算出された画像データを静止画として選択する。 First, the blur amount calculation unit 37 calculates the image blur amount (hereinafter referred to as the first image blur amount of the image data after switching) from each image data of the switched image data P 1 to P 6 (first image data group). Is calculated). The still image selection unit 38 specifies the minimum value LV1 among the calculated first blur amounts. Then, the still image selection unit 38 determines whether or not the minimum value LV1 is smaller than the reference value. If the minimum value LV1 is smaller than the reference value, the image for which the first blur amount of the minimum value LV1 is calculated. Select data as a still image.
一方、最小値LV1が基準値以上である場合には、ブレ量算出部37により、切り替え前の画像データP−1〜P−6(第2画像データ群)の各画像データから画像ブレ量(以下、切り替え前の画像データの画像ブレ量を「第2ブレ量」という)が算出される。静止画選択部38は、算出された複数の第2ブレ量のうちの最小値LV2を特定する。そして、静止画選択部38は、最小値LV2が基準値より小さいか否かを判定し、最小値LV2が基準値より小さい場合には、その最小値LV2の第2ブレ量が算出された画像データを静止画として選択する。 On the other hand, if the minimum value LV1 is not less than the reference value, the blur amount calculation unit 37, an image blur amount from the image data of the image data P -1 to P -6 before switching (the second image data group) ( Hereinafter, the image blur amount of the image data before switching is referred to as “second blur amount”). The still image selection unit 38 specifies the minimum value LV2 among the calculated second blur amounts. Then, the still image selection unit 38 determines whether or not the minimum value LV2 is smaller than the reference value. If the minimum value LV2 is smaller than the reference value, the image for which the second shake amount of the minimum value LV2 is calculated. Select data as a still image.
さらに、最小値LV2が基準値以上である場合には、静止画選択部38は、最小値LV1と最小値LV2とを比較し、最小値LV1と最小値LV2とのうちの小さい方の最小値のブレ量が算出された画像データを静止画として選択する。静止画選択部38により選択された画像データは、静止画メモリ39に記憶される。   Further, when the minimum value LV2 is greater than or equal to the reference value, the still image selection unit 38 compares the minimum value LV1 with the minimum value LV2, and the smaller minimum value between the minimum value LV1 and the minimum value LV2 The image data for which the amount of blur is calculated is selected as a still image. The image data selected by the still image selection unit 38 is stored in the still image memory 39.
なお、本実施形態では、第1ブレ量の最小値LV1を比較する基準値と、第2ブレ量の最小値LV2を比較する基準値とは同じであるが、両者は異なっていてもよい。   In the present embodiment, the reference value for comparing the minimum value LV1 of the first blur amount and the reference value for comparing the minimum value LV2 of the second blur amount are the same, but they may be different.
以上説明した静止画選択部38による静止画選択動作は、面順次方式から同時方式に切り替えられる場合についても同様である。また、狭帯域光観察モードの場合についても照明光が2種類になること以外は同様である。   The still image selection operation by the still image selection unit 38 described above is the same when the frame sequential method is switched to the simultaneous method. The same applies to the case of the narrow-band light observation mode except that there are two types of illumination light.
表示制御部40は、動画撮影時は、画像信号処理部36から順次に出力される画像データに基づく画像を画像表示装置14に表示(動画表示)させる。表示制御部40は、フリーズ指示信号の受信後、静止画として選択された画像データが静止画メモリ39に記憶された場合には、この画像データに基づく画像を画像表示装置14に表示(静止画表示)させる。この後、再度フリーズスイッチ17bが操作され、フリーズ解除信号が入力された場合には、表示制御部40は、静止画表示から動画表示に戻す。   At the time of moving image shooting, the display control unit 40 causes the image display device 14 to display (moving image display) an image based on the image data sequentially output from the image signal processing unit 36. When image data selected as a still image is stored in the still image memory 39 after receiving the freeze instruction signal, the display control unit 40 displays an image based on this image data on the image display device 14 (still image). Display). Thereafter, when the freeze switch 17b is operated again and a freeze release signal is input, the display control unit 40 returns from the still image display to the moving image display.
次に、内視鏡システム10の作用を、図13に示すフローチャートに沿って説明する。まず、術者により、入力装置15を用いて前述の動画撮影時及び静止画撮影時の照明方式が設定される。この照明方式は、通常光観察モードと狭帯域光観察モードとで異なるように設定することも可能である。   Next, the operation of the endoscope system 10 will be described along the flowchart shown in FIG. First, the surgeon sets the illumination method at the time of moving image shooting and still image shooting using the input device 15. This illumination method can be set differently between the normal light observation mode and the narrow-band light observation mode.
術者は、内視鏡13の挿入部16を患者の体腔内に挿入することにより、内視鏡検査を行う。内視鏡13が光源装置11及びプロセッサ装置12に接続されると、光源装置11及びプロセッサ装置12が通常光観察モードに設定され、入力装置15により設定された照明方式に基づいて光源装置11により照明光が内視鏡13に供給されて検体に向けて射出されると共に、内視鏡13の補色系撮像素子28により撮像が行われる。この撮像は繰り返し行われ、画像信号処理部36により順次に生成される画像データが画像表示装置14に動画表示される。   The surgeon performs an endoscopic examination by inserting the insertion portion 16 of the endoscope 13 into the body cavity of the patient. When the endoscope 13 is connected to the light source device 11 and the processor device 12, the light source device 11 and the processor device 12 are set to the normal light observation mode, and the light source device 11 is based on the illumination method set by the input device 15. Illumination light is supplied to the endoscope 13 and emitted toward the specimen, and imaging is performed by the complementary color imaging element 28 of the endoscope 13. This imaging is repeatedly performed, and the image data sequentially generated by the image signal processing unit 36 is displayed as a moving image on the image display device 14.
術者によりフリーズスイッチ17bが操作されると、フリーズ指示信号が制御部30に入力され、入力装置15により設定された照明方式が動画撮影時と静止画撮影時とで異なる場合には、光源装置11の照明方式が切り替えられる。そして、ブレ量算出部37によりフリーズ指示信号の入力前後の複数フレームの各画像データについて画像ブレ量が算出され、この画像ブレ量に基づいて、静止画選択部38により静止画とする画像データが選択される。選択された画像データは、静止画メモリ39に記憶され、画像表示装置14に静止画表示が行われる。この後、術者により再度フリーズスイッチ17bが操作され、フリーズ解除信号が制御部30に入力されると、画像表示装置14に動画表示が再開される。   When the freeze switch 17b is operated by the surgeon, a freeze instruction signal is input to the control unit 30, and when the illumination method set by the input device 15 differs between moving image shooting and still image shooting, the light source device 11 illumination methods are switched. Then, an image blur amount is calculated for each image data of a plurality of frames before and after the input of the freeze instruction signal by the blur amount calculation unit 37, and based on this image blur amount, image data to be a still image is obtained by the still image selection unit 38. Selected. The selected image data is stored in the still image memory 39 and a still image is displayed on the image display device 14. Thereafter, when the freeze switch 17 b is operated again by the operator and a freeze release signal is input to the control unit 30, the moving image display is resumed on the image display device 14.
術者が、体腔内における患部等の検査対象組織の表層血管の走行状態等をより詳しく観察しようと思う場合には、モード切替スイッチ17aが操作される。モード切替スイッチ17aが操作された場合には、この操作信号が制御部30により検出されて、光源装置11及びプロセッサ装置12が狭帯域光観察モードに切り替えられる。狭帯域光観察モードでは、光源装置11から青色狭帯域光Bnと緑色狭帯域光Gnとが内視鏡13に供給され、同様に動画表示及び静止画表示が行われる。   When the surgeon wants to observe in more detail the running state of the surface blood vessels of the tissue to be examined such as the affected part in the body cavity, the mode switch 17a is operated. When the mode switch 17a is operated, the operation signal is detected by the control unit 30, and the light source device 11 and the processor device 12 are switched to the narrowband light observation mode. In the narrow-band light observation mode, the blue narrow-band light Bn and the green narrow-band light Gn are supplied from the light source device 11 to the endoscope 13, and moving image display and still image display are similarly performed.
以上のように、本発明の内視鏡システム10では、照明方式の切り替えに依らず、画像ブレの少ない画像データが静止画として選択される。面順次方式では、画像ブレが生じると、これに伴って色ズレが生じるため、色ズレも同時に低減される。   As described above, in the endoscope system 10 of the present invention, image data with less image blur is selected as a still image regardless of the switching of the illumination method. In the frame sequential method, when an image blur occurs, a color shift is caused accordingly, so that the color shift is also reduced at the same time.
なお、上記実施形態では、ブレ量算出部37は、RGB信号のうちのG信号に基づいて画像ブレ量を算出しているが、RGB信号のうちの、1色の信号、2色の信号、または3色全ての信号を用いて画像ブレ量を算出しても良い。   In the above-described embodiment, the blur amount calculation unit 37 calculates the image blur amount based on the G signal of the RGB signals, but one color signal, two color signals of the RGB signals, Alternatively, the image blur amount may be calculated using signals of all three colors.
通常光観察モードの場合には、図14に示すように、まず、画像データをR画像、G画像、B画像に色分解する。同時方式の場合には、1フレームの画像データをR画像、G画像、B画像に色分解する。面順次方式の場合には、赤色光RL照射時の画像データを色分解してR画像を生成し、緑色光GL照射時の画像データを色分解してG画像を生成し、青色光BL照射時の画像データを色分解してB画像を生成する。   In the normal light observation mode, as shown in FIG. 14, first, the image data is color-separated into an R image, a G image, and a B image. In the case of the simultaneous method, one frame of image data is color-separated into an R image, a G image, and a B image. In the case of the frame sequential method, the image data at the time of red light RL irradiation is color-separated to generate an R image, the image data at the time of green light GL irradiation is color-separated to generate a G image, and the blue light BL is irradiated. The B image is generated by color-separating the current image data.
R画像、G画像、B画像が得られると、各画像の色信号に基づいて前述の手順で画像ブレ量を算出し、算出した各色信号の画像ブレ量(それぞれブレ量Er,Eg,Ebという)を記憶する。そして、各ブレ量Er,Eg,Ebに重み付け係数Wr,Wg,Wbを乗じて加算することにより、総ブレ量E(=Wr×Er+Wg×Eg+Wb×Eb)を算出する。この総ブレ量Eを前述の画像ブレ量として用いる。ここで、重み付け係数Wr,Wg,Wbは、Wr+Wg+Wb=1の関係を満たすものとする。例えば、B信号とG信号との組み合わせで総ブレ量Eを算出する場合には、(Wr,Wg,Wb)=(0,0.5,0.5)とすれば良い。   When the R image, the G image, and the B image are obtained, the image blur amount is calculated according to the procedure described above based on the color signal of each image, and the image blur amount of each calculated color signal (referred to as blur amounts Er, Eg, and Eb, respectively). ) Is memorized. Then, the total blur amount E (= Wr × Er + Wg × Eg + Wb × Eb) is calculated by multiplying each blur amount Er, Eg, Eb by weighting coefficients Wr, Wg, Wb and adding them. This total blur amount E is used as the aforementioned image blur amount. Here, the weighting coefficients Wr, Wg, and Wb satisfy the relationship of Wr + Wg + Wb = 1. For example, when the total blur amount E is calculated by a combination of the B signal and the G signal, (Wr, Wg, Wb) = (0, 0.5, 0.5) may be set.
狭帯域光観察モードの場合は、画像データから、G画像及びB画像のみを生成すること以外は、通常光観察モードの場合と同様である。この狭帯域光観察モードの場合には、青色狭帯域光Bnが粘膜の表層血管の画像化に寄与するため、表層血管を高画質で撮影するには、(Wg,Wb)=(0,1)とすれば良い。   The narrow-band light observation mode is the same as the normal light observation mode except that only the G image and the B image are generated from the image data. In this narrow-band light observation mode, the blue narrow-band light Bn contributes to the imaging of the superficial blood vessels of the mucous membrane. Therefore, in order to photograph the superficial blood vessels with high image quality, (Wg, Wb) = (0, 1 ).
重み付け係数Wr,Wg,Wbは、入力装置15から直接入力可能としても良いし、入力装置15により選択される観察モードや画像の種類等と対応付けてテーブル化し、このテーブルをブレ量算出部37内に予め記憶しておいても良い。   The weighting coefficients Wr, Wg, and Wb may be directly input from the input device 15 or are tabulated in association with the observation mode and image type selected by the input device 15, and this table is a blur amount calculation unit 37. It may be stored in advance.
また、画像ブレ量を算出は、RGB信号に限られず、輝度信号Yに基づいて画像ブレ量を算出しても良い。この場合、画像データのRGB信号をY/C変換して輝度信号Yを生成する必要があるため、上記の場合と比べて画像ブレ量が算出されるまでの時間が長くなるが、色依存がなくなるため、画像ブレ量の算出精度が向上する。   The calculation of the image blur amount is not limited to the RGB signal, and the image blur amount may be calculated based on the luminance signal Y. In this case, since it is necessary to generate the luminance signal Y by Y / C converting the RGB signal of the image data, the time until the image blur amount is calculated is longer than that in the above case, but the color dependence is increased. Therefore, the calculation accuracy of the image blur amount is improved.
また、上記実施形態では、空間周波数の高周波成分を積算することにより画像ブレ量を算出しているが、これに代えて、特許第3497231号公報に記載されているように、時間的に隣接する2つの画像データ間の差分(動き成分)を検出することにより、画像ブレ量を算出しても良い。   In the above embodiment, the amount of image blur is calculated by integrating the high frequency components of the spatial frequency. Instead, as described in Japanese Patent No. 3497231, they are temporally adjacent. The image blur amount may be calculated by detecting a difference (motion component) between the two image data.
また、このように画像データの動き成分を検出する場合には、同時化処理部54が、各色成分の画像データを、各画像データの動き成分に基づいて位置合わせして合成(同時化)するように構成することにより、面順次方式の場合に画像ブレに起因して生じる色ズレを低減することができる。これにより、面順次方式にとっての欠点である色再現性が向上する。   Also, when detecting the motion component of the image data in this way, the synchronization processing unit 54 aligns and synthesizes (synchronizes) the image data of each color component based on the motion component of each image data. With this configuration, it is possible to reduce color misregistration caused by image blur in the case of the frame sequential method. This improves the color reproducibility, which is a drawback for the frame sequential method.
具体的には、図15に示すように、通常光観察モードにおいて照明方式が同時方式から面順次方式に切り替えられた場合に、色ズレの問題がない同時方式で得られた1フレーム分の画像データを分解して得られるR画像、G画像、B画像をそれぞれ基準として、面順次方式で同時化に用いられるR画像、G画像、B画像の位置ズレ量Dr,Dg,Dbを算出する。この位置ズレ量は、例えば、各画像の画素毎の動き成分(動きベクトル)を平均化した値である。そして、位置ズレ量Dr,Dg,Dbを打ち消すように各画像を位置合わせ補正した上で合成(同時化)することにより、色ズレが低減された画像データが生成される。   Specifically, as shown in FIG. 15, when the illumination method is switched from the simultaneous method to the frame sequential method in the normal light observation mode, an image for one frame obtained by the simultaneous method with no color misregistration problem. The R, G, and B image misregistration amounts Dr, Dg, and Db that are used for synchronization are calculated by the frame sequential method, using the R image, G image, and B image obtained by decomposing data as references. This positional deviation amount is, for example, a value obtained by averaging motion components (motion vectors) for each pixel of each image. Then, the image data with reduced color misregistration is generated by aligning and correcting the images so as to cancel out the misregistration amounts Dr, Dg, and Db and then synthesizing (simulating) the images.
狭帯域光観察モードの場合も同様な処理を行うことにより色ズレを低減することが可能である。また、狭帯域光観察モードの場合には、前述のように、青色狭帯域光Bnが粘膜の表層血管の画像化に寄与するため、表層血管を強調するために、図16に示すように、面順次方式において位置ズレを補正したB画像とG画像とを合成する際に、同時方式のB画像を加算しても良い。   In the case of the narrow-band light observation mode, it is possible to reduce color misregistration by performing the same processing. Further, in the case of the narrow band light observation mode, as described above, the blue narrow band light Bn contributes to the imaging of the surface blood vessels of the mucous membrane. When the B image and the G image whose position deviation is corrected in the frame sequential method are combined, the B image of the simultaneous method may be added.
また、上記実施形態では、ブレ量算出部37が画像ブレ量を算出し、静止画選択部38は、この画像ブレ量に基づいて静止画とする画像データを選択しているが、狭帯域光観察モード時に、画像ブレ量に加えて色分離量を考慮して静止画とする画像データを選択することも好ましい。この色分離量Cは、式(1)で表される。   In the above embodiment, the blur amount calculation unit 37 calculates the image blur amount, and the still image selection unit 38 selects image data to be a still image based on the image blur amount. In the observation mode, it is also preferable to select image data to be a still image in consideration of the color separation amount in addition to the image blur amount. This color separation amount C is expressed by equation (1).
ここで、SbはB画像の画素値の標準偏差であり、SgはG画素の画素値の標準偏差である。したがって、色分離量Cは、標準偏差Sb,Sgの2乗平均平方根として表されており、B画像とG画像との合成画像のコントラスト幅に関連する値である。   Here, Sb is the standard deviation of the pixel value of the B image, and Sg is the standard deviation of the pixel value of the G pixel. Therefore, the color separation amount C is expressed as the root mean square of the standard deviations Sb and Sg, and is a value related to the contrast width of the composite image of the B image and the G image.
狭帯域光観察モードでは、青色狭帯域光Bnと緑色狭帯域光Gnとが検体内に侵入する深さが異なり、B画像には表層の構造が多く含まれ、G画像には中深層の構造が多く含まれている。このため、特に、同時方式では、同時照射された青色狭帯域光Bnと緑色狭帯域光Gnとの両方を各画素が検出(すなわち、混色)して、B画像及びG画像に含まれる2つの異なる構造の像が混じり合う。例えば、表層は毛細血管などの微細構造を有し、中深層はこれより大きな構造を有するため、両者が混じり合うことにより、微細構造に含まれる高周波成分が減少する。このように、色分離性が悪い場合には、コントラスト幅が狭まり、色分離量Cが小さくなる。   In the narrow-band light observation mode, the depth at which the blue narrow-band light Bn and the green narrow-band light Gn enter the specimen is different, the B image includes a lot of surface layer structures, and the G image has a medium-deep layer structure. Many are included. For this reason, in particular, in the simultaneous method, each pixel detects both the blue narrow-band light Bn and the green narrow-band light Gn that are simultaneously irradiated (that is, color mixing), and the two included in the B image and the G image The images of different structures are intermingled. For example, the surface layer has a fine structure such as a capillary, and the middle deep layer has a larger structure. Therefore, when both are mixed, the high-frequency component contained in the fine structure is reduced. Thus, when the color separation is poor, the contrast width is narrowed and the color separation amount C is reduced.
そこで、静止画選択部38は、狭帯域光観察モードで同時方式の場合に、上記の総ブレ量Eと色分離量Cとに基づき、例えば、「H=W×E−W×C」で表される総合評価値Hを用いて、静止画とする画像データを選択することが好ましい。ここで、W,Wは重み付け係数である。また、狭帯域光観察モードで照明方式の切り替えが伴う場合には、同時方式で得られた複数の画像データから、1つの画像データを選択する場合(同時方式時のブレ量の最小値を特定する場合)に限って、色分離量Cを考慮する。 Therefore, the still image selection unit 38, for example, “H = W 1 × E−W 2 × C” based on the total blur amount E and the color separation amount C in the case of the simultaneous mode in the narrow-band light observation mode. It is preferable to select image data to be a still image using the comprehensive evaluation value H expressed by Here, W 1 and W 2 are weighting coefficients. In addition, when switching the illumination method in the narrow-band light observation mode, when selecting one image data from a plurality of image data obtained by the simultaneous method (specify the minimum value of the blur amount in the simultaneous method) Only when the color separation amount C is considered.
また、内視鏡13は、図17に示すように、補色系撮像素子28が撮像する矩形領域60のうち、観察窓に対応したほぼ円形の有効領域61が検体像の撮像に用いられる。矩形領域60のうちの有効領域61外は暗く、画素値がほぼ一定の値を取る(空間周波数が低い)ため、矩形領域60全体について画像ブレ量を算出したとしても、有効領域61外の画素値は、画像ブレ量の算出結果には殆ど影響を与えない。しかし、有効領域61外の画素値には色の偏りが存在することがあり、色分離量Cの算出結果に影響を及ぼす恐れがある。   In addition, as shown in FIG. 17, the endoscope 13 uses a substantially circular effective area 61 corresponding to the observation window among the rectangular area 60 captured by the complementary color imaging element 28 for imaging the specimen image. Since the outside of the effective area 61 in the rectangular area 60 is dark and the pixel value takes a substantially constant value (spatial frequency is low), even if the image blur amount is calculated for the entire rectangular area 60, the pixels outside the effective area 61 The value hardly affects the calculation result of the image blur amount. However, color deviation may exist in the pixel values outside the effective area 61, which may affect the calculation result of the color separation amount C.
そこで、色分離量Cは、検出精度を高めるために、有効領域61内のみを対象とすることが好ましい。有効領域61内の全体を対象として色分離量Cを算出してもよいが、処理の簡略化のために、有効領域61内の最大矩形を対象として色分離量Cを算出しても良い。また、検体の検査部位が、有効領域61内の中心付近に配置されることが多いため、有効領域61内の中心付近を対象として色分離量Cを算出しても良い。さらに、検体像は、有効領域61内のある一定の輝度範囲(暗すぎず明るすぎない領域)に存在するため、有効領域61内からこの輝度範囲の領域を抽出し、この領域のみを対象として色分離量Cを算出しても良い。   Therefore, it is preferable that the color separation amount C is targeted only within the effective region 61 in order to increase detection accuracy. Although the color separation amount C may be calculated for the entire effective area 61, the color separation amount C may be calculated for the maximum rectangle in the effective area 61 for simplification of processing. In addition, since the examination region of the specimen is often arranged near the center in the effective region 61, the color separation amount C may be calculated for the vicinity of the center in the effective region 61. Further, since the specimen image exists in a certain luminance range (an area that is neither too dark nor too bright) in the effective area 61, an area of this luminance range is extracted from the effective area 61, and only this area is targeted. The color separation amount C may be calculated.
また、図18に示すように、プロセッサ装置内にFICE(Flexible spectral Imaging Color Enhancement)等の特殊画像を生成するための特殊画像処理部70を設けても良い。この場合、静止画メモリ39に記憶された第1静止画像71と、この第1静止画像71が特殊画像処理部70により画像処理された第2静止画像72とが画像表示装置14に表示される。これは、デュアルモード機能と呼ばれるものである。   As shown in FIG. 18, a special image processing unit 70 for generating a special image such as FICE (Flexible Spectral Imaging Color Enhancement) may be provided in the processor device. In this case, the first still image 71 stored in the still image memory 39 and the second still image 72 obtained by performing image processing on the first still image 71 by the special image processing unit 70 are displayed on the image display device 14. . This is called a dual mode function.
また、第2静止画像72は、第1静止画像71に画像処理を施したものには限られず、入力装置15等により特殊画像用に別途指定された照明方式で得られた画像に画像処理を施したものとしても良い。例えば、FICEは、色を強調する処理であるため、色再現性よりはフレームレートを優先して、同時方式の画像データを特殊画像用として指定する。   Further, the second still image 72 is not limited to the image obtained by subjecting the first still image 71 to the image processing, and the image processing is performed on the image obtained by the illumination method separately designated for the special image by the input device 15 or the like. It may be given. For example, since FICE is a process for emphasizing color, priority is given to the frame rate over color reproducibility, and simultaneous image data is designated for special images.
また、上記実施形態では、フリーズ指示信号の受信に応じて照明方式が切り替えられる場合に、ブレ量算出部37は、切り替え前の画像データの第2ブレ量を、フリーズ指示信号が受信されてから算出しているが、フリーズ指示信号が受信される以前の動画撮影中に画像データが生成されるたびに逐次第2ブレ量を算出しておき、フリーズ指示信号が受信した後に、切り替え後の画像データの第1ブレ量の算出のみを行うようにしても良い。こうすることで、フリーズ指示から静止画表示までに要する時間が短縮される。   In the above embodiment, when the illumination method is switched in response to the reception of the freeze instruction signal, the blur amount calculation unit 37 determines the second blur amount of the image data before switching after the freeze instruction signal is received. Although the calculation is performed, the second shake amount is sequentially calculated every time image data is generated during moving image shooting before the freeze instruction signal is received, and the image after switching is received after the freeze instruction signal is received. Only the calculation of the first blur amount of data may be performed. By doing so, the time required from the freeze instruction to the still image display is shortened.
また、上記実施形態では、フリーズ指示信号の受信に応じて照明方式が切り替えられる場合に、静止画選択部38は、第1及び第2ブレ量に基づき、同時方式または面順次方式のいずれか一方の画像データを静止画として選択しているが、第1及び第2ブレ量の最小値が共に基準値より小さい場合には、同時方式及び面順次方式からそれぞれ該最小値を有する画像データを静止画として選択し、選択した2つの静止画を、選択的または同時に画像表示装置14に表示させても良い。   In the above embodiment, when the illumination method is switched in response to the reception of the freeze instruction signal, the still image selection unit 38 is either the simultaneous method or the frame sequential method based on the first and second blur amounts. Image data is selected as a still image, but if the minimum values of the first and second blur amounts are both smaller than the reference value, the image data having the minimum value from the simultaneous method and the frame sequential method are still The selected still images may be displayed on the image display device 14 selectively or simultaneously.
また、上記実施形態では、狭帯域光観察モード時に、B−LED20aから射出される青色光BLをそのまま青色狭帯域光Bnとして用いているが、青色光BLの波長域が比較的広い場合には、図19に示すように、光源装置11内に、青色狭帯域フィルタ80とフィルタ挿脱部81とを設けてもよい。   In the above embodiment, the blue light BL emitted from the B-LED 20a is used as it is as the blue narrowband light Bn in the narrowband light observation mode. However, when the wavelength range of the blue light BL is relatively wide, As shown in FIG. 19, a blue narrow band filter 80 and a filter insertion / removal unit 81 may be provided in the light source device 11.
フィルタ挿脱部81は、青色狭帯域フィルタ80を、B−LED20aから射出される青色光BLの光路上に挿脱させる。青色狭帯域フィルタ80は、狭帯域光観察モード時には青色光BLの光路上に挿入され、通常光観察モード時には青色光BLの光路上から外される。狭帯域光観察モード時には、青色狭帯域フィルタ80は、B−LED20aから射出される青色光BLを波長制限して青色狭帯域光Bnを生成する。なお、フィルタ挿脱部81を省略し、前述の緑色狭帯域フィルタ22用のフィルタ挿脱部23によって、青色狭帯域フィルタ80を緑色狭帯域フィルタ22と連動して挿脱させてもよい。   The filter insertion / removal unit 81 inserts / removes the blue narrow band filter 80 on the optical path of the blue light BL emitted from the B-LED 20a. The blue narrow band filter 80 is inserted into the optical path of the blue light BL in the narrow band light observation mode, and is removed from the optical path of the blue light BL in the normal light observation mode. In the narrowband light observation mode, the blue narrowband filter 80 generates blue narrowband light Bn by limiting the wavelength of the blue light BL emitted from the B-LED 20a. Note that the filter insertion / removal unit 81 may be omitted, and the blue narrowband filter 80 may be inserted / removed in conjunction with the green narrowband filter 22 by the filter insertion / removal unit 23 for the green narrowband filter 22 described above.
また、上記実施形態では、狭帯域光観察モード時に、狭帯域光として青色狭帯域光Bnと緑色狭帯域光Gnとを用いているが、青色狭帯域光Bnに代えて、紫色狭帯域光(中心波長405nm付近)を用いても良い。   In the above-described embodiment, the blue narrowband light Bn and the green narrowband light Gn are used as the narrowband light in the narrowband light observation mode, but instead of the blue narrowband light Bn, purple narrowband light ( A central wavelength of around 405 nm may be used.
また、上記実施形態では、撮像制御部31、CDS回路32、A/D変換回路33等をプロセッサ装置12内に設けているが、これらを内視鏡13内に設けても良い。   In the above embodiment, the imaging control unit 31, the CDS circuit 32, the A / D conversion circuit 33, and the like are provided in the processor device 12, but these may be provided in the endoscope 13.
また、上記実施形態では、補色系撮像素子28を用いているが、これに代えて、原色系撮像素子を用いても良い。また、撮像素子は、CMOSイメージセンサであっても良い。CMOSイメージセンサの場合には、イメージセンサが形成されたCMOS半導体基板内に、撮像制御部31、CDS回路32、A/D変換回路33等を形成することが可能である。   In the above-described embodiment, the complementary color image sensor 28 is used, but a primary color image sensor may be used instead. Further, the image sensor may be a CMOS image sensor. In the case of a CMOS image sensor, the imaging control unit 31, the CDS circuit 32, the A / D conversion circuit 33, and the like can be formed in a CMOS semiconductor substrate on which the image sensor is formed.
また、上記実施形態では、光源装置11にLED光源20を用いているが、LEDに代えてLD(Laser Diode)等のその他の半導体光源を用いても良い。   Moreover, in the said embodiment, although the LED light source 20 is used for the light source device 11, other semiconductor light sources, such as LD (Laser Diode), may be used instead of LED.
また、上記実施形態では、光源装置11とプロセッサ装置12とを別体の装置として構成しているが、これらを単一の装置としても良い。さらに、光源装置11を、内視鏡13内に組み込んでも良い。   Moreover, in the said embodiment, although the light source device 11 and the processor apparatus 12 are comprised as a separate apparatus, they are good also as a single apparatus. Further, the light source device 11 may be incorporated in the endoscope 13.
10 内視鏡システム
11 光源装置
12 プロセッサ装置
13 内視鏡
14 画像表示装置
17a モード切替スイッチ
17b フリーズスイッチ
20 LED光源
21 光源制御部
22 緑色狭帯域フィルタ
27 ライトガイド
28 補色系撮像素子
28a 補色系色分離フィルタ
36 画像信号処理部
37 ブレ量算出部
38 静止画選択部
39 静止画メモリ
54 同時化処理部
DESCRIPTION OF SYMBOLS 10 Endoscope system 11 Light source apparatus 12 Processor apparatus 13 Endoscope 14 Image display apparatus 17a Mode changeover switch 17b Freeze switch 20 LED light source 21 Light source control part 22 Green narrow-band filter 27 Light guide 28 Complementary color system image sensor 28a Complementary color system color Separation filter 36 Image signal processing unit 37 Blur amount calculation unit 38 Still image selection unit 39 Still image memory 54 Synchronization processing unit

Claims (15)

  1. 複数色の照明光を発生する光源装置と、
    色分離フィルタを有する同時式撮像素子と、
    前記同時式撮像素子から読み出した画素信号に基づいて画像データを生成する画像信号処理部と、
    動画をフリーズさせて静止画とするためのフリーズ指示信号の入力に応じて、前記複数の照明光を同時照射させる同時方式と、前記複数の照明光を時分割照射させる面順次方式との間で前記光源装置の照明方式を切り替える制御部と、
    前記照明方式の切り替え後に生成された第1画像データ群の各画像データから第1ブレ量を算出し、前記照明方式の切り替え前に生成された第2画像データ群の各画像データから第2ブレ量を算出するブレ量算出部と、
    前記第1及び第2ブレ量に基づいて、前記第1及び第2画像データ群から、静止画とする画像データを選択する静止画選択部と、
    を備えることを特徴とする内視鏡システム。
    A light source device that generates illumination light of multiple colors;
    A simultaneous imaging device having a color separation filter;
    An image signal processing unit that generates image data based on a pixel signal read from the simultaneous image sensor;
    In accordance with the input of a freeze instruction signal for freezing the moving image into a still image, between the simultaneous method of simultaneously irradiating the plurality of illumination lights and the surface sequential method of irradiating the plurality of illumination lights in a time-sharing manner A controller that switches the illumination method of the light source device;
    A first blur amount is calculated from each image data of the first image data group generated after switching the illumination method, and a second blur is calculated from each image data of the second image data group generated before switching the illumination method. A blur amount calculation unit for calculating the amount;
    A still image selection unit that selects image data to be a still image from the first and second image data groups based on the first and second blur amounts;
    An endoscope system comprising:
  2. 前記静止画選択部は、前記第1ブレ量の最小値が基準値より小さい場合には、前記第1画像データ群から該最小値を有する画像データを静止画として選択し、前記第1ブレ量の最小値が基準値以上である場合には、前記第2ブレ量の最小値が基準値より小さいか否かを判定して、該最小値が基準値より小さい場合には、前記第2画像データ群から該最小値を有する画像データを静止画として選択し、前記第2ブレ量の最小値が基準値以上である場合には、前記第1及び第2ブレ量の最小値のうち小さい方の画像データを、前記第1及び第2画像データ群から選択することを特徴とする請求項1に記載の内視鏡システム。   When the minimum value of the first blur amount is smaller than a reference value, the still image selection unit selects image data having the minimum value from the first image data group as a still image, and the first blur amount If the minimum value of the second blur amount is less than the reference value, it is determined whether or not the minimum value of the second blur amount is smaller than the reference value. When image data having the minimum value is selected as a still image from the data group, and the minimum value of the second blur amount is equal to or greater than a reference value, the smaller one of the minimum values of the first and second blur amounts The endoscope system according to claim 1, wherein the image data is selected from the first and second image data groups.
  3. 前記静止画選択部は、前記第1及び第2ブレ量の最小値が共に基準値より小さい場合には、前記第1及び第2画像データ群から、前記各最小値を有する画像データをそれぞれ静止画として選択することを特徴とする請求項2に記載の内視鏡システム。   The still image selection unit freezes image data having the minimum values from the first and second image data groups when the minimum values of the first and second blur amounts are both smaller than a reference value. The endoscope system according to claim 2, wherein the endoscope system is selected as an image.
  4. 前記面順次方式の場合に、前記複数色の各照明光の照射時に得られた画像データを合成して同時化された画像データを生成する同時化処理部を備え、
    前記同時化処理部は、前記照明方式が前記同時方式から前記面順次方式に切り替えられ、前記静止画選択部により前記面順次方式の画像データが選択された場合に、合成する複数の画像データを、それぞれ前記同時方式で得られた画像データの対応する色分解画像と比較することにより位置ズレ量をそれぞれ算出し、算出した位置ズレ量に基づいて位置合わせした上で合成することを特徴とする請求項2に記載の内視鏡システム。
    In the case of the frame sequential method, comprising a synchronization processing unit that generates image data that is synchronized by synthesizing image data obtained at the time of irradiation of the illumination lights of the plurality of colors,
    The synchronization processing unit switches a plurality of image data to be combined when the illumination method is switched from the simultaneous method to the frame sequential method and the frame sequential method image data is selected by the still image selection unit. Each of the image data obtained by the simultaneous method is compared with a corresponding color separation image to calculate a positional deviation amount, and after being aligned based on the calculated positional deviation amount, they are combined. The endoscope system according to claim 2.
  5. 前記光源装置に、赤色光、緑色光、青色光を発生させる通常光観察モードと、前記光源装置に、第1及び第2狭帯域光を発生させる狭帯域光観察モードとを有することを特徴とする請求項4に記載の内視鏡システム。   The light source device has a normal light observation mode for generating red light, green light, and blue light, and a narrowband light observation mode for generating first and second narrowband light in the light source device. The endoscope system according to claim 4.
  6. 前記狭帯域光観察モードの場合に、前記同時化処理部は、前記同時方式で生成される画像データの前記第1狭帯域光または前記第2狭帯域光に対応する1つの色分解画像を、前記位置合わせ後に合成する複数の画像データのうちの1つに加算することを特徴とする請求項5に記載の内視鏡システム。   In the case of the narrowband light observation mode, the synchronization processing unit outputs one color separation image corresponding to the first narrowband light or the second narrowband light of the image data generated by the simultaneous method, The endoscope system according to claim 5, wherein the endoscope system is added to one of a plurality of image data to be synthesized after the alignment.
  7. 前記狭帯域光観察モードでかつ前記同時方式の場合に、前記静止画選択部は、前記第1ブレ量または前記第2ブレ量に加えて、コントラスト幅に関連する色分離量に基づいて、静止画とする画像データを選択することを特徴とする請求項5に記載の内視鏡システム。   In the case of the narrowband light observation mode and the simultaneous method, the still image selection unit performs a still image based on a color separation amount related to a contrast width in addition to the first blur amount or the second blur amount. 6. The endoscope system according to claim 5, wherein image data to be a picture is selected.
  8. 前記ブレ量算出部は、前記同時方式で生成される画像データに含まれる1つの色信号と、前記面順次方式で前記色の照明光の照射時の画像データに含まれる前記色の色信号とに基づいて、前記第1及び第2ブレ量を算出することを特徴とする請求項1から7いずれか1項に記載の内視鏡システム。   The blur amount calculating unit includes one color signal included in the image data generated by the simultaneous method, and the color signal of the color included in the image data when the illumination light of the color is irradiated by the frame sequential method. The endoscope system according to any one of claims 1 to 7, wherein the first and second blur amounts are calculated on the basis of the first and second blur amounts.
  9. 前記ブレ量算出部は、画像データ中の空間周波数の高周波成分を積算した積算値に基づいて前記第1及び第2ブレ量を算出することを特徴とする請求項1から8いずれか1項に記載の内視鏡システム。   The said blur amount calculation part calculates the said 1st and 2nd blur amount based on the integrated value which integrated the high frequency component of the spatial frequency in image data, The any one of Claim 1 to 8 characterized by the above-mentioned. The endoscope system described.
  10. 前記ブレ量算出部は、時間的に隣接する2つの画像データ間の差分を検出することにより、前記第1及び第2ブレ量を算出することを特徴とする請求項1から8いずれか1項に記載の内視鏡システム。   9. The blur amount calculating unit calculates the first and second blur amounts by detecting a difference between two temporally adjacent image data. The endoscope system described in 1.
  11. 前記ブレ量算出部は、画像データに含まれる各色信号に基づいて画像ブレ量をそれぞれ算出し、前記各画像ブレ量に重み付け係数を乗じて加算することにより、前記第1及び第2ブレ量を算出することを特徴とする請求項1から8いずれか1項に記載の内視鏡システム。   The blur amount calculation unit calculates an image blur amount based on each color signal included in the image data, and multiplies each image blur amount by a weighting coefficient to add the first and second blur amounts. The endoscope system according to any one of claims 1 to 8, wherein the endoscope system is calculated.
  12. 前記色分離フィルタは、補色系であることを特徴とする請求項1から11いずれか1項に記載の内視鏡システム。   The endoscope system according to claim 1, wherein the color separation filter is a complementary color system.
  13. 前記静止画選択部により静止画として選択された画像データと、この画像データに特殊画像処理を施したものとを、画像表示装置に同時に表示させるデュアルモードを有することを特徴とする請求項1から12いずれか1項に記載の内視鏡システム。   2. A dual mode in which image data selected as a still image by the still image selection unit and special image processing on the image data are simultaneously displayed on an image display device. The endoscope system according to any one of 12.
  14. 前記ブレ量算出部は、前記フリーズ指示信号が入力される以前に、前記画像信号処理部により画像データが生成されるたびに前記第2ブレ量を算出することを特徴とする請求項1から13いずれか1項に記載の内視鏡システム。   14. The blur amount calculating unit calculates the second blur amount each time image data is generated by the image signal processing unit before the freeze instruction signal is input. The endoscope system according to any one of the above.
  15. 制御部が、動画をフリーズさせて静止画とするためのフリーズ指示信号の入力に応じて、複数色の照明光を同時照射させる同時方式と、前記複数色の照明光を時分割照射させる面順次方式との間で光源装置の照明方式を切り替えるステップと、
    ブレ量算出部が、前記照明方式の切り替え後に生成された第1画像データ群の各画像データから第1ブレ量を算出し、前記照明方式の切り替え前に生成された第2画像データ群の各画像データから第2ブレ量を算出するステップと、
    静止画選択部が、前記第1及び第2ブレ量に基づいて、前記第1及び第2画像データ群から、静止画とする画像データを選択するステップと、
    を備えることを特徴とする内視鏡システムの作動方法。
    The control unit is configured to simultaneously irradiate a plurality of colors of illumination light in response to an input of a freeze instruction signal for freezing a moving image to be a still image, and a surface sequential to irradiate the plurality of colors of illumination light in a time-sharing manner. Switching the illumination method of the light source device between the methods,
    A blur amount calculation unit calculates a first blur amount from each image data of the first image data group generated after switching the illumination method, and each of the second image data groups generated before switching the illumination method. Calculating a second blur amount from the image data;
    A still image selection unit selecting image data to be a still image from the first and second image data groups based on the first and second blur amounts;
    An operation method of an endoscope system comprising:
JP2013182219A 2013-09-03 2013-09-03 Endoscope system and operating method thereof Active JP6047467B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013182219A JP6047467B2 (en) 2013-09-03 2013-09-03 Endoscope system and operating method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013182219A JP6047467B2 (en) 2013-09-03 2013-09-03 Endoscope system and operating method thereof

Publications (2)

Publication Number Publication Date
JP2015047402A true JP2015047402A (en) 2015-03-16
JP6047467B2 JP6047467B2 (en) 2016-12-21

Family

ID=52697909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013182219A Active JP6047467B2 (en) 2013-09-03 2013-09-03 Endoscope system and operating method thereof

Country Status (1)

Country Link
JP (1) JP6047467B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015077335A (en) * 2013-10-18 2015-04-23 三菱電機エンジニアリング株式会社 Light source device
JP2017164393A (en) * 2016-03-18 2017-09-21 富士フイルム株式会社 Endoscope system and method for operating the same
WO2017221353A1 (en) * 2016-06-22 2017-12-28 オリンパス株式会社 Image processing device, method for operating image processing device, and program for operating image processing device
EP3708063A4 (en) * 2017-11-10 2021-05-12 FUJIFILM Corporation Endoscope system and method for operating same
WO2021182048A1 (en) * 2020-03-13 2021-09-16 富士フイルム株式会社 Endoscope system and operation method for endoscope system

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01279689A (en) * 1988-05-06 1989-11-09 Olympus Optical Co Ltd Color dislocation preventing device
JPH02213287A (en) * 1989-02-13 1990-08-24 Olympus Optical Co Ltd Signal processor for picture freeze
JPH07289507A (en) * 1994-04-22 1995-11-07 Olympus Optical Co Ltd Freezing device
JPH10323326A (en) * 1997-05-23 1998-12-08 Olympus Optical Co Ltd Endoscope device
JPH11225953A (en) * 1998-02-12 1999-08-24 Olympus Optical Co Ltd Endoscope device
JP2001136540A (en) * 1999-11-05 2001-05-18 Olympus Optical Co Ltd Image processor
JP2009284959A (en) * 2008-05-27 2009-12-10 Hoya Corp Endoscope
JP2010220755A (en) * 2009-03-23 2010-10-07 Fujifilm Corp Processor device for endoscope, and method for driving the same
JP2011200572A (en) * 2010-03-26 2011-10-13 Fujifilm Corp Electronic endoscope system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01279689A (en) * 1988-05-06 1989-11-09 Olympus Optical Co Ltd Color dislocation preventing device
JPH02213287A (en) * 1989-02-13 1990-08-24 Olympus Optical Co Ltd Signal processor for picture freeze
JPH07289507A (en) * 1994-04-22 1995-11-07 Olympus Optical Co Ltd Freezing device
JPH10323326A (en) * 1997-05-23 1998-12-08 Olympus Optical Co Ltd Endoscope device
JPH11225953A (en) * 1998-02-12 1999-08-24 Olympus Optical Co Ltd Endoscope device
JP2001136540A (en) * 1999-11-05 2001-05-18 Olympus Optical Co Ltd Image processor
JP2009284959A (en) * 2008-05-27 2009-12-10 Hoya Corp Endoscope
JP2010220755A (en) * 2009-03-23 2010-10-07 Fujifilm Corp Processor device for endoscope, and method for driving the same
JP2011200572A (en) * 2010-03-26 2011-10-13 Fujifilm Corp Electronic endoscope system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015077335A (en) * 2013-10-18 2015-04-23 三菱電機エンジニアリング株式会社 Light source device
JP2017164393A (en) * 2016-03-18 2017-09-21 富士フイルム株式会社 Endoscope system and method for operating the same
WO2017159059A1 (en) * 2016-03-18 2017-09-21 富士フイルム株式会社 Endoscopic system and operation method thereof
EP3430969A4 (en) * 2016-03-18 2019-03-27 Fujifilm Corporation Endoscopic system and operation method thereof
US11039732B2 (en) 2016-03-18 2021-06-22 Fujifilm Corporation Endoscopic system and method of operating same
WO2017221353A1 (en) * 2016-06-22 2017-12-28 オリンパス株式会社 Image processing device, method for operating image processing device, and program for operating image processing device
JPWO2017221353A1 (en) * 2016-06-22 2019-04-11 オリンパス株式会社 Image processing apparatus, method for operating image processing apparatus, and operation program for image processing apparatus
US10891743B2 (en) 2016-06-22 2021-01-12 Olympus Corporation Image processing device, operation method performed by image processing device and computer readable recording medium for performing different enhancement processings based on context of update determined from latest image acquired
EP3708063A4 (en) * 2017-11-10 2021-05-12 FUJIFILM Corporation Endoscope system and method for operating same
WO2021182048A1 (en) * 2020-03-13 2021-09-16 富士フイルム株式会社 Endoscope system and operation method for endoscope system

Also Published As

Publication number Publication date
JP6047467B2 (en) 2016-12-21

Similar Documents

Publication Publication Date Title
JP5925169B2 (en) Endoscope system, operating method thereof, and light source device for endoscope
JP4009626B2 (en) Endoscope video signal processor
JP6047467B2 (en) Endoscope system and operating method thereof
US9498153B2 (en) Endoscope apparatus and shake correction processing method
WO2014125724A1 (en) Endoscope device
JP5670264B2 (en) Endoscope system and method for operating endoscope system
JP6461739B2 (en) Image processing apparatus, endoscope system, and method of operating image processing apparatus
JP5997817B2 (en) Endoscope system
JP6362274B2 (en) Endoscope system and method for operating endoscope system
WO2016121556A1 (en) Processor device for endoscope, method for operating same, and control program
JP2015139657A (en) Processor device, endoscope system, operation method for endoscope system
JP6285370B2 (en) Endoscope processor device, operation method of endoscope processor device, endoscope control program, and endoscope system
JP2015066132A (en) Endoscope system and operation method thereof
JP5930474B2 (en) Endoscope system and operating method thereof
JP5041936B2 (en) Biological observation device
JP3958761B2 (en) Dimming signal generator for endoscope
CN111343898A (en) Endoscope system and method for operating same
JPWO2016084257A1 (en) Endoscope device
WO2016114231A1 (en) Endoscope system and processing device
JP6616071B2 (en) Endoscope processor device, operation method of endoscope processor device, control program for endoscope
JP2012239757A (en) Medical equipment and medical processor
JP6285373B2 (en) Endoscope system, processor device, and operation method of endoscope system
JP6346501B2 (en) Endoscope device
WO2021172131A1 (en) Endoscope system and endoscope system operation method
JP2021153961A (en) Endoscope and endoscope system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160824

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161121

R150 Certificate of patent or registration of utility model

Ref document number: 6047467

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250