JP2012110481A - Endoscope apparatus, focus control method, and program - Google Patents

Endoscope apparatus, focus control method, and program Download PDF

Info

Publication number
JP2012110481A
JP2012110481A JP2010261172A JP2010261172A JP2012110481A JP 2012110481 A JP2012110481 A JP 2012110481A JP 2010261172 A JP2010261172 A JP 2010261172A JP 2010261172 A JP2010261172 A JP 2010261172A JP 2012110481 A JP2012110481 A JP 2012110481A
Authority
JP
Japan
Prior art keywords
image
acquisition unit
subject
focus
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010261172A
Other languages
Japanese (ja)
Inventor
Keiji Higuchi
圭司 樋口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2010261172A priority Critical patent/JP2012110481A/en
Publication of JP2012110481A publication Critical patent/JP2012110481A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an endoscope apparatus capable of performing suitable autofocus even for a subject of low contrast, and a focus control method, a program, etc.SOLUTION: The endoscope apparatus includes a first image acquiring part, a second image acquiring part, and a focus control part 150. The first image acquiring part acquires, as a first image, an image of the subject in a living body imaged by an imaging optical system and including a subject image having information in a wavelength band of white light. The second image acquiring part acquires, as a second image, an image including the subject image having information in a specific wavelength band corresponding to the first image. The focus control part 150 performs control of focusing on the subject image in the second image to make a focus adjustment of the imaging optical system. The first image acquiring part acquires the first image imaged by the focus-adjusted imaging optical system.

Description

本発明は、内視鏡装置、フォーカス制御方法及びプログラム等に関する。   The present invention relates to an endoscope apparatus, a focus control method, a program, and the like.

被写体にピントを自動で合わせるオートフォーカスの一方式として、コントラスト検出方式が広く知られている。この方式では、レンズの位置を変えながら画像を撮像し、それらの画像のコントラストに基づいて評価値を算出する。そして、その評価値が最大となるレンズの位置を決定し、その位置が最もピントの合っている位置と判断する。   A contrast detection method is widely known as an autofocus method for automatically focusing on a subject. In this method, images are captured while changing the position of the lens, and an evaluation value is calculated based on the contrast of these images. Then, the position of the lens having the maximum evaluation value is determined, and it is determined that the position is the most focused position.

特開2004−118141号公報JP 2004-118141 A

しかしながら、コントラスト検出方式では、元々コントラストのあまりないシーンの場合には、ピントの最も合う位置(合焦位置)とそうでない位置でコントラストの差が小さいという課題がある。この場合、レンズの位置を変化させても評価値の変化が小さいため、ピントの合った位置を求めることが難しくなり、適切なオートフォーカスを行うことが困難となってしまう。   However, in the contrast detection method, in the case of a scene that originally does not have much contrast, there is a problem that a difference in contrast is small between the best focus position (focus position) and the other focus position. In this case, since the change in the evaluation value is small even if the lens position is changed, it is difficult to obtain a focused position and it is difficult to perform appropriate autofocus.

例えば内視鏡装置では、主に生体内部を観察するが、生体内部は低コントラストの場合が多い。そのため、コントラスト検出方式により生体内部に対して適切にオートフォーカスできない可能性がある。   For example, in an endoscope apparatus, the inside of a living body is mainly observed, but the inside of the living body often has low contrast. For this reason, there is a possibility that the autofocus cannot be appropriately performed on the inside of the living body by the contrast detection method.

特許文献1には、被写体からの反射光を可視光と赤外光に分岐し、赤外光から取得される画像を用いて合焦位置を制御する手法が開示されている。   Japanese Patent Application Laid-Open No. 2004-133620 discloses a method of branching reflected light from a subject into visible light and infrared light, and controlling an in-focus position using an image acquired from the infrared light.

しかしながら、赤外光では生体の分光特性を利用できないため、コントラストの高い画像を得られない。また、撮像素子の分光感度は可視光以外の波長領域では一般的に小さいため、赤外光では可視光に比べてコントラストが小さい画像しか得られない。   However, since the spectral characteristics of a living body cannot be used with infrared light, an image with high contrast cannot be obtained. In addition, since the spectral sensitivity of the image sensor is generally small in a wavelength region other than visible light, only an image having a smaller contrast than visible light can be obtained with infrared light.

本発明の幾つかの態様によれば、低コントラストの被写体でも適切なオートフォーカスを行うことが可能な内視鏡装置、フォーカス制御方法及びプログラム等を提供できる。   According to some aspects of the present invention, it is possible to provide an endoscope apparatus, a focus control method, a program, and the like that can perform appropriate autofocus even with a low-contrast subject.

本発明の一態様は、生体内の被写体を撮像光学系により撮像した画像であって、白色光の波長帯域における情報を有した被写体像を含む画像を、第1画像として取得する第1画像取得部と、前記第1画像に対応して、特定の波長帯域における情報を有した被写体像を含む画像を第2画像として取得する第2画像取得部と、前記第2画像の中の被写体像に合焦させる制御を行って、前記撮像光学系のフォーカス調整を行うフォーカス制御部と、を含み、前記第1画像取得部は、前記フォーカス調整された前記撮像光学系により撮像した前記第1画像を取得する内視鏡装置に関係する。   One aspect of the present invention is a first image acquisition that acquires, as a first image, an image obtained by capturing an in-vivo subject with an imaging optical system, the image including a subject image having information in the wavelength band of white light. Corresponding to the first image, a second image acquisition unit that acquires an image including a subject image having information in a specific wavelength band as a second image, and a subject image in the second image. A focus control unit that performs focusing control and performs focus adjustment of the imaging optical system, wherein the first image acquisition unit captures the first image captured by the focus-adjusted imaging optical system. It relates to the endoscopic device to be acquired.

本発明の一態様によれば、生体内の被写体が撮像された第1画像と第2画像が取得される。このとき、第2画像として、特定の波長帯域における情報を有した被写体像を含む画像が取得される。その第2画像の中の被写体像に合焦させる制御が行われ、第1画像が取得される。これにより、低コントラストな生体内の被写体でも適切なオートフォーカスを行うことが可能になる。   According to one aspect of the present invention, a first image and a second image obtained by capturing an in-vivo subject are acquired. At this time, an image including a subject image having information in a specific wavelength band is acquired as the second image. Control to focus on the subject image in the second image is performed, and the first image is acquired. This makes it possible to perform appropriate autofocus even with a low-contrast in-vivo subject.

また、本発明の他の態様は、生体内の被写体を撮像光学系により撮像した画像であって、白色光の波長帯域における情報を有した被写体像を含む画像を、第1画像として取得する第1画像取得部と、前記第1画像に含まれる前記被写体像の生体構造をより強調させた生体構造の被写体像を含む画像を、第2画像として取得する第2画像取得部と、前記第2画像の中の被写体像に合焦させる制御を行って、前記撮像光学系のフォーカス調整を行うフォーカス制御部と、を含み、前記第1画像取得部は、前記フォーカス調整された前記撮像光学系により撮像した前記第1画像を取得する内視鏡装置に関係する。   According to another aspect of the present invention, there is provided a first image obtained by capturing an image of a subject in a living body using an imaging optical system, the image including a subject image having information in the wavelength band of white light as a first image. A second image acquisition unit that acquires, as a second image, an image including a subject image of a anatomy in which the anatomy of the subject image included in the first image is further emphasized; A focus control unit that performs control for focusing on a subject image in the image and performs focus adjustment of the imaging optical system, and the first image acquisition unit is configured by the imaging optical system with the focus adjusted. The present invention relates to an endoscope apparatus that acquires the captured first image.

また、本発明のさらに他の態様は、生体内の被写体を撮像光学系により撮像した画像であって、白色光の波長帯域における情報を有した被写体像を含む画像を、第1画像として取得し、前記第1画像に対応して、特定の波長帯域における情報を有した被写体像を含む画像を第2画像として取得し、前記第2画像の中の被写体像に合焦させる制御を行って、前記撮像光学系のフォーカス調整を行い、前記フォーカス調整された前記撮像光学系により撮像した前記第1画像を取得するフォーカス制御方法に関係する。   According to still another aspect of the present invention, an image obtained by capturing an in-vivo subject with an imaging optical system and including an image of the subject having information in the wavelength band of white light is acquired as the first image. In response to the first image, an image including a subject image having information in a specific wavelength band is acquired as a second image, and control is performed to focus on the subject image in the second image, The present invention relates to a focus control method for performing focus adjustment of the image pickup optical system and acquiring the first image picked up by the focus-adjusted image pickup optical system.

また、本発明のさらに他の態様は、生体内の被写体を撮像光学系により撮像した画像であって、白色光の波長帯域における情報を有した被写体像を含む画像を、第1画像として取得する第1画像取得部と、前記第1画像に対応して、特定の波長帯域における情報を有した被写体像を含む画像を第2画像として取得する第2画像取得部と、前記第2画像の中の被写体像に合焦させる制御を行って、前記撮像光学系のフォーカス調整を行うフォーカス制御部として、コンピュータを機能させ、前記第1画像取得部は、前記フォーカス調整された前記撮像光学系により撮像した前記第1画像を取得するプログラムに関係する。   According to still another aspect of the present invention, an image obtained by imaging an in-vivo subject using an imaging optical system and including an image of the subject having information in the wavelength band of white light is acquired as the first image. A first image acquisition unit, a second image acquisition unit for acquiring an image including a subject image having information in a specific wavelength band corresponding to the first image, and a second image acquisition unit; The computer is caused to function as a focus control unit that performs focus control on the subject image and adjusts the focus of the imaging optical system, and the first image acquisition unit captures images using the focus-adjusted imaging optical system. This relates to a program for acquiring the first image.

図1(A)〜図1(D)は、本実施形態の概要についての説明図である。FIG. 1A to FIG. 1D are explanatory diagrams for an overview of the present embodiment. 内視鏡装置の第1の構成例。1 is a first configuration example of an endoscope apparatus. 回転フィルタの第1の詳細な構成例。The 1st detailed structural example of a rotary filter. ラプラシアンフィルタの例。An example of a Laplacian filter. 図5(A)、図5(B)は、オートフォーカス処理についての説明図である。5A and 5B are explanatory diagrams of the autofocus process. 図6(A)、図6(B)は、オートフォーカス処理についての説明図である。FIG. 6A and FIG. 6B are explanatory diagrams of the autofocus process. 内視鏡装置の第2の構成例。The 2nd structural example of an endoscope apparatus. 回転フィルタの第2の詳細な構成例。The 2nd detailed structural example of a rotary filter. 面順次についての説明図。Explanatory drawing about surface sequential. 内視鏡装置の第3の構成例。The 3rd structural example of an endoscope apparatus. 特殊光画像取得部の詳細な構成例。The detailed structural example of a special light image acquisition part. ヒストグラムの例。Example of a histogram. 階調変換曲線の例。An example of a gradation conversion curve. 内視鏡装置の第4の構成例。The 4th structural example of an endoscope apparatus. 内視鏡装置の第5の構成例。The 5th structural example of an endoscope apparatus. 回転フィルタの第3の詳細な構成例。The 3rd detailed structural example of a rotation filter. 光源の詳細な構成例。The detailed structural example of a light source. コンピュータシステムの構成を示すシステム構成図。The system block diagram which shows the structure of a computer system. コンピュータシステムにおける本体部の構成を示すブロック図。The block diagram which shows the structure of the main-body part in a computer system. ソフトウェアのフローチャート例。The example of a flowchart of software.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.本実施形態の概要
まず、本実施形態が行うオートフォーカス処理の概要について説明する。上述のように、内視鏡により生体内を観察する場合、消化管の内壁等は一般的に低コントラストであるためコントラスト検出方式のオートフォーカスは困難である。例えば図1(A)に示すように、白色光による画像では、血管等の生体構造がそれほど鮮明でない場合がある。その場合、図1(B)に示すように合焦時とピンぼけ時の評価値の差が小さく、レンズの合焦位置dfの検出が不正確になってしまう。
1. First, an overview of autofocus processing performed by the present embodiment will be described. As described above, when the inside of a living body is observed with an endoscope, the inner wall of the digestive tract or the like is generally low in contrast, so that it is difficult to perform autofocus by the contrast detection method. For example, as shown in FIG. 1A, in an image using white light, a anatomy such as a blood vessel may not be so clear. In this case, as shown in FIG. 1B, the difference between the evaluation values at the time of focusing and at the time of defocusing is small, and the detection of the lens focus position df becomes inaccurate.

そこで本実施形態では、図1(C)、図1(D)に示すように、特殊光による画像を用いてコントラスト検出方式のオートフォーカス処理を行う。特殊光は、生体特有の吸収や反射が生じる波長帯域の光である。そのため、特殊光を用いることで、生体構造が強調された高コントラストの画像を撮像し、その画像を用いてオートフォーカスの精度を向上できる。   Accordingly, in the present embodiment, as shown in FIGS. 1C and 1D, contrast detection type autofocus processing is performed using an image of special light. Special light is light in a wavelength band where absorption and reflection peculiar to a living body occur. Therefore, by using special light, it is possible to capture a high-contrast image in which the anatomy is emphasized, and the accuracy of autofocus can be improved using the image.

例えば、血管は、緑と青の特定の帯域の光を吸収する性質がある。そのため、その帯域の特殊光で観察することで、血管が強調された高コントラストの画像を得ることができる。また、病変部はその周辺部と構造が異なるため、病変部では高コントラストの画像が得られる。   For example, blood vessels have the property of absorbing light in specific bands of green and blue. Therefore, a high-contrast image in which blood vessels are emphasized can be obtained by observing with special light in that band. Further, since the lesioned part has a different structure from the peripheral part, a high-contrast image is obtained at the lesioned part.

2.第1の実施形態
次に、上記オートフォーカス処理を行う内視鏡装置について説明する。図2に、本実施形態の内視鏡装置の第1の構成例を示す。内視鏡装置(広義には撮像装置)は、照明部101、撮像部102、I/F部111(I/F: Interface)、制御装置300を含む。
2. First Embodiment Next, an endoscope apparatus that performs the autofocus process will be described. FIG. 2 shows a first configuration example of the endoscope apparatus of the present embodiment. The endoscope apparatus (imaging apparatus in a broad sense) includes an illumination unit 101, an imaging unit 102, an I / F unit 111 (I / F: Interface), and a control device 300.

照明部101は、被写体に照明光を照射する。照明部101は、光源装置201(光源部)、外装205、ライトガイドファイバ206、照明光学系207を含む。光源装置201は、照明光を発生する。光源装置201は、白色光光源202、回転フィルタ203、集光レンズ204を含む。   The illumination unit 101 irradiates the subject with illumination light. The illumination unit 101 includes a light source device 201 (light source unit), an exterior 205, a light guide fiber 206, and an illumination optical system 207. The light source device 201 generates illumination light. The light source device 201 includes a white light source 202, a rotary filter 203, and a condenser lens 204.

撮像部102は、照明された被写体を撮像する。撮像部102は、外装205、集光レンズ208(対物レンズ)、撮像素子209を含む。外装205は、撮像部102やライトガイドファイバ206、照明光学系207が収納されたスコープ部の外装である。スコープ部は、例えば体腔への挿入を可能にするため細長く湾曲可能に形成されており、制御装置300に着脱可能である。   The imaging unit 102 images the illuminated subject. The imaging unit 102 includes an exterior 205, a condenser lens 208 (objective lens), and an imaging element 209. The exterior 205 is an exterior of the scope unit in which the imaging unit 102, the light guide fiber 206, and the illumination optical system 207 are accommodated. The scope portion is formed to be elongate and bendable so as to be inserted into a body cavity, for example, and is detachable from the control device 300.

制御装置300は、内視鏡装置の各構成要素の制御や画像処理を行う。制御装置300は、A/D変換部103、通常光画像取得部104(第1画像取得部)、特殊光画像取得部105(第2画像取得部)、評価値算出部106、バッファ107(記憶部)、合焦位置決定部108、出力部109、制御部110、判定部112を含む。制御部110は、例えばマイクロコンピュータやCPU等を備えている。I/F部111は、例えば電源スイッチや変数設定などを行うためのインターフェースを備えている。   The control device 300 controls each component of the endoscope device and performs image processing. The control device 300 includes an A / D conversion unit 103, a normal light image acquisition unit 104 (first image acquisition unit), a special light image acquisition unit 105 (second image acquisition unit), an evaluation value calculation unit 106, and a buffer 107 (storage). A focus position determination unit 108, an output unit 109, a control unit 110, and a determination unit 112. The control unit 110 includes, for example, a microcomputer and a CPU. The I / F unit 111 includes an interface for performing, for example, a power switch and variable setting.

本実施形態の内視鏡装置が行う動作や処理について説明する。白色光光源202は、白色光を発光する。図3に示すように、回転フィルタ203には、白色光透過フィルタ210と狭帯域透過フィルタ211(広義には特殊光フィルタ)がセットされている。白色光透過フィルタ210の透過帯域は、例えば400nm〜700nmである(nm:ナノメートル)。狭帯域透過フィルタ211の透過帯域は、例えば390nm〜445nm(B2)と530nm〜550nm(G2)である。   Operations and processing performed by the endoscope apparatus of the present embodiment will be described. The white light source 202 emits white light. As shown in FIG. 3, a white light transmission filter 210 and a narrow band transmission filter 211 (special light filter in a broad sense) are set in the rotary filter 203. The transmission band of the white light transmission filter 210 is, for example, 400 nm to 700 nm (nm: nanometer). The transmission bands of the narrow band transmission filter 211 are, for example, 390 nm to 445 nm (B2) and 530 nm to 550 nm (G2).

白色光光源202から発光された白色光が、回転フィルタ203の白色光透過フィルタ210と狭帯域透過フィルタ211を交互に透過する。白色光透過フィルタ210を透過した白色光と、狭帯域透過フィルタ211を透過した特殊光が交互に集光レンズ204に達し集光される。集光された白色光または特殊光は、ライトガイドファイバ206を通って照明光学系207から被写体に照射される。   White light emitted from the white light source 202 is alternately transmitted through the white light transmission filter 210 and the narrow band transmission filter 211 of the rotary filter 203. The white light transmitted through the white light transmission filter 210 and the special light transmitted through the narrow band transmission filter 211 alternately reach the condenser lens 204 and are condensed. The condensed white light or special light is irradiated to the subject from the illumination optical system 207 through the light guide fiber 206.

被写体から反射した反射光は、集光レンズ208により集光される。集光された光は、撮像素子209に到達し、撮像素子209により光電変換されてアナログ信号となる。アナログ信号は、A/D変換部103へ送られる。撮像素子209は、例えばR,G,Bを受光する受光素子がベイヤ(Bayer)型に配置されたセンサである。   The reflected light reflected from the subject is collected by the condenser lens 208. The condensed light reaches the image sensor 209 and is photoelectrically converted by the image sensor 209 to become an analog signal. The analog signal is sent to the A / D conversion unit 103. The image sensor 209 is a sensor in which, for example, light receiving elements that receive R, G, and B are arranged in a Bayer shape.

集光レンズ208は、光軸上で前後に動作できる。あるいは、集光レンズ208がAF用レンズを有し、そのAF用レンズが光軸上で前後に動作してもよい。レンズが光軸に沿った方向に移動することで、合焦する被写体までの距離が変更される。なお以下では、被写体にピントが合っている場合の集光レンズ208の位置を、合焦位置と呼ぶ。   The condenser lens 208 can move back and forth on the optical axis. Alternatively, the condensing lens 208 may have an AF lens, and the AF lens may move back and forth on the optical axis. When the lens moves in the direction along the optical axis, the distance to the subject to be focused is changed. Hereinafter, the position of the condensing lens 208 when the subject is in focus is referred to as an in-focus position.

特殊光を照射して撮像された画像は、A/D変換部103によりデジタル信号に変換される。その信号は、特殊光画像取得部105へ送られる。特殊光画像取得部105は、その信号に基づいて特殊光画像を取得する。また、同時に集光レンズ208の位置情報も取得する。位置情報は、特殊光画像を撮像したときの集光レンズ208の位置を表す情報である。   An image captured by irradiating special light is converted into a digital signal by the A / D conversion unit 103. The signal is sent to the special light image acquisition unit 105. The special light image acquisition unit 105 acquires a special light image based on the signal. At the same time, the position information of the condenser lens 208 is acquired. The position information is information representing the position of the condenser lens 208 when the special light image is captured.

評価値算出部106は、特殊光画像に基づいて評価値を算出する。評価値は、合焦位置に応じて変化する値であり、被写体にピントが合う合焦位置を検出するための値である。評価値の算出方法の一例は、公知のエッジ抽出処理を特殊光画像に対して行う。抽出されたエッジの量が大きいほど評価値が高い。例えば、図4に示すラプラシアンフィルタを、特殊光画像の全画素に対して適用することで、エッジを抽出する。そして、ラプラシアンフィルタをかけた後の全画素の画素値の絶対値の合計を求め、その合計の値を評価値とする。   The evaluation value calculation unit 106 calculates an evaluation value based on the special light image. The evaluation value is a value that changes according to the in-focus position, and is a value for detecting the in-focus position where the subject is in focus. As an example of the evaluation value calculation method, a known edge extraction process is performed on the special light image. The evaluation value is higher as the extracted edge amount is larger. For example, an edge is extracted by applying the Laplacian filter shown in FIG. 4 to all the pixels of the special light image. Then, the sum of absolute values of the pixel values of all the pixels after applying the Laplacian filter is obtained, and the sum is used as the evaluation value.

バッファ107は、その評価値と、集光レンズ208の位置情報を保持(記憶)する。   The buffer 107 holds (stores) the evaluation value and the position information of the condenser lens 208.

図5(A)に示すように、レンズの位置d1で評価値ev1が取得されたとする。レンズの位置は、例えば集光レンズ208から撮像素子209までの距離である。制御部110は、集光レンズ208を撮像素子209側に近づけて位置d2に移動させる。その後は同様に特殊光画像を取得し、評価値ev2を算出し、その集光レンズの位置情報d2を保持する。   As shown in FIG. 5A, it is assumed that the evaluation value ev1 is acquired at the lens position d1. The position of the lens is, for example, the distance from the condenser lens 208 to the image sensor 209. The control unit 110 moves the condenser lens 208 closer to the image sensor 209 side and moves it to the position d2. Thereafter, a special light image is acquired in the same manner, an evaluation value ev2 is calculated, and the position information d2 of the condenser lens is held.

合焦位置決定部108は、一枚目の評価値ev1と二枚目の評価値ev2を比較する。図5(A)に示すように、二枚目の評価値ev2のほうが大きければ、集光レンズ208を更に撮像素子209側に近づける。図5(B)に示すように、一枚目の評価値ev1のほうが大きければ、逆に一枚目の位置d1よりも撮像素子209から遠い位置へ集光レンズ208を動かす。すなわち、評価値が最大となる位置を捜すために、評価値が大きくなる可能性のある方向へ集光レンズ208を動かす。   The in-focus position determining unit 108 compares the first evaluation value ev1 with the second evaluation value ev2. As shown in FIG. 5A, if the second evaluation value ev2 is larger, the condenser lens 208 is further moved closer to the image sensor 209 side. As shown in FIG. 5B, if the first evaluation value ev1 is larger, the condenser lens 208 is moved to a position farther from the image sensor 209 than the position d1 of the first sheet. That is, in order to search for a position where the evaluation value is maximized, the condenser lens 208 is moved in a direction in which the evaluation value may increase.

そして同様に、特殊光画像取得部105が特殊光画像を取得し、評価値算出部106が評価値を算出し、バッファ107が評価値と集光レンズ208の位置情報を保持する。   Similarly, the special light image acquisition unit 105 acquires the special light image, the evaluation value calculation unit 106 calculates the evaluation value, and the buffer 107 holds the evaluation value and the position information of the condenser lens 208.

図6(A)、図6(B)に示すように、合焦位置決定部108は、3つの評価値に対して二次関数KCで近似を行い、二次関数KCが最大となる位置dfを求める。その位置dfが、被写体にピントの合った集光レンズ208の位置であると推測する。   As shown in FIGS. 6A and 6B, the in-focus position determination unit 108 approximates the three evaluation values with the quadratic function KC, and the position df at which the quadratic function KC is maximized. Ask for. It is estimated that the position df is the position of the condenser lens 208 in focus on the subject.

なお、上記では特殊光画像を3枚用いて評価値を求め近似を行ったが、本実施形態では3枚以上の特殊光画像を用いて評価値を求め近似を行ってもよい。特殊光画像の枚数が多い方が、近似の精度を向上できる。また、上記では二次関数を用いて近似を行ったが、本実施形態では二次よりも高次の関数を用いて近似を行ってもよい。   In the above description, the evaluation value is obtained and approximated using three special light images. However, in this embodiment, the evaluation value may be obtained and approximated using three or more special light images. The approximation accuracy can be improved if the number of special light images is large. In the above description, approximation is performed using a quadratic function. However, in the present embodiment, approximation may be performed using a higher-order function than the quadratic function.

評価値が最大となる位置dfが求められたら、制御部110は、集光レンズ208をその位置dfへ動かす制御を行う。回転フィルタ203の白色光透過フィルタ210を透過した白色光を被写体に照射し、撮像した信号をA/D変換部103によりデジタル信号に変換する。その信号を通常光画像取得部104へ送る。通常光画像取得部104は、その信号から通常光画像を取得する。出力部109は、取得された通常光画像をピントの合った画像として、図示しないモニタ等へ出力する。   When the position df that maximizes the evaluation value is obtained, the control unit 110 performs control to move the condenser lens 208 to the position df. The subject is irradiated with white light transmitted through the white light transmission filter 210 of the rotation filter 203, and the captured signal is converted into a digital signal by the A / D conversion unit 103. The signal is sent to the normal light image acquisition unit 104. The normal light image acquisition unit 104 acquires a normal light image from the signal. The output unit 109 outputs the acquired normal light image as a focused image to a monitor (not shown) or the like.

なお、上記ではエッジ抽出の処理をラプラシアンフィルタにより行う場合を例に説明したが、本実施形態はこれに限定されない。例えば、1次微分フィルタ等の他のエッジ抽出方法を用いて、エッジ抽出の処理を行ってもよい。   In addition, although the case where edge extraction processing is performed by a Laplacian filter has been described above as an example, the present embodiment is not limited to this. For example, the edge extraction process may be performed using another edge extraction method such as a primary differential filter.

ここで、本実施形態では、拡大観察モードの場合にオートフォーカス制御を行うことも可能である。具体的には、判定部112は、拡大観察モードか否かを判定する。拡大観察モードであれば、制御部110が上記の処理を行う。   Here, in the present embodiment, autofocus control can be performed in the magnification observation mode. Specifically, the determination unit 112 determines whether or not the magnification observation mode is set. In the magnification observation mode, the control unit 110 performs the above processing.

拡大観察モードの判定の一例は、図示しない距離情報を取得するセンサを撮像部先端に保持し、そのセンサが被写体までの距離を測定する。その距離が予め与えられた所定の閾値以下の場合には、判定部112が拡大観察モードと判定する。   As an example of the determination of the magnification observation mode, a sensor that acquires distance information (not shown) is held at the tip of the imaging unit, and the sensor measures the distance to the subject. When the distance is equal to or less than a predetermined threshold given in advance, the determination unit 112 determines that the magnification observation mode is set.

他の判定の一例は、I/F部111を介して拡大観察モードか否かをユーザが指示する。拡大観察モードが指示された場合には、判定部112が拡大観察モードと判定する。   In another example of the determination, the user instructs whether or not the magnification observation mode is set via the I / F unit 111. When the magnification observation mode is instructed, the determination unit 112 determines the magnification observation mode.

また、他の判定の一例は、通常光画像取得部104または特殊光画像取得部105により取得された画像に対して所定のエッジ抽出などを行い、オブジェクトを検出する。判定部112は、その検出したオブジェクトが所定時間(例えば単位時間)後に大きくなっていたら拡大観察モードと判定する。   Another example of the determination is to detect an object by performing predetermined edge extraction on the image acquired by the normal light image acquisition unit 104 or the special light image acquisition unit 105. The determination unit 112 determines the magnified observation mode when the detected object becomes larger after a predetermined time (for example, unit time).

また、他の判定の一例は、通常光画像取得部104または特殊光画像取得部105により取得された画像に対して所定のエッジ抽出の処理を行い、エッジ量を算出する。判定部112は、所定時間(例えば単位時間)後にエッジ量が減り、画像全体(または一部)の画素値(例えば輝度値)の合計が増加した場合には、拡大観察モードと判定する。具体的には、通常観察において、被写体が被写界深度に入っておりピントが合っているとする。被写体を拡大観察するために被写体にスコープを近づける操作をすると、被写界深度を外れてピントがぼける。そうすると、画像のエッジ量が減るため、エッジ量が減った場合にオートフォーカス処理を開始する。すなわち、ピントがぼけたことを、エッジ量に基づいて判断する。また、被写体から遠ざける操作をした場合にも被写界深度から外れる。この場合、画像は暗くなる。そのため、被写体に近づく方向に被写界深度を外れたことを、画像の明るさに基づいて判断する。   Another example of the determination is to perform a predetermined edge extraction process on the image acquired by the normal light image acquisition unit 104 or the special light image acquisition unit 105 to calculate the edge amount. When the edge amount decreases after a predetermined time (for example, unit time) and the total of pixel values (for example, luminance values) of the entire image (or part of the image) increases, the determination unit 112 determines that the magnification observation mode is set. Specifically, in normal observation, it is assumed that the subject is in the depth of field and is in focus. If you move the scope closer to the subject to zoom in on the subject, you will be out of focus and out of focus. Then, since the edge amount of the image is reduced, the autofocus process is started when the edge amount is reduced. That is, it is determined based on the edge amount that the image is out of focus. Further, even when an operation of moving away from the subject is performed, the depth of field is deviated. In this case, the image becomes dark. For this reason, it is determined based on the brightness of the image that the depth of field has been deviated in the direction approaching the subject.

さて上述のように、コントラスト検出方式のオートフォーカスでは、内視鏡により生体内を観察する場合に、消化管の内壁等は一般的に低コントラストであるため、合焦位置を検出することが困難であるという課題がある。   As described above, in contrast detection autofocus, when the inside of a living body is observed with an endoscope, the inner wall of the digestive tract is generally low in contrast, so it is difficult to detect the in-focus position. There is a problem of being.

この点、本実施形態の内視鏡装置は、図2に示すように、第1画像取得部と第2画像取得部とフォーカス制御部150を含む。第1画像取得部は、生体内の被写体を撮像光学系により撮像した画像であって、白色光の波長帯域における情報を有した被写体像を含む画像を、第1画像として取得する。第2画像取得部は、第1画像に対応して、特定の波長帯域における情報を有した被写体像を含む画像を第2画像として取得する。フォーカス制御部150は、第2画像の中の被写体像に合焦させる(ピントを合わせる)制御を行って、撮像光学系のフォーカス調整を行う。そして、第1画像取得部は、フォーカス調整された撮像光学系により撮像した第1画像を取得する。   In this regard, the endoscope apparatus of the present embodiment includes a first image acquisition unit, a second image acquisition unit, and a focus control unit 150, as shown in FIG. The first image acquisition unit acquires an image including a subject image having information in a wavelength band of white light as a first image, which is an image obtained by capturing an in-vivo subject with an imaging optical system. The second image acquisition unit acquires an image including a subject image having information in a specific wavelength band as the second image corresponding to the first image. The focus control unit 150 performs focus adjustment of the imaging optical system by performing control (focusing) on a subject image in the second image. Then, the first image acquisition unit acquires a first image captured by the focus-adjusted imaging optical system.

例えば本実施形態では、特殊光画像取得部105が特殊光画像を取得し、評価値算出部106が、その特殊光画像に基づいて評価値を算出し、合焦位置決定部108が、その評価値に基づいて合焦位置を求める。制御部110が、その合焦位置に集光レンズ208を移動させ、通常光画像取得部104が、合焦した(ピントの合った)通常光画像を取得する。   For example, in the present embodiment, the special light image acquisition unit 105 acquires a special light image, the evaluation value calculation unit 106 calculates an evaluation value based on the special light image, and the in-focus position determination unit 108 calculates the evaluation value. The in-focus position is obtained based on the value. The control unit 110 moves the condenser lens 208 to the in-focus position, and the normal light image acquisition unit 104 acquires a focused (focused) normal light image.

ここで、第1画像取得部は通常光画像取得部104に対応する。第2画像取得部は特殊光画像取得部105に対応する。フォーカス制御部150は、評価値算出部106、バッファ107、合焦位置決定部108、制御部110に対応する。なおフォーカス制御部150は、バッファ107を含まなくてもよい。撮像光学系は、集光レンズ208と撮像素子209に対応する。第1画像は通常光画像に対応する。第2画像は特殊光画像に対応する。   Here, the first image acquisition unit corresponds to the normal light image acquisition unit 104. The second image acquisition unit corresponds to the special light image acquisition unit 105. The focus control unit 150 corresponds to the evaluation value calculation unit 106, the buffer 107, the focus position determination unit 108, and the control unit 110. The focus control unit 150 may not include the buffer 107. The imaging optical system corresponds to the condenser lens 208 and the imaging element 209. The first image corresponds to the normal light image. The second image corresponds to the special light image.

本実施形態によれば、内視鏡装置において特殊光画像を用いてオートフォーカス制御を行い、そのオートフォーカス制御により合焦した通常光画像を取得できる。具体的には、特殊光画像は、生体内においてコントラストの高い画像が得られやすい。そのため、通常光画像でオートフォーカスを行う場合に比べて、オートフォーカスの精度を向上できる。これにより、合焦した通常光画像を観察者に提供できる。   According to the present embodiment, autofocus control is performed using a special light image in the endoscope apparatus, and a normal light image focused by the autofocus control can be acquired. Specifically, the special light image is easy to obtain an image with high contrast in the living body. Therefore, the accuracy of autofocus can be improved compared to the case where autofocus is performed with a normal light image. Thereby, the focused normal light image can be provided to the observer.

また本実施形態では、第2画像取得部は、生体内の被写体についてのコントラストが第1画像よりも第2画像において高くなる波長帯域を特定の波長帯域として、第2画像を取得する。フォーカス制御部150は、第2画像のコントラストに基づいて、第2画像の中の被写体像に合焦させる制御を行う。   In the present embodiment, the second image acquisition unit acquires the second image using a wavelength band in which the contrast of the subject in the living body is higher in the second image than in the first image as a specific wavelength band. The focus control unit 150 performs control to focus on the subject image in the second image based on the contrast of the second image.

例えば本実施形態では、コントラストを表す評価値を求め、その評価値に基づいて合焦位置を検出する。コントラストは、非合焦の(ピントが外れた)場合よりも合焦の場合の方が大きくなる値であり、例えば上述のように画像のエッジ量である。図1(A)〜図1(D)に示すように、非合焦の場合と合焦の場合のコントラストの差(または比)は、通常光画像よりも特殊光画像の方が大きい。特定の波長帯域とは、このような特殊光画像が、生体内の被写体について取得される波長帯域である。   For example, in the present embodiment, an evaluation value representing contrast is obtained, and the in-focus position is detected based on the evaluation value. The contrast is a value that is larger in the case of focusing than in the case of being out of focus (out of focus), for example, the edge amount of the image as described above. As shown in FIGS. 1A to 1D, the difference (or ratio) in contrast between the in-focus state and the in-focus state is larger in the special light image than in the normal light image. The specific wavelength band is a wavelength band in which such a special light image is acquired for a subject in a living body.

このようにすれば、生体内の被写体についてのコントラストを、通常光画像よりも特殊光画像において高コントラストにできる。これにより、コントラスト検出方式のオートフォーカスを、特殊光画像を用いて高精度に行うことが可能になる。   In this way, the contrast of the subject in the living body can be made higher in the special light image than in the normal light image. This makes it possible to perform contrast detection autofocus with high accuracy using the special light image.

また本実施形態では、第2画像取得部は、第1画像に含まれる被写体像の生体構造をより強調させた生体構造の被写体像を含む画像を、第2画像として取得する。   In the present embodiment, the second image acquisition unit acquires, as the second image, an image including the anatomical subject image in which the anatomy of the subject image included in the first image is further emphasized.

このようにすれば、被写体像の生体構造をより強調させた第2画像に基づいてオートフォーカス制御できる。これにより、低コントラストの生体内において、オートフォーカスの精度を向上できる。すなわち、被写体像の生体構造が強調されることで、合焦時と非合焦時の評価値の差(または比)を大きくすることが可能になる。   In this way, autofocus control can be performed based on the second image in which the anatomy of the subject image is further emphasized. Thereby, the accuracy of autofocus can be improved in a low-contrast living body. That is, by enhancing the anatomy of the subject image, it is possible to increase the difference (or ratio) between the evaluation values when focused and when not focused.

また本実施形態では、特定の波長帯域は、白色光の波長帯域(例えば380nm〜650nm)よりも狭い帯域である(NBI: Narrow Band Imaging)。具体的には、特定の波長帯域は、血液中のヘモグロビンに吸収される波長の波長帯域である。より具体的には、特定の波長帯域は、390ナノメートル〜445ナノメートル(第2狭帯域光)、または530ナノメートル〜550ナノメートル(第1狭帯域光)である。   In the present embodiment, the specific wavelength band is a band narrower than the wavelength band of white light (for example, 380 nm to 650 nm) (NBI: Narrow Band Imaging). Specifically, the specific wavelength band is a wavelength band of a wavelength that is absorbed by hemoglobin in blood. More specifically, the specific wavelength band is 390 nanometers to 445 nanometers (second narrowband light), or 530 nanometers to 550 nanometers (first narrowband light).

このようにすれば、狭帯域の特殊光を生体内の被写体に照射することで、生体の血管構造や病変を浮き立たせた特殊光画像を取得することができる。これにより、血管や病変部などのコントラストの高い画像が得られ、精度のよいオートフォーカスができる。   In this way, by irradiating the subject in the living body with the narrow band special light, it is possible to acquire a special light image in which the blood vessel structure or lesion of the living body is raised. As a result, a high-contrast image of blood vessels, lesions, etc. can be obtained, and accurate autofocus can be performed.

より具体的には、生体の表層部及び深部に位置する血管の構造を撮像することが可能になり、その血管の構造によりコントラストを向上できる。また得られた信号を特定のチャンネル(G2→R、B2→G,B)に入力することで、扁平上皮癌等の通常光では視認が難しい病変などを褐色等で表示することができ、病変部を含む画像のコントラストを向上できる。なお、390nm〜445nmまたは530nm〜550nmとは、ヘモグロビンに吸収されるという特性及び、それぞれ生体の表層部または深部まで到達するという特性から得られた数字である。ただし、この場合の波長帯域はこれに限定されず、例えばヘモグロビンによる吸収と生体の表層部又は深部への到達に関する実験結果等の変動要因により、波長帯域の下限値が0〜10%程度減少し、上限値が0〜10%程度上昇することも考えられる。   More specifically, it becomes possible to image the structure of blood vessels located in the surface layer portion and deep portion of a living body, and the contrast can be improved by the structure of the blood vessels. In addition, by inputting the obtained signals to specific channels (G2 → R, B2 → G, B), lesions that are difficult to see with normal light such as squamous cell carcinoma can be displayed in brown, etc. The contrast of an image including a portion can be improved. Note that 390 nm to 445 nm or 530 nm to 550 nm are numbers obtained from the characteristic of being absorbed by hemoglobin and the characteristic of reaching the surface layer or the deep part of the living body, respectively. However, the wavelength band in this case is not limited to this. For example, the lower limit of the wavelength band is reduced by about 0 to 10% due to the variation factors such as the absorption by hemoglobin and the experimental results regarding the arrival of the living body on the surface layer or the deep part. It is also conceivable that the upper limit value increases by about 0 to 10%.

また本実施形態では、図2に示すように、観察状態が拡大観察状態であるか否かを判定する判定部112を含む。判定部112により拡大観察状態であると判定された場合に、フォーカス制御部150は、第2画像の中の被写体像に合焦させる制御を行って、撮像光学系のフォーカス調整を行う。第1画像取得部は、フォーカス調整された撮像光学系により撮像した第1画像を取得する。   Moreover, in this embodiment, as shown in FIG. 2, the determination part 112 which determines whether an observation state is an expansion observation state is included. When the determination unit 112 determines that the image is in the magnified observation state, the focus control unit 150 performs control to focus on the subject image in the second image, and performs focus adjustment of the imaging optical system. The first image acquisition unit acquires a first image picked up by the image pickup optical system whose focus has been adjusted.

ここで、拡大観察状態とは、例えば消化管の内壁に正対して病変を高倍率で観察する状態である。一方、通常観察状態とは、例えば消化管内を移動しながら低倍率で病変をサーチする観察状態である。   Here, the enlarged observation state is a state in which a lesion is observed at a high magnification, for example, facing the inner wall of the digestive tract. On the other hand, the normal observation state is an observation state in which a lesion is searched at a low magnification while moving in the digestive tract, for example.

このようにすれば、拡大観察状態の場合にオートフォーカス制御を行うことができる。観察者が拡大観察を行っているときは大きく画像を表示させてじっくり観察したい場合と考えられる。本実施形態では、拡大観察時にピントのあった画像を提示できるため、観察しやすさの向上に寄与する。また、拡大観察時には被写体に接近するため被写界深度が狭くなり、手動でのフォーカス調整が難しくなる。本実施形態では、オートフォーカスにより合焦可能である。   In this way, autofocus control can be performed in the magnified observation state. It is considered that when the observer is performing magnified observation, it is desirable to display the image large and observe it carefully. In the present embodiment, an image that is in focus at the time of magnified observation can be presented, which contributes to improving the ease of observation. In addition, the depth of field is reduced because the subject approaches the subject during magnification observation, and manual focus adjustment becomes difficult. In the present embodiment, focusing is possible by autofocus.

また本実施形態では、判定部112は、内視鏡装置のスコープ部が被写体に接近しているか否かに関する情報を取得し、スコープ部が被写体に接近しているとその情報に基づいて判断した場合に、拡大観察状態であると判定する。具体的には、判定部112は、被写体のエッジ形状の大きさをその情報として取得し、エッジ形状の大きさが所定時間前のエッジ形状の大きさよりも大きいと判断した場合に、拡大観察状態であると判定する。   In the present embodiment, the determination unit 112 acquires information regarding whether or not the scope unit of the endoscope apparatus is approaching the subject, and determines that the scope unit is approaching the subject based on the information. In this case, it is determined that the state is an enlarged observation state. Specifically, the determination unit 112 acquires the size of the edge shape of the subject as the information, and when determining that the size of the edge shape is larger than the size of the edge shape before a predetermined time, the enlarged observation state It is determined that

例えば、エッジ形状の大きさは、形状の幅や、形状の面積や、形状の倍率である。形状の倍率は、例えば、現在の画像からエッジ抽出したエッジ画像と、所定時間前の画像からエッジ抽出したエッジ画像を取得し、所定時間前のエッジ画像をサイズ変換して現在のエッジ画像とマッチング処理して求めればよい。   For example, the size of the edge shape is the width of the shape, the area of the shape, or the magnification of the shape. The magnification of the shape is obtained by, for example, acquiring an edge image extracted from the current image and an edge image extracted from the image before a predetermined time, and matching the current edge image by converting the size of the edge image before the predetermined time It can be obtained by processing.

このようにすれば、スコープ部が被写体に接近していると判断した場合に、拡大観察状態であると判定できる。これにより、スコープ部が被写体に接近して被写界深度が狭くなった場合にオートフォーカスを行うことが可能になる。   In this way, when it is determined that the scope unit is approaching the subject, it can be determined that the state is an enlarged observation state. As a result, when the scope unit approaches the subject and the depth of field becomes narrow, autofocus can be performed.

また本実施形態では、判定部112は、画像の合焦状態を評価するための評価値を第1画像または第2画像から取得し、合焦状態から非合焦状態に変化したとその評価値に基づいて判定した場合に、拡大観察状態であると判定する。   In the present embodiment, the determination unit 112 obtains an evaluation value for evaluating the in-focus state of the image from the first image or the second image, and the evaluation value is changed from the in-focus state to the out-of-focus state. When it is determined based on the above, it is determined that the state is an enlarged observation state.

例えば本実施形態では、通常光画像または特殊光画像のエッジ量を算出し、所定時間後にエッジ量が減少していた場合に、非合焦状態に変化したと判定する。   For example, in the present embodiment, the edge amount of the normal light image or the special light image is calculated, and when the edge amount has decreased after a predetermined time, it is determined that the state has changed to the out-of-focus state.

このようにすれば、拡大観察を行うためにスコープ部を被写体に接近させることで被写界深度を外れた場合に、拡大観察状態であると判定できる。これにより、通常観察状態から拡大観察状態に移行する際にピントが外れた場合であっても、オートフォーカスにより合焦可能である。   In this way, it is possible to determine that the state is the magnified observation state when the depth of field is deviated by bringing the scope portion closer to the subject in order to perform the magnified observation. Thereby, even when the focus is out of focus when shifting from the normal observation state to the magnified observation state, it is possible to focus by autofocus.

また本実施形態では、図2に示すように、第1画像取得部は、光源部から照射される光に基づく第1画像を取得する。第2画像取得部は、光源部から照射される光に基づく第2画像を取得する。   Moreover, in this embodiment, as shown in FIG. 2, a 1st image acquisition part acquires the 1st image based on the light irradiated from a light source part. The second image acquisition unit acquires a second image based on light emitted from the light source unit.

具体的には、光源部は、白色光光源202を有する。第1画像取得部は、白色光光源202から照射される白色光に基づく第1画像を取得する。第2画像取得部は、白色光光源202から照射される白色光に基づく第2画像を取得する。   Specifically, the light source unit includes a white light source 202. The first image acquisition unit acquires a first image based on white light emitted from the white light source 202. The second image acquisition unit acquires a second image based on white light emitted from the white light source 202.

より具体的には、図3に示すように、光源部は、特定の波長帯域を透過するフィルタ211を白色光に対して適用することで、特定の波長帯域の光を出射する。第2画像取得部は、その特定の波長帯域の情報を有する第2画像を取得する。   More specifically, as illustrated in FIG. 3, the light source unit emits light in a specific wavelength band by applying a filter 211 that transmits a specific wavelength band to white light. The second image acquisition unit acquires a second image having information on the specific wavelength band.

本実施形態では、光源部は光源装置201に対応する。本実施形態では、光源部から出射された光により被写体が照明され、その照明された被写体が撮像部102により撮像されることで第1画像と第2画像が得られる。なお本実施形態では、白色光に基づく第2画像は、特定の波長帯域の光で照明して得られた画像に限定されない。例えば図7で後述するように、白色光で照明した被写体からの反射光を、特定の波長帯域を透過するフィルタ230に透過させて撮像した画像であってもよい。   In the present embodiment, the light source unit corresponds to the light source device 201. In the present embodiment, the subject is illuminated with the light emitted from the light source unit, and the illuminated subject is imaged by the imaging unit 102 to obtain the first image and the second image. In the present embodiment, the second image based on white light is not limited to an image obtained by illuminating with light of a specific wavelength band. For example, as will be described later with reference to FIG. 7, an image obtained by transmitting reflected light from a subject illuminated with white light through a filter 230 that transmits a specific wavelength band may be used.

このようにすれば、白色光透過フィルタと特殊光フィルタを切り替えることで、白色光光源を用いて通常光画像と特殊光画像を取得できる。白色光光源は一般的に使用されている光源であるため、コストを安くすることができる。   In this way, the normal light image and the special light image can be acquired using the white light source by switching the white light transmission filter and the special light filter. Since the white light source is a commonly used light source, the cost can be reduced.

3.第2の実施形態
第1の実施形態では、通常光画像と特殊光画像を時分割に取得したが、本実施形態では、通常光画像と特殊光画像を2つの撮像素子により同時に取得してもよい。この場合の実施形態について詳細に説明する。
3. Second Embodiment In the first embodiment, the normal light image and the special light image are acquired in a time division manner. However, in the present embodiment, the normal light image and the special light image may be acquired simultaneously by two image pickup devices. Good. An embodiment in this case will be described in detail.

図7に、内視鏡装置の第2の構成例を示す。内視鏡装置は、照明部101、撮像部402、I/F部111、制御装置300を含む。なお以下では、第1の実施形態で説明した構成要素と同一の構成要素には同じ符号を付して、適宜説明を省略する。   FIG. 7 shows a second configuration example of the endoscope apparatus. The endoscope apparatus includes an illumination unit 101, an imaging unit 402, an I / F unit 111, and a control device 300. In the following, the same components as those described in the first embodiment are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

照明部101は、光源装置201、外装205、ライトガイドファイバ206、照明光学系207を含む。光源装置201は、RGBの照明光を時分割に発生する。光源装置201は、白色光光源202、回転フィルタ203、集光レンズ204を含む。   The illumination unit 101 includes a light source device 201, an exterior 205, a light guide fiber 206, and an illumination optical system 207. The light source device 201 generates RGB illumination light in a time-sharing manner. The light source device 201 includes a white light source 202, a rotary filter 203, and a condenser lens 204.

撮像部402は、白色光による撮像と特殊光による撮像を同じタイミングで行う。撮像部402は、外装205、集光レンズ208、光を分岐するスプリッタ228、通常光画像用の撮像素子229(第1の撮像素子)、特定の帯域の光のみを透過する狭帯域透過フィルタ230、特殊光画像用の撮像素子231(第2の撮像素子)を含む。   The imaging unit 402 performs imaging with white light and imaging with special light at the same timing. The imaging unit 402 includes an exterior 205, a condensing lens 208, a splitter 228 that branches light, an imaging element 229 for normal light images (first imaging element), and a narrow-band transmission filter 230 that transmits only light in a specific band. The image sensor 231 (second image sensor) for special light images is included.

制御装置300は、第1のA/D変換部103a、第2のA/D変換部103b、通常光画像取得部104、特殊光画像取得部105、評価値算出部106、バッファ107、合焦位置決定部108、出力部109、制御部110を含む。   The control device 300 includes a first A / D conversion unit 103a, a second A / D conversion unit 103b, a normal light image acquisition unit 104, a special light image acquisition unit 105, an evaluation value calculation unit 106, a buffer 107, an in-focus state. A position determination unit 108, an output unit 109, and a control unit 110 are included.

本実施形態の内視鏡装置が行う動作や処理について説明する。白色光光源202から白色光が発光される。図8に示すように、回転フィルタ203には、赤色光透過フィルタ220と緑色光透過フィルタ221と青色光透過フィルタ222がセットされている。白色光光源202から発光された白色光は、回転フィルタ203を透過して集光レンズ204に達し集光される。集光された光は、ライトガイドファイバ206を通って照明光学系207から被写体に照射される。   Operations and processing performed by the endoscope apparatus of the present embodiment will be described. White light is emitted from the white light source 202. As shown in FIG. 8, a red light transmission filter 220, a green light transmission filter 221, and a blue light transmission filter 222 are set in the rotary filter 203. White light emitted from the white light source 202 passes through the rotary filter 203 and reaches the condenser lens 204 to be condensed. The condensed light is irradiated to the subject from the illumination optical system 207 through the light guide fiber 206.

被写体から反射した反射光は、集光レンズ208により集光され、スプリッタ228によって二方向に分けられる。一方向の光は、撮像素子229に到達し、撮像素子229により光電変換される。光電変換により得られたアナログ信号は、A/D変換部103aへ送られる。もう一方向の光は、狭帯域透過フィルタ230へ達し、所定の狭帯域の光のみが透過する。狭帯域透過フィルタ230の透過帯域は、例えば390nm〜445nm(B2)と530nm〜550nm(G2)である。透過した光は、撮像素子231に到達し、撮像素子231により光電変換される。光電変換により得られたアナログ信号は、A/D変換部103bへ送られる。   The reflected light reflected from the subject is collected by the condenser lens 208 and divided into two directions by the splitter 228. The light in one direction reaches the image sensor 229 and is photoelectrically converted by the image sensor 229. An analog signal obtained by photoelectric conversion is sent to the A / D conversion unit 103a. The light in the other direction reaches the narrowband transmission filter 230, and only a predetermined narrowband light is transmitted. The transmission bands of the narrowband transmission filter 230 are, for example, 390 nm to 445 nm (B2) and 530 nm to 550 nm (G2). The transmitted light reaches the image sensor 231 and is photoelectrically converted by the image sensor 231. An analog signal obtained by the photoelectric conversion is sent to the A / D conversion unit 103b.

A/D変換部103aは、アナログ信号をデジタル信号に変換し、そのデジタル信号を通常光画像取得部104へ送信する。A/D変換部103bは、アナログ信号をデジタル信号に変換し、そのデジタル信号を特殊光画像取得部105へ送信する。   The A / D conversion unit 103 a converts the analog signal into a digital signal, and transmits the digital signal to the normal light image acquisition unit 104. The A / D conversion unit 103 b converts the analog signal into a digital signal and transmits the digital signal to the special light image acquisition unit 105.

集光レンズ208は、光軸上で前後に動作できる。   The condenser lens 208 can move back and forth on the optical axis.

通常光画像取得部104と特殊光画像取得部105は、面順次に撮像されたR画像、G画像、B画像からカラー画像を取得する。ここで、回転フィルタ203の赤色光透過フィルタ220を透過した光によって得られた信号を、R信号と呼ぶこととする。緑色光透過フィルタ221を透過した光によって得られた信号を、G信号と呼ぶ。青色光透過フィルタ222を透過した光によって得られた信号を、B信号と呼ぶ。回転フィルタ203は回転しているため、R信号、G信号、B信号が順番に得られる。通常光画像取得部104は、R信号、G信号、B信号を合成してカラーの通常光画像を生成する。特殊光画像取得部105は、R信号、G信号、B信号を合成してカラーの特殊光画像を生成する。   The normal light image acquisition unit 104 and the special light image acquisition unit 105 acquire a color image from the R image, the G image, and the B image that are captured in the frame sequence. Here, a signal obtained by the light transmitted through the red light transmission filter 220 of the rotary filter 203 is referred to as an R signal. A signal obtained by the light transmitted through the green light transmission filter 221 is referred to as a G signal. A signal obtained by the light transmitted through the blue light transmission filter 222 is referred to as a B signal. Since the rotary filter 203 is rotating, an R signal, a G signal, and a B signal are obtained in order. The normal light image acquisition unit 104 combines the R signal, the G signal, and the B signal to generate a color normal light image. The special light image acquisition unit 105 combines the R signal, the G signal, and the B signal to generate a color special light image.

第1の実施形態と同様に、特殊光画像に基づいてオートフォーカス処理を行う。すなわち、評価値算出部106は、特殊光画像から評価値を算出する。バッファ107は、評価値と、集光レンズ208の位置情報を保持する。制御部110が、集光レンズ208の位置を変更する制御を行い、特殊光画像取得部105が特殊光画像を取得する。これらの動作を繰り返し、合焦位置決定部108が、評価値が最大となる位置を決定する。このようにして、ピントの合った位置を推測する。   As in the first embodiment, autofocus processing is performed based on the special light image. That is, the evaluation value calculation unit 106 calculates an evaluation value from the special light image. The buffer 107 holds the evaluation value and the position information of the condenser lens 208. The control unit 110 performs control to change the position of the condenser lens 208, and the special light image acquisition unit 105 acquires the special light image. By repeating these operations, the in-focus position determination unit 108 determines a position where the evaluation value is maximized. In this way, the in-focus position is estimated.

評価値が最大となる位置を求めたら、制御部110は、集光レンズ208をその位置へ動かす制御を行う。   After obtaining the position where the evaluation value is maximized, the control unit 110 performs control to move the condenser lens 208 to that position.

A/D変換部103aは、アナログ信号をデジタル信号に変換してR信号、G信号、B信号を取得し、取得した信号を通常光画像取得部104へ送信する。通常光画像取得部104は、R信号、G信号、B信号を合成してカラーの通常光画像を生成する。出力部109は、取得された通常光画像をピントの合った画像として、図示しないモニタ等へ出力する。   The A / D conversion unit 103 a converts an analog signal into a digital signal to acquire an R signal, a G signal, and a B signal, and transmits the acquired signal to the normal light image acquisition unit 104. The normal light image acquisition unit 104 combines the R signal, the G signal, and the B signal to generate a color normal light image. The output unit 109 outputs the acquired normal light image as a focused image to a monitor (not shown) or the like.

図9を用いて、面順次の画像生成手法について説明する。図9のA1に示すように、回転フィルタ203が1回転すると、Rt1信号、Gt1信号、Bt1信号が順次取得される。A2に示すように、次の1回転で、Rt2信号、Gt2信号、Bt2信号が順次取得される。A3に示すように、Rt1信号、Gt1信号、Bt1信号が取得されると、この3つの信号に基づいてカラー画像が生成される。以降は、1つの信号が新たに取得されるごとに、新たに取得された信号と前に取得された信号からカラー画像が生成される。例えば、A4に示すように、Rt2信号が取得されると、Rt2信号、Gt1信号、Bt1信号からカラー画像が生成される。 The frame sequential image generation method will be described with reference to FIG. As shown in A1 of FIG. 9, when the rotary filter 203 makes one rotation, an R t1 signal, a G t1 signal, and a B t1 signal are sequentially acquired. As shown in A2, the R t2 signal, the G t2 signal, and the B t2 signal are sequentially acquired in the next one rotation. As shown in A3, when the R t1 signal, the G t1 signal, and the B t1 signal are acquired, a color image is generated based on these three signals. Thereafter, each time one signal is newly acquired, a color image is generated from the newly acquired signal and the previously acquired signal. For example, as shown in A4, when the R t2 signal is acquired, a color image is generated from the R t2 signal, the G t1 signal, and the B t1 signal.

なお、上記ではR信号、G信号、B信号を合成して特殊光画像を生成していたが、本実施形態ではこれに限定されない。例えば、G信号とB信号から特殊光画像を生成してもよく、またはB信号だけから特殊光画像を生成してもよい。   In the above description, the special light image is generated by combining the R signal, the G signal, and the B signal. However, the present embodiment is not limited to this. For example, a special light image may be generated from the G signal and the B signal, or a special light image may be generated from only the B signal.

本実施形態によれば、図7、図8に示すように、光源部は、白色光を構成する第1〜第N(Nは2以上の整数)の単色光の波長帯域を透過するフィルタ220〜222を、白色光に対して適用することで、第1〜第Nの単色光を出射する。第1画像取得部は、第1〜第Nの単色光の波長帯域の情報を有する第1〜第Nの単色画像を取得し、取得した第1〜第Nの単色画像に基づいて第1画像を生成する。   According to the present embodiment, as shown in FIGS. 7 and 8, the light source unit is a filter 220 that transmits the wavelength band of the first to Nth (N is an integer of 2 or more) monochromatic light constituting white light. ˜222 are applied to white light to emit first to Nth monochromatic lights. The first image acquisition unit acquires the first to Nth monochrome images having information on the wavelength bands of the first to Nth monochrome lights, and the first image based on the acquired first to Nth monochrome images. Is generated.

本実施形態では、N=3であり、第1の単色光は赤色光であり、第2の単色光は緑色光であり、第3の単色光は青色光である。第1〜第3の単色画像は、R画像、G画像、B画像である。図9に示すように、モノクロの撮像素子229がR画像、G画像、B画像を時分割に撮像し、通常光画像取得部104が、その時分割に撮像されたR画像、G画像、B画像から通常光画像を生成する。   In this embodiment, N = 3, the first monochromatic light is red light, the second monochromatic light is green light, and the third monochromatic light is blue light. The first to third monochrome images are an R image, a G image, and a B image. As shown in FIG. 9, the monochrome image pickup device 229 picks up an R image, a G image, and a B image in time division, and the normal light image acquisition unit 104 picks up the R image, G image, and B image picked up in that time division. A normal light image is generated from

このようにすれば、面順次による撮像が可能になる。また、白色光光源は一般的に用いられる光源であるため、コスト削減が可能である。また、面順次ではモノクロの撮像素子を用いるため、同じ画素数のベイヤ配列の撮像素子に比べて、高解像度である。   In this way, it is possible to perform image pickup by plane sequential. Further, since the white light source is a commonly used light source, the cost can be reduced. In addition, since a monochrome image pickup device is used in the frame order, the resolution is higher than that of a Bayer array image pickup device having the same number of pixels.

4.第3の実施形態
第1の実施形態では、特殊光を被写体に照射することで特殊光画像を撮像したが、本実施形態では、通常光画像から特殊光画像を抽出してもよい。この場合の実施形態について詳細に説明する。
4). Third Embodiment In the first embodiment, a special light image is captured by irradiating a subject with special light. However, in the present embodiment, a special light image may be extracted from a normal light image. An embodiment in this case will be described in detail.

図10に、内視鏡装置の第3の構成例を示す。内視鏡装置は、照明部101、撮像部102、I/F部111、制御装置300を含む。なお以下では、第1〜第2の実施形態で説明した構成要素と同一の構成要素には同じ符号を付して、適宜説明を省略する。   FIG. 10 shows a third configuration example of the endoscope apparatus. The endoscope apparatus includes an illumination unit 101, an imaging unit 102, an I / F unit 111, and a control device 300. In the following description, the same components as those described in the first and second embodiments are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

照明部101は、光源装置201、外装205、ライトガイドファイバ206、照明光学系207を含む。光源装置201は、白色光の照明光を発生する。光源装置201は、白色光光源202、集光レンズ204を含む。   The illumination unit 101 includes a light source device 201, an exterior 205, a light guide fiber 206, and an illumination optical system 207. The light source device 201 generates white illumination light. The light source device 201 includes a white light source 202 and a condenser lens 204.

撮像部102は、白色光により照明された被写体を撮像する。撮像部102は、外装205、集光レンズ208、撮像素子209を含む。   The imaging unit 102 images a subject illuminated with white light. The imaging unit 102 includes an exterior 205, a condenser lens 208, and an imaging element 209.

制御装置300は、A/D変換部103、通常光画像取得部104、特殊光画像取得部105、評価値算出部106、バッファ107、合焦位置決定部108、出力部109、制御部110を含む。特殊光画像取得部105は、通常光画像取得部104により取得された通常光画像に基づいて特殊光画像を取得する。図11に、特殊光画像取得部105の詳細な構成例を示す。特殊光画像取得部105は、マトリクスデータ設定部401、信号抽出部403を含む。   The control device 300 includes an A / D conversion unit 103, a normal light image acquisition unit 104, a special light image acquisition unit 105, an evaluation value calculation unit 106, a buffer 107, a focus position determination unit 108, an output unit 109, and a control unit 110. Including. The special light image acquisition unit 105 acquires a special light image based on the normal light image acquired by the normal light image acquisition unit 104. FIG. 11 shows a detailed configuration example of the special light image acquisition unit 105. The special light image acquisition unit 105 includes a matrix data setting unit 401 and a signal extraction unit 403.

本実施形態の内視鏡装置が行う動作や処理について説明する。   Operations and processing performed by the endoscope apparatus of the present embodiment will be described.

白色光光源202から白色光が発光され、集光レンズ204に達し集光される。集光された白色光は、ライトガイドファイバ206を通って照明光学系207から被写体に照射される。   White light is emitted from the white light source 202, reaches the condenser lens 204, and is condensed. The condensed white light is irradiated to the subject from the illumination optical system 207 through the light guide fiber 206.

被写体から反射した反射光は、集光レンズ208により集光され、撮像素子209に到達する。到達した光は、撮像素子209により光電変換されてアナログ信号となり、そのアナログ信号はA/D変換部103へ送られる。撮像素子209は、R・G・Bを受光する受光素子がベイヤ(Bayer)型に配置されたセンサである。   The reflected light reflected from the subject is collected by the condenser lens 208 and reaches the image sensor 209. The reached light is photoelectrically converted by the image sensor 209 to become an analog signal, and the analog signal is sent to the A / D converter 103. The image sensor 209 is a sensor in which light receiving elements that receive R, G, and B are arranged in a Bayer shape.

集光レンズ208は、光軸上で前後に動作できる。   The condenser lens 208 can move back and forth on the optical axis.

A/D変換部103でデジタル信号に変換された信号は、通常光画像取得部104へ送られる。通常光画像取得部104は、その信号を通常光画像として取得する。また、通常光画像取得部104は、同時に集光レンズ208の位置情報を取得する。   The signal converted into a digital signal by the A / D conversion unit 103 is sent to the normal light image acquisition unit 104. The normal light image acquisition unit 104 acquires the signal as a normal light image. Further, the normal light image acquisition unit 104 acquires the position information of the condenser lens 208 at the same time.

特殊光画像取得部105は、所定の画像処理を行って特殊光画像を生成する。具体的には、マトリクスデータ設定部401は、マトリクスデータを設定する。マトリクスデータは、予め設定されたデータであってもよいし、ユーザにより設定されたデータであってもよい。信号抽出部403は、マトリクスデータと、通常光画像取得部104で取得された通常光画像と、に基づいて信号を抽出する。所定の画像処理の詳細例については、後述する。   The special light image acquisition unit 105 performs predetermined image processing to generate a special light image. Specifically, the matrix data setting unit 401 sets matrix data. The matrix data may be data set in advance or data set by the user. The signal extraction unit 403 extracts a signal based on the matrix data and the normal light image acquired by the normal light image acquisition unit 104. A detailed example of the predetermined image processing will be described later.

第1の実施形態と同様に、特殊光画像に基づいてオートフォーカス処理を行う。すなわち、評価値算出部106は、特殊光画像から評価値を算出する。バッファ107は、評価値と、集光レンズ208の位置情報を保持する。制御部110が、集光レンズ208の位置を変更する制御を行い、特殊光画像取得部105が特殊光画像を取得する。これらの動作を繰り返し、合焦位置決定部108が、評価値が最大となる位置を決定する。このようにして、ピントの合った位置を推測する。   As in the first embodiment, autofocus processing is performed based on the special light image. That is, the evaluation value calculation unit 106 calculates an evaluation value from the special light image. The buffer 107 holds the evaluation value and the position information of the condenser lens 208. The control unit 110 performs control to change the position of the condenser lens 208, and the special light image acquisition unit 105 acquires the special light image. By repeating these operations, the in-focus position determination unit 108 determines a position where the evaluation value is maximized. In this way, the in-focus position is estimated.

評価値が最大となる位置を求めたら、制御部110は、集光レンズ208をその位置へ動かす制御を行う。通常光画像取得部104は、通常光画像を取得する。出力部109は、取得された通常光画像をピントの合った画像として、図示しないモニタ等へ出力する。   After obtaining the position where the evaluation value is maximized, the control unit 110 performs control to move the condenser lens 208 to that position. The normal light image acquisition unit 104 acquires a normal light image. The output unit 109 outputs the acquired normal light image as a focused image to a monitor (not shown) or the like.

次に、特殊光画像取得部105が行う所定の画像処理の第1例について説明する。特殊光画像取得部105は、公知の分光推定技術を用いて、各画素における被写体の分光反射率を通常光画像から推定し、狭帯域(例えば10nm刻み)の分光画像を得る。特殊光画像取得部105は、この被写体の分光反射率や、白色光光源の分光放射率、光学系の分光透過率、色フィルタの分光感度の積を計算し、特殊光画像を取得する。   Next, a first example of predetermined image processing performed by the special light image acquisition unit 105 will be described. The special light image acquisition unit 105 estimates the spectral reflectance of the subject in each pixel from the normal light image using a known spectral estimation technique, and obtains a narrow band (for example, 10 nm increments) spectral image. The special light image acquisition unit 105 calculates the product of the spectral reflectance of the subject, the spectral emissivity of the white light source, the spectral transmittance of the optical system, and the spectral sensitivity of the color filter, and acquires a special light image.

より具体的には、通常光画像取得部104は、入力されたデジタル画像信号に対して例えば公知の補間処理を行い、R,G,Bの3チャンネルを持つカラー画像を生成する。この画像は、白色光源下で撮像素子209を用いて被写体を撮像した場合のカラー画像である。次に、特殊光画像取得部105は、このカラー画像から分光推定技術を用いて、カラー画像の各画素における被写体の分光反射率を推定する。例えば、分光推定技術の詳細は特開2000―115553号公報の[0054]〜[0065]に開示されている。この様な処理を行うことで、分光画像情報として被写体の分光反射率特性O(λ)が取得される(例えばλは380nm〜780nm)。O(λ)は、各画素について取得され、例えば380nmから780nmまで10nm刻みの分光反射率特性である。   More specifically, the normal light image acquisition unit 104 performs a known interpolation process on the input digital image signal, for example, and generates a color image having three channels of R, G, and B. This image is a color image when a subject is imaged using the image sensor 209 under a white light source. Next, the special light image acquisition unit 105 estimates the spectral reflectance of the subject in each pixel of the color image using the spectral estimation technique from the color image. For example, details of the spectral estimation technique are disclosed in JP-A-2000-115553, [0054] to [0065]. By performing such processing, the spectral reflectance characteristic O (λ) of the subject is acquired as spectral image information (for example, λ is 380 nm to 780 nm). O (λ) is acquired for each pixel, and is, for example, spectral reflectance characteristics in increments of 10 nm from 380 nm to 780 nm.

ここで、画像上の位置(x,y)における分光反射率特性をO(λ)(x,y)と記述する。また、本実施形態における白色光源の分光放射率をE(λ)とし、光学系の分光透過率をL(λ)とする。また、第1の実施形態における狭帯域透過フィルタ211の帯域G2,B2の分光感度をそれぞれg2(λ),b2(λ)とする。すると、帯域G2に対応する画像G2の位置(x、y)における信号値G2(x、y)は、下式(1)により算出される。帯域B2に対応する画像B2の位置(x、y)における信号値B2(x、y)は、下式(2)により算出される。
G2(x,y)=∫E(λ)・O(λ)(x,y)・L(λ)・g2(λ)dλ
・・・ (1)
B2(x,y)=∫E(λ)・O(λ)(x,y)・L(λ)・b2(λ)dλ
・・・ (2)
Here, the spectral reflectance characteristic at the position (x, y) on the image is described as O (λ) (x, y). Further, the spectral emissivity of the white light source in this embodiment is E (λ), and the spectral transmittance of the optical system is L (λ). In addition, the spectral sensitivities of the bands G2 and B2 of the narrowband transmission filter 211 in the first embodiment are assumed to be g2 (λ) and b2 (λ), respectively. Then, the signal value G2 (x, y) at the position (x, y) of the image G2 corresponding to the band G2 is calculated by the following equation (1). The signal value B2 (x, y) at the position (x, y) of the image B2 corresponding to the band B2 is calculated by the following equation (2).
G2 (x, y) = ∫E (λ) · O (λ) (x, y) · L (λ) · g2 (λ) dλ
(1)
B2 (x, y) = ∫E (λ) · O (λ) (x, y) · L (λ) · b2 (λ) dλ
(2)

画像上のすべての位置(x,y)に対してこのような計算を行うことで、通常光画像からG2画像とB2画像を取得することができる。   By performing such calculation for all positions (x, y) on the image, the G2 image and the B2 image can be acquired from the normal light image.

次に、このG2画像とB2画像からR,G,Bの3チャンネルを持つカラー画像を生成する。例えば、カラー画像のRチャンネルにG2画像を入力し、GチャンネルとBチャンネルにB2画像を入力することでカラー画像が生成される。さらに、生成したカラー画像に対してホワイトバランス、階調変換等の処理を行い、特殊光画像として出力する。   Next, a color image having three channels of R, G, and B is generated from the G2 image and the B2 image. For example, a color image is generated by inputting a G2 image to the R channel of the color image and inputting a B2 image to the G channel and the B channel. Further, the generated color image is subjected to processing such as white balance and gradation conversion, and is output as a special light image.

所定の画像処理の第2例について説明する。マトリクスデータ設定部401は、下式(3)の右辺の第1項のマトリクスを設定する。信号抽出部403は、下式(3)に示す変換処理を行う。ここで、Rin、Gin、Binは通常光画像のRGBの各信号値である。α、β、γは、任意の正数である。例えば、α=1、β=1.2、γ=0.9である。信号抽出部403は、Rout、Gout、Boutを特殊光画像のRGBの各信号値として出力する。

Figure 2012110481
A second example of the predetermined image processing will be described. The matrix data setting unit 401 sets the matrix of the first term on the right side of the following equation (3). The signal extraction unit 403 performs a conversion process represented by the following expression (3). Here, R in , G in , and B in are RGB signal values of the normal light image. α, β, and γ are arbitrary positive numbers. For example, α = 1, β = 1.2, and γ = 0.9. The signal extraction unit 403 outputs R out , G out , and B out as RGB signal values of the special light image.
Figure 2012110481

所定の画像処理の第3例について説明する。特殊光画像取得部105は、通常光画像のR信号に基づいて、ヒストグラムを平坦化するための階調変換曲線を求める。特殊光画像取得部105は、この階調変換曲線からゲインマップを作成し、そのゲインマップを用いて通常光画像のGBの信号を変換する。   A third example of the predetermined image processing will be described. The special light image acquisition unit 105 obtains a gradation conversion curve for flattening the histogram based on the R signal of the normal light image. The special light image acquisition unit 105 creates a gain map from the gradation conversion curve, and converts the GB signal of the normal light image using the gain map.

図12に、全画素のR信号値のヒストグラムの例を示す。R画像では、信号値が中央付近の画素がほとんどである。図13に、ゲインマップの例を示す。図13に示すように、画素値がまんべんなく分散するような階調変換曲線を生成し、ゲインマップを生成する。そして、画素のR信号値に対応するゲインを、その画素のG信号値とB信号値に乗算する。このようにヒストグラムを平坦化することで、コントラストを向上できる。   FIG. 12 shows an example of a histogram of R signal values of all pixels. In the R image, most of the pixels have signal values near the center. FIG. 13 shows an example of the gain map. As shown in FIG. 13, a tone conversion curve is generated so that pixel values are evenly distributed, and a gain map is generated. Then, the gain corresponding to the R signal value of the pixel is multiplied by the G signal value and the B signal value of the pixel. By flattening the histogram in this way, the contrast can be improved.

なお、所定の画像処理として、色変換処理や、緑成分を強調する処理や、青成分を強調する処理を行ってもよい。あるいは、所定の画像処理として、所定の光の波長をI/F部111を介して指定し、指定された波長に対応する色を強調する処理を行ってもよい。   Note that color conversion processing, green component enhancement processing, and blue component enhancement processing may be performed as the predetermined image processing. Alternatively, as predetermined image processing, processing may be performed in which a predetermined wavelength of light is specified via the I / F unit 111 and a color corresponding to the specified wavelength is emphasized.

ここで、上記では撮像素子209の色フィルタはベイヤ型に配置されているが、本実施形態ではこれに限定されず、色フィルタはハニカム構造などでもよい。また、上記では原色であるRGBを受光する撮像素子209を用いる場合について説明したが、本実施形態ではこれに限定されず、例えば補色を受光する撮像素子を用いてもよい。   Here, although the color filter of the image sensor 209 is arranged in a Bayer shape in the above, the present invention is not limited to this, and the color filter may have a honeycomb structure or the like. In the above description, the image sensor 209 that receives primary colors RGB is used. However, the present embodiment is not limited to this. For example, an image sensor that receives complementary colors may be used.

本実施形態によれば、図10に示すように、第2画像取得部は、取得された第1画像に基づいて、第2画像を生成する。   According to this embodiment, as shown in FIG. 10, the second image acquisition unit generates a second image based on the acquired first image.

具体的には、図11に示すように、第2画像取得部は、取得された第1画像から、白色光の波長帯域における信号を抽出する信号抽出部403を有する。第2画像取得部は、抽出された信号に基づいて、特定の波長帯域における信号を含む第2画像を生成する。   Specifically, as illustrated in FIG. 11, the second image acquisition unit includes a signal extraction unit 403 that extracts a signal in the wavelength band of white light from the acquired first image. The second image acquisition unit generates a second image including a signal in a specific wavelength band based on the extracted signal.

より具体的には、第2画像取得部は、白色光の波長帯域における信号から、特定の波長帯域における信号を算出するためのマトリクスデータを設定するマトリクスデータ設定部401を有する。第2画像取得部は、設定されたマトリクスデータを用いて、白色光の波長帯域における信号から特定の波長帯域における信号を算出して、第2画像を生成する。   More specifically, the second image acquisition unit includes a matrix data setting unit 401 that sets matrix data for calculating a signal in a specific wavelength band from a signal in the wavelength band of white light. The second image acquisition unit calculates a signal in a specific wavelength band from a signal in the wavelength band of white light using the set matrix data, and generates a second image.

これにより、通常光画像に基づいて特殊光画像を生成することができるため、通常光を照射する1つの光源と、通常光を撮像する1つの撮像素子のみでもシステムを実現することが可能になる。そのため、特殊光光源などの装置が不要となり、機器構成を簡素化できる。また、スコープ型内視鏡の挿入部を小さくすることができ、また部品が少なくてすむためコストを下げる効果も期待できる。   As a result, the special light image can be generated based on the normal light image, so that the system can be realized with only one light source that irradiates the normal light and one image sensor that images the normal light. . Therefore, a device such as a special light source is not required, and the equipment configuration can be simplified. Moreover, the insertion part of the scope type endoscope can be made small, and since the number of parts is reduced, an effect of reducing the cost can be expected.

5.第4の実施形態
第1の実施形態では、白色光と狭帯域透過フィルタにより特殊光を発生したが、本実施形態では、特殊光光源により特殊光を発生してもよい。この場合の実施形態について詳細に説明する。
5. Fourth Embodiment In the first embodiment, the special light is generated by the white light and the narrow band transmission filter. However, in the present embodiment, the special light may be generated by the special light source. An embodiment in this case will be described in detail.

図14に、内視鏡装置の第4の構成例を示す。内視鏡装置は、照明部101、撮像部102、I/F部111、制御装置300を含む。なお以下では、第1〜第3の実施形態で説明した構成要素と同一の構成要素には同じ符号を付して、適宜説明を省略する。   FIG. 14 shows a fourth configuration example of the endoscope apparatus. The endoscope apparatus includes an illumination unit 101, an imaging unit 102, an I / F unit 111, and a control device 300. In the following description, the same components as those described in the first to third embodiments are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

照明部101は、光源装置201、外装205、ライトガイドファイバ206、照明光学系207を含む。光源装置201は、白色光と特殊光を時分割に発生する。光源装置201は、白色光光源202a、特殊光光源202b、切替器202c、集光レンズ204を含む。   The illumination unit 101 includes a light source device 201, an exterior 205, a light guide fiber 206, and an illumination optical system 207. The light source device 201 generates white light and special light in a time-sharing manner. The light source device 201 includes a white light source 202a, a special light source 202b, a switcher 202c, and a condenser lens 204.

撮像部102は、白色光による撮像と特殊光による撮像を時分割で行う。撮像部102は、外装205、集光レンズ208、撮像素子209を含む。   The imaging unit 102 performs time-sharing imaging with white light and imaging with special light. The imaging unit 102 includes an exterior 205, a condenser lens 208, and an imaging element 209.

制御装置300は、A/D変換部103、通常光画像取得部104、特殊光画像取得部105、評価値算出部106、バッファ107、合焦位置決定部108、出力部109、制御部110を含む。   The control device 300 includes an A / D conversion unit 103, a normal light image acquisition unit 104, a special light image acquisition unit 105, an evaluation value calculation unit 106, a buffer 107, a focus position determination unit 108, an output unit 109, and a control unit 110. Including.

本実施形態の内視鏡装置が行う動作や処理について説明する。特殊光光源202bから特殊光が発光される。この特殊光の波長帯域は、例えば390nm〜445nm(B2)と530nm〜550nm(G2)である。特殊光光源202bからの特殊光は、集光レンズ204に達し集光される。集光された特殊光は、ライトガイドファイバ206を通って照明光学系207から被写体に照射される。   Operations and processing performed by the endoscope apparatus of the present embodiment will be described. Special light is emitted from the special light source 202b. The wavelength bands of the special light are, for example, 390 nm to 445 nm (B2) and 530 nm to 550 nm (G2). Special light from the special light source 202b reaches the condenser lens 204 and is condensed. The condensed special light is irradiated to the subject from the illumination optical system 207 through the light guide fiber 206.

被写体から反射した反射光は、集光レンズ208により集光される。集光された光は、撮像素子209に到達し、撮像素子209により光電変換されてアナログ信号となる。アナログ信号は、A/D変換部103へ送られる。撮像素子209は、例えばR,G,Bを受光する受光素子がベイヤ(Bayer)型に配置されたセンサである。   The reflected light reflected from the subject is collected by the condenser lens 208. The condensed light reaches the image sensor 209 and is photoelectrically converted by the image sensor 209 to become an analog signal. The analog signal is sent to the A / D conversion unit 103. The image sensor 209 is a sensor in which, for example, light receiving elements that receive R, G, and B are arranged in a Bayer shape.

A/D変換部103によりデジタル信号に変換された信号は、特殊光画像取得部105へ送られる。特殊光画像取得部105は、その信号を特殊光画像として取得する。また、特殊光画像取得部105は、同時に集光レンズ208の位置情報も取得する。   The signal converted into a digital signal by the A / D conversion unit 103 is sent to the special light image acquisition unit 105. The special light image acquisition unit 105 acquires the signal as a special light image. The special light image acquisition unit 105 also acquires the position information of the condenser lens 208 at the same time.

集光レンズ208は、光軸上で前後に動作できる。   The condenser lens 208 can move back and forth on the optical axis.

第1の実施形態と同様に、特殊光画像に基づいてオートフォーカス処理を行う。すなわち、評価値算出部106は、特殊光画像から評価値を算出する。バッファ107は、評価値と、集光レンズ208の位置情報を保持する。制御部110が、集光レンズ208の位置を変更する制御を行い、特殊光画像取得部105が特殊光画像を取得する。これらの動作を繰り返し、合焦位置決定部108が、評価値が最大となる位置を決定する。このようにして、ピントの合った位置を推測する。   As in the first embodiment, autofocus processing is performed based on the special light image. That is, the evaluation value calculation unit 106 calculates an evaluation value from the special light image. The buffer 107 holds the evaluation value and the position information of the condenser lens 208. The control unit 110 performs control to change the position of the condenser lens 208, and the special light image acquisition unit 105 acquires the special light image. By repeating these operations, the in-focus position determination unit 108 determines a position where the evaluation value is maximized. In this way, the in-focus position is estimated.

評価値が最大となる位置を求めたら、制御部110は、集光レンズ208をその位置へ動かす制御を行う。制御部110は、切替器202cを制御し、切替器202cは、その制御に基づいて光源を白色光光源202aに切替える。   After obtaining the position where the evaluation value is maximized, the control unit 110 performs control to move the condenser lens 208 to that position. The controller 110 controls the switch 202c, and the switch 202c switches the light source to the white light source 202a based on the control.

特殊光光源での場合と同様に、撮像素子209によりアナログ信号を取得し、A/D変換部103によりデジタル信号に変換し、その信号を通常光画像取得部104へ送信する。通常光画像取得部104は、補間等の処理を行いカラーの通常光画像を生成する。出力部109は、取得された通常光画像をピントの合った画像として、図示しないモニタ等へ出力する。   As in the case of the special light source, an analog signal is acquired by the image sensor 209, converted into a digital signal by the A / D conversion unit 103, and the signal is transmitted to the normal light image acquisition unit 104. The normal light image acquisition unit 104 performs processing such as interpolation to generate a color normal light image. The output unit 109 outputs the acquired normal light image as a focused image to a monitor (not shown) or the like.

本実施形態によれば、図14に示すように、光源部は、白色光光源202aと、特定の波長帯域の情報を有する特殊光を出射する特殊光光源202bを有する。第1画像取得部は、白色光光源202aから照射される白色光に基づく第1画像を取得する。第2画像取得部は、特殊光光源202bから照射される特殊光に基づく第2画像を取得する。   According to this embodiment, as shown in FIG. 14, the light source unit includes a white light source 202a and a special light source 202b that emits special light having information in a specific wavelength band. The first image acquisition unit acquires a first image based on white light emitted from the white light source 202a. The second image acquisition unit acquires a second image based on the special light emitted from the special light source 202b.

なお本実施形態では、白色光光源や特殊光光源は1つの光源である場合に限定されず、複数の光源であってもよい。例えば図17で後述するように、白色光光源は、赤色光光源202d、緑色光光源202e、青色光光源202fで構成されてもよい。特殊光光源は、緑色狭帯域光源202g、青色狭帯域光源202hで構成されてもよい。   In the present embodiment, the white light source and the special light source are not limited to a single light source, and may be a plurality of light sources. For example, as will be described later with reference to FIG. 17, the white light source may be composed of a red light source 202d, a green light source 202e, and a blue light source 202f. The special light source may include a green narrow band light source 202g and a blue narrow band light source 202h.

このようにすれば、白色光光源と特殊光光源を切替えることで、通常光画像と特殊光画像を取得できる。これにより、フィルタで光をカットしないため高コントラストの画像を取得可能になる。これにより、精度のよいオートフォーカスができ、観察者にピントの合った画像を提供できる。   In this way, the normal light image and the special light image can be acquired by switching between the white light source and the special light source. This makes it possible to acquire a high-contrast image because light is not cut by the filter. As a result, accurate autofocus can be performed, and an in-focus image can be provided to the observer.

6.第5の実施形態
第1の実施形態では、通常光と特殊光を時分割に照射したが、本実施形態では、赤色光と緑色光と青色光と第1狭帯域光と第2狭帯域光を時分割に照射してもよい。この場合の実施形態について詳細に説明する。
6). Fifth Embodiment In the first embodiment, normal light and special light are irradiated in a time-sharing manner, but in this embodiment, red light, green light, blue light, first narrowband light, and second narrowband light are used. May be irradiated in a time-sharing manner. An embodiment in this case will be described in detail.

図15に、内視鏡装置の第5の構成例を示す。内視鏡装置は、照明部101、撮像部102、I/F部111、制御装置300を含む。なお以下では、第1〜第4の実施形態で説明した構成要素と同一の構成要素には同じ符号を付して、適宜説明を省略する。   FIG. 15 shows a fifth configuration example of the endoscope apparatus. The endoscope apparatus includes an illumination unit 101, an imaging unit 102, an I / F unit 111, and a control device 300. In the following description, the same components as those described in the first to fourth embodiments are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

照明部101は、光源装置201、外装205、ライトガイドファイバ206、照明光学系207を含む。光源装置201は、赤色光と緑色光と青色光と第1狭帯域光と第2狭帯域光を発生する。光源装置201は、白色光光源202、回転フィルタ203、集光レンズ204を含む。   The illumination unit 101 includes a light source device 201, an exterior 205, a light guide fiber 206, and an illumination optical system 207. The light source device 201 generates red light, green light, blue light, first narrowband light, and second narrowband light. The light source device 201 includes a white light source 202, a rotary filter 203, and a condenser lens 204.

撮像部102は、赤色光と緑色光と青色光と第1狭帯域光と第2狭帯域光による撮像を時分割に行う。撮像部102は、外装205、集光レンズ208、撮像素子209を含む。   The imaging unit 102 performs time-division imaging using red light, green light, blue light, first narrowband light, and second narrowband light. The imaging unit 102 includes an exterior 205, a condenser lens 208, and an imaging element 209.

制御装置300は、A/D変換部103、通常光画像取得部104、特殊光画像取得部105、評価値算出部106、バッファ107、合焦位置決定部108、出力部109、制御部110を含む。   The control device 300 includes an A / D conversion unit 103, a normal light image acquisition unit 104, a special light image acquisition unit 105, an evaluation value calculation unit 106, a buffer 107, a focus position determination unit 108, an output unit 109, and a control unit 110. Including.

本実施形態の内視鏡装置が行う動作や処理について説明する。白色光光源202から白色光が発光される。図16に示すように、回転フィルタ203には、赤色光透過フィルタ220、緑色光透過フィルタ221、青色光透過フィルタ222、緑色狭帯域光透過フィルタ223(第1狭帯域光透過フィルタ)、青色狭帯域光透過フィルタ224(第2狭帯域光透過フィルタ)がセットされている。赤色光透過フィルタ220の透過帯域は、例えば580nm〜700nmである。緑色光透過フィルタ221の透過帯域は、例えば480nm〜600nmである。青色光透過フィルタ222の透過帯域は、例えば400nm〜500nmである。緑色狭帯域光透過フィルタ223の透過帯域は、例えば530nm〜550nm(G2)である。青色狭帯域光透過フィルタ224の透過帯域は、例えば390nm〜445nm(B2)である。   Operations and processing performed by the endoscope apparatus of the present embodiment will be described. White light is emitted from the white light source 202. As shown in FIG. 16, the rotary filter 203 includes a red light transmission filter 220, a green light transmission filter 221, a blue light transmission filter 222, a green narrowband light transmission filter 223 (first narrowband light transmission filter), a blue narrow transmission filter. A band light transmission filter 224 (second narrow band light transmission filter) is set. The transmission band of the red light transmission filter 220 is, for example, 580 nm to 700 nm. The transmission band of the green light transmission filter 221 is, for example, 480 nm to 600 nm. The transmission band of the blue light transmission filter 222 is, for example, 400 nm to 500 nm. The transmission band of the green narrow-band light transmission filter 223 is, for example, 530 nm to 550 nm (G2). The transmission band of the blue narrow-band light transmission filter 224 is, for example, 390 nm to 445 nm (B2).

白色光光源202から発光された白色光は、回転フィルタ203の上記5つのフィルタを順に透過する。透過した光は、集光レンズ204に達し集光される。集光された光は、ライトガイドファイバ206を通って照明光学系207から被写体に照射される。   White light emitted from the white light source 202 passes through the five filters of the rotary filter 203 in order. The transmitted light reaches the condenser lens 204 and is condensed. The condensed light is irradiated to the subject from the illumination optical system 207 through the light guide fiber 206.

被写体から反射した反射光は、集光レンズ208により集光され、モノクロの撮像素子209に到達し、撮像素子209により光電変換されてアナログ信号となる。そのアナログ信号は、A/D変換部103へ送られる。アナログ信号はA/D変換部103によりデジタル信号に変換され、そのデジタル信号は、通常光画像取得部104または特殊光画像取得部105へ送信される。   The reflected light reflected from the subject is collected by the condensing lens 208, reaches the monochrome image sensor 209, and is photoelectrically converted by the image sensor 209 to become an analog signal. The analog signal is sent to the A / D conversion unit 103. The analog signal is converted into a digital signal by the A / D conversion unit 103, and the digital signal is transmitted to the normal light image acquisition unit 104 or the special light image acquisition unit 105.

集光レンズ208は、光軸上で前後に動作できる。   The condenser lens 208 can move back and forth on the optical axis.

ここで、回転フィルタ203の赤色光透過フィルタ220を透過した光によって得られた信号を、R信号と呼ぶこととする。緑色光透過フィルタ221を透過した光によって得られた信号を、G信号と呼ぶ。青色光透過フィルタ222を透過した光によって得られた信号を、B信号と呼ぶ。緑色狭帯域光透過フィルタ223を透過した光によって得られた信号を、G2信号と呼ぶ。青色狭帯域光透過フィルタ224を透過した光によって得られた信号をB2信号と呼ぶ。   Here, a signal obtained by the light transmitted through the red light transmission filter 220 of the rotary filter 203 is referred to as an R signal. A signal obtained by the light transmitted through the green light transmission filter 221 is referred to as a G signal. A signal obtained by the light transmitted through the blue light transmission filter 222 is referred to as a B signal. A signal obtained by the light transmitted through the green narrow band light transmission filter 223 is referred to as a G2 signal. A signal obtained by the light transmitted through the blue narrow band light transmission filter 224 is referred to as a B2 signal.

特殊光画像取得部105は、G2信号、B2信号を合成して特殊光画像を生成する。また、特殊光画像取得部105は、同時に集光レンズ208の位置情報も取得する。   The special light image acquisition unit 105 generates a special light image by combining the G2 signal and the B2 signal. The special light image acquisition unit 105 also acquires the position information of the condenser lens 208 at the same time.

第1の実施形態と同様に、特殊光画像に基づいてオートフォーカス処理を行う。すなわち、評価値算出部106は、特殊光画像から評価値を算出する。バッファ107は、評価値と、集光レンズ208の位置情報を保持する。制御部110が、集光レンズ208の位置を変更する制御を行い、特殊光画像取得部105が特殊光画像を取得する。これらの動作を繰り返し、合焦位置決定部108が、評価値が最大となる位置を決定する。このようにして、ピントの合った位置を推測する。   As in the first embodiment, autofocus processing is performed based on the special light image. That is, the evaluation value calculation unit 106 calculates an evaluation value from the special light image. The buffer 107 holds the evaluation value and the position information of the condenser lens 208. The control unit 110 performs control to change the position of the condenser lens 208, and the special light image acquisition unit 105 acquires the special light image. By repeating these operations, the in-focus position determination unit 108 determines a position where the evaluation value is maximized. In this way, the in-focus position is estimated.

評価値が最大となる位置を求めたら、制御部110は、集光レンズ208をその位置へ動かす制御を行う。その位置でのR信号、G信号、B信号を取得し、通常光画像取得部104は、それらの信号を合成して通常光画像を生成する。出力部109は、取得された通常光画像をピントの合った画像として、図示しないモニタ等へ出力する。   After obtaining the position where the evaluation value is maximized, the control unit 110 performs control to move the condenser lens 208 to that position. The R signal, G signal, and B signal at that position are acquired, and the normal light image acquisition unit 104 combines these signals to generate a normal light image. The output unit 109 outputs the acquired normal light image as a focused image to a monitor (not shown) or the like.

なお、本実施形態では、図16に示す5つのフィルタをもつ回転フィルタ203の代わりに、図8に示す3つのフィルタをもつ回転フィルタ203を用いてもよい。この場合、上述のG2信号の代わりにG信号を用い、B2信号の代わりにB信号を用いて特殊光画像を生成する。   In the present embodiment, a rotary filter 203 having three filters shown in FIG. 8 may be used instead of the rotary filter 203 having five filters shown in FIG. In this case, a special light image is generated using the G signal instead of the G2 signal and using the B signal instead of the B2 signal.

また、本実施形態では、白色光光源202と回転フィルタ203の代わりに、図17に示す光源を用いてもよい。図17に示す光源は、切替器202c、赤色光光源202d、緑色光光源202e、青色光光源202f、緑色狭帯域光源202g、青色狭帯域光源202hを含む。上述のR信号は、赤色光光源202dを照射することによって得られた信号に対応する、同様に、G信号は緑色光光源202eに対応し、B信号は青色光光源202fに対応し、G2信号は緑色狭帯域光源202gに対応し、B2信号は青色狭帯域光源202hに対応する。   In the present embodiment, the light source shown in FIG. 17 may be used instead of the white light source 202 and the rotary filter 203. The light source shown in FIG. 17 includes a switcher 202c, a red light source 202d, a green light source 202e, a blue light source 202f, a green narrow band light source 202g, and a blue narrow band light source 202h. The R signal described above corresponds to the signal obtained by irradiating the red light source 202d. Similarly, the G signal corresponds to the green light source 202e, the B signal corresponds to the blue light source 202f, and the G2 signal. Corresponds to the green narrowband light source 202g, and the B2 signal corresponds to the blue narrowband light source 202h.

本実施形態によれば、図15、図16に示すように、光源部は、特定の波長帯域を構成する第1〜第M(Mは2以上の整数)の波長帯域を透過するフィルタ223,224を白色光に対して適用することで、第1〜第Mの波長帯域の光を出射する。第2画像取得部は、第1〜第Mの波長帯域の情報を有する第1〜第Mの構成画像を取得し、取得した第1〜第Mの構成画像に基づいて第2画像を生成する。   According to the present embodiment, as shown in FIGS. 15 and 16, the light source unit is a filter 223 that transmits the first to Mth (M is an integer of 2 or more) wavelength bands constituting a specific wavelength band. By applying 224 to white light, light in the first to Mth wavelength bands is emitted. The second image acquisition unit acquires the first to M-th constituent images having information on the first to M-th wavelength bands, and generates a second image based on the acquired first to M-th constituent images. .

本実施形態では、N=2であり、第1の波長帯域の光は緑色狭帯域光であり、第2の波長帯域の光は青色狭帯域光である。第1〜第2の構成画像は、G2画像、B2画像である。図15に示すように、モノクロの撮像素子209がG2画像、B2画像を時分割に撮像し、特殊光画像取得部105が、その時分割に撮像されたG2画像、B2画像から特殊光画像を生成する。   In this embodiment, N = 2, the light in the first wavelength band is green narrow band light, and the light in the second wavelength band is blue narrow band light. The first to second constituent images are a G2 image and a B2 image. As shown in FIG. 15, the monochrome imaging device 209 captures the G2 image and the B2 image in time division, and the special light image acquisition unit 105 generates the special light image from the G2 image and B2 image captured in the time division. To do.

このようにすれば、面順次による特殊光画像の撮像が可能になる。また、白色光光源は一般的に用いられる光源であるため、コスト削減が可能である。また、面順次ではモノクロの撮像素子を用いるため、同じ画素数のベイヤ配列の撮像素子に比べて、高解像度である。   In this way, special light images can be picked up by plane sequential. Further, since the white light source is a commonly used light source, the cost can be reduced. In addition, since a monochrome image pickup device is used in the frame order, the resolution is higher than that of a Bayer array image pickup device having the same number of pixels.

7.ソフトウェア
上記の本実施形態では、制御装置300を構成する各部をハードウェアで構成することとしたが、これに限定されるものではない。例えば、撮像部により取得された画像に対してCPUが各部の処理を行う構成とし、CPUがプログラムを実行することによってソフトウェアとして実現することとしてもよい。あるいは、各部が行う処理の一部をソフトウェアで構成することとしてもよい。
7). Software In the present embodiment described above, each unit configuring the control device 300 is configured by hardware. However, the present invention is not limited to this. For example, the CPU may be configured to perform processing of each unit on the image acquired by the imaging unit, and may be realized as software by the CPU executing a program. Alternatively, a part of processing performed by each unit may be configured by software.

撮像部を別体とし、制御装置300の各部が行う処理をソフトウェアとして実現する場合には、ワークステーションやパソコン等の公知のコンピュータシステムを制御装置として用いることができる。そして、制御装置300の各部が行う処理を実現するためのプログラム(制御プログラム)を予め用意し、この制御プログラムをコンピュータシステムのCPUが実行することによって実現できる。   When the imaging unit is a separate body and the processing performed by each unit of the control device 300 is realized as software, a known computer system such as a workstation or a personal computer can be used as the control device. A program (control program) for realizing processing performed by each unit of the control device 300 is prepared in advance, and this control program can be realized by the CPU of the computer system.

図18は、本変形例におけるコンピュータシステム600の構成を示すシステム構成図であり、図19は、このコンピュータシステム600における本体部610の構成を示すブロック図である。図18に示すように、コンピュータシステム600は、本体部610と、本体部610からの指示によって表示画面621に画像等の情報を表示するためのディスプレイ620と、このコンピュータシステム600に種々の情報を入力するためのキーボード630と、ディスプレイ620の表示画面621上の任意の位置を指定するためのマウス640とを備える。   FIG. 18 is a system configuration diagram showing the configuration of the computer system 600 in this modification, and FIG. 19 is a block diagram showing the configuration of the main body 610 in this computer system 600. As shown in FIG. 18, the computer system 600 includes a main body 610, a display 620 for displaying information such as an image on the display screen 621 according to an instruction from the main body 610, and various information on the computer system 600. A keyboard 630 for inputting and a mouse 640 for designating an arbitrary position on the display screen 621 of the display 620 are provided.

また、このコンピュータシステム600における本体部610は、図19に示すように、CPU611と、RAM612と、ROM613と、ハードディスクドライブ(HDD)614と、CD−ROM660を受け入れるCD−ROMドライブ615と、USBメモリ670を着脱可能に接続するUSBポート616と、ディスプレイ620、キーボード630およびマウス640を接続するI/Oインターフェース617と、ローカルエリアネットワークまたは広域エリアネットワーク(LAN/WAN)N1に接続するためのLANインターフェース618を備える。   Further, as shown in FIG. 19, a main body 610 in the computer system 600 includes a CPU 611, a RAM 612, a ROM 613, a hard disk drive (HDD) 614, a CD-ROM drive 615 that accepts a CD-ROM 660, and a USB memory. USB port 616 to which 670 is detachably connected, I / O interface 617 to which display 620, keyboard 630 and mouse 640 are connected, and a LAN interface for connection to a local area network or wide area network (LAN / WAN) N1 618.

さらに、このコンピュータシステム600には、インターネット等の公衆回線N3に接続するためのモデム650が接続されるとともに、LANインターフェース618およびローカルエリアネットワークまたは広域エリアネットワークN1を介して、他のコンピュータシステムであるパソコン(PC)681、サーバ682、プリンタ683等が接続される。   Further, the computer system 600 is connected to a modem 650 for connecting to a public line N3 such as the Internet, and is another computer system via a LAN interface 618 and a local area network or a wide area network N1. A personal computer (PC) 681, a server 682, a printer 683, and the like are connected.

そして、このコンピュータシステム600は、所定の記録媒体に記録された制御プログラム(例えば図20)を参照して、後述する処理手順を実現するための制御プログラムを読み出して実行することで制御装置を実現する。ここで、所定の記録媒体とは、CD−ROM660やUSBメモリ670の他、MOディスクやDVDディスク、フレキシブルディスク(FD)、光磁気ディスク、ICカード等を含む「可搬用の物理媒体」、コンピュータシステム600の内外に備えられるHDD614やRAM612、ROM613等の「固定用の物理媒体」、モデム650を介して接続される公衆回線N3や、他のコンピュータシステム(PC)681またはサーバ682が接続されるローカルエリアネットワークまたは広域エリアネットワークN1等のように、プログラムの送信に際して短期にプログラムを記憶する「通信媒体」等、コンピュータシステム600によって読み取り可能な制御プログラムを記録するあらゆる記録媒体を含む。   And this computer system 600 implement | achieves a control apparatus by reading the control program for implement | achieving the process sequence mentioned later with reference to the control program (for example, FIG. 20) recorded on the predetermined recording medium, and running it To do. Here, the predetermined recording medium is a “portable physical medium” including an MO disk, a DVD disk, a flexible disk (FD), a magneto-optical disk, an IC card, etc. in addition to the CD-ROM 660 and the USB memory 670, a computer A “fixed physical medium” such as HDD 614, RAM 612, and ROM 613 provided inside and outside the system 600, a public line N3 connected via the modem 650, and another computer system (PC) 681 or server 682 are connected. It includes any recording medium that records a control program readable by the computer system 600, such as a “communication medium” that stores a program in a short time when transmitting the program, such as a local area network or a wide area network N1.

すなわち、制御プログラムは、「可搬用の物理媒体」「固定用の物理媒体」「通信媒体」等の記録媒体にコンピュータ読み取り可能に記録されるものであり、コンピュータシステム600は、このような記録媒体から制御プログラムを読み出して実行することで制御装置を実現する。なお、制御プログラムは、コンピュータシステム600によって実行されることに限定されるものではなく、他のコンピュータシステム(PC)681またはサーバ682が制御プログラムを実行する場合や、これらが協働して制御プログラムを実行するような場合にも、本発明を同様に適用することができる。   That is, the control program is recorded on a recording medium such as “portable physical medium”, “fixed physical medium”, and “communication medium” in a computer-readable manner, and the computer system 600 includes such a recording medium. The control device is realized by reading out and executing the control program from. Note that the control program is not limited to be executed by the computer system 600, and when the other computer system (PC) 681 or the server 682 executes the control program, or these cooperate with each other. The present invention can be similarly applied to the case where the above is executed.

各部が行う処理の一部をソフトウェアで構成する場合の一例として、撮像部により取得された画像に対して、制御装置300の処理をソフトウェアで実現する場合の処理手順を、図20のフローチャートを用いて説明する。   As an example of a case where a part of the processing performed by each unit is configured by software, a processing procedure when the processing of the control device 300 is realized by software for an image acquired by the imaging unit is illustrated in the flowchart of FIG. I will explain.

図20に示すように、この処理が開始されると、通常光画像を取得する(S1)。ステップS1では、特殊光画像を取得してもよい。次に、取得した画像に基づいて、拡大観察状態であるか否かを判定する(S2)。拡大観察状態でないと判定した場合(S2,NO)には、通常光画像を取得する(S1)。   As shown in FIG. 20, when this process is started, a normal light image is acquired (S1). In step S1, a special light image may be acquired. Next, based on the acquired image, it is determined whether or not it is in an enlarged observation state (S2). When it is determined that the state is not the magnified observation state (S2, NO), a normal light image is acquired (S1).

一方、拡大観察状態であると判定した場合(S2,YES)には、特殊光画像を取得する(S3)。ステップS3では、通常光画像も合わせて取得してもよい。次に、特殊光画像の評価値を取得する(S4)。次に、評価値に基づいて合焦判定を行う(S5)。合焦位置が検出されていない場合(S5,NO)には、集光レンズの位置を移動させる制御を行い(S6)、特殊光画像を取得する(S3)。   On the other hand, if it is determined that the state is the magnified observation state (S2, YES), a special light image is acquired (S3). In step S3, the normal light image may also be acquired. Next, an evaluation value of the special light image is acquired (S4). Next, focus determination is performed based on the evaluation value (S5). If the in-focus position is not detected (S5, NO), control is performed to move the position of the condenser lens (S6), and a special light image is acquired (S3).

一方、合焦位置が検出された場合(S5,YES)には、集光レンズを合焦位置に移動させる制御を行う(S7)。次に、通常光画像を取得する(S8)。ステップS8では、特殊光画像を合わせて取得してもよい。次に、撮像終了でない場合(S9,NO)には、特殊光画像を取得する(S3)。撮像終了の場合(S9,YES)には、処理を終了する。   On the other hand, when the in-focus position is detected (S5, YES), control is performed to move the condenser lens to the in-focus position (S7). Next, a normal light image is acquired (S8). In step S8, the special light image may be acquired together. Next, when the imaging is not finished (S9, NO), a special light image is acquired (S3). If the imaging is finished (S9, YES), the process is finished.

これにより、例えば別体の撮像部により撮像を行って画像データを取得し、その画像データに対してPC等のコンピュータシステムでソフトウェア的に処理を行うことが可能になる。   Thus, for example, it is possible to acquire image data by capturing an image with a separate image capturing unit, and to process the image data in a software system using a computer system such as a PC.

また本実施形態は、本実施形態の各部(通常光画像取得部、特殊光画像取得部、評価値算出部、合焦位置決定部、制御部、判定部等)を実現するプログラムコードが記録されたコンピュータプログラムプロダクトにも適用できる。   In the present embodiment, program codes for realizing each part (normal light image acquisition unit, special light image acquisition unit, evaluation value calculation unit, in-focus position determination unit, control unit, determination unit, etc.) of the present embodiment are recorded. It can also be applied to other computer program products.

ここで、プログラムコードとは、第1画像取得部と、第2画像取得部と、フォーカス制御部を実現する。第1画像取得部は、生体内の被写体を撮像光学系により撮像した画像であって、白色光の波長帯域における情報を有した被写体像を含む画像を、第1画像として取得する。第2画像取得部は、第1画像に対応して、特定の波長帯域における情報を有した被写体像を含む画像を第2画像として取得する。フォーカス制御部は、第2画像の中の被写体像にピントを合わせる制御を行って、撮像光学系のフォーカス調整を行う。第1画像取得部は、フォーカス調整された撮像光学系により撮像した第1画像を取得する。   Here, the program code realizes a first image acquisition unit, a second image acquisition unit, and a focus control unit. The first image acquisition unit acquires an image including a subject image having information in a wavelength band of white light as a first image, which is an image obtained by capturing an in-vivo subject with an imaging optical system. The second image acquisition unit acquires an image including a subject image having information in a specific wavelength band as the second image corresponding to the first image. The focus control unit performs focus control on the subject image in the second image to adjust the focus of the imaging optical system. The first image acquisition unit acquires a first image picked up by the image pickup optical system whose focus has been adjusted.

またコンピュータプログラムプロダクトは、例えば、プログラムコードが記録された情報記憶媒体(DVD等の光ディスク媒体、ハードディスク媒体、メモリ媒体等)、プログラムコードが記録されたコンピュータ、プログラムコードが記録されたインターネットシステム(例えば、サーバとクライアント端末を含むシステム)など、プログラムコードが組み込まれた情報記憶媒体、装置、機器或いはシステム等である。この場合に、本実施形態の各構成要素や各処理プロセスは各モジュールにより実装され、これらの実装されたモジュールにより構成されるプログラムコードは、コンピュータプログラムプロダクトに記録される。   The computer program product includes, for example, an information storage medium (an optical disk medium such as a DVD, a hard disk medium, a memory medium, etc.) on which a program code is recorded, a computer on which the program code is recorded, and an Internet system (for example, a program code). , A system including a server and a client terminal), and the like. In this case, each component and each processing process of this embodiment are mounted by each module, and the program code constituted by these mounted modules is recorded in the computer program product.

以上、本発明を適用した実施形態およびその変形例について説明したが、本発明は、各実施形態やその変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上記した各実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、各実施形態や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態や変形例で説明した構成要素を適宜組み合わせてもよい。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能である。   As mentioned above, although embodiment and its modification which applied this invention were described, this invention is not limited to each embodiment and its modification as it is, and in the range which does not deviate from the summary of invention in an implementation stage. The component can be modified and embodied. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiments and modifications. For example, some constituent elements may be deleted from all the constituent elements described in each embodiment or modification. Furthermore, you may combine suitably the component demonstrated in different embodiment and modification. Thus, various modifications and applications are possible without departing from the spirit of the invention.

また、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(撮像装置、第1画像、第2画像等)と共に記載された用語(内視鏡装置、通常光画像、特殊光画像等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。   In the specification or drawings, terms (endoscope device, normal light image, special light image, etc.) described at least once together with different terms (imaging device, first image, second image, etc.) having a broader meaning or the same meaning ) May be replaced by the different terms anywhere in the specification or drawings.

101 照明部、102 撮像部、103,103a,103b A/D変換部、
104 通常光画像取得部、105 特殊光画像取得部、106 評価値算出部、
107 バッファ、108 合焦位置決定部、109 出力部、110 制御部、
111 I/F部、112 判定部、150 フォーカス制御部、
201 光源装置、202,202a 白色光光源、202b 特殊光光源、
202c 切替器、202d 赤色光光源、202e 緑色光光源、
202f 青色光光源、202g 緑色狭帯域光源、202h 青色狭帯域光源、
203 回転フィルタ、204 集光レンズ、205 外装、
206 ライトガイドファイバ、207 照明光学系、208 集光レンズ、
209 撮像素子、210 白色光透過フィルタ、211 狭帯域透過フィルタ、
220 赤色光透過フィルタ、221 緑色光透過フィルタ、
222 青色光透過フィルタ、223 緑色狭帯域光透過フィルタ、
224 青色狭帯域光透過フィルタ、228 スプリッタ、
229 第1の撮像素子、230 狭帯域透過フィルタ、231 第2の撮像素子、
300 制御装置、331 特殊光画像生成部、401 マトリクスデータ設定部、
402 撮像部、403 信号抽出部、
600 コンピュータシステム、610 本体部、
611 CPU、612 RAM、613 ROM、614 HDD、
615 CD−ROMドライブ、616 USBポート、
617 I/Oインターフェース、618 LANインターフェース、
620 ディスプレイ、621 表示画面、630 キーボード、640 マウス、
650 モデム、660 CD−ROM、670 USBメモリ、681 PC、
682 サーバ、683 プリンタ、
KC 二次関数、N1 広域エリアネットワーク、N3 公衆回線、
d1〜d3 位置、df 合焦位置、ev1,ev2 評価値
101 Illumination unit, 102 Imaging unit, 103, 103a, 103b A / D conversion unit,
104 normal light image acquisition unit, 105 special light image acquisition unit, 106 evaluation value calculation unit,
107 buffer, 108 in-focus position determination unit, 109 output unit, 110 control unit,
111 I / F unit, 112 determination unit, 150 focus control unit,
201 light source device, 202, 202a white light source, 202b special light source,
202c switcher, 202d red light source, 202e green light source,
202f Blue light source, 202g Green narrow band light source, 202h Blue narrow band light source,
203 Rotating filter, 204 Condensing lens, 205 Exterior,
206 light guide fiber, 207 illumination optical system, 208 condenser lens,
209 imaging device, 210 white light transmission filter, 211 narrow band transmission filter,
220 red light transmission filter, 221 green light transmission filter,
222 Blue light transmission filter, 223 Green narrow band light transmission filter,
224 Blue narrowband light transmission filter, 228 splitter,
229 first image sensor, 230 narrow-band transmission filter, 231 second image sensor,
300 control device, 331 special light image generation unit, 401 matrix data setting unit,
402 imaging unit, 403 signal extraction unit,
600 computer system, 610 main body,
611 CPU, 612 RAM, 613 ROM, 614 HDD,
615 CD-ROM drive, 616 USB port,
617 I / O interface, 618 LAN interface,
620 display, 621 display screen, 630 keyboard, 640 mouse,
650 modem, 660 CD-ROM, 670 USB memory, 681 PC,
682 server, 683 printer,
KC quadratic function, N1 wide area network, N3 public line,
d1 to d3 position, df focusing position, ev1, ev2 evaluation value

Claims (21)

生体内の被写体を撮像光学系により撮像した画像であって、白色光の波長帯域における情報を有した被写体像を含む画像を、第1画像として取得する第1画像取得部と、
前記第1画像に対応して、特定の波長帯域における情報を有した被写体像を含む画像を第2画像として取得する第2画像取得部と、
前記第2画像の中の被写体像に合焦させる制御を行って、前記撮像光学系のフォーカス調整を行うフォーカス制御部と、
を含み、
前記第1画像取得部は、
前記フォーカス調整された前記撮像光学系により撮像した前記第1画像を取得することを特徴とする内視鏡装置。
A first image acquisition unit that acquires, as a first image, an image obtained by imaging an in-vivo subject using an imaging optical system, the image including a subject image having information in the wavelength band of white light;
A second image acquisition unit that acquires an image including a subject image having information in a specific wavelength band as a second image corresponding to the first image;
A focus control unit that performs control to focus on a subject image in the second image and performs focus adjustment of the imaging optical system;
Including
The first image acquisition unit includes:
An endoscope apparatus, wherein the first image captured by the imaging optical system with the focus adjusted is acquired.
請求項1において、
前記第2画像取得部は、
前記生体内の被写体についてのコントラストが前記第1画像よりも前記第2画像において高くなる波長帯域を前記特定の波長帯域として、前記第2画像を取得し、
前記フォーカス制御部は、
前記第2画像のコントラストに基づいて、前記第2画像の中の被写体像に合焦させる前記制御を行うことを特徴とする内視鏡装置。
In claim 1,
The second image acquisition unit
The second image is acquired using a wavelength band in which the contrast of the subject in the living body is higher in the second image than in the first image as the specific wavelength band,
The focus control unit
An endoscope apparatus that performs the control to focus on a subject image in the second image based on a contrast of the second image.
請求項1において、
前記特定の波長帯域は、
前記白色光の波長帯域よりも狭い帯域であることを特徴とする内視鏡装置。
In claim 1,
The specific wavelength band is
An endoscope apparatus having a band narrower than the wavelength band of the white light.
請求項3において、
前記特定の波長帯域は、
血液中のヘモグロビンに吸収される波長の波長帯域であることを特徴とする内視鏡装置。
In claim 3,
The specific wavelength band is
An endoscope apparatus having a wavelength band of a wavelength absorbed by hemoglobin in blood.
請求項4において、
前記特定の波長帯域は、
390ナノメートル〜445ナノメートル、または530ナノメートル〜550ナノメートルであることを特徴とする内視鏡装置。
In claim 4,
The specific wavelength band is
An endoscope apparatus characterized by being in a range of 390 nanometers to 445 nanometers, or 530 nanometers to 550 nanometers.
請求項1において、
前記第2画像取得部は、
取得された前記第1画像に基づいて、前記第2画像を生成することを特徴とする内視鏡装置。
In claim 1,
The second image acquisition unit
An endoscope apparatus, wherein the second image is generated based on the acquired first image.
請求項6において、
前記第2画像取得部は、
取得された前記第1画像から、前記白色光の波長帯域における信号を抽出する信号抽出部を有し、
前記第2画像取得部は、
抽出された前記信号に基づいて、前記特定の波長帯域における信号を含む前記第2画像を生成することを特徴とする内視鏡装置。
In claim 6,
The second image acquisition unit
A signal extraction unit for extracting a signal in the wavelength band of the white light from the acquired first image;
The second image acquisition unit
An endoscope apparatus, wherein the second image including a signal in the specific wavelength band is generated based on the extracted signal.
請求項7において、
前記第2画像取得部は、
前記白色光の波長帯域における信号から、前記特定の波長帯域における信号を算出するためのマトリクスデータを設定するマトリクスデータ設定部を有し、
前記第2画像取得部は、
設定された前記マトリクスデータを用いて、前記白色光の波長帯域における信号から前記特定の波長帯域における信号を算出して、前記第2画像を生成することを特徴とする内視鏡装置。
In claim 7,
The second image acquisition unit
A matrix data setting unit for setting matrix data for calculating a signal in the specific wavelength band from a signal in the wavelength band of the white light;
The second image acquisition unit
An endoscope apparatus, wherein the second image is generated by calculating a signal in the specific wavelength band from a signal in the wavelength band of the white light using the set matrix data.
請求項1において、
観察状態が拡大観察状態であるか否かを判定する判定部を含み、
前記判定部により前記拡大観察状態であると判定された場合に、
前記フォーカス制御部は、
前記第2画像の中の被写体像に合焦させる前記制御を行って、前記撮像光学系のフォーカス調整を行い、
前記第1画像取得部は、
前記フォーカス調整された前記撮像光学系により撮像した前記第1画像を取得することを特徴とする内視鏡装置。
In claim 1,
Including a determination unit that determines whether the observation state is a magnified observation state,
When it is determined by the determination unit that the magnified observation state is present,
The focus control unit
Performing the control to focus on the subject image in the second image, adjusting the focus of the imaging optical system,
The first image acquisition unit includes:
An endoscope apparatus, wherein the first image captured by the imaging optical system with the focus adjusted is acquired.
請求項9において、
前記判定部は、
前記内視鏡装置のスコープ部が前記被写体に接近しているか否かに関する情報を取得し、前記スコープ部が前記被写体に接近していると前記情報に基づいて判断した場合に、前記拡大観察状態であると判定することを特徴とする内視鏡装置。
In claim 9,
The determination unit
When the information about whether or not the scope unit of the endoscopic device is approaching the subject is acquired, and when it is determined based on the information that the scope unit is approaching the subject, the magnified observation state It is determined that the endoscope apparatus is.
請求項10において、
前記判定部は、
前記被写体のエッジ形状の大きさを前記情報として取得し、前記エッジ形状の大きさが所定時間前の前記エッジ形状の大きさよりも大きいと判断した場合に、前記拡大観察状態であると判定することを特徴とする内視鏡装置。
In claim 10,
The determination unit
The size of the edge shape of the subject is acquired as the information, and when it is determined that the size of the edge shape is larger than the size of the edge shape before a predetermined time, it is determined that the state is the magnified observation state. An endoscope apparatus characterized by the above.
請求項9において、
前記判定部は、
画像の合焦状態を評価するための評価値を前記第1画像または前記第2画像から取得し、合焦状態から非合焦状態に変化したと前記評価値に基づいて判定した場合に、前記拡大観察状態であると判定することを特徴とする内視鏡装置。
In claim 9,
The determination unit
When the evaluation value for evaluating the in-focus state of the image is acquired from the first image or the second image and it is determined based on the evaluation value that the in-focus state is changed from the in-focus state, An endoscope apparatus characterized in that it is determined to be in a magnified observation state.
請求項1において、
前記第1画像取得部は、
光源部から照射される光に基づく前記第1画像を取得し、
前記第2画像取得部は、
前記光源部から照射される光に基づく前記第2画像を取得することを特徴とする内視鏡装置。
In claim 1,
The first image acquisition unit includes:
Obtaining the first image based on the light emitted from the light source unit;
The second image acquisition unit
An endoscope apparatus, wherein the second image based on light emitted from the light source unit is acquired.
請求項13において、
前記光源部は、
白色光光源を有し、
前記第1画像取得部は、
前記白色光光源から照射される白色光に基づく前記第1画像を取得し、
前記第2画像取得部は、
前記白色光光源から照射される前記白色光に基づく前記第2画像を取得することを特徴とする内視鏡装置。
In claim 13,
The light source unit is
A white light source,
The first image acquisition unit includes:
Obtaining the first image based on white light emitted from the white light source;
The second image acquisition unit
An endoscope apparatus that acquires the second image based on the white light emitted from the white light source.
請求項14において、
前記光源部は、
前記白色光を構成する第1〜第N(Nは2以上の整数)の単色光の波長帯域を透過するフィルタを、前記白色光に対して適用することで、前記第1〜第Nの単色光を出射し、
前記第1画像取得部は、
前記第1〜第Nの単色光の波長帯域の情報を有する第1〜第Nの単色画像を取得し、取得した前記第1〜第Nの単色画像に基づいて前記第1画像を生成することを特徴とする内視鏡装置。
In claim 14,
The light source unit is
By applying a filter that transmits the wavelength band of the first to Nth (N is an integer of 2 or more) monochromatic light constituting the white light to the white light, the first to Nth monochromatic colors are applied. Emit light,
The first image acquisition unit includes:
Acquiring first to N-th monochromatic images having information on wavelength bands of the first to N-th monochromatic lights, and generating the first image based on the acquired first to N-th monochromatic images. An endoscope apparatus characterized by the above.
請求項14において、
前記光源部は、
前記特定の波長帯域を透過するフィルタを前記白色光に対して適用することで、前記特定の波長帯域の光を出射し、
前記第2画像取得部は、
前記特定の波長帯域の情報を有する前記第2画像を取得することを特徴とする内視鏡装置。
In claim 14,
The light source unit is
By applying a filter that transmits the specific wavelength band to the white light, the light of the specific wavelength band is emitted,
The second image acquisition unit
An endoscope apparatus, wherein the second image having information on the specific wavelength band is acquired.
請求項16において、
前記光源部は、
前記特定の波長帯域を構成する第1〜第M(Mは2以上の整数)の波長帯域を透過するフィルタを前記白色光に対して適用することで、前記第1〜第Mの波長帯域の光を出射し、
前記第2画像取得部は、
前記第1〜第Mの波長帯域の情報を有する第1〜第Mの構成画像を取得し、取得した前記第1〜第Mの構成画像に基づいて前記第2画像を生成することを特徴とする内視鏡装置。
In claim 16,
The light source unit is
By applying a filter that transmits the first to Mth (M is an integer of 2 or more) wavelength bands constituting the specific wavelength band to the white light, the first to Mth wavelength bands Emit light,
The second image acquisition unit
Acquiring the first to M-th component images having the information of the first to M-th wavelength bands, and generating the second image based on the acquired first to M-th component images. Endoscope device.
請求項13において、
前記光源部は、
白色光光源と、
前記特定の波長帯域の情報を有する特殊光を出射する特殊光光源を有し、
前記第1画像取得部は、
前記白色光光源から照射される前記白色光に基づく前記第1画像を取得し、
前記第2画像取得部は、
前記特殊光光源から照射される前記特殊光に基づく前記第2画像を取得することを特徴とする内視鏡装置。
In claim 13,
The light source unit is
A white light source,
A special light source that emits special light having information of the specific wavelength band;
The first image acquisition unit includes:
Obtaining the first image based on the white light emitted from the white light source;
The second image acquisition unit
An endoscope apparatus characterized by acquiring the second image based on the special light emitted from the special light source.
生体内の被写体を撮像光学系により撮像した画像であって、白色光の波長帯域における情報を有した被写体像を含む画像を、第1画像として取得する第1画像取得部と、
前記第1画像に含まれる前記被写体像の生体構造をより強調させた生体構造の被写体像を含む画像を、第2画像として取得する第2画像取得部と、
前記第2画像の中の被写体像に合焦させる制御を行って、前記撮像光学系のフォーカス調整を行うフォーカス制御部と、
を含み、
前記第1画像取得部は、
前記フォーカス調整された前記撮像光学系により撮像した前記第1画像を取得することを特徴とする内視鏡装置。
A first image acquisition unit that acquires, as a first image, an image obtained by imaging an in-vivo subject using an imaging optical system, the image including a subject image having information in the wavelength band of white light;
A second image acquisition unit that acquires, as a second image, an image including a anatomical subject image in which the anatomy of the subject image included in the first image is further emphasized;
A focus control unit that performs control to focus on a subject image in the second image and performs focus adjustment of the imaging optical system;
Including
The first image acquisition unit includes:
An endoscope apparatus, wherein the first image captured by the imaging optical system with the focus adjusted is acquired.
生体内の被写体を撮像光学系により撮像した画像であって、白色光の波長帯域における情報を有した被写体像を含む画像を、第1画像として取得し、
前記第1画像に対応して、特定の波長帯域における情報を有した被写体像を含む画像を第2画像として取得し、
前記第2画像の中の被写体像に合焦させる制御を行って、前記撮像光学系のフォーカス調整を行い、
前記フォーカス調整された前記撮像光学系により撮像した前記第1画像を取得することを特徴とするフォーカス制御方法。
An image obtained by imaging an in-vivo subject with an imaging optical system and including an image of the subject having information in the wavelength band of white light is acquired as a first image;
Corresponding to the first image, an image including a subject image having information in a specific wavelength band is acquired as a second image,
Performing control to focus on the subject image in the second image, performing focus adjustment of the imaging optical system,
A focus control method characterized in that the first image captured by the focus-adjusted imaging optical system is acquired.
生体内の被写体を撮像光学系により撮像した画像であって、白色光の波長帯域における情報を有した被写体像を含む画像を、第1画像として取得する第1画像取得部と、
前記第1画像に対応して、特定の波長帯域における情報を有した被写体像を含む画像を第2画像として取得する第2画像取得部と、
前記第2画像の中の被写体像に合焦させる制御を行って、前記撮像光学系のフォーカス調整を行うフォーカス制御部として、
コンピュータを機能させ、
前記第1画像取得部は、
前記フォーカス調整された前記撮像光学系により撮像した前記第1画像を取得することを特徴とするプログラム。
A first image acquisition unit that acquires, as a first image, an image obtained by imaging an in-vivo subject using an imaging optical system, the image including a subject image having information in the wavelength band of white light;
A second image acquisition unit that acquires an image including a subject image having information in a specific wavelength band as a second image corresponding to the first image;
As a focus control unit that performs control for focusing on the subject image in the second image and performs focus adjustment of the imaging optical system,
Make the computer work,
The first image acquisition unit includes:
A program for acquiring the first image picked up by the image pickup optical system with the focus adjusted.
JP2010261172A 2010-11-24 2010-11-24 Endoscope apparatus, focus control method, and program Withdrawn JP2012110481A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010261172A JP2012110481A (en) 2010-11-24 2010-11-24 Endoscope apparatus, focus control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010261172A JP2012110481A (en) 2010-11-24 2010-11-24 Endoscope apparatus, focus control method, and program

Publications (1)

Publication Number Publication Date
JP2012110481A true JP2012110481A (en) 2012-06-14

Family

ID=46495385

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010261172A Withdrawn JP2012110481A (en) 2010-11-24 2010-11-24 Endoscope apparatus, focus control method, and program

Country Status (1)

Country Link
JP (1) JP2012110481A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014171284A1 (en) * 2013-04-19 2014-10-23 オリンパスメディカルシステムズ株式会社 Endoscope device
JP2016059389A (en) * 2014-09-12 2016-04-25 富士フイルム株式会社 Endoscope system and endoscopic image display method
WO2017010157A1 (en) * 2015-07-15 2017-01-19 ソニー株式会社 Medical observation device and medical observation method
WO2018061392A1 (en) 2016-09-30 2018-04-05 富士フイルム株式会社 Endoscope system and method for operating same
CN107981855A (en) * 2017-12-29 2018-05-04 深圳开立生物医疗科技股份有限公司 A kind of blood flow imaging device and endoscope
JP2020156560A (en) * 2019-03-25 2020-10-01 株式会社Jvcケンウッド Rigid endoscope system

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9618726B2 (en) 2013-04-19 2017-04-11 Olympus Corporation Endoscope apparatus
JP5695808B1 (en) * 2013-04-19 2015-04-08 オリンパスメディカルシステムズ株式会社 Endoscope device
WO2014171284A1 (en) * 2013-04-19 2014-10-23 オリンパスメディカルシステムズ株式会社 Endoscope device
JP2016059389A (en) * 2014-09-12 2016-04-25 富士フイルム株式会社 Endoscope system and endoscopic image display method
JPWO2017010157A1 (en) * 2015-07-15 2018-05-24 ソニー株式会社 Medical observation apparatus and medical observation method
CN107847107A (en) * 2015-07-15 2018-03-27 索尼公司 Medical observation device and medical observational technique
WO2017010157A1 (en) * 2015-07-15 2017-01-19 ソニー株式会社 Medical observation device and medical observation method
US10568492B2 (en) 2015-07-15 2020-02-25 Sony Corporation Medical observation device and medical observation method
CN107847107B (en) * 2015-07-15 2021-09-24 索尼公司 Medical observation device and medical observation method
WO2018061392A1 (en) 2016-09-30 2018-04-05 富士フイルム株式会社 Endoscope system and method for operating same
JP2018051143A (en) * 2016-09-30 2018-04-05 富士フイルム株式会社 Endoscope system and method for operating the same
US11089949B2 (en) 2016-09-30 2021-08-17 Fujifilm Corporation Endoscope system and method of operating same
CN107981855A (en) * 2017-12-29 2018-05-04 深圳开立生物医疗科技股份有限公司 A kind of blood flow imaging device and endoscope
JP2020156560A (en) * 2019-03-25 2020-10-01 株式会社Jvcケンウッド Rigid endoscope system
JP7239821B2 (en) 2019-03-25 2023-03-15 株式会社Jvcケンウッド rigid endoscope system

Similar Documents

Publication Publication Date Title
JP5591570B2 (en) Image processing apparatus, image processing method, and program
JP5541914B2 (en) Image processing apparatus, electronic apparatus, program, and operation method of endoscope apparatus
JP5393554B2 (en) Electronic endoscope system
JP5395725B2 (en) Electronic endoscope system
JP5654511B2 (en) Endoscope system, processor device for endoscope system, and method for operating endoscope system
WO2017183307A1 (en) Endoscope system, image processing device, and image processing device operation method
JP6336949B2 (en) Image processing apparatus, image processing method, and endoscope system
JP5808031B2 (en) Endoscope system
JP2011255006A (en) Image processor, endoscopic device, program and image processing method
JP2013000176A (en) Endoscope system, light source apparatus for the same, and light quantity control method
US20170296034A1 (en) Image processing apparatus, method for operating image processing apparatus, computer-readable recording medium, and endoscope device
JP2012110481A (en) Endoscope apparatus, focus control method, and program
JP5892985B2 (en) ENDOSCOPE SYSTEM, PROCESSOR DEVICE, AND OPERATION METHOD
JP6823072B2 (en) Processor device and endoscopic system
JP2011234844A (en) Controller, endoscope system, and program
JP2012005512A (en) Image processor, endoscope apparatus, endoscope system, program, and image processing method
EP2939586A1 (en) Image processing device, program and image processing method
WO2016084257A1 (en) Endoscope apparatus
JP2013099509A (en) Endoscope system and image generation method
JP6218709B2 (en) Endoscope system, processor device, operation method of endoscope system, and operation method of processor device
JP2017060682A (en) Image processing device, operation method of image processing device, and endoscope system
JP2014050594A (en) Endoscope system and endoscope image acquisition method
JP6120491B2 (en) Endoscope apparatus and focus control method for endoscope apparatus
WO2016088628A1 (en) Image evaluation device, endoscope system, method for operating image evaluation device, and program for operating image evaluation device
US9323978B2 (en) Image processing device, endoscope apparatus, and image processing method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140204