JP2013043007A - Focal position controller, endoscope, and focal position control method - Google Patents

Focal position controller, endoscope, and focal position control method Download PDF

Info

Publication number
JP2013043007A
JP2013043007A JP2011183762A JP2011183762A JP2013043007A JP 2013043007 A JP2013043007 A JP 2013043007A JP 2011183762 A JP2011183762 A JP 2011183762A JP 2011183762 A JP2011183762 A JP 2011183762A JP 2013043007 A JP2013043007 A JP 2013043007A
Authority
JP
Japan
Prior art keywords
optical system
imaging optical
vivo
unit
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011183762A
Other languages
Japanese (ja)
Inventor
Yoshihito Morita
恵仁 森田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2011183762A priority Critical patent/JP2013043007A/en
Publication of JP2013043007A publication Critical patent/JP2013043007A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a focal position controller, an endoscope, a focal position control method, etc. that enable the control of the focal positions by deciding the conditions of an object within the body viewed from the direction of its photographing by an imaging optical system.SOLUTION: The focal position controller includes an image acquirer to acquire a body interior image containing the image of an object in the body via an imaging optical system (equivalent to an A/D converter 310), a decision part to decide the conditions of the object within the body viewed from the direction of photographing it by the image optical system according to the acquired image of the object in the body (equivalent to a forward counter decision part or a static decision part), and a focal position controller to control the focal position of the imaging optical system by controlling the drive of the imaging optical system based on the decision result by the decision part.

Description

本発明は、焦点位置制御装置、内視鏡装置及び焦点位置制御方法等に関する。   The present invention relates to a focus position control device, an endoscope device, a focus position control method, and the like.

内視鏡のような撮像装置においては、術者の診断に支障をきたさないため、パンフォーカスの画像が求められる。このため、内視鏡では比較的Fナンバーが大きい光学系を使用して被写界深度を深くすることでこのような性能を達成している。しかし近年、内視鏡システムにおいても数十〜百万画素程度の高画素の撮像素子が使用されるようになっている。光学系が一定の場合、その被写界深度は許容錯乱円の大きさによって決定されるが、高画素の撮像素子では画素ピッチと共に許容錯乱円も小さくなるため撮像装置の被写界深度は狭くなる。このため、特許文献1には内視鏡の撮像部に対物光学系の焦点位置を駆動する焦点位置駆動部を設け、被写体に対してオートフォーカス(以下、AF)を行う内視鏡装置が提案されている。   In an imaging apparatus such as an endoscope, a pan-focus image is required in order not to hinder the diagnosis of the operator. For this reason, the endoscope achieves such performance by using an optical system having a relatively large F number to increase the depth of field. However, in recent years, an imaging device having a high pixel number of about several tens to millions of pixels has been used also in an endoscope system. When the optical system is constant, the depth of field is determined by the size of the permissible circle of confusion. However, in a high-pixel image sensor, the permissible circle of confusion decreases with the pixel pitch, so the depth of field of the imaging device is narrow. Become. For this reason, Patent Document 1 proposes an endoscope apparatus in which an imaging unit of an endoscope is provided with a focal position driving unit that drives the focal position of an objective optical system and performs autofocus (hereinafter referred to as AF) on a subject. Has been.

特開平8−106060号公報JP-A-8-106060

内視鏡における通常観察では、図8(A)に示すように奥行きのある消化管を観察するため、取得される画像上の位置により、対応する被写体までの距離が大きく異なる。そのため、AFを動作させたとしてもピントが合うのは画像の一部分であり、他の部分はぼけてしまう。よって、ユーザーが観察したい領域(例えば病変部等)にピントが合わずユーザーの観察に支障をきたす可能性がある。つまり、AF動作が効果的でない場合もありうるため、AF動作の停止/起動を適切に制御する必要がある。   In normal observation with an endoscope, a deep digestive tract is observed as shown in FIG. 8A, and therefore the distance to the corresponding subject varies greatly depending on the position on the acquired image. For this reason, even if AF is operated, it is only a part of the image that is in focus, and the other part is blurred. Therefore, there is a possibility that the user's observation may be hindered because the focus is not focused on a region (for example, a lesioned part) that the user wants to observe. That is, since the AF operation may not be effective, it is necessary to appropriately control the stop / start of the AF operation.

特許文献1では、AF動作の停止/起動の切り替えを操作部に設けられたスイッチで制御する。このため、術者は従来の内視鏡操作に加えて、AF動作の停止/起動の操作を行う必要があり、作業の煩雑性が増すことになる。   In Patent Document 1, switching of stop / start of AF operation is controlled by a switch provided in an operation unit. For this reason, the operator needs to stop / start the AF operation in addition to the conventional endoscope operation, which increases the complexity of the work.

本発明の幾つかの態様によれば、撮像光学系の撮像方向に対する体内被写体の状況情報を判定することにより、状況に応じた焦点位置の制御が可能な焦点位置制御装置、内視鏡装置及び焦点位置制御方法等を提供することができる。   According to some aspects of the present invention, a focus position control device, an endoscope device, and an endoscope device capable of controlling a focus position according to a situation by determining situation information of an in-vivo subject with respect to an imaging direction of an imaging optical system, and A focal position control method and the like can be provided.

本発明の一態様は、撮像光学系を介した体内被写体の撮像によって、前記体内被写体の像を含む体内画像を取得する画像取得部と、取得された前記体内画像に基づいて、撮像時の前記撮像光学系の撮像方向に対する前記体内被写体の状況情報を判定する判定部と、前記判定部における判定結果に基づいて、前記撮像光学系の駆動を制御することで、前記撮像光学系の焦点位置を制御する焦点位置制御部と、を含む焦点位置制御装置に関係する。   One aspect of the present invention provides an image acquisition unit that acquires an in-vivo image including an image of the in-vivo subject by imaging the in-vivo subject via an imaging optical system, and the image at the time of imaging based on the acquired in-vivo image. A determination unit that determines the status information of the in-vivo subject with respect to the imaging direction of the imaging optical system, and the focus position of the imaging optical system is controlled by controlling the driving of the imaging optical system based on the determination result in the determination unit. And a focal position control unit that controls the focal position control device.

本発明の一態様では、体内画像に基づいて撮像方向に対する体内被写体の状況情報を判定する。そして、判定結果に基づいて撮像光学系の焦点位置を制御するため、撮像光学系の撮像方向と体内被写体との相対的な状況に応じた焦点位置制御ができ、ユーザーにとって見やすい画像を提供すること等が可能になる。   In one aspect of the present invention, the status information of the in-vivo subject with respect to the imaging direction is determined based on the in-vivo image. Since the focal position of the imaging optical system is controlled based on the determination result, the focal position can be controlled according to the relative situation between the imaging direction of the imaging optical system and the in-vivo subject, and an image that is easy for the user to view is provided. Etc. becomes possible.

また、本発明の他の態様は、撮像光学系を介した体内被写体の撮像によって、前記体内被写体の像を含む体内画像を取得する画像取得部と、取得された前記体内画像に基づいて、撮像時の前記撮像光学系の撮像方向に対する前記体内被写体の状況情報を判定する判定部と、前記判定部における判定結果に基づいて、前記撮像光学系の駆動を制御することで、前記撮像光学系の焦点位置を制御する焦点位置制御部と、前記焦点位置制御部の制御に基づいて前記撮像光学系を駆動する焦点位置駆動部と、を含む内視鏡装置に関係する。   According to another aspect of the present invention, an image acquisition unit that acquires an in-vivo image including an image of the in-vivo subject by imaging an in-vivo subject via an imaging optical system, and an image acquisition based on the acquired in-vivo image. A determination unit that determines the status information of the in-vivo subject with respect to the imaging direction of the imaging optical system at the time, and the drive of the imaging optical system is controlled based on the determination result in the determination unit. The present invention relates to an endoscope apparatus including a focal position control unit that controls a focal position and a focal position driving unit that drives the imaging optical system based on the control of the focal position control unit.

また、本発明の他の態様は、撮像光学系を介した体内被写体の撮像によって、前記体内被写体の像を含む体内画像を取得し、取得された前記体内画像に基づいて、撮像時の前記撮像光学系の撮像方向に対する前記体内被写体の状況情報を判定し、判定結果に基づいて、前記撮像光学系の駆動を制御することで、前記撮像光学系の焦点位置を制御する焦点位置制御方法に関係する。   According to another aspect of the present invention, an in-vivo image including an image of the in-vivo subject is acquired by imaging an in-vivo subject via an imaging optical system, and the imaging at the time of imaging is performed based on the acquired in-vivo image. Related to a focal position control method for controlling the focal position of the imaging optical system by determining status information of the in-vivo subject with respect to the imaging direction of the optical system and controlling the driving of the imaging optical system based on the determination result To do.

本実施形態にかかる焦点位置制御装置を含む内視鏡装置の構成例。The structural example of the endoscope apparatus containing the focus position control apparatus concerning this embodiment. 回転色フィルターの構成例。A configuration example of a rotating color filter. 回転色フィルターの分光特性例。An example of spectral characteristics of a rotating color filter. 画像処理部の構成例。2 is a configuration example of an image processing unit. フォーカスレンズ制御部の構成例。2 is a configuration example of a focus lens control unit. 評価領域の設定例。Setting example of evaluation area. コントラスト値算出部の構成例。4 is a configuration example of a contrast value calculation unit. 図8(A)〜図8(F)は撮像光学系と体内被写体との位置関係、及び当該位置関係において取得される体内画像の例。FIG. 8A to FIG. 8F are examples of the positional relationship between the imaging optical system and the in-vivo subject and in-vivo images acquired in the positional relationship. 正対判定部の構成例。The structural example of a confrontation determination part. 体内画像に対する画像処理に用いられるゲインマップの例。The example of the gain map used for the image process with respect to an in-vivo image. 図11(A)〜図11(C)はゲインマップによる処理後の体内画像の例。FIG. 11A to FIG. 11C show examples of in-vivo images after processing using a gain map. 図12(A)〜図12(C)は低域抽出後の体内画像の例。12A to 12C show examples of in-vivo images after low-frequency extraction. 分割部における体内画像の領域分割例。An example of region division of an in-vivo image in a dividing unit. 分割された領域と当該領域で算出された輝度値の対応関係を説明する図。The figure explaining the correspondence of the divided | segmented area | region and the luminance value calculated in the said area | region. 図15(A)〜図15(C)は撮像光学系と体内被写体との位置関係に応じた明るさ分布の違いと、分割領域との関係を説明する図。FIGS. 15A to 15C are diagrams for explaining the relationship between the difference in brightness distribution according to the positional relationship between the imaging optical system and the in-vivo subject and the divided regions. 本実施形態にかかる焦点位置制御装置を含む内視鏡装置の他の構成例。The other structural example of the endoscope apparatus containing the focus position control apparatus concerning this embodiment. フォーカスレンズ制御部の他の構成例。Another example of the configuration of the focus lens control unit. フォーカスレンズ制御部の他の構成例。Another example of the configuration of the focus lens control unit. 静止判定部の構成例。The structural example of a stillness determination part. フォーカスレンズ制御部の他の構成例。Another example of the configuration of the focus lens control unit. 体内画像上での代表点の設定例。An example of setting representative points on an in-vivo image. 図22(A)〜図22(D)は消失点の検出手法を説明する図。22A to 22D are diagrams illustrating a vanishing point detection method.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

本出願人は、撮像光学系の撮像方向に対する体内被写体の状況情報を判定することにより、適切な状態においてAFを実行可能な手法を提案するものであり、具体的には第1の実施形態において、体内被写体が撮像光学系に正対しているか否かを状況情報として用いる。第2の実施形態では、体内被写体が撮像光学系に正対しているか否かに加えて、撮像光学系(具体的には撮像光学系に含まれるズームレンズ等)が望遠端にあるか否かに応じてAFを制御する。第3の実施形態では、体内被写体が撮像光学系に対して相対的に静止しているか否か、及び撮像光学系が望遠端にあるか否かに応じてAFを制御する。第4の実施形態では、体内被写体が撮像光学系に正対しているか否か、体内被写体が撮像光学系に対して相対的に静止しているか否か、及び撮像光学系が望遠端にあるか否かに応じてAFを制御する。   The present applicant proposes a technique capable of executing AF in an appropriate state by determining situation information of the in-vivo subject with respect to the imaging direction of the imaging optical system, and specifically, in the first embodiment. Whether the in-vivo subject is directly facing the imaging optical system is used as the situation information. In the second embodiment, in addition to whether or not the in-vivo subject faces the imaging optical system, whether or not the imaging optical system (specifically, a zoom lens included in the imaging optical system) is at the telephoto end. The AF is controlled according to the above. In the third embodiment, the AF is controlled depending on whether the in-vivo subject is stationary relative to the imaging optical system and whether the imaging optical system is at the telephoto end. In the fourth embodiment, whether the in-vivo subject is directly facing the imaging optical system, whether the in-vivo subject is relatively stationary with respect to the imaging optical system, and is the imaging optical system at the telephoto end? The AF is controlled according to whether or not.

1.第1の実施形態
図1に、本実施形態にかかる焦点位置制御装置を含む内視鏡装置の構成例を示す。内視鏡装置は、光源部100、撮像部200、制御装置300(プロセッサ部)、表示部400、外部I/F部500を含む。本実施形態にかかる焦点位置制御装置は、例えば制御装置300に対応する。
1. First Embodiment FIG. 1 shows a configuration example of an endoscope apparatus including a focal position control apparatus according to the present embodiment. The endoscope apparatus includes a light source unit 100, an imaging unit 200, a control device 300 (processor unit), a display unit 400, and an external I / F unit 500. The focal position control device according to the present embodiment corresponds to the control device 300, for example.

光源部100は、白色光源110と、複数の分光透過率のフィルターを有する回転色フィルター120を有する。また光源部100は、回転色フィルター120を駆動させる回転駆動部130と、回転色フィルター120を透過した光をライトガイドファイバー210の入射端面に集光させる集光レンズ140を含む。図2に回転色フィルター120の詳細な構成例を示す。回転色フィルター120は、三原色の赤色(以下Rと略す)フィルター701と、緑色(以下Gと略す)フィルター702と、青色(以下Bと略す)フィルター703と、回転モーター704と、から構成されている。図3に、これらの色フィルター701〜703の分光特性例を示す。回転駆動部130は、制御部340からの制御信号に基づいて、撮像素子260の撮像期間と同期して回転色フィルター120を所定回転数で回転させる。例えば、回転色フィルター120を1秒間に20回転させると、各色フィルターは60分の1秒間隔で入射白色光を横切ることになる。この場合、撮像素子260は、60分の1秒間隔で画像信号の撮像と転送を完了することになる。ここで、撮像素子260は例えばモノクロ用撮像素子である。即ち、本実施形態では、3原色の各色光(R或はG或はB)の画像が60分の1秒間隔で撮像される面順次方式の撮像が行われる。   The light source unit 100 includes a white light source 110 and a rotating color filter 120 having a plurality of spectral transmittance filters. The light source unit 100 also includes a rotation driving unit 130 that drives the rotary color filter 120 and a condensing lens 140 that condenses the light transmitted through the rotary color filter 120 on the incident end face of the light guide fiber 210. FIG. 2 shows a detailed configuration example of the rotating color filter 120. The rotary color filter 120 includes three primary colors of red (hereinafter abbreviated as R) filter 701, green (hereinafter abbreviated as G) filter 702, blue (hereinafter abbreviated as B) filter 703, and a rotary motor 704. Yes. FIG. 3 shows an example of spectral characteristics of these color filters 701 to 703. The rotation driving unit 130 rotates the rotation color filter 120 at a predetermined number of rotations in synchronization with the imaging period of the imaging element 260 based on a control signal from the control unit 340. For example, if the rotating color filter 120 is rotated 20 times per second, each color filter crosses incident white light at 1/60 second intervals. In this case, the image sensor 260 completes imaging and transfer of image signals at 1/60 second intervals. Here, the image sensor 260 is, for example, a monochrome image sensor. That is, in the present embodiment, frame sequential imaging is performed in which images of light of each of the three primary colors (R, G, or B) are captured at 1/60 second intervals.

撮像部200は、例えば、体腔への挿入を可能にするため細長くかつ湾曲可能に形成されている。撮像部200は、光源部100で集光された光を照明レンズ220に導くためのライトガイドファイバー210と、そのライトガイドファイバー210により先端まで導かれてきた光を拡散させて観察対象(被写体、具体的には体内被写体)に照射する照明レンズ220を含む。また、撮像部200は、観察対象から戻る反射光を集光する対物レンズ230と、焦点位置を調整するための焦点調整レンズ240と、焦点調整レンズ240を駆動するための焦点位置駆動部250と、集光した反射光を検出するための撮像素子260を備えている。焦点位置駆動部250は例えばステッピングモーターであり、焦点調整レンズ240と接続されている。焦点位置駆動部250は焦点調整レンズ240の位置を変更することで焦点位置を調整する。撮像素子260は、例えばモノクロ単板撮像素子であり、例えばCCDやCMOSイメージセンサー等により構成される。   The imaging unit 200 is formed to be elongated and bendable, for example, to enable insertion into a body cavity. The imaging unit 200 diffuses the light guide fiber 210 for guiding the light collected by the light source unit 100 to the illumination lens 220 and the light guided to the tip by the light guide fiber 210 to observe an object (subject, Specifically, it includes an illumination lens 220 that irradiates an in-vivo subject). In addition, the imaging unit 200 includes an objective lens 230 that collects reflected light returning from the observation target, a focus adjustment lens 240 for adjusting the focus position, and a focus position drive unit 250 for driving the focus adjustment lens 240. The imaging device 260 for detecting the condensed reflected light is provided. The focal position driving unit 250 is a stepping motor, for example, and is connected to the focal adjustment lens 240. The focus position driving unit 250 adjusts the focus position by changing the position of the focus adjustment lens 240. The imaging element 260 is, for example, a monochrome single-plate imaging element, and is configured by, for example, a CCD or a CMOS image sensor.

制御装置300は、内視鏡装置の各部の制御や画像処理を行う。制御装置300は、A/D変換部310(広義には画像取得部)と、フォーカスレンズ制御部320と、画像処理部330と、制御部340を含む。   The control device 300 controls each part of the endoscope device and performs image processing. The control device 300 includes an A / D conversion unit 310 (an image acquisition unit in a broad sense), a focus lens control unit 320, an image processing unit 330, and a control unit 340.

A/D変換部310によりデジタル信号に変換された画像信号は、画像処理部330に転送される。画像処理部330により処理された画像信号は、フォーカスレンズ制御部320と、表示部400に転送される。フォーカスレンズ制御部320は、焦点位置駆動部250に制御信号を転送することで、焦点調整レンズ240の位置を変更する。制御部340は、内視鏡装置の各部の制御を行う。具体的には制御部340は、回転駆動部130と、フォーカスレンズ制御部320と、画像処理部330の同期を行う。また、外部I/F部500に接続されており、外部I/F部500からの入力に基づき、フォーカスレンズ制御部320と、画像処理部330の制御を行う。   The image signal converted into a digital signal by the A / D conversion unit 310 is transferred to the image processing unit 330. The image signal processed by the image processing unit 330 is transferred to the focus lens control unit 320 and the display unit 400. The focus lens control unit 320 changes the position of the focus adjustment lens 240 by transferring a control signal to the focus position driving unit 250. The control unit 340 controls each unit of the endoscope apparatus. Specifically, the control unit 340 synchronizes the rotation driving unit 130, the focus lens control unit 320, and the image processing unit 330. The focus lens control unit 320 and the image processing unit 330 are controlled based on an input from the external I / F unit 500, which is connected to the external I / F unit 500.

表示部400は、動画表示可能な表示装置であり、例えばCRTや液晶モニター等により構成される。   The display unit 400 is a display device that can display a moving image, and includes, for example, a CRT or a liquid crystal monitor.

外部I/F部500は、内視鏡装置に対する術者からの入力等を行うためのインターフェースである。外部I/F部500は、例えば電源のオン/オフを行うための電源スイッチや、撮影モードやその他各種のモードを切り換えるためのモード切換ボタンなどを含む。外部I/F部500は、入力された情報を制御部340へ転送する。   The external I / F unit 500 is an interface for performing input from an operator to the endoscope apparatus. The external I / F unit 500 includes, for example, a power switch for turning on / off the power, a mode switching button for switching a photographing mode and other various modes. The external I / F unit 500 transfers the input information to the control unit 340.

図4に、本実施形態における画像処理部330の詳細な構成例を示す。画像処理部330は、前処理部331と、同時化部332と、後処理部333と、を含む。   FIG. 4 shows a detailed configuration example of the image processing unit 330 in the present embodiment. The image processing unit 330 includes a preprocessing unit 331, a synchronization unit 332, and a postprocessing unit 333.

A/D変換部310は、前処理部331に接続される。前処理部331は、同時化部332に接続される。同時化部332は、後処理部333と、フォーカスレンズ制御部320に接続される。後処理部333は、表示部400に接続される。制御部340は、前処理部331と、同時化部332と、後処理部333と、に接続されており、これらの制御を行う。   The A / D conversion unit 310 is connected to the preprocessing unit 331. The preprocessing unit 331 is connected to the synchronization unit 332. The synchronization unit 332 is connected to the post-processing unit 333 and the focus lens control unit 320. The post-processing unit 333 is connected to the display unit 400. The control unit 340 is connected to the pre-processing unit 331, the synchronization unit 332, and the post-processing unit 333, and performs these controls.

前処理部331は、A/D変換部310から入力される画像信号に対して、制御部340に予め保存されているOBクランプ値、ゲイン補正値、WB係数値を用いて、OBクランプ処理、ゲイン補正処理、WB補正処理を行う。前処理部331は、前処理後の画像信号を同時化部332へ転送する。   The preprocessing unit 331 uses the OB clamp value, gain correction value, and WB coefficient value stored in advance in the control unit 340 for the image signal input from the A / D conversion unit 310, Gain correction processing and WB correction processing are performed. The preprocessing unit 331 transfers the preprocessed image signal to the synchronization unit 332.

同時化部332は、前処理部331により処理された画像信号に対して、制御部340の制御信号に基づいて、面順次の画像信号を同時化する。具体的には、同時化部332は、面順次で入力された各色光(R或はG或はB)の画像信号を1フレーム分ずつ蓄積し、蓄積した各色光の画像信号を同時に読み出す。同時化部332は、同時化された画像信号を、後処理部333とフォーカスレンズ制御部320へ転送する。   The synchronizer 332 synchronizes the frame sequential image signal with the image signal processed by the preprocessor 331 based on the control signal of the controller 340. Specifically, the synchronizer 332 accumulates image signals of each color light (R, G, or B) input in frame order one frame at a time, and simultaneously reads the accumulated image signals of each color light. The synchronization unit 332 transfers the synchronized image signal to the post-processing unit 333 and the focus lens control unit 320.

後処理部333は、同時化後の画像信号に対して、制御部340に予め保存されている階調変換係数や色変換係数、輪郭強調係数を用いて、階調変換処理や色処理、輪郭強調処理を行う。後処理部333は、後処理後の画像信号を表示部400へ転送する。   The post-processing unit 333 uses the tone conversion coefficient, color conversion coefficient, and edge enhancement coefficient stored in advance in the control unit 340 for the image signal after synchronization, and performs tone conversion processing, color processing, and contour processing. Perform enhancement processing. The post-processing unit 333 transfers the post-processed image signal to the display unit 400.

図5に、本実施形態におけるフォーカスレンズ制御部320の詳細な構成例を示す。フォーカスレンズ制御部320は正対判定部321と、評価領域設定部322と、コントラスト値算出部323と、合焦位置検出部324と、焦点位置制御部325を含む。   FIG. 5 shows a detailed configuration example of the focus lens control unit 320 in the present embodiment. The focus lens control unit 320 includes a confrontation determination unit 321, an evaluation region setting unit 322, a contrast value calculation unit 323, a focus position detection unit 324, and a focus position control unit 325.

画像処理部330は、正対判定部321と、評価領域設定部322に接続される。正対判定部321は、焦点位置制御部325に接続される。評価領域設定部322は、コントラスト値算出部323に接続される。コントラスト値算出部323は、合焦位置検出部324に接続される。合焦位置検出部324は、焦点位置制御部325に接続される。焦点位置制御部325は、合焦位置検出部324と、焦点位置駆動部250に接続される。制御部340は、正対判定部321と、評価領域設定部322と、コントラスト値算出部323と、合焦位置検出部324と、焦点位置制御部325と、に接続されており、これらの制御を行う。   The image processing unit 330 is connected to the confrontation determination unit 321 and the evaluation area setting unit 322. The confrontation determination unit 321 is connected to the focal position control unit 325. The evaluation area setting unit 322 is connected to the contrast value calculation unit 323. The contrast value calculation unit 323 is connected to the focus position detection unit 324. The focus position detection unit 324 is connected to the focus position control unit 325. The focal position controller 325 is connected to the in-focus position detector 324 and the focal position driver 250. The control unit 340 is connected to the confrontation determination unit 321, the evaluation region setting unit 322, the contrast value calculation unit 323, the focus position detection unit 324, and the focus position control unit 325, and controls these I do.

正対判定部321は、画像処理部330から転送された画像信号に基づいて、被写体が撮像部200に正対しているか否かを判定する。正対判定部321は、被写体が撮像部200に正対していると判定した場合は、AF動作を開始する制御信号を、焦点位置制御部325に転送する。一方、被写体が撮像部200に正対していないと判定した場合は、AF動作を停止する制御信号を、焦点位置制御部325に転送する。正対判定部321が行う処理については、詳細に後述する。   The facing determination unit 321 determines whether the subject is facing the imaging unit 200 based on the image signal transferred from the image processing unit 330. When the facing determination unit 321 determines that the subject is facing the imaging unit 200, the facing determination unit 321 transfers a control signal for starting the AF operation to the focal position control unit 325. On the other hand, when it is determined that the subject does not face the imaging unit 200, a control signal for stopping the AF operation is transferred to the focal position control unit 325. The process performed by the facing determination unit 321 will be described later in detail.

評価領域設定部322は、画像処理部330から転送された画像信号に対して、コントラスト値を算出するための評価領域を設定する。ここでは図6に示すように、事前に設定した領域を評価領域として設定してもよいし、外部I/F部500から術者が評価領域に関する情報を入力し、これに基づいて画像に任意の評価領域を設定するようにしてもよい。その後、評価領域設定部322は、設定された評価領域情報と画像信号をコントラスト値算出部323に転送する。   The evaluation area setting unit 322 sets an evaluation area for calculating a contrast value for the image signal transferred from the image processing unit 330. Here, as shown in FIG. 6, an area set in advance may be set as an evaluation area, or an operator inputs information about the evaluation area from the external I / F unit 500, and an image is arbitrarily selected based on this information. The evaluation area may be set. Thereafter, the evaluation area setting unit 322 transfers the set evaluation area information and the image signal to the contrast value calculation unit 323.

コントラスト値算出部323は、評価領域情報と画像信号から、評価領域のコントラスト値を算出する。本実施形態では、評価領域設定部322から転送される画像信号は、任意のチャンネルに対してコントラスト値を算出すればよい。また、R,G,Bの3チャンネルの画素値から輝度信号を生成し、生成した輝度信号の画素値に対してコントラスト値を算出してもよい。ここでは例えばコントラスト値算出部323は、評価領域に含まれるすべての画素に対して任意のハイパスフィルター処理を行い、各画素のハイパスフィルター出力値をすべて加算することでコントラスト値を算出すればよい。また、コントラスト値算出部323は、例えば図7に示すようにハイパスフィルター処理を行う高域抽出部3232の前段に輝点除去部3231を備えるような構成としてもよい。ここで例えば輝点除去部3231は、評価領域に含まれるすべての画素における任意のチャンネルもしくは輝度信号の画素値に対して閾値処理を行い、画素値が閾値以上の場合は、輝点と判断して後段のハイパスフィルター処理の出力値を0とする制御信号を転送することで、輝点がコントラスト値に与える影響を低減することができる。その後、コントラスト値算出部323は合焦位置検出部324に評価領域のコントラスト値を転送する。   The contrast value calculation unit 323 calculates the contrast value of the evaluation area from the evaluation area information and the image signal. In this embodiment, the image signal transferred from the evaluation area setting unit 322 may calculate a contrast value for an arbitrary channel. Further, a luminance signal may be generated from pixel values of three channels of R, G, and B, and a contrast value may be calculated for the pixel value of the generated luminance signal. Here, for example, the contrast value calculation unit 323 may perform arbitrary high-pass filter processing on all the pixels included in the evaluation region, and calculate the contrast value by adding all the high-pass filter output values of each pixel. Further, the contrast value calculation unit 323 may be configured to include a bright spot removal unit 3231 before the high-frequency extraction unit 3232 that performs high-pass filter processing, for example, as illustrated in FIG. 7. Here, for example, the bright spot removal unit 3231 performs threshold processing on an arbitrary channel or pixel value of a luminance signal in all pixels included in the evaluation region, and determines that the pixel is a bright spot if the pixel value is equal to or greater than the threshold. By transferring a control signal for setting the output value of the subsequent high-pass filter processing to 0, the influence of the bright spot on the contrast value can be reduced. Thereafter, the contrast value calculation unit 323 transfers the contrast value of the evaluation region to the focus position detection unit 324.

合焦位置検出部324は、焦点位置制御部325から合焦位置を検出する制御信号が転送されると、コントラスト値算出部323から転送されたコントラスト値に基づき、合焦位置を検出する。ここで合焦位置とは、被写体にピントが合っていると考えられる焦点調整レンズ240の位置情報のことである。ここで合焦位置を検出するには、コントラスト値算出部323から順次転送されるコントラスト情報を用いて、コントラスト値のピークを検出する。合焦位置検出部324は、コントラスト値のピーク位置を合焦位置として焦点位置制御部325に転送する。   When the focus position detection unit 324 receives the control signal for detecting the focus position from the focus position control unit 325, the focus position detection unit 324 detects the focus position based on the contrast value transferred from the contrast value calculation unit 323. Here, the in-focus position is position information of the focus adjustment lens 240 that is considered to be in focus on the subject. Here, in order to detect the in-focus position, the contrast value peak is detected using the contrast information sequentially transferred from the contrast value calculation unit 323. The focus position detection unit 324 transfers the peak position of the contrast value to the focus position control unit 325 as the focus position.

焦点位置制御部325は、位置情報を焦点位置駆動部250に転送し、焦点調整レンズ240の位置を変更する。具体的には、焦点位置制御部325は、正対判定部321からAF動作を開始する制御信号が転送されると、合焦位置検出部324に合焦位置を検出する制御信号を転送する。さらに、公知の山登り法などのAF手法を用いて、焦点調整レンズ240の位置を少しずつ変位させるよう焦点位置駆動部250を制御する。焦点位置制御部325は、合焦位置検出部324から合焦位置情報が転送されると、焦点調整レンズ240を合焦位置に移動させ、AF動作を終了する。一方、焦点位置制御部325は、正対判定部321からAF動作を停止する制御信号が転送された場合は、制御部340に予め保存されている所定の位置に焦点調整レンズ240を移動するよう、焦点位置駆動部250を制御する。   The focus position control unit 325 transfers the position information to the focus position driving unit 250 and changes the position of the focus adjustment lens 240. Specifically, when the control signal for starting the AF operation is transferred from the facing determination unit 321, the focus position control unit 325 transfers a control signal for detecting the focus position to the focus position detection unit 324. Further, the focus position driving unit 250 is controlled so that the position of the focus adjustment lens 240 is gradually changed using an AF method such as a known hill-climbing method. When the focus position information is transferred from the focus position detection unit 324, the focus position control unit 325 moves the focus adjustment lens 240 to the focus position, and ends the AF operation. On the other hand, the focus position control unit 325 moves the focus adjustment lens 240 to a predetermined position stored in advance in the control unit 340 when a control signal for stopping the AF operation is transferred from the facing determination unit 321. The focal position driving unit 250 is controlled.

図8(A)〜図8(F)を用いて、被写体と撮像部の相対的な位置関係と、画像信号の関係について詳細に説明する。   The relative positional relationship between the subject and the image pickup unit and the relationship between the image signals will be described in detail with reference to FIGS.

図8(A)に示すように、管腔状の被写体(臓器)において病変をスクリーニングする場合、スコープを被写体と平行にし、スコープを挿入又は抜去しながら観察を行う。しかし、このように奥行きのある被写体に対してAF動作を行うと、術者の関心のある領域と合焦位置が一致するとは限らないため、AF動作は行わないことが望ましい。このときの画像信号は、図8(B)に示すように、画像の中心が暗く、画像周辺にいくほど明るい画像となる。一方、図8(C)に示すように、術者が被写体に関心のある領域が存在する場合、術者はスコープを被写体に近づけるため、スコープを被写体に正対する方向に傾ける。このような場合も、撮像部に対して被写体は奥行きをもつことから、AF動作は行わないことが望ましい。このときの画像信号は、図8(D)に示すように、画像の対角線上で明暗差のある画像となる。また、図8(E)に示すように、術者が被写体を精査する場合は、術者はスコープを被写体に対して正対させる。このような場合は、撮像部に対して被写体の奥行きが十分に小さくなることから、AF動作を行うことが望ましい。このときの画像信号は、図8(F)に示すように、画像の中心が明るく、画像周辺にいくほど暗い画像となる。   As shown in FIG. 8A, when a lesion is screened in a tubular subject (organ), observation is performed while the scope is parallel to the subject and the scope is inserted or removed. However, when the AF operation is performed on the subject having such depth, the focus position does not always coincide with the region in which the operator is interested, so it is desirable not to perform the AF operation. As shown in FIG. 8B, the image signal at this time is darker at the center of the image and becomes brighter toward the periphery of the image. On the other hand, as shown in FIG. 8C, when there is a region in which the surgeon is interested in the subject, the surgeon tilts the scope in a direction facing the subject in order to bring the scope closer to the subject. Even in such a case, since the subject has a depth with respect to the imaging unit, it is desirable not to perform the AF operation. As shown in FIG. 8D, the image signal at this time is an image having a contrast difference on the diagonal of the image. Also, as shown in FIG. 8E, when the surgeon examines the subject, the surgeon faces the scope to the subject. In such a case, it is desirable to perform the AF operation because the depth of the subject is sufficiently small with respect to the imaging unit. As shown in FIG. 8F, the image signal at this time becomes an image that is brighter at the center of the image and darker toward the periphery of the image.

図9に、本実施形態における正対判定部321の詳細な構成例を示す。正対判定部321は補正部3211と、低域抽出部3212と、分割部3213と、明るさ算出部3214と、比較部3215と、判定部3216を含む。   FIG. 9 shows a detailed configuration example of the confrontation determination unit 321 in the present embodiment. The confrontation determination unit 321 includes a correction unit 3211, a low frequency extraction unit 3212, a division unit 3213, a brightness calculation unit 3214, a comparison unit 3215, and a determination unit 3216.

補正部3211は、画像処理部330から転送された画像信号に対して、光学系のシェーディングを補正する。一般的に、内視鏡の光学系は、画像の中心から離れるほど暗くなるシェーディング特性を有する。ここでは、制御部340に予め保存されているゲインマップを、画像信号に乗算することで、シェーディング補正を行う。シェーディン補正に用いるゲインマップを図10に示す。また、図8(B)等で示した各画像信号に対して、シェーディング補正を施した画像信号を図11(A)〜図11(C)に示す。管腔状の被写体に対して撮像部200が平行に位置する場合は、図11(A)に示すように、画像信号の明暗差は、補正前に比べて大きくなる。また、被写体が撮像部200に対して斜めに位置する場合は、図11(B)に示すように、画像信号の明暗差は解消されない。一方、被写体が撮像部200に正対している場合は、図11(C)に示すように、画像信号の明るさは均一になる。シェーディング補正後の画像信号は、低域抽出部3212に転送される。   The correction unit 3211 corrects the shading of the optical system for the image signal transferred from the image processing unit 330. In general, an optical system of an endoscope has a shading characteristic that becomes darker as the distance from the center of an image increases. Here, shading correction is performed by multiplying the image signal by a gain map stored in advance in the control unit 340. A gain map used for shading correction is shown in FIG. Further, FIG. 11 (A) to FIG. 11 (C) show image signals obtained by performing shading correction on the image signals shown in FIG. When the imaging unit 200 is positioned in parallel with a tubular subject, as shown in FIG. 11A, the contrast of the image signal is larger than before the correction. Further, when the subject is located obliquely with respect to the imaging unit 200, as shown in FIG. 11B, the brightness difference of the image signal is not eliminated. On the other hand, when the subject faces the imaging unit 200, the brightness of the image signal is uniform as shown in FIG. The image signal after the shading correction is transferred to the low-frequency extraction unit 3212.

低域抽出部3212は、補正部3211から転送された画像信号に対して低周波成分を抽出する。ここでは、画像信号に対してローパスフィルターを施すことで、画像信号の低周波成分を抽出する。具体的には、画像信号に対してガウシアンフィルターを施す。図11で示した各画像信号に対して、低周波成分を抽出した画像信号を図12(A)〜図12(C)に示す。低周波成分を抽出した画像信号は、画像信号に含まれる(例えば血管のような)微細な構造が除かれ、被写体の明るさ分布を示す画像となる。ここでは、低周波成分を抽出する処理としてガウシアンフィルターを施したが、これに限らず、例えば、平均化フィルターやメディアンフィルター等の公知の平滑化フィルターを用いてもよい。また、画像信号を縮小することで高周波成分を除去し、縮小した画像信号を元の大きさに拡大することで低周波成分を抽出してもよい。低周波成分を抽出した画像信号は、分割部3213に転送される。   The low frequency extraction unit 3212 extracts a low frequency component from the image signal transferred from the correction unit 3211. Here, a low frequency component of the image signal is extracted by applying a low pass filter to the image signal. Specifically, a Gaussian filter is applied to the image signal. Image signals obtained by extracting low-frequency components from the image signals shown in FIG. 11 are shown in FIGS. The image signal from which the low-frequency component has been extracted becomes an image showing the brightness distribution of the subject from which fine structures (such as blood vessels) included in the image signal are removed. Here, the Gaussian filter is applied as the process of extracting the low-frequency component. However, the present invention is not limited to this. For example, a known smoothing filter such as an averaging filter or a median filter may be used. Alternatively, the high-frequency component may be removed by reducing the image signal, and the low-frequency component may be extracted by expanding the reduced image signal to the original size. The image signal from which the low frequency component has been extracted is transferred to the dividing unit 3213.

分割部3213は、低域抽出部3212から転送された画像信号を領域分割する。具体的には、図13に示すように、画像信号を画像中心領域と、その外周に位置する領域とで、9分割する。ここでは、分割する領域を9分割としたが、これに限らず、5分割や17分割としてもよい。領域分割された画像信号は、明るさ算出部3214に転送される。   The dividing unit 3213 divides the image signal transferred from the low-frequency extracting unit 3212 into regions. Specifically, as shown in FIG. 13, the image signal is divided into nine parts, an image center region and a region located on the outer periphery thereof. Here, the area to be divided is nine divisions, but is not limited thereto, and may be five divisions or 17 divisions. The region-divided image signal is transferred to the brightness calculation unit 3214.

明るさ算出部3214は、分割部3213から転送された画像信号の各領域について明るさを算出する。具体的には、各領域に含まれる画素(x,y)の輝度値Y(x,y)を平均した値を、領域の明るさYとして算出する。ここでは、図14に示すように、領域iの明るさをYiと表記する。算出した各領域の明るさYiは比較部3215に転送される。   The brightness calculation unit 3214 calculates the brightness for each area of the image signal transferred from the dividing unit 3213. Specifically, a value obtained by averaging the luminance values Y (x, y) of the pixels (x, y) included in each area is calculated as the brightness Y of the area. Here, as shown in FIG. 14, the brightness of the region i is expressed as Yi. The calculated brightness Yi of each region is transferred to the comparison unit 3215.

比較部3215は、明るさ算出部3214から転送された明るさYiを比較することで、領域間の明暗差の最大値を算出する。具体的には、まず下式(1)に示すように画像中心と周辺の明暗差D1を算出する。   The comparison unit 3215 compares the brightness Yi transferred from the brightness calculation unit 3214 to calculate the maximum value of the contrast between regions. Specifically, first, the contrast D1 between the center of the image and the periphery is calculated as shown in the following equation (1).

続いて、下式(2)に示すように画像周辺の対角方向の明暗差D2〜D5を算出する。   Subsequently, as shown in the following equation (2), contrast differences D2 to D5 in the diagonal direction around the image are calculated.

上式(2)において、abs(A)は、Aの絶対値を返す関数である。その後、各領域間の明暗差D1〜D5の最大値Dmaxを算出する。ここで、管腔状の被写体に対して撮像部200が平行に位置する場合は、図15(A)に示すように、画像中心と周辺の明暗差が最大値Dmaxとなる。また、被写体が撮像部200に対して斜めに位置する場合は、図15(B)に示すように、対角方向の明暗差が最大値Dmaxとなる。一方、被写体が撮像部200に正対している場合は、図15(C)に示すように、明暗差D1〜D5のいずれかが最大値Dmaxとなるが、最大値Dmaxの値は図15(A)、図15(B)の場合に比べ十分に小さな値となる。明暗差の最大値Dmaxは、判定部3216に転送される。   In the above equation (2), abs (A) is a function that returns the absolute value of A. Thereafter, the maximum value Dmax of the light / dark differences D1 to D5 between the regions is calculated. Here, when the imaging unit 200 is positioned in parallel to the luminal subject, as shown in FIG. 15A, the contrast between the image center and the periphery becomes the maximum value Dmax. Further, when the subject is located obliquely with respect to the imaging unit 200, as shown in FIG. 15B, the contrast difference in the diagonal direction becomes the maximum value Dmax. On the other hand, when the subject is directly facing the imaging unit 200, as shown in FIG. 15C, one of the light and dark differences D1 to D5 has the maximum value Dmax, but the maximum value Dmax is the value of FIG. A) and a sufficiently small value as compared with the case of FIG. The maximum value Dmax of the light / dark difference is transferred to the determination unit 3216.

判定部3216は、比較部3215から転送された明暗差の最大値Dmaxに基づき、被写体が撮像部に対して正対しているか否かの判定を行う。具体的には、明暗差の最大値Dmaxが制御部340に予め保存されている閾値ThDより小さい場合、被写体は撮像部200に正対していると判定する。判定部3216は、被写体が撮像部200に正対していない状態から正対している状態へ変わった場合、焦点位置制御部325にAF動作を開始する制御信号を転送する。一方、判定部3216は、被写体が撮像部に正対している状態から正対していない状態へ変わった場合、焦点位置制御部325にAF動作を停止する制御信号を転送する。ここで、AF動作を安定して行うため、被写体の状態が変わってから、数フレームその状態が保持された場合に、制御信号を転送してもよい。   The determination unit 3216 determines whether or not the subject is facing the imaging unit based on the maximum value Dmax of the contrast difference transferred from the comparison unit 3215. Specifically, when the maximum value Dmax of the contrast difference is smaller than the threshold value ThD stored in advance in the control unit 340, it is determined that the subject is facing the imaging unit 200. The determination unit 3216 transfers a control signal for starting the AF operation to the focus position control unit 325 when the subject changes from the state where the subject is not facing the imaging unit 200 to the state where the subject is facing the imaging unit 200. On the other hand, the determination unit 3216 transfers a control signal for stopping the AF operation to the focus position control unit 325 when the subject changes from the state facing the imaging unit to the state not facing the imaging unit. Here, in order to stably perform the AF operation, the control signal may be transferred when the state of the subject is changed and the state is maintained for several frames.

以上のように、本実施形態では、画像信号から撮像部が被写体に正対しているか否かの判定を行い、撮像部が被写体に正対していると判定した場合は、AF動作を開始する。一方、撮像部が被写体に正対していないと判定した場合は、AF動作を停止する。これにより、術者はAF動作の開始/停止の操作を行う必要がなく、シーンに応じた好適な画像を得ることができる。   As described above, in the present embodiment, it is determined whether or not the imaging unit is facing the subject from the image signal. If it is determined that the imaging unit is facing the subject, the AF operation is started. On the other hand, when it is determined that the imaging unit is not facing the subject, the AF operation is stopped. Thereby, the surgeon does not need to perform the start / stop operation of the AF operation, and can obtain a suitable image according to the scene.

なお、以上ではAFの動作としてシングルAFを想定していたが、これに限定されるものではなく、例えばAFの動作としてコンティニュアスAFを用いてもよい。この場合、全体構成は上述の場合と同様であるが、フォーカスレンズ制御部320の動作が異なる。   In the above description, the single AF is assumed as the AF operation. However, the present invention is not limited to this. For example, the continuous AF may be used as the AF operation. In this case, the overall configuration is the same as that described above, but the operation of the focus lens control unit 320 is different.

焦点位置制御部325は、正対判定部321からAF動作を開始する制御信号が転送された場合は、コンティニアスAFを開始する。一方、焦点位置制御部325は、正対判定部321からAF動作を停止する制御信号が転送された場合は、制御部340に予め保存されている所定の位置に焦点調整レンズ240を移動するよう、焦点位置駆動部250を制御する。   When the control signal for starting the AF operation is transferred from the facing determination unit 321, the focal position control unit 325 starts the continuous AF. On the other hand, the focus position control unit 325 moves the focus adjustment lens 240 to a predetermined position stored in advance in the control unit 340 when a control signal for stopping the AF operation is transferred from the facing determination unit 321. The focal position driving unit 250 is controlled.

以下に、本実施形態のコンティニアスAFの流れを記載する。ここで、ウォブリング時の往復幅を±dwとし、焦点調整レンズ240の移動幅(焦点位置の更新値)をdnとして説明する。まず、焦点位置制御部325が、焦点位置駆動部250を介して、焦点調整レンズ240の焦点位置をds−dwに変更する(dsは焦点調整レンズ240の初期位置)。また、焦点位置制御部325は、焦点調整レンズ240の位置情報ds−dwを、合焦位置検出部324に転送する。そして、コントラスト値算出部323が、コントラスト値C-dwを算出する。算出したコントラスト値C-dwを、合焦位置検出部324に転送する。次に、焦点位置制御部325が、焦点位置駆動部250を介して、焦点調整レンズ240の焦点位置をds+dwに変更する。また、焦点位置制御部325は、焦点調整レンズ240の位置情報ds+dwを、合焦位置検出部324に転送する。そして、コントラスト値算出部323が、コントラスト値C+dwを算出する。算出したコントラスト値C+dwを、合焦位置検出部324に転送する。 Below, the flow of the continuous AF of this embodiment is described. Here, the reciprocal width during wobbling is assumed to be ± dw, and the movement width of the focus adjustment lens 240 (update value of the focal position) is assumed to be dn. First, the focus position control unit 325 changes the focus position of the focus adjustment lens 240 to ds−dw via the focus position drive unit 250 (ds is the initial position of the focus adjustment lens 240). Further, the focus position control unit 325 transfers the position information ds-dw of the focus adjustment lens 240 to the focus position detection unit 324. Then, the contrast value calculation unit 323 calculates the contrast value C- dw . The calculated contrast value C -dw is transferred to the focus position detection unit 324. Next, the focal position control unit 325 changes the focal position of the focus adjustment lens 240 to ds + dw via the focal position driving unit 250. Further, the focus position control unit 325 transfers the position information ds + dw of the focus adjustment lens 240 to the focus position detection unit 324. Then, the contrast value calculation unit 323 calculates the contrast value C + dw . The calculated contrast value C + dw is transferred to the in-focus position detection unit 324.

-dw及びC+dwを算出したら、合焦位置検出部324は、焦点位置制御部325から転送された位置情報と、コントラスト値算出部323から転送されたコントラスト値に基づき、焦点位置の初期値dsを以下の条件に従って更新する。C-dw>C+dwの場合にはdsの値をdnだけ小さくし、C+dw>C-dwの場合にはdsの値をdnだけ大きくする。 After calculating C −dw and C + dw , the focus position detection unit 324 determines the initial focus position based on the position information transferred from the focus position control unit 325 and the contrast value transferred from the contrast value calculation unit 323. The value ds is updated according to the following conditions. If C -dw > C + dw , the value of ds is decreased by dn, and if C + dw > C -dw , the value of ds is increased by dn.

更新された焦点調整レンズ240の初期位置dsからウォブリング時の往復幅dwを減算した、焦点位置をds−dwを焦点位置制御部325に転送する。その後、同様の処理を繰り返す。   The reciprocating width dw at the time of wobbling is subtracted from the updated initial position ds of the focus adjustment lens 240, and the focus position ds−dw is transferred to the focus position control unit 325. Thereafter, similar processing is repeated.

なお、上述のdw及びdnの値は、予め一定の値を設定しておいても良いし、外部I/F部500よりユーザーが任意の値を設定する構成としても良い。   Note that the above-described values of dw and dn may be set in advance, or the user may set arbitrary values from the external I / F unit 500.

また、コンティニュアスAFを行う場合には、正対判定部321の動作も異なり、コンティニアスAFのため正対している間は常にAF動作を行う制御信号を送ることになる。判定部3216は、被写体が撮像部200に正対していると判定した場合、焦点位置制御部325にAF動作を開始する制御信号を転送する。一方、判定部3216は、被写体が撮像部に正対していないと判定した場合、焦点位置制御部325にAF動作を停止する制御信号を転送する。   In addition, when performing continuous AF, the operation of the confrontation determination unit 321 is also different, and a control signal for performing the AF operation is always sent during the confrontation for continuous AF. When the determination unit 3216 determines that the subject is directly facing the imaging unit 200, the determination unit 3216 transfers a control signal for starting the AF operation to the focus position control unit 325. On the other hand, when the determination unit 3216 determines that the subject is not directly facing the imaging unit, the determination unit 3216 transfers a control signal for stopping the AF operation to the focus position control unit 325.

なお、本実施形態にかかる焦点位置制御装置で制御される撮像光学系は、ズームレンズを動作させることにより、画角(撮像倍率)を変化させると同時にフォーカスの調整も行うレンズ一群駆動のものを想定している。ただし、これに限定されるものではなく、ズームレンズとフォーカスレンズの位置を独立に調整可能なレンズ二群駆動の撮像光学系を用いてもよい。   The imaging optical system controlled by the focal position control apparatus according to the present embodiment is a lens group driving type that changes the angle of view (imaging magnification) and adjusts the focus at the same time by operating the zoom lens. Assumed. However, the present invention is not limited to this, and an imaging optical system driven by two lens groups that can independently adjust the positions of the zoom lens and the focus lens may be used.

以上の本実施形態では、焦点位置制御装置は、撮像光学系(図1における対物レンズ230及び焦点調整レンズ240等を含む)を介した体内被写体の像を含む体内画像を取得する画像取得部(図1におけるA/D変換部310に相当)と、体内画像に基づいて、撮像時の撮像光学系の撮像方向に対する体内被写体の状況情報を判定する判定部(図5における正対判定部321や図18における静止判定部326に相当)と、判定部における判定結果に基づいて撮像光学系の焦点位置を制御する焦点位置制御部325(図5)を含む。   In the above-described embodiment, the focal position control apparatus acquires an in-vivo image including an in-vivo subject image via the imaging optical system (including the objective lens 230 and the focus adjustment lens 240 in FIG. 1) ( 1) and a determination unit that determines the status information of the in-vivo subject with respect to the imaging direction of the imaging optical system at the time of imaging based on the in-vivo image (a directivity determination unit 321 in FIG. 5). 18) and a focal position control unit 325 (FIG. 5) that controls the focal position of the imaging optical system based on the determination result in the determination unit.

ここで、撮像光学系の撮像方向とは、撮像光学系を用いて撮像している方向のことであり、撮像光学系の光軸方向であってもよい。また、撮像方向に対する体内被写体の状況情報とは、撮像方向に対して体内被写体がどのような状況にあるかを表す情報である。よって、撮像方向に依存しない体内被写体の状態(例えば、病変部を含むか否か、或いは血管構造が集中しているか否か等の状態)は、本実施形態における状況情報には含まれない。ただし、病変部等の情報は必ずしも状況情報に含まれないものではなく、例えば撮像方向に応じて病変部の大きさや形状が変化し、当該変化に基づいて焦点位置制御に必要な判定が行えるのであれば、病変部の情報が状況情報に含まれることもあり得る。   Here, the imaging direction of the imaging optical system is a direction in which imaging is performed using the imaging optical system, and may be the optical axis direction of the imaging optical system. Further, the status information of the in-vivo subject with respect to the imaging direction is information indicating the status of the in-vivo subject with respect to the imaging direction. Therefore, the state information of the in-vivo subject that does not depend on the imaging direction (for example, whether or not a lesion is included or whether or not the blood vessel structure is concentrated) is not included in the situation information in this embodiment. However, information such as the lesion is not necessarily included in the situation information. For example, the size and shape of the lesion changes according to the imaging direction, and the determination necessary for focal position control can be performed based on the change. If so, information on the lesion may be included in the situation information.

これにより、撮像光学系の撮像方向に対する体内被写体の状況情報に基づいて、撮像光学系の焦点位置を制御することが可能になる。焦点位置の制御とは、具体的には後述するように体内被写体に焦点を合わせる動作(AF動作)であってもよい。この場合には、AF動作を状況情報に応じて制御することが可能になり、適切な状況においてAFを動作させることができる。上述したように、図8(A)のような状況では、体内画像(撮像画像)の画像上位置に応じて、撮像光学系から被写体までの距離が大きく異なることになる。その場合には、AFを動作させたとしても体内画像の一部にしかピントが合わず、ユーザーの観察したい領域がぼけてしまう可能性がある。よって、AFは常に動作させるのではなく、状況情報に基づいてAFが効果的な状況であると判定された場合に動作させるようにするとよい。   Thereby, it becomes possible to control the focal position of the imaging optical system based on the status information of the in-vivo subject with respect to the imaging direction of the imaging optical system. Specifically, the control of the focal position may be an operation for focusing on the in-vivo subject (AF operation) as described later. In this case, the AF operation can be controlled according to the situation information, and the AF can be operated in an appropriate situation. As described above, in the situation shown in FIG. 8A, the distance from the imaging optical system to the subject varies greatly depending on the position of the in-vivo image (captured image) on the image. In that case, even if the AF is operated, only a part of the in-vivo image is focused, and there is a possibility that an area that the user wants to observe is blurred. Therefore, the AF is not always operated, but may be operated when it is determined that the AF is an effective situation based on the situation information.

また、判定部は、撮像光学系の撮像方向に対する体内被写体の姿勢情報、及び、撮像光学系の撮像方向に対する体内被写体の動き情報の少なくとも一方を、体内被写体の状況情報として判定してもよい。   The determination unit may determine at least one of posture information of the in-vivo subject with respect to the imaging direction of the imaging optical system and movement information of the in-vivo subject with respect to the imaging direction of the imaging optical system as the status information of the in-vivo subject.

ここで姿勢情報とは、例えば撮像方向に対して、体内被写体(撮像対象となる生体の表面)がなす角度等を表す情報であってもよい。例えば、図8(A)は撮像方向に対して体内被写体が平行な姿勢である状況であり、図8(B)は撮像方向に対して体内被写体が斜めの姿勢を取っている。図8(C)は撮像方向に対して体内被写体が垂直或いはそれに近い姿勢を取っている(後述するように、この状態を「正対している」と呼ぶ)。このような姿勢の違いを表す情報が姿勢情報である。また、動き情報とは、撮像光学系と体内被写体の相対的な動きを、撮像方向に関連づけて表した情報である。具体的には動きの方向と動きの量を表す情報等が考えられる。その際には撮像方向を基準方向として、当該基準方向に対する方向として、動きの方向を表現することになる。   Here, the posture information may be information representing, for example, an angle formed by an in-vivo subject (a surface of a living body to be imaged) with respect to an imaging direction. For example, FIG. 8A illustrates a situation where the in-vivo subject is parallel to the imaging direction, and FIG. 8B illustrates an in-vivo subject that is oblique to the imaging direction. In FIG. 8C, the in-vivo subject is in a vertical or close posture with respect to the imaging direction (this state is referred to as “facing” as will be described later). Information representing such a difference in posture is posture information. The movement information is information that represents the relative movement between the imaging optical system and the in-vivo subject in association with the imaging direction. Specifically, information indicating the direction of movement and the amount of movement can be considered. In that case, the direction of motion is expressed as the direction relative to the reference direction with the imaging direction as the reference direction.

これにより、体内被写体の状況情報として、具体的に姿勢情報及び動き情報の少なくとも一方を用いることが可能になる。つまり、本実施形態においては、状況情報として撮像光学系と体内被写体の相対的な位置関係情報(位置関係そのものの情報であってもよいし、位置関係の変化を表す情報であってもよい)を用いる。図8(A)等を用いて上述したように、焦点位置の制御(特にAF動作)が効果的であるか否かは、位置関係情報に応じて決まることが想定されるため、状況情報として位置関係情報を用いることで、状況に応じた適切な焦点位置制御が可能となる。   This makes it possible to specifically use at least one of posture information and motion information as the status information of the in-vivo subject. That is, in the present embodiment, the relative positional relationship information between the imaging optical system and the in-vivo subject (situation information itself or information indicating a change in positional relationship) may be used as the situation information. Is used. As described above with reference to FIG. 8A and the like, it is assumed that whether or not the focus position control (especially the AF operation) is effective is determined according to the positional relationship information. By using the positional relationship information, it is possible to control the focal position appropriately according to the situation.

また、判定部は、体内被写体が撮像光学系に正対しているか否かに関する情報を、上述した姿勢情報として用いて判定を行う正対判定部321を含んでもよい。そして焦点位置制御部325は、正対判定部321における判定結果に基づいて、撮像光学系の焦点位置を制御する。   The determination unit may include a confrontation determination unit 321 that performs determination using information regarding whether or not the in-vivo subject is directly facing the imaging optical system as the above-described posture information. Then, the focal position control unit 325 controls the focal position of the imaging optical system based on the determination result in the facing determination unit 321.

ここで、体内被写体が撮像光学系に正対しているとは、撮像光学系の撮像方向(光軸方向)と、体内被写体(例えば、生体表面を平面と見なせるのであれば当該平面)とが直交する状態を表すものとする。ただし、必ずしも直交している状態に限定されるものではなく、所与の角度閾値をx(°)とした場合に、撮像方向と体内被写体のなす角度が90±x(°)の範囲に収まっていれば、正対していると判定してもよい。角度閾値xは、システムにより決定されてもよいし、外部I/F部500等からユーザーが入力してもよい。なお本実施形態では、上述したように分割された領域ごとの明るさ情報を用いて正対しているか否かの判定を行っており、判定に用いられる閾値は明るさ情報により表される値の差分値に関するものである。つまり、本実施形態の焦点位置制御装置においては、上述の角度閾値xを用いないケースも十分考えられることになるが、その場合にも、正対しているか否かは、撮像方向と体内被写体が直交或いは直交に近い角度状態にあるか否かに基づいて判定されることに変わりはない。   Here, that the in-vivo subject is directly facing the imaging optical system means that the imaging direction (optical axis direction) of the imaging optical system is orthogonal to the in-vivo subject (for example, the plane if the surface of the living body can be regarded as a plane). It represents the state to do. However, it is not necessarily limited to the orthogonal state, and when the given angle threshold value is x (°), the angle formed by the imaging direction and the in-vivo subject is within the range of 90 ± x (°). If so, it may be determined that they are facing each other. The angle threshold value x may be determined by the system, or may be input by the user from the external I / F unit 500 or the like. In this embodiment, as described above, it is determined whether or not it is facing directly using the brightness information for each divided area, and the threshold value used for the determination is a value represented by the brightness information. It is related to the difference value. That is, in the focal position control apparatus of the present embodiment, a case where the above-described angle threshold value x is not used can be considered sufficiently. In this case as well, whether the imaging direction and the in-vivo subject are correct or not are determined. It is still determined that the determination is based on whether or not the angle is orthogonal or close to orthogonal.

これにより、体内被写体が撮像光学系に正対していると判定されたか否かに基づいて、撮像光学系の焦点位置の制御を行うことが可能になる。図8(A)等の例で言えば、図8(A)及び図8(C)の状態は正対していないと判定され、図8(E)の状態は正対していると判定される。各図において2本の点線の内側に対応する領域が体内画像として撮像されることに鑑みれば、正対している場合には正対していない場合に比べて、体内画像上の画素位置に応じた被写体までの距離の差が小さくなる。つまり、正対している場合には体内画像の広い領域にピントを合うのに対し、正対していない場合には体内画像の狭い領域にしかピントが合わないことが想定される。よって、このような状況の差に応じて適切に焦点位置を制御することで、ユーザーにとって見やすい画像を提供することが可能になる。   Accordingly, it becomes possible to control the focal position of the imaging optical system based on whether or not it is determined that the in-vivo subject is facing the imaging optical system. In the example of FIG. 8A and the like, it is determined that the states of FIG. 8A and FIG. 8C are not facing each other, and the state of FIG. . In view of the fact that the region corresponding to the inside of the two dotted lines in each figure is captured as an in-vivo image, it corresponds to the pixel position on the in-vivo image compared to the case where it is not facing, The difference in distance to the subject is reduced. That is, it is assumed that when the camera is facing the camera, a wide area of the in-vivo image is focused, whereas when the camera is not facing the camera, only the narrow area of the in-vivo image is focused. Therefore, it is possible to provide an image that is easy for the user to view by appropriately controlling the focal position according to such a difference in situation.

また、焦点位置制御部325は、正対判定部321において体内被写体が撮像光学系に正対していると判定された場合には、体内被写体に対して焦点を合わせる動作(合焦動作)を開始してもよい。また、体内被写体が撮像光学系に正対していないと判定された場合には、合焦動作を停止して、撮像光学系(具体的には撮像光学系に含まれるズームレンズ等)を所与の位置に移動させてもよい。   In addition, the focus position control unit 325 starts an operation for focusing on the in-vivo subject (focusing operation) when it is determined by the confrontation determination unit 321 that the in-vivo subject is facing the imaging optical system. May be. When it is determined that the in-vivo subject is not directly facing the imaging optical system, the focusing operation is stopped and an imaging optical system (specifically, a zoom lens included in the imaging optical system) is given. It may be moved to the position.

ここで、正対していない場合に撮像光学系が移動される所与の位置とは、システムによって決定されてもよいし、外部I/F部500等からユーザーが入力してもよい。正対していない場合とは図8(A)のようなケースであり、内視鏡装置を用いたスクリーニング等の状況であることが想定される。この場合、上述したように近い被写体から遠い被写体まで撮像しており、画像上位置に応じた被写体距離差が大きいため、パンフォーカスが必要になる。また、スクリーニングであればズーム倍率はそれほど必要とされない。つまり、撮像光学系を所与の位置に移動させる処理の一例としては、パンフォーカス及び低倍率を実現する位置への移動であり、レンズ一群駆動であれば、ズームレンズ(図1における焦点調整レンズ240に対応)の位置をある程度望遠側(例えば望遠端)に移動させる処理となる。なお、所与の位置に移動されるのはズームレンズに限定されるものではなく、ズームレンズ位置を移動させるとともに、撮像光学系に含まれる他のレンズを移動させてもよい。レンズ二群駆動であれば、ズームレンズとは独立してフォーカスレンズ位置を制御することで、焦点位置を制御することができる。上述したスクリーニング等の場合には、病変部等を発見するためにある程度広い範囲を撮像することが想定され、撮像光学系と体内被写体との距離は、拡大観察時等に比べて大きくなる。よって、ズームレンズ位置の移動により被写界深度を広くしたとしても、当該被写界深度が撮像光学系に近い位置に設定されていたのでは、被写体にピントが合わず観察が困難になる可能性がある。このようなケースに対応するために、レンズ二群駆動ではズームレンズ位置を移動させるとともに、フォーカスレンズ位置も移動させ、撮像光学系からある程度離れた位置に被写界深度を設定するとよい。   Here, the given position to which the imaging optical system is moved when not facing each other may be determined by the system, or may be input by the user from the external I / F unit 500 or the like. The case where it is not facing is a case as shown in FIG. 8A, and it is assumed that the situation is such as screening using an endoscope apparatus. In this case, as described above, an image is taken from a near subject to a far subject, and the subject distance difference according to the position on the image is large, so that pan focus is necessary. Further, in the case of screening, the zoom magnification is not so necessary. That is, as an example of the process of moving the imaging optical system to a given position, it is a movement to a position that realizes pan focus and low magnification. If the lens group is driven, a zoom lens (the focus adjustment lens in FIG. This corresponds to a process of moving the position corresponding to 240 to the telephoto side (for example, the telephoto end) to some extent. The movement to a given position is not limited to the zoom lens, and the zoom lens position may be moved, and another lens included in the imaging optical system may be moved. In the case of lens two-group drive, the focus position can be controlled by controlling the focus lens position independently of the zoom lens. In the case of the above-described screening or the like, it is assumed that a certain wide range is imaged in order to find a lesioned part or the like, and the distance between the imaging optical system and the in-vivo subject is larger than that during magnified observation or the like. Therefore, even if the depth of field is increased by moving the zoom lens position, if the depth of field is set to a position close to the imaging optical system, the subject may not be in focus and observation may be difficult There is sex. In order to deal with such a case, in the second lens group driving, the zoom lens position is moved, the focus lens position is also moved, and the depth of field is set to a position somewhat away from the imaging optical system.

これにより、正対しているか否かに応じて、撮像している体内被写体への合焦動作を制御する(つまり、AFの制御に相当する)ことが可能になる。上述したように、図8(A)のような状況では、AFを実行したとしても画像上の一部領域にしかピントが合わないところ、ユーザーの観察したい領域を画像から判定すること等は困難であることからAFを実行しても効果的でない。つまり、正対しているか否かの判定に基づいてAFの動作を制御することで、AFが有効な状況においてはAFを動作させ、AFが有効でない状況においてはAFを動作させないことが可能になり、ユーザーの観察(内視鏡装置を用いた診断等)をスムーズにすることができる。   This makes it possible to control the focusing operation on the in-vivo subject being imaged (that is, corresponding to AF control) depending on whether or not the camera is directly facing. As described above, in the situation shown in FIG. 8A, even if AF is performed, only a partial area on the image is in focus, so it is difficult to determine the area that the user wants to observe from the image. Therefore, even if AF is executed, it is not effective. In other words, by controlling the AF operation based on the determination of whether or not the camera is facing, it is possible to operate the AF when the AF is effective, and not to operate the AF when the AF is not effective. The user's observation (such as diagnosis using an endoscope apparatus) can be made smooth.

また、正対判定部321は、体内画像の画像信号に基づいて、明るさ情報を算出する明るさ算出部3214を含んでもよい。そして、正対判定部321は、明るさ情報に基づいて、体内被写体が撮像光学系に正対しているか否かの判定を行う。   The facing determination unit 321 may include a brightness calculation unit 3214 that calculates brightness information based on the image signal of the in-vivo image. Then, the facing determination unit 321 determines whether or not the in-vivo subject is facing the imaging optical system based on the brightness information.

ここで、明るさ情報とは、画像信号に含まれる画素の輝度値に基づいて求められる値であるが、これに限定されるものではない。R,G,Bの3チャンネルを用いるのであれば、どれか1つのチャンネルの画素値に基づいて求められてもよいし、他の手法により求められてもよい。   Here, the brightness information is a value obtained based on the luminance value of the pixel included in the image signal, but is not limited thereto. If three channels of R, G, and B are used, it may be obtained based on the pixel value of any one channel, or may be obtained by another method.

これにより、正対しているか否かの判定を画像信号の明るさ情報に基づいて行うことが可能になる。上述したように、正対している状態とは、撮像方向と体内被写体が直交或いはそれに近い(所与の角度範囲内にある)場合を指すものとするが、撮像方向と体内被写体のなす角度を実際に求めることは困難である。明るさ情報を用いることで、厳密な角度の値を求めることなく、撮像方向(光軸)と体内被写体との位置関係を推定することが可能になるため、処理を容易にすることができる。   As a result, it is possible to determine whether or not they are facing each other based on the brightness information of the image signal. As described above, the state of facing directly refers to the case where the imaging direction and the in-vivo subject are orthogonal or close to each other (within a given angle range). It is difficult to actually ask. By using the brightness information, it is possible to estimate the positional relationship between the imaging direction (optical axis) and the in-vivo subject without obtaining a strict angle value, thereby facilitating processing.

また、正対判定部321は、体内画像を複数の領域に分割する分割部3213を含んでもよい。そして明るさ算出部3214は、分割された領域ごとに明るさ情報を算出する。正対判定部321は、領域ごとに算出された明るさ情報に基づいて、体内被写体が撮像光学系に正対しているか否かの判定を行う。   The facing determination unit 321 may include a dividing unit 3213 that divides the in-vivo image into a plurality of regions. The brightness calculation unit 3214 calculates brightness information for each divided area. The facing determination unit 321 determines whether the in-vivo subject is facing the imaging optical system based on the brightness information calculated for each region.

ここで、分割部3213における体内画像の分割は、例えば図13に示したような9領域への分割が考えられる。また、9領域に限定されるものではなく、異なる分割を行ってもよい。   Here, the division of the in-vivo image in the dividing unit 3213 may be, for example, divided into nine regions as shown in FIG. Moreover, it is not limited to 9 areas, You may perform different division | segmentation.

これにより、体内画像を複数の領域に分割した上で明るさ情報を求め、正対判定に用いることが可能になる。図12(A)〜図12(C)に示したように、正対しているか否かによって、体内画像における明るさの分布傾向が変化する。なお、図12(A)〜図12(C)は、図10のゲインマップによる処理や、低域抽出処理が行われた後のものである。正対している場合には、図12(C)のように明るさは均一に近くなるのに対して、正対していない場合には、図12(A)のように、中心と周縁で明るさが大きく異なったり、図12(B)のように、上部と下部で明るさが大きく異なったりする(図12(B)については左右、或いは斜め方向における明るさの差であってもよい)。つまり、正対しているか否かの判定は、体内画像上のある領域と、他の領域との明るさ情報の差分値を見ればよいことになり、実際の手法としては分割部3213による領域分割を行うことになる。   Thereby, it is possible to obtain brightness information after dividing the in-vivo image into a plurality of regions and use the brightness information for the facing determination. As shown in FIG. 12A to FIG. 12C, the brightness distribution tendency in the in-vivo image changes depending on whether or not it is directly facing. FIGS. 12A to 12C are those after the processing by the gain map of FIG. 10 and the low-frequency extraction processing are performed. When facing directly, the brightness is almost uniform as shown in FIG. 12C, whereas when not facing, it is bright at the center and the periphery as shown in FIG. The brightness is greatly different between the upper part and the lower part as shown in FIG. 12B (the difference in brightness in the left and right or diagonal directions may be used for FIG. 12B). . That is, whether or not it is facing is determined by looking at the difference value of brightness information between a certain area on the in-vivo image and another area. As an actual technique, the area division by the dividing unit 3213 is performed. Will do.

また、分割部3213は、体内画像を中心領域と少なくとも1つの周縁領域に分割してもよい。そして、中心領域の明るさ情報と、周縁領域の明るさ情報の比較処理に基づいて、体内被写体と撮像光学系の正対判定を行う。   The dividing unit 3213 may divide the in-vivo image into a central region and at least one peripheral region. Then, based on the comparison processing of the brightness information of the center area and the brightness information of the peripheral area, the in-body subject and the imaging optical system are determined to face each other.

ここで例えば、中心領域とは図13における領域1に相当し、周縁領域とは図13における領域2〜9に相当する。ただし、体内画像の全領域が中心領域及び周縁領域のいずれかに含まれるケースに限定されるものではなく、中心領域にも周縁領域にも含まれない領域があってもよいものとする。   Here, for example, the central region corresponds to the region 1 in FIG. 13, and the peripheral region corresponds to the regions 2 to 9 in FIG. However, it is not limited to the case where the entire region of the in-vivo image is included in either the central region or the peripheral region, and there may be a region that is not included in the central region or the peripheral region.

これにより、中心領域と周縁領域に基づく正対判定が可能になる。具体的には、図12(A)のような状況を、正対していないものと判定することが可能になる。図8(A)のように管空の壁面と撮像方向が平行になる場合には、体内画像の中心領域は撮像光学系からの距離が遠い被写体に対応するため暗くなり、周縁領域は距離が近い被写体に対応するため明るくなることから、中心領域と周縁領域の明るさ情報の比較結果(具体的には明るさ情報により表される値の差が所与の閾値よりも大きいか否かの比較結果)に基づいて、正対している場合(図12(C))と区別可能となる。具体的には式(1)のD1を判定に用いることに相当する。   As a result, it is possible to determine whether the person is facing the center area and the peripheral area. Specifically, it becomes possible to determine that the situation as shown in FIG. When the imaging direction is parallel to the tube wall as shown in FIG. 8A, the central region of the in-vivo image becomes dark because it corresponds to a subject far from the imaging optical system, and the peripheral region has a distance. The result is a comparison of the brightness information of the center area and the peripheral area (specifically, whether the difference between the values represented by the brightness information is greater than a given threshold) Based on (comparison result), it becomes distinguishable from the case where it is facing (FIG. 12C). Specifically, this corresponds to using D1 of the formula (1) for the determination.

また、分割部3213は、体内画像を中心領域と、第1〜第N(Nは2以上の整数)の周縁領域に分割してもよい。そして、正対判定部321は、第1〜第Nの周縁領域のうちの第i(iは1≦i<Nの整数)〜第j(jはi≦j<Nの整数)の周縁領域における明るさ情報と、第1〜第Nの周縁領域のうちの第k(kはj<k≦Nの整数)〜第m(mはk≦m≦Nの整数)の周縁領域における明るさ情報の比較処理に基づいて、体内被写体と撮像光学系の正対判定を行う。   The dividing unit 3213 may divide the in-vivo image into a central region and first to Nth (N is an integer of 2 or more) peripheral regions. Then, the right-facing determination unit 321 includes the i-th (i is an integer of 1 ≦ i <N) to the j-th (j is an integer of i ≦ j <N) of the first to Nth peripheral regions. And brightness in the kth (m is an integer of j <k ≦ N) to mth (m is an integer of k ≦ m ≦ N) out of the first to Nth peripheral regions. Based on the information comparison process, the in-body subject and the imaging optical system are determined to face each other.

ここで例えば、中心領域とは図13における領域1に相当し、第1〜第Nの周縁領域とは図13における領域2〜9に相当する(つまりN=8であり、第zの周縁領域とは図13における領域z+1になる)。1≦i≦j<k≦m≦Nであることから、例えばi=1、j=4、k=5、m=8の場合には、領域2〜5の明るさ情報と、領域6〜9の明るさ情報の比較となり、右側と左側の明るさの差を判定することになる。なお、第1〜第Nの周縁領域の始点(第1の周縁領域の位置)は図13のものに限定されず、任意の位置から開始してもよい。例えば、図13を基準にして90°時計回りに回転させてもよく、その場合には、領域2〜5が下半分に相当し、領域6〜9が上半分に相当することになり、上下の明るさの差を判定することになる。同様に時計回りの回転を45°或いは135°にすることで、右下と左上、左下と右上といった斜め方向の比較も可能となる。また、i、j、k、mについては上述の条件を満たせばよい。そのため、第i〜第jの周縁領域に含まれる周縁領域の数と、第k〜第mの周縁領域に含まれる周縁領域の数が一致する必要はないし、第1〜第Nの周縁領域の中に、第i〜第j及び第k〜第mの周縁領域に含まれない周縁領域があってもよい。   Here, for example, the central region corresponds to the region 1 in FIG. 13 and the first to Nth peripheral regions correspond to the regions 2 to 9 in FIG. 13 (that is, N = 8 and the zth peripheral region). Is the region z + 1 in FIG. 13). Since 1 ≦ i ≦ j <k ≦ m ≦ N, for example, when i = 1, j = 4, k = 5, m = 8, the brightness information of the regions 2 to 5 and the regions 6 to 9 brightness information is compared, and the difference in brightness between the right side and the left side is determined. Note that the starting points of the first to Nth peripheral regions (the positions of the first peripheral regions) are not limited to those in FIG. 13, and may be started from arbitrary positions. For example, it may be rotated 90 ° clockwise with reference to FIG. 13. In this case, the regions 2 to 5 correspond to the lower half, the regions 6 to 9 correspond to the upper half, and The difference in brightness is determined. Similarly, by setting the clockwise rotation to 45 ° or 135 °, it becomes possible to compare diagonal directions such as lower right and upper left, lower left and upper right. Moreover, what is necessary is just to satisfy | fill the above-mentioned conditions about i, j, k, and m. Therefore, the number of peripheral regions included in the i-th to j-th peripheral regions does not need to match the number of peripheral regions included in the k-th to m-th peripheral regions. There may be a peripheral region that is not included in the i-th to j-th and k-th to m-th peripheral regions.

これにより、第1〜第Nの周縁領域に基づく正対判定が可能になる。具体的には上述したように、左右方向・上下方向・斜め方向等、特定の方向における明るさの分布を判定することになる。よって、図12(B)のような状況を、正対していないものと判定することが可能になる。図8(B)のように体内被写体と撮像方向が斜めになる場合には、体内画像の周縁領域の第1の部分(図8(C)では上側)は撮像光学系からの距離が遠い被写体に対応するため暗くなり、周縁領域の第2の部分(図8(C)では下側)は距離が近い被写体に対応するため明るくなる。よって、周縁領域内の第1の部分と第2の部分の明るさ情報の比較結果(具体的には明るさ情報により表される値の差が所与の閾値よりも大きいか否かの比較結果)に基づいて、正対している場合(図12(C))と区別可能となる。上述した本実施形態においては、式(2)のD2〜D5を判定に用いることに相当する。   Thereby, the facing determination based on the first to Nth peripheral regions can be performed. Specifically, as described above, the brightness distribution in a specific direction such as the left-right direction, the up-down direction, or the diagonal direction is determined. Therefore, it becomes possible to determine that the situation as shown in FIG. When the imaging direction is oblique to the in-vivo subject as shown in FIG. 8B, the first portion of the peripheral area of the in-vivo image (upper side in FIG. 8C) is a subject that is far from the imaging optical system. The second portion of the peripheral area (lower side in FIG. 8C) becomes brighter because it corresponds to a subject that is close in distance. Therefore, the comparison result of the brightness information of the first part and the second part in the peripheral region (specifically, the comparison of whether or not the difference between the values represented by the brightness information is larger than a given threshold value) Based on the result, it is possible to distinguish from the case of facing the face (FIG. 12C). In this embodiment mentioned above, it corresponds to using D2-D5 of Formula (2) for determination.

また、正対判定部321は、分割部3213で分割された領域ごとに算出された明るさ情報により表される値が、所与の閾値よりも小さい場合には、体内被写体が撮像光学系に正対していると判定する。   Further, when the value represented by the brightness information calculated for each of the areas divided by the dividing unit 3213 is smaller than a given threshold, the facing determination unit 321 causes the in-vivo subject to enter the imaging optical system. It is determined that they are facing each other.

これにより、領域ごとに算出された明るさ情報により表される値(例えば輝度値の平均値等)と、所与の閾値との比較処理により正対判定が可能になる。正対している場合には、図12(C)に示したように、体内画像全体において明るさが均一に近くなるため、領域ごとの明るさの差は小さくなる。よって、一例としては、複数の領域の中から2つの領域を抽出し、抽出した領域の明るさ情報により表される値の差分値と閾値との比較処理を、すべての領域抽出の組み合わせ(体内画像がM個の領域に分割されたとすれば、M×(M−1)/2通り)について行う手法が考えられる。ただし、正対しない場合の特徴的な明るさ分布として、図12(A)及び図12(B)が考えられるため、比較処理の処理負担を軽減することも可能である。例えば、上述したように体内画像を中心領域と周縁領域に分割し、中心領域の明るさ情報により表される値と、周縁領域の明るさ情報により表される値から差分値を求め、所与の閾値との比較処理を行ってもよい。また、体内画像を中心領域と第1〜第Nの周縁領域に分割し、第i〜第jの周縁領域の明るさ情報により表される値と、第k〜第mの周縁領域の明るさ情報により表される値から差分値を求め、所与の閾値と比較処理を行ってもよい。   This makes it possible to determine whether or not the face is correct by comparing the value represented by the brightness information calculated for each region (for example, the average value of brightness values) with a given threshold value. When facing each other, as shown in FIG. 12C, the brightness in the entire in-vivo image is nearly uniform, and therefore the difference in brightness between regions is small. Therefore, as an example, two regions are extracted from a plurality of regions, and the comparison process between the difference value of the value represented by the brightness information of the extracted regions and the threshold value is combined with all region extractions (in-body If the image is divided into M areas, a method of performing M × (M−1) / 2) is conceivable. However, FIG. 12A and FIG. 12B are conceivable as characteristic brightness distributions when not facing each other, so that the processing load of the comparison process can be reduced. For example, as described above, the in-vivo image is divided into a central area and a peripheral area, and a difference value is obtained from a value represented by the brightness information of the central area and a value represented by the brightness information of the peripheral area. You may perform a comparison process with this threshold value. Further, the in-vivo image is divided into a central region and first to Nth peripheral regions, and a value represented by brightness information of the i-th to j-th peripheral regions and the brightness of the k-th to m-th peripheral regions. The difference value may be obtained from the value represented by the information, and the comparison process may be performed with a given threshold value.

また、焦点位置制御装置は、図5に示したように体内画像に対して評価領域を設定する評価領域設定部322と、設定された評価領域のコントラスト値を算出するコントラスト値算出部323とを含んでもよい。そして、焦点位置制御部325は、コントラスト値に基づいて撮像光学系の焦点位置を制御する。   Further, as shown in FIG. 5, the focal position control device includes an evaluation region setting unit 322 that sets an evaluation region for the in-vivo image, and a contrast value calculation unit 323 that calculates the contrast value of the set evaluation region. May be included. Then, the focal position control unit 325 controls the focal position of the imaging optical system based on the contrast value.

ここで、評価領域とは、コントラスト値の算出対象となる領域のことであり、評価領域の位置や大きさ等は、システムによって決定されてもよいし、外部I/F部500等からユーザーが入力してもよい。   Here, the evaluation area is an area for which a contrast value is to be calculated, and the position and size of the evaluation area may be determined by the system, or may be determined by the user from the external I / F unit 500 or the like. You may enter.

これにより、コントラスト値を用いた、撮像光学系の焦点位置制御が可能になる。具体的にはコントラストAF等として実現される。   Thereby, it is possible to control the focal position of the imaging optical system using the contrast value. Specifically, it is realized as contrast AF or the like.

また、コントラスト値算出部323は、図7に示したように評価領域に含まれる輝点を除去する輝点除去部3231を含んでもよい。そして、コントラスト値算出部323は、輝点を除去した評価領域のコントラスト値を算出する。   Further, the contrast value calculation unit 323 may include a bright spot removal unit 3231 that removes the bright spots included in the evaluation region as illustrated in FIG. 7. Then, the contrast value calculation unit 323 calculates the contrast value of the evaluation area from which the bright spot is removed.

これにより、輝点が存在することにより、焦点位置制御への悪影響を抑止することが可能になる。コントラスト値の算出は、例えば評価領域に対してハイパスフィルターを施すことにより求めることが考えられる。つまり、高周波成分が存在するほど、コントラスト値が高くなる。コントラストAFは、本来、被写体に起因する高周波成分(例えば被写体の構造が鮮明である場合に画像信号に含まれる成分等)に基づきコントラスト値を算出し、コントラスト値が高い状態を合焦状態であると判定し、焦点位置を制御する。しかし、輝点が存在してしまうと、輝点は周辺画素との画素値の差が大きい点であるため、被写体の合焦状態とは関係なく高周波成分が現れてしまう。よって、被写体にピントが合っていない状態でもコントラスト値が大きくなる可能性があり、焦点位置制御(AF動作)が適切に行えなくなってしまう。以上の理由から、評価領域に含まれる輝点は、コントラスト値の算出前に除去することが望ましい。   As a result, the presence of bright spots makes it possible to suppress adverse effects on focus position control. The contrast value can be calculated by applying a high-pass filter to the evaluation area, for example. That is, the higher the high frequency component, the higher the contrast value. Contrast AF originally calculates a contrast value based on a high-frequency component caused by a subject (for example, a component included in an image signal when the subject structure is clear), and a state where the contrast value is high is a focused state. And the focal position is controlled. However, if a bright spot exists, the bright spot is a point having a large difference in pixel value from the surrounding pixels, and thus a high frequency component appears regardless of the focused state of the subject. Therefore, the contrast value may increase even when the subject is not in focus, and focus position control (AF operation) cannot be performed properly. For the above reasons, it is desirable to remove the bright spots included in the evaluation area before calculating the contrast value.

また、以上の本実施形態は、撮像光学系(図1における対物レンズ230及び焦点調整レンズ240等を含む)を介した体内被写体の像を含む体内画像を取得する画像取得部(図1におけるA/D変換部310に相当)と、体内画像に基づいて、撮像時の撮像光学系の撮像方向に対する体内被写体の状況情報を判定する判定部(図5における正対判定部321や図18における静止判定部326に相当)と、判定部における判定結果に基づいて撮像光学系の焦点位置を制御する焦点位置制御部325と、焦点位置制御部325の制御に基づいて撮像光学系を駆動する焦点位置駆動部250を含む内視鏡装置に関係する。   Further, in the present embodiment described above, an image acquisition unit (A in FIG. 1) acquires an in-vivo image including an image of an in-vivo subject via an imaging optical system (including the objective lens 230 and the focus adjustment lens 240 in FIG. 1). / D conversion unit 310) and a determination unit (facility determination unit 321 in FIG. 5 or stationary in FIG. 18) that determines the status information of the in-vivo subject with respect to the imaging direction of the imaging optical system at the time of imaging based on the in-vivo image. A focal position control unit 325 that controls the focal position of the imaging optical system based on the determination result in the determination unit, and a focal position that drives the imaging optical system based on the control of the focal position control unit 325. The present invention relates to an endoscope apparatus including a driving unit 250.

これにより、撮像光学系の撮像方向に対する体内被写体の状況情報に基づいて、焦点位置の制御し、制御に従って撮像光学系を駆動する内視鏡装置を実現することが可能になる。状況情報とは、上述したように姿勢情報(具体的には正対しているか否か)であってもよいし、動き情報(具体的には第3、第4の実施形態で後述するように、相対的に静止しているか否か)であってもよい。   Accordingly, it is possible to realize an endoscope apparatus that controls the focal position based on the status information of the in-vivo subject with respect to the imaging direction of the imaging optical system and drives the imaging optical system according to the control. The situation information may be posture information (specifically, whether or not it is directly facing) as described above, or motion information (specifically, as described later in the third and fourth embodiments). Or whether it is relatively stationary).

2.第2の実施形態
図16に、本実施形態にかかる焦点位置制御装置を含む内視鏡装置の構成例を示す。第1の実施形態では、焦点調整レンズ240を焦点位置駆動部250で駆動することで、焦点位置及び画角を調整していたが、本実施形態においては図16に示したように、焦点調整レンズ240(狭義にはフォーカスレンズ)を焦点位置駆動部250で駆動して焦点位置を調整するとともに、ズームレンズ270をズームレンズ駆動部280で駆動して画角を調整するものとする。ただし、本実施形態ではレンズ二群駆動の撮像光学系を用いて説明するが、撮像光学系はレンズ一群駆動のものであってもよい。
2. Second Embodiment FIG. 16 shows a configuration example of an endoscope apparatus including a focal position control apparatus according to the present embodiment. In the first embodiment, the focus adjustment lens 240 is driven by the focus position drive unit 250 to adjust the focus position and the angle of view. In this embodiment, as shown in FIG. 16, the focus adjustment is performed. It is assumed that the focus position is adjusted by driving the lens 240 (focus lens in a narrow sense) by the focus position driving unit 250, and the angle of view is adjusted by driving the zoom lens 270 by the zoom lens driving unit 280. However, although the present embodiment will be described using an imaging optical system driven by two lens groups, the imaging optical system may be one driven by a group of lenses.

図17に、第2の実施形態におけるフォーカスレンズ制御部320の詳細な構成例を示す。第1の実施の形態とは、焦点位置制御部325の機能が異なる。ズームレンズ制御部350は、焦点位置制御部325に接続される。   FIG. 17 shows a detailed configuration example of the focus lens control unit 320 in the second embodiment. The function of the focal position control unit 325 is different from that of the first embodiment. The zoom lens control unit 350 is connected to the focal position control unit 325.

焦点位置制御部325は、正対判定部321からAF動作を開始する制御信号が転送され、かつ、ズームレンズ制御部350からズームレンズ270が望遠端にあることを示す制御信号が転送された場合は、合焦位置検出部324から転送された合焦位置情報に基づき、焦点位置駆動部250を制御する。一方、焦点位置制御部325は、正対判定部321からAF動作を停止する制御信号が転送された場合、または、ズームレンズ制御部350からズームレンズ270が望遠端にないことを示す制御信号が転送された場合は、制御部340に予め保存されている所定の位置に焦点調整レンズ240を移動するよう、焦点位置駆動部250を制御する。   The focal position control unit 325 receives a control signal for starting the AF operation from the facing determination unit 321 and a control signal indicating that the zoom lens 270 is at the telephoto end from the zoom lens control unit 350 Controls the focus position drive unit 250 based on the focus position information transferred from the focus position detection unit 324. On the other hand, the focus position control unit 325 receives a control signal indicating that the zoom lens 270 is not at the telephoto end when the control signal for stopping the AF operation is transferred from the facing determination unit 321 or from the zoom lens control unit 350. When it is transferred, the focus position driving unit 250 is controlled so as to move the focus adjustment lens 240 to a predetermined position stored in the control unit 340 in advance.

なお、ここではズームレンズ270が望遠端にあることが、合焦動作を行う1つの条件であるものとして説明したが、これに限定されるものではなく、望遠端を含む所与の範囲内にズームレンズ270が位置した場合に合焦動作を行う1つの条件を満たしたと判断してもよい。具体的には後述するように、ズームレンズが基準点よりも望遠側にあり、かつ、正対している場合に合焦動作を行ってもよい。   Although it has been described here that the zoom lens 270 is at the telephoto end is one condition for performing the focusing operation, the present invention is not limited to this and is within a given range including the telephoto end. When the zoom lens 270 is positioned, it may be determined that one condition for performing the focusing operation is satisfied. Specifically, as will be described later, the focusing operation may be performed when the zoom lens is located on the telephoto side with respect to the reference point and is directly facing.

以上のように、本実施形態では、光学系の被写界深度が狭い場合に限り、撮像部が被写体に正対するとAF動作を開始する。これにより、被写体が奥行きをもっている場合はパンフォーカスで観察を行い、拡大観察時等の被写界深度が狭くなる条件ではAF動作を行うことで、シーンに応じた好適な画像を得ることができる。   As described above, in this embodiment, only when the depth of field of the optical system is narrow, the AF operation is started when the imaging unit faces the subject. As a result, when the subject has a depth, observation is performed with pan focus, and a suitable image according to the scene can be obtained by performing the AF operation under the condition that the depth of field becomes narrow, such as during magnified observation. .

以上の本実施形態では、焦点位置制御部325は、ズームレンズ270(撮像光学系に含まれる)の可動範囲における望遠端と広角端の間に位置する基準点に対して、ズームレンズ270が望遠側に位置し、かつ、正対判定部321において体内被写体と撮像光学系が正対していると判定された場合には、合焦動作を開始する。   In the present embodiment described above, the focal position control unit 325 is configured such that the zoom lens 270 is telephoto with respect to a reference point located between the telephoto end and the wide-angle end in the movable range of the zoom lens 270 (included in the imaging optical system). If it is determined that the in-body subject and the imaging optical system are facing each other, the focusing operation is started.

これにより、第1の実施形態における正対判定に加えて、ズームレンズ270と基準点との位置関係も考慮した上で、合焦動作を行うか否かの制御を行うことが可能になる。一般的な光学特性として、画角が狭くなるほど(ズームレンズ270が望遠端に移動し、倍率が高くなるほど)被写界深度は狭くなる。被写界深度が狭くなれば、ユーザーが手動でピントを合わせることが困難になるため、システムによる自動的な合焦動作(AF動作)を行う利点が大きくなる。逆にズームレンズ270が広角側にある場合には、比較的被写界深度が広いため、AFを用いなくとも手動でピント合わせが行える可能性が高い。また、AFではピントを合わせる領域(コントラストAFであればコントラスト値を算出する評価領域)とユーザーの観察したい領域とが一致せず、AFを行うことでむしろ観察を妨げてしまうことがあることを考慮すれば、AFを動作させないことも選択肢に含めることが望ましい。以上のことから、ズームレンズ270と基準点との位置関係を焦点位置制御の判定条件とすることで、ズームレンズ位置(つまりは被写界深度の幅)を考慮した適切なAF動作を実現することが可能になる。   Thereby, in addition to the determination of facing in the first embodiment, it is possible to control whether or not the focusing operation is performed in consideration of the positional relationship between the zoom lens 270 and the reference point. As a general optical characteristic, the depth of field becomes narrower as the angle of view becomes narrower (the zoom lens 270 moves to the telephoto end and the magnification becomes higher). If the depth of field is narrowed, it is difficult for the user to manually focus, so that the advantage of performing an automatic focusing operation (AF operation) by the system is increased. Conversely, when the zoom lens 270 is on the wide-angle side, the depth of field is relatively wide, so there is a high possibility that manual focusing can be performed without using AF. Also, in AF, the focus area (evaluation area for calculating the contrast value in contrast AF) does not match the area that the user wants to observe, and performing AF may rather hinder observation. In consideration, it is desirable to include not operating the AF as an option. From the above, by using the positional relationship between the zoom lens 270 and the reference point as a determination condition for focus position control, an appropriate AF operation in consideration of the zoom lens position (that is, the depth of field) is realized. It becomes possible.

3.第3の実施形態
本実施形態にかかる焦点位置制御装置を含む内視鏡装置の構成例は、第2の実施形態と同様に図16に示したものである。図16に示したように、本実施形態においてはレンズ二群駆動の撮像光学系を用いて説明するが、撮像光学系はレンズ一群駆動のものであってもよい。
3. Third Embodiment A configuration example of an endoscope apparatus including a focal position control apparatus according to the present embodiment is shown in FIG. 16 as in the second embodiment. As shown in FIG. 16, in the present embodiment, description will be made using an imaging optical system driven by two lens groups, but the imaging optical system may be one driven by a group of lenses.

本実施形態では、第2の実施形態とは、フォーカスレンズ制御部320の動作が異なる。図18に、本実施形態におけるフォーカスレンズ制御部320の詳細な構成例を示す。第2の実施形態から正対判定部321が除かれ、静止判定部326が追加される。画像処理部330は、評価領域設定部322と、静止判定部326に接続される。静止判定部326は、焦点位置制御部325に接続される。   In the present embodiment, the operation of the focus lens control unit 320 is different from that of the second embodiment. FIG. 18 shows a detailed configuration example of the focus lens control unit 320 in the present embodiment. The facing determination unit 321 is removed from the second embodiment, and a stillness determination unit 326 is added. The image processing unit 330 is connected to the evaluation area setting unit 322 and the stillness determination unit 326. The stillness determination unit 326 is connected to the focal position control unit 325.

図19に、静止判定部326の詳細な構成例を示す。静止判定部326は、記憶部3261と、動き検出部3262と、判定部3263を含む。画像処理部330は、記憶部3261と、動き検出部3262に接続されている。記憶部3261は、動き検出部3262に接続されている。動き検出部3262は、判定部3263に接続されている。判定部3263は、焦点位置制御部325に接続されている。   FIG. 19 shows a detailed configuration example of the stillness determination unit 326. The stillness determination unit 326 includes a storage unit 3261, a motion detection unit 3262, and a determination unit 3263. The image processing unit 330 is connected to the storage unit 3261 and the motion detection unit 3262. The storage unit 3261 is connected to the motion detection unit 3262. The motion detection unit 3262 is connected to the determination unit 3263. The determination unit 3263 is connected to the focal position control unit 325.

記憶部3261は、画像処理部330から転送された画像信号を記憶する。動き検出部3262は、画像信号から被写体と撮像部との相対的な動きを検出する。具体的には、動き検出部3262は、画像処理部330から入力された画像信号と、記憶部3261に記憶された1フレーム前に取得された画像信号の特徴点をマッチングし、マッチングした特徴点の動きベクトルから動き量Mvを算出する。例えば、動き量Mvは、画像全体の特徴点の動きベクトルの平均である。算出された動き量Mvは判定部3263に転送される。   The storage unit 3261 stores the image signal transferred from the image processing unit 330. The motion detection unit 3262 detects a relative motion between the subject and the imaging unit from the image signal. Specifically, the motion detection unit 3262 matches the image signal input from the image processing unit 330 with the feature points of the image signal acquired one frame before stored in the storage unit 3261, and the matched feature points The amount of motion Mv is calculated from the motion vector. For example, the motion amount Mv is an average of motion vectors of feature points of the entire image. The calculated motion amount Mv is transferred to the determination unit 3263.

判定部3263は、算出された動き量Mvと所定の閾値ThMv1とを比較し、画像上での被写体の動きが大きいか否かの判定を行う。閾値ThMv1は、予め設定された値を用いてもよいし、制御部340により自動的に設定されてもよい。判定部3263は、動き量Mv1が閾値ThMv1より小さい場合、すなわち被写体の動きが少ない場合には、術者が被写体を詳細に観察している状態であると判断する。この場合、判定部3263は、AF動作を開始する制御信号を焦点位置制御部325に転送する。一方、判定部3263は、動き量Mv1が閾値ThMv1以上である場合、すなわち被写体の動きが大きい場合には、術者が被写体をスクリーニングしている状態であると判断する。この場合、判定部3263はAF動作を停止する制御信号を焦点位置制御部325に転送する。   The determination unit 3263 compares the calculated movement amount Mv with a predetermined threshold ThMv1, and determines whether or not the movement of the subject on the image is large. The threshold ThMv1 may be a preset value or may be automatically set by the control unit 340. When the movement amount Mv1 is smaller than the threshold ThMv1, that is, when the movement of the subject is small, the determination unit 3263 determines that the surgeon is observing the subject in detail. In this case, the determination unit 3263 transfers a control signal for starting the AF operation to the focal position control unit 325. On the other hand, the determination unit 3263 determines that the surgeon is screening the subject when the amount of motion Mv1 is greater than or equal to the threshold ThMv1, that is, when the subject's motion is large. In this case, the determination unit 3263 transfers a control signal for stopping the AF operation to the focus position control unit 325.

焦点位置制御部325は、静止判定部326からAF動作を開始する制御信号が転送され、かつ、ズームレンズ制御部350からズームレンズ270が望遠端にあることを示す制御信号が転送された場合は、合焦位置検出部324から転送された合焦位置情報に基づき、焦点位置駆動部250を制御する。一方、焦点位置制御部325は、静止判定部326からAF動作を停止する制御信号が転送された場合、または、ズームレンズ制御部350からズームレンズ270が望遠端にないことを示す制御信号が転送された場合は、制御部340に予め保存されている所定の位置に焦点調整レンズ240を移動するよう、焦点位置駆動部250を制御する。   The focus position control unit 325 receives a control signal for starting an AF operation from the stillness determination unit 326 and a control signal indicating that the zoom lens 270 is at the telephoto end from the zoom lens control unit 350. Based on the focus position information transferred from the focus position detection unit 324, the focus position drive unit 250 is controlled. On the other hand, the focus position control unit 325 transfers a control signal indicating that the AF operation is stopped from the stillness determination unit 326 or a control signal indicating that the zoom lens 270 is not at the telephoto end from the zoom lens control unit 350. If it is, the focus position driving unit 250 is controlled to move the focus adjustment lens 240 to a predetermined position stored in the control unit 340 in advance.

以上のように、本実施の形態では、画像信号から撮像部と被写体が相対的に静止しているか否かの判定を行い、撮像部が被写体に対して静止していると判定した場合は、AF動作を開始する。一方、撮像部が被写体に対して静止していないと判定した場合は、AF動作を停止する。これにより、術者はAF動作の開始/停止の操作を行う必要がなく、シーンに応じた好適な画像を得ることができる。   As described above, in the present embodiment, it is determined whether or not the imaging unit and the subject are relatively stationary from the image signal, and when it is determined that the imaging unit is stationary with respect to the subject, The AF operation is started. On the other hand, when it is determined that the imaging unit is not stationary with respect to the subject, the AF operation is stopped. Thereby, the surgeon does not need to perform the start / stop operation of the AF operation, and can obtain a suitable image according to the scene.

なお、以上の説明においては、静止判定部326は静止しているか否かの判定を行っているものであり、動きの方向については考慮していなかった。しかし、撮像部200と被写体との相対的な動きには、撮像部200の撮像方向(光軸方向)に沿った方向での第1の動きと、撮像方向に交差する(狭義には直交する)方向での第2の動きが考えられる。第1の動きがある場合には、撮像部200と被写体との相対的な距離が変動することになるため、被写体が被写界深度から外れてしまう可能性が高くなる。また、撮像されている被写体自体は大きく変化するものではない。よって、この場合には動き量が大きく、静止していないと判定された場合にも、AFが効果的であることが考えられる。つまり、第2の動きについては、上述の通り動き量が小さい(静止している)場合にAFを動作させればよいが、第1の動きについては上述の手法とは異なる動作を行った方がよいケースが考えられる。以上のことから、本実施形態の変形例として、静止判定部326における判定に用いられる動き量として、第1の動きに起因するものは除外し、第2の動きに起因するものを用いる手法について説明する。   In the above description, the stillness determination unit 326 determines whether or not it is still, and does not consider the direction of movement. However, the relative movement between the imaging unit 200 and the subject intersects with the first movement in the direction along the imaging direction (optical axis direction) of the imaging unit 200 and intersects the imaging direction (in the narrow sense, orthogonal). ) Second movement in direction is conceivable. When there is a first movement, the relative distance between the imaging unit 200 and the subject fluctuates, which increases the possibility that the subject will deviate from the depth of field. Also, the subject being imaged itself does not change significantly. Therefore, in this case, it is conceivable that AF is effective even when it is determined that the amount of motion is large and not stationary. That is, for the second movement, the AF may be operated when the amount of movement is small (still) as described above, but the first movement is performed differently from the above method. There is a good case. From the above, as a modification of the present embodiment, as a method of using a motion amount used for determination in the stillness determination unit 326 that excludes the motion amount due to the first motion and uses the motion amount due to the second motion. explain.

動き検出部3262は、上述した動きベクトルを算出する際に、現フレーム画像(画像処理部330から出力された画像)の画素に対し一定間隔かつ格子状に代表点を設定する。図21にて代表点を黒丸で示す。そして、代表点における現フレーム画像および前フレーム画像(記憶部3261に記憶された画像)の局所的な動きベクトルを、公知の技術であるブロックマッチング等を用いて検出する。設定した代表点の座標および各代表点において検出した動きベクトルは、判定部3263に出力される。   When calculating the motion vector described above, the motion detection unit 3262 sets representative points at regular intervals and in a grid pattern with respect to the pixels of the current frame image (the image output from the image processing unit 330). In FIG. 21, representative points are indicated by black circles. Then, local motion vectors of the current frame image and the previous frame image (image stored in the storage unit 3261) at the representative point are detected using block matching or the like that is a known technique. The coordinates of the set representative point and the motion vector detected at each representative point are output to the determination unit 3263.

次に判定部3263において、動きベクトルにより表される動きが、第1の動きであるか第2の動きであるかの判定を行う。具体的な判定手法について、図22(A)〜図22(D)を用いて説明する。まず、代表点における動きベクトルに基づいて、前記動きベクトルの消失点を検出する。   Next, the determination unit 3263 determines whether the motion represented by the motion vector is the first motion or the second motion. A specific determination method will be described with reference to FIGS. 22 (A) to 22 (D). First, the vanishing point of the motion vector is detected based on the motion vector at the representative point.

図22(A)において、黒丸が代表点、実線矢印が動きベクトル、バツ印が消失点をそれぞれ示す。消失点とは、各代表点を始点として各代表点における前記動きベクトルの方向にそれぞれ延長した直線の交点である。観察対象が内径の一定な円筒状であり、前記動きベクトルが撮像部200の動きのみにより生じる場合、第1の動きのときには、直線は消失点において一点で交わる。実際には、観察対象である管腔状臓器の内径は一定ではなく、また動きベクトルは生体拍動によっても生じるため、第1の動きが生じているであっても前記直線が消失点において一点で交わらない。このため、全ての直線からの距離の和を第1の評価値とし、該第1の評価値が最も小さい点をまず消失点候補とする。   In FIG. 22A, a black circle indicates a representative point, a solid line arrow indicates a motion vector, and a cross indicates a vanishing point. The vanishing point is an intersection of straight lines extending from each representative point in the direction of the motion vector at each representative point. When the observation target is a cylindrical shape having a constant inner diameter, and the motion vector is generated only by the movement of the imaging unit 200, the straight lines intersect at one point at the vanishing point during the first movement. Actually, the inner diameter of the luminal organ to be observed is not constant, and the motion vector is also generated by the pulsation of the living body. Therefore, even if the first motion occurs, the straight line is one point at the vanishing point. Do not cross. Therefore, the sum of the distances from all the straight lines is set as the first evaluation value, and the point with the smallest first evaluation value is first set as the vanishing point candidate.

次に、消失点候補における第1の評価値が所定の第1の閾値以下の場合、かつ消失点候補が画像内に存在する場合には、当該消失点候補を消失点とし、そうでない場合には消失点が検出できないと判定する。ここで、説明のため内視鏡先端の動く方向を図22(B)のように定義する。各x,y,z方向は画像上でそれぞれ、水平方向、鉛直方向、水平方向および鉛直方向と直交する奥行きの方向に対応する。さらに各x,y,z方向について矢印に沿う動きを正の動き、反対の動きを負の動きと定義する。第1の動きがあるでは、撮像部200の先端はz方向負の動きを示す。第1の動きではない場合(例えば第2の動きの場合)、例えば撮像部200の先端の動きがx方向正の動きとなり、図22(C)に示すように前記動きベクトルはほぼ平行となるため、該消失点候補は画像外に存在するか、画像内に存在したとしても当該消失点候補における第1の評価値は大きな値となる。よって消失点の存在を、消失点候補の位置および第1の評価値に基づき検出することで、z方向の動きを検出することができる。但し、図22(D)に示すように、内視鏡を挿入した場合でも該消失点を検出できるため、各代表点から消失点へのベクトル(破線矢印)および前記動きベクトル(実線矢印)に基づいた判定をさらに行う。具体的には、消失点へのベクトルと前記動きベクトルとの内積が負となる代表点が所定の個数以上あれば、消失点が検出できないと判定する。消失点が検出できない場合、その際の動きは第1の動きではないと判定する。   Next, when the first evaluation value in the vanishing point candidate is equal to or smaller than the predetermined first threshold value, and when the vanishing point candidate exists in the image, the vanishing point candidate is set as the vanishing point. Determines that the vanishing point cannot be detected. Here, for the sake of explanation, the direction of movement of the endoscope tip is defined as shown in FIG. The x, y, and z directions correspond to the horizontal direction, the vertical direction, the horizontal direction, and the depth direction orthogonal to the vertical direction, respectively, on the image. Further, in each of the x, y, and z directions, the movement along the arrow is defined as a positive movement, and the opposite movement is defined as a negative movement. When there is a first movement, the tip of the imaging unit 200 shows a negative movement in the z direction. When the movement is not the first movement (for example, in the case of the second movement), for example, the movement of the tip of the imaging unit 200 is a positive movement in the x direction, and the motion vectors are substantially parallel as shown in FIG. Therefore, even if the vanishing point candidate exists outside the image or exists in the image, the first evaluation value in the vanishing point candidate is a large value. Therefore, by detecting the presence of the vanishing point based on the position of the vanishing point candidate and the first evaluation value, the movement in the z direction can be detected. However, as shown in FIG. 22D, since the vanishing point can be detected even when an endoscope is inserted, the vector from the representative point to the vanishing point (broken arrow) and the motion vector (solid arrow) Based on the determination. Specifically, if the number of representative points at which the inner product of the vector to the vanishing point and the motion vector is negative is greater than or equal to a predetermined number, it is determined that the vanishing point cannot be detected. When the vanishing point cannot be detected, it is determined that the movement at that time is not the first movement.

以上の本実施形態では、判定部は、体内被写体が撮像光学系に対して相対的に静止しているか否かに関する情報を、第1の実施形態において上述した動き情報として用いて判定を行う静止判定部326を含んでもよい。そして焦点位置制御部325は、静止判定部326における判定結果に基づいて、撮像光学系の焦点位置を制御する。   In the present embodiment described above, the determination unit performs determination using information regarding whether or not the in-vivo subject is stationary relative to the imaging optical system as the motion information described above in the first embodiment. The determination unit 326 may be included. The focal position control unit 325 controls the focal position of the imaging optical system based on the determination result in the stillness determination unit 326.

ここで、体内被写体が撮像光学系に対して相対的に静止しているとは、相対的な動きが全くない状態に限定されるものではなく、動きを表す指標値が所与の閾値以下であるような小さな動きがある場合も含むものとする。動きを表す指標値としては、例えば上述したように動き量が用いられることが考えられる。   Here, that the in-vivo subject is stationary relative to the imaging optical system is not limited to a state in which there is no relative movement, and the index value representing the movement is less than a given threshold value. This includes cases where there is some small movement. As the index value representing the movement, for example, it is conceivable that the amount of movement is used as described above.

これにより、体内被写体が撮像光学系に相対的に静止していると判定されたか否かに基づいて、撮像光学系の焦点位置の制御を行うことが可能になる。静止していない場合とは、例えば内視鏡装置におけるスクリーニング等の状況が想定される。この場合、ズーム倍率は低くても十分であるため、被写界深度は広くなり焦点位置制御(特にAF動作)を行う利点は大きくない。また、撮像される被写体は短時間の間に大きく変化するため、そのたびに焦点位置制御を行うことになり効率的ではない。よって、静止しているか否かの判定を行うことで、状況に応じた適切な焦点位置制御が可能になる。   This makes it possible to control the focal position of the imaging optical system based on whether or not it is determined that the in-vivo subject is relatively stationary with respect to the imaging optical system. The case where it is not stationary is assumed to be a situation such as screening in an endoscope apparatus, for example. In this case, since it is sufficient that the zoom magnification is low, the depth of field is widened and the advantage of performing the focus position control (particularly the AF operation) is not great. In addition, since the subject to be imaged changes greatly in a short time, the focus position control is performed each time, which is not efficient. Therefore, it is possible to perform appropriate focal position control according to the situation by determining whether or not the camera is stationary.

また、焦点位置制御部325は、静止判定部326において体内被写体が撮像光学系に対して相対的に静止していると判定された場合には、体内被写体に対して焦点を合わせる動作(合焦動作)を開始してもよい。また、体内被写体が相対的に静止していないと判定された場合には、合焦動作を停止して、撮像光学系(具体的には撮像光学系に含まれるズームレンズ270等)を所与の位置に移動させてもよい。   The focus position control unit 325 performs an operation for focusing on the in-vivo subject (in-focus) when the in-vivo subject is determined to be relatively stationary with respect to the imaging optical system in the stationary determination unit 326. Operation) may be started. When it is determined that the in-vivo subject is not relatively stationary, the focusing operation is stopped, and an imaging optical system (specifically, a zoom lens 270 included in the imaging optical system) is given. It may be moved to the position.

ここで、静止していない場合に撮像光学系が移動される所与の位置とは、第1の実施形態で上述した正対していない場合と同様であるため、詳細な説明は省略する。   Here, the given position to which the imaging optical system is moved when not stationary is the same as the case where the imaging optical system is not directly facing in the first embodiment, and thus detailed description thereof is omitted.

これにより、静止しているか否かに応じて、撮像している体内被写体への合焦動作を制御する(つまり、AFの制御に相当する)ことが可能になる。上述したように、静止していない状態では、AFを実行しても効果的でない。つまり、静止しているか否かの判定に基づいてAFの動作を制御することで、AFが有効な状況においてはAFを動作させ、AFが有効でない状況においてはAFを動作させないことが可能になり、ユーザーの観察(内視鏡装置を用いた診断等)をスムーズにすることができる。   This makes it possible to control the focusing operation on the in-vivo subject being imaged (that is, corresponding to AF control) depending on whether or not the camera is stationary. As described above, AF is not effective when not stationary. In other words, by controlling the AF operation based on the determination of whether or not the camera is stationary, it is possible to operate the AF when the AF is effective, and not to operate the AF when the AF is not effective. The user's observation (such as diagnosis using an endoscope apparatus) can be made smooth.

また、静止判定部326は、図19に示したように、記憶部3261と、動き検出部3262を含んでもよい。記憶部3261は、第1のタイミングで取得された第1の体内画像と、第1のタイミングとは異なる第2のタイミングで取得された第2の体内画像を記憶する。動き検出部3262は、第1の体内画像と第2の体内画像に基づいて、体内被写体と撮像光学系の相対的な動き量を検出する。そして、静止判定部326は、動き量が所与の閾値よりも小さい場合には、体内被写体が撮像光学系に対して相対的に静止していると判定する。   Stillness determination unit 326 may include a storage unit 3261 and a motion detection unit 3262 as shown in FIG. The storage unit 3261 stores the first in-vivo image acquired at the first timing and the second in-vivo image acquired at the second timing different from the first timing. The motion detection unit 3262 detects a relative motion amount between the in-vivo subject and the imaging optical system based on the first in-vivo image and the second in-vivo image. The stillness determination unit 326 determines that the in-vivo subject is stationary relative to the imaging optical system when the amount of motion is smaller than a given threshold.

ここで、動き量とは2つの体内画像間での体内被写体の動きの程度を表すものであり、例えば、第1の体内画像と第2の体内画像から求められた動きベクトルの平均値であってもよい。動きベクトルは、例えばマッチング処理等により求められる。   Here, the motion amount represents the degree of motion of the in-vivo subject between the two in-vivo images, and is, for example, an average value of the motion vectors obtained from the first in-vivo image and the second in-vivo image. May be. The motion vector is obtained by, for example, matching processing.

これにより、動き量に基づいた静止判定が可能になる。動き量は上述したようにマッチング処理等の比較的単純なアルゴリズムから求めることができるため、動き量に基づいた静止判定は容易に実現可能である。   Thereby, the stillness determination based on the amount of movement becomes possible. Since the amount of motion can be obtained from a relatively simple algorithm such as matching processing as described above, stillness determination based on the amount of motion can be easily realized.

また、撮像光学系の撮像方向(光軸方向)に沿った、体内被写体の撮像光学系に対する相対的な動きである第1の動きと、撮像光学系の撮像方向(光軸方向)に交差する方向に沿った、体内被写体の撮像光学系に対する相対的な動きである第2の動きを考える。この場合に、静止判定部326は、第1の動きと第2の動きのうち、第2の動きに基づいて、体内被写体が撮像光学系に対して相対的に静止しているか否かの判定を行ってもよい。   Further, the first movement, which is a relative movement of the in-vivo subject with respect to the imaging optical system, along the imaging direction (optical axis direction) of the imaging optical system intersects with the imaging direction (optical axis direction) of the imaging optical system. Consider a second movement that is a relative movement of the in-vivo subject with respect to the imaging optical system along the direction. In this case, the stillness determination unit 326 determines whether the in-vivo subject is stationary relative to the imaging optical system based on the second movement of the first movement and the second movement. May be performed.

ここで、第1の動きとは、狭義には撮像光学系の光軸方向の動きを表すものであるが、光軸方向となす角度が所与の角度閾値以下となる動きも含むものとする。同様に、第2の動きとは、狭義には撮像光学系の光軸方向に直交する方向での動きを表すものであるが、光軸に直交する方向となす角度が所与の角度閾値以下となる動きも含むものとする。   Here, the first movement is a movement in the optical axis direction of the imaging optical system in a narrow sense, but includes a movement in which an angle formed with the optical axis direction is equal to or less than a given angle threshold. Similarly, the second movement is a movement in a direction orthogonal to the optical axis direction of the imaging optical system in a narrow sense, but the angle formed with the direction orthogonal to the optical axis is equal to or less than a given angle threshold value. It includes the movement that becomes.

これにより、第1の動きと第2の動きがあった場合に、第2の動きに基づいて静止判定を行うことが可能になる。第2の動きがある(第2の動きに起因する動き量が閾値よりも大きい)場合とは、上述したとおり撮像対象となる被写体が大きく変化したり、内視鏡装置によるスクリーニングが想定されたりする状況に対応するため、本実施形態で述べたとおりに静止判定に用いても(具体的には静止している場合にAFを動作させ、静止していない場合にはAFを動作させない等の処理を行っても)問題ない。しかし、第1の動きとは、撮像対象となる被写体は大きく変化せず、体内画像における被写体の大きさが変化するものである。よって、第1の動きがある場合とは、ユーザーは同一の被写体の継続的な観察を望んでいることが想定される。さらに、動きにより体内被写体と撮像光学系の距離が変化するため、体内被写体が被写界深度の範囲から外れ、ぼけてしまう可能性も高い。つまり、第1の動きとは動きが大きい(静止していない)と判定された場合にも、積極的に焦点位置の制御を行う(例えばAFを動作させる)ことが望ましい。以上の理由から、静止判定部326において実行される本実施形態の静止判定においては、第1の動きと第2の動きのうちの第2の動きを用いるとよい。   Accordingly, when there is a first movement and a second movement, it is possible to perform stillness determination based on the second movement. When there is a second movement (the amount of movement due to the second movement is larger than the threshold), the subject to be imaged changes greatly as described above, or screening by an endoscope apparatus is assumed. Even if it is used for stillness determination as described in the present embodiment (specifically, AF is operated when it is stationary, and AF is not operated when it is not stationary, etc.) No problem) However, in the first movement, the subject to be imaged does not change greatly, and the size of the subject in the in-vivo image changes. Therefore, when there is a first movement, it is assumed that the user desires continuous observation of the same subject. Furthermore, since the distance between the in-vivo subject and the imaging optical system changes due to movement, there is a high possibility that the in-vivo subject will be out of the range of depth of field and blurred. That is, even when it is determined that the first movement is large (not stationary), it is desirable to positively control the focal position (for example, activate AF). For the above reasons, in the stillness determination of the present embodiment executed by the stillness determination unit 326, it is preferable to use the second movement of the first movement and the second movement.

また、静止判定部326は、体内画像上に設定された複数の代表点における複数の動きベクトルに基づいて、消失点の検出処理を行い、消失点の検出結果に基づいて、体内被写体が撮像光学系に対して相対的に静止しているか否かを判定してもよい。   Stillness determination section 326 performs vanishing point detection processing based on a plurality of motion vectors at a plurality of representative points set on the in-vivo image, and the in-vivo subject is imaged optically based on the vanishing point detection result. It may be determined whether or not the system is stationary relative to the system.

これにより、体内画像において消失点の検出処理を行うことで、静止判定を行うことが可能になる。消失点の有無により、体内被写体と撮像光学系の相対的な動きの方向が推定できるため、推定した相対的な動きの方向を考慮した静止判定を行うことができる。具体的には、消失点の検出処理により、体内被写体と撮像光学系との相対的な動きが、第1の動きに属する動きであるか第2の動きに属する動きであるかを判定し、第2の動きに属する動きであると判定された場合に、静止判定を行ってもよい。例えば、図22(A)、図22(D)に示したように、消失点が検出された場合の動きを第2の動きと判定し、図22(C)に示したように、消失点が検出されなかった場合の動きを第1の動きと判定する。なお消失点の検出処理は、上述したように、動きベクトルを延長した直線との距離の総和が最も小さい点を消失点候補とした場合に、消失点候補が体内画像内に存在し、かつ、第1の評価値が閾値以下であるか否かの判定によって行ってもよい。この際、第1の評価値とは、動きベクトルを延長した直線との距離の総和をそのまま用いればよい。   Accordingly, it is possible to perform stillness determination by performing vanishing point detection processing on the in-vivo image. Since the direction of relative movement between the in-vivo subject and the imaging optical system can be estimated based on the presence or absence of the vanishing point, stillness determination can be performed in consideration of the estimated relative movement direction. Specifically, by the vanishing point detection process, it is determined whether the relative movement between the in-vivo subject and the imaging optical system is a movement belonging to the first movement or a movement belonging to the second movement, When it is determined that the movement belongs to the second movement, the stillness determination may be performed. For example, as shown in FIGS. 22 (A) and 22 (D), the movement when the vanishing point is detected is determined as the second movement, and as shown in FIG. 22 (C), the vanishing point is determined. The movement when no is detected is determined as the first movement. The vanishing point detection process, as described above, when the point with the smallest sum of the distance to the straight line obtained by extending the motion vector is the vanishing point candidate, the vanishing point candidate exists in the in-vivo image, and You may perform by determination whether a 1st evaluation value is below a threshold value. At this time, as the first evaluation value, the total sum of the distances from the straight line obtained by extending the motion vector may be used as it is.

また、焦点位置制御部325は、ズームレンズ270(撮像光学系に含まれる)の可動範囲における望遠端と広角端の間に位置する基準点に対して、ズームレンズ270が望遠側に位置し、かつ、静止判定部326において体内被写体と撮像光学系が相対的に静止していると判定された場合には、合焦動作を開始してもよい。   In addition, the focal position control unit 325 is configured such that the zoom lens 270 is positioned on the telephoto side with respect to a reference point located between the telephoto end and the wide-angle end in the movable range of the zoom lens 270 (included in the imaging optical system). If the in-vivo subject and the imaging optical system are determined to be relatively stationary in the stationary determination unit 326, the focusing operation may be started.

これにより、静止判定に加えて、ズームレンズ270と基準点との位置関係も考慮した上で、合焦動作を行うか否かの制御を行うことが可能になる。ズームレンズ位置を考慮することの利点については、第2の実施形態の場合と同様であるため詳細な説明は省略する。   Accordingly, it is possible to control whether or not the focusing operation is performed in consideration of the positional relationship between the zoom lens 270 and the reference point in addition to the stillness determination. The advantages of considering the zoom lens position are the same as in the case of the second embodiment, and a detailed description thereof will be omitted.

4.第4の実施形態
本実施形態にかかる焦点位置制御装置を含む内視鏡装置の構成例は、第2の実施形態と同様に図16に示したものである。図16に示したように、本実施形態においてはレンズ二群駆動の撮像光学系を用いて説明するが、撮像光学系はレンズ一群駆動のものであってもよい。
4). Fourth Embodiment A configuration example of an endoscope apparatus including a focal position control apparatus according to the present embodiment is shown in FIG. 16 as in the second embodiment. As shown in FIG. 16, in the present embodiment, description will be made using an imaging optical system driven by two lens groups, but the imaging optical system may be one driven by a group of lenses.

本実施形態では、第2の実施の形態とは、フォーカスレンズ制御部320の動作が異なる。図20に、第4の実施形態におけるフォーカスレンズ制御部320の詳細な構成例を示す。第2の実施形態に静止判定部326が追加される。画像処理部330は、正対判定部321と、評価領域設定部322と、静止判定部326に接続される。静止判定部326は、焦点位置制御部325に接続される。   In the present embodiment, the operation of the focus lens control unit 320 is different from that of the second embodiment. FIG. 20 shows a detailed configuration example of the focus lens control unit 320 in the fourth embodiment. A stillness determination unit 326 is added to the second embodiment. The image processing unit 330 is connected to a facing determination unit 321, an evaluation area setting unit 322, and a stillness determination unit 326. The stillness determination unit 326 is connected to the focal position control unit 325.

静止判定部326の構成、動作は第3の実施形態と同様である。焦点位置制御部325は、正対判定部321からAF動作を開始する制御信号が転送され、かつ、静止判定部326からAF動作を開始する制御信号が転送され、かつ、ズームレンズ制御部350からズームレンズ240が望遠端にあることを示す制御信号が転送された場合は、合焦位置検出部324から転送された合焦位置情報に基づき、焦点位置駆動部250を制御する。一方、焦点位置制御部325は、正対判定部321からAF動作を停止する制御信号が転送された場合、または、静止判定部326からAF動作を停止する制御信号が転送された場合、または、ズームレンズ制御部350からズームレンズ270が望遠端にないことを示す制御信号が転送された場合は、制御部340に予め保存されている所定の位置に焦点調整レンズ240を移動するよう、焦点位置駆動部250を制御する。   The configuration and operation of the stillness determination unit 326 are the same as those in the third embodiment. The focus position control unit 325 receives the control signal for starting the AF operation from the facing determination unit 321, transfers the control signal for starting the AF operation from the stationary determination unit 326, and receives the control signal from the zoom lens control unit 350. When a control signal indicating that the zoom lens 240 is at the telephoto end is transferred, the focus position driving unit 250 is controlled based on the focus position information transferred from the focus position detection unit 324. On the other hand, the focus position control unit 325 receives a control signal for stopping the AF operation from the facing determination unit 321, or receives a control signal for stopping the AF operation from the stationary determination unit 326, or When a control signal indicating that the zoom lens 270 is not at the telephoto end is transferred from the zoom lens control unit 350, the focus position is adjusted so that the focus adjustment lens 240 is moved to a predetermined position stored in advance in the control unit 340. The drive unit 250 is controlled.

以上の本実施形態では、判定部は、体内画像に基づいて、体内被写体が撮像光学系に正対しているか否かを、姿勢情報として判定する正対判定部321と、体内画像に基づいて、体内被写体が撮像光学系に対して相対的に静止しているか否かを、動き情報として判定する静止判定部326を含む。そして、焦点位置制御部325は、正対判定部321において正対していると判定され、かつ、静止判定部326において静止していると判定された場合に、合焦動作を開始する。   In the above-described embodiment, the determination unit determines whether the in-vivo subject is directly facing the imaging optical system based on the in-vivo image, and based on the in-vivo image, based on the confrontation determination unit 321 that determines the posture information. A stationary determination unit 326 that determines whether the in-vivo subject is stationary relative to the imaging optical system as motion information is included. Then, the focus position control unit 325 starts the focusing operation when it is determined that the facing determination unit 321 faces the camera and the stationary determination unit 326 determines that the camera is stationary.

これにより、第1の実施形態において述べた正対判定と、第3の実施形態において述べた静止判定の両方の判定を行った上で、合焦動作を開始させる(AFを動作させる)ことが可能になる。よって、AFが効果的ではない或いはAFが不要である状況において、AFを動作させてしまうことを抑止することができ、ユーザーにとって見やすい画像を提供することが可能になる。   As a result, the focus operation is started (the AF is operated) after performing both the determination of the confrontation described in the first embodiment and the determination of the stillness described in the third embodiment. It becomes possible. Therefore, in a situation where AF is not effective or AF is unnecessary, it is possible to prevent AF from being operated, and it is possible to provide an image that is easy for the user to view.

また、焦点位置制御部325は、ズームレンズ270(撮像光学系に含まれる)の可動範囲における望遠端と広角端の間に位置する基準点に対して、ズームレンズ270が望遠側に位置し、かつ、正対判定部321において体内被写体と撮像光学系が正対していると判定され、かつ、静止判定部326において体内被写体と撮像光学系が相対的に静止していると判定された場合には、合焦動作を開始してもよい。   In addition, the focal position control unit 325 is configured such that the zoom lens 270 is positioned on the telephoto side with respect to a reference point located between the telephoto end and the wide-angle end in the movable range of the zoom lens 270 (included in the imaging optical system). Further, when it is determined that the in-vivo subject and the imaging optical system are directly facing in the facing determination unit 321 and it is determined in the stationary determination unit 326 that the in-vivo subject and the imaging optical system are relatively stationary. May start the focusing operation.

これにより、正対判定・静止判定に加えて、ズームレンズ270と基準点との位置関係も考慮した上で、合焦動作を行うか否かの制御を行うことが可能になる。ズームレンズ位置を考慮することの利点については、第2の実施形態の場合と同様であるため詳細な説明は省略する。   Accordingly, it is possible to control whether or not the focusing operation is performed in consideration of the positional relationship between the zoom lens 270 and the reference point, in addition to the determination of the confrontation and the stillness. The advantages of considering the zoom lens position are the same as in the case of the second embodiment, and a detailed description thereof will be omitted.

以上、本発明を適用した4つの実施の形態1〜4およびその変形例について説明したが、本発明は、各実施の形態1〜4やその変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上記した各実施の形態1〜4や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、各実施の形態1〜4や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態や変形例で説明した構成要素を適宜組み合わせてもよい。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能である。   As mentioned above, although four Embodiments 1-4 and its modification to which this invention was applied were demonstrated, this invention is not limited to each Embodiment 1-4 and its modification as it is, An implementation step The constituent elements can be modified and embodied without departing from the spirit of the invention. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described first to fourth embodiments and modified examples. For example, you may delete a some component from all the components described in each Embodiment 1-4 and the modification. Furthermore, you may combine suitably the component demonstrated in different embodiment and modification. Thus, various modifications and applications are possible without departing from the spirit of the invention.

100 光源部、110 白色光源、120 回転色フィルター、130 回転駆動部、
140 集光レンズ、200 撮像部、210 ライトガイドファイバー、
220 照明レンズ、230 対物レンズ、240 焦点調整レンズ、
250 焦点位置駆動部、260 撮像素子、270 ズームレンズ、
280 ズームレンズ駆動部、300 制御装置、310 A/D変換部、
320 フォーカスレンズ制御部、321 正対判定部、322 評価領域設定部、
323 コントラスト値算出部、324 合焦位置検出部、
325 焦点位置制御部、326 静止判定部、330 画像処理部、
331 前処理部、332 同時化部、333 後処理部、340 制御部、
350 ズームレンズ制御部、400 表示部、500 外部I/F部、
3211 補正部、3212 低域抽出部、3213 分割部、
3214 明るさ算出部、3215 比較部、3216 判定部、
3231 輝点除去部、3232 高域抽出部、3261 記憶部、
3262 検出部、3263 判定部
100 light source unit, 110 white light source, 120 rotation color filter, 130 rotation drive unit,
140 condenser lens, 200 imaging unit, 210 light guide fiber,
220 illumination lens, 230 objective lens, 240 focus adjustment lens,
250 focus position drive unit, 260 imaging element, 270 zoom lens,
280 Zoom lens driving unit, 300 control device, 310 A / D conversion unit,
320 focus lens control unit, 321 alignment determination unit, 322 evaluation region setting unit,
323 contrast value calculation unit, 324 focus position detection unit,
325 focus position control unit, 326 stillness determination unit, 330 image processing unit,
331 pre-processing unit, 332 synchronization unit, 333 post-processing unit, 340 control unit,
350 zoom lens control unit, 400 display unit, 500 external I / F unit,
3211 correction unit, 3212 low-frequency extraction unit, 3213 division unit,
3214 Brightness calculation unit, 3215 comparison unit, 3216 determination unit,
3231 bright spot removal unit, 3232 high-frequency extraction unit, 3261 storage unit,
3262 detection unit, 3263 determination unit

Claims (25)

撮像光学系を介した体内被写体の撮像によって、前記体内被写体の像を含む体内画像を取得する画像取得部と、
取得された前記体内画像に基づいて、撮像時の前記撮像光学系の撮像方向に対する前記体内被写体の状況情報を判定する判定部と、
前記判定部における判定結果に基づいて、前記撮像光学系の駆動を制御することで、前記撮像光学系の焦点位置を制御する焦点位置制御部と、
を含むことを特徴とする焦点位置制御装置。
An image acquisition unit that acquires an in-vivo image including an image of the in-vivo subject by imaging an in-vivo subject via an imaging optical system;
A determination unit that determines state information of the in-vivo subject with respect to an imaging direction of the imaging optical system at the time of imaging based on the acquired in-vivo image;
A focal position control unit that controls the focal position of the imaging optical system by controlling the driving of the imaging optical system based on the determination result in the determination unit;
A focal position control device comprising:
請求項1において、
前記判定部は、
前記撮像光学系の前記撮像方向に対する前記体内被写体の姿勢情報及び前記撮像方向に対する前記体内被写体の動き情報の少なくとも一方を、前記体内被写体の前記状況情報として判定することを特徴とする焦点位置制御装置。
In claim 1,
The determination unit
A focus position control apparatus that determines at least one of posture information of the in-vivo subject with respect to the imaging direction of the imaging optical system and movement information of the in-vivo subject with respect to the imaging direction as the status information of the in-vivo subject. .
請求項2において、
前記判定部は、
前記体内画像に基づいて、前記体内被写体が前記撮像光学系に正対しているか否かを、前記姿勢情報として判定する正対判定部を含み、
前記焦点位置制御部は、
前記正対判定部における判定結果に基づいて、前記撮像光学系の前記焦点位置を制御することを特徴とする焦点位置制御装置。
In claim 2,
The determination unit
A face-to-face determination unit that determines, as the posture information, whether or not the in-vivo subject faces the imaging optical system based on the in-vivo image;
The focal position controller is
A focal position control device that controls the focal position of the imaging optical system based on a determination result in the confrontation determination unit.
請求項3において、
前記焦点位置制御部は、
前記正対判定部において、前記体内被写体が前記撮像光学系に正対していると判定された場合には、前記体内被写体に対して焦点を合わせる合焦動作を開始することを特徴とする焦点位置制御装置。
In claim 3,
The focal position controller is
The focal position, wherein when the in-body determination unit determines that the in-vivo subject is directly facing the imaging optical system, a focusing operation for starting focusing on the in-vivo subject is started. Control device.
請求項4において、
前記焦点位置制御部は、
前記正対判定部において、前記体内被写体が前記撮像光学系に正対していないと判定された場合には、前記合焦動作を停止し、前記撮像光学系に含まれるズームレンズを所与の位置に移動させることを特徴とする焦点位置制御装置。
In claim 4,
The focal position controller is
When it is determined by the facing determination unit that the in-vivo subject is not facing the imaging optical system, the focusing operation is stopped, and the zoom lens included in the imaging optical system is moved to a given position. A focal position control device characterized by being moved to a position.
請求項3において、
前記焦点位置制御部は、
望遠端と広角端の間に位置する基準点に対して、前記撮像光学系に含まれるズームレンズが望遠側にあり、かつ、前記正対判定部において、前記体内被写体が前記撮像光学系に正対していると判定された場合には、前記体内被写体に対して焦点を合わせる合焦動作を開始することを特徴とする焦点位置制御装置。
In claim 3,
The focal position controller is
The zoom lens included in the imaging optical system is on the telephoto side with respect to a reference point located between the telephoto end and the wide-angle end, and the in-body determination unit corrects the in-vivo subject to the imaging optical system. When it is determined that the subject is in focus, the focus position control device starts a focusing operation for focusing on the in-vivo subject.
請求項3において、
前記正対判定部は、
前記体内画像の画像信号に基づいて、明るさ情報を算出する明るさ算出部を含み、
前記正対判定部は、
算出した前記明るさ情報に基づいて、前記体内被写体が前記撮像光学系に正対しているか否かを判定することを特徴とする焦点位置制御装置。
In claim 3,
The facing determination unit
A brightness calculation unit that calculates brightness information based on an image signal of the in-vivo image;
The facing determination unit
A focal position control device that determines whether or not the in-vivo subject is directly facing the imaging optical system based on the calculated brightness information.
請求項7において、
前記正対判定部は、
前記体内画像を複数の領域に分割する分割部を含み、
前記明るさ算出部は、
分割された前記領域ごとに前記明るさ情報を算出し、
前記正対判定部は、
前記領域ごとに算出された前記明るさ情報に基づいて、前記体内被写体が前記撮像光学系に正対しているか否かを判定することを特徴とする焦点位置制御装置。
In claim 7,
The facing determination unit
A dividing unit that divides the in-vivo image into a plurality of regions;
The brightness calculation unit
Calculating the brightness information for each of the divided areas;
The facing determination unit
A focal position control apparatus that determines whether or not the in-vivo subject is directly facing the imaging optical system based on the brightness information calculated for each region.
請求項8において、
前記分割部は、
前記体内画像を中心領域と少なくとも1つの周縁領域に分割し、
前記正対判定部は、
前記中心領域の前記明るさ情報と、前記周縁領域の前記明るさ情報の比較処理を行うことで、前記体内被写体が前記撮像光学系に正対しているか否かを判定することを特徴とする焦点位置制御装置。
In claim 8,
The dividing unit is
Dividing the in-vivo image into a central region and at least one peripheral region;
The facing determination unit
The focus is characterized by determining whether or not the in-vivo subject is facing the imaging optical system by performing a comparison process of the brightness information of the central region and the brightness information of the peripheral region. Position control device.
請求項8において、
前記分割部は、
前記体内画像を中心領域と、第1〜第N(Nは2以上の整数)の周縁領域に分割し、
前記正対判定部は、
前記第1〜第Nの周縁領域のうちの第i(iは1≦i<Nの整数)〜第j(jはi≦j<Nの整数)の周縁領域における前記明るさ情報と、前記第1〜第Nの周縁領域のうちの第k(kはj<k≦Nの整数)〜第m(mはk≦m≦Nの整数)の周縁領域における前記明るさ情報の比較処理を行うことで、前記体内被写体が前記撮像光学系に正対しているか否かを判定することを特徴とする焦点位置制御装置。
In claim 8,
The dividing unit is
The in-vivo image is divided into a central region and first to Nth (N is an integer of 2 or more) peripheral regions,
The facing determination unit
The brightness information in the i-th (i is an integer of 1 ≦ i <N) to j-th (j is an integer of i ≦ j <N) of the first to N-th peripheral regions, Comparison processing of the brightness information in the k-th (m is an integer of k ≦ m ≦ N) to the m-th (m is an integer of k ≦ m ≦ N) of the first to N-th peripheral regions. A focus position control device characterized by determining whether or not the in-vivo subject is directly facing the imaging optical system.
請求項8において、
前記正対判定部は、
前記領域ごとに算出された前記明るさ情報により表される値の差が、所与の閾値よりも小さい場合には、前記体内被写体が前記撮像光学系に正対していると判定することを特徴とする焦点位置制御装置。
In claim 8,
The facing determination unit
When the difference between the values represented by the brightness information calculated for each region is smaller than a given threshold, it is determined that the in-vivo subject is directly facing the imaging optical system. Focus position control device.
請求項2において、
前記判定部は、
前記体内画像に基づいて、前記体内被写体が前記撮像光学系に対して相対的に静止しているか否かを、前記動き情報として判定する静止判定部を含み、
前記焦点位置制御部は、
前記静止判定部における判定結果に基づいて、前記撮像光学系の前記焦点位置を制御することを特徴とする焦点位置制御装置。
In claim 2,
The determination unit
A stationary determination unit that determines, as the motion information, whether or not the in-vivo subject is stationary relative to the imaging optical system based on the in-vivo image;
The focal position controller is
A focus position control device that controls the focus position of the imaging optical system based on a determination result in the stillness determination unit.
請求項12において、
前記焦点位置制御部は、
前記静止判定部において、前記体内被写体が前記撮像光学系に対して相対的に静止していると判定された場合には、前記体内被写体に対して焦点を合わせる合焦動作を開始することを特徴とする焦点位置制御装置。
In claim 12,
The focal position controller is
When the in-vivo subject is determined to be relatively stationary with respect to the imaging optical system, the stationary determination unit starts an in-focus operation for focusing on the in-vivo subject. Focus position control device.
請求項13において、
前記焦点位置制御部は、
前記静止判定部において、前記体内被写体が前記撮像光学系に対して相対的に静止していないと判定された場合には、前記合焦動作を停止し、前記撮像光学系に含まれるズームレンズを所与の位置に移動させることを特徴とする焦点位置制御装置。
In claim 13,
The focal position controller is
When the in-vivo subject is determined not to be relatively stationary with respect to the imaging optical system, the stationary determination unit stops the focusing operation, and uses a zoom lens included in the imaging optical system. A focal position control device characterized by moving to a given position.
請求項12において、
前記静止判定部は、
第1のタイミングで取得された第1の体内画像と、前記第1のタイミングとは異なる第2のタイミングで取得された第2の体内画像を記憶する記憶部と、
前記第1の体内画像と前記第2の体内画像とに基づいて、前記体内被写体と前記撮像光学系の相対的な動き量を検出する動き検出部を含み、
前記静止判定部は、
検出された前記動き量が所与の閾値よりも小さい場合には、前記体内被写体が前記撮像光学系に対して相対的に静止していると判定することを特徴とする焦点位置制御装置。
In claim 12,
The stationary determination unit
A storage unit for storing a first in-vivo image acquired at a first timing and a second in-vivo image acquired at a second timing different from the first timing;
A motion detection unit that detects a relative motion amount of the in-vivo subject and the imaging optical system based on the first in-vivo image and the second in-vivo image;
The stationary determination unit
A focus position control device, wherein when the detected amount of motion is smaller than a given threshold, it is determined that the in-vivo subject is stationary relative to the imaging optical system.
請求項15において、
前記静止判定部は、
前記撮像光学系の前記撮像方向に沿った前記体内被写体の相対的な第1の動きと、前記撮像光学系の前記撮像方向に交差する方向に沿った前記体内被写体の相対的な第2の動きのうち、前記第2の動きに基づいて、前記体内被写体が前記撮像光学系に対して相対的に静止しているか否かを判定することを特徴とする焦点位置制御装置。
In claim 15,
The stationary determination unit
The first relative movement of the in-vivo subject along the imaging direction of the imaging optical system and the second relative movement of the in-vivo subject along the direction intersecting the imaging direction of the imaging optical system A focal position control device that determines whether the in-vivo subject is stationary relative to the imaging optical system based on the second movement.
請求項16において、
前記静止判定部は、
前記体内画像上に設定された複数の代表点における複数の動きベクトルに基づいて、消失点の検出処理を行い、前記消失点の検出結果に基づいて、前記体内被写体が前記撮像光学系に対して相対的に静止しているか否かを判定することを特徴とする焦点位置制御装置。
In claim 16,
The stationary determination unit
Based on a plurality of motion vectors at a plurality of representative points set on the in-vivo image, vanishing point detection processing is performed, and the in-vivo subject is detected with respect to the imaging optical system based on the vanishing point detection result. A focal position control device, characterized by determining whether or not it is relatively stationary.
請求項12において、
前記焦点位置制御部は、
望遠端と広角端の間に位置する基準点に対して、前記撮像光学系に含まれるズームレンズが望遠側にあり、かつ、前記静止判定部において、前記体内被写体が前記撮像光学系に対して相対的に静止していると判定された場合には、前記体内被写体に対して焦点を合わせる合焦動作を開始することを特徴とする焦点位置制御装置。
In claim 12,
The focal position controller is
The zoom lens included in the imaging optical system is on the telephoto side with respect to a reference point located between the telephoto end and the wide-angle end, and the in-vivo subject is located relative to the imaging optical system in the stationary determination unit. A focus position control apparatus characterized by starting a focusing operation for focusing on the in-vivo subject when it is determined that the subject is relatively stationary.
請求項2において、
前記判定部は、
前記体内画像に基づいて、前記体内被写体が前記撮像光学系に正対しているか否かを、前記姿勢情報として判定する正対判定部と、
前記体内画像に基づいて、前記体内被写体が前記撮像光学系に対して相対的に静止しているか否かを、前記動き情報として判定する静止判定部を含み、
前記焦点位置制御部は、
前記正対判定部において、前記体内被写体が前記撮像光学系に正対していると判定され、かつ、前記静止判定部において、前記体内被写体が前記撮像光学系に対して相対的に静止していると判定された場合には、前記体内被写体に対して焦点を合わせる合焦動作を開始することを特徴とする焦点位置制御装置。
In claim 2,
The determination unit
A facing determination unit that determines, as the posture information, whether or not the in-vivo subject is facing the imaging optical system based on the in-vivo image;
A stationary determination unit that determines, as the motion information, whether or not the in-vivo subject is stationary relative to the imaging optical system based on the in-vivo image;
The focal position controller is
In the facing determination unit, it is determined that the in-vivo subject is facing the imaging optical system, and in the stationary determination unit, the in-vivo subject is relatively stationary with respect to the imaging optical system. When it is determined that the focus position control apparatus starts focusing operation for focusing on the in-vivo subject.
請求項19において、
前記焦点位置制御部は、
望遠端と広角端の間に位置する基準点に対して、前記撮像光学系に含まれるズームレンズが望遠側にあり、かつ、前記正対判定部において、前記体内被写体が前記撮像光学系に正対していると判定され、かつ、前記静止判定部において、前記体内被写体が前記撮像光学系に対して相対的に静止していると判定された場合には、前記合焦動作を開始することを特徴とする焦点位置制御装置。
In claim 19,
The focal position controller is
The zoom lens included in the imaging optical system is on the telephoto side with respect to a reference point located between the telephoto end and the wide-angle end, and the in-body determination unit corrects the in-vivo subject to the imaging optical system. And when the in-vivo subject is determined to be relatively stationary with respect to the imaging optical system, the focusing operation is started. A focus position control device.
請求項1において、
前記体内画像に対して評価領域を設定する評価領域設定部と、
設定された前記評価領域のコントラスト値を算出するコントラスト値算出部を含み、
前記焦点位置制御部は、
前記コントラスト値に基づいて前記撮像光学系の前記焦点位置を制御することを特徴とする焦点位置制御装置。
In claim 1,
An evaluation area setting unit for setting an evaluation area for the in-vivo image;
A contrast value calculation unit for calculating a contrast value of the set evaluation area;
The focal position controller is
A focal position control apparatus that controls the focal position of the imaging optical system based on the contrast value.
請求項21において、
前記コントラスト値算出部は、
前記評価領域に含まれる輝点を除去する輝点除去部を含み、
前記コントラスト値算出部は、
前記輝点を除去した前記評価領域の前記コントラスト値を算出することを特徴とする焦点位置制御装置。
In claim 21,
The contrast value calculation unit
Including a bright spot removing unit for removing bright spots contained in the evaluation region,
The contrast value calculation unit
The focus position control apparatus, wherein the contrast value of the evaluation area from which the bright spot is removed is calculated.
撮像光学系を介した体内被写体の撮像によって、前記体内被写体の像を含む体内画像を取得する画像取得部と、
取得された前記体内画像に基づいて、撮像時の前記撮像光学系の撮像方向に対する前記体内被写体の状況情報を判定する判定部と、
前記判定部における判定結果に基づいて、前記撮像光学系の駆動を制御することで、前記撮像光学系の焦点位置を制御する焦点位置制御部と、
前記焦点位置制御部の制御に基づいて前記撮像光学系を駆動する焦点位置駆動部と、
を含むことを特徴とする内視鏡装置。
An image acquisition unit that acquires an in-vivo image including an image of the in-vivo subject by imaging an in-vivo subject via an imaging optical system;
A determination unit that determines state information of the in-vivo subject with respect to an imaging direction of the imaging optical system at the time of imaging based on the acquired in-vivo image;
A focal position control unit that controls the focal position of the imaging optical system by controlling the driving of the imaging optical system based on the determination result in the determination unit;
A focal position drive unit that drives the imaging optical system based on the control of the focal position control unit;
An endoscopic device comprising:
撮像光学系を介した体内被写体の撮像によって、前記体内被写体の像を含む体内画像を取得し、
取得された前記体内画像に基づいて、撮像時の前記撮像光学系の撮像方向に対する前記体内被写体の状況情報を判定し、
判定結果に基づいて、前記撮像光学系の駆動を制御することで、前記撮像光学系の焦点位置を制御することを特徴とする焦点位置制御方法。
By capturing an in-vivo subject via an imaging optical system, an in-vivo image including the in-vivo subject image is obtained,
Based on the acquired in-vivo image, determine the status information of the in-vivo subject relative to the imaging direction of the imaging optical system at the time of imaging,
A focus position control method, wherein the focus position of the imaging optical system is controlled by controlling driving of the imaging optical system based on a determination result.
請求項24において、
前記撮像光学系の前記撮像方向に対する前記体内被写体の姿勢情報及び前記撮像方向に対する前記体内被写体の動き情報の少なくとも一方を、前記体内被写体の前記状況情報として判定することを特徴とする焦点位置制御方法。
In claim 24,
At least one of posture information of the in-vivo subject with respect to the imaging direction of the imaging optical system and movement information of the in-vivo subject with respect to the imaging direction is determined as the situation information of the in-vivo subject. .
JP2011183762A 2011-08-25 2011-08-25 Focal position controller, endoscope, and focal position control method Withdrawn JP2013043007A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011183762A JP2013043007A (en) 2011-08-25 2011-08-25 Focal position controller, endoscope, and focal position control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011183762A JP2013043007A (en) 2011-08-25 2011-08-25 Focal position controller, endoscope, and focal position control method

Publications (1)

Publication Number Publication Date
JP2013043007A true JP2013043007A (en) 2013-03-04

Family

ID=48007380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011183762A Withdrawn JP2013043007A (en) 2011-08-25 2011-08-25 Focal position controller, endoscope, and focal position control method

Country Status (1)

Country Link
JP (1) JP2013043007A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015098218A1 (en) * 2013-12-27 2015-07-02 オリンパス株式会社 Endoscopic device, method for controlling endoscopic device, and program
WO2016117107A1 (en) * 2015-01-23 2016-07-28 オリンパス株式会社 Endoscope device and focus control method for endoscope device
WO2016199264A1 (en) * 2015-06-11 2016-12-15 オリンパス株式会社 Endoscopic device and focus control method
WO2017072860A1 (en) * 2015-10-27 2017-05-04 オリンパス株式会社 Imaging device, endoscope device, and method for operating imaging device
US10617282B2 (en) 2016-01-13 2020-04-14 Olympus Corporation Endoscope apparatus and method for focusing based on motion information

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015098218A1 (en) * 2013-12-27 2015-07-02 オリンパス株式会社 Endoscopic device, method for controlling endoscopic device, and program
JP2015123293A (en) * 2013-12-27 2015-07-06 オリンパス株式会社 Endoscope apparatus, control method of endoscope apparatus, and program
US10574874B2 (en) 2013-12-27 2020-02-25 Olympus Corporation Endoscope apparatus, method for controlling endoscope apparatus, and information storage device
CN105848558A (en) * 2013-12-27 2016-08-10 奥林巴斯株式会社 Endoscope device, endoscope device control method and program
CN107205626A (en) * 2015-01-23 2017-09-26 奥林巴斯株式会社 The focusing control method of endoscope apparatus and endoscope apparatus
JPWO2016117107A1 (en) * 2015-01-23 2017-12-14 オリンパス株式会社 Endoscope apparatus and focus control method for endoscope apparatus
CN107205626B (en) * 2015-01-23 2019-09-03 奥林巴斯株式会社 The focusing control method of endoscope apparatus and endoscope apparatus
WO2016117107A1 (en) * 2015-01-23 2016-07-28 オリンパス株式会社 Endoscope device and focus control method for endoscope device
US10820787B2 (en) 2015-01-23 2020-11-03 Olympus Corporation Endoscope device and focus control method for endoscope device
WO2016199264A1 (en) * 2015-06-11 2016-12-15 オリンパス株式会社 Endoscopic device and focus control method
CN107708517A (en) * 2015-06-11 2018-02-16 奥林巴斯株式会社 Endoscope apparatus and focusing control method
US10799085B2 (en) 2015-06-11 2020-10-13 Olympus Corporation Endoscope apparatus and focus control method
WO2017072860A1 (en) * 2015-10-27 2017-05-04 オリンパス株式会社 Imaging device, endoscope device, and method for operating imaging device
US10945591B2 (en) 2015-10-27 2021-03-16 Olympus Corporation Image capturing device, endoscope apparatus, and method for operating image capturing device
US10617282B2 (en) 2016-01-13 2020-04-14 Olympus Corporation Endoscope apparatus and method for focusing based on motion information

Similar Documents

Publication Publication Date Title
JP6013020B2 (en) Endoscope apparatus and method for operating endoscope apparatus
JP5951211B2 (en) Focus control device and endoscope device
JP5855358B2 (en) Endoscope apparatus and method for operating endoscope apparatus
JP5953187B2 (en) Focus control device, endoscope system, and focus control method
WO2014155782A1 (en) Image processing device, endoscopic device, program and image processing method
US9492059B2 (en) Endoscope apparatus, information storage device, and image processing method
US10129454B2 (en) Imaging device, endoscope apparatus, and method for controlling imaging device
US9154745B2 (en) Endscope apparatus and program
JP5698476B2 (en) ENDOSCOPE SYSTEM, ENDOSCOPE SYSTEM OPERATING METHOD, AND IMAGING DEVICE
US20160128545A1 (en) Endoscope apparatus and method for controlling endoscope apparatus
US9516999B2 (en) Endoscope apparatus and focus control method for endoscope apparatus
US20120147165A1 (en) Control device, endoscope apparatus, and focus control method
CN107005647B (en) Focus control device, endoscope device, and control method for focus control device
CN107430258B (en) Focusing control device, control method thereof, imaging device, and endoscope system
WO2016117107A1 (en) Endoscope device and focus control method for endoscope device
JP2013043007A (en) Focal position controller, endoscope, and focal position control method
JP5996218B2 (en) Endoscope apparatus and method for operating endoscope apparatus
US9451876B2 (en) Endoscope system and focus control method for endoscope system
US8233075B2 (en) User-aided auto-focus
JP6120491B2 (en) Endoscope apparatus and focus control method for endoscope apparatus
WO2013061939A1 (en) Endoscopic device and focus control method
JP6177387B2 (en) Endoscope device focus control device, endoscope device, and operation method of endoscope control device
JPWO2014208224A1 (en) Autofocus device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141104