JP2018007880A - Endoscope apparatus and control method - Google Patents

Endoscope apparatus and control method Download PDF

Info

Publication number
JP2018007880A
JP2018007880A JP2016139455A JP2016139455A JP2018007880A JP 2018007880 A JP2018007880 A JP 2018007880A JP 2016139455 A JP2016139455 A JP 2016139455A JP 2016139455 A JP2016139455 A JP 2016139455A JP 2018007880 A JP2018007880 A JP 2018007880A
Authority
JP
Japan
Prior art keywords
hunting
halation
unit
luminance
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016139455A
Other languages
Japanese (ja)
Inventor
正充 小笠原
Masamitsu Ogasawara
正充 小笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2016139455A priority Critical patent/JP2018007880A/en
Publication of JP2018007880A publication Critical patent/JP2018007880A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To suppress generation of hunting and halation as much as possible.SOLUTION: An endoscope apparatus includes: an insertion section, a hunting detection section, a halation detection section, and an imaging control section. The insertion section includes an imaging part at a distal end. The hunting detection section detects a hunting state on the basis of luminance of an image from the imaging part. The halation detection section detects a halation state of the image. The imaging control section controls the luminance on the basis of the hunting state and the halation state. A control method of an endoscope apparatus can be also implemented as one embodiment.SELECTED DRAWING: Figure 2

Description

本発明は、内視鏡装置および制御方法に関する。   The present invention relates to an endoscope apparatus and a control method.

従来から、細長の挿入部を備える内視鏡装置が医療分野において利用されている。挿入部には、先端に照明と撮像部が設置され、処置具チャンネルが挿通されることがある。撮像部が体腔内に挿入されることで、例えば、内臓器などの被検体の観察に用いられる。処置具チャンネルには、各種の処置具が挿通され各種の治療処置に用いられる。また、工業分野においても、内視鏡装置は、ボイラ、タービン、エンジン、化学プラント、その他の構造物の内部における損傷、腐食等の観察、検査等のために用いられる。このような内視鏡装置は、一般に観察等の対象物が様々である。そのため、観察条件に応じて画面の明るさを制御する自動露光(Automatic Exposure)制御機構が搭載されている内視鏡装置がある。   Conventionally, an endoscope apparatus provided with an elongated insertion portion has been used in the medical field. The insertion unit may be provided with illumination and an imaging unit at the tip, and the treatment instrument channel may be inserted therethrough. When the imaging unit is inserted into the body cavity, for example, it is used for observation of a subject such as an internal organ. Various treatment tools are inserted into the treatment tool channel and used for various therapeutic treatments. Also in the industrial field, the endoscope apparatus is used for observation, inspection, and the like of damage, corrosion, and the like inside boilers, turbines, engines, chemical plants, and other structures. Such an endoscope apparatus generally has various objects such as observation. Therefore, there is an endoscope apparatus equipped with an automatic exposure control mechanism that controls the brightness of the screen according to the observation conditions.

AE制御は、撮像される画像の明るさと目標の明るさとの差分をフィードバックして、明るさの制御パラメータを定めるフィードバック制御を含む。制御パラメータには、例えば、シャッター速度がある。シャッター速度は、露光時間の逆数に相当する。制御パラメータには、さらにゲインが含まれることがある。ゲインは、画素ごとの信号レベルに乗算される増幅率である。撮像時にAE制御が行われると、制御パラメータが収束せずにハンチングが発生することがある。ハンチングとは、明るさの発振現象を意味する。ハンチングが発生すると、撮影された画像の明るさが適切な明るさに定まらないので観察に支障を生じることがある。かかる状況を防止する内視鏡装置として、特許文献1には、ハンチングを検出するときAE制御を停止する電子内視鏡装置について開示されている。   The AE control includes feedback control that determines the brightness control parameter by feeding back the difference between the brightness of the captured image and the target brightness. An example of the control parameter is a shutter speed. The shutter speed corresponds to the reciprocal of the exposure time. The control parameter may further include a gain. The gain is an amplification factor multiplied by the signal level for each pixel. If AE control is performed during imaging, hunting may occur without the control parameters converging. Hunting means an oscillation phenomenon of brightness. When hunting occurs, the brightness of the photographed image is not set to an appropriate brightness, which may hinder observation. As an endoscope apparatus for preventing such a situation, Patent Document 1 discloses an electronic endoscope apparatus that stops AE control when hunting is detected.

特開2002−325729号公報JP 2002-325729 A

しかしながら、AE制御を完全に停止してしまうと、ハレーションがより頻繁に発生する傾向がある。ハレーションとは、画素ごとに検出された輝度が信号値として表現可能な所定の最大値を超えるために、信号値がその最大値に制限される現象である。ハレーションは、白飛びとも呼ばれる。ハレーションが発生すると、ユーザが被検体を観察できず所望の作業を行うことができなくなる。特に、画像の観察中に航空機のエンジンなど光の反射率が高い金属の被検体の内部に挿入される場合に、ハレーションが頻繁に発生する。   However, if AE control is completely stopped, halation tends to occur more frequently. The halation is a phenomenon in which the signal value is limited to the maximum value because the luminance detected for each pixel exceeds a predetermined maximum value that can be expressed as a signal value. Halation is also called whitening. When halation occurs, the user cannot observe the subject and cannot perform a desired operation. In particular, halation frequently occurs when an object is inserted into a metal object having a high light reflectance such as an aircraft engine during image observation.

本発明は、上記の課題に基づいてなされたものであり、ハンチングとハレーションの発生を極力抑制することができる内視鏡装置および制御方法を提供することを目的としている。   The present invention has been made based on the above problems, and an object of the present invention is to provide an endoscope apparatus and a control method that can suppress the occurrence of hunting and halation as much as possible.

本発明の一態様は、先端に撮像部を備える挿入部と、前記撮像部からの画像の輝度に基づいてハンチング状態を検出するハンチング検出部と、前記画像のハレーション状態を検出するハレーション検出部と、前記ハンチング状態および前記ハレーション状態に基づいて前記輝度を制御する撮像制御部と、を備える内視鏡装置である。   One aspect of the present invention includes an insertion unit including an imaging unit at a tip, a hunting detection unit that detects a hunting state based on luminance of an image from the imaging unit, and a halation detection unit that detects a halation state of the image. An imaging control unit that controls the luminance based on the hunting state and the halation state.

本発明によれば、ハンチングとハレーションの発生を極力抑制することができる。   According to the present invention, generation of hunting and halation can be suppressed as much as possible.

本実施形態に係る内視鏡装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the endoscope apparatus which concerns on this embodiment. 本実施形態に係るハンチングの検出法の一例を示す図である。It is a figure which shows an example of the detection method of hunting concerning this embodiment. 本実施形態に係るハレーションの検出法の一例を示す図である。It is a figure which shows an example of the detection method of the halation which concerns on this embodiment. 本実施形態に係る露光時間の制御例を示す図である。It is a figure which shows the example of control of the exposure time which concerns on this embodiment. 本実施形態に係るAE制御の一例を示す図である。It is a figure which shows an example of AE control which concerns on this embodiment. 本実施形態に係るAE制御の他の例を示す図である。It is a figure which shows the other example of AE control which concerns on this embodiment.

次に、本発明の実施形態について図面を参照して説明する。
図1は、本実施形態に係る内視鏡装置1の構成例を示すブロック図である。
本実施形態に係る内視鏡装置1は、挿入部10と、本体部11とを含んで構成される。挿入部10は、被検体の内部に挿入され、少なくとも被検体の内部の画像を取得する。被検体の種類は、特に限定されない。被検体は、例えば、エンジン、タービン、ボイラ、などの産業用機器であってもよいし、生体であってもよい。挿入部10は、屈曲可能であり細長い管状の形状を有する。挿入部10の長さは、例えば、1〜30mである。
Next, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram illustrating a configuration example of an endoscope apparatus 1 according to the present embodiment.
The endoscope apparatus 1 according to the present embodiment includes an insertion portion 10 and a main body portion 11. The insertion unit 10 is inserted into the subject and acquires at least an image inside the subject. The type of subject is not particularly limited. The subject may be an industrial device such as an engine, a turbine, or a boiler, or may be a living body. The insertion portion 10 is bendable and has an elongated tubular shape. The length of the insertion part 10 is 1-30 m, for example.

挿入部10は、その先端部において、CCD(Charge Coupled Device;電荷結合素子)撮像素子104、対物レンズ105、LED(Light Emitting Diode、発光ダイオード)106、サーミスタ107、加速度センサ108、ワイヤー固定部109、ワイヤー連結部124および着脱コネクタ134を備える。挿入部10の長手方向には、4本の湾曲用ワイヤー126が挿通されている。   The insertion portion 10 has a CCD (Charge Coupled Device) imaging element 104, an objective lens 105, an LED (Light Emitting Diode) 106, a thermistor 107, an acceleration sensor 108, and a wire fixing portion 109 at the distal end thereof. And a wire connecting part 124 and a detachable connector 134. In the longitudinal direction of the insertion portion 10, four bending wires 126 are inserted.

CCD撮像素子104は、被検体からの光を光電変換する。CCD撮像素子104の撮像面には、画素ごとに受光素子が配列され、各受光素子は到来した光の強度に応じた電圧を生じる。CCD撮像素子104は、本体部11から入力される駆動信号が指示するタイミングに基づいて、光電変換により得られる電圧値から画素ごとの信号値を示す撮像信号を生成する。CCD撮像素子104は、生成した撮像信号を本体部11に出力する。   The CCD image sensor 104 photoelectrically converts light from the subject. A light receiving element is arranged for each pixel on the image pickup surface of the CCD image pickup element 104, and each light receiving element generates a voltage according to the intensity of the incoming light. The CCD image pickup device 104 generates an image pickup signal indicating a signal value for each pixel from a voltage value obtained by photoelectric conversion based on a timing indicated by a drive signal input from the main body unit 11. The CCD imaging device 104 outputs the generated imaging signal to the main body unit 11.

対物レンズ105は、挿入部10の先端部に入射する光を収束し、被検体の像をCCD撮像素子の撮像面に結像する。対物レンズ105は、当該先端部の受光窓(図示せず)に対向して配置される。   The objective lens 105 converges the light incident on the distal end portion of the insertion unit 10 and forms an image of the subject on the imaging surface of the CCD image sensor. The objective lens 105 is disposed to face a light receiving window (not shown) at the tip.

LED106は、本体部11から供給される駆動電力に基づいて光を発光する光源である。LED106は、発光した光を被検体に照射する。   The LED 106 is a light source that emits light based on the driving power supplied from the main body 11. The LED 106 irradiates the subject with the emitted light.

サーミスタ107は、挿入部10の先端部における温度を検出する温度センサである。サーミスタ107は、検出した温度を示すサーミスタ信号を生成し、生成したサーミスタ信号を本体部11に出力する。   The thermistor 107 is a temperature sensor that detects the temperature at the distal end portion of the insertion portion 10. The thermistor 107 generates a thermistor signal indicating the detected temperature, and outputs the generated thermistor signal to the main body 11.

加速度センサ108は、挿入部10の先端部における加速度を検出する。加速度センサ108は、例えば、3軸加速度センサである。3軸加速度センサは、3次元空間における互いに直交する3方向のそれぞれの加速度を検出する。加速度センサ108は、検出した加速度を示す加速度信号を本体部11に出力する。   The acceleration sensor 108 detects the acceleration at the distal end portion of the insertion portion 10. The acceleration sensor 108 is, for example, a triaxial acceleration sensor. The three-axis acceleration sensor detects respective accelerations in three directions orthogonal to each other in a three-dimensional space. The acceleration sensor 108 outputs an acceleration signal indicating the detected acceleration to the main body 11.

ワイヤー固定部109は、挿入部10の先端部に設置されている。ワイヤー固定部109には、4本の湾曲用ワイヤー126の先端が、挿入部10の長手方向に直交する2軸方向に交互に傾動可能に接続されている。2軸のそれぞれの方向は、相互に直交する。2軸の方向には、UD(Up−Down)方向とRL(Right−Left)方向がある。UD方向、RL方向は、撮像面に配列された画素の垂直方向、水平方向に相当する。UD、RL方向の湾曲に係る各2本の湾曲用ワイヤーを、それぞれUD、RLワイヤーと呼ぶ。   The wire fixing portion 109 is installed at the distal end portion of the insertion portion 10. The distal ends of the four bending wires 126 are connected to the wire fixing portion 109 so that they can be alternately tilted in two axial directions orthogonal to the longitudinal direction of the insertion portion 10. The directions of the two axes are orthogonal to each other. The biaxial directions include a UD (Up-Down) direction and an RL (Right-Left) direction. The UD direction and the RL direction correspond to the vertical direction and horizontal direction of the pixels arranged on the imaging surface. Each of the two bending wires relating to the bending in the UD and RL directions is referred to as a UD and RL wire, respectively.

ワイヤー連結部124は、挿入部10の基端部に設置されている。ワイヤー連結部124は、本体部11が備えるワイヤー連結部125との連結時において、ワイヤー連結部125による牽引に応じて、各湾曲用ワイヤー126を挿入部10の長手方向に牽引する。   The wire connecting portion 124 is installed at the proximal end portion of the insertion portion 10. The wire connecting portion 124 pulls each bending wire 126 in the longitudinal direction of the insertion portion 10 in accordance with the pulling by the wire connecting portion 125 when the wire connecting portion 124 is connected to the wire connecting portion 125 included in the main body portion 11.

着脱コネクタ134は、挿入部10の基端部に設置されている。着脱コネクタ134は、本体部11が備える着脱コネクタ135と着脱可能な機構を備える。着脱コネクタ134は、例えば、着脱コネクタ135と相互に嵌合する形状を有する。   The detachable connector 134 is installed at the proximal end portion of the insertion portion 10. The detachable connector 134 includes a mechanism that is detachable from the detachable connector 135 included in the main body 11. The detachable connector 134 has a shape that fits with the detachable connector 135, for example.

なお、挿入部10には、撮像制御信号、撮像信号、駆動電力、サーミスタ信号および加速度信号のそれぞれを伝送する接続ケーブルが挿通されている。これらの接続ケーブルは、着脱コネクタ134が本体部11の着脱コネクタ135に装着されているときに、それぞれの送信元ならびに送信先の構成要素と電気的に接続される。これらの接続ケーブルは、例えば、複合同軸線である。着脱コネクタ134、135は、各接続ケーブルの基端と電気的に接続する接点を備える。   The insertion unit 10 is inserted with connection cables that transmit the imaging control signal, the imaging signal, the driving power, the thermistor signal, and the acceleration signal. These connection cables are electrically connected to the components of the transmission source and the transmission destination when the detachable connector 134 is attached to the detachable connector 135 of the main body 11. These connection cables are, for example, composite coaxial lines. The detachable connectors 134 and 135 include contacts that are electrically connected to the base ends of the connection cables.

本体部11は、挿入部10の基端部と当接されうる端部にワイヤー連結部125と着脱コネクタ135を備える。本体部11は、システム制御部110、ユーザインタフェース部111、記憶媒体112、パラメータ記憶部113、タイミングジェネレータ114、CCDドライブ回路115、LCD(Liquid Crystal Display、液晶ディスプレイ)118、LED駆動回路119、湾曲制御部121、UD湾曲モータ122、RL湾曲モータ123、プリアンプ136、AFE(Analog Front End)137および画像処理部140を含んで構成される。   The main body portion 11 includes a wire connecting portion 125 and a detachable connector 135 at an end portion that can come into contact with the proximal end portion of the insertion portion 10. The main body 11 includes a system control unit 110, a user interface unit 111, a storage medium 112, a parameter storage unit 113, a timing generator 114, a CCD drive circuit 115, an LCD (Liquid Crystal Display) 118, an LED drive circuit 119, a curve The controller 121 includes a UD bending motor 122, an RL bending motor 123, a preamplifier 136, an AFE (Analog Front End) 137, and an image processing unit 140.

システム制御部110は、内視鏡装置1の全体の動作制御を行う構成要素である。システム制御部110には、ユーザインタフェース部111、記憶媒体112、パラメータ記憶部113、CCDドライブ回路115、LCD118、LED駆動回路119、湾曲制御部121、着脱コネクタ135の接点および画像処理部140と接続されている。システム制御部110は、ユーザインタフェース部111から入力された操作信号、パラメータ記憶部113に記憶された各種のパラメータなどに基づいて、内視鏡装置1の各構成要素の動作を制御する。システム制御部110は、例えば、LED106の点灯/消灯制御、CCD撮像素子104の撮像動作制御、湾曲制御部121の湾曲制御、温度検出制御、などがある。温度検出制御において、システム制御部110は、サーミスタ107から入力されるサーミスタ信号が示す現在の温度を示す情報をLCD118にLCDコントローラ110bを介して表示させる。また、システム制御部110は、パラメータ記憶部113に予め記憶した許容温度の上限または下限に基づいて、現在の温度が、その上限または下限から所定範囲内である場合、上限よりも高い場合または下限よりも低い場合、LCD118に所定の警告メッセージを表示させる。システム制御部110は、画像記録部110aとLCDコントローラ110bを含んで構成される。   The system control unit 110 is a component that performs overall operation control of the endoscope apparatus 1. The system control unit 110 is connected to the user interface unit 111, the storage medium 112, the parameter storage unit 113, the CCD drive circuit 115, the LCD 118, the LED drive circuit 119, the bending control unit 121, the contacts of the detachable connector 135 and the image processing unit 140. Has been. The system control unit 110 controls the operation of each component of the endoscope apparatus 1 based on the operation signal input from the user interface unit 111, various parameters stored in the parameter storage unit 113, and the like. The system control unit 110 includes, for example, lighting / extinguishing control of the LED 106, imaging operation control of the CCD image sensor 104, bending control of the bending control unit 121, temperature detection control, and the like. In the temperature detection control, the system control unit 110 causes the LCD 118 to display information indicating the current temperature indicated by the thermistor signal input from the thermistor 107 via the LCD controller 110b. Further, the system control unit 110 determines whether the current temperature is within a predetermined range from the upper limit or the lower limit, based on the upper limit or the lower limit of the allowable temperature stored in the parameter storage unit 113 in advance, or higher or lower than the upper limit. If lower, a predetermined warning message is displayed on the LCD 118. The system control unit 110 includes an image recording unit 110a and an LCD controller 110b.

画像記録部110aは、ユーザインタフェース部111から入力された制御信号に基づいて、画像処理部140から入力される画像信号を記憶媒体112に記憶する。例えば、画像記録部110aは、制御信号で指示される記録開始時から記録終了時までの画像信号を記憶媒体112に記憶する。   The image recording unit 110 a stores the image signal input from the image processing unit 140 in the storage medium 112 based on the control signal input from the user interface unit 111. For example, the image recording unit 110a stores in the storage medium 112 image signals from the start of recording to the end of recording indicated by the control signal.

LCDコントローラ110bは、ユーザインタフェース部111から入力された制御信号に基づいて、画像処理部140から画像記録部110aを介して入力される画像信号をLCD118に出力する。これにより、LCD118は、画像処理部140が取得した各種の動画像、静止画像を表示することができる。静止画像を表示させる場合、LCDコントローラ110bは、その時点で取得されるフレームの画像信号を継続してLCD118に出力する。画像記録部110aは、静止画像として取得される画像信号を記憶媒体112に記録してもよい。LCDコントローラ110bは、その他、各種の表示情報を示す画像信号をLCD118に出力する。表示情報には、例えば、操作入力等に必要な情報の案内画面などがある。   The LCD controller 110 b outputs an image signal input from the image processing unit 140 via the image recording unit 110 a to the LCD 118 based on the control signal input from the user interface unit 111. Thereby, the LCD 118 can display various moving images and still images acquired by the image processing unit 140. When displaying a still image, the LCD controller 110b continuously outputs an image signal of a frame acquired at that time to the LCD 118. The image recording unit 110a may record an image signal acquired as a still image in the storage medium 112. In addition, the LCD controller 110b outputs image signals indicating various display information to the LCD 118. The display information includes, for example, a guidance screen for information necessary for operation input.

ユーザインタフェース部111は、操作部を含んで構成される。操作部は、ユーザによる操作入力を受け付ける。操作部は、例えば、ジョイスティック、操作スイッチ、操作ボタンなどの部材である。ユーザインタフェース部111は、受け付けた操作入力に応じた制御信号を生成し、生成した制御信号をシステム制御部110に出力する。   The user interface unit 111 includes an operation unit. The operation unit accepts an operation input by a user. The operation unit is, for example, a member such as a joystick, an operation switch, or an operation button. The user interface unit 111 generates a control signal corresponding to the received operation input, and outputs the generated control signal to the system control unit 110.

記憶媒体112は、画像信号を記憶する記憶媒体である。記憶媒体112には、例えば、画像処理部140により得られる動画像、静止画像などの画像を示す画像信号が記憶される。   The storage medium 112 is a storage medium that stores image signals. In the storage medium 112, for example, an image signal indicating an image such as a moving image or a still image obtained by the image processing unit 140 is stored.

パラメータ記憶部113は、ユーザインタフェース部111への操作入力、画像処理部140が実行する各種の画像処理に用いる画像処理パラメータ、湾曲制御部121による湾曲制御に関する湾曲制御パラメータなど、ユーザの操作により変更される各種のパラメータを記憶する。また、パラメータ記憶部113には、非撮像信号の伝送路長とCCDドライブ回路115のドライブ処理のパラメータとの関係などが記憶されている。   The parameter storage unit 113 is changed by a user operation such as an operation input to the user interface unit 111, an image processing parameter used for various image processing executed by the image processing unit 140, and a bending control parameter related to bending control by the bending control unit 121. Various parameters to be stored are stored. Further, the parameter storage unit 113 stores the relationship between the transmission path length of the non-imaging signal and the drive processing parameters of the CCD drive circuit 115, and the like.

タイミングジェネレータ114は、システム制御部110から入力された撮像制御信号に基づいてCCD撮像素子を駆動するタイミング信号を生成する。撮像制御信号には、画像処理部140から通知された露光時間などの情報が含まれる。露光時間は、各画素における露光開始から露光終了までの時間であり、シャッター速度の逆数に相当する。従って、露光時間が長いほど1回の読取で得られる信号レベルが高くなる。露光時間は、撮像される画像の明るさを制御するための制御パラメータとして用いられる。ここで、露光時間が長いほど輝度が高くなり、露光時間が短いほど輝度が低くなる。タイミングジェネレータ114は、生成したタイミング信号をCCDドライブ回路115に出力する。   The timing generator 114 generates a timing signal for driving the CCD image sensor based on the imaging control signal input from the system control unit 110. The imaging control signal includes information such as the exposure time notified from the image processing unit 140. The exposure time is the time from the start of exposure to the end of exposure at each pixel, and corresponds to the reciprocal of the shutter speed. Therefore, the longer the exposure time, the higher the signal level obtained by one reading. The exposure time is used as a control parameter for controlling the brightness of the captured image. Here, the longer the exposure time, the higher the luminance, and the shorter the exposure time, the lower the luminance. The timing generator 114 outputs the generated timing signal to the CCD drive circuit 115.

CCDドライブ回路115は、タイミングジェネレータ114から入力されたタイミング信号と、システム制御部110からの制御信号に基づいて駆動信号を生成する。システム制御部110からの制御信号は、撮像動作制御を示す信号である。撮像動作制御として撮像開始、撮像停止、ズーム、輝度調整などが指示される。CCDドライブ回路115は、生成した駆動信号をCCD撮像素子104に出力する。駆動信号により、フレームレート、各フレームにおいて信号レベルを取得する画素の順序、画素ごとの露光開始ならびに露光終了が指示される。   The CCD drive circuit 115 generates a drive signal based on the timing signal input from the timing generator 114 and the control signal from the system control unit 110. A control signal from the system control unit 110 is a signal indicating imaging operation control. As the imaging operation control, an instruction to start imaging, stop imaging, zoom, brightness adjustment, and the like is instructed. The CCD drive circuit 115 outputs the generated drive signal to the CCD image sensor 104. The drive signal instructs the frame rate, the order of pixels from which signal levels are acquired in each frame, the exposure start and the exposure end for each pixel.

LCD118は、システム制御部110から入力される画像信号に基づく画像を表示する画像表示部である。   The LCD 118 is an image display unit that displays an image based on an image signal input from the system control unit 110.

LED駆動回路119は、システム制御部110から入力される制御信号に基づいてLED106の点灯/消灯制御を行う。LED駆動回路119は、点灯が指示されるときLED106への駆動電力の供給を開始し、消灯が指示されるとき駆動電力の供給を停止する。   The LED drive circuit 119 performs lighting / extinguishing control of the LED 106 based on a control signal input from the system control unit 110. The LED drive circuit 119 starts supplying drive power to the LED 106 when instructed to turn on, and stops supplying drive power when instructed to turn off.

湾曲制御部121は、システム制御部110から入力される制御信号に基づいてUD湾曲モータ122、RL湾曲モータ123の一方または両方を駆動する。制御信号は、例えば、ユーザインタフェース部111が検出した2方向の操作量のそれぞれに対応する湾曲方向ごとの湾曲量を示す。湾曲方向は、上述したUD方向、RL方向に相当する。湾曲制御部121は、制御信号が示すUD方向の湾曲量に対応する駆動量、RL方向の湾曲量に対応する駆動量をUD湾曲モータ122、RL湾曲モータ123に指示する。   The bending control unit 121 drives one or both of the UD bending motor 122 and the RL bending motor 123 based on a control signal input from the system control unit 110. The control signal indicates, for example, a bending amount for each bending direction corresponding to each of the operation amounts in two directions detected by the user interface unit 111. The bending direction corresponds to the above-described UD direction and RL direction. The bending control unit 121 instructs the UD bending motor 122 and the RL bending motor 123 with a driving amount corresponding to the bending amount in the UD direction indicated by the control signal and a driving amount corresponding to the bending amount in the RL direction.

UD湾曲モータ122、RL湾曲モータ123は、それぞれの回転により湾曲制御部121が指示した駆動量でUDワイヤー、RLワイヤーをそれぞれ牽引する。
ワイヤー連結部125は、着脱コネクタ135が挿入部10の着脱コネクタ134に装着された状態であるとき、挿入部10のワイヤー連結部124に連結されたUDワイヤー、RLワイヤーを連結する。UDワイヤー、RLワイヤーは、UD湾曲モータ122、RL湾曲モータ123によって牽引される。これにより、ユーザの操作に応じて挿入部10の先端部が湾曲する。
The UD bending motor 122 and the RL bending motor 123 respectively pull the UD wire and the RL wire with the driving amounts instructed by the bending control unit 121 by the respective rotations.
When the detachable connector 135 is attached to the detachable connector 134 of the insertion unit 10, the wire connection unit 125 connects the UD wire and the RL wire connected to the wire connection unit 124 of the insertion unit 10. The UD wire and the RL wire are pulled by the UD bending motor 122 and the RL bending motor 123. Thereby, the front-end | tip part of the insertion part 10 curves according to a user's operation.

着脱コネクタ135は、挿入部10の基端部に当接にされる位置に設置されている。着脱コネクタ135は、挿入部10の着脱コネクタ134と着脱可能な機構を備える。着脱コネクタ135は、例えば、着脱コネクタ134と相互に嵌合する形状を有する。   The detachable connector 135 is installed at a position where it comes into contact with the proximal end portion of the insertion portion 10. The detachable connector 135 includes a mechanism that is detachable from the detachable connector 134 of the insertion unit 10. The detachable connector 135 has a shape that fits with the detachable connector 134, for example.

プリアンプ136は、CCD撮像素子104から入力される撮像信号を増幅し、増幅した撮像信号をAFE137に出力する。この増幅は、伝送により減衰した信号レベルを補うために行われる。   The preamplifier 136 amplifies the image signal input from the CCD image sensor 104 and outputs the amplified image signal to the AFE 137. This amplification is performed to compensate for the signal level attenuated by transmission.

AFE137は、プリアンプから入力されたアナログの撮像信号に対して、CDS(Correlated Double Sampling、相関二重サンプリング)処理、AGC(Automatic Gain Control、自動利得制御)処理およびAD(Analog−to−Digital、アナログ/ディジタル)変換処理を行ってディジタルの撮像信号を生成する。AFE137は、生成したディジタルの撮像信号を画像処理部140に出力する。   The AFE 137 performs CDS (Correlated Double Sampling) processing, AGC (Automatic Gain Control) processing, and AD (Analog-to-Digital) analog processing on analog imaging signals input from the preamplifier. / Digital) conversion processing is performed to generate a digital imaging signal. The AFE 137 outputs the generated digital imaging signal to the image processing unit 140.

画像処理部140は、黒補正部142、画素補間・輝度色差変換部143、補正処理部144、ハンチング検出部145、ハレーション検出部146および撮像制御部147を含んで構成される。   The image processing unit 140 includes a black correction unit 142, a pixel interpolation / luminance color difference conversion unit 143, a correction processing unit 144, a hunting detection unit 145, a halation detection unit 146, and an imaging control unit 147.

黒補正部142は、入力された撮像信号が示す画素ごとの信号レベルから黒レベルを差し引いて補正後の信号レベルを算出する。黒補正部142は、黒レベルとして、例えば、LED106の消灯期間中における信号レベル、各フレームまたは所定の期間内における信号レベルの画素間の最低値などを用いてもよい。黒補正部142は、画素ごとの補正後の信号レベルを示す撮像信号を画素補間・輝度色差変換部143に出力する。   The black correction unit 142 calculates a corrected signal level by subtracting the black level from the signal level for each pixel indicated by the input imaging signal. The black correction unit 142 may use, as the black level, for example, a signal level during the extinguishing period of the LED 106, a minimum value between pixels of each frame or a signal level within a predetermined period, and the like. The black correction unit 142 outputs an imaging signal indicating the corrected signal level for each pixel to the pixel interpolation / luminance color difference conversion unit 143.

画素補間・輝度色差変換部143は、黒補正部142から入力された撮像信号について画素補間処理を行う。入力される撮像信号は、画素ごとに赤(R)、緑(G)、青(B)のいずれかの色成分の信号レベルを有する。赤、緑、青に係る画素は、画素が2次元空間内で周期的に配列されている。この配列は、例えば、べイヤー配列である。以下、各1周期の色成分に係る画素の組を画素周期と呼ぶ。画素補間処理において、画素補間・輝度色差変換部143は、対象画素ごとに当該対象画素から所定範囲内に配置され、当該対象画素と同一の色成分に係る画素ごとの信号レベルを補間して当該対象画素の信号レベルを算出する。対象画素とは、その時点における処理対象の画素である。フレーム内の各画素が対象画素として扱われる。補間において、例えば、バイリニア補間、バイキュービック補間などの手法を用いることができる。   The pixel interpolation / luminance color difference conversion unit 143 performs pixel interpolation processing on the imaging signal input from the black correction unit 142. The input imaging signal has a signal level of any color component of red (R), green (G), and blue (B) for each pixel. Pixels related to red, green, and blue are periodically arranged in a two-dimensional space. This arrangement is, for example, a Bayer arrangement. Hereinafter, a group of pixels related to each color component of one cycle is referred to as a pixel cycle. In the pixel interpolation process, the pixel interpolation / luminance color difference conversion unit 143 is arranged within a predetermined range from the target pixel for each target pixel, and interpolates the signal level for each pixel related to the same color component as the target pixel. The signal level of the target pixel is calculated. The target pixel is a pixel to be processed at that time. Each pixel in the frame is treated as a target pixel. In the interpolation, for example, a method such as bilinear interpolation or bicubic interpolation can be used.

画素補間・輝度色差変換部143は、補間により得られる色成分ごとの各画素の信号レベルについて色空間変換を行って、画素周期ごとの輝度レベル(Y)と2つの色差レベル(Cr)、(Cb)を算出する。つまり、画素補間・輝度色差変換部143は、色空間変換において、RGB表色系で表されたRGB値をYCrCb表色系で表されたYCrCb値に変換する。色空間変換において、例えば、ITU−R BT.601に規定の変換式を用いることができる。色差レベル(Cr)、(Cb)は、それぞれ赤系統、青系統の色の色相と彩度を示す。画素補間・輝度色差変換部143は、画素周期ごとの輝度レベルを示す輝度信号を補正処理部144、ハンチング検出部145、ハレーション検出部146および撮像制御部147に出力する。画素補間・輝度色差変換部143は、画素周期ごとの2つの色差レベル(Cr)、(Cb)を示す色差信号を補正処理部144に出力する。   The pixel interpolation / luminance / chrominance conversion unit 143 performs color space conversion on the signal level of each pixel for each color component obtained by interpolation, so that the luminance level (Y) for each pixel period and two color difference levels (Cr), ( Cb) is calculated. That is, the pixel interpolation / luminance color difference conversion unit 143 converts the RGB value represented by the RGB color system into the YCrCb value represented by the YCrCb color system in the color space conversion. In color space conversion, for example, ITU-R BT. A conversion formula defined in 601 can be used. The color difference levels (Cr) and (Cb) indicate the hue and saturation of red and blue colors, respectively. The pixel interpolation / luminance color difference conversion unit 143 outputs a luminance signal indicating the luminance level for each pixel cycle to the correction processing unit 144, the hunting detection unit 145, the halation detection unit 146, and the imaging control unit 147. The pixel interpolation / luminance color difference conversion unit 143 outputs a color difference signal indicating two color difference levels (Cr) and (Cb) for each pixel period to the correction processing unit 144.

補正処理部144は、画素補間・輝度色差変換部143から入力された輝度信号、2つの色差信号のそれぞれについて各種の補正処理を行う。補正処理には、例えば、収差補正、ノイズ軽減処理などが含まれる。補正処理部144は、補正処理により得られた輝度信号、2つの色差信号のそれぞれについて、色空間変換を行って補正後の画素ごとの信号レベルを示す画像信号を生成する。つまり、補正処理部144は、色空間変換において、YCrCb表色系で表されたYCrCb値をRGB表色系で表されたRGB値に変換する。この色空間変換処理は、画素補間・輝度色差変換部143における色空間変換の逆変換に相当する。補正処理部144は、生成した画像信号をシステム制御部110に出力する。   The correction processing unit 144 performs various correction processes for each of the luminance signal and the two color difference signals input from the pixel interpolation / luminance color difference conversion unit 143. The correction processing includes, for example, aberration correction and noise reduction processing. The correction processing unit 144 performs color space conversion on each of the luminance signal and the two color difference signals obtained by the correction process, and generates an image signal indicating the signal level for each pixel after correction. That is, the correction processing unit 144 converts the YCrCb value expressed in the YCrCb color system into the RGB value expressed in the RGB color system in the color space conversion. This color space conversion process corresponds to the inverse conversion of the color space conversion in the pixel interpolation / luminance color difference conversion unit 143. The correction processing unit 144 outputs the generated image signal to the system control unit 110.

ハンチング検出部145は、画素補間・輝度色差変換部143から入力された輝度信号に基づいてハンチング状態を検出する。ハンチング検出部145は、輝度信号に基づいて輝度の変動を解析して、ハンチング状態としてハンチングの検出の有無と、発生した場合におけるハンチング強度とを示すハンチング状態情報を生成し、生成したハンチング状態情報を撮像制御部147に出力する。ハンチングならびにハンチング強度の検出例については、後述する。   The hunting detection unit 145 detects the hunting state based on the luminance signal input from the pixel interpolation / luminance color difference conversion unit 143. The hunting detection unit 145 analyzes the luminance variation based on the luminance signal, generates hunting state information indicating the presence / absence of hunting as a hunting state, and the hunting strength when the hunting occurs, and the generated hunting state information Is output to the imaging control unit 147. An example of detecting hunting and hunting strength will be described later.

ハレーション検出部146は、画素補間・輝度色差変換部143から入力された輝度信号に基づいてハレーション状態を検出する。ここで、ハレーション検出部146は、輝度信号に基づいてフレーム内の一部の領域であるブロックごとに輝度に基づいて、ハレーションの発生の有無を判定する。ハレーション検出部146は、ハレーション状態として、ハレーションの検出の有無と、検出された場合におけるハレーション強度を示すハレーション状態情報を生成する。ハレーション検出部146は、ハレーション状態情報を撮像制御部147に出力する。   The halation detection unit 146 detects the halation state based on the luminance signal input from the pixel interpolation / luminance color difference conversion unit 143. Here, the halation detection unit 146 determines the presence / absence of halation based on the luminance for each block which is a partial region in the frame based on the luminance signal. The halation detection unit 146 generates, as the halation state, halation state information indicating the presence / absence of halation detection and the halation intensity when it is detected. The halation detection unit 146 outputs the halation state information to the imaging control unit 147.

撮像制御部147には、画素補間・輝度色差変換部143から輝度信号が、ハンチング検出部145からハンチング状態情報が、ハレーション検出部146からハレーション検出情報が、それぞれ入力される。撮像制御部147は、ハンチング状態情報およびハレーション検出情報に基づいて入力される輝度信号が示す輝度レベルを制御する。輝度レベルの制御において、撮像制御部147は、例えば、AE制御を行う。   The imaging control unit 147 receives a luminance signal from the pixel interpolation / luminance color difference conversion unit 143, hunting state information from the hunting detection unit 145, and halation detection information from the halation detection unit 146. The imaging control unit 147 controls the luminance level indicated by the luminance signal input based on the hunting state information and the halation detection information. In the brightness level control, the imaging control unit 147 performs, for example, AE control.

AE制御では、ハンチングならびにハレーションが検出されていないとき、撮像制御部147は、制御量として代表輝度から目標量として所定の目標輝度の差である輝度差の絶対値が小さくなるように露光時間を定める。撮像制御部147は、代表輝度として、例えば、その時点(現在)までの所定期間(例えば、1〜3秒)内における輝度レベルの平均値を算出する。所定の目標輝度として、例えば、予めパラメータ記憶部113に記憶された目標輝度が用いられてもよいし、ユーザの操作入力により指示された目標輝度が用いられてもよい。撮像制御部147は、定めた露光時間をタイミングジェネレータ114に通知する。これにより、定めた露光時間がCCD撮像素子104による画像の撮像に用いられる。他方、撮像制御部147は、ハンチングの検出時において、ハンチングが検出されていないときよりも露光時間の制御速度を低くする。また、撮像制御部147は、ハンチングを検出している間にハレーションを検出した場合は、ハンチングのみ、つまり、ハンチングを検出している間にハレーションを検出していない場合における露光時間の制御速度に比べて露光時間の制御速度を高くする。露光時間に基づくAE制御の例については、後述する。   In the AE control, when hunting and halation are not detected, the imaging control unit 147 sets the exposure time so that the absolute value of the luminance difference, which is the difference between the target luminance and the predetermined target luminance as the target amount, becomes small. Determine. The imaging control unit 147 calculates, for example, an average value of luminance levels within a predetermined period (for example, 1 to 3 seconds) up to that point (current) as the representative luminance. As the predetermined target luminance, for example, target luminance stored in advance in the parameter storage unit 113 may be used, or target luminance instructed by a user operation input may be used. The imaging control unit 147 notifies the timing generator 114 of the determined exposure time. As a result, the determined exposure time is used for capturing an image by the CCD image sensor 104. On the other hand, the imaging control unit 147 makes the exposure time control speed lower when detecting hunting than when hunting is not detected. In addition, when the imaging control unit 147 detects halation while detecting hunting, only the hunting, that is, the exposure time control speed when no halation is detected while detecting hunting is set. Compared with this, the control speed of the exposure time is increased. An example of AE control based on the exposure time will be described later.

(ハンチングの検出例)
次に、本実施形態に係るハンチングとハンチング強度の検出例について説明する。
ハンチング検出部145は、例えば、各フレームの輝度信号が示す輝度レベルの画素周期間の平均値または積算値(総和)について、その時点(現在)までの所定の期間ごとにフーリエ変換を行い、周波数ごとの強度を算出する。所定の期間は、例えば、1〜3秒である。図2に示すように、強度が所定の強度の閾値Ith以上となる周波数frが存在するとき、ハンチング検出部145は、ハンチングを検出したと判定する。この判定条件は、輝度の主成分の変動が周波数frの周期性を有することを示す。そして、ハンチング検出部145は、この強度をハンチング強度として定める。ハンチング強度は、撮像された画像の輝度の変動の周期性の度合を示す指標である。強度が所定の強度の閾値Ith以上となる周波数frが存在しないとき、ハンチング検出部145は、ハンチングを検出していないと判定する。ハンチング強度の閾値は、例えば、所定の期間内の周波数間のパワーの総和の0.3〜0.6倍である。なお、以下の説明では、ハンチングの検出に係る周波数frをハンチング周波数と呼ぶことがある。
(Example of hunting detection)
Next, a detection example of hunting and hunting strength according to the present embodiment will be described.
For example, the hunting detection unit 145 performs Fourier transform for each predetermined period up to that point (current) with respect to the average value or integrated value (sum) of the luminance levels indicated by the luminance signal of each frame for each predetermined period. Calculate the intensity of each. The predetermined period is, for example, 1 to 3 seconds. As shown in FIG. 2, when there is a frequency fr whose intensity is equal to or greater than a predetermined intensity threshold Ith, the hunting detection unit 145 determines that hunting has been detected. This determination condition indicates that the fluctuation of the main component of luminance has periodicity of the frequency fr. And the hunting detection part 145 determines this intensity | strength as hunting intensity | strength. The hunting intensity is an index indicating the degree of periodicity of the luminance variation of the captured image. When there is no frequency fr at which the intensity is equal to or greater than the predetermined intensity threshold Ith, the hunting detection unit 145 determines that hunting has not been detected. The threshold value of the hunting intensity is, for example, 0.3 to 0.6 times the total power between frequencies within a predetermined period. In the following description, the frequency fr related to detection of hunting may be referred to as hunting frequency.

(ハレーションの検出例)
次に、本実施形態に係るハレーションとハレーション強度の検出例について説明する。ハレーション検出部146は、例えば、輝度信号が示す画素周期ごとの輝度レベルについて、ブロックBkごとの輝度レベルの積算値を算出する。ブロックBkは、各フレームの画像Imの一部の領域であって、複数の画素周期を含む。ブロックBkの大きさは、例えば、水平方向、垂直方向の画素数が、9×9〜24×24である。ブロックBkにおいてハレーションを検出したと判定する。ハレーション検出部146は、算出した積算値が所定の積算値の閾値を超えないブロックBkにおいてハレーションを検出していないと判定する。所定の積算値の閾値は、例えば、1ブロック内に含まれる画素周期に輝度値の上限を乗じて得られる値の0.6〜0.9倍である。輝度値の上限とは、所定のビット数のもとで表現可能な輝度値の最大値を意味する。画素周期ごとの輝度値が10ビットで表される場合には、輝度値の上限は、1023(=210−1)である。図3において破線の矢印で示すように、ハレーション検出部146は、ハレーションの検出対象とするブロックBkを所定の順序(例えば、ラスタースキャン順)で逐次変更し、各フレームの全体にわたりハレーションの検出の有無を判定する。ハレーション検出部146は、フレームごとにハレーションを検出した領域の大きさをハレーション強度として定める。この大きさは、例えば、ハレーションを検出したブロックの数、それらのブロック内の画素単位数などで表される。
(Example of detecting halation)
Next, an example of detecting halation and halation intensity according to this embodiment will be described. For example, the halation detection unit 146 calculates an integrated value of the luminance level for each block Bk with respect to the luminance level for each pixel period indicated by the luminance signal. The block Bk is a partial area of the image Im of each frame and includes a plurality of pixel periods. As for the size of the block Bk, for example, the number of pixels in the horizontal direction and the vertical direction is 9 × 9 to 24 × 24. It is determined that halation is detected in block Bk. The halation detection unit 146 determines that no halation is detected in the block Bk where the calculated integrated value does not exceed the predetermined integrated value threshold. The threshold value of the predetermined integrated value is, for example, 0.6 to 0.9 times the value obtained by multiplying the pixel period included in one block by the upper limit of the luminance value. The upper limit of the luminance value means the maximum luminance value that can be expressed under a predetermined number of bits. When the luminance value for each pixel period is represented by 10 bits, the upper limit of the luminance value is 1023 (= 2 10 −1). As indicated by the dashed arrows in FIG. 3, the halation detection unit 146 sequentially changes the blocks Bk to be detected as halation in a predetermined order (for example, raster scan order), and detects halation over the entire frame. Determine presence or absence. The halation detection unit 146 determines the size of the area where halation is detected for each frame as the halation intensity. This size is represented by, for example, the number of blocks in which halation is detected, the number of pixel units in those blocks, and the like.

(AE制御の例)
次に、AE制御について、制御パラメータとして露光時間を用いる場合を例にして説明する。露光時間を定める際、撮像制御部147は、例えば、比例制御(Proportional Control、P制御)を行う。P制御では、撮像制御部147には、制御量と目標量の差分である輝度差に所定の比例ゲインを乗じて露光時間の変化量をフレームごとに算出する。比例ゲインは、制御速度の制御パラメータである。比例ゲインが大きいほど制御速度が高く、比例ゲインが小さいほど制御速度が低い。撮像制御部147は、もとの露光時間に算出した変化量を加算してその露光時間を更新する。なお、以下の説明では、ハンチングならびにハレーションが検出されていないときに用いられる比例ゲインを、基準ゲインと呼ぶ。
(Example of AE control)
Next, AE control will be described using an example in which exposure time is used as a control parameter. When determining the exposure time, the imaging control unit 147 performs, for example, proportional control (Proportional Control, P control). In P control, the imaging control unit 147 calculates a change amount in exposure time for each frame by multiplying a luminance difference that is a difference between the control amount and the target amount by a predetermined proportional gain. The proportional gain is a control parameter for the control speed. The larger the proportional gain, the higher the control speed, and the smaller the proportional gain, the lower the control speed. The imaging control unit 147 adds the calculated change amount to the original exposure time and updates the exposure time. In the following description, the proportional gain used when hunting and halation are not detected is referred to as a reference gain.

撮像制御部147は、ハンチングの検出時において、ハンチングならびにハレーションが検出されていないときよりも露光時間の制御速度を低くする。また、撮像制御部147は、ハンチングを検出している間にハレーションを検出した場合は、ハンチングのみ、つまりハンチングを検出している間にハレーションを検出しない場合における露光時間の制御速度に比べて露光時間の制御速度を高くする。そこで、撮像制御部147は、ハンチングの検出時またはハレーションの検出時における比例ゲインとして基準ゲインよりも小さい一定値を用いる。その比例ゲインは、例えば、基準ゲインの0〜0.5倍である。   The imaging control unit 147 makes the exposure time control speed lower when detecting hunting than when hunting and halation are not detected. Further, when the imaging control unit 147 detects halation while detecting hunting, only the hunting, that is, the exposure speed compared to the control speed of the exposure time when no halation is detected while detecting hunting is detected. Increase time control speed. Therefore, the imaging control unit 147 uses a constant value smaller than the reference gain as a proportional gain when detecting hunting or detecting halation. The proportional gain is, for example, 0 to 0.5 times the reference gain.

また、撮像制御部147は、ハンチング強度が高いほど比例ゲインを小さくしてもよい。この場合には、ハンチング強度が高いほど露光時間の制御速度が低くなる。撮像制御部147は、ハレーション強度が高いほど比例ゲインを小さくしてもよい。この場合には、ハレーション強度が高いほど露光時間の制御速度が低くなる。ハレーション強度が所定のハレーション強度の閾値よりも高いとき、またはハンチング強度が所定のハンチング強度の閾値よりも高いとき、撮像制御部147は、比例ゲインを0としてもよい。この場合には、露光時間が変化せず一定値となる。   In addition, the imaging control unit 147 may decrease the proportional gain as the hunting strength increases. In this case, the higher the hunting strength, the lower the exposure speed control speed. The imaging control unit 147 may decrease the proportional gain as the halation intensity increases. In this case, the higher the halation intensity, the lower the exposure speed control speed. When the halation intensity is higher than a predetermined halation intensity threshold, or when the hunting intensity is higher than a predetermined hunting intensity threshold, the imaging control unit 147 may set the proportional gain to zero. In this case, the exposure time does not change and becomes a constant value.

より具体的には、撮像制御部147は、正規化したハンチング強度と正規化したハレーション強度を加算して評価値を算出する。撮像制御部147は、正規化において、ハンチング強度、ハレーション強度がそれぞれ取り得る上限値と下限値に基づいて、所定の値域内の値をとるようにハンチング強度、ハレーション強度をスケーリングする。図4は、評価値と比例ゲインの関係の例を示す図である。太い実線は、撮像制御部147がハンチングのみを検出している場合において算出した評価値を示す。一点破線は、撮像制御部147が、ハンチングを検出している間にハレーションを検出した場合において算出した評価値を示す。図4に示すように、ハンチングのみを検出している場合、ハンチングを検出している間にハレーションを検出した場合のいずれも、撮像制御部147は、算出した評価値が大きいほど、比例ゲインを小さくする。但し、ハレーションのみを検出している場合における評価値と、ハンチングを検出している間にハレーションを検出した場合における評価値が同程度の場合、撮像制御部147は、後者の比例ゲインを高くする。具体的には、図4に示すように、ハレーションのみを検出している場合における評価値とハンチングを検出している間にハレーションを検出した場合における評価値がいずれもSと等しい場合、ハンチングのみを検出している場合に算出される比例ゲインK、ハンチングとハレーションを検出している場合に算出される比例ゲインKよりも小さい(K<K)。評価値Sは、所定の第1閾値Sよりも小さく所定の第0閾値Sよりも大きい(S<S<S)。但し、ハレーションのみを検出している場合における評価値が第1閾値S以上となる場合には、撮像制御部147は、比例ゲインを0と定める。同様に、ハンチングを検出している間にハレーションを検出した場合における評価値が所定の第2閾値S以上となる場合には、撮像制御部147は、比例ゲインを0と定める。第2閾値Sは、第1閾値Sよりも大きい実数である(S>S)。ハンチングを検出している場合における評価値、またはハンチングを検出している間にハレーションを検出した場合における評価値が、第0閾値Sよりも小さい場合には、撮像制御部147は、比例ゲインを基準ゲインKと定める。評価値が第0閾値S以下である場合は、ハンチングもハレーションも検出されていないことに相当するためである。つまり、評価値が第0閾値Sに等しいことは、ハンチング強度がハンチングの検出に用いたハンチング強度の閾値に等しいことを示す。 More specifically, the imaging control unit 147 calculates an evaluation value by adding the normalized hunting intensity and the normalized halation intensity. In normalization, the imaging control unit 147 scales the hunting intensity and the halation intensity so as to take values within a predetermined range based on an upper limit value and a lower limit value that can be taken by the hunting intensity and the halation intensity, respectively. FIG. 4 is a diagram illustrating an example of the relationship between the evaluation value and the proportional gain. A thick solid line indicates an evaluation value calculated when the imaging control unit 147 detects only hunting. A one-dot broken line indicates an evaluation value calculated when the imaging control unit 147 detects halation while detecting hunting. As shown in FIG. 4, in both cases where only hunting is detected and when halation is detected while hunting is being detected, the imaging control unit 147 increases the proportional gain as the calculated evaluation value increases. Make it smaller. However, when the evaluation value when only halation is detected is the same as the evaluation value when halation is detected while hunting is detected, the imaging control unit 147 increases the latter proportional gain. . Specifically, as shown in FIG. 4, when the evaluation value in a case of detecting halation is equal to both S n while detecting the evaluation value and the hunting in the case that detecting only halation, hunting proportional gain K 1 calculated if you detect only smaller than the proportional gain K 2 is calculated when detecting the hunting and halation (K 1 <K 2). The evaluation value S n is smaller than the predetermined first threshold value S 1 and larger than the predetermined zeroth threshold value S 0 (S 0 <S n <S 1 ). However, if the evaluation value in a case that detects only halation is the first threshold value S 1 or more, the imaging control unit 147 defines a proportional gain to zero. Similarly, when the evaluation value in the case of detecting halation becomes the second threshold value S 2 or more predetermined in while detecting the hunting, the imaging control unit 147 defines a proportional gain to zero. The second threshold value S 2 is a real number larger than the first threshold value S 1 (S 2 > S 1 ). When the evaluation value in the case of detecting hunting or the evaluation value in the case of detecting halation while detecting hunting is smaller than the 0th threshold value S 0 , the imaging control unit 147 performs proportional gain. the determined as a reference gain K 0. This is because when the evaluation value is equal to or less than the 0th threshold value S 0 , this corresponds to the fact that neither hunting nor halation is detected. That is, the evaluation value being equal to the 0th threshold value S 0 indicates that the hunting strength is equal to the hunting strength threshold value used for detecting hunting.

なお、撮像制御部147は、ハンチング強度とハレーション強度とを重み付け加算して評価値を算出し、この評価値を比例ゲインの決定に用いてもよい。具体的には、撮像制御部147は、正規化したハンチング強度と正規化したハレーション強度のそれぞれに、予め設定した互いに異なる重み係数を乗じて得られる乗算値の総和を評価値として算出する。これにより、撮像された画像の観察を妨げる原因として、ハンチングとハレーションを重視する度合いが設定される。   Note that the imaging control unit 147 may calculate the evaluation value by weighting and adding the hunting intensity and the halation intensity, and use the evaluation value for determining the proportional gain. Specifically, the imaging control unit 147 calculates, as an evaluation value, the sum of multiplication values obtained by multiplying the normalized hunting intensity and the normalized halation intensity by different weighting factors set in advance. Thereby, the degree of emphasizing hunting and halation is set as a cause that hinders observation of the captured image.

撮像制御部147は、ハンチング周波数が所定の範囲内の周波数である場合において、AE制御を停止してもよい。AE制御を停止する際、撮像制御部147は、比例ゲインを0と定める。所定の範囲内の周波数として、ユーザインタフェース部111から入力された制御信号が示すユーザ指定周波数が用いられてもよい。より具体的には、図5に示す手順に従って制御を行う。   The imaging control unit 147 may stop the AE control when the hunting frequency is a frequency within a predetermined range. When stopping the AE control, the imaging control unit 147 sets the proportional gain to zero. As a frequency within a predetermined range, a user-specified frequency indicated by a control signal input from the user interface unit 111 may be used. More specifically, control is performed according to the procedure shown in FIG.

図5は、本実施形態に係るAE制御の一例を示すフローチャートである。
(ステップS101)システム制御部110は、ユーザインタフェース部111から入力された制御信号が示すユーザ指定周波数を撮像制御部147に設定する。その後、ステップS102の処理に進む。
(ステップS102)撮像制御部147は、システム制御部110からの制御信号が撮像開始を示すときAE制御を開始する。その後、ステップS103の処理に進む。
FIG. 5 is a flowchart showing an example of AE control according to the present embodiment.
(Step S <b> 101) The system control unit 110 sets a user-specified frequency indicated by a control signal input from the user interface unit 111 in the imaging control unit 147. Thereafter, the process proceeds to step S102.
(Step S102) The imaging control unit 147 starts AE control when the control signal from the system control unit 110 indicates the start of imaging. Thereafter, the process proceeds to step S103.

(ステップS103)ハンチング検出部145は、各フレームの輝度信号に基づいてハンチングを検出したか否かを判定する。検出したと判定するとき(ステップS103 YES)、ステップS104の処理に進む。検出していないと判定するとき(ステップS103 NO)、ステップS106の処理に進む。
(ステップS104)撮像制御部147は、ハンチング周波数が、設定されたユーザ指定周波数の範囲内であるか否かを判定する。ユーザ指定周波数の範囲内であると判定するとき(ステップS104 YES)、ステップS105の処理に進む。ユーザ指定周波数の範囲外であると判定するとき(ステップS104 NO)、ステップS106の処理に進む。
(Step S103) The hunting detection unit 145 determines whether hunting is detected based on the luminance signal of each frame. When it determines with having detected (step S103 YES), it progresses to the process of step S104. When it determines with not detecting (step S103 NO), it progresses to the process of step S106.
(Step S104) The imaging control unit 147 determines whether or not the hunting frequency is within the set user-specified frequency range. When it is determined that the frequency is within the user-specified frequency range (YES in step S104), the process proceeds to step S105. When it is determined that the frequency is outside the range of the user designated frequency (NO in step S104), the process proceeds to step S106.

(ステップS105)撮像制御部147は、AE制御を停止する。具体的には、撮像制御部は、比例ゲインを0と定める。その後、ステップS103の処理に進む。
(ステップS106)撮像制御部147は、AE制御を通常に行う。具体的には、撮像制御部は、基準ゲインKを比例ゲインとして定める。その後、ステップS103の処理に進む。システム制御部110から撮像停止を示す制御信号が入力されるまで、ステップS103〜S106に示す処理を繰り返す。
(Step S105) The imaging control unit 147 stops the AE control. Specifically, the imaging control unit determines that the proportional gain is zero. Thereafter, the process proceeds to step S103.
(Step S106) The imaging control unit 147 performs AE control normally. Specifically, the imaging control unit defines a reference gain K 0 as a proportional gain. Thereafter, the process proceeds to step S103. The processes shown in steps S103 to S106 are repeated until a control signal indicating stop of imaging is input from the system control unit 110.

これにより、被検体がその特有の条件により輝度が周期的に変動する場合でも、その変動によるハンチングを抑止することができる。例えば、航空機エンジンの検査において、ターニングツールを用いて主軸から放射状に配置されたタービンブレードを一定の回転速度で主軸を中心に回転させることがある。このとき、撮像されるタービンブレードの画像の輝度が回転に伴って一定の周波数で変動する。また、その輝度の変動自体が検査の対象になることがある。このような変動の周波数の範囲をユーザ指定周波数として予め設定しておき、その範囲内の周波数での輝度の変動についてAE制御を停止することで、検査の妨げとなるハンチングが抑止される。そのような周波数として、例えば、蛍光灯などの光源の輝度の変動の周波数などにも適用される。   Thereby, even when the luminance of the subject periodically varies depending on the specific conditions, hunting due to the variation can be suppressed. For example, in inspection of an aircraft engine, a turning tool may be used to rotate turbine blades arranged radially from the main shaft about the main shaft at a constant rotational speed. At this time, the brightness of the image of the turbine blade to be imaged varies at a constant frequency as it rotates. In addition, the luminance fluctuation itself may be an inspection target. A range of such a variation frequency is set in advance as a user-specified frequency, and hunting that hinders the inspection is suppressed by stopping the AE control with respect to the variation in luminance at the frequency within the range. As such a frequency, for example, it is also applied to a frequency of luminance variation of a light source such as a fluorescent lamp.

撮像制御部147は、さらにシステム制御部110を介して加速度センサ108から入力された加速度信号に基づいてAE制御を行ってもよい。この加速度信号は、挿入部10の先端における動きの加速度を示す。例えば、ハンチングが検出されているとき、撮像制御部147は、加速度信号に基づいて挿入部10の先端部が静止しているか否かを判定する。撮像制御部147は、先端部の動作状態として静止しているか否かを、例えば、加速度信号が示す加速度の絶対値が所定の加速度の閾値以下であるか否かにより判定することができる。撮像制御部147は、先端部が動作していると判定するとき、AE制御を完全に停止せずに制御速度を通常の制御速度よりも低くする。ここで、撮像制御部147は、比例ゲインを0より大きく基準ゲインKよりも小さい所定の値に定める。このような場合は、内視鏡を被検体の内部への挿入作業の途中に生じうるが、画像の観察が要求されるとともに一時的であるためである。撮像制御部147は、先端部が動作していないと判定するとき、制御速度をハンチングならびにハレーションが検出されていないときと同様の通常の制御速度にする。より具体的には、図6に示す手順に従って制御を行う。 The imaging control unit 147 may further perform AE control based on the acceleration signal input from the acceleration sensor 108 via the system control unit 110. This acceleration signal indicates the acceleration of movement at the distal end of the insertion portion 10. For example, when hunting is detected, the imaging control unit 147 determines whether or not the distal end portion of the insertion unit 10 is stationary based on the acceleration signal. The imaging control unit 147 can determine whether or not the distal end is in a stationary state based on, for example, whether or not the absolute value of the acceleration indicated by the acceleration signal is equal to or less than a predetermined acceleration threshold. When the imaging control unit 147 determines that the tip portion is operating, the imaging control unit 147 sets the control speed to be lower than the normal control speed without completely stopping the AE control. Here, the imaging control unit 147 sets the proportional gain to a predetermined value that is larger than 0 and smaller than the reference gain K 0 . In such a case, the endoscope may be generated in the middle of the insertion operation into the subject, but this is because the observation of the image is required and is temporary. When the imaging control unit 147 determines that the tip portion is not operating, the imaging control unit 147 sets the control speed to a normal control speed similar to that when no hunting or halation is detected. More specifically, control is performed according to the procedure shown in FIG.

図6は、本実施形態に係るAE制御の他の例を示すフローチャートである。図6に示す処理は、ステップS111〜S118の処理を有する。ステップS111〜S116の処理は、図5に示すステップS101〜S106の処理と同様であるため、その説明を省略する。図6に示すステップS117の処理は、ステップS113においてハンチング検出部145がハンチングを検出したと判定した後で開始される。   FIG. 6 is a flowchart showing another example of AE control according to the present embodiment. The process illustrated in FIG. 6 includes the processes of steps S111 to S118. Since the process of step S111-S116 is the same as the process of step S101-S106 shown in FIG. 5, the description is abbreviate | omitted. The process of step S117 shown in FIG. 6 is started after it is determined in step S113 that the hunting detection unit 145 has detected hunting.

(ステップS117)撮像制御部147は、加速度信号に基づき挿入部10の先端部が静止しているか否かを判定する。静止していると判定するとき(ステップS117 YES)、ステップS114の処理に進む。静止していない、つまり動作中と判定するとき(ステップS117 NO)、ステップS118の処理に進む。
(ステップS118)撮像制御部147は、制御速度を通常の制御速度よりも低くする(低速制御)。撮像制御部147は、比例ゲインを0より大きく基準ゲインKよりも小さい所定の値に定める。その後、ステップS113の処理に進む。
(Step S117) The imaging control unit 147 determines whether or not the distal end portion of the insertion unit 10 is stationary based on the acceleration signal. When it is determined that the camera is stationary (YES in step S117), the process proceeds to step S114. When it is determined that it is not stationary, that is, it is operating (NO in step S117), the process proceeds to step S118.
(Step S118) The imaging control unit 147 makes the control speed lower than the normal control speed (low speed control). The imaging control unit 147 sets the proportional gain to a predetermined value that is larger than 0 and smaller than the reference gain K 0 . Thereafter, the process proceeds to step S113.

なお、撮像制御部147は、図6のステップS118の処理において加速度信号が示す加速度の絶対値が大きいほど、小さくなるように比例ゲインを定めてもよい。但し、定められる比例ゲインの値域は、0以上であって基準ゲインK以下である。 Note that the imaging control unit 147 may determine the proportional gain so that the larger the absolute value of the acceleration indicated by the acceleration signal in the process of step S118 in FIG. However, the value range of the proportional gain that is determined is 0 or more and the reference gain K 0 or less.

また、図5、図6の処理において、ハンチング周波数がユーザ指定周波数の範囲外であると判定された後(ステップS104、S114 NO)、撮像制御部147は、上述したようにハンチング強度とハレーション強度に基づいて評価値を算出してもよい。その後、ステップS106、S116において、撮像制御部147は、図3を用いて説明したように算出した評価値に基づいて制御速度を定めてもよい。   5 and 6, after determining that the hunting frequency is outside the range of the user-specified frequency (NO in steps S104 and S114), the imaging control unit 147 determines the hunting intensity and the halation intensity as described above. The evaluation value may be calculated based on the above. Thereafter, in steps S106 and S116, the imaging control unit 147 may determine the control speed based on the evaluation value calculated as described with reference to FIG.

なお、上述した実施形態では、画像の明るさ制御として主に露光時間を制御する場合を例にしたが、これには限られない。例えば、露光時間と併せてフレームレートが制御パラメータとして制御されてもよい。動画像では露光時間の上限は、画素ごとのサンプリング周期となるので、露光時間がサンプリング周期と等しい場合において、さらに露光時間を長くするときにはサンプリング周期も長くする必要があるためである。また、露光時間に代えて、または露光時間と併せて、AGCにおけるゲインが制御パラメータとして制御されてもよい。
なお、上述した実施形態では、主にP制御を例にしたが、制御量と目標量の差分の大きさを小さくするように露光時間などの制御変数を算出する手法であれば、いかなる手法を用いてもよい。例えば、PI(Proportional−Integral Control)制御、PID(Proportional−Integral−Differential Control)制御が用いられてもよい。
In the above-described embodiment, the case where the exposure time is mainly controlled as the brightness control of the image is described as an example. However, the present invention is not limited to this. For example, the frame rate may be controlled as a control parameter together with the exposure time. This is because, in a moving image, the upper limit of the exposure time is the sampling period for each pixel, and therefore when the exposure time is equal to the sampling period, it is necessary to increase the sampling period when further increasing the exposure time. Further, instead of the exposure time or in combination with the exposure time, the gain in the AGC may be controlled as a control parameter.
In the embodiment described above, P control is mainly used as an example. However, any method may be used as long as it is a method for calculating a control variable such as an exposure time so as to reduce the difference between the control amount and the target amount. It may be used. For example, PI (Proportional-Integral Control) control and PID (Proportional-Integral-Differential Control) control may be used.

以上に説明したように、本実施形態に係る内視鏡装置1は、先端部にCCD撮像素子104を備える挿入部10を備える。また、内視鏡装置1は、CCD撮像素子104からの画像の輝度に基づいてハンチング状態を検出するハンチング検出部145と、画像のハレーション状態を検出するハレーション検出部146を備える。また、内視鏡装置1は、ハンチング状態およびハレーション状態に基づいて輝度を制御する撮像制御部147を備える。
この構成により、撮像された輝度に基づいて検出したハンチング状態とハレーション状態に基づいて輝度が制御される。そのため、ハンチングとハレーションの発生が極力抑制される。
As described above, the endoscope apparatus 1 according to the present embodiment includes the insertion unit 10 including the CCD image sensor 104 at the distal end. Further, the endoscope apparatus 1 includes a hunting detection unit 145 that detects a hunting state based on the luminance of an image from the CCD image sensor 104 and a halation detection unit 146 that detects a halation state of the image. The endoscope apparatus 1 further includes an imaging control unit 147 that controls the luminance based on the hunting state and the halation state.
With this configuration, the brightness is controlled based on the hunting state and the halation state detected based on the captured brightness. Therefore, the occurrence of hunting and halation is suppressed as much as possible.

また、ハンチング検出部145は、輝度の変動の周期性に基づいてハンチング状態を検出する。
この構成により、撮像された画像の輝度の周期性に基づいてハンチング状態が検出される。被検体の画像本来の輝度の変動と混在された輝度の変動からハンチング状態を判別することができるので、的確に判別されたハンチング状態に基づいて輝度が制御される。
The hunting detection unit 145 detects the hunting state based on the periodicity of the luminance variation.
With this configuration, the hunting state is detected based on the periodicity of the luminance of the captured image. Since the hunting state can be determined from the luminance variation mixed with the original luminance variation of the subject image, the luminance is controlled based on the accurately determined hunting state.

また、ハレーション検出部146は、画像の一部の領域であるブロックごとの輝度に基づいてハレーション状態を検出する。
この構成により、画像の一部の領域ごとの輝度に基づいてハレーション状態が検出される。そのため、ハレーション状態の分布に基づいて輝度が制御される。
Further, the halation detection unit 146 detects the halation state based on the luminance for each block, which is a partial area of the image.
With this configuration, the halation state is detected based on the luminance of each partial region of the image. For this reason, the luminance is controlled based on the distribution of the halation state.

また、撮像制御部147は、ハンチングの検出時において、輝度の制御速度を、ハンチングの非検出時における制御速度よりも低くする。また、撮像制御部147は、ハンチングを検出している間にハレーションを検出した場合は、ハンチングのみを検出している場合に比べて露光時間の制御速度を高くする。 この構成により、ハンチングの検出時において、輝度の制御速度が低下する。そのため、ハンチングの検出時において、制御によりハンチングの解消が図られるとともに、過剰な制御を抑制することができる。また、撮像制御部147は、ハンチングを検出している間にハレーションを検出した場合は、ハンチングのみを検出している場合に比べて露光時間の制御速度を高くすることによって、ハレーションが発生する頻度を抑えることができる。   Further, the imaging control unit 147 makes the brightness control speed lower than the control speed when hunting is not detected when hunting is detected. In addition, when the imaging control unit 147 detects halation while detecting hunting, the imaging control unit 147 increases the control speed of the exposure time compared to when only hunting is detected. With this configuration, the brightness control speed decreases when hunting is detected. Therefore, when hunting is detected, hunting can be eliminated by the control, and excessive control can be suppressed. In addition, when the imaging control unit 147 detects halation while detecting hunting, the frequency of occurrence of halation is increased by increasing the control speed of the exposure time compared to the case where only hunting is detected. Can be suppressed.

また、撮像制御部147は、輝度の変動周期が所定の変動周期の範囲内であるとき制御を停止する。
この構成により、被検体に固有の輝度の変動周期を撮像制御部147に設定することで、輝度の変動周期が設定された変動周期の範囲内になるとき制御が停止される。そのため、被検体の特性に応じて輝度が変動するとき、その変動に応じた無用な制御が行われないので、ハンチングの発生が回避される。
In addition, the imaging control unit 147 stops the control when the luminance fluctuation period is within a predetermined fluctuation period.
With this configuration, by setting the luminance fluctuation period specific to the subject in the imaging control unit 147, the control is stopped when the luminance fluctuation period falls within the set fluctuation period. Therefore, when the luminance varies according to the characteristics of the subject, unnecessary control according to the variation is not performed, so that occurrence of hunting is avoided.

内視鏡装置1は、先端の加速度を検出する加速度センサ108を備え、撮像制御部147は、加速度に基づいて輝度を制御する。
この構成により、被検体に挿入部10の先端部が挿入されるとき、その動きに伴う加速度に応じて撮像される画像の輝度が制御される。そのため、動きに伴って撮像される被検体の部位の変化によって変動する画像の輝度が、動きの状態に応じて制御される。
The endoscope apparatus 1 includes an acceleration sensor 108 that detects the acceleration at the tip, and the imaging control unit 147 controls the luminance based on the acceleration.
With this configuration, when the distal end portion of the insertion portion 10 is inserted into the subject, the luminance of the image to be captured is controlled according to the acceleration accompanying the movement. For this reason, the luminance of the image that fluctuates due to the change in the part of the subject that is imaged with the movement is controlled according to the state of the movement.

撮像制御部147は、先端部が動作中と判定されるとき、輝度の制御速度を、ハンチングまたはハレーションの非検出時における制御速度よりも低くする。
この構成により、被検体に挿入部10の先端部が挿入中であるときに、画像の輝度の制御速度が低くなる。そのため、挿入による画像の輝度の変動による影響を抑制することで、過剰な制御が行われないのでハンチングが抑制される。
When it is determined that the tip portion is in operation, the imaging control unit 147 makes the brightness control speed lower than the control speed when hunting or halation is not detected.
With this configuration, when the distal end portion of the insertion portion 10 is being inserted into the subject, the image brightness control speed is reduced. For this reason, hunting is suppressed because excessive control is not performed by suppressing the influence of fluctuations in the luminance of the image due to insertion.

なお、上述した実施形態に係る内視鏡装置1の一部、例えば、システム制御部110および画像処理部140をCPU、メモリ、入出力インタフェース、コンピュータ読み取り可能な記録媒体などからなるコンピュータで実現するようにしてもよい。その場合、この制御機能を実現するためのプログラムをこの記録媒体に記録しておき、記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、内視鏡装置1に内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。   Note that a part of the endoscope apparatus 1 according to the above-described embodiment, for example, the system control unit 110 and the image processing unit 140 is realized by a computer including a CPU, a memory, an input / output interface, a computer-readable recording medium, and the like. You may do it. In that case, a program for realizing the control function may be recorded on the recording medium, and the recorded program may be read by the computer system and executed. Here, the “computer system” is a computer system built in the endoscope apparatus 1 and includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” is a medium that dynamically holds a program for a short time, such as a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line, In this case, a volatile memory inside a computer system that serves as a server or a client may be included that holds a program for a certain period of time. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

また、上述した実施形態に係る内視鏡装置1の一部、または全部は、LSI(Large Scale Integration)等の集積回路として実現してもよい。内視鏡装置1の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。   Further, part or all of the endoscope apparatus 1 according to the above-described embodiment may be realized as an integrated circuit such as an LSI (Large Scale Integration). Each functional block of the endoscope apparatus 1 may be individually made into a processor, or a part or all of them may be integrated into a processor. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. In addition, when an integrated circuit technology that replaces LSI appears due to the advancement of semiconductor technology, an integrated circuit based on the technology may be used.

例えば、撮像素子としてCCD撮像素子に代えて、CMOS撮像素子などの他の種類の撮像素子が用いられてもよい。LED106は、本体部11に備えられてもよい。その場合には、LED106からの光を対物レンズ105に伝達し、挿入部10の先端部から出射させるライトガイドが挿入部10に備えられてもよい。また、システム制御部110からの画像信号を受信し、受信した画像信号に基づく画像を表示することができれば、LCD118は、本体部11において省略されてもよい。   For example, instead of a CCD image sensor, another type of image sensor such as a CMOS image sensor may be used as the image sensor. The LED 106 may be provided in the main body 11. In that case, the insertion unit 10 may be provided with a light guide that transmits light from the LED 106 to the objective lens 105 and emits the light from the distal end of the insertion unit 10. Further, the LCD 118 may be omitted in the main body unit 11 as long as it can receive an image signal from the system control unit 110 and display an image based on the received image signal.

以上、本発明の好ましい実施形態を説明したが、本発明はこれら実施形態及びその変形例に限定されることはない。本発明の趣旨を逸脱しない範囲で、構成の付加、省略、置換、およびその他の変更が可能である。
また、本発明は前述した説明によって限定されることはなく、添付のクレームの範囲によってのみ限定される。
As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment and its modification. Additions, omissions, substitutions, and other modifications can be made without departing from the spirit of the present invention.
Further, the present invention is not limited by the above description, and is limited only by the scope of the appended claims.

1…内視鏡装置、10…挿入部、11…本体部、104…CCD撮像素子、105…対物レンズ、106…LED、107…サーミスタ、108…加速度センサ、109…ワイヤー固定部、110…システム制御部、110a…画像記録部、110b…LCDコントローラ、111…ユーザインタフェース部、112…記憶媒体、113…パラメータ記憶部、114…タイミングジェネレータ、115…CCDドライブ回路、118…LCD、119…LED駆動回路、121…湾曲制御部、122…UD湾曲モータ、123…RL湾曲モータ、124、125…ワイヤー連結部、126…湾曲用ワイヤー、134、135…着脱コネクタ、136…プリアンプ、137…AFE、140…画像処理部、142…黒補正部、143…画素補間・輝度色差変換部、144…補正処理部、145…ハンチング検出部、146…ハレーション検出部、147…撮像制御部 DESCRIPTION OF SYMBOLS 1 ... Endoscope apparatus, 10 ... Insertion part, 11 ... Main part, 104 ... CCD image pick-up element, 105 ... Objective lens, 106 ... LED, 107 ... Thermistor, 108 ... Acceleration sensor, 109 ... Wire fixing part, 110 ... System Control unit, 110a ... Image recording unit, 110b ... LCD controller, 111 ... User interface unit, 112 ... Storage medium, 113 ... Parameter storage unit, 114 ... Timing generator, 115 ... CCD drive circuit, 118 ... LCD, 119 ... LED drive Circuit 121, bending controller 122 UD bending motor 123 RL bending motor 124, 125 wire connecting part 126 bending wire 134, 135 detachable connector 136 preamplifier 137 AFE 140 ... Image processing unit, 142 ... Black correction unit, 143 ... Pixel interpolation Luminance and color difference conversion unit, 144 ... correction processing unit, 145 ... hunting detection unit, 146 ... halation detection unit, 147 ... imaging control unit

Claims (9)

先端に撮像部を備える挿入部と、
前記撮像部からの画像の輝度に基づいてハンチング状態を検出するハンチング検出部と、
前記画像のハレーション状態を検出するハレーション検出部と、
前記ハンチング状態および前記ハレーション状態に基づいて前記輝度を制御する撮像制御部と、
を備える内視鏡装置。
An insertion unit having an imaging unit at the tip;
A hunting detection unit for detecting a hunting state based on luminance of an image from the imaging unit;
A halation detector for detecting the halation state of the image;
An imaging control unit that controls the luminance based on the hunting state and the halation state;
An endoscope apparatus comprising:
前記ハンチング検出部は、前記輝度の変動の周期性に基づいて前記ハンチング状態を検出する請求項1に記載の内視鏡装置。   The endoscope apparatus according to claim 1, wherein the hunting detection unit detects the hunting state based on periodicity of the luminance variation. 前記ハレーション検出部は、前記画像の一部の領域であるブロックごとの輝度に基づいて前記ハレーション状態を検出する請求項1または請求項2に記載の内視鏡装置。   The endoscope apparatus according to claim 1, wherein the halation detection unit detects the halation state based on luminance for each block, which is a partial area of the image. 前記撮像制御部は、ハンチングの検出時において、前記輝度の制御速度を、ハンチングの非検出時における前記制御速度よりも低くする請求項1から請求項3のいずれか一項に記載の内視鏡装置。   The endoscope according to any one of claims 1 to 3, wherein the imaging control unit makes the brightness control speed lower than the control speed when hunting is not detected when hunting is detected. apparatus. 前記撮像制御部は、ハンチングを検出している間にハレーションを検出した場合、ハンチングのみを検出している場合と比較して前記輝度の制御速度を高くする請求項1から4のいずれか一項に記載の内視鏡装置。   The said imaging control part raises the control speed of the said brightness | luminance compared with the case where only the hunting is detected when the halation is detected while detecting the hunting. The endoscope apparatus described in 1. 前記撮像制御部は、前記輝度の変動周期が所定の変動周期の範囲内であるとき前記制御を停止する請求項4または請求項5に記載の内視鏡装置。   The endoscope apparatus according to claim 4, wherein the imaging control unit stops the control when the luminance fluctuation period is within a predetermined fluctuation period. 前記先端の加速度を検出する加速度検出部を備え、
前記撮像制御部は、前記加速度に基づいて前記輝度を制御する請求項1から請求項6のいずれか一項に記載の内視鏡装置。
An acceleration detection unit for detecting the acceleration of the tip;
The endoscope apparatus according to any one of claims 1 to 6, wherein the imaging control unit controls the brightness based on the acceleration.
前記撮像制御部は、前記先端が動作中と判定されるとき、前記輝度の制御速度を、ハンチングまたはハレーションの非検出時における前記制御速度よりも低くする請求項7に記載の内視鏡装置。   The endoscope apparatus according to claim 7, wherein, when it is determined that the distal end is in operation, the imaging control unit sets the brightness control speed lower than the control speed when hunting or halation is not detected. 内視鏡装置の制御方法であって、
挿入部の先端に備えられた撮像部からの画像の輝度に基づいてハンチング状態を検出するハンチング検出過程、
前記画像のハレーション状態を検出するハレーション検出過程と、
前記ハンチング状態および前記ハレーション状態に基づいて前記輝度を制御する撮像制御過程と、
を有する制御方法。
A method for controlling an endoscope apparatus, comprising:
A hunting detection process for detecting a hunting state based on the brightness of an image from an imaging unit provided at the tip of the insertion unit;
A halation detection process for detecting a halation state of the image;
An imaging control process for controlling the brightness based on the hunting state and the halation state;
A control method.
JP2016139455A 2016-07-14 2016-07-14 Endoscope apparatus and control method Pending JP2018007880A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016139455A JP2018007880A (en) 2016-07-14 2016-07-14 Endoscope apparatus and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016139455A JP2018007880A (en) 2016-07-14 2016-07-14 Endoscope apparatus and control method

Publications (1)

Publication Number Publication Date
JP2018007880A true JP2018007880A (en) 2018-01-18

Family

ID=60993410

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016139455A Pending JP2018007880A (en) 2016-07-14 2016-07-14 Endoscope apparatus and control method

Country Status (1)

Country Link
JP (1) JP2018007880A (en)

Similar Documents

Publication Publication Date Title
JP4804062B2 (en) Endoscope system
EP2926718B1 (en) Endoscope system
JP5271062B2 (en) Endoscope apparatus and method of operating the same
US20090213211A1 (en) Method and Device for Reducing the Fixed Pattern Noise of a Digital Image
EP2415390A1 (en) Electronic endoscope system
JP6072374B2 (en) Observation device
JP5953373B2 (en) Endoscope device
JP7023120B2 (en) Endoscope device, operation method and program of the endoscope device
US11419482B2 (en) Endoscope apparatus, control method of endoscope apparatus, and recording medium
JP4694336B2 (en) Electronic endoscope device
US11344191B2 (en) Endoscope system including processor for determining type of endoscope
JPWO2017183339A1 (en) Endoscope system, processor device, and operation method of endoscope system
JP5940306B2 (en) Endoscope apparatus and method for operating endoscope apparatus
JP5422180B2 (en) Endoscope apparatus and method of operating the same
JP6337228B2 (en) Endoscope
JP2010279526A (en) Endoscopic image processing apparatus, method and program
JP2018007880A (en) Endoscope apparatus and control method
JP2008093174A (en) Endoscope apparatus
JP6242552B1 (en) Image processing device
JP6027793B2 (en) Endoscope device
JP2011024901A (en) Electronic endoscope system and light control signal correcting method
JP6640378B2 (en) Endoscope apparatus and control method of endoscope apparatus
JPWO2017212946A1 (en) Image processing device
JP2022110536A (en) Medical control device and medical observation system
JP2010279507A (en) Electronic endoscopic system

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160715