JP2012135345A - Endoscope apparatus and program - Google Patents

Endoscope apparatus and program Download PDF

Info

Publication number
JP2012135345A
JP2012135345A JP2010287943A JP2010287943A JP2012135345A JP 2012135345 A JP2012135345 A JP 2012135345A JP 2010287943 A JP2010287943 A JP 2010287943A JP 2010287943 A JP2010287943 A JP 2010287943A JP 2012135345 A JP2012135345 A JP 2012135345A
Authority
JP
Japan
Prior art keywords
image
unit
amplitude
frequency band
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010287943A
Other languages
Japanese (ja)
Other versions
JP5657375B2 (en
JP2012135345A5 (en
Inventor
Hiroshi Sasaki
佐々木  寛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2010287943A priority Critical patent/JP5657375B2/en
Priority to CN201180061990.4A priority patent/CN103269636B/en
Priority to PCT/JP2011/079165 priority patent/WO2012086536A1/en
Priority to EP11850095.8A priority patent/EP2656778A4/en
Publication of JP2012135345A publication Critical patent/JP2012135345A/en
Priority to US13/925,197 priority patent/US9492059B2/en
Publication of JP2012135345A5 publication Critical patent/JP2012135345A5/ja
Application granted granted Critical
Publication of JP5657375B2 publication Critical patent/JP5657375B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00188Optical arrangements with focusing or zooming features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/73
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

PROBLEM TO BE SOLVED: To provide an endoscope apparatus and program, etc. which make it possible in enlarged observation to time sequentially display a display image with a small blur quantity equivalent to a focused state, and with suppressed noise increase.SOLUTION: The endoscope apparatus includes: an image acquisition unit (image configuration processing unit 310) which time sequentially acquires a captured image in an enlarged observation state in which magnification of an optical system is a higher than that of a regular observation state; a blur quantity information extraction unit (texture extraction unit 320) which extracts blur quantity information from the captured image in the enlarged observation state; and a blur quantity correction unit (texture correction quantity calculation unit 340, texture correction unit 360, and compositing unit 370) which correct the captured image on the basis of the extracted blur quantity information.

Description

本発明は、内視鏡装置及びプログラム等に関する。   The present invention relates to an endoscope apparatus, a program, and the like.

従来、内視鏡診断において体腔内の病変検出精度を向上させたいという要求があり、病変部と正常部の組織上の違いを顕微鏡相当の倍率で拡大観察することで検出精度向上を達成する拡大光学系を備えた内視鏡(以降、拡大内視鏡と記す)が一般的に知られている。   Conventionally, there has been a demand for improving the accuracy of detection of lesions in body cavities in endoscopic diagnosis, and enlargement that achieves improved detection accuracy by magnifying the difference in tissue between the lesioned part and the normal part at a magnification equivalent to that of a microscope. An endoscope provided with an optical system (hereinafter referred to as a magnifying endoscope) is generally known.

このような拡大内視鏡は数十倍から数百倍の倍率を有したものがあり、染色散布や、狭帯域照明光による血管強調画像(NBI画像とも呼ぶ)との併用により、粘膜表層の微細な構造や血管走行のパターンを観察することができる。病変部と正常部ではこれらのパターンに違いが表れることが知られており、病変診断の1つの判定基準になっている。   Some of these magnifying endoscopes have magnifications of several tens to several hundreds of times. By using in combination with staining and spreading and blood vessel-enhanced images (also referred to as NBI images) using narrow-band illumination light, A fine structure and a pattern of blood vessel running can be observed. It is known that there is a difference in these patterns between the lesioned part and the normal part, which is one criterion for lesion diagnosis.

特開平10−165365号公報Japanese Patent Laid-Open No. 10-165365 特開2003−140030号公報JP 2003-140030 A

ところが、このような拡大観察を行なうと高倍率になるにつれ被写界深度は通常観察時に比べて極端に狭くなる。そうなると被写体に対する内視鏡挿入部(以降、スコープ、或いは撮像部と記す)の先端位置を合焦範囲内に保持させ続ける事は難しく、常に合焦した状態の画像を観察し続けるにはかなりの熟練を要するのが現状である。   However, when such magnified observation is performed, the depth of field becomes extremely narrow as compared with the normal observation as the magnification is increased. In that case, it is difficult to keep the distal end position of the endoscope insertion part (hereinafter referred to as a scope or an imaging part) with respect to the subject within the in-focus range, and it is considerable to keep observing an always focused image. The current situation requires skill.

このような拡大観察時の合焦に伴うスコープ位置合わせ作業時間が増加すると、全体の診断時間が長時間に及んでしまう。結果、ドクターの疲労と共に患者の負担も大きくなるという課題が発生する。   If the scope alignment work time associated with focusing during such magnified observation increases, the overall diagnosis time will take a long time. As a result, there arises a problem that the burden on the patient increases with the fatigue of the doctor.

このような課題を解決する方法としては、特許文献1で、1つの画像内で深度範囲外と想定される領域を設定しボケ回復処理を施して、深度拡大を実現するというものがある。この方法は管腔中を内視鏡で観察しているときに距離検出を行い、所定距離範囲領域に対するボケ回復処理を行うというものである。この方法の欠点は距離検出が必要であり、距離検出精度が低いとボケ領域の判定に誤りが発生し、更に使用しているボケ回復処理はデコンボリューション等を用いているので、ボケ領域誤判定に伴う過補正やノイズ増幅を懸念させる。   As a method for solving such a problem, Japanese Patent Application Laid-Open No. 2004-228867 has a method of setting a region assumed to be outside the depth range in one image and performing blur recovery processing to realize depth expansion. In this method, distance detection is performed while observing the inside of a lumen with an endoscope, and blur recovery processing is performed on a predetermined distance range region. The disadvantage of this method is that distance detection is required, and if the distance detection accuracy is low, an error occurs in the determination of the blur area, and the blur recovery process that is used uses deconvolution, etc. Concerns over-correction and noise amplification.

もう1つの解決する方法としては、特許文献2にあるように、拡大観察時にオートフォーカスを行うというものである。このオートフォーカス処理はコントラスト値を用いてピント制御を行う為、常にピントが合うわけではなく、時系列的に合焦画像とボケ画像が短期間に交互に繰り返し表示される。このようなオートフォーカス処理はフレームレートが十分速い場合は合焦画像とボケ画像が周期的に繰り返されてもほとんど識別できず問題とならないが、フレームレートが遅くなると目に付くようになるという欠点がある。   As another method for solving the problem, as disclosed in Patent Document 2, autofocusing is performed during magnified observation. In this autofocus process, since focus control is performed using a contrast value, focus is not always achieved, and focused images and blurred images are alternately and repeatedly displayed in a short time series. Such autofocus processing is not problematic because it is hardly discernable even when the focused image and blurred image are repeated periodically when the frame rate is sufficiently high, but it becomes noticeable when the frame rate is slow. There is.

本発明の幾つかの態様によれば、拡大観察において、合焦状態と同等の少ないボケ量でかつ、ノイズ増大を抑えた表示画像を時系列表示することを可能とする内視鏡装置及びプログラム等を提供することができる。   According to some aspects of the present invention, an endoscope apparatus and a program capable of time-series display of a display image with a small amount of blur equivalent to the in-focus state and suppressed noise increase in magnified observation Etc. can be provided.

また、本発明の幾つかの態様によれば、時系列でボケ量の変化が小さな高精細画像を表示できるので、視認性向上により病変診断時間を短縮でき、患者への負担を軽減することができる内視鏡装置及びプログラム等を提供することができる。   In addition, according to some aspects of the present invention, since a high-definition image with a small change in blur amount in time series can be displayed, the lesion diagnosis time can be shortened by improving the visibility and the burden on the patient can be reduced. An endoscope apparatus and a program that can be provided can be provided.

本発明の一態様は、通常観察状態に比べて光学系の拡大倍率が高倍率である拡大観察状態における撮像画像を時系列的に取得する画像取得部と、前記拡大観察状態における前記撮像画像からボケ量情報を抽出するボケ量情報抽出部と、抽出した前記ボケ量情報に基づいて前記撮像画像を補正するボケ量補正部と、を含む内視鏡装置に関係する。   One aspect of the present invention is an image acquisition unit that acquires, in time series, a captured image in an enlarged observation state in which the magnification of the optical system is higher than that in a normal observation state, and the captured image in the enlarged observation state. The present invention relates to an endoscope apparatus that includes a blur amount information extraction unit that extracts blur amount information and a blur amount correction unit that corrects the captured image based on the extracted blur amount information.

本発明の一態様では、拡大観察状態における撮像画像のボケ量情報に基づいて撮像画像を補正する。ボケ量情報に基づく処理のため、ボケの影響を強く受ける領域等のボケ回復処理が必要な領域に対して効率的に補正処理を行い、その他の領域に対しては補正処理を行わないことができる。よって、ユーザーに対して違和感のないボケ補正画像を提供することができる。   In one aspect of the present invention, the captured image is corrected based on blur amount information of the captured image in the magnified observation state. Because the process is based on the amount of blur information, correction processing is efficiently performed on areas that require blur recovery processing, such as areas that are strongly affected by blur, and correction processing is not performed on other areas. it can. Therefore, it is possible to provide a blur correction image that does not give the user a sense of incongruity.

本発明の他の態様は、通常観察状態に比べて光学系の拡大倍率が高倍率である拡大観察状態における撮像画像を時系列的に取得する画像取得部と、前記拡大観察状態における前記撮像画像からボケ量情報を抽出するボケ量情報抽出部と、抽出した前記ボケ量情報に基づいて前記撮像画像を補正するボケ量補正部として、コンピュータを機能させるプログラムに関係する。   Another aspect of the present invention includes an image acquisition unit that acquires a captured image in a time series in an enlarged observation state in which the magnification of the optical system is higher than that in the normal observation state, and the captured image in the enlarged observation state. The present invention relates to a program that causes a computer to function as a blur amount information extraction unit that extracts blur amount information from a blur amount correction unit that corrects the captured image based on the extracted blur amount information.

本実施形態の内視鏡装置のシステム構成例。The system configuration example of the endoscope apparatus of this embodiment. 画像処理部の構成例。2 is a configuration example of an image processing unit. テクスチャ抽出部の構成例。The structural example of a texture extraction part. 図4(A)〜図4(C)は振幅範囲に応じて抽出する周波数範囲が変化することを説明する図。4A to 4C are diagrams for explaining that the frequency range to be extracted changes according to the amplitude range. FIG. テクスチャ補正量算出部の構成例。The structural example of a texture correction amount calculation part. ズームレバーによる観察状態の切り替え及び基準振幅値の更新処理を説明する図。The figure explaining the switching process of the observation state by a zoom lever, and the update process of a reference | standard amplitude value. 図7(A)〜図7(C)はZ方向のズレと補正量の関係を説明する図。FIG. 7A to FIG. 7C are diagrams for explaining the relationship between the deviation in the Z direction and the correction amount. 色フィルタのフィルタ透過率。Filter transmittance of the color filter. 回転フィルタの構成例。The structural example of a rotation filter. 本実施形態の内視鏡装置の他のシステム構成例。The other system structural example of the endoscope apparatus of this embodiment. コントラスト法によるオートフォーカス処理の模式図。The schematic diagram of the auto-focus process by a contrast method. 画像処理部の他の構成例。The other example of a structure of an image process part. テクスチャ抽出部の他の構成例。The other structural example of a texture extraction part. 図14(A)、図14(B)はサブバンド画像の分割例。14A and 14B show examples of subband image division. テクスチャ補正量算出部の他の構成例。The other structural example of a texture correction amount calculation part. テクスチャ補正部の構成例。The structural example of a texture correction part. 合焦位置算出部の構成例。3 is a configuration example of a focus position calculation unit. 振幅ゲイン量に対する補正量の関係を説明する図。The figure explaining the relationship of the corrected amount with respect to an amplitude gain amount. 図19(A)〜図19(C)は光学系の観察倍率と抽出する周波数範囲の関係を説明する図。FIGS. 19A to 19C are diagrams illustrating the relationship between the observation magnification of the optical system and the frequency range to be extracted.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.本実施形態の手法
まず、本実施形態の手法について説明する。上述したように、本実施形態の手法によれば、合焦状態と同等の少ないボケ量の画像を、ノイズを増大させずに取得することが可能になる。
1. First, the method of this embodiment will be described. As described above, according to the method of the present embodiment, it is possible to acquire an image with a small amount of blur equivalent to the in-focus state without increasing noise.

数十〜数百倍の観察倍率を用いる拡大観察モードにおいては、被写界深度が非常に狭くなってしまい、ピントがあった画像を取得することが困難である。そこで、ピントが合わず、ボケてしまった画像に対して、画像処理的にボケ回復処理を施すことで、合焦状態と同等の少ないボケ量の画像を取得する。   In the magnification observation mode using an observation magnification of several tens to several hundreds of times, the depth of field becomes very narrow, and it is difficult to acquire a focused image. Therefore, an image with a small amount of blur equivalent to the in-focus state is obtained by performing blur recovery processing on the image that is out of focus and has been blurred.

本実施形態の手法について説明する。本実施形態の画像取得部(画像構成処理部310)で取得される画像は、拡大観察によりピントを合わせることが困難であるため、ボケた画像となっている。この際、ボケの影響が大きく現れるのは、生体の粘膜表面や血管構造等の、微小な階調変化を示す領域であり、ヒダのような大きな階調変化を示す領域ではボケの影響は少ない。つまり、ピントボケによる粘膜や血管等の微細構造画像の振幅低減の影響によるところが大きい。よって、撮像画像から粘膜や血管等の微細構造画像(本実施形態ではテクスチャ画像、或いは、所定周波数帯域画像と呼ぶ)を抽出する。   The method of this embodiment will be described. The image acquired by the image acquisition unit (image configuration processing unit 310) of the present embodiment is a blurred image because it is difficult to focus by magnified observation. At this time, the blurring effect appears greatly in a region showing a minute gradation change such as a mucous membrane surface or a blood vessel structure of a living body, and the blurring effect is small in a region showing a large gradation change such as a fold. . In other words, it is largely due to the influence of the amplitude reduction of the fine structure image of the mucous membrane and blood vessels due to out-of-focus. Therefore, a fine structure image (such as a texture image or a predetermined frequency band image in the present embodiment) such as a mucous membrane or a blood vessel is extracted from the captured image.

そして、抽出したテクスチャ画像に対して、低減されてしまった振幅値を増強する(例えば信号値を増幅させる)ような補正処理を行う。その上で、画像取得部で取得された画像(ボケた画像)である撮像画像と、補正処理を行ったテクスチャ画像とを合成することで、診断に有用であるテクスチャが合焦状態となるように補正した画像を取得する。このようにすることで、ボケの影響を強く受ける領域に対してはボケ回復処理を行うとともに、ボケの影響が少ない領域やノイズ成分等にはボケ回復処理を行わないため、見た目に違和感の少ないボケ補正画像を取得することができる。つまり、診断に有用であるテクスチャに対して重点的にボケ回復処理を施した画像を取得することが可能となる。   Then, a correction process is performed on the extracted texture image so as to enhance the reduced amplitude value (for example, amplify the signal value). Then, the texture that is useful for diagnosis is brought into focus by synthesizing the captured image that is the image (blurred image) acquired by the image acquisition unit and the texture image that has been subjected to the correction process. Acquire the corrected image. By doing this, blur recovery processing is performed for areas that are strongly affected by blur, and blur recovery processing is not performed for areas that are less affected by blur and noise components, etc. A blur correction image can be acquired. That is, it is possible to acquire an image in which blur recovery processing is performed on a texture that is useful for diagnosis.

以下、第1の実施形態では、2段のバイラテラルフィルタを用いることで、テクスチャ画像を抽出する手法について説明する。本実施形態においては、ヒダ等の構造は除いて、粘膜表面や血管等の画像を抽出する必要がある。そのため、適用するフィルタは周波数特性(例えばハイパスやバンドパス等)だけでなく、振幅特性も持つことになる。ここで、振幅とは注目画素の画素値と周辺画素の画素値から求められ、ヒダは振幅値が大きく、粘膜や血管等は振幅値が小さくなる。なお、小振幅〜微小振幅に対応する振幅値を持ち、かつ、所定周波数範囲にある画像を取得できればよく、そのためのフィルタはバイラテラルフィルタに限定されるものではない。   Hereinafter, in the first embodiment, a method of extracting a texture image by using a two-stage bilateral filter will be described. In this embodiment, it is necessary to extract images of mucosal surfaces, blood vessels, etc., except for structures such as folds. Therefore, the applied filter has not only frequency characteristics (for example, high pass and band pass) but also amplitude characteristics. Here, the amplitude is obtained from the pixel value of the target pixel and the pixel values of the peripheral pixels, and the amplitude value of the fold is large, and the amplitude value of the mucous membrane and blood vessel is small. Note that it is sufficient that an image having an amplitude value corresponding to a small amplitude to a small amplitude and in a predetermined frequency range can be acquired, and a filter therefor is not limited to a bilateral filter.

また、第2の実施形態では、テクスチャ画像の抽出を、図14(A)、図14(B)のようにサブバンド画像を用いて行う。また、第2の実施形態においては、画像処理的なボケ回復処理にとどまらず、光学的なオートフォーカス処理も行うことで、ボケ量の少ない画像を取得することが特徴となっている。   In the second embodiment, texture images are extracted using subband images as shown in FIGS. 14A and 14B. Further, the second embodiment is characterized in that an image with a small amount of blur is obtained by performing not only the image processing-based blur recovery processing but also the optical autofocus processing.

2.第1の実施形態
2.1 構成
図1は第1の実施形態の内視鏡装置の全体構成を示すブロック図である。本発明を構成する内視鏡装置は光源部100と撮像部200とプロセッサ部300と表示部400と外部I/F部500からなる。
2. 1. First Embodiment 2.1 Configuration FIG. 1 is a block diagram illustrating an overall configuration of an endoscope apparatus according to a first embodiment. The endoscope apparatus constituting the present invention includes a light source unit 100, an imaging unit 200, a processor unit 300, a display unit 400, and an external I / F unit 500.

光源部100は白色光源101と、白色光源101からの照明光をライトガイドファイバ201の入射端面に集光させる集光レンズ104とからなる。   The light source unit 100 includes a white light source 101 and a condenser lens 104 that condenses illumination light from the white light source 101 on the incident end face of the light guide fiber 201.

撮像部200は例えば体腔への挿入を可能にするため細長くかつ湾曲可能に形成されている。撮像部200には、光源部100で集光された光を導くためのライトガイドファイバ201と、ライトガイドファイバ201により先端まで導かれた光を拡散させて観察対象に照射する照明レンズ202と、観察対象から戻る反射光を集光する対物レンズ203と、焦点位置制御部206と、焦点位置調整レンズ207と、集光した結像光を検出するための撮像素子209と、撮像素子209からの光電変換されたアナログ信号をデジタル信号に変換するA/D変換部210を備えている。ここで上記撮像素子209は色フィルタが所定の配列で各画素に配置された単板撮像素子(補色や原色)とし、CCDやCMOS等が利用できる。   The imaging unit 200 is formed to be elongated and bendable, for example, to enable insertion into a body cavity. The imaging unit 200 includes a light guide fiber 201 for guiding the light collected by the light source unit 100, an illumination lens 202 for diffusing the light guided to the tip by the light guide fiber 201 and irradiating the observation target, The objective lens 203 that condenses the reflected light returning from the observation target, the focal position control unit 206, the focal position adjustment lens 207, the imaging element 209 for detecting the focused imaging light, and the imaging element 209. An A / D conversion unit 210 that converts the photoelectrically converted analog signal into a digital signal is provided. Here, the image pickup device 209 is a single plate image pickup device (complementary color or primary color) in which color filters are arranged in each pixel in a predetermined arrangement, and a CCD, a CMOS, or the like can be used.

プロセッサ部300は画像処理部301と制御部302とから構成される。表示部400はCRTや液晶モニタ等の動画表示可能な表示装置である。   The processor unit 300 includes an image processing unit 301 and a control unit 302. The display unit 400 is a display device capable of displaying a moving image such as a CRT or a liquid crystal monitor.

外部I/F部500は、この内視鏡装置に対するユーザーからの入力等を行うためのインターフェースであり、電源のオン/オフを行うための電源スイッチ、撮影操作を開始するためのシャッタボタン、撮影モードやその他各種のモードを切り換えるためのモード切換ノブ(例えば図6に示すズームレバーを拡大観察モードとなる側に動かす事で焦点位置調整レンズを移動し、より近接位置での合焦状態を得る)などを含んで構成されている。そして、この外部I/F部500は、入力された情報を制御部302へ出力するようになっている。   The external I / F unit 500 is an interface for performing input from the user to the endoscope apparatus, a power switch for turning on / off the power, a shutter button for starting a photographing operation, and photographing. A mode switching knob for switching between modes and various other modes (for example, moving the zoom lever shown in FIG. 6 to the magnification observation mode side moves the focus position adjustment lens, and obtains a focusing state at a closer position. ) And the like. The external I / F unit 500 outputs input information to the control unit 302.

次に撮像部200の構成要素である焦点位置制御部206と焦点位置調整レンズ207と制御部302の関係についてその詳細を説明する。まず本実施例の内視鏡装置が有する観察倍率が異なる2つの観察モードについて説明する。   Next, the details of the relationship among the focal position control unit 206, the focal position adjustment lens 207, and the control unit 302, which are components of the imaging unit 200, will be described. First, two observation modes having different observation magnifications of the endoscope apparatus of the present embodiment will be described.

2つの観察モードは通常観察モードと拡大観察モードがあり、通常観察モードはパンフォーカスの広視野画像で主にスクリーニング検査を行うモードである。拡大観察モードはスクリーニング検査で見つかった病変部に近接してその粘膜構造や血管走行状態等を拡大観察する事で病変部が悪性であるか否かを精査する精査モードである。   The two observation modes are a normal observation mode and a magnification observation mode. The normal observation mode is a mode in which a screening inspection is mainly performed with a pan-focus wide-field image. The magnification observation mode is a scrutinization mode for closely examining whether or not the lesion is malignant by magnifying the mucosal structure, the blood vessel running state, etc. in the vicinity of the lesion found by the screening test.

このような2つのモードを切り替える為に制御部302は、外部I/F部500の図6に示すズームレバーに対する操作に基づき焦点位置制御部206に焦点位置調整制御信号を送信する。焦点位置制御部206では受信した前記制御信号に基づき焦点位置調整レンズ207の移動を制御する。   In order to switch between these two modes, the control unit 302 transmits a focus position adjustment control signal to the focus position control unit 206 based on an operation of the external I / F unit 500 on the zoom lever shown in FIG. The focal position control unit 206 controls the movement of the focal position adjustment lens 207 based on the received control signal.

続いて焦点位置制御部206の拡大観察モード時の具体的な制御とユーザー操作について説明する。   Next, specific control and user operations in the magnification observation mode of the focal position control unit 206 will be described.

拡大観察モードを選択した場合には、近接状態で合焦する予め決定された所定の焦点位置となるように焦点位置制御部206を介して焦点位置調整レンズ207を移動させることになる。拡大観察へスムーズに移行する1つの操作手順例としてはまず通常観察モードで合焦状態を維持しながら観察対象にできるだけ近接させる。この時点でユーザーが外部I/F部500のズームレバーを操作し拡大観察モードに切り替える。この状態からズームレバーを操作し倍率を連続的(或いは段階的)に変化させ、それと共に、深度が狭くなるのでスコープをより観察対象に漸近させてピントを合わせる。このような作業により所望の倍率と合焦状態が獲得できる。   When the magnification observation mode is selected, the focus position adjustment lens 207 is moved via the focus position control unit 206 so as to be a predetermined focus position determined in advance in the proximity state. As an example of an operation procedure for smoothly shifting to magnified observation, first, as close as possible to the observation target while maintaining the in-focus state in the normal observation mode. At this point, the user operates the zoom lever of the external I / F unit 500 to switch to the magnification observation mode. From this state, the zoom lever is operated to change the magnification continuously (or stepwise), and at the same time, the depth is narrowed, so the scope is brought closer to the observation object to focus. By such an operation, a desired magnification and in-focus state can be acquired.

つまりユーザーは倍率が上がるにつれてスコープ先端を微妙な距離感で観察対象に近づけるという高度な操作をしないとボケ画像を観察する事となり、精査したい観察対象を拡大観察中、常に画面内にピントが合った状態でフレーミングし続けるのは非常に難しい作業である。   In other words, if the user does not perform an advanced operation of bringing the scope tip closer to the observation target with a delicate sense of distance as the magnification increases, the user will observe the blurred image, and the enlarged image of the observation target to be examined will always be in focus on the screen. It is very difficult to continue framing in a wet state.

一方、通常観察モードを選択した場合はスクリーニング検査を行うのに十分な画角と被写界深度を得る為の焦点位置となるように焦点位置制御部206を介して焦点位置調整レンズ207を移動させることとなる。この場合は、常に合焦状態にあるのでユーザーは観察対象にスコープ先端を移動させるだけで観察する事ができ、複雑で微妙な操作を強いる事はない。   On the other hand, when the normal observation mode is selected, the focal position adjustment lens 207 is moved via the focal position control unit 206 so that the focal position is obtained to obtain a sufficient angle of view and depth of field for performing the screening examination. Will be allowed to. In this case, since it is always in focus, the user can observe only by moving the scope tip to the observation object, and does not impose complicated and delicate operations.

続いてプロセッサ部300を構成する画像処理部301の詳細を図2のブロック図に基づいて説明する。   Next, details of the image processing unit 301 constituting the processor unit 300 will be described based on the block diagram of FIG.

画像処理部301は画像構成処理部310、テクスチャ抽出部320、テクスチャ補正量算出部340、テクスチャ補正部360、合成部370から構成される。   The image processing unit 301 includes an image configuration processing unit 310, a texture extraction unit 320, a texture correction amount calculation unit 340, a texture correction unit 360, and a synthesis unit 370.

続いて各構成部間のデータの流れを説明する。A/D変換部210から出力された時系列撮像画像は画像構成処理部310に入力される。画像構成処理部310には更に制御部302が接続されており、制御部302に予め保存されている処理パラメータ(OBクランプ値、WB係数、色補正係数、階調変換テーブル、輪郭強調レベル等)が画像構成処理部310に入力される。それらの処理パラメータに基づき画像構成処理部310は入力された時系列撮像画像から表示装置にて観察可能な時系列表示画像を生成し、テクスチャ抽出部320、及び合成部370へ出力する。   Next, the data flow between the components will be described. The time-series captured image output from the A / D conversion unit 210 is input to the image configuration processing unit 310. A control unit 302 is further connected to the image configuration processing unit 310, and processing parameters stored in advance in the control unit 302 (OB clamp value, WB coefficient, color correction coefficient, gradation conversion table, contour enhancement level, etc.). Is input to the image configuration processing unit 310. Based on these processing parameters, the image configuration processing unit 310 generates a time-series display image that can be observed by the display device from the input time-series captured image, and outputs the time-series display image to the texture extraction unit 320 and the synthesis unit 370.

テクスチャ抽出部320は画像構成処理部310から出力される時系列表示画像が入力され、制御部302からは外部I/F部500でユーザー指定された観察モード信号(拡大観察モードか通常観察モードかを示す情報)と、更に撮像部200の倍率情報が入力される。テクスチャ抽出部320ではまず観察モードが拡大観察モードとなった時点で動作し、入力される時系列表示画像の各フレームに対してテクスチャ画像を抽出する。ここでテクスチャ画像は、観察対象である生体表面の微細な粘膜構造や血管等に対応する微小階調変化画像であり、粘膜表層で照明光が正反射した領域や、ヒダ等の大きな階調変化を呈する部分は極力取り除いた画像である。テクスチャ抽出部320の詳細については後述する。   The texture extraction unit 320 receives the time-series display image output from the image configuration processing unit 310, and the control unit 302 receives an observation mode signal (enlarged observation mode or normal observation mode) specified by the external I / F unit 500. And the magnification information of the imaging unit 200 are input. The texture extraction unit 320 first operates when the observation mode becomes the magnification observation mode, and extracts a texture image for each frame of the input time-series display image. Here, the texture image is a minute gradation change image corresponding to the fine mucosal structure or blood vessels on the surface of the living body to be observed, and a large gradation change such as a region where illumination light is regularly reflected on the mucous membrane surface layer or folds. The portion exhibiting is an image that has been removed as much as possible. Details of the texture extraction unit 320 will be described later.

テクスチャ抽出部320で抽出されたテクスチャ画像は、テクスチャ補正量算出部340に入力され、制御部302からの観察モード信号とテクスチャ基準閾値とテクスチャ画像の振幅値に基づきテクスチャ画像に対する補正量が算出される。算出した補正量はテクスチャ補正部360へ出力される。ここでテクスチャ基準閾値はテクスチャ補正量算出部340で時系列的に算出される複数のテクスチャ画像の振幅値から基準振幅値を選定する為の判定閾値である。また補正量は、現時点で抽出されたテクスチャ画像の振幅値が基準振幅値と同一の大きさとなる振幅ゲイン量に基づき算出される。但し、この振幅ゲイン量が所定閾値以上に大きくなる場合は、抽出されているテクスチャ画像内に有意な情報が無くピンボケ状態にあるとして補正量を0に修正する。ここで補正量は図18に示すように振幅ゲイン量に対する2つの閾値Th1とTh2を設けてこの2つの閾値間で徐々に補正量を小さくするような連続的変化を与えても良い。テクスチャ補正量算出部340の詳細については後述する。   The texture image extracted by the texture extraction unit 320 is input to the texture correction amount calculation unit 340, and a correction amount for the texture image is calculated based on the observation mode signal from the control unit 302, the texture reference threshold value, and the amplitude value of the texture image. The The calculated correction amount is output to the texture correction unit 360. Here, the texture reference threshold is a determination threshold for selecting a reference amplitude value from the amplitude values of a plurality of texture images calculated in time series by the texture correction amount calculation unit 340. The correction amount is calculated based on the amplitude gain amount that makes the amplitude value of the texture image extracted at the present time the same as the reference amplitude value. However, when the amplitude gain amount becomes larger than a predetermined threshold value, the correction amount is corrected to 0 because there is no significant information in the extracted texture image and the image is out of focus. Here, as shown in FIG. 18, the correction amount may be provided with two threshold values Th1 and Th2 with respect to the amplitude gain amount, and may be continuously changed so as to gradually reduce the correction amount between the two threshold values. Details of the texture correction amount calculation unit 340 will be described later.

テクスチャ補正部360は入力されるテクスチャ画像と前記補正量とを乗算し、補正テクスチャ画像を生成して合成部370へ出力する。   The texture correction unit 360 multiplies the input texture image and the correction amount to generate a corrected texture image and outputs it to the synthesis unit 370.

合成部370には画像構成処理部310から出力される時系列表示画像とテクスチャ補正部360から出力される前記時系列表示画像に対応する補正テクスチャ画像とが入力され、制御部302の観察モード信号が拡大観察モード時である場合に前記2つの画像が加算されて、ボケ補正画像を生成する。   The synthesizing unit 370 receives the time-series display image output from the image configuration processing unit 310 and the corrected texture image corresponding to the time-series display image output from the texture correction unit 360, and the observation mode signal of the control unit 302 is input. Is in the magnified observation mode, the two images are added to generate a blur-corrected image.

ボケ補正画像は表示部400に出力され、ボケ補正された画像が表示される。また観察モードが通常観察モード時は、時系列表示画像が補正テクスチャ画像と加算されずにそのまま表示部400へ出力される。   The blur correction image is output to the display unit 400, and the blur corrected image is displayed. When the observation mode is the normal observation mode, the time-series display image is output to the display unit 400 as it is without being added to the corrected texture image.

2.2 ボケ量情報抽出部の詳細な構成
続いてボケ量情報抽出部の詳細について説明する。本実施形態においては、ボケ量情報抽出部は、図2のテクスチャ抽出部320に相当する。
2.2 Detailed configuration of the blur amount information extracting unit Next, details of the blur amount information extracting unit will be described. In the present embodiment, the blur amount information extraction unit corresponds to the texture extraction unit 320 in FIG.

テクスチャ抽出部320の詳細について図3のブロック図に基づいて説明する。テクスチャ抽出部320は領域抽出部321、フィルタ係数算出部322、フィルタ処理部323、ノイズ量推定部324、減算処理部325、領域抽出部326、フィルタ係数算出部327、フィルタ処理部328、フィルタパラメータ制御部329から構成されている。   Details of the texture extraction unit 320 will be described with reference to the block diagram of FIG. The texture extraction unit 320 includes a region extraction unit 321, a filter coefficient calculation unit 322, a filter processing unit 323, a noise amount estimation unit 324, a subtraction processing unit 325, a region extraction unit 326, a filter coefficient calculation unit 327, a filter processing unit 328, a filter parameter. The control unit 329 is configured.

続いて各構成部間のデータの流れを説明する。制御部302から出力された観察モード信号と倍率情報がフィルタパラメータ制御部329へ入力され、フィルタ係数生成用パラメータに変換される。変換されたフィルタ係数生成用パラメータはフィルタ係数算出部322とノイズ量推定部324へ出力される。   Next, the data flow between the components will be described. The observation mode signal and magnification information output from the control unit 302 are input to the filter parameter control unit 329 and converted into filter coefficient generation parameters. The converted filter coefficient generation parameter is output to the filter coefficient calculation unit 322 and the noise amount estimation unit 324.

画像構成処理部310から出力された時系列表示画像は領域抽出部321へ入力され、注目画素とその周辺p×q画素領域(pとqは任意の正整数)が抽出されて、フィルタ係数算出部322とフィルタ処理部323へ出力される。ここで撮像された時系列表示画像の時刻がt、2次元座標が(x,y)からなる3次元座標での画素値をP(x,y,t)とし、またフィルタ処理を行う注目画素は、その3次元座標を(x0,y0,t)とする。また時系列表示画像はカラー画像であるので、画素値P(x,y,t)はR、G、Bの3チャンネルで構成される3次元ベクトルとなる。   The time-series display image output from the image configuration processing unit 310 is input to the region extraction unit 321, the target pixel and its surrounding p × q pixel region (p and q are arbitrary positive integers) are extracted, and the filter coefficient is calculated. Output to the unit 322 and the filter processing unit 323. The time of the time-series display image captured here is t, and the pixel value at the three-dimensional coordinate including the two-dimensional coordinate (x, y) is P (x, y, t), and the target pixel to be filtered Let (x0, y0, t) be the three-dimensional coordinate. Since the time-series display image is a color image, the pixel value P (x, y, t) is a three-dimensional vector composed of three channels of R, G, and B.

フィルタ係数算出部322はフィルタパラメータ制御部329から出力されるフィルタ係数生成用パラメータに基づきフィルタ係数を算出する。ここで入力されるフィルタ係数生成用パラメータは前記p×q画素領域の注目画素と周辺画素の画素値の差の絶対値をフィルタ係数に変換制御する為の量である。例えば、式(1)に示す2つのガウス関数の積で構成されるバイラテラルフィルタを用いた場合、注目画素とその周辺画素の画素値の差の絶対値に対する指標値σ1sがフィルタ係数生成用パラメータとなる。   The filter coefficient calculation unit 322 calculates a filter coefficient based on the filter coefficient generation parameter output from the filter parameter control unit 329. The filter coefficient generation parameter input here is an amount for converting and controlling the absolute value of the difference between the pixel values of the pixel of interest and the surrounding pixels in the p × q pixel region into a filter coefficient. For example, when a bilateral filter configured by the product of two Gaussian functions shown in Expression (1) is used, the index value σ1s with respect to the absolute value of the difference between the pixel values of the target pixel and its surrounding pixels is the filter coefficient generation parameter. It becomes.

ここでフィルタ係数F1(x,y,t)は下式(1)で表され、Σxyはp×q画素領域内の総和を、Pf(x0,y0,t)はフィルタ処理後の画素値を示す。

Figure 2012135345
Here, the filter coefficient F1 (x, y, t) is expressed by the following equation (1), Σxy is the sum in the p × q pixel region, and Pf (x0, y0, t) is the pixel value after filtering. Show.
Figure 2012135345

フィルタ処理部323は領域抽出部321から出力されたp×q画素領域の画素値P(x,y,t)とフィルタ係数算出部322から出力されるフィルタ係数F1(x,y,t)によりフィルタ処理を行い、フィルタ処理後の画素値Pf(x0,y0,t)を下式(2)で算出する。算出結果は減算処理部325とノイズ量推定部324へ出力される。

Figure 2012135345
The filter processing unit 323 uses the pixel value P (x, y, t) of the p × q pixel region output from the region extraction unit 321 and the filter coefficient F1 (x, y, t) output from the filter coefficient calculation unit 322. Filter processing is performed, and the pixel value Pf (x0, y0, t) after the filter processing is calculated by the following equation (2). The calculation result is output to the subtraction processing unit 325 and the noise amount estimation unit 324.
Figure 2012135345

減算処理部325には画像構成処理部310から出力される時系列表示画像の画素値P(x0,y0,t)とフィルタ処理部323から出力されるフィルタ処理後の画素値Pf(x0,y0,t)が入力され、P(x0,y0,t)からPf(x0,y0,t)を減算した差分値D(x0,y0,t)を算出し、算出した差分値D(x0,y0,t)で構成される差分画像を一時保存する。保存された差分画像は領域抽出部326に出力される。   The subtraction processing unit 325 includes the pixel value P (x0, y0, t) of the time-series display image output from the image configuration processing unit 310 and the pixel value Pf (x0, y0) after the filter processing output from the filter processing unit 323. , t) is input, a difference value D (x0, y0, t) obtained by subtracting Pf (x0, y0, t) from P (x0, y0, t) is calculated, and the calculated difference value D (x0, y0) is calculated. , t) is temporarily stored. The stored difference image is output to the region extraction unit 326.

ノイズ量推定部324はフィルタパラメータ制御部329からフィルタ係数生成用パラメータとして出力されるノイズ量推定モデル(画素値をノイズ量に変換する関数)と、フィルタ処理部323からのフィルタ処理後の画素値Pf(x0,y0,t)が入力され、Pf(x0,y0,t)に対応するノイズ量N(x0,y0,t)を推定する。推定ノイズ量N(x0,y0,t)はフィルタ係数算出部327へ出力される。   The noise amount estimation unit 324 includes a noise amount estimation model (a function for converting a pixel value into a noise amount) output as a filter coefficient generation parameter from the filter parameter control unit 329, and a pixel value after filter processing from the filter processing unit 323. Pf (x0, y0, t) is input, and a noise amount N (x0, y0, t) corresponding to Pf (x0, y0, t) is estimated. The estimated noise amount N (x0, y0, t) is output to the filter coefficient calculation unit 327.

ここでノイズ量推定モデルは所定領域内で均一な明るさとなる複数の反射率を持つグレーチャートを撮影し、画像構成処理部310から出力される時系列表示画像のグレーチャート内の前記所定領域の画素値P(x,y,t)の平均値と標準偏差σを各々算出して求めたものである。これら複数の平均値と標準偏差から、定義域として取り得る各画素値とノイズ量(例えば標準偏差をノイズ量とする)のより詳細な対応関係は多項式近似曲線でフィッティングした関数で求め、実装時は例えばその関数を折れ線近似やルックアップテーブル化したものを使用する。   Here, the noise amount estimation model captures a gray chart having a plurality of reflectances having uniform brightness in a predetermined area, and the predetermined area in the gray chart of the time-series display image output from the image configuration processing unit 310 is captured. The average value and the standard deviation σ of the pixel value P (x, y, t) are calculated and obtained. From these multiple average values and standard deviations, a more detailed correspondence between each pixel value that can be taken as the definition area and the noise amount (for example, the standard deviation is the noise amount) is obtained by a function fitted with a polynomial approximation curve. For example, a function obtained by converting the function into a polygonal line approximation or a look-up table is used.

領域抽出部326は減算処理部325から出力される差分画像に対して注目画素の周辺v×w画素領域(vとwは任意の正整数)を抽出し、フィルタ係数算出部327、及びフィルタ処理部328へ出力する。   The region extraction unit 326 extracts a v × w pixel region (v and w are arbitrary positive integers) around the target pixel from the difference image output from the subtraction processing unit 325, a filter coefficient calculation unit 327, and filter processing To the unit 328.

フィルタ係数算出部327はノイズ量推定部324から出力されるノイズ量N(x0,y0,t)に基づいて前記v×w画素領域の注目差分画素値D(x0,y0,t)と周辺差分画素値D(x,y,t)の差の絶対値に基づきフィルタ係数を算出する。ここでノイズ量N(x0,y0,t)はフィルタ係数への変換制御量となる。式(3)に示すバイラテラルフィルタを用いると、注目差分画素値とその周辺差分画素値の差の絶対値に対する指標値σ2sを下式(3)に示すようにノイズ量N(x0,y0,t)に対応させる。

Figure 2012135345
Based on the noise amount N (x0, y0, t) output from the noise amount estimation unit 324, the filter coefficient calculation unit 327 and the difference pixel value D (x0, y0, t) of the v × w pixel region and the peripheral difference A filter coefficient is calculated based on the absolute value of the difference between the pixel values D (x, y, t). Here, the noise amount N (x0, y0, t) is a conversion control amount to the filter coefficient. When the bilateral filter shown in Expression (3) is used, the index value σ2s with respect to the absolute value of the difference between the target difference pixel value and the peripheral difference pixel value is expressed as a noise amount N (x0, y0, t).
Figure 2012135345

フィルタ処理部328は領域抽出部321から出力されたv×w画素領域の差分画素値D(x,y,t)とフィルタ係数算出部327から出力されるフィルタ係数F2(x,y,t)によりフィルタ処理を行い、フィルタ処理後の差分画素値Df(x0,y0,t)を下式(4)で算出する。算出結果はテクスチャ補正量算出部340へ出力される。

Figure 2012135345
The filter processing unit 328 outputs the difference pixel value D (x, y, t) of the v × w pixel region output from the region extraction unit 321 and the filter coefficient F 2 (x, y, t) output from the filter coefficient calculation unit 327. The filter process is performed by the above, and the difference pixel value Df (x0, y0, t) after the filter process is calculated by the following expression (4). The calculation result is output to the texture correction amount calculation unit 340.
Figure 2012135345

上記2つのバイラテラルフィルタF1(x,y,t)とF2(x,y,t)の特性とテクスチャ抽出についての考え方を図4(A)〜図4(C)に基づいて説明する。   The characteristics of the two bilateral filters F1 (x, y, t) and F2 (x, y, t) and the concept of texture extraction will be described with reference to FIGS. 4 (A) to 4 (C).

まずフィルタF1(x,y,t)のフィルタ係数を制御する指標値σ1sは、フィルタF2(x,y,t)の指標値σ2sに対して十分大きい値に設定する。   First, the index value σ1s for controlling the filter coefficient of the filter F1 (x, y, t) is set to a value sufficiently larger than the index value σ2s of the filter F2 (x, y, t).

フィルタ係数の大きさを主に決定する第2項の画素値差|P(x,y,t)-P(x0,y0,t)|、或いは差分画素値差|D(x,y,t)-D(x0,y0,t)|の大きさが指標値σ1sに対して同等レベル以下で且つ指標値σ2sより大きな画素値差の領域ではフィルタF1(x,y,t)の周波数特性は図4(B)の804に示すようにローパス特性が強い。また、フィルタF2(x,y,t)の周波数特性は図4(B)の803に示すようにローパス特性が弱くなる。この結果、2つのフィルタ特性には大きな違いが発生する。   Pixel value difference | P (x, y, t) −P (x0, y0, t) | in the second term that mainly determines the size of the filter coefficient, or difference pixel value difference | D (x, y, t ) -D (x0, y0, t) | is equal to or lower than the index value σ1s and the pixel value difference is larger than the index value σ2s, the frequency characteristic of the filter F1 (x, y, t) is As indicated by reference numeral 804 in FIG. 4B, the low-pass characteristic is strong. Further, the frequency characteristic of the filter F2 (x, y, t) is weak in the low-pass characteristic as indicated by 803 in FIG. 4B. As a result, a great difference occurs between the two filter characteristics.

一方、上記画素値差よりも大きな画素値差が発生する領域ではフィルタF1(x,y,t)の周波数特性は図4(A)の802に示すようにローパス特性が弱く、フィルタF2(x,y,t)の周波数特性は図4(A)の801に示すように更にローパス特性が弱くなるが、その差は小さい。   On the other hand, in a region where a pixel value difference larger than the above pixel value difference occurs, the frequency characteristic of the filter F1 (x, y, t) is weak as shown by 802 in FIG. 4A, and the filter F2 (x , y, t), the frequency characteristic becomes even weaker as indicated by 801 in FIG. 4A, but the difference is small.

更に、画素値差が指標値σ2sよりも小さな領域ではフィルタF1(x,y,t)の周波数特性は図4(C)の806に示すようにローパス特性が強い。また、フィルタF2(x,y,t)の周波数特性も図4(C)の805に示すようにローパス特性が強くなり、この場合も2つのフィルタ特性のその差は小さい。   Furthermore, in the region where the pixel value difference is smaller than the index value σ2s, the frequency characteristics of the filter F1 (x, y, t) are strong as shown by 806 in FIG. Further, the frequency characteristic of the filter F2 (x, y, t) is also strong in the low-pass characteristic as indicated by reference numeral 805 in FIG. 4C. In this case as well, the difference between the two filter characteristics is small.

このように2つのバイラテラルフィルタの画素値差(振幅値)の大きさに伴う周波数特性の違いを利用し、所定の小さな画素値差を持つ領域のテクスチャを抽出する。   In this way, the texture of the region having a predetermined small pixel value difference is extracted by using the difference in frequency characteristics accompanying the magnitude of the pixel value difference (amplitude value) of the two bilateral filters.

つまり画素値差が小さなテクスチャ領域では減算処理部325から出力される差分画像の周波数帯域は周波数特性804以外のハイパス特性となる。このハイパス特性の信号はフィルタ処理部328で、周波数特性803のようにより高周波のみをカットすることになるので、フィルタ処理部328から出力される信号は周波数特性803と周波数特性804に挟まれた広帯域バンドパス特性の周波数特性を持つ事になる。この特性を、観察対象となる粘膜構造や血管走行パターンが持つ周波数帯域に合わせる事で狙ったテクスチャの抽出が可能となる。   That is, in the texture region where the pixel value difference is small, the frequency band of the difference image output from the subtraction processing unit 325 has a high-pass characteristic other than the frequency characteristic 804. The high-pass characteristic signal is cut by the filter processing unit 328, and only the high frequency is cut as in the frequency characteristic 803. Therefore, the signal output from the filter processing unit 328 is a wide band sandwiched between the frequency characteristic 803 and the frequency characteristic 804. It has a frequency characteristic of a band pass characteristic. By matching this characteristic to the frequency band of the mucosal structure to be observed and the blood vessel running pattern, it is possible to extract the target texture.

一方、画素値差が大きな正反射領域やヒダ等の大きな構造境界では、減算処理部325から出力される信号の帯域は周波数特性802以外のハイパス特性となる。このハイパス特性の信号はフィルタ処理部328で周波数特性801により同等の高周波をカットする事になるので、フィルタ処理部328から出力される信号はほとんど通過する帯域が無く正反射領域やヒダ等の大きなエッジ構造をカットすることができる。   On the other hand, the band of the signal output from the subtraction processing unit 325 has a high-pass characteristic other than the frequency characteristic 802 at a specular reflection region having a large pixel value difference or a large structural boundary such as a fold. Since the high-pass characteristic signal is cut by the filter processing unit 328 by the frequency characteristic 801, the signal output from the filter processing unit 328 has almost no band to pass through and has a large specular reflection area or folds. The edge structure can be cut.

更に、画素値変化が非常に小さな領域にあるノイズ成分(ここで、ノイズ量に伴う変化は、上記テクスチャ領域の画素値変化よりも十分小さいものとする)については、図4(C)に示すように2つのフィルタ特性に差が出ないので、フィルタ処理部328から出力される信号はほとんど通過する帯域が無く、ノイズ成分をカットすることができる。   Further, FIG. 4C shows a noise component in a region where the pixel value change is very small (here, the change accompanying the amount of noise is sufficiently smaller than the pixel value change in the texture region). Thus, since there is no difference between the two filter characteristics, the signal output from the filter processing unit 328 has almost no band to pass, and the noise component can be cut.

結果として画素値差が小さなテクスチャ画像のみがテクスチャ抽出部320から出力される事になる。抽出するテクスチャ画像の周波数特性と振幅特性は2つの指標値σ1sとσ2sを用いて制御する事ができる。   As a result, only the texture image with a small pixel value difference is output from the texture extraction unit 320. The frequency characteristic and amplitude characteristic of the texture image to be extracted can be controlled using the two index values σ1s and σ2s.

特に外部I/F部500のズームレバーを操作し時系列表示画像の倍率を連続的(或いは段階的)に変化させるのと連動して、その倍率情報が制御部302を経由してフィルタパラメータ制御部329に入力される事でフィルタパラメータ制御部329は上記2つの指標値σ1sとσ2sを制御し、それぞれの倍率に応じた生体構造をより的確にテクスチャ画像として抽出する事ができる。   Particularly, the zoom information of the time series display image is changed continuously (or stepwise) by operating the zoom lever of the external I / F unit 500, and the magnification information is controlled by the filter parameter via the control unit 302. By being input to the unit 329, the filter parameter control unit 329 can control the two index values σ1s and σ2s, and more accurately extract the anatomy according to each magnification as a texture image.

例えば、図19(A)に示すように倍率が小の状態ではσ1sとσ2sをそれぞれ大きな値(但しσ1s>σ2s)を指定して、対応するフィルタF1とF2の周波数特性をそれぞれ1502、1501として低周波帯域1507を抽出するテクスチャ画像とする。また、図19(B)に示すように倍率が中程度の状態ではσ1sとσ2sを倍率が小さい状態よりもそれぞれ小さくし(但しσ1s>σ2s)、対応するフィルタF1とF2の周波数特性をそれぞれ1504、1503として中周波帯域1508を抽出したテクスチャ画像とする。さらに、図19(C)に示すように倍率が大の状態ではσ1sとσ2sを倍率が中程度の状態よりもそれぞれ更に小さくし(但しσ1s>σ2s)、対応するフィルタF1とF2の周波数特性をそれぞれ1506、1505として高周波帯域1509を抽出したテクスチャ画像とする。   For example, as shown in FIG. 19A, when the magnification is small, σ1s and σ2s are designated as large values (where σ1s> σ2s), and the frequency characteristics of the corresponding filters F1 and F2 are 1502 and 1501, respectively. A texture image from which the low frequency band 1507 is extracted is used. As shown in FIG. 19B, σ1s and σ2s are made smaller in the state where the magnification is medium than in the case where the magnification is small (where σ1s> σ2s), and the frequency characteristics of the corresponding filters F1 and F2 are 1504 respectively. , 1503 are texture images obtained by extracting the medium frequency band 1508. Further, as shown in FIG. 19C, when the magnification is large, σ1s and σ2s are made smaller than the medium magnification (where σ1s> σ2s), and the frequency characteristics of the corresponding filters F1 and F2 are obtained. The texture images are extracted from the high frequency band 1509 as 1506 and 1505, respectively.

上記したように倍率により抽出するテクスチャ画像の周波数帯域を変更する理由は、低倍率では微妙な色変化を呈する発赤や退色調の大きな面積領域が重要であり、中倍率では腺管や血管走行パターンの構造が、そして高倍率ではより細かなピットパターンや粘膜表層の微細血管の構造が診断上重要となる為である。   The reason for changing the frequency band of the texture image to be extracted according to the magnification as described above is that the area of reddening and fading that shows subtle color changes is important at low magnification, and the gland duct and blood vessel running pattern at medium magnification This is because a fine pit pattern and a fine blood vessel structure on the surface of the mucous membrane are important for diagnosis at a high magnification.

2.3 ボケ量補正部の詳細な構成
続いてボケ量補正部について説明する。本実施形態においては、ボケ量補正部は、テクスチャ補正量算出部340、テクスチャ補正部360及び合成部370に相当する。
2.3 Detailed Configuration of Blur Amount Correction Unit Next, the blur amount correction unit will be described. In the present embodiment, the blur amount correction unit corresponds to the texture correction amount calculation unit 340, the texture correction unit 360, and the synthesis unit 370.

テクスチャ補正量算出部340について図5のブロック図に基づき説明する。テクスチャ補正量算出部340は振幅算出部341、基準振幅更新判定部342、基準振幅記憶部343、補正量算出部344、補正量制御部345から構成される。   The texture correction amount calculation unit 340 will be described based on the block diagram of FIG. The texture correction amount calculation unit 340 includes an amplitude calculation unit 341, a reference amplitude update determination unit 342, a reference amplitude storage unit 343, a correction amount calculation unit 344, and a correction amount control unit 345.

続いて各構成部間のデータの流れを説明する。補正量制御部345は制御部302から出力される観察モード信号とテクスチャ基準閾値と補正量上限値、更に基準振幅記憶部343から現時点の基準振幅値が入力され、観察モード信号とテクスチャ基準閾値と基準振幅値に基づき基準振幅判定閾値を設定して基準振幅更新判定部342へ、更に補正量上限値が補正量算出部344へ出力される。   Next, the data flow between the components will be described. The correction amount control unit 345 receives the observation mode signal output from the control unit 302, the texture reference threshold value, the correction amount upper limit value, and the current reference amplitude value from the reference amplitude storage unit 343, and the observation mode signal, the texture reference threshold value, A reference amplitude determination threshold is set based on the reference amplitude value, and the correction amount upper limit value is output to the reference amplitude update determination unit 342 and further to the correction amount calculation unit 344.

ここでテクスチャ基準閾値は撮像された時系列表示画像がボケている状態にあるかどうかを判定する基準値であり、撮像性能の違いにより変化するのでスコープの種類により異なる値が設定されている。この設定値は撮像部200が保有する不図示のROMに前記基準値が記録されており、撮像部200がプロセッサ部300と接続された時点でプロセッサ部300の制御部302に前記基準値が取り込まれる。テクスチャ画像の振幅値がテクスチャ基準閾値よりも小さい場合には、ボケの程度が強く、ボケ回復処理が行えないと判断することになる。   Here, the texture reference threshold is a reference value for determining whether or not the captured time-series display image is in a blurred state, and varies depending on the difference in imaging performance, so that a different value is set depending on the type of scope. The reference value is recorded in a ROM (not shown) held by the imaging unit 200 as the set value, and the reference value is taken into the control unit 302 of the processor unit 300 when the imaging unit 200 is connected to the processor unit 300. It is. When the amplitude value of the texture image is smaller than the texture reference threshold, it is determined that the degree of blur is strong and blur recovery processing cannot be performed.

また、基準振幅値とは、補正の目標となる値のことである。基本的には、テクスチャ画像の振幅値を基準振幅値と同じ大きさにする補正処理を行うことで、ボケを補正することになる。ただし、例外的な処理もあるため、詳細は後述する。   The reference amplitude value is a value that is a correction target. Basically, the blur is corrected by performing a correction process for making the amplitude value of the texture image the same as the reference amplitude value. However, since there is exceptional processing, details will be described later.

また、基準振幅値判定閾値は上述の基準振幅値を選定する為の閾値で、観察モード信号が拡大観察モードに変化した時点ではテクスチャ基準閾値の値に設定し、それ以外は例えばテクスチャ基準閾値と基準振幅値の平均値を設定する。テクスチャ画像の振幅値が基準振幅値判定閾値を超えていることが、基準振幅値の更新の条件の1つになっている。   The reference amplitude value determination threshold is a threshold for selecting the above-described reference amplitude value. When the observation mode signal changes to the magnification observation mode, the reference amplitude value determination threshold is set to the texture reference threshold value. Sets the average value of the reference amplitude value. One of the conditions for updating the reference amplitude value is that the amplitude value of the texture image exceeds the reference amplitude value determination threshold.

振幅算出部341はテクスチャ抽出部320から出力される時刻tで抽出されたテクスチャ画像に対する振幅値MA(t)を算出する。ここで振幅値はテクスチャ画像を構成するテクスチャ画像の画素値の絶対値に対する最大値で定義しても良いし、テクスチャ画像の画素値の最大値と最小値の差で定義しても良い。算出された振幅値MA(t)は基準振幅更新判定部342へ出力される。   The amplitude calculation unit 341 calculates an amplitude value MA (t) for the texture image extracted at time t output from the texture extraction unit 320. Here, the amplitude value may be defined by the maximum value with respect to the absolute value of the pixel value of the texture image constituting the texture image, or may be defined by the difference between the maximum value and the minimum value of the pixel value of the texture image. The calculated amplitude value MA (t) is output to the reference amplitude update determination unit 342.

基準振幅更新判定部342は振幅算出部341から出力される振幅値MA(t)と補正量制御部345から出力される基準振幅判定閾値が入力され、基準振幅更新判定部342に格納済みの2つ前までの振幅値MA(t-1)、MA(t-2)に基づき、振幅値MA(t)が新しい基準振幅値となるかどうかを判定する。   The reference amplitude update determination unit 342 receives the amplitude value MA (t) output from the amplitude calculation unit 341 and the reference amplitude determination threshold output from the correction amount control unit 345, and is stored in the reference amplitude update determination unit 342. Based on the previous amplitude values MA (t-1) and MA (t-2), it is determined whether or not the amplitude value MA (t) becomes a new reference amplitude value.

より詳しくは図6の模式図を使って説明する。まず拡大観察モードに切り替わった直後は、補正量制御部345はテクスチャ基準閾値を基準振幅判定閾値として基準振幅更新判定部342へ出力する。そのため、動きが大きくブレボケが発生している場合や観察対象に近づきすぎてピンボケになっている場合等の例外を除いて、観察モードへの切り替え時のテクスチャ画像の振幅値が基準振幅値として選定され基準振幅記憶部343に出力される。   This will be described in more detail with reference to the schematic diagram of FIG. First, immediately after switching to the magnification observation mode, the correction amount control unit 345 outputs the texture reference threshold as the reference amplitude determination threshold to the reference amplitude update determination unit 342. Therefore, the texture image amplitude value at the time of switching to the observation mode is selected as the reference amplitude value except for exceptions such as large movements and blurring, or too close to the observation target and out of focus. And output to the reference amplitude storage unit 343.

それ以降の拡大観察モードが維持されている状態では、基準振幅判定閾値が前記したように例えばテクスチャ基準閾値と基準振幅値の平均値となるので、基準振幅値を更新する基準振幅判定閾値はより大きな値が設定される。そのため、頻繁に基準振幅値が更新されるのが抑制される。このような制御を行う理由は、基準振幅値が頻繁に変動するのを抑える事で、それに連動して変化する合成部370から出力されるボケ補正画像の時間的な解像感変動を抑制することにある。これにより見かけ上、合焦状態を維持できることになる。   In the state in which the subsequent magnified observation mode is maintained, the reference amplitude determination threshold is, for example, the average value of the texture reference threshold and the reference amplitude value as described above. Therefore, the reference amplitude determination threshold for updating the reference amplitude value is more A large value is set. Therefore, frequent updating of the reference amplitude value is suppressed. The reason for performing such control is to suppress frequent fluctuations in the reference amplitude value, thereby suppressing temporal fluctuations in resolution of the blur-corrected image output from the synthesizing unit 370 that changes in conjunction with the reference amplitude value. There is. As a result, the in-focus state can be maintained apparently.

一方、ユーザーは拡大観察時にスコープ先端を観察対象に近づけつつ、ズームレバーを動かして所望の倍率と合焦状態を維持するように内視鏡を操作するが、倍率を上げる程、被写界深度が狭くなるので合焦状態を維持できずに図6の時間と振幅値のグラフのように合焦状態とそうでない状態を繰り返す事となる。   On the other hand, the user moves the zoom lever while maintaining the tip of the scope close to the observation target during magnified observation, and operates the endoscope to maintain the desired magnification and in-focus state. Therefore, the focused state cannot be maintained, and the focused state and the non-focused state are repeated as in the time and amplitude value graph of FIG.

このような状態に対して基準振幅更新判定部342は前記した3つの振幅値MA(t)、MA(t-1)、MA(t-2)から期間t-2〜tの間で振幅値が極大値を持つかどうかを判断する。これは例えば3つの振幅値に対して2次式でフィッティングしてこの期間内に極大値が存在するかを判断する事で行う。極大値が存在する場合は2次式で算出された極大値が基準振幅値の候補となり、次に基準振幅判定閾値と比較を行う。極大値が基準振幅判定閾値よりも大きい場合には基準振幅値として基準振幅記憶部343へ出力する。一方、極大値が基準振幅判定閾値以下である場合は、基準振幅値とは見なされず、基準振幅記憶部343へ出力されない。一方、極小値が検出された場合は基準振幅判定閾値との比較を行わず、基準振幅値の変更は行なわれない。   In such a state, the reference amplitude update determination unit 342 determines the amplitude value during the period t−2 to t from the three amplitude values MA (t), MA (t−1), and MA (t−2). Determine whether has a local maximum. This is performed by fitting, for example, three amplitude values with a quadratic expression to determine whether a maximum value exists within this period. When the local maximum value exists, the local maximum value calculated by the quadratic expression becomes a reference amplitude value candidate, and is then compared with the reference amplitude determination threshold value. When the maximum value is larger than the reference amplitude determination threshold value, it is output to the reference amplitude storage unit 343 as a reference amplitude value. On the other hand, when the maximum value is equal to or less than the reference amplitude determination threshold value, it is not regarded as the reference amplitude value and is not output to the reference amplitude storage unit 343. On the other hand, when the minimum value is detected, comparison with the reference amplitude determination threshold value is not performed, and the reference amplitude value is not changed.

このように基準振幅値を更新する理由は、観察倍率の違いにより観察対象の粘膜構造や血管が低倍率では解像できていないものが見えてくる場合や、観察位置自体を拡大状態で変更した場合等、テクスチャ画像の時間的な特性変化に対応する為のものである。   The reason for updating the reference amplitude value in this way is that the observation mucosal structure and blood vessels that cannot be resolved at low magnification appear due to the difference in observation magnification, or the observation position itself is changed in an enlarged state. This is to cope with changes in the temporal characteristics of the texture image.

基準振幅記憶部343は基準振幅更新判定部342から出力される基準振幅値が入力され、過去に記録した基準振幅値を最新の値に更新する。最新の基準振幅値は補正量制御部345と補正量算出部344に出力される。   The reference amplitude storage unit 343 receives the reference amplitude value output from the reference amplitude update determination unit 342, and updates the reference amplitude value recorded in the past to the latest value. The latest reference amplitude value is output to the correction amount control unit 345 and the correction amount calculation unit 344.

補正量算出部344では、振幅算出部341から出力される時刻tの振幅値MA(t)と基準振幅記憶部343から出力される基準振幅値RMAと補正量制御部345から出力される補正量上限値が入力され、振幅値MA(t)が基準振幅値RMAと同じ大きさとなる振幅ゲイン量、及び2つの閾値Th1、Th2とから補正量を算出する。算出した補正量はテクスチャ補正部360へ出力される。   In the correction amount calculation unit 344, the amplitude value MA (t) at time t output from the amplitude calculation unit 341, the reference amplitude value RMA output from the reference amplitude storage unit 343, and the correction amount output from the correction amount control unit 345 The upper limit value is input, and the correction amount is calculated from the amplitude gain amount at which the amplitude value MA (t) is the same as the reference amplitude value RMA and the two threshold values Th1 and Th2. The calculated correction amount is output to the texture correction unit 360.

補正量=振幅ゲイン量−1 ・・・・・(5)
但し、振幅ゲイン量≧1、且つ振幅ゲイン量<Th1
補正量=補正量上限値−α×振幅ゲイン量+β ・・・・・(6)
但し、振幅ゲイン量≧Th1、且つ振幅ゲイン量<Th2
補正量=0 ・・・・・(7)
但し、振幅ゲイン量<1、或いは振幅ゲイン量≧Th2
またTh1=補正量上限値+1、Th2=Th1+基準振幅値/テクスチャ基準閾値
α=振幅上限値/(Th2-Th1)
β=α×Th2−補正量上限値
振幅ゲイン量=RMA/MA(t)
Correction amount = Amplitude gain amount-1 (5)
However, amplitude gain amount ≧ 1 and amplitude gain amount <Th1
Correction amount = correction amount upper limit value−α × amplitude gain amount + β (6)
However, the amplitude gain amount ≧ Th1 and the amplitude gain amount <Th2.
Correction amount = 0 (7)
However, the amplitude gain amount <1 or the amplitude gain amount ≧ Th2.
Th1 = correction amount upper limit value + 1, Th2 = Th1 + reference amplitude value / texture reference threshold α = amplitude upper limit value / (Th2-Th1)
β = α × Th2−correction amount upper limit amplitude gain amount = RMA / MA (t)

ここでテクスチャ画像の振幅値と補正量の関係を図7(A)〜図7(C)の模式図で説明する。図7(A)と(B)に示すようにスコープ先端と観察対象が合焦位置からZ方向(ここでZ方向とはスコープ先端に設けられた光学系の光軸方向)に深度範囲を超えた±Δのブレを伴っている場合、テクスチャ画像の振幅値は合焦位置で最も大きな値をとる。つまり拡大観察時では±Δのブレがあるとピントが合っている画像とピントが甘い画像を連続して観察している事になり、光学系の解像度を十分に引き出した時系列表示画像を観察できていない事になる。   Here, the relationship between the amplitude value of the texture image and the correction amount will be described with reference to the schematic diagrams of FIGS. As shown in FIGS. 7A and 7B, the scope tip and the observation target exceed the depth range from the in-focus position in the Z direction (where the Z direction is the optical axis direction of the optical system provided at the scope tip). In addition, when there is ±± blurring, the amplitude value of the texture image takes the largest value at the in-focus position. In other words, during magnification observation, if there is a blur of ± Δ, an image that is in focus and an image that is in focus are continuously observed, and a time-series display image that fully draws out the resolution of the optical system is observed. It will not be done.

そこで図7(C)のようにテクスチャ画像の振幅を合焦位置での大きさに揃えるように、Z方向ブレに伴うテクスチャ画像の振幅値の低下を補正した補正テクスチャ画像がテクスチャ補正部360から出力される。合成部370で画像構成処理部310から出力される時系列表示画像に補正テクスチャ画像が加算されるので、合焦位置に無い場合でも完全にボケていなければ、生体表面の粘膜構造や血管などが描出されたテクスチャを保持した画像をユーザーに提供できる。   Therefore, as shown in FIG. 7C, a corrected texture image obtained by correcting a decrease in the amplitude value of the texture image due to the blur in the Z direction is obtained from the texture correction unit 360 so that the amplitude of the texture image is aligned with the size at the in-focus position. Is output. Since the corrected texture image is added to the time-series display image output from the image configuration processing unit 310 by the synthesis unit 370, mucosal structures, blood vessels, and the like on the surface of the living body are not completely blurred even when they are not in focus. An image holding the rendered texture can be provided to the user.

上記実施例では、テクスチャ抽出処理を最終表示画像に対して行うように記述したが、その必要はなく、この処理を画像構成処理部310内の強調処理に組み込む事も可能である。   In the above embodiment, the texture extraction process is described as being performed on the final display image. However, this is not necessary, and this process can be incorporated into the enhancement process in the image configuration processing unit 310.

上記実施例では、またテクスチャ抽出処理を2つのバイラテラルフィルタを用いて処理する例を示したがそれに限定されない。例えば特定周波数以上を抽出するハイパスフィルタや、バンドパスフィルタを用いて簡易的にテクスチャ画像を抽出しても良い。但し、この場合は照明光の被写体からの正反射に伴う輝点領域等、時間的に変動する急峻なエッジ部の除去処理(例えば単純なものとしては輝度レベルを画像平均値に基づき設定した閾値との判定処理とその判定領域の削除処理(例えばモルフォロジー処理等))により輝点領域をカットしてテクスチャ画像に対する補正量の影響を極力抑えると安定した制御ができる。   In the above-described embodiment, an example in which texture extraction processing is performed using two bilateral filters has been described, but the present invention is not limited to this. For example, a texture image may be simply extracted using a high-pass filter or a band-pass filter that extracts a specific frequency or more. However, in this case, processing for removing steep edge portions that change with time, such as a bright spot region due to regular reflection of illumination light from a subject (for example, a threshold value in which the luminance level is set based on the average value of the image as a simple one) Stable control can be achieved by cutting the bright spot region and suppressing the influence of the correction amount on the texture image as much as possible by the determination processing and the deletion processing of the determination region (for example, morphological processing).

以上のように第1実施の形態によれば、拡大観察時の浅い深度においてZ方向ブレによるボケの改善が行なわれ、病変部の精査をストレス無く短時間に行なうことができ、患者の負担も軽減することができる。   As described above, according to the first embodiment, blurring due to blurring in the Z direction is improved at a shallow depth during magnified observation, and a lesion can be examined in a short time without stress, and the burden on the patient is also increased. Can be reduced.

以上の本実施形態では、内視鏡装置は、拡大観察状態における撮像画像を時系列的に取得する画像取得部と、拡大観察状態における撮像画像からボケ量情報を抽出するボケ量情報抽出部と、抽出したボケ量情報に基づいて撮像画像を補正するボケ量補正部とを含む。   In the above-described embodiment, the endoscope apparatus includes an image acquisition unit that acquires captured images in time series in a magnified observation state, and a blur amount information extraction unit that extracts blur amount information from the captured images in the magnified observation state. A blur amount correction unit that corrects the captured image based on the extracted blur amount information.

ここで、画像取得部は、図2における画像構成処理部310に相当する。ボケ量情報抽出部は、図2におけるテクスチャ抽出部320に相当する。ボケ量補正部は、図2におけるテクスチャ補正量算出部340と、テクスチャ補正部360及び合成部370に相当する。   Here, the image acquisition unit corresponds to the image configuration processing unit 310 in FIG. The blur amount information extraction unit corresponds to the texture extraction unit 320 in FIG. The blur amount correction unit corresponds to the texture correction amount calculation unit 340, the texture correction unit 360, and the synthesis unit 370 in FIG.

また、拡大観察状態とは、通常観察状態に比べて光学系の拡大倍率が高倍率である観察状態のことであり、例えば、数十〜数百倍の倍率での観察状態のことである。本実施形態においては、光学系の拡大倍率が所定倍率以上の状態を拡大観察状態とする。   The magnified observation state is an observation state in which the magnification of the optical system is higher than that in the normal observation state, for example, an observation state at a magnification of several tens to several hundreds. In the present embodiment, a state where the magnification of the optical system is equal to or greater than a predetermined magnification is defined as a magnified observation state.

これにより、拡大観察が可能な内視鏡装置において、拡大観察時の撮像画像から、撮像画像がどの程度ぼけているかを表す情報であるボケ量情報を抽出し、抽出したボケ量情報に基づいて撮像画像を補正することが可能になる。上述したように、内視鏡装置の光学系の撮像倍率が高くなるほど、被写界深度は狭くなりピントのあった画像を取得することが難しくなる。しかし、内視鏡装置がユーザー(ドクター)による診断、処置のために用いられることに鑑みれば、常にピントのあった画像を取得することが望ましい。よって、本実施形態の手法により、ボケ回復処理を行うことは非常に有用である。また、どの程度撮像画像がぼけているかを表す情報であるボケ量情報に基づいて補正処理を行うため、過剰な補正処理(例えばノイズ成分も増強してしまう等)を行うことがなく、見た目に違和感のないボケ補正画像を取得することができる。   As a result, in an endoscope apparatus capable of magnifying observation, blur amount information that is information indicating how much the captured image is blurred is extracted from a captured image at the time of magnifying observation, and based on the extracted blur amount information The captured image can be corrected. As described above, the higher the imaging magnification of the optical system of the endoscope apparatus, the narrower the depth of field, and it becomes difficult to acquire a focused image. However, in view of the fact that the endoscope apparatus is used for diagnosis and treatment by a user (doctor), it is desirable to always obtain a focused image. Therefore, it is very useful to perform the blur recovery process by the method of this embodiment. In addition, since the correction process is performed based on the blur amount information that is information indicating how much the captured image is blurred, an excessive correction process (for example, a noise component is increased) is not performed, It is possible to acquire a blur-corrected image without a sense of incongruity.

また、ボケ量情報抽出部は、撮像画像から所定周波数帯域成分の画像である所定周波数帯域画像(テクスチャ画像)を抽出する所定周波数帯域画像抽出部を含む。   The blur amount information extraction unit includes a predetermined frequency band image extraction unit that extracts a predetermined frequency band image (texture image) that is an image of a predetermined frequency band component from the captured image.

ここで、所定周波数帯域画像抽出部は、図2におけるテクスチャ抽出部320に相当する。   Here, the predetermined frequency band image extracting unit corresponds to the texture extracting unit 320 in FIG.

これにより、ボケ量情報として、撮像画像の所定周波数帯域成分の画像を抽出することが可能になる。抽出の際の所定周波数を適切に設定することで、ボケの影響を強く受ける領域(例えば生体の粘膜表面や血管構造等の微小階調構造)を抽出し、かつ、ボケの影響をあまり受けない領域、もしくはノイズ成分に対応する領域を抽出しないといった処理ができる。そのため、補正処理を行いたい領域のみを適切に抽出することが可能になる。   This makes it possible to extract an image of a predetermined frequency band component of the captured image as the blur amount information. By appropriately setting the predetermined frequency at the time of extraction, a region that is strongly affected by blur (for example, a minute gradation structure such as the surface of a mucous membrane of a living body or a blood vessel structure) is extracted and is not significantly affected by blur. A process of not extracting a region or a region corresponding to a noise component can be performed. For this reason, it is possible to appropriately extract only a region where correction processing is desired.

また、周波数帯域画像抽出部は、撮像画像の振幅値を算出する撮像画像振幅算出部を含んでもよい。   Further, the frequency band image extraction unit may include a captured image amplitude calculation unit that calculates an amplitude value of the captured image.

ここで、撮像画像の振幅値とは、注目画素(振幅値を求めたい画素)の画素値と、注目画素の周辺の画素である周辺画素の画素値との差によって求められる。   Here, the amplitude value of the captured image is obtained by the difference between the pixel value of the pixel of interest (the pixel for which the amplitude value is to be obtained) and the pixel value of the peripheral pixel that is a pixel around the pixel of interest.

また、撮像画像振幅算出部は、図3における領域抽出部321及びフィルタ係数算出部322に対応する。また、図3における領域抽出部326及びフィルタ係数算出部327にも対応する。実際には、領域抽出部321もしくは領域抽出部326において、注目画素に対する周辺画素の領域を求める。そして、フィルタ係数算出部322もしくはフィルタ係数算出部327において、フィルタ係数の算出の際に、注目画素と周辺画素の画素値の差を求めている。具体的には上述した式(1)の|P(x,y,t)-P(x0,y0,t)|や、式(3)の|D(x,y,t)-D(x0,y0,t)|に相当する。   The captured image amplitude calculation unit corresponds to the region extraction unit 321 and the filter coefficient calculation unit 322 in FIG. Further, it also corresponds to the region extraction unit 326 and the filter coefficient calculation unit 327 in FIG. Actually, the region extraction unit 321 or the region extraction unit 326 obtains the region of the peripheral pixel with respect to the target pixel. Then, the filter coefficient calculation unit 322 or the filter coefficient calculation unit 327 obtains the difference between the pixel values of the target pixel and the surrounding pixels when calculating the filter coefficient. Specifically, | P (x, y, t) −P (x0, y0, t) | in the above formula (1) or | D (x, y, t) −D (x0) in the formula (3). , y0, t) |.

これにより、撮像画像の振幅値を求めることが可能になる。そのため、振幅値に応じた処理が可能になり、振幅値の大きいヒダ等の構造を除外し、振幅値の小さい粘膜や血管等の構造に対応する画像を抽出することができる。   Thereby, the amplitude value of the captured image can be obtained. Therefore, processing according to the amplitude value is possible, and a structure such as a fold having a large amplitude value is excluded, and an image corresponding to a structure such as a mucous membrane or blood vessel having a small amplitude value can be extracted.

また、所定周波数帯域画像抽出部は、撮像画像振幅算出部により算出された振幅値が、第1の振幅範囲にある場合には所定周波数帯域画像の抽出を行わず、撮像画像振幅算出部により算出された振幅値が、第2の振幅範囲にある場合には所定周波数帯域画像の抽出を行う。   The predetermined frequency band image extraction unit calculates the captured image amplitude calculation unit without extracting the predetermined frequency band image when the amplitude value calculated by the captured image amplitude calculation unit is in the first amplitude range. When the determined amplitude value is in the second amplitude range, a predetermined frequency band image is extracted.

ここで、第1の振幅範囲は例えば、図4(A)に対応し、第2の振幅範囲は、図4(B)に対応する。つまり、第1の振幅範囲における振幅値は、第2の振幅範囲における振幅値よりも大きい。具体的には、第1の振幅範囲にある画像は生体表面のヒダに対応する画像であり、第2の振幅範囲にある画像は粘膜表面及び血管に対応する画像である。   Here, for example, the first amplitude range corresponds to FIG. 4A, and the second amplitude range corresponds to FIG. 4B. That is, the amplitude value in the first amplitude range is larger than the amplitude value in the second amplitude range. Specifically, the image in the first amplitude range is an image corresponding to a fold on the living body surface, and the image in the second amplitude range is an image corresponding to the mucosal surface and blood vessels.

これにより、撮像画像の振幅値に応じた処理が可能になる。具体的には、振幅値が大きい第1の振幅範囲の画像は所定周波数帯域画像として抽出せず、振幅値が第1の振幅範囲より小さい第2の振幅範囲の画像は所定周波数帯域画像として抽出する。これにより、振幅値が大きいヒダ等の構造は抽出せず、振幅値の小さい粘膜や血管等の構造のみ抽出することができる。つまり、ボケの影響を強く受ける領域のみを抽出することができるため、効率的なボケ補正が可能になる。   Thereby, the process according to the amplitude value of a captured image is attained. Specifically, the first amplitude range image having a large amplitude value is not extracted as a predetermined frequency band image, and the second amplitude range image having an amplitude value smaller than the first amplitude range is extracted as a predetermined frequency band image. To do. Thereby, it is possible to extract only structures such as mucous membranes and blood vessels having a small amplitude value without extracting a structure such as a fold having a large amplitude value. That is, since only a region that is strongly affected by blur can be extracted, efficient blur correction can be performed.

また、所定周波数帯域画像抽出部は、撮像画像振幅算出部により算出された振幅値が、第3の振幅範囲にある場合には所定周波数帯域画像の抽出を行わない。   The predetermined frequency band image extraction unit does not extract the predetermined frequency band image when the amplitude value calculated by the captured image amplitude calculation unit is in the third amplitude range.

ここで、第3の振幅範囲は例えば、図4(C)に対応する。つまり、第3の振幅範囲における振幅値は、第2の振幅範囲における振幅値よりも小さい。具体的には、第3の振幅範囲にある画像はノイズに対応する画像である。   Here, the third amplitude range corresponds to, for example, FIG. That is, the amplitude value in the third amplitude range is smaller than the amplitude value in the second amplitude range. Specifically, the image in the third amplitude range is an image corresponding to noise.

これにより、撮像画像の振幅値に応じた処理が可能になる。具体的には、振幅値が第2の振幅範囲よりも小さい第3の振幅範囲の画像は所定周波数帯域画像として抽出しない。これにより、振幅値が粘膜や血管等よりも小さいノイズ成分に対応する画像は抽出しないようにできる。つまり、ノイズ成分まで増強することを抑止しつつ、ボケ回復処理を行うことが可能になる。   Thereby, the process according to the amplitude value of a captured image is attained. Specifically, an image in the third amplitude range whose amplitude value is smaller than the second amplitude range is not extracted as a predetermined frequency band image. As a result, an image corresponding to a noise component having an amplitude value smaller than that of a mucous membrane, blood vessel, or the like can be prevented from being extracted. That is, it is possible to perform the blur recovery process while suppressing the enhancement to the noise component.

また、所定周波数帯域画像は、振幅値が第2の振幅範囲にあり、かつ、周波数成分が第1の周波数範囲にある画像である。   The predetermined frequency band image is an image whose amplitude value is in the second amplitude range and whose frequency component is in the first frequency range.

ここで、第1の周波数範囲とは、図4(B)におけるC1の範囲に対応し、第2の周波数範囲とは、図4(B)におけるC2の範囲に対応する。つまり、第1の周波数範囲における周波数は、第2の周波数範囲における周波数よりも高い。   Here, the first frequency range corresponds to the range of C1 in FIG. 4B, and the second frequency range corresponds to the range of C2 in FIG. 4B. That is, the frequency in the first frequency range is higher than the frequency in the second frequency range.

これにより、振幅範囲だけでなく、周波数においても特定の範囲のみを抽出し所定周波数帯域画像とすることが可能になる。この際、抽出する第1の周波数範囲を重点的に観察したい領域(かつ、ボケ補正を適切にかけたい領域)にあわせることで、効果的なボケ補正処理を行うことができる。   As a result, it is possible to extract not only the amplitude range but also a specific range in frequency to obtain a predetermined frequency band image. At this time, effective blur correction processing can be performed by matching the first frequency range to be extracted with a region to be focused on (and a region where blur correction is to be appropriately applied).

また、所定周波数帯域画像抽出部は、内視鏡装置の光学系の倍率情報に基づいて、所定周波数帯域画像の抽出条件を制御する抽出条件制御部を含んでもよい。   The predetermined frequency band image extraction unit may include an extraction condition control unit that controls extraction conditions of the predetermined frequency band image based on magnification information of the optical system of the endoscope apparatus.

ここで、抽出条件制御部は、図3におけるフィルタパラメータ制御部329に相当する。   Here, the extraction condition control unit corresponds to the filter parameter control unit 329 in FIG.

これにより、光学系の倍率情報に基づいて、所定周波数帯域画像の抽出条件を制御することが可能になる。そのため、倍率に応じて観察対象となる生体構造が変化した場合にも、その変化にあわせて所定周波数帯域画像を適切に抽出することができる。   Accordingly, it is possible to control the extraction condition of the predetermined frequency band image based on the magnification information of the optical system. Therefore, even when the anatomy to be observed changes according to the magnification, it is possible to appropriately extract the predetermined frequency band image in accordance with the change.

また、図4(B)のC1、C2に示したように、第1の周波数範囲における周波数が、第2の周波数範囲における周波数に比べて高い周波数である場合に、第1の周波数範囲が第1の周波数閾値よりも大きく第2の周波数閾値よりも小さい周波数範囲であるとする。これは例えば、第1の周波数閾値が図4(B)のフィルタ804のカットオフ周波数に対応し、第2の周波数閾値がフィルタ803のカットオフ周波数に対応するケース等が考えられる(もちろん周波数閾値はフィルタのカットオフ周波数に限定されるものではない)。さらに、所定周波数帯域画像は周波数成分が第1の周波数範囲にある場合を考える。このとき、所定周波数帯域画像抽出部は、内視鏡装置の光学系の倍率情報により表される倍率が大きくなるほど、第1の周波数閾値と第2の周波数閾値を大きくしてもよい。   In addition, as shown in C1 and C2 of FIG. 4B, when the frequency in the first frequency range is higher than the frequency in the second frequency range, the first frequency range is the first frequency range. It is assumed that the frequency range is larger than the first frequency threshold and smaller than the second frequency threshold. For example, a case in which the first frequency threshold corresponds to the cutoff frequency of the filter 804 in FIG. 4B and the second frequency threshold corresponds to the cutoff frequency of the filter 803 can be considered (of course, the frequency threshold). Is not limited to the filter cutoff frequency). Further, consider a case where the predetermined frequency band image has a frequency component in the first frequency range. At this time, the predetermined frequency band image extraction unit may increase the first frequency threshold and the second frequency threshold as the magnification represented by the magnification information of the optical system of the endoscope apparatus increases.

これにより、図19(A)〜図19(C)のような処理が可能になる。図19(A)〜図19(C)に示したように、光学系の倍率が高くなるほど、抽出する周波数範囲である第1の周波数範囲を周波数の高い方向にシフトさせることができる。これにより、倍率に応じて、重要な観察対象に対応する周波数範囲を適切に抽出することが可能になる。具体的には、低倍率では微妙な色変化を呈する発赤や退色調の大きな面積領域が重要であり、中倍率では腺管や血管走行パターンの構造が、そして高倍率ではより細かなピットパターンや粘膜表層の微細血管の構造が重要となる。   Thereby, the processing as shown in FIGS. 19A to 19C is possible. As shown in FIGS. 19A to 19C, the higher the magnification of the optical system is, the more the first frequency range that is the frequency range to be extracted can be shifted in the higher frequency direction. Accordingly, it is possible to appropriately extract a frequency range corresponding to an important observation target according to the magnification. Specifically, the area of redness and fading that shows subtle color changes is important at low magnification, the structure of the gland duct and blood vessel running pattern at medium magnification, and finer pit patterns and The structure of microvessels on the surface of the mucosa is important.

また、所定周波数帯域画像抽出部は、図3に示したように、第1のフィルタ処理部と、減算処理部325と、ノイズ量推定部324と、第2のフィルタ処理部とを含む。そして、第1のフィルタ処理部は第1のフィルタ処理を行い、減算処理部325は第1のフィルタ処理によって得られた画像と撮像画像との差分をとることで構造画像を生成する。ノイズ量推定部は構造画像に含まれているノイズ量を抽出条件に基づいて推定し、第2のフィルタ処理部は、構造画像からノイズを分離し所定周波数帯域画像を取得する。   Moreover, the predetermined frequency band image extraction unit includes a first filter processing unit, a subtraction processing unit 325, a noise amount estimation unit 324, and a second filter processing unit, as shown in FIG. Then, the first filter processing unit performs the first filter processing, and the subtraction processing unit 325 generates a structure image by taking the difference between the image obtained by the first filter processing and the captured image. The noise amount estimation unit estimates the amount of noise included in the structure image based on the extraction condition, and the second filter processing unit separates noise from the structure image and acquires a predetermined frequency band image.

ここで、構造画像とは、撮像画像から所定周波数帯域画像(テクスチャ画像)を抽出する際に、中間的に生成される画像のことである。具体的には、図3において、画像構成部310から出力され、第1のフィルタ処理部(領域抽出部321)及び減算処理部325に入力される画像が撮像画像であり、第1のフィルタ処理部からの出力と撮像画像との差分を減算処理部325で求めることで得られる画像が構造画像となる。また、構造画像が第2のフィルタ処理部(領域抽出部326)に入力され、第2のフィルタ処理が行われた結果、第2のフィルタ処理部(フィルタ処理部328)から出力されるのが所定周波数帯域画像(テクスチャ画像)となる。   Here, the structure image is an image generated intermediately when a predetermined frequency band image (texture image) is extracted from the captured image. Specifically, in FIG. 3, an image output from the image construction unit 310 and input to the first filter processing unit (region extraction unit 321) and the subtraction processing unit 325 is a captured image, and the first filter processing is performed. An image obtained by obtaining the difference between the output from the unit and the captured image by the subtraction processing unit 325 becomes the structure image. Further, the structure image is input to the second filter processing unit (region extraction unit 326), and as a result of the second filter processing being performed, it is output from the second filter processing unit (filter processing unit 328). It becomes a predetermined frequency band image (texture image).

これにより、2段のフィルタ処理により所定周波数帯域画像を抽出することが可能になる。具体的には第1段のフィルタで、第1のフィルタ処理を行い(さらに具体的な例は後述する)、第2段のフィルタでノイズ除去を行う。   As a result, it is possible to extract a predetermined frequency band image by two-stage filter processing. Specifically, the first-stage filter performs the first filter processing (more specific examples will be described later), and the second-stage filter performs noise removal.

また、ボケ量情報抽出部は、撮像画像の振幅値を算出する撮像画像振幅算出部を含む。そして、第1のフィルタ処理部は、撮像画像振幅算出部で算出された振幅値が、第1の振幅範囲にある画像に対して、第1の周波数範囲及び第2の周波数範囲に対応する周波数成分を透過するローパスフィルタ処理を行う。また、第1のフィルタ処理部は、第2の振幅範囲にある画像に対して、第2の周波数範囲に対応する周波数成分を透過し、第1の周波数範囲に対応する周波数成分をカットするローパスフィルタ処理を行う。   The blur amount information extraction unit includes a captured image amplitude calculation unit that calculates an amplitude value of the captured image. And the 1st filter process part is the frequency corresponding to the 1st frequency range and the 2nd frequency range with respect to the image in which the amplitude value computed by the picked-up image amplitude calculation part is in the 1st amplitude range. A low-pass filter process that transmits the component is performed. The first filter processing unit transmits a frequency component corresponding to the second frequency range to an image in the second amplitude range and cuts a frequency component corresponding to the first frequency range. Perform filtering.

これにより、図4(A)の802及び図4(B)の804に対応した処理が可能になる。つまり、振幅値が大きい(ヒダ等に対応する)画像に対しては、高周波成分まで残し、振幅値が小さい(粘膜表面や血管等に対応する)画像に対しては、高周波成分をカットする。第1のフィルタ処理後に、上述したように減算処理部により撮像画像との差分がとられるため、振幅値が大きい画像は第1の周波数範囲よりも高い周波数成分しか残らないのに対し、振幅値が小さい画像は第1の周波数範囲の周波数成分も残ることになる。   Accordingly, processing corresponding to 802 in FIG. 4A and 804 in FIG. 4B can be performed. That is, for an image having a large amplitude value (corresponding to a fold or the like), a high-frequency component is left, and for an image having a small amplitude value (corresponding to a mucous membrane surface or a blood vessel), the high-frequency component is cut. Since the difference from the captured image is taken by the subtraction processing unit as described above after the first filter processing, an image with a large amplitude value remains only a frequency component higher than the first frequency range, whereas the amplitude value In an image having a small value, frequency components in the first frequency range also remain.

また、第1のフィルタ処理部は、図3に示したように、撮像画像から注目画素の周辺の所定領域を抽出する領域抽出部321を含む。また、注目画素に対する周辺画素の空間距離及び画素値間距離(画素値の差)を算出し、抽出条件に基づいてフィルタ係数を算出するフィルタ係数算出部322を含む。さらに、領域抽出部321で抽出された所定領域と、フィルタ係数算出部322で算出されたフィルタ係数に基づいてフィルタ処理を行うフィルタ処理部323を含む。   Further, as shown in FIG. 3, the first filter processing unit includes a region extraction unit 321 that extracts a predetermined region around the target pixel from the captured image. Also included is a filter coefficient calculation unit 322 that calculates the spatial distance of the surrounding pixels with respect to the target pixel and the distance between pixel values (pixel value difference) and calculates the filter coefficient based on the extraction condition. Furthermore, a filter processing unit 323 that performs filter processing based on the predetermined region extracted by the region extraction unit 321 and the filter coefficient calculated by the filter coefficient calculation unit 322 is included.

これにより、図3に示したような構造によりフィルタ処理を行うことが可能になる。具体的には、注目画素の周辺領域を抽出し、周辺画素を設定する。そして、注目画素及び周辺画素の空間距離及び画素値の差を算出するとともに、抽出条件に基づいてフィルタ係数を算出する。これは、式(1)における、{(x−x0)+(y−y0)}、|P(x,y,t)-P(x0,y0,t)|を求めることに相当する。そして、式(1)で求めたフィルタ係数に基づいて、式(2)によりフィルタ処理を行う。そのため、フィルタの係数に振幅値|P(x,y,t)-P(x0,y0,t)|が大きく関わることになるため、振幅範囲に応じた抽出処理が可能になる。また、σ1sも調整するため、振幅範囲を条件に合わせて適切に設定することができる。 As a result, it is possible to perform the filtering process with the structure as shown in FIG. Specifically, the peripheral region of the target pixel is extracted and the peripheral pixel is set. Then, the spatial distance and pixel value difference between the target pixel and the surrounding pixels are calculated, and the filter coefficient is calculated based on the extraction condition. This corresponds to obtaining {(x−x0) 2 + (y−y0) 2 }, | P (x, y, t) −P (x0, y0, t) | in Equation (1). . And based on the filter coefficient calculated | required by Formula (1), a filter process is performed by Formula (2). Therefore, the amplitude value | P (x, y, t) −P (x0, y0, t) | is greatly related to the coefficient of the filter, so that extraction processing according to the amplitude range is possible. Moreover, since σ1s is also adjusted, the amplitude range can be appropriately set according to the conditions.

また、ボケ量情報抽出部は、撮像画像の振幅値を算出する撮像画像振幅算出部を含む。そして、第2のフィルタ処理部は、撮像画像振幅算出部で算出された振幅値が、第2の振幅範囲にある画像に対して、第1の周波数範囲及び第2の周波数範囲に対応する周波数成分を透過するローパスフィルタ処理を行う。また、第2のフィルタ処理部は、第3の振幅範囲にある画像に対して、第2の周波数範囲に対応する周波数成分を透過し、第1の周波数範囲に対応する周波数成分をカットするローパスフィルタ処理を行う。   The blur amount information extraction unit includes a captured image amplitude calculation unit that calculates an amplitude value of the captured image. Then, the second filter processing unit has a frequency corresponding to the first frequency range and the second frequency range for an image in which the amplitude value calculated by the captured image amplitude calculation unit is in the second amplitude range. A low-pass filter process that transmits the component is performed. In addition, the second filter processing unit transmits a frequency component corresponding to the second frequency range to an image in the third amplitude range and cuts a frequency component corresponding to the first frequency range. Perform filtering.

これにより、図4(B)の803及び図4(C)の805に対応した処理が可能になる。つまり、振幅値が小さい(粘膜表面や血管等に対応する)画像に対しては、高周波成分まで残し、振幅値がさらに小さい(ノイズに対応する)画像に対しては、高周波成分をカットする。第1のフィルタ処理後にこのようなフィルタ処理を行うため、第2の振幅範囲にある画像では第1の周波数範囲が残るのに対して、第3の振幅範囲にある画像はほとんどの成分がカットされることになる。そのため、ノイズの除去が可能になる。   Accordingly, processing corresponding to 803 in FIG. 4B and 805 in FIG. 4C can be performed. That is, for an image having a small amplitude value (corresponding to a mucous membrane surface or blood vessel), the high frequency component is left, and for an image having a smaller amplitude value (corresponding to noise), the high frequency component is cut. Since such filter processing is performed after the first filter processing, the first frequency range remains in the image in the second amplitude range, whereas most components are cut in the image in the third amplitude range. Will be. Therefore, noise can be removed.

また、第2のフィルタ処理部は、図3に示したように、撮像画像から注目画素の周辺の所定領域を抽出する領域抽出部326を含む。また、注目画素に対する周辺画素の空間距離及び画素値間距離(画素値の差)を算出し、抽出条件に基づいてフィルタ係数を算出するフィルタ係数算出部327を含む。さらに、領域抽出部326で抽出された所定領域と、フィルタ係数算出部327で算出されたフィルタ係数に基づいてフィルタ処理を行い、ノイズを分離するノイズ分離部(図3のフィルタ処理部328に相当)を含む。   Further, as shown in FIG. 3, the second filter processing unit includes a region extraction unit 326 that extracts a predetermined region around the target pixel from the captured image. Also included is a filter coefficient calculation unit 327 that calculates a spatial distance and a distance between pixel values (pixel value difference) with respect to the target pixel and calculates a filter coefficient based on the extraction condition. Further, a noise separation unit (corresponding to the filter processing unit 328 in FIG. 3) that performs filter processing based on the predetermined region extracted by the region extraction unit 326 and the filter coefficient calculated by the filter coefficient calculation unit 327 and separates noise. )including.

これにより、図3に示したような構造によりフィルタ処理を行うことが可能になる。具体的には、注目画素の周辺領域を抽出し、周辺画素を設定する。そして、注目画素及び周辺画素の空間距離及び画素値の差を算出するとともに、抽出条件に基づいてフィルタ係数を算出する。これは、式(3)における、{(x−x0)+(y−y0)}、|D(x,y,t)-D(x0,y0,t)|を求めることに相当する。そして、式(3)で求めたフィルタ係数に基づいて、式(4)によりフィルタ処理を行う。そのため、フィルタの係数に振幅値|D(x,y,t)-D(x0,y0,t)|が大きく関わることになるため、振幅範囲に応じた抽出処理が可能になる。また、σ2sも調整するため、振幅範囲を条件に合わせて適切に設定することができる。 As a result, it is possible to perform the filtering process with the structure as shown in FIG. Specifically, the peripheral region of the target pixel is extracted and the peripheral pixel is set. Then, the spatial distance and pixel value difference between the target pixel and the surrounding pixels are calculated, and the filter coefficient is calculated based on the extraction condition. This corresponds to obtaining {(x−x0) 2 + (y−y0) 2 }, | D (x, y, t) −D (x0, y0, t) | in Equation (3). . And based on the filter coefficient calculated | required by Formula (3), a filter process is performed by Formula (4). Therefore, the amplitude value | D (x, y, t) −D (x0, y0, t) | is greatly related to the coefficient of the filter, so that extraction processing according to the amplitude range is possible. Further, since σ2s is also adjusted, the amplitude range can be appropriately set according to the conditions.

また、ボケ量補正部は、時系列的に取得された撮像画像に対して、合焦状態にあると判定された撮像画像である合焦撮像画像のボケ量に基づいて補正を行う。   The blur amount correction unit corrects the captured image acquired in time series based on the blur amount of the focused captured image that is the captured image determined to be in focus.

ここで、ボケ量補正部は、図2のテクスチャ補正量算出部340、テクスチャ補正部360及び合成部370に相当する。   Here, the blur amount correction unit corresponds to the texture correction amount calculation unit 340, the texture correction unit 360, and the synthesis unit 370 of FIG.

これにより、補正の基準を設定することが可能になる。合焦撮像画像はピントが合っていると判定された画像であるから、合焦撮像画像のレベルまで補正処理(例えば信号値の増幅等)を行えば、十分にボケ量の少ない画像を取得することができる。   This makes it possible to set a correction reference. Since the in-focus captured image is an image determined to be in focus, if the correction process (for example, amplification of the signal value) is performed up to the level of the in-focus captured image, an image with a sufficiently small amount of blur is acquired. be able to.

また、ボケ量補正部は、所定周波数帯域画像抽出部で抽出された所定周波数帯域画像の振幅値を算出する所定周波数帯域画像振幅算出部を含む。   The blur amount correction unit includes a predetermined frequency band image amplitude calculation unit that calculates an amplitude value of the predetermined frequency band image extracted by the predetermined frequency band image extraction unit.

ここで、所定周波数帯域画像振幅算出部は、図5における振幅算出部341に相当する。また、所定周波数帯域画像の振幅値とは、所定周波数帯域画像の画素値の絶対値に対する最大値で定義しても良いし、所定周波数帯域画像の画素値の最大値と最小値の差で定義してもよい。   Here, the predetermined frequency band image amplitude calculation unit corresponds to the amplitude calculation unit 341 in FIG. Further, the amplitude value of the predetermined frequency band image may be defined as the maximum value with respect to the absolute value of the pixel value of the predetermined frequency band image, or may be defined by the difference between the maximum value and the minimum value of the pixel value of the predetermined frequency band image. May be.

これにより、所定周波数帯域画像の振幅値を算出することが可能になる。そのため、補正の基準として、画像の振幅値を用いることができる。具体的には、ボケた画像における振幅値を、合焦状態にある画像における振幅値と同等になるように増幅することで補正を行えばよい。   As a result, the amplitude value of the predetermined frequency band image can be calculated. Therefore, the amplitude value of the image can be used as a correction reference. Specifically, the correction may be performed by amplifying the amplitude value in the blurred image to be equal to the amplitude value in the focused image.

また、ボケ量補正部は、図2に示したように、所定周波数帯域画像振幅算出部により算出された所定周波数帯域画像の振幅値に基づいて、所定周波数帯域画像を補正する所定周波数帯域画像補正部(テクスチャ補正部360に相当)と、撮像画像と、補正した所定周波数帯域画像を合成する合成部370と、を含む。   Further, as shown in FIG. 2, the blur amount correcting unit corrects the predetermined frequency band image based on the amplitude value of the predetermined frequency band image calculated by the predetermined frequency band image amplitude calculating unit. Unit (corresponding to the texture correction unit 360), a captured image, and a combining unit 370 that combines the corrected predetermined frequency band image.

これにより、所定周波数帯域画像を補正した上で、補正した所定周波数帯域画像と撮像画像とを合成することで補正処理を行うことが可能になる。所定周波数帯域画像が、ボケの影響を強く受け、かつ、重要な観察対象に対応する画像であることを鑑みれば、補正対象のみを抽出し補正を行い、合成という形で撮像画像に戻すことになるため、観察対象を安定して合焦時と同程度の解像感に保持した補正を実現することができる。   As a result, it is possible to perform the correction process by combining the corrected predetermined frequency band image and the captured image after correcting the predetermined frequency band image. In view of the fact that the predetermined frequency band image is strongly influenced by blur and corresponds to an important observation target, only the correction target is extracted, corrected, and returned to the captured image in the form of synthesis. Therefore, it is possible to realize the correction that stably maintains the observation target with the same resolution as that at the time of focusing.

また、所定周波数帯域画像補正部は、所定周波数帯域画像振幅算出部で時系列的に算出された振幅値の中から、合焦状態にあると判定された振幅値を、基準振幅値として選択する基準振幅値選択部(図5の基準振幅更新判定部342に相当)と、基準振幅値に基づいて所定周波数帯域画像に対する補正量を算出し乗算する補正量乗算部(図5の補正量算出部344とテクスチャ補正部360に相当)とを含む。   The predetermined frequency band image correction unit selects an amplitude value determined to be in focus as a reference amplitude value from the amplitude values calculated in time series by the predetermined frequency band image amplitude calculation unit. A reference amplitude value selection unit (corresponding to the reference amplitude update determination unit 342 in FIG. 5) and a correction amount multiplication unit (correction amount calculation unit in FIG. 5) that calculates and multiplies a correction amount for a predetermined frequency band image based on the reference amplitude value. 344 and the texture correction unit 360).

これにより、基準振幅値を算出し、算出した基準振幅値に基づいて補正を行うことが可能になる。具体的には例えば、図18における1<振幅ゲイン量<Th1に示したように、ボケた画像の振幅値を基準振幅値と同じ値にするような補正処理を行えばよい。なお、図18においては振幅ゲイン量がある程度よりも大きい場合(つまり、基準振幅値に比べてボケた画像の振幅値が小さい場合)には、ボケの程度が強すぎて補正がうまく機能しないと判断し、補正の度合いを弱めるようにしてある。   Thereby, it becomes possible to calculate the reference amplitude value and perform correction based on the calculated reference amplitude value. Specifically, for example, as shown in 1 <amplitude gain amount <Th1 in FIG. 18, a correction process may be performed so that the amplitude value of the blurred image becomes the same value as the reference amplitude value. In FIG. 18, when the amplitude gain amount is larger than a certain level (that is, when the amplitude value of the blurred image is smaller than the reference amplitude value), the degree of blur is too strong and the correction does not work well. Judgment is made and the degree of correction is weakened.

また、合焦撮像画像は、光学系が拡大観察状態に切り替えられた時点で取得された撮像画像であってもよい。   The focused captured image may be a captured image acquired at the time when the optical system is switched to the enlarged observation state.

これにより、効率的に合焦撮像画像を取得することが可能になる。つまり、拡大観察状態に切り替えられた時点ではピントは合っている可能性が高いと考えられるため、切り替えた時点における画像を合焦撮像画像としても問題は少ない。そのため、後述するように、条件による判定を行う必要がなく、簡単な処理で合焦撮像画像を取得することができる。   As a result, it is possible to efficiently obtain a focused captured image. That is, since it is considered that there is a high possibility that the subject is in focus at the time of switching to the magnified observation state, there are few problems even if the image at the time of switching is used as a focused captured image. Therefore, as described later, it is not necessary to make a determination based on conditions, and a focused captured image can be acquired with simple processing.

また、合焦撮像画像は、光学系が拡大観察状態に切り替えられた時点以降に取得された撮像画像であり、かつ、振幅値が所定期間内で所定条件を満たした撮像画像であってもよい。具体的には例えば、所定条件とは、振幅値が基準振幅判定閾値よりも大きく、かつ、極大値をとるという条件であってもよい。   Further, the focused captured image may be a captured image acquired after the time point when the optical system is switched to the magnified observation state, and the amplitude value satisfies a predetermined condition within a predetermined period. . Specifically, for example, the predetermined condition may be a condition that the amplitude value is larger than a reference amplitude determination threshold value and takes a maximum value.

これにより、拡大観察状態への切り替え後にも、基準となる画像である合焦撮像画像を更新する(つまりは、基準振幅値を更新する)ことが可能になる。内視鏡による観察においては、観察倍率が変化したり、観察対象となる被写体が変化したり(例えば大きな横移動があった場合等)することが考えられ、その場合画像の振幅値が変化する可能性がある。そのような場合にも、合焦撮像画像を更新することで適切な基準を設定することができる。また、合焦撮像画像の更新に条件を設定することで、過剰に頻繁に更新処理が行われることを抑止することが可能になる。   Thereby, even after switching to the magnified observation state, it is possible to update the focused captured image that is the reference image (that is, update the reference amplitude value). In observation with an endoscope, the observation magnification may change or the subject to be observed may change (for example, when there is a large lateral movement), in which case the amplitude value of the image changes. there is a possibility. Even in such a case, an appropriate reference can be set by updating the focused captured image. In addition, by setting a condition for updating the focused captured image, it is possible to prevent the update process from being performed too frequently.

また、以上の本実施形態は、拡大観察状態における撮像画像を時系列的に取得する画像取得部と、拡大観察状態における撮像画像からボケ量情報を抽出するボケ量情報抽出部と、抽出したボケ量情報に基づいて撮像画像を補正するボケ量補正部としてコンピュータを機能させるプログラムに関係する。   In addition, the present embodiment described above includes an image acquisition unit that acquires captured images in a magnified observation state in time series, a blur amount information extraction unit that extracts blur amount information from the captured images in the enlarged observation state, and the extracted blur. The present invention relates to a program that causes a computer to function as a blur amount correction unit that corrects a captured image based on amount information.

これにより、本実施形態は、撮像装置や内視鏡システムのように、画像を取得し、システム内で画像処理を行うものに限定されず、例えば、まず画像データを蓄積し、その後、蓄積された画像データに対してPC等のコンピューターシステムでソフトウェア的に処理を行うものにも適用することが可能になる。そして、上記プログラムは、情報記憶媒体に記録される。ここで、情報記録媒体としては、DVDやCD等の光ディスク、光磁気ディスク、ハードディスク(HDD)、不揮発性メモリーやRAM等のメモリーなど、光学式検出システムによって読み取り可能な種々の記録媒体を想定できる。   Thereby, this embodiment is not limited to what acquires an image and performs image processing in a system like an imaging device or an endoscope system, for example, image data is first accumulated and then accumulated. The present invention can also be applied to image data processed by a computer system such as a PC. The program is recorded on an information storage medium. Here, as the information recording medium, various recording media that can be read by an optical detection system, such as an optical disk such as a DVD or a CD, a magneto-optical disk, a hard disk (HDD), a memory such as a nonvolatile memory or a RAM, can be assumed. .

3.第2の実施形態
3.1 構成
図10は第2実施の形態の撮像装置の全体構成を示すブロック図である。本実施例を構成する撮像装置は光源部100と撮像部200とプロセッサ部300と表示部400と外部I/F部500からなり、第1の実施形態と同一の基本構成であるので、異なる詳細構成を主に説明する。
3. Second Embodiment 3.1 Configuration FIG. 10 is a block diagram illustrating an overall configuration of an imaging apparatus according to a second embodiment. The imaging apparatus constituting the present embodiment includes a light source unit 100, an imaging unit 200, a processor unit 300, a display unit 400, and an external I / F unit 500, and has the same basic configuration as that of the first embodiment. The configuration will be mainly described.

まず光源部100に対しては白色光源101と複数の分光透過率を持った回転色フィルタ102と回転色フィルタ102を駆動させる回転駆動部103と回転色フィルタ102からの分光特性を持った光をライトガイドファイバ201の入射端面に集光させる集光レンズ104とからなる。   First, for the light source unit 100, the white light source 101, the rotating color filter 102 having a plurality of spectral transmittances, the rotation driving unit 103 for driving the rotating color filter 102, and the light having the spectral characteristics from the rotating color filter 102 are emitted. Condensing lens 104 which condenses the light guide fiber 201 on the incident end face.

回転色フィルタ102は例えば図9に示すように三原色の赤の色フィルタ601と緑の色フィルタ602と青の色フィルタ603と回転モータ604とから構成されている。これら3つの色フィルタの分光特性は図8に示した通りである。   For example, as shown in FIG. 9, the rotary color filter 102 includes three primary color red color filters 601, a green color filter 602, a blue color filter 603, and a rotary motor 604. The spectral characteristics of these three color filters are as shown in FIG.

回転駆動部103はプロセッサ部300の制御部302からの制御信号に基づき撮像素子209の撮像期間と同期して回転色フィルタ102を所定回転数で回転させる。例えば色フィルタを1秒間に20回転させると、各色フィルタは60分の1秒間隔で入射白色光を横切る事になり、撮像素子209は60分の1秒間隔で3原色の各色光(R或いはG或いは(B)での反射光画像の撮像と転送を完了することになる。ここで撮像素子209はモノクロ用となる。つまりこの実施例はR画像、G画像、B画像が60分の1秒間隔で面順次で撮像される内視鏡装置の例となり、実質のフレームレートは20fpsとなる。   The rotation driving unit 103 rotates the rotating color filter 102 at a predetermined number of rotations in synchronization with the imaging period of the imaging device 209 based on a control signal from the control unit 302 of the processor unit 300. For example, when the color filter is rotated 20 times per second, each color filter crosses the incident white light at intervals of 1/60 second, and the image sensor 209 has the light of each of the three primary colors (R or R) at intervals of 1/60 second. The imaging and transfer of the reflected light image in G or (B) is completed, where the image sensor 209 is for monochrome use, that is, in this embodiment, the R image, G image, and B image are 1 / 60th. This is an example of an endoscope apparatus that is imaged in a frame sequential manner at intervals of seconds, and the actual frame rate is 20 fps.

続いて撮像部200に対しては上記した通り撮像素子209が異なり、モノクロ単板撮像素子を用いる。さらに焦点位置制御部206と焦点位置調整レンズ207は、より高速に駆動が可能で、第2実施の形態ではオートフォーカスがリアルタイムで行えるものである。   Subsequently, the imaging device 209 is different from the imaging unit 200 as described above, and a monochrome single-plate imaging device is used. Furthermore, the focus position control unit 206 and the focus position adjustment lens 207 can be driven at higher speed, and in the second embodiment, autofocus can be performed in real time.

更にプロセッサ部300に対しては、合焦位置算出部303が追加される。制御部302の制御内容は合焦位置算出部303の追加、及び回転色フィルタ102と回転駆動部103の追加に伴い修正される。   Further, an in-focus position calculation unit 303 is added to the processor unit 300. The control content of the control unit 302 is modified with the addition of the in-focus position calculation unit 303 and the addition of the rotation color filter 102 and the rotation drive unit 103.

プロセッサ部300に追加された合焦位置算出部303は画像処理部301から出力される時系列表示画像と制御部302から出力される現在撮影中の色フィルタの情報が入力され、対応する色フィルタの画像に基づき合焦位置を算出し、制御部302に対して前記算出した合焦位置と共にZ方向(スコープ先端の光軸方向)のオブリング量を出力する。   The in-focus position calculation unit 303 added to the processor unit 300 receives the time-series display image output from the image processing unit 301 and the information of the currently captured color filter output from the control unit 302, and the corresponding color filter. The focus position is calculated on the basis of the image, and the obstruction amount in the Z direction (the optical axis direction of the scope tip) is output to the control unit 302 together with the calculated focus position.

制御部302は合焦位置算出部303から出力された合焦位置に基づき、焦点位置制御部206に焦点位置調整レンズ207の移動位置を出力し、その次に撮影する色フィルタが白色光源101を横切るタイミングまでに焦点位置調整レンズ207を移動させる。   The control unit 302 outputs the movement position of the focus position adjustment lens 207 to the focus position control unit 206 based on the focus position output from the focus position calculation unit 303, and the color filter to be photographed next selects the white light source 101. The focal position adjustment lens 207 is moved by the timing of crossing.

画像構成処理部310から出力される時系列表示画像はテクスチャ抽出部320でテクスチャ画像の抽出を行い、抽出されたテクスチャ画像が合焦位置算出部303へ出力される。   The texture image is extracted by the texture extraction unit 320 from the time-series display image output from the image configuration processing unit 310, and the extracted texture image is output to the in-focus position calculation unit 303.

また、テクスチャ抽出部320で抽出されたテクスチャ画像に基づき、テクスチャ補正量算出部340において、テクスチャ画像に対する補正量を算出する。そして、テクスチャ補正部360は算出された補正量に基づき、テクスチャ画像を補正し、合成部370は、補正されたテクスチャ画像と、画像構成処理部からの撮像画像とを合成することでボケ補正画像を生成する。   Further, based on the texture image extracted by the texture extraction unit 320, the texture correction amount calculation unit 340 calculates a correction amount for the texture image. Then, the texture correction unit 360 corrects the texture image based on the calculated correction amount, and the synthesis unit 370 synthesizes the corrected texture image and the captured image from the image configuration processing unit, thereby correcting the blur correction image. Is generated.

3.2 ボケ量情報抽出部の詳細な構成
テクスチャ抽出部320の構成は、第1実施の形態とは異なり、図13のブロック図に示す構成となっている。
3.2 Detailed Configuration of Blur Amount Information Extraction Unit The configuration of the texture extraction unit 320 is different from that of the first embodiment, and is configured as shown in the block diagram of FIG.

テクスチャ抽出部320はローパス処理部1321、1326、1331とダウンサンプリング部1322、1327と減算処理部1323、1328、1332とノイズ量推定部1324、1329、1333とコアリング部1325、1330、1334と処理パラメータ制御部1335とから構成される。   The texture extraction unit 320 is a low-pass processing unit 1321, 1326, 1331, a downsampling unit 1322, 1327, a subtraction processing unit 1323, 1328, 1332, a noise amount estimation unit 1324, 1329, 1333, and a coring unit 1325, 1330, 1334. A parameter control unit 1335.

この構成は、時系列表示画像をそれぞれ複数の周波数帯域に分割したサブバンド画像を生成し各々独立のノイズ低減処理を組み込んだ構成となっている。この周波数帯域分割よるテクスチャ抽出の特徴は分割する周波数帯域を拡大観察倍率に応じて観察したいテクスチャ(粘膜構造や血管走行パターン)の周波数帯域に合わせて変更することにある。   In this configuration, sub-band images obtained by dividing each time-series display image into a plurality of frequency bands are generated, and independent noise reduction processes are incorporated. The feature of the texture extraction by the frequency band division is that the frequency band to be divided is changed according to the frequency band of the texture (mucosal structure or blood vessel running pattern) to be observed according to the magnification of magnification observation.

続いて各構成部間のデータの流れを説明する。処理パラメータ制御部1335は制御部302から出力される倍率情報に基づき複数の周波数帯域(サブバンド)に分割する帯域幅が異なるように倍率情報と帯域幅の対応関係がテーブル化されている。その一例を図14(A)、図14(B)に示す。図14(A)は拡大観察倍率が小さい場合の周波数帯域の分割例であり、図14(B)は拡大観察倍率が大きな場合の周波数帯域の分割例である。共に(1)〜(4)の4つの周波数帯域から構成される。   Next, the data flow between the components will be described. The processing parameter control unit 1335 tabulates the correspondence relationship between the magnification information and the bandwidth so that the bandwidth divided into a plurality of frequency bands (subbands) is different based on the magnification information output from the control unit 302. An example is shown in FIGS. 14A and 14B. FIG. 14A shows an example of frequency band division when the magnification observation magnification is small, and FIG. 14B shows an example of frequency band division when the magnification observation magnification is large. Both are composed of four frequency bands (1) to (4).

つまり制御部302からの倍率情報と所定閾値とを判定し、どちらの分割方法で帯域情報を分割するかを決定する。分割方法が決定したら、各周波数帯域に見合うローパス特性のフィルタ係数と、ダウンサンプリング時の縮小率を決定し、フィルタ係数はローパス処理部1321、1326、1331へ、縮小率はダウンサンプリング部1322、1327へ出力される。更に分割方法に基づき各周波数帯域のノイズ量推定モデルも変更される。各周波数帯域に対応するノイズ推定モデルはノイズ量推定部1324、1239、1333へそれぞれ出力される。   That is, the magnification information from the control unit 302 and a predetermined threshold value are determined, and which division method is used to divide the band information is determined. When the division method is determined, filter coefficients having a low-pass characteristic suitable for each frequency band and a reduction rate at the time of downsampling are determined. Is output. Further, the noise amount estimation model for each frequency band is also changed based on the division method. The noise estimation model corresponding to each frequency band is output to the noise amount estimation units 1324, 1239, and 1333, respectively.

以下、複数の周波数帯域の処理は同一となるので、周波数帯域(1)のサブバンド画像の処理についての説明を行う。ローパス処理部1321には画像構成処理部310から出力された時系列表示画像と処理パラメータ制御部1329から出力されたフィルタ係数が入力される。そして、時系列表示画像に対してフィルタ処理したローパス時系列表示画像を減算処理部1323とダウンサンプリング部1322とノイズ量推定部1324へ出力する。   Hereinafter, since the processing of a plurality of frequency bands is the same, the processing of the subband image of the frequency band (1) will be described. The low-pass processing unit 1321 receives the time-series display image output from the image configuration processing unit 310 and the filter coefficient output from the processing parameter control unit 1329. Then, the low-pass time series display image obtained by filtering the time series display image is output to the subtraction processing unit 1323, the down sampling unit 1322, and the noise amount estimation unit 1324.

減算処理部1323には画像構成処理部310から出力された時系列表示画像とローパス処理部1321から出力されたローパス時系列表示画像が入力される。そして、時系列表示画像からローパス時系列表示画像を減算する事でハイパス時系列表示画像を生成し、コアリング部1325へ出力する。   The time-series display image output from the image configuration processing unit 310 and the low-pass time-series display image output from the low-pass processing unit 1321 are input to the subtraction processing unit 1323. Then, a high-pass time-series display image is generated by subtracting the low-pass time-series display image from the time-series display image, and is output to the coring unit 1325.

ノイズ量推定部1324にはローパス処理部1321から出力されるローパス時系列表示画像と処理パラメータ制御部1335から出力されるノイズ推定モデルが入力され、ローパス時系列表示画像の画素値をノイズ推定モデルによりノイズ量に変換し、コアリング部1325へ出力する。   The noise amount estimation unit 1324 receives the low-pass time-series display image output from the low-pass processing unit 1321 and the noise estimation model output from the processing parameter control unit 1335, and the pixel value of the low-pass time-series display image is determined by the noise estimation model. It is converted into a noise amount and output to the coring unit 1325.

コアリング部1325には減算処理部1323から出力されるハイパス時系列表示画像が、そしてノイズ量推定部1324から出力されるノイズ量が入力され、ノイズ量に見合うコアリング幅でコアリング処理が施される。コアリング処理されたハイパス時系列表示画像はテクスチャ補正量算出部340、合焦位置算出部303、及びテクスチャ補正部360へ出力される。   The coring unit 1325 receives the high-pass time-series display image output from the subtraction processing unit 1323 and the noise amount output from the noise amount estimation unit 1324, and performs coring processing with a coring width corresponding to the noise amount. Is done. The high-pass time-series display image that has undergone the coring process is output to the texture correction amount calculation unit 340, the in-focus position calculation unit 303, and the texture correction unit 360.

ここまでが図14(A)或いは図14(B)の(1)の周波数帯域の抽出である。(2)、(3)の周波数帯域の抽出も基本的に同じであるので、説明は省略する。   Up to here is the extraction of the frequency band of (1) in FIG. 14 (A) or FIG. 14 (B). Since the extraction of the frequency bands of (2) and (3) is basically the same, the description thereof is omitted.

3.3 ボケ量補正部の詳細な構成
続いてテクスチャ補正量算出部340について図15に基づき詳述する。
3.3 Detailed Configuration of Blur Amount Correction Unit Next, the texture correction amount calculation unit 340 will be described in detail with reference to FIG.

テクスチャ補正量算出部340は振幅算出部1341、基準振幅更新判定部1342、基準振幅記憶部1343、補正量算出部1344、補正量制御部1353から構成される。テクスチャ補正量算出部340は図14(A)或いは図14(B)の周波数帯域(1)、(2)、(3)の周波数帯域が入力され、各々の補正量が算出される。   The texture correction amount calculation unit 340 includes an amplitude calculation unit 1341, a reference amplitude update determination unit 1342, a reference amplitude storage unit 1343, a correction amount calculation unit 1344, and a correction amount control unit 1353. The texture correction amount calculation unit 340 receives the frequency bands (1), (2), and (3) shown in FIG. 14A or FIG. 14B, and calculates each correction amount.

以下に図14(A)或いは図14(B)の周波数帯域(1)に関する補正量算出に関してのみ説明する。補正量制御部1353には制御部302から出力される観察モード信号とテクスチャ基準閾値と補正量上限値、更に基準振幅記憶部1343から現時点の基準振幅値が入力される。そして、観察モード信号とテクスチャ基準閾値と基準振幅値に基づき基準振幅判定閾値を設定して基準振幅更新判定部1342へ出力し、更に補正量上限値を補正量算出部1344へ出力する。   Only the correction amount calculation for the frequency band (1) in FIG. 14A or FIG. 14B will be described below. An observation mode signal, a texture reference threshold value, a correction amount upper limit value output from the control unit 302, and a current reference amplitude value from the reference amplitude storage unit 1343 are input to the correction amount control unit 1353. Then, a reference amplitude determination threshold is set based on the observation mode signal, the texture reference threshold, and the reference amplitude value, and is output to the reference amplitude update determination unit 1342, and further, the correction amount upper limit value is output to the correction amount calculation unit 1344.

ここでテクスチャ基準閾値は撮像された時系列表示画像がボケている状態にあるかどうかを判定する基準値であり、撮像性能の違いにより変化するのでスコープの種類により異なる値が設定されている。基準振幅値判定閾値はテクスチャ画像に対して補正目標となる基準振幅値を選定する為の閾値で、観察モード信号が拡大観察モードに切り替わった時点でテクスチャ基準閾値に、それ以外は例えばテクスチャ基準閾値と基準振幅値の平均値を基準振幅値判定閾値として設定する。   Here, the texture reference threshold is a reference value for determining whether or not the captured time-series display image is in a blurred state, and varies depending on the difference in imaging performance, so that a different value is set depending on the type of scope. The reference amplitude value determination threshold value is a threshold value for selecting a reference amplitude value that is a correction target for the texture image, and is set to the texture reference threshold value when the observation mode signal is switched to the magnification observation mode. And the average value of the reference amplitude values is set as a reference amplitude value determination threshold.

振幅算出部1341はテクスチャ抽出部320から出力される時刻tで抽出されたテクスチャ画像に対する振幅値MA(t)を算出する。ここで振幅値はテクスチャ画像の画素値の絶対値に対する最大値で定義しても良いし、テクスチャ画像の画素値の最大値と最小値の差で定義しても良い。算出された振幅値MA(t)は基準振幅更新判定部1342へ出力される。   The amplitude calculator 1341 calculates an amplitude value MA (t) for the texture image extracted at time t output from the texture extractor 320. Here, the amplitude value may be defined by the maximum value with respect to the absolute value of the pixel value of the texture image, or may be defined by the difference between the maximum value and the minimum value of the pixel value of the texture image. The calculated amplitude value MA (t) is output to the reference amplitude update determination unit 1342.

基準振幅更新判定部1342は振幅算出部1341から出力される振幅値MA(t)と補正量制御部1353から出力される基準振幅判定閾値が入力され、基準振幅更新判定部1342に格納済みの8フィールド期間前までの振幅値MA(t-1)、MA(t-2)、MA(t-3)、MA(t-4)、MA(t-5)、MA(t-6)、MA(t-7)、MA(t-8)に基づき、振幅値MA(t)が基準振幅値となるかどうかを判定する。ここで1フィールド期間はR、G、B各色フィルタに対応して撮影されるR画像、B画像、G画像を取得する期間(1/60秒)である。   The reference amplitude update determination unit 1342 receives the amplitude value MA (t) output from the amplitude calculation unit 1341 and the reference amplitude determination threshold value output from the correction amount control unit 1353, and is stored in the reference amplitude update determination unit 1342. Amplitude values MA (t-1), MA (t-2), MA (t-3), MA (t-4), MA (t-5), MA (t-6), MA before the field period Based on (t-7) and MA (t-8), it is determined whether or not the amplitude value MA (t) becomes the reference amplitude value. Here, one field period is a period (1/60 second) in which R image, B image, and G image taken corresponding to the R, G, and B color filters are acquired.

基準振幅更新判定についての詳細を図11の模式図を使って説明する。ユーザーは拡大観察時にスコープ先端を観察対象に近づけつつ、ズームレバーを動かして所望の倍率を得るように内視鏡のスコープ先端位置を操作する。本実施例ではオートフォーカス機能を有しているので、合焦状態をユーザーが気にする必要はない。但し、オートフォーカスをコントラスト値に基づき制御する事を前提としているので、図11の模式図で示したようにA→B→CとZ軸方向(光学系の光軸方向)に焦点位置をオブリングして撮影し、コントラスト変化を発生させる事で合焦位置を推定する必要がある。このようなZ軸方向でのオブリングは、合焦状態とそうでない状態(ピントが甘い状態)を作り出す事になる。   Details of the reference amplitude update determination will be described with reference to the schematic diagram of FIG. The user operates the scope distal end position of the endoscope so as to obtain a desired magnification by moving the zoom lever while bringing the distal end of the scope closer to the observation target during magnified observation. Since the present embodiment has an autofocus function, the user need not care about the in-focus state. However, since it is assumed that the autofocus is controlled based on the contrast value, the focal position is obfuscated in the A → B → C and Z axis directions (optical axis direction of the optical system) as shown in the schematic diagram of FIG. It is necessary to estimate the in-focus position by shooting with a ring and generating a contrast change. Such obling in the Z-axis direction creates a focused state and a state that is not in focus (a state in which the focus is not good).

特にフレームレートが低いと合焦状態にない画像が表示される期間は長くなり、ピント変化が気になるようになるが、第2の実施形態の面順次内視鏡装置はまさにフレームレートが20fpsと低い。   In particular, when the frame rate is low, the period during which an image that is not in focus is displayed becomes longer and the focus change becomes a concern. However, the frame sequential endoscope apparatus of the second embodiment has a frame rate of 20 fps. And low.

第2の実施形態の面順次内視鏡装置にコントラスト変化を利用する場合には図11のA→B→Cのそれぞれの焦点位置でR、G、Bフィルタでの撮像を行う事になる。つまりA→Bへ移行する期間は1フレーム期間(1/20秒)に相当する。   When the contrast change is used in the field sequential endoscope apparatus of the second embodiment, imaging with R, G, and B filters is performed at the respective focal positions of A → B → C in FIG. 11. That is, the period of transition from A to B corresponds to one frame period (1/20 seconds).

本実施例の画像構成処理部310から出力される時系列表示画像はR、G、Bフィルタで撮像された画像のみ(R画像、或いはB画像、或いはG画像)がフィールド期間で更新される為、複数のテクスチャ画像からR画像、或いはG画像、或いはB画像に対応する異なる3つのテクスチャ画像を確実に抽出するには9つ分のテクスチャ画像が必要となる。   The time-series display image output from the image configuration processing unit 310 according to the present embodiment is updated only in the image captured by the R, G, and B filters (R image, B image, or G image) in the field period. In order to reliably extract three different texture images corresponding to the R image, the G image, or the B image from the plurality of texture images, nine texture images are required.

したがって基準振幅更新判定部1342は時系列的に連続するt-8〜tの期間での9つのテクスチャ画像に対応する9つの振幅値MA(t)、MA(t-1)、MA(t-2)、MA(t-3)、MA(t-4)、MA(t-5)、MA(t-6)、MA(t-7)、MA(t-8)の振幅値が極大値を持つかどうかを判定する。そのために9つの振幅値から3つのグループ{MA(t)、MA(t-3)、MA(t-6)}と{MA(t-1)、MA(t-4)、MA(t-7)}と{MA(t-2)、MA(t-5)、MA(t-8)}に分ける。そしてグループそれぞれの3つの振幅値に対して2次式にフィッティングして3つのグループのうち、1つでも極大値が存在するかどうか判定する。   Therefore, the reference amplitude update determination unit 1342 has nine amplitude values MA (t), MA (t−1), MA (t−t) corresponding to nine texture images in a period of t−8 to t continuous in time series. 2), the amplitude value of MA (t-3), MA (t-4), MA (t-5), MA (t-6), MA (t-7), MA (t-8) is a maximum value. To determine whether or not Therefore, three groups {MA (t), MA (t-3), MA (t-6)} and {MA (t-1), MA (t-4), MA (t− 7)} and {MA (t-2), MA (t-5), MA (t-8)}. Then, it is fitted to a quadratic expression for the three amplitude values of each group, and it is determined whether any one of the three groups has a maximum value.

極大値が存在する場合は2次式で算出された極大値が基準振幅値の候補となる。また極大値が複数検出された場合は、最大となる極大値を1つ選択し、基準振幅値の候補とする。基準振幅値の候補は更に基準振幅判定閾値と比較され、極大値が基準振幅判定閾値よりも大きい場合には基準振幅値として基準振幅記憶部1343へ出力される。極大値が基準振幅判定閾値以下である場合は、基準振幅値とは見なされず、基準振幅記憶部1343へ出力されない。一方、3つのグループ全てで極小値しか検出されなかった場合は基準振幅判定閾値との比較を行わず、基準振幅の変更は行なわれない。   When a local maximum exists, the local maximum calculated by the quadratic expression is a candidate for a reference amplitude value. When a plurality of local maximum values are detected, one maximum local maximum value is selected as a reference amplitude value candidate. The candidate for the reference amplitude value is further compared with the reference amplitude determination threshold value, and when the maximum value is larger than the reference amplitude determination threshold value, it is output to the reference amplitude storage unit 1343 as the reference amplitude value. When the maximum value is less than or equal to the reference amplitude determination threshold, it is not regarded as the reference amplitude value and is not output to the reference amplitude storage unit 1343. On the other hand, when only the minimum value is detected in all three groups, the comparison with the reference amplitude determination threshold value is not performed, and the reference amplitude is not changed.

基準振幅値を更新する理由は、第1の実施形態と同じである。   The reason for updating the reference amplitude value is the same as in the first embodiment.

基準振幅記憶部1343は基準振幅更新判定部1342から出力される基準振幅値が入力され、過去に記録した基準振幅値を最新の値に更新する。最新の基準振幅値は補正量制御部1353と補正量算出部1344に出力される。   The reference amplitude storage unit 1343 receives the reference amplitude value output from the reference amplitude update determination unit 1342 and updates the reference amplitude value recorded in the past to the latest value. The latest reference amplitude value is output to the correction amount control unit 1353 and the correction amount calculation unit 1344.

補正量算出部1344では、振幅算出部1341から出力される時刻tの振幅値MA(t)と基準振幅記憶部1343から出力される基準振幅値RMAと補正量制御部1353から出力される補正量上限値が入力され、振幅値MA(t)が基準振幅値RMAと同じ大きさとなるゲイン量を算出し、第1の実施形態で示した式(5)、式(6)、式(7)と同様に補正量を算出する。   In the correction amount calculation unit 1344, the amplitude value MA (t) at time t output from the amplitude calculation unit 1341, the reference amplitude value RMA output from the reference amplitude storage unit 1343, and the correction amount output from the correction amount control unit 1353. An upper limit value is input, a gain amount with which the amplitude value MA (t) is the same as the reference amplitude value RMA is calculated, and the equations (5), (6), and (7) shown in the first embodiment are calculated. The correction amount is calculated in the same manner as described above.

同様に周波数帯域(2)、(3)については同一の処理となるので省略するが、各周波数帯域で独立に補正量を算出し、3つの補正量がテクスチャ補正部360へ出力される。   Similarly, the frequency bands (2) and (3) are omitted because they are the same processing, but the correction amounts are calculated independently in each frequency band, and the three correction amounts are output to the texture correction unit 360.

続いてテクスチャ補正部360について図16に基づき詳述する。テクスチャ補正部360は処理パラメータ制御部1368と、乗算処理部1361、1362、1263と、アップサンプリング部1364、1366と、加算処理部1365、1367で構成される。   Next, the texture correction unit 360 will be described in detail with reference to FIG. The texture correction unit 360 includes a processing parameter control unit 1368, multiplication processing units 1361, 1362, 1263, upsampling units 1364, 1366, and addition processing units 1365, 1367.

続いて各構成部間のデータの流れを説明する。処理パラメータ制御部1368には制御部302から出力される倍率情報に基づき分割されている周波数帯域幅に対応しテクスチャ抽出部320で適用された縮小率が、アップサンプリング部1364、1366へ出力される。   Next, the data flow between the components will be described. The processing parameter control unit 1368 outputs the reduction ratio applied by the texture extraction unit 320 corresponding to the frequency bandwidth divided based on the magnification information output from the control unit 302 to the upsampling units 1364 and 1366. .

乗算処理部1361はテクスチャ抽出部320から出力される図14(A)或いは図14(B)の周波数帯域(3)に対応するサブバンド画像と、テクスチャ補正量算出部340から出力される周波数帯域(3)に対応するサブバンド画像の補正量が入力され、補正量を周波数帯域(3)に対応するサブバンド画像に乗算する事で周波数帯域(3)に対応する補正サブバンド画像を生成してアップサンプリング部1364へ出力する。   The multiplication processing unit 1361 includes a subband image corresponding to the frequency band (3) of FIG. 14A or 14B output from the texture extraction unit 320 and the frequency band output from the texture correction amount calculation unit 340. The correction amount of the subband image corresponding to (3) is input, and the correction subband image corresponding to the frequency band (3) is generated by multiplying the correction amount by the subband image corresponding to the frequency band (3). Output to the upsampling unit 1364.

乗算処理部1362はテクスチャ抽出部320から出力される図14(A)或いは図14(B)の周波数帯域(2)に対応するサブバンド画像と、テクスチャ補正量算出部340から出力される周波数帯域(2)に対応するサブバンド画像の補正量が入力され、補正量を周波数帯域(2)に対応するサブバンド画像に乗算する事で周波数帯域(2)に対応する補正サブバンド画像を生成して加算処理部1365へ出力する。   The multiplication processing unit 1362 includes a subband image corresponding to the frequency band (2) output from the texture extraction unit 320 and the frequency band output from the texture correction amount calculation unit 340. The correction amount of the subband image corresponding to (2) is input, and a correction subband image corresponding to the frequency band (2) is generated by multiplying the correction amount by the subband image corresponding to the frequency band (2). To the addition processing unit 1365.

乗算処理部1363はテクスチャ抽出部320から出力される図14(A)或いは図14(B)の周波数帯域(1)に対応するサブバンド画像と、テクスチャ補正量算出部340から出力される周波数帯域(1)に対応するサブバンド画像の補正量が入力され、補正量を周波数帯域(1)に対応するサブバンド画像に乗算する事で周波数帯域(1)に対応する補正サブバンド画像を生成して加算処理部1367へ出力する。   The multiplication processing unit 1363 includes a subband image corresponding to the frequency band (1) of FIG. 14A or 14B output from the texture extraction unit 320, and a frequency band output from the texture correction amount calculation unit 340. The correction amount of the subband image corresponding to (1) is input, and the correction subband image corresponding to the frequency band (1) is generated by multiplying the correction amount by the subband image corresponding to the frequency band (1). To the addition processing unit 1367.

アップサンプリング部1364には乗算処理部1361から出力される周波数帯域(3)に対応する補正サブバンド画像と処理パラメータ制御部1368から出力される周波数帯域(3)の縮小率が入力され、縮小率の逆数となる倍率で、周波数帯域(3)に対応する補正サブバンド画像を拡大した周波数帯域(3)に対応する拡大補正サブバンド画像を生成し、加算処理部1365へ出力する。   The upsampling unit 1364 receives the correction subband image corresponding to the frequency band (3) output from the multiplication processing unit 1361 and the reduction rate of the frequency band (3) output from the processing parameter control unit 1368, and the reduction rate. Then, an enlarged corrected subband image corresponding to the frequency band (3) obtained by enlarging the corrected subband image corresponding to the frequency band (3) is generated at a magnification that is the reciprocal of the frequency band (3), and is output to the addition processing unit 1365.

加算処理部1365にはアップサンプリング部1364で拡大された周波数帯域(3)に対応する拡大補正サブバンド画像と、乗算処理部1362から出力される周波数帯域(2)に対応する補正サブバンド画像が入力され、2つのサブバンド画像を加算することで周波数帯域((3)+(2))に対応する補正サブバンド画像を生成してアップサンプリング部1366へ出力する。   The addition processing unit 1365 has an enlarged corrected subband image corresponding to the frequency band (3) expanded by the upsampling unit 1364 and a corrected subband image corresponding to the frequency band (2) output from the multiplication processing unit 1362. The corrected subband image corresponding to the frequency band ((3) + (2)) is generated by inputting the two subband images and output to the upsampling unit 1366.

アップサンプリング部1366には加算処理部1365から出力される周波数帯域((3)+(2))に対応する補正サブバンド画像と処理パラメータ制御部1368から出力される周波数帯域(2)の縮小率が入力され、周波数帯域(2)の縮小率の逆数となる倍率で、周波数帯域((3)+(2))に対応する補正サブバンド画像を拡大した周波数帯域((3)+(2))に対応する拡大補正サブバンド画像を生成し、加算処理部1367へ出力する。   The upsampling unit 1366 includes a correction subband image corresponding to the frequency band ((3) + (2)) output from the addition processing unit 1365 and a reduction rate of the frequency band (2) output from the processing parameter control unit 1368. Is input, and the frequency band ((3) + (2)) obtained by enlarging the corrected subband image corresponding to the frequency band ((3) + (2)) at a magnification that is the reciprocal of the reduction ratio of the frequency band (2). ) Is generated and output to the addition processing unit 1367.

加算処理部1367にはアップサンプリング部1366で拡大された周波数帯域((3)+(2))に対応する拡大補正サブバンド画像と、乗算処理部1363から出力される周波数帯域(1)に対応する補正サブバンド画像が入力され、2つのサブバンド画像を加算することで周波数帯域((3)+(2)+(1))に対応する補正サブバンド画像を生成して合成部370へ出力する。   The addition processing unit 1367 corresponds to the enlarged corrected subband image corresponding to the frequency band ((3) + (2)) expanded by the upsampling unit 1366 and the frequency band (1) output from the multiplication processing unit 1363. The corrected subband image to be input is input, and the two subband images are added to generate a corrected subband image corresponding to the frequency band ((3) + (2) + (1)) and output to the combining unit 370. To do.

合成部370以降の処理は第1実施の形態と同一である。   The processing after the combining unit 370 is the same as that in the first embodiment.

3.4 オートフォーカス処理の詳細
続いて合焦位置算出部303について図17に基づき詳述する。合焦位置算出部303は領域抽出部1371、1375、1379と、平均振幅算出部1372、1376、1380と平均振幅記憶部1373、1377、1381と、合焦位置算出部1374、1378、1382と、合焦位置判定部1384と、合焦位置算出制御部1383とから構成される。
3.4 Details of Autofocus Processing Next, the in-focus position calculation unit 303 will be described in detail with reference to FIG. The focus position calculation unit 303 includes area extraction units 1371, 1375, 1379, average amplitude calculation units 1372, 1376, 1380, average amplitude storage units 1373, 1377, 1381, focus position calculation units 1374, 1378, 1382, The focus position determination unit 1384 and the focus position calculation control unit 1383 are configured.

合焦位置算出部303はコントラスト法を用いる事を前提としており、コントラスト検出する為の検出領域を設定する必要がある。この領域に関しては例えば外部I/F部500からユーザー指定された合焦位置情報(例えば予め設定されている複数矩形領域から1つ選択した領域の識別番号)が制御部302に入力され、制御部302にてコントラスト検出領域情報(時系列表示画像内の矩形領域を示す座標)に変換されるものとする。   The in-focus position calculation unit 303 is premised on using the contrast method, and it is necessary to set a detection region for detecting the contrast. For this area, for example, focus position information designated by the user from the external I / F unit 500 (for example, an identification number of an area selected from a plurality of preset rectangular areas) is input to the control unit 302. In 302, it is assumed that the information is converted into contrast detection area information (coordinates indicating a rectangular area in the time-series display image).

続いて各構成部間のデータの流れを説明する。制御部302から出力されるコントラスト検出領域情報と倍率情報、焦点位置制御部206に設定されている現在の焦点位置が合焦位置算出制御部1383に入力される。合焦位置算出制御部1383はコントラスト検出領域情報と倍率情報に基づき、テクスチャ抽出部320から出力される3つのサブバンド画像に対応するコントラスト検出領域座標を算出し、算出されたコントラスト検出領域座標が領域抽出部1371、1375、1379にそれぞれ出力される。また現在の焦点位置は平均振幅記憶部1373、1377、1381へ出力される。ここでコントラスト検出領域座標は、周波数帯域(1)に関しては制御部302からの座標をそのまま使い、周波数帯域(2)は周波数帯域(1)に対して処理パラメータ制御部1368から出力される周波数帯域(2)の縮小率だけ縮小した座標を算出し、周波数帯域(3)は周波数帯域(2)に対して処理パラメータ制御部1368から出力される周波数帯域(3)の縮小率だけ縮小した座標を算出する。   Next, the data flow between the components will be described. The contrast detection area information and magnification information output from the control unit 302 and the current focus position set in the focus position control unit 206 are input to the focus position calculation control unit 1383. The focus position calculation control unit 1383 calculates the contrast detection region coordinates corresponding to the three subband images output from the texture extraction unit 320 based on the contrast detection region information and the magnification information, and the calculated contrast detection region coordinates are The data are output to the area extraction units 1371, 1375, and 1379, respectively. The current focal position is output to the average amplitude storage units 1373, 1377, and 1381. Here, the contrast detection area coordinates are the coordinates from the control unit 302 as they are for the frequency band (1), and the frequency band (2) is the frequency band output from the processing parameter control unit 1368 for the frequency band (1). The coordinates reduced by the reduction ratio of (2) are calculated, and the frequency band (3) is the coordinates reduced by the reduction ratio of the frequency band (3) output from the processing parameter control unit 1368 with respect to the frequency band (2). calculate.

領域抽出部1371、1375、1379はテクスチャ抽出部320から出力されるそれぞれ3つのサブバンド画像に対して合焦位置算出制御部1383から出力されるコントラスト検出領域座標に基づきコントラスト検出領域を抽出し、平均振幅算出部1372、1376、1380にそれぞれ出力する。   The region extraction units 1371, 1375, and 1379 extract contrast detection regions based on the contrast detection region coordinates output from the in-focus position calculation control unit 1383 for each of the three subband images output from the texture extraction unit 320, It outputs to average amplitude calculation parts 1372, 1376, and 1380, respectively.

平均振幅算出部1372、1376、1380は領域抽出部1371、1375、1379から出力される各サブバンド画像から抽出されたコントラスト検出領域内の画素値の絶対値の平均値を平均振幅値として算出し、平均振幅記憶部1373、1377、1381へそれぞれ出力する。   The average amplitude calculation units 1372, 1376, and 1380 calculate the average value of the absolute values of the pixel values in the contrast detection region extracted from the subband images output from the region extraction units 1371, 1375, and 1379 as the average amplitude value. And output to the average amplitude storage units 1373, 1377, and 1381, respectively.

平均振幅記憶部1373、1377、1381には時系列的に算出された平均振幅値と対応する焦点位置がそれぞれ少なくとも9つ分、リングバッファの形式で記録されており、平均振幅算出部1372、1376、1380から出力される平均振幅値と、合焦位置算出制御部1383から出力される焦点位置が常に最新の平均振幅値と焦点位置して記憶される。   In the average amplitude storage units 1373, 1377, and 1381, at least nine focal positions corresponding to the average amplitude values calculated in time series are recorded in the form of a ring buffer, and the average amplitude calculation units 1372, 1376 are recorded. , 1380 and the focus position output from the in-focus position calculation control unit 1383 are always stored as the latest average amplitude value and the focus position.

合焦位置算出部1374、1378、1382は9つの平均振幅値から最新の平均振幅値を含めて2つおきに3つの平均振幅値とそれに対応する焦点位置を平均振幅記憶部1373、1377、1381の各リングバッファから読み出し、ラグランジュ補間等により最大振幅値となる合焦位置をそれぞれ算出する。算出した3つの合焦位置は、対応する最大振幅値と共に合焦位置判定部1384へ出力される。   The in-focus position calculation units 1374, 1378, and 1382 include the average amplitude storage units 1373, 1377, and 1381 for every three average amplitude values including the latest average amplitude value from nine average amplitude values and the corresponding focal position. Are read from each ring buffer, and the in-focus position at which the maximum amplitude value is obtained is calculated by Lagrange interpolation or the like. The calculated three in-focus positions are output to the in-focus position determination unit 1384 together with the corresponding maximum amplitude value.

合焦位置判定部1384には、合焦位置算出部1374、1378、1382から出力される3つのサブバンド画像に対応する3つの合焦位置と算出された3つの最大振幅値が入力される。合焦位置判定部1384は入力される3つの最大振幅値の中で最大となる振幅値を選択し、選択された振幅値に対応する合焦位置を真の合焦位置として合焦位置算出制御部1383へ出力する。またよりノイズの影響を減らす合焦位置の決定方法としては、3つの合焦位置に対して対応する最大振幅値を重みとした加重平均を算出し、真の合焦位置としても良い。   The in-focus position determination unit 1384 receives three in-focus positions corresponding to the three subband images output from the in-focus position calculation units 1374, 1378, and 1382 and the three calculated maximum amplitude values. The focus position determination unit 1384 selects the maximum amplitude value among the three input maximum amplitude values, and controls the focus position calculation control with the focus position corresponding to the selected amplitude value as the true focus position. Output to the unit 1383. As a method for determining the in-focus position that further reduces the influence of noise, a weighted average with weights corresponding to the maximum amplitude values corresponding to the three in-focus positions may be calculated to obtain a true in-focus position.

合焦位置算出制御部1383は合焦位置判定部1384から出力される合焦位置が入力された時点で制御部302へ出力する。   The focus position calculation control unit 1383 outputs the focus position output from the focus position determination unit 1384 to the control unit 302 when the focus position is input.

これを受けて制御部302は焦点位置制御部206に合焦位置を出力し、焦点位置調整レンズ207を合焦位置に動かす事で合焦制御を行う。   In response to this, the control unit 302 outputs a focus position to the focus position control unit 206, and performs focus control by moving the focus position adjustment lens 207 to the focus position.

以上のように第2の実施形態によれば、フレームレートが低い内視鏡装置の拡大観察時のオートフォーカス処理を観察対象に対応して抽出するテクスチャに基づくコントラスト値で制御できるので合焦精度が向上すると共に、オートフォーカス起因のZ方向のオブリングにより発生するボケ量の時間変動を抑制する事が可能となるので、ユーザーは病変部の精査をストレス無く短時間に行なうことができ、患者の負担も軽減することができる。   As described above, according to the second embodiment, since the autofocus process at the time of magnifying observation of the endoscope apparatus having a low frame rate can be controlled by the contrast value based on the texture extracted corresponding to the observation target, the focusing accuracy can be controlled. As a result, it is possible to suppress the time fluctuation of the amount of blurring caused by the obstruction in the Z direction due to autofocus, so that the user can perform a detailed examination of the lesion in a short time without stress. Can also reduce the burden.

以上の本実施形態では、所定周波数帯域画像抽出部は、サブバンド画像を複数生成する周波数帯域分離部と、複数のサブバンド画像から1又は複数のサブバンド画像を選択して所定周波数帯域画像を生成するサブバンド選択部とを含む。   In the present embodiment described above, the predetermined frequency band image extraction unit selects a predetermined frequency band image by selecting a frequency band separation unit that generates a plurality of subband images, and one or a plurality of subband images from the plurality of subband images. A subband selection unit to be generated.

ここで、サブバンド画像とは、倍率情報に基づき決定される複数の所定周波数帯域に、撮像画像を分離した画像のことである。図14(A)、図14(B)の例では、(1)〜(4)がそれぞれサブバンド画像となる。また、周波数帯域分離部は、図12のテクスチャ抽出部320に相当し、サブバンド選択部は、図12のテクスチャ補正量算出部340等に相当する。   Here, the sub-band image is an image obtained by separating a captured image into a plurality of predetermined frequency bands determined based on magnification information. In the examples of FIGS. 14A and 14B, (1) to (4) are subband images, respectively. Further, the frequency band separation unit corresponds to the texture extraction unit 320 in FIG. 12, and the subband selection unit corresponds to the texture correction amount calculation unit 340 and the like in FIG.

これにより、サブバンド画像に基づいて所定周波数帯域画像を抽出することが可能になる。具体的には、撮像画像を複数のサブバンド画像に分割し、分割したサブバンド画像の中から適切なサブバンド画像を選んで所定周波数帯域画像を生成する。その際、図14(A)、図14(B)のように光学系の撮像倍率に応じてサブバンド画像の幅を変えることで、倍率に応じた制御(第1の実施形態においては図19の制御に相当)が可能になる。   This makes it possible to extract a predetermined frequency band image based on the subband image. Specifically, the captured image is divided into a plurality of subband images, and an appropriate subband image is selected from the divided subband images to generate a predetermined frequency band image. At that time, as shown in FIGS. 14A and 14B, the width of the subband image is changed in accordance with the imaging magnification of the optical system, so that the control according to the magnification (in the first embodiment, FIG. Equivalent to control).

また、補正量乗算部は、所定周波数帯域画像振幅算出部で算出された各サブバンド画像に対応する振幅値と、光学系の倍率情報に基づいて、各サブバンド画像に対応する補正量を算出し、算出した補正量を各サブバンド画像に乗算するサブバンド画像補正量乗算部を含む。   The correction amount multiplication unit calculates a correction amount corresponding to each subband image based on the amplitude value corresponding to each subband image calculated by the predetermined frequency band image amplitude calculation unit and the magnification information of the optical system. And a subband image correction amount multiplication unit for multiplying each subband image by the calculated correction amount.

ここで、サブバンド画像補正量乗算部は、図16における1361〜1363の乗算処理部に相当する。   Here, the subband image correction amount multiplication unit corresponds to the multiplication processing units 1361 to 1363 in FIG.

これにより、各サブバンド画像に対して補正量を乗算することで、所定周波数帯域画像の補正を行うことが可能になる。具体的には第1の実施形態と同様に、補正の対象となる画像の振幅値を基準振幅値と同じ値にするような補正が行われる。なお、本実施形態では、時間的に変動する急峻なエッジ部の除去処理による輝点領域の除去処理を、サブバンド画像に分割する前に挿入することで、振幅に応じた制御に対応できる。ここで、時間的に変動する急峻なエッジ部の除去処理とは、例えば単純なものとしては、輝度レベルを画像平均値に基づき設定した閾値にもとづいて判定する処理と、その判定領域の削除処理(具体的には例えばモルフォロジー処理等)である。また、本実施形態においては、複数のサブバンド画像を選択した上で、選択したサブバンド画像に対してのみ補正量を乗算してもよいし、複数のサブバンド画像全てに対して補正量を乗算し、不要なサブバンド画像に対しては0を乗算するようにしてもよい。図13や図16のブロック図では後者の構成となっている。   As a result, the predetermined frequency band image can be corrected by multiplying each subband image by the correction amount. Specifically, as in the first embodiment, correction is performed so that the amplitude value of the image to be corrected is the same value as the reference amplitude value. In the present embodiment, the bright spot region removing process by removing the sharp edge portion that varies with time is inserted before the sub-band image is divided, so that the control according to the amplitude can be handled. Here, the removal processing of the steep edge portion that fluctuates with time is, for example, as simple processing that determines the luminance level based on a threshold set based on the average image value, and processing for deleting the determination region (Specifically, for example, morphological treatment). In the present embodiment, after selecting a plurality of subband images, the correction amount may be multiplied only for the selected subband images, or the correction amounts may be applied to all the plurality of subband images. Multiplication may be performed and 0 may be multiplied for unnecessary subband images. The latter configuration is used in the block diagrams of FIGS.

また、内視鏡装置の光学系は、フォーカス位置を制御するフォーカス位置制御部と、撮像画像のボケ量に基づいてターゲットフォーカス位置を算出するターゲットフォーカス位置算出部を含む。そして、フォーカス位置制御部は、ターゲットフォーカス位置算出部で算出されたターゲットフォーカス位置に基づいてフォーカス位置を制御する。   The optical system of the endoscope apparatus includes a focus position control unit that controls the focus position, and a target focus position calculation unit that calculates the target focus position based on the amount of blur of the captured image. The focus position control unit controls the focus position based on the target focus position calculated by the target focus position calculation unit.

ここで、撮像画像のボケ量情報とは、複数のフォーカス位置における複数の撮像画像に対して、ボケ量情報抽出部で算出されるものである。また、フォーカス位置制御部は、図12における焦点位置制御部206に相当し、ターゲットフォーカス位置算出部は、図12における合焦位置算出部303に相当する。   Here, the blur amount information of the captured image is calculated by a blur amount information extraction unit for a plurality of captured images at a plurality of focus positions. Further, the focus position control unit corresponds to the focus position control unit 206 in FIG. 12, and the target focus position calculation unit corresponds to the in-focus position calculation unit 303 in FIG.

これにより、オートフォーカス処理が可能になる。ただし、図11に示したように、複数のフォーカス位置にレンズを駆動させた上で合焦位置を求めるコントラスト法に基づくオートフォーカスを前提としているため、被写界深度範囲から外れてしまうタイミングもある。そのため、画像処理によるボケ回復処理が不要になるということではない。むしろ、短い時間の中で合焦状態とボケた状態とが現れるため、本実施形態のようにフレームレートが低い場合であれば、ユーザーに対して違和感のない画像を提供するためには画像処理的なボケ回復処理は重要である。   Thereby, an autofocus process can be performed. However, as shown in FIG. 11, since autofocus based on the contrast method for obtaining the in-focus position after driving the lens to a plurality of focus positions is premised, timing out of the depth of field range may also occur. is there. Therefore, it does not mean that blur recovery processing by image processing is unnecessary. Rather, since the in-focus state and the out-of-focus state appear in a short time, if the frame rate is low as in the present embodiment, image processing is performed in order to provide a user with an uncomfortable image. An effective blur recovery process is important.

また、ボケ量補正部は、フォーカス位置制御部で合焦していると判定したフォーカス位置において取得した撮像画像を合焦撮像画像であると判定する。そして、合焦撮像画像のボケ量情報に基づいて補正を行う。   The blur amount correction unit determines that the captured image acquired at the focus position determined to be in focus by the focus position control unit is the focused image. Then, correction is performed based on the blur amount information of the in-focus captured image.

これにより、補正量算出のための基準となる合焦撮像画像として、オートフォーカスにおいて合焦していると判定されたフォーカス位置で取得した画像を用いることが可能になる。よって、第1の実施形態と同様の、基準振幅値の更新処理の他に、オートフォーカスによる基準振幅値の更新処理も行われることになるため、精度よく基準振幅値を更新することが可能になる。   As a result, it is possible to use an image acquired at a focus position determined to be in focus in autofocus as a focused captured image serving as a reference for calculating the correction amount. Therefore, in addition to the reference amplitude value update processing similar to the first embodiment, the reference amplitude value update processing by autofocus is also performed, so that the reference amplitude value can be updated with high accuracy. Become.

以上、本発明を適用した2つの実施の形態1〜2およびその変形例について説明したが、本発明は、各実施の形態1〜2やその変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上記した各実施の形態1〜2や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、各実施の形態1〜2や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態や変形例で説明した構成要素を適宜組み合わせてもよい。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能である。   As described above, the two embodiments 1 and 2 to which the present invention is applied and the modified examples thereof have been described. However, the present invention is not limited to the embodiments 1 and 2 and the modified examples as they are. The constituent elements can be modified and embodied without departing from the spirit of the invention. Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described first and second embodiments and modifications. For example, you may delete a some component from all the components described in each Embodiment 1-2 or the modification. Furthermore, you may combine suitably the component demonstrated in different embodiment and modification. Thus, various modifications and applications are possible without departing from the spirit of the invention.

100 光源部、101 白色光源、102 回転色フィルタ、103 回転駆動部、
104 集光レンズ、200 撮像部、201 ライトガイドファイバ、
202 照明レンズ、203 対物レンズ、206 焦点位置制御部、
207 焦点位置調整レンズ、209 撮像素子、210 A/D変換部、
300 プロセッサ部、301 画像処理部、302 制御部、
303 合焦位置算出部、310 画像構成処理部、320 テクスチャ抽出部、
321 領域抽出部、322 フィルタ係数算出部、323 フィルタ処理部、
324 ノイズ量推定部、325 減算処理部、326 領域抽出部、
327 フィルタ係数算出部、328 フィルタ処理部、
329 フィルタパラメータ制御部、340 テクスチャ補正量算出部、
341 振幅算出部、342 基準振幅更新判定部、343 基準振幅記憶部、
344 補正量算出部、345 補正量制御部、360 テクスチャ補正部、
370 合成部、400 表示部、500 外部I/F部、
601 色フィルタ、602 色フィルタ、603 色フィルタ、604 回転モータ、
1321 ローパス処理部、1322 ダウンサンプリング部、1323 減算処理部、
1324 ノイズ量推定部、1325 コアリング部、
1335 処理パラメータ制御部、1341 振幅算出部、
1342 基準振幅更新判定部、1343 基準振幅記憶部、1344 補正量算出部、
1353 補正量制御部、1361 乗算処理部、1362 乗算処理部、
1363 乗算処理部、1364 アップサンプリング部、1365 加算処理部、
1366 アップサンプリング部、1367 加算処理部、
1368 処理パラメータ制御部、1371 領域抽出部、1372 平均振幅算出部、
1373 平均振幅記憶部、1374 合焦位置算出部、
1383 合焦位置算出制御部、1384 合焦位置判定部
DESCRIPTION OF SYMBOLS 100 Light source part, 101 White light source, 102 Rotation color filter, 103 Rotation drive part,
104 condensing lens, 200 imaging unit, 201 light guide fiber,
202 illumination lens, 203 objective lens, 206 focal position control unit,
207 focal position adjustment lens, 209 imaging device, 210 A / D conversion unit,
300 processor unit, 301 image processing unit, 302 control unit,
303 in-focus position calculation unit, 310 image configuration processing unit, 320 texture extraction unit,
321 region extraction unit, 322 filter coefficient calculation unit, 323 filter processing unit,
324 noise amount estimation unit, 325 subtraction processing unit, 326 region extraction unit,
327 filter coefficient calculation unit, 328 filter processing unit,
329 filter parameter control unit, 340 texture correction amount calculation unit,
341 amplitude calculation unit, 342 reference amplitude update determination unit, 343 reference amplitude storage unit,
344 correction amount calculation unit, 345 correction amount control unit, 360 texture correction unit,
370 synthesis unit, 400 display unit, 500 external I / F unit,
601 color filter, 602 color filter, 603 color filter, 604 rotary motor,
1321 Low-pass processing unit, 1322 down-sampling unit, 1323 subtraction processing unit,
1324 Noise amount estimation unit, 1325 coring unit,
1335 processing parameter control unit, 1341 amplitude calculation unit,
1342 reference amplitude update determination unit, 1343 reference amplitude storage unit, 1344 correction amount calculation unit,
1353 Correction amount control unit, 1361 multiplication processing unit, 1362 multiplication processing unit,
1363 multiplication processing unit, 1364 upsampling unit, 1365 addition processing unit,
1366 Upsampling unit, 1367 addition processing unit,
1368 processing parameter control unit, 1371 region extraction unit, 1372 average amplitude calculation unit,
1373 average amplitude storage unit, 1374 in-focus position calculation unit,
1383 In-focus position calculation control unit, 1384 In-focus position determination unit

Claims (28)

通常観察状態に比べて光学系の拡大倍率が高倍率である拡大観察状態における撮像画像を時系列的に取得する画像取得部と、
前記拡大観察状態における前記撮像画像からボケ量情報を抽出するボケ量情報抽出部と、
抽出した前記ボケ量情報に基づいて前記撮像画像を補正するボケ量補正部と、
を含むことを特徴とする内視鏡装置。
An image acquisition unit for acquiring captured images in a time-series manner in an enlarged observation state in which the magnification of the optical system is high compared to the normal observation state;
A blur amount information extraction unit that extracts blur amount information from the captured image in the magnified observation state;
A blur amount correction unit that corrects the captured image based on the extracted blur amount information;
An endoscopic device comprising:
請求項1において、
前記ボケ量情報抽出部は、
前記撮像画像から所定周波数帯域成分の画像である所定周波数帯域画像を抽出する所定周波数帯域画像抽出部を含むことを特徴とする内視鏡装置。
In claim 1,
The blur amount information extraction unit
An endoscope apparatus comprising: a predetermined frequency band image extracting unit that extracts a predetermined frequency band image that is an image of a predetermined frequency band component from the captured image.
請求項2において、
前記所定周波数帯域画像抽出部は、
前記撮像画像の振幅値を算出する撮像画像振幅算出部を含むことを特徴とする内視鏡装置。
In claim 2,
The predetermined frequency band image extraction unit includes:
An endoscope apparatus comprising: a captured image amplitude calculation unit that calculates an amplitude value of the captured image.
請求項3において、
前記所定周波数帯域画像抽出部は、
前記撮像画像振幅算出部により算出された振幅値が、第1の振幅範囲にある場合には、前記所定周波数帯域画像の抽出を行わず、
前記撮像画像振幅算出部により算出された振幅値が、前記第1の振幅範囲における振幅値よりも小さい振幅値に対応する範囲である第2の振幅範囲にある場合には、前記所定周波数帯域画像の抽出を行うことを特徴とする内視鏡装置。
In claim 3,
The predetermined frequency band image extraction unit includes:
When the amplitude value calculated by the captured image amplitude calculation unit is in the first amplitude range, the predetermined frequency band image is not extracted,
When the amplitude value calculated by the captured image amplitude calculation unit is in a second amplitude range that corresponds to an amplitude value smaller than the amplitude value in the first amplitude range, the predetermined frequency band image An endoscope apparatus characterized by performing extraction.
請求項4において、
前記所定周波数帯域画像抽出部は、
前記撮像画像振幅算出部により算出された振幅値が、前記第2の振幅範囲における振幅値よりも小さい振幅値に対応する範囲である第3の振幅範囲にある場合には、前記所定周波数帯域画像の抽出を行わないことを特徴とする内視鏡装置。
In claim 4,
The predetermined frequency band image extraction unit includes:
When the amplitude value calculated by the captured image amplitude calculation unit is in a third amplitude range that corresponds to an amplitude value smaller than the amplitude value in the second amplitude range, the predetermined frequency band image An endoscope apparatus characterized by not performing extraction.
請求項4において、
前記所定周波数帯域画像は、
前記撮像画像振幅算出部により算出された振幅値が前記第2の振幅範囲にあり、
前記周波数成分が、第2の周波数範囲における周波数よりも高い周波数に対応する範囲である第1の周波数範囲にある画像であることを特徴とする内視鏡装置。
In claim 4,
The predetermined frequency band image is:
The amplitude value calculated by the captured image amplitude calculation unit is in the second amplitude range,
An endoscope apparatus, wherein the frequency component is an image in a first frequency range that is a range corresponding to a frequency higher than a frequency in the second frequency range.
請求項5において、
前記撮像画像振幅算出部により算出された振幅値が、前記第2の振幅範囲である前記所定周波数帯域画像は、
生体表面の粘膜表面及び血管に対応する画像であることを特徴とする内視鏡装置。
In claim 5,
The predetermined frequency band image in which the amplitude value calculated by the captured image amplitude calculation unit is the second amplitude range,
An endoscope apparatus characterized by being an image corresponding to a mucosal surface and a blood vessel on a living body surface.
請求項5において、
前記撮像画像振幅算出部により算出された振幅値が、前記第1の振幅範囲である画像は、
生体表面のヒダに対応する画像であり、
前記撮像画像振幅算出部により算出された振幅値が、前記第3の振幅範囲である画像は、
ノイズに対応する画像であることを特徴とする内視鏡装置。
In claim 5,
An image whose amplitude value calculated by the captured image amplitude calculation unit is the first amplitude range is:
It is an image corresponding to folds on the surface of a living body
An image in which the amplitude value calculated by the captured image amplitude calculation unit is the third amplitude range is:
An endoscope apparatus characterized by being an image corresponding to noise.
請求項2において、
前記所定周波数帯域画像抽出部は、
前記内視鏡装置の前記光学系の倍率情報に基づいて、所定周波数帯域画像の抽出条件を制御する抽出条件制御部を含むことを特徴とする内視鏡装置。
In claim 2,
The predetermined frequency band image extraction unit includes:
An endoscope apparatus comprising: an extraction condition control unit that controls an extraction condition of a predetermined frequency band image based on magnification information of the optical system of the endoscope apparatus.
請求項9において、
第1の周波数範囲における周波数は、第2の周波数範囲における周波数に比べて高い周波数であり、
前記第1の周波数範囲は、第1の周波数閾値よりも大きく、第2の周波数閾値よりも小さい範囲であり、
前記所定周波数帯域画像が、周波数成分が第1の周波数範囲にある画像である場合に、
前記所定周波数帯域画像抽出部は、
前記内視鏡装置の前記光学系の倍率情報により表される倍率が大きくなるほど、前記第1の周波数閾値及び前記第2の周波数閾値を大きくすることを特徴とする内視鏡装置。
In claim 9,
The frequency in the first frequency range is higher than the frequency in the second frequency range,
The first frequency range is a range that is larger than the first frequency threshold and smaller than the second frequency threshold;
When the predetermined frequency band image is an image whose frequency component is in the first frequency range,
The predetermined frequency band image extraction unit includes:
The endoscope apparatus, wherein the first frequency threshold and the second frequency threshold are increased as the magnification represented by the magnification information of the optical system of the endoscope apparatus increases.
請求項9において、
前記所定周波数帯域画像抽出部は、
前記倍率情報に基づき決定される複数の所定周波数帯域に、前記撮像画像を分離した画像である複数のサブバンド画像を生成する周波数帯域分離部と、
前記複数のサブバンド画像から1又は複数のサブバンド画像を選択して前記所定周波数帯域画像を生成するサブバンド選択部と、
を含むことを特徴とする内視鏡装置。
In claim 9,
The predetermined frequency band image extraction unit includes:
A frequency band separation unit that generates a plurality of subband images that are images obtained by separating the captured image into a plurality of predetermined frequency bands determined based on the magnification information;
A subband selection unit that selects one or a plurality of subband images from the plurality of subband images and generates the predetermined frequency band image;
An endoscopic device comprising:
請求項9において、
前記所定周波数帯域画像抽出部は、
第1のフィルタ処理部と、
減算処理部と、
ノイズ量推定部と、
第2のフィルタ処理部と、
を含み、
前記減算処理部は、
前記第1のフィルタ処理部による第1のフィルタ処理により取得された画像と、前記撮像画像との差分をとることで、構造画像を生成し、
前記ノイズ量推定部は、
前記構造画像に含まれているノイズ量を、前記抽出条件に基づいて推定し、
前記第2のフィルタ処理部は、
前記ノイズ量推定部により推定されたノイズ量に基づいて、前記構造画像からノイズを分離し、前記所定周波数帯域画像を取得することを特徴とする内視鏡装置。
In claim 9,
The predetermined frequency band image extraction unit includes:
A first filter processing unit;
A subtraction processing unit;
A noise estimation unit;
A second filter processing unit;
Including
The subtraction processing unit
A structure image is generated by taking the difference between the image acquired by the first filter processing by the first filter processing unit and the captured image,
The noise amount estimation unit
Estimating the amount of noise contained in the structure image based on the extraction condition,
The second filter processing unit includes:
An endoscope apparatus, wherein noise is separated from the structure image based on a noise amount estimated by the noise amount estimation unit, and the predetermined frequency band image is acquired.
請求項12において、
前記ボケ量情報抽出部は、
前記撮像画像の振幅値を算出する撮像画像振幅算出部を含み、
前記第1のフィルタ処理部は、
第1の振幅範囲の画像に対しては、前記第1の周波数範囲及び前記第2の周波数範囲に対応する周波数成分を透過するローパスフィルタ処理を行い、
第2の振幅範囲の画像に対しては、前記第2の周波数範囲に対応する周波数成分を透過し、前記第1の周波数範囲に対応する周波数成分をカットするローパスフィルタ処理を行うことを特徴とする内視鏡装置。
In claim 12,
The blur amount information extraction unit
A captured image amplitude calculation unit that calculates an amplitude value of the captured image;
The first filter processing unit includes:
For an image in the first amplitude range, a low-pass filter process that transmits frequency components corresponding to the first frequency range and the second frequency range is performed,
The image of the second amplitude range is subjected to low-pass filter processing that transmits a frequency component corresponding to the second frequency range and cuts the frequency component corresponding to the first frequency range. Endoscope device.
請求項12において、
前記第1のフィルタ処理部は、
前記撮像画像から注目画素の周辺の所定領域を抽出する領域抽出部と、
前記所定領域内の注目画素に対する周辺画素との空間距離、及び、画素値間距離を算出するとともに、前記抽出条件に基づき各所定領域の画素に対するフィルタ係数を算出するフィルタ係数算出部と、
前記所定領域と前記フィルタ係数によりフィルタ処理を行うフィルタ処理部と、
を含むことを特徴とする内視鏡装置。
In claim 12,
The first filter processing unit includes:
An area extracting unit that extracts a predetermined area around the target pixel from the captured image;
A filter coefficient calculation unit that calculates a spatial distance between neighboring pixels with respect to a pixel of interest in the predetermined area, and a distance between pixel values, and calculates a filter coefficient for pixels of each predetermined area based on the extraction condition;
A filter processing unit that performs a filter process using the predetermined region and the filter coefficient;
An endoscopic device comprising:
請求項12において、
前記ボケ量情報抽出部は、
前記撮像画像の振幅値を算出する撮像画像振幅算出部を含み、
前記第2のフィルタ処理部は、
第2の振幅範囲の画像に対しては、前記第1の周波数範囲及び前記第2の周波数範囲に対応する周波数成分を透過するローパスフィルタ処理を行い、
第3の振幅範囲の画像に対しては、前記第2の周波数範囲に対応する周波数成分を透過し、前記第1の周波数範囲に対応する周波数成分をカットするローパスフィルタ処理を行うことを特徴とする内視鏡装置。
In claim 12,
The blur amount information extraction unit
A captured image amplitude calculation unit that calculates an amplitude value of the captured image;
The second filter processing unit includes:
For the image of the second amplitude range, low pass filter processing that transmits the frequency components corresponding to the first frequency range and the second frequency range is performed,
The image of the third amplitude range is subjected to a low-pass filter process that transmits a frequency component corresponding to the second frequency range and cuts a frequency component corresponding to the first frequency range. Endoscope device.
請求項12において、
前記第2のフィルタ処理部は、
前記構造画像から注目画素の周辺の所定領域を抽出する領域抽出部と、
前記所定領域内の注目画素に対する周辺画素との空間距離、及び、画素値間距離を算出するとともに、前記ノイズ量に基づき各所定領域の画素に対するフィルタ係数を算出するフィルタ係数算出部と、
前記抽出領域と前記フィルタ係数によりフィルタ処理する事で前記注目画素からノイズを分離するノイズ分離部と、
を含むことを特徴とする内視鏡装置。
In claim 12,
The second filter processing unit includes:
A region extracting unit that extracts a predetermined region around the target pixel from the structure image;
A filter coefficient calculation unit that calculates a spatial distance between neighboring pixels with respect to a pixel of interest in the predetermined area, and a distance between pixel values, and calculates a filter coefficient for pixels of each predetermined area based on the amount of noise;
A noise separation unit that separates noise from the target pixel by filtering with the extraction region and the filter coefficient;
An endoscopic device comprising:
請求項1において、
前記ボケ量補正部は、
時系列に取得された前記撮像画像に対して、合焦状態にあると判定された撮像画像である合焦撮像画像のボケ量に基づいて補正を行うことを特徴とする内視鏡装置。
In claim 1,
The blur amount correction unit
An endoscope apparatus, wherein correction is performed on the captured images acquired in time series based on a blur amount of a focused captured image that is a captured image determined to be in focus.
請求項17において、
前記ボケ量補正部は、
前記所定周波数帯域画像抽出部で抽出された前記所定周波数帯域画像の振幅値を算出する所定周波数帯域画像振幅算出部を含むことを特徴とする内視鏡装置。
In claim 17,
The blur amount correction unit
An endoscope apparatus comprising: a predetermined frequency band image amplitude calculating unit that calculates an amplitude value of the predetermined frequency band image extracted by the predetermined frequency band image extracting unit.
請求項18において、
前記ボケ量補正部は、
前記所定周波数帯域画像振幅算出部により算出された前記所定周波数帯域画像の振幅値に基づいて所定周波数帯域画像を補正する所定周波数帯域画像補正部と、
前記撮像画像と補正した前記所定周波数帯域画像を合成する合成部と、
を含むことを特徴とする内視鏡装置。
In claim 18,
The blur amount correction unit
A predetermined frequency band image correcting unit that corrects the predetermined frequency band image based on the amplitude value of the predetermined frequency band image calculated by the predetermined frequency band image amplitude calculating unit;
A combining unit that combines the captured image and the corrected predetermined frequency band image;
An endoscopic device comprising:
請求項19において、
前記所定周波数帯域画像補正部は、
前記所定周波数帯域画像振幅算出部で時系列的に算出された所定周波数帯域画像の振幅値の中から、合焦状態と判定された振幅値を基準振幅値として選択する基準振幅値選択部と、
前記基準振幅値に基づいて前記所定周波数帯域画像に対する補正量を算出し、乗算する補正量乗算部と、
を含むことを特徴とする内視鏡装置。
In claim 19,
The predetermined frequency band image correction unit,
A reference amplitude value selection unit that selects an amplitude value determined to be in focus as a reference amplitude value from amplitude values of the predetermined frequency band image calculated in time series by the predetermined frequency band image amplitude calculation unit;
A correction amount multiplication unit that calculates and multiplies a correction amount for the predetermined frequency band image based on the reference amplitude value;
An endoscopic device comprising:
請求項20において、
前記所定周波数帯域画像抽出部で抽出される所定周波数帯域画像は、
1又は複数の周波数帯域からなる1又は複数のサブバンド画像であり、
前記補正量乗算部は、
前記所定周波数帯域画像振幅算出部で算出された各サブバンド画像に対応する1又は複数の振幅値と内視鏡装置の前記光学系の倍率情報に基づいて、前記各サブバンド画像に対応する補正量を算出し、前記各サブバンド画像に乗算するサブバンド画像補正量乗算部を含むことを特徴とする内視鏡装置。
In claim 20,
The predetermined frequency band image extracted by the predetermined frequency band image extraction unit is:
One or a plurality of subband images composed of one or a plurality of frequency bands;
The correction amount multiplication unit
Correction corresponding to each subband image based on one or a plurality of amplitude values corresponding to each subband image calculated by the predetermined frequency band image amplitude calculator and magnification information of the optical system of the endoscope apparatus An endoscope apparatus comprising: a subband image correction amount multiplication unit that calculates an amount and multiplies each subband image.
請求項17において、
前記合焦撮像画像は、
内視鏡装置の前記光学系を拡大観察状態に切換えた時点で抽出された撮像画像である事を特徴とする内視鏡装置。
In claim 17,
The focused captured image is
An endoscope apparatus characterized in that it is a captured image extracted at the time when the optical system of the endoscope apparatus is switched to an enlarged observation state.
請求項17において、
前記合焦撮像画像は、
内視鏡装置の前記光学系を拡大観察状態に切換えた時点以降で抽出された撮像画像であり、かつ、前記振幅値が所定期間内で所定条件を満足した撮像画像であることを特徴とする内視鏡装置。
In claim 17,
The focused captured image is
It is a captured image extracted after the time point when the optical system of the endoscope apparatus is switched to a magnified observation state, and the captured image satisfies a predetermined condition within a predetermined period. Endoscopic device.
請求項23において、
前記合焦撮像画像は、
内視鏡装置の前記光学系を拡大観察状態に切換えた時点以降で抽出された撮像画像であり、かつ、前記振幅値が基準振幅判定閾値より大きく、かつ、前記振幅値が極大値である撮像画像であることを特徴とする内視鏡装置。
In claim 23,
The focused captured image is
Imaging images extracted after the time point when the optical system of the endoscope apparatus is switched to the enlarged observation state, the amplitude value is larger than a reference amplitude determination threshold value, and the amplitude value is a maximum value. An endoscope apparatus characterized by being an image.
請求項1において、
フォーカス位置を制御するフォーカス位置制御部と、
前記フォーカス位置制御部により時系列的に移動した複数のフォーカス位置に基づく撮像画像に対して、前記ボケ量情報抽出部で算出したボケ量情報に基づきターゲットフォーカス位置を算出するターゲットフォーカス位置算出部と、
を含み、
前記フォーカス位置制御部は、
前記ターゲットフォーカス位置に基づいて、フォーカス位置を制御することを特徴とする内視鏡装置。
In claim 1,
A focus position control unit for controlling the focus position;
A target focus position calculation unit that calculates a target focus position based on blur amount information calculated by the blur amount information extraction unit for a captured image based on a plurality of focus positions moved in time series by the focus position control unit; ,
Including
The focus position control unit
An endoscope apparatus, wherein a focus position is controlled based on the target focus position.
請求項25において、
前記ボケ量補正部は、
前記フォーカス位置制御部で合焦していると判定したフォーカス位置における撮像画像を前記合焦撮像画像であると判定し、前記合焦撮像画像のボケ量情報に基づいて補正を行うことを特徴とする内視鏡装置。
In claim 25,
The blur amount correction unit
It is determined that a captured image at a focus position determined to be in focus by the focus position control unit is the focused captured image, and correction is performed based on blur amount information of the focused captured image. Endoscope device.
請求項1において、
前記拡大観察状態は、
前記内視鏡装置の光学系の拡大倍率が所定倍率以上となる状態であることを特徴とする内視鏡装置。
In claim 1,
The magnified observation state is
An endoscope apparatus characterized in that an enlargement magnification of an optical system of the endoscope apparatus is a predetermined magnification or more.
通常観察状態に比べて光学系の拡大倍率が高倍率である拡大観察状態における撮像画像を時系列的に取得する画像取得部と、
前記拡大観察状態における前記撮像画像からボケ量情報を抽出するボケ量情報抽出部と、
抽出した前記ボケ量情報に基づいて前記撮像画像を補正するボケ量補正部として、
コンピュータを機能させることを特徴とするプログラム。
An image acquisition unit for acquiring captured images in a time-series manner in an enlarged observation state in which the magnification of the optical system is high compared to the normal observation state;
A blur amount information extraction unit that extracts blur amount information from the captured image in the magnified observation state;
As a blur amount correction unit that corrects the captured image based on the extracted blur amount information,
A program characterized by causing a computer to function.
JP2010287943A 2010-12-24 2010-12-24 Endoscope apparatus and program Active JP5657375B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2010287943A JP5657375B2 (en) 2010-12-24 2010-12-24 Endoscope apparatus and program
CN201180061990.4A CN103269636B (en) 2010-12-24 2011-12-16 Endoscope apparatus and image processing method
PCT/JP2011/079165 WO2012086536A1 (en) 2010-12-24 2011-12-16 Endoscope device and program
EP11850095.8A EP2656778A4 (en) 2010-12-24 2011-12-16 Endoscope device and program
US13/925,197 US9492059B2 (en) 2010-12-24 2013-06-24 Endoscope apparatus, information storage device, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010287943A JP5657375B2 (en) 2010-12-24 2010-12-24 Endoscope apparatus and program

Publications (3)

Publication Number Publication Date
JP2012135345A true JP2012135345A (en) 2012-07-19
JP2012135345A5 JP2012135345A5 (en) 2014-02-06
JP5657375B2 JP5657375B2 (en) 2015-01-21

Family

ID=46313808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010287943A Active JP5657375B2 (en) 2010-12-24 2010-12-24 Endoscope apparatus and program

Country Status (5)

Country Link
US (1) US9492059B2 (en)
EP (1) EP2656778A4 (en)
JP (1) JP5657375B2 (en)
CN (1) CN103269636B (en)
WO (1) WO2012086536A1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014171505A (en) * 2013-03-06 2014-09-22 Fujifilm Corp Image processing device and method for operating endoscope system
JP2015184767A (en) * 2014-03-20 2015-10-22 キヤノン株式会社 Information processor, information processing method, position attitude estimation device and robot system
JP2016067781A (en) * 2014-09-30 2016-05-09 富士フイルム株式会社 Processor device for endoscope, and method for operating processor device for endoscope
JP2017158628A (en) * 2016-03-07 2017-09-14 富士フイルム株式会社 Endoscope system, processor device, and operation method of endoscope system
JP2017158764A (en) * 2016-03-09 2017-09-14 ソニー株式会社 Image processing device, image processing method, and recording medium
WO2018020560A1 (en) * 2016-07-25 2018-02-01 オリンパス株式会社 Image processing device, image processing method, and program
JPWO2019044328A1 (en) * 2017-08-31 2020-10-15 ソニー株式会社 Medical image processing device, medical image processing system, and driving method of medical image processing device

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5657375B2 (en) * 2010-12-24 2015-01-21 オリンパス株式会社 Endoscope apparatus and program
WO2014030390A1 (en) * 2012-08-23 2014-02-27 富士フイルム株式会社 Image processing device, imaging device, computer, image processing method, and program
JP6049518B2 (en) * 2013-03-27 2016-12-21 オリンパス株式会社 Image processing apparatus, endoscope apparatus, program, and operation method of image processing apparatus
JP6109695B2 (en) * 2013-09-27 2017-04-05 富士フイルム株式会社 Endoscope system, processor device, operation method, and distance measuring device
JP6027287B2 (en) * 2014-03-28 2016-11-16 富士フイルム株式会社 Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP2016046747A (en) * 2014-08-26 2016-04-04 富士通テン株式会社 Image processing apparatus, image processing method, and image display system
US11017504B2 (en) * 2016-01-29 2021-05-25 Intuitive Surgical Operations, Inc. Light level adaptive filter and method
EP3437547A4 (en) * 2016-03-31 2019-04-03 Sony Olympus Medical Solutions Inc. Medical observation device, image movement correcting method, and medical observation system
JP6833495B2 (en) * 2016-12-15 2021-02-24 オリンパス株式会社 Endoscope
JP2018143400A (en) * 2017-03-03 2018-09-20 ソニー株式会社 Image processing device, method, and endoscope system
CN110381807B (en) 2017-03-03 2022-01-18 富士胶片株式会社 Endoscope system, processor device, and method for operating endoscope system
CN110678116B (en) * 2017-06-05 2022-11-04 索尼公司 Medical system and control unit
JP6804417B2 (en) * 2017-09-26 2020-12-23 オリンパス株式会社 Measuring device, measuring system, measuring device operating method, and program
US10580121B2 (en) * 2017-11-16 2020-03-03 Axis Ab Image noise reduction based on a modulation transfer function of a camera dome
WO2019130868A1 (en) * 2017-12-25 2019-07-04 富士フイルム株式会社 Image processing device, processor device, endoscope system, image processing method, and program
JP7012549B2 (en) * 2018-02-07 2022-01-28 オリンパス株式会社 Endoscope device, control method of endoscope device, control program of endoscope device, and recording medium
DE112018007258T5 (en) * 2018-04-12 2020-12-10 Mitsubishi Electric Corporation Image processing apparatus, image processing method, and image processing program
WO2021100328A1 (en) * 2019-11-22 2021-05-27 ソニーグループ株式会社 Image processing method, image processing device, and image processing system
CN112967209B (en) * 2021-04-23 2022-08-02 上海埃尔顿医疗器械有限公司 Endoscope image blood vessel texture enhancement method based on multiple sampling

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003140030A (en) * 2001-11-06 2003-05-14 Pentax Corp Autofocusing device for endoscope
JP2005332383A (en) * 2004-04-23 2005-12-02 Fuji Photo Film Co Ltd Image processing method, device and program
JP2010022772A (en) * 2008-07-24 2010-02-04 Olympus Medical Systems Corp Endoscope and system for in-vivo observation

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6501551B1 (en) * 1991-04-29 2002-12-31 Massachusetts Institute Of Technology Fiber optic imaging endoscope interferometer with at least one faraday rotator
US5392067A (en) * 1991-10-17 1995-02-21 Olympus Optical Co., Ltd. TV system for endoscopes
JP3292538B2 (en) 1993-02-23 2002-06-17 富士写真光機株式会社 Color imaging device using solid-state imaging device
DE69625398T2 (en) * 1995-02-24 2003-09-04 Eastman Kodak Co Black pattern correction for a charge transfer sensor
JP3532368B2 (en) 1996-12-10 2004-05-31 富士写真フイルム株式会社 Endoscope
US6603885B1 (en) 1998-04-30 2003-08-05 Fuji Photo Film Co., Ltd. Image processing method and apparatus
JP3998369B2 (en) 1998-09-16 2007-10-24 富士フイルム株式会社 Image processing method and image processing apparatus
AU6417599A (en) * 1998-10-08 2000-04-26 University Of Kentucky Research Foundation, The Methods and apparatus for (in vivo) identification and characterization of vulnerable atherosclerotic plaques
DE19927129C1 (en) * 1999-06-15 2001-01-04 Wolf Gmbh Richard Focusing and focal width adjuster for video camera with zoom lens produces time window which is supplied to focusing circuit and zoom control circuit to provide vertical scanning gap of video signal
US6635011B1 (en) * 2000-01-14 2003-10-21 Pentax Corporation Electronic endoscope system
WO2001082786A2 (en) * 2000-05-03 2001-11-08 Flock Stephen T Optical imaging of subsurface anatomical structures and biomolecules
US7064777B2 (en) * 2000-08-31 2006-06-20 Canon Kabushiki Kaisha Blur correction aparatus, control apparatus to be used in a blur correction apparatus, image taking apparatus, control method to be used in these apparatuses and computer program product to be used with these apparatuses
JP2002209136A (en) * 2001-01-05 2002-07-26 Canon Inc Photographing device
US7217266B2 (en) * 2001-05-30 2007-05-15 Anderson R Rox Apparatus and method for laser treatment with spectroscopic feedback
AU2002324605A1 (en) * 2001-08-03 2003-02-17 Joseph A Izatt Real-time imaging system and method
US6919914B2 (en) * 2001-10-24 2005-07-19 Stryker Corporation Powered optical coupler and endoscopic viewing system using same
US6885801B1 (en) * 2001-12-06 2005-04-26 Clear Image Technology Llc Enhancement of fiber based images
JP4175024B2 (en) 2002-05-22 2008-11-05 ソニー株式会社 Image display device, image processing device, and image processing method
WO2004064619A2 (en) * 2003-01-14 2004-08-05 University Of Virginia Patent Foundation Ultrasound imaging beam-former apparatus and method
EP1627356A4 (en) * 2003-05-16 2006-12-20 Marc Shapiro Data entry system for an endoscopic examination
US6880943B2 (en) * 2003-06-04 2005-04-19 Itt Manufacturing Enterprises, Inc. High resolution image formation from a multiple aperture imaging system
WO2005010799A2 (en) * 2003-07-16 2005-02-03 Shrenik Deliwala Optical encoding and reconstruction
DE50309706D1 (en) * 2003-12-19 2008-06-05 Imaging Solutions Ag Method of processing digital image data from blurred photographs
WO2005062987A2 (en) * 2003-12-24 2005-07-14 The General Hospital Corporation Multi-channel optical imaging
JP4558370B2 (en) 2004-04-23 2010-10-06 ソニー株式会社 Image processing apparatus and method, program, and recording medium
US9131861B2 (en) * 2004-11-30 2015-09-15 Academisch Medisch Centrum Pulsed lighting imaging systems and methods
ATE399501T1 (en) * 2004-12-30 2008-07-15 Given Imaging Ltd SYSTEM FOR LOCALIZING AN IN-VIVO SIGNAL SOURCE
WO2006138504A2 (en) * 2005-06-17 2006-12-28 Mayo Foundation For Medical Education And Research Colonoscopy video processing for quality metrics determination
JP2007193186A (en) * 2006-01-20 2007-08-02 Olympus Corp Method and device for detecting image
WO2007116648A1 (en) * 2006-04-03 2007-10-18 Konica Minolta Medical & Graphic, Inc. Radiation image read device and diagnosis system
JP2008011491A (en) 2006-05-30 2008-01-17 Kyocera Corp Camera system, monitor camera, and imaging method
JP5030507B2 (en) * 2006-08-30 2012-09-19 オリンパスメディカルシステムズ株式会社 Endoscope tip hood and endoscope with hood
BRPI0808578A2 (en) * 2007-04-11 2014-09-09 Forth Photonics Ltd "A SUPPORT STRUCTURE AND WORK STATION INCORPORATED THE SUPPORT STRUCTURE TO PERFECT, OBJECTIVE AND DOCUMENT UTERUS EXAMS"
JP5043595B2 (en) * 2007-10-23 2012-10-10 富士フイルム株式会社 Imaging apparatus and endoscope system
JP4518197B2 (en) * 2008-06-20 2010-08-04 ソニー株式会社 Imaging apparatus, image blur correction method, and program
US20100081928A1 (en) * 2008-09-29 2010-04-01 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Histological Facilitation systems and methods
JP2012508366A (en) * 2008-11-04 2012-04-05 ウィリアム・マーシュ・ライス・ユニバーシティ Image mapping spectrometer
EP2389093A4 (en) * 2009-01-20 2013-07-31 Gen Hospital Corp Endoscopic biopsy apparatus, system and method
JP5657375B2 (en) * 2010-12-24 2015-01-21 オリンパス株式会社 Endoscope apparatus and program
JP5864880B2 (en) * 2011-04-07 2016-02-17 オリンパス株式会社 Endoscope apparatus and method for operating endoscope apparatus
JP5951211B2 (en) * 2011-10-04 2016-07-13 オリンパス株式会社 Focus control device and endoscope device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003140030A (en) * 2001-11-06 2003-05-14 Pentax Corp Autofocusing device for endoscope
JP2005332383A (en) * 2004-04-23 2005-12-02 Fuji Photo Film Co Ltd Image processing method, device and program
JP2010022772A (en) * 2008-07-24 2010-02-04 Olympus Medical Systems Corp Endoscope and system for in-vivo observation

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014171505A (en) * 2013-03-06 2014-09-22 Fujifilm Corp Image processing device and method for operating endoscope system
US10083512B2 (en) 2014-03-20 2018-09-25 Canon Kabushiki Kaisha Information processing apparatus, information processing method, position and orientation estimation apparatus, and robot system
JP2015184767A (en) * 2014-03-20 2015-10-22 キヤノン株式会社 Information processor, information processing method, position attitude estimation device and robot system
JP2016067781A (en) * 2014-09-30 2016-05-09 富士フイルム株式会社 Processor device for endoscope, and method for operating processor device for endoscope
JP2017158628A (en) * 2016-03-07 2017-09-14 富士フイルム株式会社 Endoscope system, processor device, and operation method of endoscope system
WO2017154325A1 (en) * 2016-03-07 2017-09-14 富士フイルム株式会社 Endoscope system, processor device, endoscope system operation method
US11185214B2 (en) 2016-03-07 2021-11-30 Fujifilm Corporation Endoscope system with image data correction, processor device, and method for operating endoscope system
US10799088B2 (en) 2016-03-09 2020-10-13 Sony Corporation Image processing device, image processing method and recording medium
JP2017158764A (en) * 2016-03-09 2017-09-14 ソニー株式会社 Image processing device, image processing method, and recording medium
US11642004B2 (en) 2016-03-09 2023-05-09 Sony Corporation Image processing device, image processing method and recording medium
JPWO2018020560A1 (en) * 2016-07-25 2019-05-09 オリンパス株式会社 Image processing apparatus, image processing method and program
WO2018020560A1 (en) * 2016-07-25 2018-02-01 オリンパス株式会社 Image processing device, image processing method, and program
US11361406B2 (en) 2016-07-25 2022-06-14 Olympus Corporation Image processing apparatus, image processing method, and non-transitory computer readable recording medium
JPWO2019044328A1 (en) * 2017-08-31 2020-10-15 ソニー株式会社 Medical image processing device, medical image processing system, and driving method of medical image processing device
JP7160041B2 (en) 2017-08-31 2022-10-25 ソニーグループ株式会社 Medical image processing apparatus, medical image processing system, and driving method for medical image processing apparatus

Also Published As

Publication number Publication date
US20130286172A1 (en) 2013-10-31
US9492059B2 (en) 2016-11-15
WO2012086536A1 (en) 2012-06-28
CN103269636B (en) 2015-08-05
JP5657375B2 (en) 2015-01-21
CN103269636A (en) 2013-08-28
EP2656778A1 (en) 2013-10-30
EP2656778A4 (en) 2016-12-21

Similar Documents

Publication Publication Date Title
JP5657375B2 (en) Endoscope apparatus and program
JP5953187B2 (en) Focus control device, endoscope system, and focus control method
US20160014328A1 (en) Image processing device, endoscope apparatus, information storage device, and image processing method
JP5855358B2 (en) Endoscope apparatus and method for operating endoscope apparatus
JP5951211B2 (en) Focus control device and endoscope device
US9498153B2 (en) Endoscope apparatus and shake correction processing method
JP6013020B2 (en) Endoscope apparatus and method for operating endoscope apparatus
JP6137921B2 (en) Image processing apparatus, image processing method, and program
JP5663331B2 (en) Control apparatus, endoscope apparatus, diaphragm control method, and program
JP5562808B2 (en) Endoscope apparatus and program
US20160128545A1 (en) Endoscope apparatus and method for controlling endoscope apparatus
JP6150554B2 (en) Image processing apparatus, endoscope apparatus, operation method of image processing apparatus, and image processing program
JP5996218B2 (en) Endoscope apparatus and method for operating endoscope apparatus
WO2017138209A1 (en) Medical image processing device, system, method, and program
JP2016064281A (en) Endoscope apparatus
JP6120491B2 (en) Endoscope apparatus and focus control method for endoscope apparatus
JP2013043007A (en) Focal position controller, endoscope, and focal position control method
JP7179837B2 (en) Endoscope device, endoscope image display method, and operation method of endoscope device
JP6177387B2 (en) Endoscope device focus control device, endoscope device, and operation method of endoscope control device
WO2013061939A1 (en) Endoscopic device and focus control method
JP2012055412A (en) Image processor, endoscope apparatus, image processing method, and program
JP6168878B2 (en) Image processing apparatus, endoscope apparatus, and image processing method
JP7456385B2 (en) Image processing device, image processing method, and program
JP2012120618A (en) Control device, endoscope apparatus, and diaphragm control method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141126

R151 Written notification of patent or utility model registration

Ref document number: 5657375

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250