JP2012205619A - Image processor, control device, endoscope apparatus, image processing method, and image processing program - Google Patents

Image processor, control device, endoscope apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP2012205619A
JP2012205619A JP2011071522A JP2011071522A JP2012205619A JP 2012205619 A JP2012205619 A JP 2012205619A JP 2011071522 A JP2011071522 A JP 2011071522A JP 2011071522 A JP2011071522 A JP 2011071522A JP 2012205619 A JP2012205619 A JP 2012205619A
Authority
JP
Japan
Prior art keywords
image
processing
distortion
noise reduction
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011071522A
Other languages
Japanese (ja)
Inventor
Hiroshi Sasaki
佐々木  寛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Medical Systems Corp
Original Assignee
Olympus Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Medical Systems Corp filed Critical Olympus Medical Systems Corp
Priority to JP2011071522A priority Critical patent/JP2012205619A/en
Publication of JP2012205619A publication Critical patent/JP2012205619A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image processor, a control device, an endoscope apparatus, an image processing method, an image processing program, or the like which are capable of visually uniforming noise components regardless of positions in an image.SOLUTION: The image processor includes: an image acquisition section for acquiring a distortion image in which distortion is generated by optical aberration of an optical system; a correction processing section for subjecting a region to be processed in the distortion image to a transformation processing for correcting the distortion to correct the distortion image; a transformation mode information acquisition section for acquiring transformation mode information representing a transformation mode of the region to be processed by the transformation processing; and a noise reduction processing section 320 for reducing the noise components included in the distortion image based on the acquired transformation mode information.

Description

本発明は、画像処理装置、制御装置、内視鏡装置、画像処理方法及び画像処理プログラム等に関する。   The present invention relates to an image processing device, a control device, an endoscope device, an image processing method, an image processing program, and the like.

従来から内視鏡診断において体腔内の病変検出精度を向上させたいという要求があり、170度の広角光学系を有した内視鏡スコープが既に開発されている。   Conventionally, there has been a demand for improving the accuracy of detecting lesions in a body cavity in endoscopic diagnosis, and endoscope scopes having a wide-angle optical system of 170 degrees have already been developed.

しかしながら、大腸のような大きなヒダを持った臓器の場合、このような広角光学系を有した内視鏡スコープを使ったとしてもヒダ裏の観察には困難が伴う。即ち、内視鏡スコープ先端を大きく曲げた状態にして観察したり、或は先端を物理的にヒダに押し付けて裏側を見えるようにめくった状態にして観察することが必要である。前者の手法では全てのヒダ裏を診察するには時間が膨大にかかってしまうという課題がある。後者の手法では、スコープ先端をヒダに押しつけるため生体からの出血リスクが発生する。生体からの出血は、できるだけ避ける必要がある。   However, in the case of an organ having a large fold such as the large intestine, it is difficult to observe the back of the fold even if an endoscope scope having such a wide-angle optical system is used. That is, it is necessary to observe with the endoscope scope tip bent greatly, or with the tip physically pressed against the fold so that the back side can be seen. In the former method, there is a problem that it takes a lot of time to examine all the folds. In the latter method, since the scope tip is pressed against the fold, there is a risk of bleeding from the living body. Bleeding from living bodies should be avoided as much as possible.

ヒダ裏を非接触で短時間に観察する手法として、例えば180度以上の画角が得られる魚眼レンズを有する内視鏡スコープを用いる手法がある。しかしながら、魚眼レンズは光学収差(特に歪曲収差)が大きく、周辺領域が大きく歪む。そのため、ヒダ裏の病変を十分大きなサイズで観察することができないという課題がある。   As a technique for observing the back of the fold in a non-contact manner in a short time, for example, there is a technique using an endoscope scope having a fish-eye lens capable of obtaining an angle of view of 180 degrees or more. However, the fisheye lens has a large optical aberration (particularly distortion), and the peripheral region is greatly distorted. Therefore, there is a problem that the lesion behind the folds cannot be observed with a sufficiently large size.

この課題に対して特許文献1には、光学系だけでなく画像処理を組み合わせることにより、内視鏡特有の管腔内での観察に最適となるように歪み補正する手法が開示されている。この手法では、等角度物体の物体倍率を、画像中心領域よりも画像周辺領域において大きくする。   For this problem, Patent Document 1 discloses a technique for correcting distortion so as to be optimal for observation in a lumen unique to an endoscope by combining not only an optical system but also image processing. In this method, the object magnification of an equiangular object is set larger in the image peripheral region than in the image central region.

特開2009−276371号公報JP 2009-276371 A

このような広角光学系と歪み補正を組合せる手法では、中央領域の画像が縮小され、周辺領域の画像が拡大される。そのため、先端を曲げる事なく非接触でヒダ裏の病変部を大きく表示することが可能となる。   In such a technique combining a wide-angle optical system and distortion correction, the image in the central area is reduced and the image in the peripheral area is enlarged. For this reason, it is possible to display a lesion area behind the folds in a non-contact manner without bending the tip.

しかしながら、この手法では、画像に混入されたノイズ成分(例えば撮像素子等で発生するノイズ成分)を考慮せずに歪み補正を行っている。そのため、画像内の位置に依って不均一な周波数特性のノイズ成分を誘発するという課題がある。例えば、歪み補正では画像の周辺領域を拡大するため、周辺領域のノイズ成分は低周波側にシフトする。この場合、人間の視覚では周辺領域のノイズ成分が増大したように見える。   However, in this method, distortion correction is performed without considering a noise component mixed in an image (for example, a noise component generated in an image sensor or the like). Therefore, there is a problem of inducing a noise component with non-uniform frequency characteristics depending on the position in the image. For example, in the distortion correction, since the peripheral area of the image is enlarged, the noise component in the peripheral area is shifted to the low frequency side. In this case, it seems that the noise component in the peripheral area has increased in human vision.

本発明の幾つかの態様によれば、画像内の位置に依らずノイズ成分を視覚的に均一化することが可能な画像処理装置、制御装置、内視鏡装置、画像処理方法及び画像処理プログラム等を提供できる。   According to some aspects of the present invention, an image processing device, a control device, an endoscope device, an image processing method, and an image processing program capable of visualizing noise components regardless of the position in the image Etc. can be provided.

本発明の一態様は、光学系の光学収差により歪みが生じた歪み画像を取得する画像取得部と、前記歪みを補正するための変換処理を、前記歪み画像の中の処理対象領域に対して行い、前記歪み画像を補正する補正処理部と、前記変換処理による前記処理対象領域の変換態様を表す変換態様情報を取得する変換態様情報取得部と、前記取得された変換態様情報に基づいて、前記歪み画像に含まれるノイズ成分を低減する処理を行うノイズ低減処理部と、を含む画像処理装置に関係する。   One embodiment of the present invention provides an image acquisition unit that acquires a distortion image in which distortion has occurred due to optical aberrations of an optical system, and a conversion process for correcting the distortion with respect to a processing target region in the distortion image. Performing a correction processing unit that corrects the distorted image, a conversion mode information acquisition unit that acquires conversion mode information representing a conversion mode of the processing target region by the conversion process, and the acquired conversion mode information, The present invention relates to an image processing apparatus including a noise reduction processing unit that performs processing for reducing a noise component included in the distorted image.

本発明の一態様によれば、歪みを補正するための変換処理が処理対象領域に対して行われ、その処理対象領域の変換態様情報に基づいて、歪み画像に含まれるノイズ成分を低減する処理が行われる。これにより、画像内の位置に依らずノイズ成分を視覚的に均一化することが可能になる。   According to one aspect of the present invention, a conversion process for correcting distortion is performed on a processing target area, and a process of reducing noise components included in a distortion image based on conversion mode information of the processing target area Is done. This makes it possible to visually equalize the noise component regardless of the position in the image.

また、本発明の他の態様は、被写体を撮像する光学系と、前記光学系の光学収差により歪みが生じた歪み画像を取得する画像取得部と、前記歪みを補正するための変換処理を、前記歪み画像の中の処理対象領域に対して行い、前記歪み画像を補正する補正処理部と、前記変換処理による前記処理対象領域の変換態様を表す変換態様情報を取得する変換態様情報取得部と、前記取得された変換態様情報に基づいて、前記歪み画像に含まれるノイズ成分を低減する処理を行うノイズ低減処理部と、を含む内視鏡装置に関係する。   In another aspect of the present invention, an optical system that captures an image of an object, an image acquisition unit that acquires a distortion image in which distortion is caused by the optical aberration of the optical system, and a conversion process for correcting the distortion, A correction processing unit that corrects the distorted image by performing processing on the processing target region in the distorted image, and a conversion mode information acquiring unit that acquires conversion mode information representing a conversion mode of the processing target region by the conversion processing; Further, the present invention relates to an endoscope apparatus including a noise reduction processing unit that performs a process of reducing a noise component included in the distorted image based on the acquired conversion mode information.

また、本発明の他の態様は、光学系の光学収差により歪みが生じた歪み画像を取得し、前記歪みを補正するための変換処理を、前記歪み画像の中の処理対象領域に対して行い、前記歪み画像を補正し、前記変換処理による前記処理対象領域の変換態様を表す変換態様情報を取得し、前記取得された変換態様情報に基づいて、前記歪み画像に含まれるノイズ成分を低減する処理を行う画像処理方法に関係する。   According to another aspect of the present invention, a distortion image in which distortion has occurred due to optical aberrations of an optical system is acquired, and a conversion process for correcting the distortion is performed on a processing target area in the distortion image. , Correcting the distorted image, acquiring conversion mode information representing a conversion mode of the processing target region by the conversion process, and reducing noise components included in the distorted image based on the acquired conversion mode information The present invention relates to an image processing method for performing processing.

また、本発明の他の態様は、光学系の光学収差により歪みが生じた歪み画像を取得する画像取得部と、前記歪みを補正するための変換処理を、前記歪み画像の中の処理対象領域に対して行い、前記歪み画像を補正する補正処理部と、前記変換処理による前記処理対象領域の変換態様を表す変換態様情報を取得する変換態様情報取得部と、前記取得された変換態様情報に基づいて、前記歪み画像に含まれるノイズ成分を低減する処理を行うノイズ低減処理部として、コンピュータを機能させる画像処理プログラムに関係する。   According to another aspect of the present invention, an image acquisition unit that acquires a distortion image in which distortion has occurred due to an optical aberration of an optical system, and a conversion process for correcting the distortion include a processing target region in the distortion image. A correction processing unit that corrects the distorted image, a conversion mode information acquisition unit that acquires conversion mode information representing a conversion mode of the processing target area by the conversion process, and the acquired conversion mode information. The present invention relates to an image processing program that causes a computer to function as a noise reduction processing unit that performs processing to reduce a noise component included in the distorted image.

内視鏡装置の第1の構成例。1 is a first configuration example of an endoscope apparatus. 回転色フィルタの詳細な構成例。The detailed structural example of a rotation color filter. 色フィルタの分光特性の例。An example of spectral characteristics of a color filter. 図4(A)〜図4(C)は、撮像された画像の表示形態についての説明図。FIG. 4A to FIG. 4C are explanatory diagrams of display forms of captured images. 画像処理部の詳細な構成例。3 is a detailed configuration example of an image processing unit. 図6(A)〜図6(C)は、歪み補正に伴う空間周波数特性についての説明図。FIG. 6A to FIG. 6C are explanatory diagrams of spatial frequency characteristics associated with distortion correction. 歪み補正によるノイズ成分の変化についての説明図。Explanatory drawing about the change of the noise component by distortion correction. ノイズ低減処理部の第1の詳細な構成例。The 1st detailed structural example of a noise reduction process part. 周波数帯域の分割についての説明図。Explanatory drawing about the division | segmentation of a frequency band. 図10(A)はノイズ推定量の特性例。図10(B)はノイズ低減量の特性例。FIG. 10A shows a characteristic example of the noise estimation amount. FIG. 10B shows an example of noise reduction characteristics. 分割された周波数帯域の歪み補正によるシフトについての説明図。Explanatory drawing about the shift by distortion correction of the divided | segmented frequency band. 処理パラメータ制御部の詳細な構成例。3 is a detailed configuration example of a processing parameter control unit. 内視鏡装置の第2の構成例。The 2nd structural example of an endoscope apparatus. ノイズ低減処理部の第2の詳細な構成例。The 2nd detailed structural example of a noise reduction process part. フレーム内平滑化画素値とフレーム間平滑化画素値の合成比率の特性例。The characteristic example of the synthetic | combination ratio of the smoothing pixel value in a frame, and the smoothing pixel value between frames. 図16(A)、図16(B)は、同一色の信号に対する平滑化処理についての説明図。FIG. 16A and FIG. 16B are explanatory diagrams of smoothing processing for signals of the same color. フレーム内平滑化処理とフレーム間平滑化処理についての説明図。Explanatory drawing about the smoothing process in a flame | frame, and the smoothing process between frames. コンピュータシステムの構成を示すシステム構成図。The system block diagram which shows the structure of a computer system. コンピュータシステムにおける本体部の構成を示すブロック図。The block diagram which shows the structure of the main-body part in a computer system. 人間の視覚特性例。Example of human visual characteristics. 光軸を中心とする円環領域を局所領域として設定する場合の例。The example in the case of setting the annular area | region centering on an optical axis as a local area | region.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.本実施形態の概要
まず本実施形態の概要について説明する。図1に示すように、大腸のヒダ裏の病変部10(広義には注目領域)を観察する場合を考える。本実施形態では、魚眼の対物レンズ203を用いることで、スコープ先端の屈曲やヒダへの接触を行うことなくヒダ裏の病変部10を観察することが可能である。
1. Outline of this Embodiment First, an outline of this embodiment will be described. Consider the case of observing a lesion 10 (a region of interest in a broad sense) behind the fold of the large intestine as shown in FIG. In this embodiment, by using the fish-eye objective lens 203, it is possible to observe the lesioned part 10 on the back of the fold without bending the scope tip or contacting the fold.

このヒダ裏の病変部10は、画像の周辺領域に写ることになる。図4(B)に示すように、魚眼レンズでは画像の周辺領域dは中央領域hよりも歪むため、病変部10は小さく写ってしまう。そこで本実施形態では、図4(C)に示すように周辺領域dを拡大する画像処理を行い、病変部10の視認性を向上している。   The lesioned part 10 behind the fold is reflected in the peripheral area of the image. As shown in FIG. 4B, in the fisheye lens, the peripheral area d of the image is distorted more than the central area h, so that the lesioned part 10 appears small. Therefore, in the present embodiment, as shown in FIG. 4C, image processing for enlarging the peripheral region d is performed, and the visibility of the lesioned part 10 is improved.

しかしながら、このような歪み補正を行うと画像内に不均一な特性を持ったノイズ成分が発生するという課題がある。この点について説明する。ここでは、図7のA1に示すようにノイズ成分がランダムなホワイトノイズであるとする。また、撮像素子の画素数が表示画像の画素数と等しいか又は少ないとする。   However, when such distortion correction is performed, there is a problem that noise components having non-uniform characteristics are generated in the image. This point will be described. Here, it is assumed that the noise component is random white noise as indicated by A1 in FIG. Further, it is assumed that the number of pixels of the image sensor is equal to or less than the number of pixels of the display image.

まず画像中央部は、撮像画像を表示画像に変換処理する際に縮小される。そのため、周波数で見たときに変換処理は補間フィルタの特性(一般に周波数特性はフラット)となり、図7のA2に示すように変換後の画像には粒の細かいノイズが発生する。一方、画像周辺部は、変換処理する際に拡大される。拡大処理に伴い周波数帯域が全体に低周波側にシフトするため、A3に示すようにノイズ成分も低周波にシフトする。人間の視覚特性は、空間周波数において高周波よりも低周波に対して感度が高いため、変換後の画像周辺部ではノイズ成分が増大したと認識されてしまう。即ち、拡大された画像周辺部ではノイズが多く発生し、画像中央部ではノイズが少ない画像が表示されることになる。   First, the central portion of the image is reduced when the captured image is converted into a display image. Therefore, when viewed in terms of frequency, the conversion processing has the characteristics of an interpolation filter (generally the frequency characteristics are flat), and fine noise is generated in the converted image as indicated by A2 in FIG. On the other hand, the peripheral portion of the image is enlarged when the conversion process is performed. Since the frequency band is shifted to the low frequency side as a whole with the enlargement process, the noise component is also shifted to the low frequency as indicated by A3. Since the human visual characteristic is more sensitive to a low frequency than a high frequency in the spatial frequency, it is recognized that the noise component has increased in the peripheral portion of the image after conversion. That is, a large amount of noise is generated around the enlarged image, and an image with little noise is displayed at the center of the image.

このように、注目したい画像周辺部を拡大表示しても、ノイズ成分の増大により視認性が低下してしまうという課題がある。例えば、狭帯域光等を用いた光量が十分でない条件で観察する場合には、適正露出を得るために、撮像素子により光電変換された画像を増幅することになる。そのためノイズ成分の増大が顕著に現れ、視覚的な不均一さも顕著となる。   As described above, there is a problem that even if the peripheral portion of the image to be noticed is enlarged and displayed, the visibility is lowered due to an increase in noise components. For example, when observing under a condition where the amount of light using narrow band light or the like is not sufficient, an image photoelectrically converted by the image sensor is amplified in order to obtain proper exposure. For this reason, an increase in noise components appears remarkably, and visual non-uniformity also becomes significant.

この点、本実施形態によれば、図10(B)に示すように、歪み補正の拡大率が大きい領域ほどより高い周波数帯域のノイズを低減する処理を行う。この処理は歪み補正前に行われる。これにより、図11に示すように、拡大により低周波にシフトするノイズ成分のうち視覚的に高感度な帯域(ft近傍)の成分を低減させ、歪み補正後の画像のノイズを視覚的に均一にできる。また画像の周波数帯域のうち一部帯域を平滑化するため、被写体の構造についての周波数情報を保存できる。   In this regard, according to the present embodiment, as shown in FIG. 10B, processing for reducing noise in a higher frequency band is performed in a region where the magnification rate of distortion correction is larger. This process is performed before distortion correction. As a result, as shown in FIG. 11, among the noise components that shift to low frequencies due to enlargement, the components in the visually sensitive band (near ft) are reduced, and the noise in the image after distortion correction is visually uniform. Can be. Further, since a part of the frequency band of the image is smoothed, the frequency information about the structure of the subject can be stored.

2.第1の実施例
2.1.内視鏡装置
図1に本実施形態の内視鏡装置の構成例を示す。内視鏡装置(広義には撮像装置)は、光源部100と、撮像部200と、制御装置300(プロセッサ部)と、表示部400と、外部I/F部500を含む。なお、本実施形態は図1の構成に限定されず、その構成要素の一部を省略したり、他の構成要素を追加したりする等の種々の変形実施が可能である。
2. First Embodiment 2.1. Endoscope Device FIG. 1 shows a configuration example of an endoscope device according to this embodiment. The endoscope device (an imaging device in a broad sense) includes a light source unit 100, an imaging unit 200, a control device 300 (processor unit), a display unit 400, and an external I / F unit 500. Note that the present embodiment is not limited to the configuration shown in FIG. 1, and various modifications such as omitting some of the components or adding other components are possible.

光源部100は、白色光源101と、複数の分光透過率を持った回転色フィルタ102と、回転色フィルタ102を駆動させる回転駆動部103を含む。また光源部100は、回転色フィルタ102からの分光特性を持った光をライトガイドファイバ201の入射端面に集光させる集光レンズ104を含む。   The light source unit 100 includes a white light source 101, a rotating color filter 102 having a plurality of spectral transmittances, and a rotation driving unit 103 that drives the rotating color filter 102. The light source unit 100 also includes a condensing lens 104 that condenses light having spectral characteristics from the rotating color filter 102 on the incident end face of the light guide fiber 201.

例えば図2に示すように、回転色フィルタ102は、三原色の赤の色フィルタ851と、緑の色フィルタ852と、青の色フィルタ853と、回転モータ803と、から構成されている。図3には、これら3つの色フィルタの分光特性を示す。   For example, as shown in FIG. 2, the rotation color filter 102 includes three primary color red color filters 851, a green color filter 852, a blue color filter 853, and a rotation motor 803. FIG. 3 shows the spectral characteristics of these three color filters.

回転駆動部103は、制御装置300の制御部302からの制御信号に基づいて、撮像素子209の撮像期間と同期して回転色フィルタ102を所定回転数で回転させる。例えば回転色フィルタ102を1秒間に20回転させると、各色フィルタは60分の1秒間隔で入射白色光を横切る事になる。撮像素子209は60分の1秒間隔で3原色の各色光(R或はG或はB)に対する観察対象からの反射光を撮像し、画像の転送を完了することになる。即ち、本実施形態ではR画像、G画像、B画像が60分の1秒間隔で面順次で撮像され、実質のフレームレートは20fps(fps: frame per second)となる。   The rotation driving unit 103 rotates the rotating color filter 102 at a predetermined number of rotations in synchronization with the imaging period of the imaging element 209 based on a control signal from the control unit 302 of the control device 300. For example, if the rotating color filter 102 is rotated 20 times per second, each color filter crosses the incident white light at 1/60 second intervals. The image sensor 209 captures reflected light from the observation target for each of the three primary colors (R, G, or B) at 1/60 second intervals, and completes the transfer of the image. That is, in the present embodiment, the R image, the G image, and the B image are captured in a frame sequential manner at 1/60 second intervals, and the actual frame rate is 20 fps (fps: frame per second).

撮像部200は、例えば大腸等の体腔への挿入を可能にするために、細長くかつ湾曲可能に形成されている。撮像部200は、光源部100で集光された光を導くためのライトガイドファイバ201と、ライトガイドファイバ201により先端まで導かれた光を拡散させて観察対象に照射する照明レンズ202、204を含む。また撮像部200は、観察対象から戻る反射光を集光する対物レンズ203と、集光した結像光を検出するための撮像素子209と、撮像素子209により光電変換されたアナログ信号をデジタル信号に変換するA/D変換部210と、を含む。ここで、撮像素子209はモノクロ単板撮像素子であり、例えばCCDやCMOSセンサ等により構成される。   The imaging unit 200 is formed to be elongated and bendable so as to be able to be inserted into a body cavity such as the large intestine. The imaging unit 200 includes a light guide fiber 201 for guiding the light collected by the light source unit 100, and illumination lenses 202 and 204 for diffusing the light guided to the tip by the light guide fiber 201 and irradiating the observation target. Including. The imaging unit 200 also includes an objective lens 203 that collects reflected light returning from the observation target, an image sensor 209 that detects the focused imaging light, and an analog signal photoelectrically converted by the image sensor 209 as a digital signal. And an A / D conversion unit 210 for conversion into Here, the image pickup device 209 is a monochrome single-plate image pickup device, and is configured by, for example, a CCD or a CMOS sensor.

対物レンズ203は、180度以上の視野角を持つ魚眼レンズ等の光学系で構成されており、例えば大腸のヒダ裏にある病変部10を観察できるようになっている。照明レンズ202、204は、対物レンズ203の視野角内の観察対象を均一に照明できるように対物レンズ203の光軸に対して外側を向いて配置されている。本実施形態では、数千本のファイバの束により構成されるライトガイドファイバ201を2つに分割したが、これに限定されない。例えば、ライトガイドファイバ201を、より多くの束に分割し、各束に対応する照明レンズを内視鏡スコープ先端に配置してもよい。このようにすれば、広視野角の領域をより均一に照明できるようになる。また、LEDや有機EL等の発光素子を内視鏡スコープ先端に多数配置して光源部100を構成してもよい。   The objective lens 203 is composed of an optical system such as a fisheye lens having a viewing angle of 180 degrees or more, and can observe the lesioned part 10 on the back of the fold of the large intestine, for example. The illumination lenses 202 and 204 are arranged facing outward with respect to the optical axis of the objective lens 203 so that the observation target within the viewing angle of the objective lens 203 can be illuminated uniformly. In the present embodiment, the light guide fiber 201 constituted by a bundle of several thousand fibers is divided into two, but the present invention is not limited to this. For example, the light guide fiber 201 may be divided into more bundles, and an illumination lens corresponding to each bundle may be disposed at the distal end of the endoscope scope. In this way, a wide viewing angle region can be illuminated more uniformly. Further, the light source unit 100 may be configured by arranging a large number of light emitting elements such as LEDs and organic ELs at the distal end of the endoscope scope.

制御装置300は、画像処理部301と、制御部302と、を含む。画像処理部301は、歪み補正処理や、ノイズ低減処理、その他の画像処理を行う。制御部302は、内視鏡装置の各部の制御を行う。   The control device 300 includes an image processing unit 301 and a control unit 302. The image processing unit 301 performs distortion correction processing, noise reduction processing, and other image processing. The control unit 302 controls each unit of the endoscope apparatus.

表示部400は、CRTや液晶モニタ等の動画表示可能な表示装置により構成される。   The display unit 400 includes a display device capable of displaying a moving image such as a CRT or a liquid crystal monitor.

外部I/F部500は、この内視鏡装置に対するユーザからの入力等を行うためのインターフェースである。例えば外部I/F部500は、電源のオン/オフを行うための電源スイッチや、撮影操作を開始するためのシャッタボタン、撮影モードやその他各種のモードを切り換えるためのモード切換スイッチ等を含む。モード切替スイッチは、例えば図4(B)、(C)に示すように、全体視野の表示面積は変更せずに画像中央部と周辺部の表示倍率が異なる複数の射影変換モードの切換を手動で行うためのスイッチである。外部I/F部500は、入力された情報を制御部302へ出力する。   The external I / F unit 500 is an interface for performing input from the user to the endoscope apparatus. For example, the external I / F unit 500 includes a power switch for turning on / off the power, a shutter button for starting a photographing operation, a mode switching switch for switching a photographing mode and other various modes. For example, as shown in FIGS. 4B and 4C, the mode changeover switch manually switches between a plurality of projection conversion modes having different display magnifications in the central portion and the peripheral portion without changing the display area of the entire visual field. It is a switch to do in. The external I / F unit 500 outputs the input information to the control unit 302.

2.2.歪み補正
次に図4(A)〜図4(C)を用いて、撮像部200で撮像された画像の表示形態について説明する。撮像部200の対物レンズ203は魚眼レンズであり、180度以上の視野角を持っているものとする。
2.2. Distortion Correction Next, a display form of an image captured by the image capturing unit 200 will be described with reference to FIGS. The objective lens 203 of the imaging unit 200 is a fisheye lens, and has a viewing angle of 180 degrees or more.

図4(A)には、管腔状の被写体を模式的に示す。図4(A)に示すように、円筒状の管腔390は等距離間隔の同心円により円環領域d〜hに分割され、その管腔390に撮像部200を挿入して魚眼レンズを使って撮像するものとする。図4(B)には、その魚眼レンズで撮像された画像の模式図を示す。図4(B)は、例えば等立体角射影方式や、正射影方式等により撮像された画像に対応する。   FIG. 4A schematically shows a tubular subject. As shown in FIG. 4A, a cylindrical lumen 390 is divided into annular regions d to h by equidistant concentric circles, and an imaging unit 200 is inserted into the lumen 390 and imaging is performed using a fisheye lens. It shall be. FIG. 4B shows a schematic diagram of an image taken with the fisheye lens. FIG. 4B corresponds to an image captured by, for example, an equisolid angle projection method or an orthographic projection method.

図4(B)に示すように、円筒状の管腔390と撮像部200の先端距離が近い側面に位置する被写体ほど大きく歪むため、画像周辺部の同心円の間の距離は詰まった状態で撮像される。このような状態のまま実際の大腸に挿入すると、側方視野の円環領域dはごく薄い表示領域に押込まれてしまう。そのため、この領域内に病変が存在しても表示サイズが小さくなり、病変の確認が困難となる。特にヒダ裏を観察する場合には、撮像部200の先端とヒダ裏との位置関係が、円環領域dにヒダ裏が写る位置関係となるときに、ヒダ裏を観察可能となる。そのため、この画像のままでは目的とする大腸ヒダ裏の病変を観察することが難しい。   As shown in FIG. 4B, since the subject located on the side surface where the distal end distance between the cylindrical lumen 390 and the imaging unit 200 is closer is distorted, the distance between the concentric circles in the peripheral portion of the image is captured in a clogged state. Is done. If it is inserted into the actual large intestine in such a state, the annular area d in the lateral field of view is pushed into a very thin display area. For this reason, even if a lesion exists in this region, the display size is reduced, and it is difficult to confirm the lesion. In particular, when the back of the fold is observed, the back of the fold can be observed when the positional relationship between the tip of the imaging unit 200 and the back of the fold is the positional relationship in which the back of the fold is reflected in the annular region d. For this reason, it is difficult to observe the target lesion on the back of the large intestine with this image as it is.

そこで図4(C)に示すように、画像処理部301は、画像周辺部が拡大された状態で表示される射影変換(例えば極射影方式に変換する射影変換)を行う。これにより、側背面に位置する領域の拡大表示が可能となり、今まで見えていなかったヒダ裏病変の発見率を大幅に向上できる。   Therefore, as illustrated in FIG. 4C, the image processing unit 301 performs projective conversion (for example, projective conversion for conversion to the polar projection method) displayed in a state where the peripheral portion of the image is enlarged. As a result, it is possible to enlarge and display a region located on the back of the side, and to greatly improve the discovery rate of fold lesions that have not been seen so far.

このような射影変換は、画像処理部301で行われるため、観察状態に応じて自由に切換えることも可能である。例えば、大腸を診察する場合、最初に盲腸までスコープを挿入し、抜去しながら病変の有無を詳細に観察する。挿入時は前方の視野確保が重要となるので、歪み補正を行わない射影変換391に設定する。抜去しながら病変を観察する時は、前方の視野よりも周辺の視野の方を注目して見たいので、射影変換392に設定する。このような切り換え操作は、例えばユーザが外部I/F部500のモード切換スイッチ等で行えばよい。選択された射影変換の情報は制御部302に入力される。制御部302は、選択された射影変換に応じた歪み補正情報を、後述する歪み補正処理部330とノイズ低減処理部320へ出力する。歪み補正情報は、歪み補正前の座標情報と歪み補正後の座標情報の対応を表す情報である。   Such projective transformation is performed by the image processing unit 301, and can be switched freely according to the observation state. For example, when examining the large intestine, the scope is first inserted up to the cecum, and the presence or absence of the lesion is observed in detail while removing the scope. Since it is important to secure the front visual field at the time of insertion, it is set to the projective transformation 391 that does not perform distortion correction. When observing a lesion while removing it, it is set to the projective transformation 392 because it is desired to pay attention to the peripheral visual field rather than the front visual field. Such a switching operation may be performed, for example, by a user using a mode switch or the like of the external I / F unit 500. Information on the selected projective transformation is input to the control unit 302. The control unit 302 outputs distortion correction information corresponding to the selected projective transformation to a distortion correction processing unit 330 and a noise reduction processing unit 320 described later. The distortion correction information is information indicating correspondence between coordinate information before distortion correction and coordinate information after distortion correction.

ここで、本実施形態における歪み補正情報は2つある。第1の歪み補正情報は、歪み補正前の画像の各画素の座標が、歪み補正後の画像の何処に位置するかを表す座標情報である。第2の歪み補正情報は、歪み補正後の画像の各画素の座標が、歪み補正前の画像の何処に位置するかを表す座標情報である。第1の歪み補正情報はノイズ低減処理部320で使用され、第2の歪み補正情報は歪み補正処理部330で使用される。   Here, there are two pieces of distortion correction information in the present embodiment. The first distortion correction information is coordinate information indicating where the coordinates of each pixel of the image before distortion correction are located in the image after distortion correction. The second distortion correction information is coordinate information indicating where the coordinates of each pixel of the image after distortion correction are located in the image before distortion correction. The first distortion correction information is used by the noise reduction processing unit 320, and the second distortion correction information is used by the distortion correction processing unit 330.

歪み補正情報が2つ必要なのは、歪み補正前の画素と歪み補正後の画素が1対1に対応しないためである。例えば、歪み補正前後の画像はそれぞれラスタスキャンである。この場合、歪み補正前のラスタスキャンの各画素座標を射影変換してもラスタスキャンとはならず、歪み補正後のラスタスキャンの各画素座標を逆射影変換してもラスタスキャンとはならない。そのため、第1の歪み補正情報を逆にしても第2の歪み補正情報にはならず、歪み補正情報が2つ必要となる。   The reason why two pieces of distortion correction information are required is that the pixels before distortion correction and the pixels after distortion correction do not correspond one-to-one. For example, the images before and after distortion correction are raster scans. In this case, even if each pixel coordinate of the raster scan before distortion correction is projectively converted, the raster scan is not performed, and even if each pixel coordinate of the raster scan after distortion correction is reversely projected, the raster scan is not performed. Therefore, even if the first distortion correction information is reversed, the second distortion correction information is not obtained, and two pieces of distortion correction information are required.

具体的には、ノイズ低減処理部320では歪み補正前にノイズ低減処理を行うため、第1の歪み補正情報を用いて、歪み補正前の処理対象画素の位置とその周辺の複数画素の位置から歪み補正後における局所拡大率を算出する。そして、この局所拡大率を使ってノイズ低減の強弱を制御する。また、歪み補正処理部330では、第2の歪み補正情報を用いて、歪み補正後の処理対象画素の画素値を補間により求める。即ち、処理対象画素の位置(整数精度)に対応する歪み補正前の画素位置(小数点以下の精度を有する)に近接する複数画素から、処理対象画素の画素値を補間する処理(例えば公知の補間処理)を行う。例えばバイリニア補間であれば周辺4画素を用いて補間し、バイキュービック補間であれば周辺16画素を用いて補間する。   Specifically, since the noise reduction processing unit 320 performs noise reduction processing before distortion correction, the first distortion correction information is used to calculate the processing target pixel position before distortion correction and the positions of a plurality of surrounding pixels. The local magnification after distortion correction is calculated. And the strength of noise reduction is controlled using this local enlargement ratio. In addition, the distortion correction processing unit 330 uses the second distortion correction information to obtain the pixel value of the processing target pixel after distortion correction by interpolation. That is, a process of interpolating the pixel value of the processing target pixel from a plurality of pixels close to the pixel position (having precision after the decimal point) before distortion correction corresponding to the position of the processing target pixel (integer accuracy) (for example, known interpolation) Process). For example, in the case of bilinear interpolation, interpolation is performed using four surrounding pixels, and in the case of bicubic interpolation, interpolation is performed using 16 surrounding pixels.

なお上記では、ノイズ低減処理部320を歪み補正処理部330の前に配置したため、歪み補正情報は2つ必要となったが、本実施形態はこれに限定されない。例えば、歪み補正処理部330の後にノイズ低減処理部320を配置した場合、歪み補正情報は第2の歪み補正情報のみでよい。   In the above description, since the noise reduction processing unit 320 is arranged in front of the distortion correction processing unit 330, two pieces of distortion correction information are necessary. However, the present embodiment is not limited to this. For example, when the noise reduction processing unit 320 is arranged after the distortion correction processing unit 330, the distortion correction information may be only the second distortion correction information.

また、射影変換として2種類以上の射影変換を用意してもよい。この場合、観察状態に応じた最適な射影変換を、ユーザが上述のモード切換スイッチにより選択する構成としてもよい。例えば、平坦部にある病変部を精査する場合、その病変部にスコープを正対させて近接して観察する。この場合、画像中央部を、図4(B)の射影変換よりも拡大表示できる射影変換を選択してもよい。この射影変換は、図4(C)とは別の射影変換である。これにより、精査時に病変部の視認性を向上できる。   Two or more types of projective transformation may be prepared as the projective transformation. In this case, it is good also as a structure which a user selects optimal projection conversion according to an observation state with the above-mentioned mode change switch. For example, when examining a lesion part in a flat part, the scope is directly opposed to the lesion part and observed. In this case, a projective transformation that can enlarge and display the central portion of the image as compared with the projective transformation of FIG. 4B may be selected. This projective transformation is different from that shown in FIG. Thereby, the visibility of a lesioned part can be improved at the time of detailed examination.

2.3.画像処理部
次に、図1の画像処理部301について説明する。図5に画像処理部301の詳細な構成例を示す。画像処理部301は、OBクランプ処理部310、ノイズ低減処理部320、歪み補正処理部330、WB処理部340、3板化処理部350、色補正処理部360、階調変換処理部370、強調処理部380を含む。
2.3. Image Processing Unit Next, the image processing unit 301 in FIG. 1 will be described. FIG. 5 shows a detailed configuration example of the image processing unit 301. The image processing unit 301 includes an OB clamp processing unit 310, a noise reduction processing unit 320, a distortion correction processing unit 330, a WB processing unit 340, a three plate processing unit 350, a color correction processing unit 360, a gradation conversion processing unit 370, and an emphasis. A processing unit 380 is included.

A/D変換部210から出力された画像はOBクランプ処理部310に入力される。制御部302は、OBクランプ処理部310、ノイズ低減処理部320、歪み補正処理部330、WB処理部340、3板化処理部350、色補正処理部360、階調変換処理部370、強調処理部380に接続されている。制御部302は、これらの各部に対して、制御部302に予め保存されている処理パラメータを出力する。   The image output from the A / D conversion unit 210 is input to the OB clamp processing unit 310. The control unit 302 includes an OB clamp processing unit 310, a noise reduction processing unit 320, a distortion correction processing unit 330, a WB processing unit 340, a three plate processing unit 350, a color correction processing unit 360, a gradation conversion processing unit 370, and an enhancement process. Part 380. The control unit 302 outputs processing parameters stored in advance in the control unit 302 to these units.

例えば、処理パラメータは、オプティカルブラック算出領域座標や、観察モードにより異なる観察モード別ノイズ低減ゲイン量、歪み補正情報、ホワイトバランス係数、撮像素子209による撮像時の色光(RかGかB)の情報、色マトリックス係数、階調変換テーブル、強調パラメータ等である。観察モードは、例えば通常光観察モードや、特殊光観察モード等である。オプティカルブラック算出領域座標は、黒レベルを表すオフセット値を算出するための領域の座標である。   For example, the processing parameters include optical black calculation area coordinates, noise reduction gain amount for each observation mode that varies depending on the observation mode, distortion correction information, white balance coefficient, and information on color light (R, G, or B) at the time of image capturing by the image sensor 209. , Color matrix coefficients, gradation conversion table, enhancement parameters, and the like. The observation mode is, for example, a normal light observation mode, a special light observation mode, or the like. The optical black calculation area coordinates are coordinates of an area for calculating an offset value representing a black level.

OBクランプ処理部310は、制御部302から出力された処理パラメータに基づいてA/D変換部210より出力される画像から、黒レベルをオプティカルブラック算出領域座標に基づいて算出する。OBクランプ処理部310は、画像の有効領域(以降有効領域画像と記す)に対して黒レベルを減算する処理を行う。黒レベルを補正した有効領域画像はノイズ低減処理部320に出力される。   The OB clamp processing unit 310 calculates the black level from the image output from the A / D conversion unit 210 based on the processing parameter output from the control unit 302 based on the optical black calculation area coordinates. The OB clamp processing unit 310 performs processing for subtracting the black level from the effective area of the image (hereinafter referred to as an effective area image). The effective area image in which the black level is corrected is output to the noise reduction processing unit 320.

ノイズ低減処理部320は、制御部302からの観察モード別ノイズ低減ゲイン量と位置依存の歪み補正情報に基づいて、有効領域画像に対するノイズ低減処理を行う。ノイズ低減処理部320は、観察状態に基づいてユーザが指定した射影変換に基づく歪み補正情報により、ノイズ低減量を制御する。具体的なノイズ低減処理については後述する。ノイズ低減処理された有効領域画像は歪み補正処理部330へ出力される。   The noise reduction processing unit 320 performs noise reduction processing on the effective area image based on the noise reduction gain amount for each observation mode and the position-dependent distortion correction information from the control unit 302. The noise reduction processing unit 320 controls the amount of noise reduction based on distortion correction information based on projective transformation specified by the user based on the observation state. Specific noise reduction processing will be described later. The effective area image subjected to the noise reduction process is output to the distortion correction processing unit 330.

歪み補正処理部330は、入力されたノイズ低減処理後の有効領域画像に対する歪み補正処理を、制御部302からの位置依存の歪み補正情報に基づいて行なう。この歪み補正処理により、入力時の有効領域画像とは異なる射影変換が施された有効領域画像が生成される。具体的には、図4(B)の射影変換から図4(C)の射影変換へ変換された有効領域画像が生成される。   The distortion correction processing unit 330 performs distortion correction processing on the input effective area image after noise reduction processing based on position-dependent distortion correction information from the control unit 302. By this distortion correction processing, an effective area image subjected to projective transformation different from the effective area image at the time of input is generated. Specifically, an effective area image converted from the projective transformation of FIG. 4B to the projective transformation of FIG. 4C is generated.

歪み補正処理部330は、歪み補正後の画素位置に対応する歪み補正前の有効領域画像内の位置を、歪み補正情報に基づいて求める。そして歪み補正処理部330は、求めた位置の周辺画素の画素値に基づいて、その求めた位置における画素値を補間(例えばバイキュービック補間)により求め、求めた画素値を、歪み補正後の画素位置の画素値とする。   The distortion correction processing unit 330 obtains a position in the effective area image before distortion correction corresponding to the pixel position after distortion correction based on the distortion correction information. Then, the distortion correction processing unit 330 obtains the pixel value at the obtained position by interpolation (for example, bicubic interpolation) based on the pixel values of the surrounding pixels at the obtained position, and obtains the obtained pixel value after the distortion correction. The pixel value of the position is used.

WB処理部340は、制御部302から入力されたホワイトバランス係数に基づいて、歪み補正後の有効領域画像に対してホワイトバランスの調整を行う。WB処理部340は、撮像素子209による撮像時の色光(RかGかB)情報がR又はBの場合に、そのR又はBに対応するホワイトバランス係数を歪み補正後の有効領域画像に対して施す。WB処理部340は、処理後の画像を3板化処理部350へ出力する。   Based on the white balance coefficient input from the control unit 302, the WB processing unit 340 adjusts the white balance for the effective area image after distortion correction. When the color light (R, G, or B) information at the time of image capturing by the image sensor 209 is R or B, the WB processing unit 340 applies the white balance coefficient corresponding to the R or B to the effective area image after distortion correction. Apply. The WB processing unit 340 outputs the processed image to the three-plate processing unit 350.

3板化処理部350は、図示しない3チャンネル分(R、G、B)のフレームメモリを有する。3板化処理部350は、制御部302からの色光情報に基づいて、入力される各チャンネルの有効領域画像を対応するフレームメモリに格納する。3板化処理部350は、フレームメモリに格納されている3チャンネルの有効領域画像(以降、カラー有効領域画像と記す)を色補正処理部360へ出力する。   The three-plate processing unit 350 includes (R, G, B) frame memories for three channels (not shown). Based on the color light information from the control unit 302, the triple plate processing unit 350 stores the input effective area image of each channel in the corresponding frame memory. The 3 plate processing unit 350 outputs the 3-channel effective area image (hereinafter referred to as a color effective area image) stored in the frame memory to the color correction processing unit 360.

色補正処理部360は、入力されるカラー有効領域画像を、制御部302からの色マトリックス係数に基づいて色変換し、所望の表示モニタの色空間に対応するカラー有効領域画像を生成する。色変換後のカラー有効領域画像は、階調変換処理部370へ出力される。   The color correction processing unit 360 performs color conversion on the input color effective area image based on the color matrix coefficients from the control unit 302, and generates a color effective area image corresponding to a desired color space of the display monitor. The color effective area image after color conversion is output to the gradation conversion processing unit 370.

階調変換処理部370は、入力されたカラー有効領域画像を、制御部302からの階調変換テーブルに基づいて、表示モニタの階調特性に合せたカラー有効領域画像に変換する。変換されたカラー有効領域画像は、強調処理部380へ出力される。   The gradation conversion processing unit 370 converts the input color effective area image into a color effective area image that matches the gradation characteristics of the display monitor based on the gradation conversion table from the control unit 302. The converted color effective area image is output to the enhancement processing unit 380.

強調処理部380は、入力された階調変換後のカラー有効領域画像を、制御部302からの強調パラメータに基づいて強調する処理を行う。強調処理されたカラー有効領域画像は、表示部400へ出力される。   The enhancement processing unit 380 performs processing for enhancing the input color effective area image after gradation conversion based on the enhancement parameter from the control unit 302. The enhanced color effective area image is output to the display unit 400.

以上のような一連の処理により、撮像素子209で撮像された撮像画像が表示部400に表示される。   Through a series of processes as described above, a captured image captured by the image sensor 209 is displayed on the display unit 400.

2.4.ノイズ低減処理
次に本実施形態が行うノイズ低減処理について詳細に説明する。本実施形態では、広視野の確保とともに、その視野内の注目領域の表示面積をできるだけ大きく確保する。そして、それにより顕在化されるノイズ成分の増加を抑制する処理を行う。ここで、注目領域とは、使用者にとって観察の優先順位が他の領域よりも相対的に高い領域である。
2.4. Noise Reduction Processing Next, the noise reduction processing performed by this embodiment will be described in detail. In the present embodiment, a wide field of view is secured, and a display area of a region of interest within the field of view is secured as large as possible. And the process which suppresses the increase in the noise component which becomes apparent by it is performed. Here, the attention area is an area where the priority of observation for the user is relatively higher than other areas.

図4(A)〜図4(C)には、2つの射影変換391と392を示した。射影変換391は、魚眼レンズによる射影変換を表している。画像周辺部の画像歪が強いため、大腸のヒダ裏を観察するためには歪み補正を行う必要がある。歪み補正は、画像周辺部の画像歪を軽減した射影変換392となるように歪み補正処理部330により行われる。   In FIG. 4 (A) to FIG. 4 (C), two projective transformations 391 and 392 are shown. The projective transformation 391 represents the projective transformation by the fisheye lens. Since the image distortion at the periphery of the image is strong, it is necessary to correct the distortion in order to observe the back of the fold of the large intestine. The distortion correction is performed by the distortion correction processing unit 330 so as to obtain a projective transformation 392 that reduces the image distortion in the peripheral portion of the image.

図6(A)〜図6(C)に、この歪み補正に伴って撮像時の中央部と周辺部とその中間部の空間周波数特性がどのように推移するかを模式的に示す。   FIG. 6A to FIG. 6C schematically show how the spatial frequency characteristics of the central portion, the peripheral portion, and the intermediate portion during imaging change with the distortion correction.

画像中央部では、図4(B)の射影変換391から図4(C)の射影変換392への変換において縮小処理となる。図6(A)には、その縮小補間を行うフィルタ特性を示す。このフィルタ特性は、画像中央部の歪み補正に伴う周波数特性である。一方、図6(C)に示すように、画像周辺部は拡大処理となるため、変換後の画像周辺部の周波数特性は低周波成分に押し込められた状態となる。図6(B)に示すように、中間部分では2つの周波数特性の中間の周波数特性となる。   In the central portion of the image, reduction processing is performed in the conversion from the projective transformation 391 in FIG. 4B to the projective transformation 392 in FIG. FIG. 6A shows filter characteristics for performing the reduction interpolation. This filter characteristic is a frequency characteristic accompanying distortion correction at the center of the image. On the other hand, as shown in FIG. 6C, since the peripheral portion of the image is subjected to enlargement processing, the frequency characteristic of the peripheral portion of the image after conversion is pushed into the low frequency component. As shown in FIG. 6B, the intermediate portion has an intermediate frequency characteristic between the two frequency characteristics.

このように、所定の射影変換を異なる射影変換に変化させると、その歪み補正に伴う周波数特性の違いが画像内に現れることになる。この周波数特性の違いは、被写体の解像度に影響を与えるだけでなく、ノイズ成分の特性にも影響を与える。即ち図20に示すように、人間の視覚特性は、一般に低周波の方が高周波よりも感度が高い。そのため、図7のA3に示す画像周辺部において低周波側へ押込まれたノイズは、A4に示す画像中央部において高周波側へ拡げられたノイズよりも明らかに多く視覚的に検知される。結果、射影変換392への変換は、画像周辺部の視認性を向上させる事が目的であったが、その副作用としてノイズも増えてしまい、注目している領域の視認性向上の改善効果が十分には得られない。   In this way, when the predetermined projective transformation is changed to a different projective transformation, a difference in frequency characteristics due to the distortion correction appears in the image. This difference in frequency characteristics not only affects the resolution of the subject, but also affects the characteristics of noise components. That is, as shown in FIG. 20, the human visual characteristics are generally more sensitive at low frequencies than at high frequencies. Therefore, the noise pushed to the low frequency side in the peripheral portion of the image shown in A3 in FIG. 7 is visually detected more clearly than the noise spread to the high frequency side in the central portion of the image shown in A4. As a result, the conversion to the projective transformation 392 was intended to improve the visibility of the peripheral portion of the image, but as a side effect, noise also increased, and the improvement effect of improving the visibility of the region of interest was sufficient. Cannot be obtained.

そこで本実施形態では、ノイズ低減処理部320が、ノイズ低減量を画像内の歪み補正情報に適応して変化させる制御を行うことで、視覚的にノイズ量を歪み補正後の画像内で均一化させる。   Therefore, in the present embodiment, the noise reduction processing unit 320 performs control to change the noise reduction amount in accordance with the distortion correction information in the image, thereby visually equalizing the noise amount in the image after distortion correction. Let

なお、図7ではA1に示すように、ノイズ成分がホワイトノイズである場合を例にしている。またA2に示すように、画像中央部において高周波側に拡がったノイズ成分の帯域は実際にはナイキスト周波数に制限される。   In FIG. 7, as shown by A1, the case where the noise component is white noise is taken as an example. As shown in A2, the band of the noise component that spreads to the high frequency side in the center of the image is actually limited to the Nyquist frequency.

図8に、ノイズ低減処理部320の詳細な構成例を示す。ノイズ低減処理部320は、ローパス処理部701、706、711、ダウンサンプリング部702、707、減算処理部703、708、712、ノイズ量推定部704、709、713、715、平滑化処理部705、710、714、716、加算処理部717、719、721、アップサンプリング部718、720、処理パラメータ制御部722を含む。   FIG. 8 shows a detailed configuration example of the noise reduction processing unit 320. The noise reduction processing unit 320 includes a low-pass processing unit 701, 706, 711, a downsampling unit 702, 707, a subtraction processing unit 703, 708, 712, a noise amount estimation unit 704, 709, 713, 715, a smoothing processing unit 705, 710, 714, 716, addition processing units 717, 719, 721, upsampling units 718, 720, and a processing parameter control unit 722.

ノイズ低減処理部320は、図9に示すように、空間周波数帯域(例えば0Hz〜ナイキスト周波数)を4つの空間周波数帯域FB1〜FB4に分割し、各周波数帯域に対して独立にノイズ低減量を制御する。   As shown in FIG. 9, the noise reduction processing unit 320 divides a spatial frequency band (for example, 0 Hz to Nyquist frequency) into four spatial frequency bands FB1 to FB4, and controls the noise reduction amount independently for each frequency band. To do.

具体的には、ローパス処理部701と減算処理部703には、OBクランプ処理部310から出力された有効領域画像が入力される。   Specifically, the effective region image output from the OB clamp processing unit 310 is input to the low-pass processing unit 701 and the subtraction processing unit 703.

ローパス処理部701は、入力された有効領域画像に対して、周波数帯域を半分に制限するローパスフィルタ処理を行う。ローパス処理部701は、処理後の画像を低周波画像L1として、減算処理部703とダウンサンプリング部702とノイズ量推定部704に出力する。   The low-pass processing unit 701 performs low-pass filter processing for limiting the frequency band to half for the input effective area image. The low-pass processing unit 701 outputs the processed image as a low-frequency image L1 to the subtraction processing unit 703, the downsampling unit 702, and the noise amount estimation unit 704.

減算処理部703は、有効領域画像から低周波画像L1を減算して帯域FB1の周波数帯域画像H1を生成し、生成した画像H1を平滑化処理部705へ出力する。   The subtraction processing unit 703 subtracts the low frequency image L1 from the effective area image to generate the frequency band image H1 of the band FB1, and outputs the generated image H1 to the smoothing processing unit 705.

ダウンサンプリング部702は、低周波画像L1を水平垂直それぞれ半分の画素数に間引いた低解像度画像D1を生成し、生成した画像D1をローパス処理部706と減算処理部708とノイズ量推定部709へ出力する。   The down-sampling unit 702 generates a low-resolution image D1 obtained by thinning the low-frequency image L1 into half the horizontal and vertical pixels, and the generated image D1 is sent to the low-pass processing unit 706, the subtraction processing unit 708, and the noise amount estimation unit 709. Output.

ノイズ量推定部704には、低周波画像L1と、処理パラメータ制御部722から出力される帯域FB1におけるノイズ低減量と、が入力される。ノイズ量推定部704は、低周波画像L1とノイズ低減量に基づいて平滑化処理パラメータを算出する。具体的には、FB1におけるノイズ推定量をL1の各画素の階調値から推定する。そして、ノイズ推定量とノイズ低減量からFB1における平滑化処理パラメータを算出する。平滑化処理パラメータは、処理パラメータ制御部722から出力されるノイズ低減量をノイズ推定量に乗算した量として定義される。ノイズ量推定部704は、算出した平滑化処理パラメータを平滑化処理部705へ出力する。なお、ノイズ低減量の詳細については後述する。   The noise amount estimation unit 704 receives the low-frequency image L1 and the noise reduction amount in the band FB1 output from the processing parameter control unit 722. The noise amount estimation unit 704 calculates a smoothing process parameter based on the low frequency image L1 and the noise reduction amount. Specifically, the noise estimation amount in FB1 is estimated from the gradation value of each pixel in L1. Then, a smoothing process parameter in FB1 is calculated from the noise estimation amount and the noise reduction amount. The smoothing processing parameter is defined as an amount obtained by multiplying the noise estimation amount by the noise reduction amount output from the processing parameter control unit 722. The noise amount estimation unit 704 outputs the calculated smoothing processing parameter to the smoothing processing unit 705. Details of the noise reduction amount will be described later.

ノイズ推定量の算出は、予め決定されるノイズモデルと、低周波画像L1の各画素の階調値により一意に決定される。具体的には、図10(A)にノイズモデルの例を示す。図10(A)は、4つの周波数帯域FB1〜FB4において、階調値とノイズ推定量の関係を表している。このノイズモデルは、撮像素子209の固有特性であるため、予め測定することで求めることができる。   The calculation of the noise estimation amount is uniquely determined by a predetermined noise model and the gradation value of each pixel of the low frequency image L1. Specifically, FIG. 10A shows an example of a noise model. FIG. 10A shows the relationship between the gradation value and the noise estimation amount in the four frequency bands FB1 to FB4. Since this noise model is a characteristic characteristic of the image sensor 209, it can be obtained by measuring in advance.

平滑化処理部705には、平滑化パラメータと周波数帯域画像H1が入力される。平滑化処理部705は、周波数帯域画像H1を平滑化処理してノイズを削減し、処理後の画像H1’を加算処理部721へ出力する。   The smoothing processing unit 705 receives the smoothing parameter and the frequency band image H1. The smoothing processing unit 705 smoothes the frequency band image H <b> 1 to reduce noise, and outputs the processed image H <b> 1 ′ to the addition processing unit 721.

具体的には、平滑化処理部705は、下式(1)に示すバイラテラルフィルタにより平滑化処理を行う。F(x,y)は、座標(x,y)におけるフィルタ係数である。またσは、平滑化処理パラメータであり、注目画素と周辺画素との画素値の差分に基づく重み係数を決定する画素値差である。σの値が大きくなるほど平滑化効果が増し、σの値が小さくなるほど平滑化効果が低減する。
Specifically, the smoothing processing unit 705 performs a smoothing process using a bilateral filter represented by the following formula (1). F (x, y) is a filter coefficient at coordinates (x, y). Further, σ s is a smoothing process parameter, and is a pixel value difference that determines a weighting factor based on a difference in pixel values between the target pixel and surrounding pixels. sigma value of s is more increased smoothing effect increases, the more smoothing effect the value of sigma s is reduced is reduced.

ここで、xは周波数帯域画像の水平座標であり、yは周波数帯域画像の垂直座標である。A(x,y)は、フィルタの正規化係数である。P(x,y)は、フィルタ処理される注目画素(x,y)の画素値である。P(x,y)は、注目画素の周辺画素(x,y)の画素値である。 Here, x is the horizontal coordinate of the frequency band image, and y is the vertical coordinate of the frequency band image. A (x, y) is a normalization coefficient of the filter. P (x 0 , y 0 ) is a pixel value of the target pixel (x 0 , y 0 ) to be filtered. P (x, y) is a pixel value of the peripheral pixel (x, y) of the target pixel.

なお、ローパス処理部706、711、ダウンサンプリング部707、減算処理部708、712、ノイズ量推定部709、713、715、平滑化処理部710、714、716は、基本的に上記と同一の処理を行なう。   The low-pass processing units 706 and 711, the downsampling unit 707, the subtraction processing units 708 and 712, the noise amount estimation units 709, 713, and 715, and the smoothing processing units 710, 714, and 716 are basically the same processing as described above. To do.

具体的には、ローパス処理部706は、低周波画像L1の帯域を半分に制限し、低周波画像L2を生成する。減算処理部708は、L1からL2を減算し、帯域FB2の周波数帯域画像H2を生成する。ノイズ量推定部709は、L2と、FB2におけるノイズ低減量に基づいて、FB2における平滑化処理パラメータを算出する。平滑化処理部710は、H2に対して平滑化処理を行い、ノイズ低減された周波数帯域画像H2’を生成する。ダウンサンプリング部707は、低周波画像L2を間引き、低解像度画像D2を生成する。   Specifically, the low pass processing unit 706 generates a low frequency image L2 by limiting the band of the low frequency image L1 to half. The subtraction processing unit 708 subtracts L2 from L1, and generates a frequency band image H2 of the band FB2. The noise amount estimation unit 709 calculates a smoothing processing parameter in FB2 based on L2 and the noise reduction amount in FB2. The smoothing processing unit 710 performs a smoothing process on H2, and generates a noise-reduced frequency band image H2 '. The downsampling unit 707 thins out the low frequency image L2 and generates a low resolution image D2.

ローパス処理部711は、低周波画像L2の帯域を半分に制限し、低周波画像L3を生成する。L3は、帯域FB4の周波数帯域画像H4として用いられる。減算処理部712は、L2からL3を減算し、帯域FB3の周波数帯域画像H3を生成する。ノイズ量推定部713は、L3と、FB3におけるノイズ低減量に基づいて、FB3における平滑化処理パラメータを算出する。平滑化処理部714は、H3に対して平滑化処理を行い、ノイズ低減された周波数帯域画像H3’を生成する。   The low-pass processing unit 711 generates a low-frequency image L3 by limiting the band of the low-frequency image L2 to half. L3 is used as the frequency band image H4 of the band FB4. The subtraction processing unit 712 subtracts L3 from L2 to generate a frequency band image H3 of the band FB3. The noise amount estimation unit 713 calculates a smoothing process parameter in FB3 based on L3 and the noise reduction amount in FB3. The smoothing processing unit 714 performs a smoothing process on H3 to generate a frequency band image H3 'with reduced noise.

ノイズ量推定部715は、L3と、FB4におけるノイズ低減量に基づいて、FB4における平滑化処理パラメータを算出する。平滑化処理部716は、H4(L3)に対して平滑化処理を行い、ノイズ低減された周波数帯域画像H4’を生成する。   The noise amount estimation unit 715 calculates a smoothing process parameter in FB4 based on L3 and the noise reduction amount in FB4. The smoothing processing unit 716 performs a smoothing process on H4 (L3), and generates a noise-reduced frequency band image H4 '.

加算処理部717は、ノイズ低減された帯域FB3の周波数帯域画像H3’と、ノイズ低減された帯域FB4の周波数帯域画像H4’を加算し、加算された帯域FB3+FB4の周波数帯域画像H3’+H4’をアップサンプリング部718に出力する。アップサンプリング部718は、H3’+H4’の水平垂直それぞれの画素数を2倍に拡大する処理を行い、処理後の画像U(H3’+L3’)を加算処理部719へ出力する。ここで、U()は、2倍にアップサンプリングされたことを表す。   The addition processing unit 717 adds the frequency band image H3 ′ of the noise-reduced band FB3 and the frequency band image H4 ′ of the noise-reduced band FB4, and adds the frequency band image H3 ′ + H4 ′ of the added band FB3 + FB4. The data is output to the upsampling unit 718. The upsampling unit 718 performs a process of doubling the number of horizontal and vertical pixels of H3 ′ + H4 ′ and outputs the processed image U (H3 ′ + L3 ′) to the addition processing unit 719. Here, U () represents that the upsampling is performed twice.

加算処理部719は、ノイズ低減された帯域FB2の周波数帯域画像H2’と、アップサンプリングされた画像U(H3’+L3’)を加算し、加算された帯域FB2+FB3+FB4の周波数帯域画像H2’+U(H3’+L3’)をアップサンプリング部720へ出力する。アップサンプリング部720は、H2’+U(H3’+L3’)の水平垂直それぞれの画素数を2倍に拡大する処理を行い、処理後の画像U(H2’+U(H3’+L3’))を加算処理部721へ出力する。   The addition processing unit 719 adds the noise-reduced frequency band image H2 ′ of the band FB2 and the upsampled image U (H3 ′ + L3 ′), and adds the frequency band image H2 ′ + U (H3) of the added band FB2 + FB3 + FB4. '+ L3') is output to the upsampling unit 720. The upsampling unit 720 performs a process of doubling the number of horizontal and vertical pixels of H2 ′ + U (H3 ′ + L3 ′), and adds the processed image U (H2 ′ + U (H3 ′ + L3 ′)). The data is output to the processing unit 721.

加算処理部721は、ノイズ低減された帯域FB1の周波数帯域画像H1’と、アップサンプリングされた画像U(H2’+U(H3’+L3’))を加算し、加算された帯域FB1+FB2+FB3+FB4の周波数帯域画像H1’+U(H2’+U(H3’+L3’))を歪み補正処理部330へ出力する。このようにして、帯域FB1+FB2+FB3+FB4の全周波数画像が生成される。   The addition processing unit 721 adds the noise-reduced frequency band image H1 ′ of the band FB1 and the upsampled image U (H2 ′ + U (H3 ′ + L3 ′)), and the added frequency band image of the band FB1 + FB2 + FB3 + FB4 H1 ′ + U (H2 ′ + U (H3 ′ + L3 ′)) is output to the distortion correction processing unit 330. In this way, a full-frequency image of the band FB1 + FB2 + FB3 + FB4 is generated.

2.5.処理パラメータ制御部
次に、処理パラメータ制御部722について説明する。処理パラメータ制御部722は、ノイズ量推定部704、709、713、715に接続される。処理パラメータ制御部722は、制御部302から出力される歪み補正情報と観察モード別ノイズ低減ゲイン量に基づいてノイズ低減量を決定する。処理パラメータ制御部722は、具体的には、各画素位置における局所拡大率を歪み補正情報に基づいて算出し、算出した局所拡大率に基づいてノイズ低減量を算出する。
2.5. Processing Parameter Control Unit Next, the processing parameter control unit 722 will be described. The processing parameter control unit 722 is connected to the noise amount estimation units 704, 709, 713, and 715. The processing parameter control unit 722 determines the noise reduction amount based on the distortion correction information output from the control unit 302 and the noise reduction gain amount for each observation mode. Specifically, the processing parameter control unit 722 calculates a local enlargement ratio at each pixel position based on the distortion correction information, and calculates a noise reduction amount based on the calculated local enlargement ratio.

より具体的には、ノイズ低減処理される画素である注目画素(処理対象画素)の歪み補正情報と、注目画素の周辺画素の歪み補正情報に基づいて、局所拡大率ΔM(x,y)を算出する。局所拡大率ΔM(x,y)は、注目画素とその周辺領域がどれだけ拡大するかを表す。ここで、歪み補正情報は、歪み補正前の画素の座標に対する歪み補正後の座標を関連付けた情報である。   More specifically, the local enlargement ratio ΔM (x, y) is calculated based on distortion correction information of a target pixel (processing target pixel) that is a pixel subjected to noise reduction processing and distortion correction information of peripheral pixels of the target pixel. calculate. The local enlargement ratio ΔM (x, y) represents how much the target pixel and its surrounding area are enlarged. Here, the distortion correction information is information in which coordinates after distortion correction are associated with coordinates of pixels before distortion correction.

局所拡大率ΔM(x,y)は、下式(2)により算出される。ここで、注目画素の歪み補正情報をDr(x,y)=q(x’,y’)とする。周辺画素の歪み補正情報をDr(x−1,y)=q(x’−Δxx1’,y’−Δyx1’)、Dr(x,y−1)=q(x’−Δxy1’,y’−Δyy1’)とする。q(x’,y’)は、歪み補正処理後の画像内の位置ベクトルを表す。x’は歪み補正処理後の画像の水平座標を表し、y’は歪み補正処理後の画像の垂直座標を表す。Norm(q)はベクトルqの距離を表す。
The local enlargement ratio ΔM (x, y) is calculated by the following equation (2). Here, it is assumed that the distortion correction information of the target pixel is Dr (x, y) = q (x ′, y ′). The distortion correction information of the peripheral pixels is Dr (x−1, y) = q (x′−Δx x1 ′, y′−Δy x1 ′), Dr (x, y−1) = q (x′−Δx y1 ′). , Y′−Δy y1 ′). q (x ′, y ′) represents a position vector in the image after the distortion correction processing. x ′ represents the horizontal coordinate of the image after distortion correction processing, and y ′ represents the vertical coordinate of the image after distortion correction processing. Norm (q) represents the distance of the vector q.

上式(2)のΔM(x,y)は、歪み補正前の単位面積に対する歪み補正後の面積(おおよその面積)を表す。ΔM(x,y)が1より大きい場合には、歪み補正前よりも歪み補正後の方が拡大されていることを示す。ΔM(x,y)が1より小さい場合には、歪み補正前よりも歪み補正後の方が縮小されていることを示す。ΔM(x,y)が1に等しい場合には、歪み補正処理前後で面積が等しいことを示す。   ΔM (x, y) in the above equation (2) represents an area (approximate area) after distortion correction with respect to a unit area before distortion correction. When ΔM (x, y) is larger than 1, it indicates that the image after distortion correction is enlarged than before distortion correction. When ΔM (x, y) is smaller than 1, it indicates that the image after distortion correction is reduced more than before distortion correction. When ΔM (x, y) is equal to 1, it indicates that the areas are equal before and after the distortion correction processing.

図10(B)に示すように、局所拡大率とノイズ低減量との関係は、4つの周波数帯域FB1〜FB4に対して独立に決定されるようになっている。   As shown in FIG. 10B, the relationship between the local enlargement ratio and the amount of noise reduction is determined independently for the four frequency bands FB1 to FB4.

図11に示すように、局所拡大率をXとすると、信号の周波数帯域fmが周波数帯域fm/Xに圧縮される。即ち、局所拡大率が増大するほど高周波ノイズがより低周波側へシフトするため、局所拡大率が増大するほど高周波ノイズをより強く低減することで、拡大後でもノイズが視覚的に目立つことを抑止できる。   As shown in FIG. 11, when the local enlargement ratio is X, the frequency band fm of the signal is compressed to the frequency band fm / X. In other words, the higher the local magnification, the higher the frequency noise shifts to the lower frequency side. Therefore, the higher the local magnification, the stronger the high frequency noise is reduced, thereby preventing the noise from being visually noticeable even after enlargement. it can.

局所拡大率に対するノイズ低減量に帯域FB1〜FB4で違いを与えたのは、空間周波数に対する視覚特性がバンドパス的な特性を示すことに起因している。即ち、局所拡大率により視覚的に最も敏感な周波数へシフトする周波数帯域が異なるためである。具体的には図11に示すように、帯域FB1〜FB4は、拡大により帯域FB1’〜FB4’にシフトする。視覚特性においてノイズに敏感な周波数をftとすると、帯域FB1’〜FB4’のうち周波数ftを含む帯域は、局所拡大率Xに応じて変化することが分かる。例えば帯域FB2’が周波数ftを含む場合には、歪み補正前の帯域FB2に対して他の帯域よりも強くノイズ低減処理を行うことで、ノイズに敏感な周波数ftのノイズ成分を低減できる。   The difference in the noise reduction amount with respect to the local enlargement ratio in the bands FB1 to FB4 is due to the fact that the visual characteristics with respect to the spatial frequency show bandpass characteristics. That is, the frequency band for shifting to the visually most sensitive frequency differs depending on the local enlargement ratio. Specifically, as shown in FIG. 11, the bands FB1 to FB4 are shifted to the bands FB1 'to FB4' due to expansion. Assuming that the frequency sensitive to noise in the visual characteristics is ft, the band including the frequency ft among the bands FB1 'to FB4' changes according to the local enlargement ratio X. For example, when the band FB2 'includes the frequency ft, the noise component of the frequency ft that is sensitive to noise can be reduced by performing noise reduction processing stronger than the other bands on the band FB2 before distortion correction.

図12に、処理パラメータ制御部722の詳細な構成例を示す。処理パラメータ制御部722は、局所拡大率算出部751、第1〜第4のノイズ低減量算出部752〜755、第1〜第4の乗算部756〜759を含む。   FIG. 12 shows a detailed configuration example of the processing parameter control unit 722. The processing parameter control unit 722 includes a local enlargement ratio calculation unit 751, first to fourth noise reduction amount calculation units 752 to 755, and first to fourth multiplication units 756 to 759.

局所拡大率算出部751には、制御部302から出力された注目画素と、その周辺画素の歪み補正情報が入力される。局所拡大率算出部751は、上式(2)で説明した局所拡大率ΔM(x,y)を算出し、算出した局所拡大率ΔM(x,y)をノイズ低減量算出部752〜755に出力する。   The local enlargement ratio calculation unit 751 receives the target pixel output from the control unit 302 and the distortion correction information of the surrounding pixels. The local enlargement rate calculation unit 751 calculates the local enlargement rate ΔM (x, y) described in the above equation (2), and the calculated local enlargement rate ΔM (x, y) is input to the noise reduction amount calculation units 752 to 755. Output.

ノイズ低減量算出部752〜755は、それぞれ周波数帯域FB1〜FB4のノイズ成分を低減する低減量の算出処理を行う。ノイズ低減量算出部752には、図10(B)に示す帯域FB1のノイズ低減量に対応するLUT(Look-Up Table)が予め記憶されている。LUTの入力は局所拡大率であり、出力はノイズ低減量である。ノイズ低減量算出部752は、入力される局所拡大率に対応する帯域FB1のノイズ低減量を乗算部756へ出力する。   Noise reduction amount calculation units 752 to 755 perform reduction amount calculation processing for reducing noise components in frequency bands FB1 to FB4, respectively. The noise reduction amount calculation unit 752 stores in advance a LUT (Look-Up Table) corresponding to the noise reduction amount of the band FB1 shown in FIG. The input of the LUT is a local enlargement ratio, and the output is a noise reduction amount. The noise reduction amount calculation unit 752 outputs the noise reduction amount of the band FB1 corresponding to the input local enlargement ratio to the multiplication unit 756.

乗算部756には、制御部302からの観察モード別ノイズ低減ゲイン量が入力される。乗算部756は、観察モード別ノイズ低減ゲイン量と帯域FB1のノイズ低減量を乗算して帯域FB1の最終的なノイズ低減量を算出し、算出したノイズ低減量をノイズ量推定部704へ出力する。例えば、観察モード別ノイズ低減ゲイン量は、通常光観察モード時では1.0であり、特殊光観察モード時では1.0より大きな値である。通常光は例えば白色光である。特殊光は通常光とは異なる分光特性の光であり、例えば白色光の帯域よりも狭い帯域の光である。   The multiplier 756 receives the noise reduction gain amount for each observation mode from the control unit 302. Multiplier 756 multiplies the noise reduction gain for each observation mode by the noise reduction amount of band FB1 to calculate the final noise reduction amount of band FB1, and outputs the calculated noise reduction amount to noise amount estimation unit 704. . For example, the noise reduction gain amount for each observation mode is 1.0 in the normal light observation mode, and is larger than 1.0 in the special light observation mode. The normal light is, for example, white light. Special light is light having a spectral characteristic different from that of normal light, for example, light having a narrower band than that of white light.

ノイズ低減量算出部753には、図10(B)に示す帯域FB2のノイズ低減量に対応するLUTが予め記憶されている。ノイズ低減量算出部753は、入力される局所拡大率に対応する帯域FB2のノイズ低減量を乗算部757へ出力する。乗算部757には、制御部302からの観察モード別ノイズ低減ゲイン量が入力される。乗算部757は、観察モード別ノイズ低減ゲイン量と帯域FB2のノイズ低減量を乗算して帯域FB2の最終的なノイズ低減量を算出し、算出したノイズ低減量をノイズ量推定部709へ出力する。   In the noise reduction amount calculation unit 753, an LUT corresponding to the noise reduction amount of the band FB2 shown in FIG. 10B is stored in advance. The noise reduction amount calculation unit 753 outputs the noise reduction amount of the band FB2 corresponding to the input local enlargement ratio to the multiplication unit 757. The multiplication unit 757 receives the noise reduction gain amount for each observation mode from the control unit 302. Multiplier 757 multiplies the noise reduction gain for each observation mode by the noise reduction amount of band FB2, calculates the final noise reduction amount of band FB2, and outputs the calculated noise reduction amount to noise amount estimation unit 709. .

ノイズ低減量算出部754には、図10(B)に示す帯域FB3のノイズ低減量に対応するLUTが予め記憶されている。ノイズ低減量算出部754は、入力される局所拡大率に対応する帯域FB3のノイズ低減量を乗算部758へ出力する。乗算部758には、制御部302からの観察モード別ノイズ低減ゲイン量が入力される。乗算部758は、観察モード別ノイズ低減ゲイン量と帯域FB3のノイズ低減量を乗算して帯域FB3の最終的なノイズ低減量を算出し、算出したノイズ低減量をノイズ量推定部713へ出力する。   In the noise reduction amount calculation unit 754, an LUT corresponding to the noise reduction amount of the band FB3 shown in FIG. 10B is stored in advance. The noise reduction amount calculation unit 754 outputs the noise reduction amount of the band FB3 corresponding to the input local enlargement ratio to the multiplication unit 758. The multiplier 758 receives the observation mode-specific noise reduction gain amount from the controller 302. Multiplier 758 multiplies the noise reduction gain amount for each observation mode by the noise reduction amount of band FB3 to calculate the final noise reduction amount of band FB3, and outputs the calculated noise reduction amount to noise amount estimation unit 713. .

ノイズ低減量算出部755には、図10(B)に示す帯域FB4のノイズ低減量に対応するLUTが予め記憶されている。ノイズ低減量算出部755は、入力される局所拡大率に対応する帯域FB4のノイズ低減量を乗算部759へ出力する。乗算部759には、制御部302からの観察モード別ノイズ低減ゲイン量が入力される。乗算部759は、観察モード別ノイズ低減ゲイン量と帯域FB4のノイズ低減量を乗算して帯域FB4の最終的なノイズ低減量を算出し、算出したノイズ低減量をノイズ量推定部715へ出力する。   In the noise reduction amount calculation unit 755, an LUT corresponding to the noise reduction amount of the band FB4 shown in FIG. 10B is stored in advance. The noise reduction amount calculation unit 755 outputs the noise reduction amount of the band FB4 corresponding to the input local enlargement ratio to the multiplication unit 759. The multiplier 759 receives the noise reduction gain amount for each observation mode from the control unit 302. Multiplier 759 multiplies the noise reduction gain for each observation mode by the noise reduction amount of band FB4 to calculate the final noise reduction amount of band FB4 and outputs the calculated noise reduction amount to noise amount estimation unit 715. .

なお、ノイズ低減処理部320の構成は上記の構成に限定されず、種々の変形実施が可能である。例えば、上記ではノイズ低減処理部320を歪み補正処理部330の前段に置いた構成としたが、これに限定されず、ノイズ低減処理部320を歪み補正処理部330の後段に置いてもよい。この場合、拡大された画像周辺部のノイズの周波数特性が低周波側にシフトされた後の処理となるため、4つの周波数帯域のノイズ低減量は局所拡大率により低周波側の帯域を大きく低減するように制御する必要がある。   The configuration of the noise reduction processing unit 320 is not limited to the above configuration, and various modifications can be made. For example, in the above description, the noise reduction processing unit 320 is arranged in front of the distortion correction processing unit 330. However, the present invention is not limited to this, and the noise reduction processing unit 320 may be arranged in the subsequent stage of the distortion correction processing unit 330. In this case, since the frequency characteristics of the noise around the enlarged image are shifted to the low frequency side, the noise reduction amount in the four frequency bands is greatly reduced by the local magnification ratio. Need to be controlled.

ここで、上記では拡大率に応じてノイズ低減量を設定したが、本実施形態ではこれに限定されず、例えば画像の周波数帯域に応じてノイズ低減量を設定してもよい。この場合、例えばノイズ低減処理部320を歪み補正処理部330の後段とし、歪み補正後の画像の局所領域における周波数帯域を算出する。図21に示すように、局所領域は例えば光軸を中心とする円環領域(光軸から距離Rで幅ΔRの円環領域)であり、円周に沿った周波数特性の帯域を算出する。そして、その周波数帯域が狭いほど強く、その局所領域における所定帯域のノイズ成分を低減する。例えば、円周に沿った周波数特性の最大周波数を求め、その最大周波数から円環における局所拡大率を判定し、その局所拡大率に応じて低減度合いを設定する。所定帯域は、例えば図11のftを含む帯域である。局所拡大率が大きいほど周波数帯域が狭くなって低域のノイズが増大するため、周波数帯域に応じてノイズ低減量を設定することでノイズの均一化を実現できる。   Here, although the noise reduction amount is set according to the enlargement ratio in the above, the present embodiment is not limited to this, and for example, the noise reduction amount may be set according to the frequency band of the image. In this case, for example, the noise reduction processing unit 320 is placed after the distortion correction processing unit 330, and the frequency band in the local region of the image after distortion correction is calculated. As shown in FIG. 21, the local region is, for example, an annular region (an annular region having a distance R from the optical axis and a width ΔR) centered on the optical axis, and calculates a frequency characteristic band along the circumference. Then, the narrower the frequency band, the stronger, and the noise component of the predetermined band in the local region is reduced. For example, the maximum frequency of the frequency characteristic along the circumference is obtained, the local expansion rate in the ring is determined from the maximum frequency, and the degree of reduction is set according to the local expansion rate. The predetermined band is a band including, for example, ft in FIG. Since the frequency band becomes narrower and the low-frequency noise increases as the local enlargement ratio increases, the noise can be made uniform by setting the noise reduction amount according to the frequency band.

以上によれば、本実施形態の画像処理装置は、画像取得部と、補正処理部と、変換態様取得部と、ノイズ低減処理部を含む。画像取得部は、光学系の光学収差により歪みが生じた歪み画像を取得する。補正処理部は、その歪みを補正するための変換処理を、歪み画像の中の処理対象領域に対して行い、歪み画像を補正する。変換態様情報取得部は、変換処理による処理対象領域の変換態様を表す変換態様情報を取得する。ノイズ低減処理部は、取得された変換態様情報に基づいて、歪み画像に含まれるノイズ成分を低減する処理を行う。   As described above, the image processing apparatus according to the present embodiment includes the image acquisition unit, the correction processing unit, the conversion mode acquisition unit, and the noise reduction processing unit. The image acquisition unit acquires a distorted image in which distortion has occurred due to optical aberrations of the optical system. The correction processing unit performs a conversion process for correcting the distortion on the processing target area in the distortion image to correct the distortion image. The conversion mode information acquisition unit acquires conversion mode information representing the conversion mode of the processing target area by the conversion process. A noise reduction process part performs the process which reduces the noise component contained in a distortion image based on the acquired conversion aspect information.

このようにすれば、局所拡大率等の変換態様情報に応じてノイズ成分が変化する場合に、変換態様情報に基づいてノイズ低減処理を行うことで、視覚的に高感度な帯域のノイズ成分を画像内で均一化できる。これにより、視認性が向上するので今まで見逃されていたヒダ裏の病変部の見落とし率低減が可能になる。   In this way, when the noise component changes according to the conversion mode information such as the local enlargement ratio, the noise reduction processing is performed based on the conversion mode information, so that the noise component in the visually high sensitivity band can be obtained. Uniform in the image. Thereby, since visibility improves, the oversight rate of the lesioned part on the back of the fold that has been overlooked can be reduced.

ここで本実施形態では、画像処理装置は図1の画像処理部301に対応する。画像取得部は図1のA/D変換部210に対応する。補正処理部は歪み補正処理部330に対応する。変換態様取得部は図12の局所拡大率算出部751に対応する。ノイズ低減処理部は図5のノイズ低減処理部320に対応する。光学系は図1の対物レンズ203に対応する。   In this embodiment, the image processing apparatus corresponds to the image processing unit 301 in FIG. The image acquisition unit corresponds to the A / D conversion unit 210 in FIG. The correction processing unit corresponds to the distortion correction processing unit 330. The conversion mode acquisition unit corresponds to the local enlargement ratio calculation unit 751 in FIG. The noise reduction processing unit corresponds to the noise reduction processing unit 320 in FIG. The optical system corresponds to the objective lens 203 in FIG.

歪みとは、理想的な光学系の像からのずれである。例えば点Pの結像を点P’とし、光軸から点Pまでの距離をDとし、光軸から点P’までの距離をD’とする。歪みのない像ではD’/DがDに依らず一定であり、歪みのある像ではD’/DがDに応じて変化する。   Distortion is a deviation from an ideal optical system image. For example, let the imaging of the point P be a point P ′, the distance from the optical axis to the point P be D, and the distance from the optical axis to the point P ′ be D ′. In an image without distortion, D ′ / D is constant regardless of D, and in an image with distortion, D ′ / D changes according to D.

変換処理とは、例えば画素の座標を所定関数に従って変換する処理である。即ち、歪みの補正は、歪み画像を歪みのない画像に補正する場合に限らない。例えば、本実施形態のように画像上の位置に応じた倍率で拡大縮小を行う変換であってもよい。   The conversion process is, for example, a process for converting pixel coordinates according to a predetermined function. That is, the correction of distortion is not limited to correcting a distorted image to an image without distortion. For example, as in the present embodiment, conversion that performs enlargement / reduction at a magnification according to the position on the image may be used.

処理対象領域は、複数の画素から構成される領域であってもよいし、一つの画素から構成される領域であってもよい。例えば本実施形態では、1画素の注目画素を処理対象領域として歪み補正処理を行う。   The processing target area may be an area composed of a plurality of pixels or an area composed of a single pixel. For example, in the present embodiment, the distortion correction processing is performed using one pixel of interest as a processing target region.

変換態様情報とは、変換処理における処理対象領域の面積の変換倍率を表す情報である。即ち、変換前後において領域が拡大したことを表す情報や、変換前後において領域が縮小したことを表す情報や、変換前後において領域が変わらなかったことを表す情報である。例えば、変換態様情報は変換倍率そのものであってもよいし、変換前の画素座標と変換後の画素座標の対応情報であってもよいし、処理対象領域についての周波数特性の情報であってもよい。   The conversion mode information is information representing the conversion magnification of the area of the processing target area in the conversion process. That is, information indicating that the area has been expanded before and after conversion, information indicating that the area has been reduced before and after conversion, and information indicating that the area has not changed before and after conversion. For example, the conversion mode information may be the conversion magnification itself, correspondence information between the pixel coordinates before conversion and the pixel coordinates after conversion, or information on frequency characteristics of the processing target region. Good.

また本実施形態では、ノイズ低減処理部は、ノイズ成分を低減する度合いであるノイズ低減度合いを変換態様情報に基づいて決定し、決定したノイズ低減度合いに基づいてノイズ低減処理を行う。   In the present embodiment, the noise reduction processing unit determines a noise reduction degree, which is a degree of reducing the noise component, based on the conversion mode information, and performs noise reduction processing based on the determined noise reduction degree.

例えば本実施形態では、ノイズ低減量をノイズ低減度合いとして低減処理を行う。図10(B)に示すように、ノイズ低減量は、変換態様情報である局所拡大率に応じて決定され、ノイズ低減量に基づいて平滑化処理パラメータσが設定される。平滑化処理は、ノイズ低減量が大きいほど、推定されたノイズ量をより大きく減少させるように働く。 For example, in the present embodiment, the reduction processing is performed with the noise reduction amount as the noise reduction degree. As shown in FIG. 10B, the noise reduction amount is determined according to the local enlargement ratio that is the conversion mode information, and the smoothing processing parameter σ s is set based on the noise reduction amount. The smoothing process works to reduce the estimated noise amount more as the noise reduction amount is larger.

このようにすれば、変換態様情報に応じて変化するノイズ成分を変換態様情報に応じた度合いで低減でき、ノイズ成分の均一化を図ることが可能になる。   In this way, the noise component that changes according to the conversion mode information can be reduced to a degree according to the conversion mode information, and the noise components can be made uniform.

また本実施形態では、上式(2)等で上述のように、変換態様情報は、変換処理前の処理対象領域の大きさ(面積)と、変換処理後の処理対象領域の大きさ(面積)との比較結果に関する情報(局所拡大率ΔM(x,y))である。ノイズ低減処理部は、ノイズ低減度合いを、変換処理前の処理対象領域の大きさと変換処理後の処理対象領域の大きさとの比較結果(局所拡大率ΔM(x,y))に応じて制御する。   In the present embodiment, as described above in Expression (2) and the like, the conversion mode information includes the size (area) of the processing target region before the conversion processing and the size (area) of the processing target region after the conversion processing. ) (Local enlargement ratio ΔM (x, y)). The noise reduction processing unit controls the degree of noise reduction according to a comparison result (local enlargement ratio ΔM (x, y)) between the size of the processing target region before the conversion processing and the size of the processing target region after the conversion processing. .

より具体的には、ノイズ低減処理部は、変換処理後の処理対象領域が変換処理前の処理対象領域よりも大きいという第1の条件に該当する場合には、ノイズ低減度合いを、第1の条件以外の条件に該当する場合よりも相対的に大きくする。一方、ノイズ低減処理部は、変換処理後の処理対象領域が変換処理前の処理対象領域よりも小さいという第2の条件に該当する場合には、ノイズ低減度合いを、第2の条件以外の条件に該当する場合よりも相対的に小さくする。   More specifically, the noise reduction processing unit sets the noise reduction degree to the first level when the first condition that the processing target area after the conversion processing is larger than the processing target area before the conversion processing is satisfied. Make it relatively larger than when the condition other than the condition is met. On the other hand, when the noise reduction processing unit satisfies the second condition that the processing target area after the conversion processing is smaller than the processing target area before the conversion processing, the noise reduction processing unit sets the noise reduction degree to a condition other than the second condition. It is relatively smaller than the case corresponding to.

このようにすれば、処理対象領域の大きさの変化に応じて増減する低周波ノイズを、処理対象領域の大きさの変化に応じた度合いで低減できる。例えば図4(C)に示すように画像周辺部において第1の条件に該当する拡大処理であり、画像中央部において第2の条件に該当する縮小処理である場合、視覚的にノイズが増大する画像周辺部のノイズ低減度合いを画像中央部よりも大きくできる。   In this way, low-frequency noise that increases or decreases according to the change in the size of the processing target area can be reduced to a degree corresponding to the change in the size of the processing target area. For example, as shown in FIG. 4C, when the enlargement process corresponds to the first condition in the peripheral part of the image and the reduction process corresponds to the second condition in the central part of the image, noise increases visually. The degree of noise reduction at the periphery of the image can be made larger than that at the center of the image.

ここで、処理対象領域の大きさは面積に限定されず、例えば処理対象領域の辺の長さや所定方向における長さ等であってもよい。また比較結果は局所拡大率ΔM(x,y)に限定されず、例えば変換処理前の大きさと変換処理後の大きさの比や、変換処理前の大きさと変換処理後の大きさの大小関係等であってもよい。   Here, the size of the processing target region is not limited to the area, and may be, for example, the length of a side of the processing target region, the length in a predetermined direction, or the like. The comparison result is not limited to the local enlargement ratio ΔM (x, y). For example, the ratio between the size before the conversion processing and the size after the conversion processing, or the magnitude relationship between the size before the conversion processing and the size after the conversion processing. Etc.

また本実施形態では、画像取得部は、処理対象領域における歪みの歪み度合いが、歪み画像における処理対象領域の位置に応じて異なる画像を取得する。補正処理部は、処理対象領域における歪み度合いに応じて、処理対象領域の大きさを変換する処理を行う。ノイズ低減処理部は、処理対象領域の大きさの変換結果に応じて、ノイズ成分を低減する度合いであるノイズ低減度合いを制御する。   In the present embodiment, the image acquisition unit acquires an image in which the degree of distortion in the processing target region differs depending on the position of the processing target region in the distorted image. The correction processing unit performs processing for converting the size of the processing target area according to the degree of distortion in the processing target area. The noise reduction processing unit controls a noise reduction degree, which is a degree of reducing the noise component, according to the conversion result of the size of the processing target region.

より具体的には、図4(B)で上述のように、画像取得部は、歪み画像の中央領域における歪み度合いが、周辺領域における歪み度合いよりも相対的に小さい画像を取得する。図4(C)で上述のように、補正処理部は、中央領域内の処理対象領域の大きさを、変換処理前の大きさよりも縮小する処理を行う。図10(B)で上述のように、ノイズ低減処理部は、中央領域におけるノイズ低減度合いを、周辺領域におけるノイズ低減度合いよりも相対的に小さくする。   More specifically, as described above with reference to FIG. 4B, the image acquisition unit acquires an image in which the degree of distortion in the central area of the distortion image is relatively smaller than the degree of distortion in the peripheral area. As described above with reference to FIG. 4C, the correction processing unit performs a process of reducing the size of the processing target area in the central area from the size before the conversion process. As described above with reference to FIG. 10B, the noise reduction processing unit makes the noise reduction degree in the central area relatively smaller than the noise reduction degree in the peripheral area.

また図4(C)で上述のように、補正処理部は、周辺領域内の処理対象領域の大きさを、変換処理前の大きさよりも拡大する処理を行う。図10(B)で上述のように、ノイズ低減処理部は、周辺領域におけるノイズ低減度合いを、中央領域におけるノイズ低減度合いよりも相対的に大きくする。   In addition, as described above with reference to FIG. 4C, the correction processing unit performs processing for enlarging the size of the processing target region in the peripheral region as compared with the size before the conversion processing. As described above with reference to FIG. 10B, the noise reduction processing unit makes the noise reduction degree in the peripheral area relatively larger than the noise reduction degree in the central area.

このようにすれば、歪み度合いに応じて処理対象領域の大きさを変換し、その変換結果に応じた度合いでノイズ低減できる。これにより、歪みの大きい領域ほど拡大率を大きくできるため、歪みによりつぶれた被写体の視認性を向上できる。また、拡大した領域のノイズによる視認性劣化を抑止できる。   In this way, the size of the processing target area can be converted according to the degree of distortion, and noise can be reduced to a degree according to the conversion result. Thereby, since the enlargement ratio can be increased in a region where the distortion is large, the visibility of the subject collapsed by the distortion can be improved. Further, visibility degradation due to noise in the enlarged area can be suppressed.

ここで、歪み度合いとは、理想的な光学系の像からのずれの度合いである。例えば、上述の距離D、D’を例にすると、歪みのある場合のD’/Dと歪みのない場合のD’/Dのずれ(例えば差や比等)が歪み度合いである。この歪み度合いはDに依存している。周辺部ほど歪む光学系では、Dが大きいほど歪み度合いが大きい。   Here, the degree of distortion is the degree of deviation from an ideal optical system image. For example, taking the distances D and D 'described above as an example, the deviation (for example, difference or ratio) between D' / D when there is distortion and D '/ D when there is no distortion is the degree of distortion. This degree of distortion depends on D. In an optical system that is distorted toward the periphery, the degree of distortion increases as D increases.

中央領域(中央部)とは、光軸を含む画像領域であり、例えば光軸を中心とする円内の領域である。周辺領域(周辺部)とは、中央領域を囲む領域であり、例えば光軸を中心とする円環領域である。周辺領域と中央領域の間に他の領域があってもよいし、周辺領域と中央領域が接していてもよい。   The central region (central portion) is an image region including the optical axis, for example, a region within a circle centered on the optical axis. The peripheral region (peripheral portion) is a region surrounding the central region, for example, an annular region centered on the optical axis. There may be another region between the peripheral region and the central region, or the peripheral region and the central region may be in contact with each other.

また本実施形態では、ノイズ低減処理部は、周波数帯域分割部と平滑化処理部を有する。図9に示すように、周波数帯域分割部は、歪み画像を、周波数帯域が異なる第1〜第nの周波数帯域画像(FB1〜FB4)に分割する。平滑化処理部は、分割された各周波数帯域画像に対して異なる平滑化処理を行う。   In this embodiment, the noise reduction processing unit includes a frequency band dividing unit and a smoothing processing unit. As shown in FIG. 9, the frequency band dividing unit divides the distortion image into first to nth frequency band images (FB1 to FB4) having different frequency bands. The smoothing processing unit performs different smoothing processes on the divided frequency band images.

具体的には、図10(B)で上述のように、平滑化処理部は、FB1〜FB4のうちの第i(iはn以下の自然数)の周波数帯域画像(例えばFB2)に含まれるノイズ成分を低減する度合いを、比較結果に関する情報に基づいて制御する。上式(1)で上述のように、平滑化処理部は、制御されたノイズ低減度合いに基づいて、第iの周波数帯域画像(FB2)に対する平滑化処理を行う。   Specifically, as described above with reference to FIG. 10B, the smoothing processing unit performs noise included in the i-th (i is a natural number equal to or less than n) frequency band image (for example, FB2) of FB1 to FB4. The degree to which the component is reduced is controlled based on the information regarding the comparison result. As described above in Expression (1), the smoothing processing unit performs the smoothing process on the i-th frequency band image (FB2) based on the controlled noise reduction degree.

より具体的には、上式(2)で上述のように、比較結果に関する情報は、変換処理前の処理対象領域の面積に対する変換処理後の処理対象領域の面積の倍率ΔM(x,y)である。図10(B)に示すように、倍率ΔM(x,y)は第1〜第nの倍率範囲(R1〜R4)に分割される。R1〜R4は第1から第nに向かって順次低倍率の倍率範囲である。図9に示すように、FB1〜FB4は第1から第nに向かって順次低周波数の帯域画像である。この場合に、平滑化処理部は、倍率ΔM(x,y)がR1〜R4のうちの第iの倍率範囲(例えばR2)に含まれる場合、第iの周波数帯域画像(FB2)のノイズ低減度合いを、他の周波数帯域画像(FB1、FB3、FB4)のノイズ低減度合い以上にする。   More specifically, as described above in the above equation (2), the information related to the comparison result is the magnification ΔM (x, y) of the area of the processing target area after the conversion process with respect to the area of the processing target area before the conversion process. It is. As shown in FIG. 10B, the magnification ΔM (x, y) is divided into first to nth magnification ranges (R1 to R4). R1 to R4 are low-magnification ranges sequentially from the first to the n-th. As shown in FIG. 9, FB1 to FB4 are low-frequency band images sequentially from the first to the nth. In this case, the smoothing processing unit reduces noise of the i-th frequency band image (FB2) when the magnification ΔM (x, y) is included in the i-th magnification range (for example, R2) of R1 to R4. The degree is set to be equal to or higher than the noise reduction degree of the other frequency band images (FB1, FB3, FB4).

このようにすれば、図11で上述のように、ノイズを低減させたい周波数ft近傍のノイズ成分を低減することが可能になる。また周波数ft近傍以外の帯域では平滑化を弱めることができるため、構造の周波数特性を残すことができる。また、ノイズ低減度合いを大きくする周波数帯域を倍率ΔM(x,y)が大きいほど高くすることで、歪み補正後に周波数ft近傍にくる周波数帯域のノイズ成分を歪み補正前に低減できる。   In this way, as described above with reference to FIG. 11, it is possible to reduce noise components in the vicinity of the frequency ft at which noise is desired to be reduced. Further, since smoothing can be weakened in a band other than the vicinity of the frequency ft, the frequency characteristics of the structure can be left. Also, by increasing the frequency band for increasing the degree of noise reduction as the magnification ΔM (x, y) increases, the noise component in the frequency band near the frequency ft after distortion correction can be reduced before distortion correction.

ここで本実施形態では、周波数帯域分割部は、図8のローパス処理部701、706、711、ダウンサンプリング部702、707、減算処理部703、708、712に対応する。平滑化処理部は、図8の処理パラメータ制御部722、ノイズ量推定部704、709、712、715、平滑化処理部705、710、714、716に対応する。   Here, in this embodiment, the frequency band dividing unit corresponds to the low-pass processing units 701, 706, and 711, the down-sampling units 702 and 707, and the subtraction processing units 703, 708, and 712 in FIG. The smoothing processing unit corresponds to the processing parameter control unit 722, the noise amount estimation units 704, 709, 712, and 715 and the smoothing processing units 705, 710, 714, and 716 in FIG.

また本実施形態では、光学収差は、歪曲収差である。   In the present embodiment, the optical aberration is distortion.

歪曲収差とは、直線の像が直線にならず、歪曲した曲線となる収差である。一般的には、広角の対物光学系で生じ、光軸から遠いほど歪曲収差が大きくなる。   Distortion is an aberration in which a straight image does not become a straight line but becomes a distorted curve. Generally, it occurs in a wide-angle objective optical system, and the distortion becomes larger as the distance from the optical axis increases.

また本実施形態では、図1に示すように、光学系は、前方の視野範囲及び側方の視野範囲を撮像する対物レンズ203を有する。   In this embodiment, as shown in FIG. 1, the optical system includes an objective lens 203 that images the front visual field range and the lateral visual field range.

前方の視野範囲とは、光軸方向を含む視野範囲であり、例えば光軸に対して0度〜45度の範囲である。側方の視野範囲とは、光軸に直交する方向を含む視野範囲であり、例えば光軸に対して45度〜135度の範囲である。本実施形態の対物レンズ203は、例えば光軸に対して0度〜110度の視野範囲を有する。   The front visual field range is a visual field range including the optical axis direction, for example, a range of 0 to 45 degrees with respect to the optical axis. The lateral visual field range is a visual field range including a direction orthogonal to the optical axis, and is, for example, a range of 45 degrees to 135 degrees with respect to the optical axis. The objective lens 203 of the present embodiment has a visual field range of 0 degrees to 110 degrees with respect to the optical axis, for example.

また本実施形態では、図4(A)に示すように、画像取得部は、対物レンズ203を介して管状被写体内を撮像した画像を取得する。   In the present embodiment, as illustrated in FIG. 4A, the image acquisition unit acquires an image obtained by imaging the inside of the tubular subject via the objective lens 203.

また本実施形態では、変換処理は、射影変換処理である。   In the present embodiment, the conversion process is a projective conversion process.

射影とは、光学系による被写体から像への変換を表す。例えば上述のように点Pの像が点P’である場合に、光軸と点P’の距離D’を光軸と点Pの成す角度θで表した関数である。射影変換処理とは、射影を他の射影に変換する画像処理である。なお本実施形態では、光学系による被写体から像への変換も適宜射影変換と呼んでいる。   Projection represents conversion from a subject to an image by an optical system. For example, when the image of the point P is the point P ′ as described above, the distance D ′ between the optical axis and the point P ′ is a function expressed by the angle θ formed by the optical axis and the point P. Projection conversion processing is image processing that converts a projection into another projection. In the present embodiment, conversion from a subject to an image by an optical system is also referred to as projective conversion as appropriate.

また本実施形態の制御装置300は、画像処理装置と、制御部302を含む。制御部302は、歪み画像を撮像する内視鏡装置の観察状態を検出し、検出された観察状態に基づいて、補正処理部による変換処理を制御する。具体的には、制御部302は、観察状態が、歪み画像の周辺領域を拡大観察する状態である場合に、周辺領域を拡大する変換処理を行うように補正処理部を制御する。また制御部302は、ユーザから内視鏡装置の観察状態に関する情報の入力を受け付ける受付部(図示しない受付部)を有する。制御部302は、受け付けた情報に基づいて、内視鏡装置の観察状態を検出する。   The control device 300 according to the present embodiment includes an image processing device and a control unit 302. The control unit 302 detects the observation state of the endoscope apparatus that captures the distortion image, and controls the conversion processing by the correction processing unit based on the detected observation state. Specifically, the control unit 302 controls the correction processing unit to perform a conversion process for enlarging the peripheral region when the observation state is a state in which the peripheral region of the distorted image is magnified. In addition, the control unit 302 includes a reception unit (a reception unit not illustrated) that receives input of information related to the observation state of the endoscope apparatus from the user. The control unit 302 detects the observation state of the endoscope apparatus based on the received information.

このようにすれば、観察状態に応じた歪み補正処理を行うことができる。例えば、大腸に挿入する際には補正せず、引き抜きながら診察する際には補正してもよい。あるいは、病変部に正対する拡大観察では補正せず、管腔に沿った方向に観察する通常観察では補正してもよい。あるいは、ヒダ裏の病変部を拡大観察する場合、スコープを正対させられないためスコープ側方をヒダ裏に近づける。この場合、通常の歪み補正よりもさらに周辺部を拡大する補正を行ってもよい。   In this way, distortion correction processing according to the observation state can be performed. For example, the correction may not be performed when inserted into the large intestine, but may be performed when the patient is examined while being pulled out. Or you may correct | amend by the normal observation observed in the direction along a lumen | bore, without correcting by the enlarged observation facing a lesioned part. Alternatively, when magnifying the lesion on the back of the fold, the scope cannot be directly opposed, so the side of the scope is brought close to the fold. In this case, correction for enlarging the peripheral portion may be performed as compared with normal distortion correction.

なお、本実施形態では、ユーザ指示による観察状態の検出に限定されず、例えば大腸への挿入長が減少に転じたことを検出して観察状態を自動的に検出してもよい。   In the present embodiment, the observation state is not limited to detection by a user instruction. For example, the observation state may be automatically detected by detecting that the insertion length into the large intestine has started to decrease.

また本実施形態の制御装置300は、補正処理部により補正された画像を表示部400に表示する制御を行う表示制御部(図示しない表示制御部)を含む。   In addition, the control device 300 according to the present embodiment includes a display control unit (a display control unit (not shown)) that performs control to display the image corrected by the correction processing unit on the display unit 400.

3.第2の実施形態
3.1.内視鏡装置
次に、第2の実施形態について説明する。第1の実施形態では、面順次方式の撮像を行い、第2の実施形態では、ベイヤ配列の撮像素子により撮像を行う。また第1の実施形態では、4つの周波数帯域に分割してノイズ低減処理を行うが、第2の実施形態では、時間方向のノイズ低減処理と空間方向のノイズ低減処理を行い、これらの処理結果を局所拡大率に応じて合成する。
3. Second Embodiment 3.1. Endoscope Device Next, a second embodiment will be described. In the first embodiment, frame-sequential imaging is performed, and in the second embodiment, imaging is performed by a Bayer array imaging element. In the first embodiment, noise reduction processing is performed by dividing into four frequency bands. However, in the second embodiment, noise reduction processing in the time direction and noise reduction processing in the spatial direction are performed, and these processing results are obtained. Are combined according to the local enlargement ratio.

図13に、内視鏡装置の第2の構成例を示す。内視鏡装置は、光源部100と、撮像部200と、制御装置300と、表示部400と、外部I/F部500を含む。なお第1の実施形態と同一の構成要素については適宜説明を省略し、以下では第1の実施形態と異なる詳細構成を主に説明する。   FIG. 13 shows a second configuration example of the endoscope apparatus. The endoscope apparatus includes a light source unit 100, an imaging unit 200, a control device 300, a display unit 400, and an external I / F unit 500. Note that the description of the same components as those in the first embodiment will be omitted as appropriate, and the detailed configuration different from that in the first embodiment will be mainly described below.

光源部100は、白色光源101と、ライトガイドファイバ201の入射端面に集光させる集光レンズ104と、を含む。この光源部100には回転色フィルタは存在しない。   The light source unit 100 includes a white light source 101 and a condensing lens 104 that collects light on the incident end face of the light guide fiber 201. The light source unit 100 has no rotation color filter.

撮像部200は、ライトガイドファイバ201と、照明レンズ202、204と、撮像素子209と、A/D変換部210を含む。第1の実施例とは撮像素子209が異なり、撮像素子209は原色単板撮像素子により構成される。原色単板撮像素子は、所謂ベイヤ配列の撮像素子であり、CCDやCMOSを利用できる。   The imaging unit 200 includes a light guide fiber 201, illumination lenses 202 and 204, an imaging element 209, and an A / D conversion unit 210. The image sensor 209 is different from the first embodiment, and the image sensor 209 is constituted by a primary color single plate image sensor. The primary color single-plate image sensor is a so-called Bayer array image sensor, and a CCD or CMOS can be used.

制御装置300は、画像処理部301、制御部302を含む。画像処理部301は、第1の実施形態と同様の構成であり、OBクランプ処理部310、ノイズ低減処理部320、歪み補正処理部330、WB処理部340、3板化処理部350、色補正処理部360、階調変換処理部370、強調処理部380を含む。ノイズ低減処理部320、歪み補正処理部330、WB処理部340、3板化処理部350の処理が第1の実施形態とは異なる。   The control device 300 includes an image processing unit 301 and a control unit 302. The image processing unit 301 has the same configuration as that of the first embodiment, and includes an OB clamp processing unit 310, a noise reduction processing unit 320, a distortion correction processing unit 330, a WB processing unit 340, a three plate processing unit 350, a color correction. A processing unit 360, a gradation conversion processing unit 370, and an enhancement processing unit 380 are included. The processing of the noise reduction processing unit 320, the distortion correction processing unit 330, the WB processing unit 340, and the 3 plate processing unit 350 is different from that of the first embodiment.

第1の実施形態では、歪み補正処理部330には、有効領域画像の画素全てに3つの色光に対応した画素値が存在する画像(R画像、G画像、B画像)が入力される。第2の実施形態では、歪み補正処理部330には、図16(A)に示すベイヤ配列の画像が入力される。そのため、R画素のみ(又はG画素のみ、B画素のみ)からなる同一色の画像は、サンプリング間隔が粗い画像となる。この場合、歪み補正処理で使用する補間フィルタのカーネルサイズは第1の実施形態よりも大きくなるが、基本的な歪み補正処理は変わらないので説明を省略する。   In the first embodiment, the distortion correction processing unit 330 receives an image (R image, G image, B image) in which pixel values corresponding to three color lights are present in all the pixels of the effective area image. In the second embodiment, the Bayer array image shown in FIG. 16A is input to the distortion correction processing unit 330. Therefore, an image of the same color made up of only R pixels (or only G pixels and only B pixels) is an image with a coarse sampling interval. In this case, the kernel size of the interpolation filter used in the distortion correction process is larger than that in the first embodiment, but the basic distortion correction process is not changed, and thus description thereof is omitted.

WB処理部340についても、基本的にR画素とB画素に対するホワイトバランス係数の乗算のみであるので説明は省略する。   Since the WB processing unit 340 is basically only the multiplication of the white balance coefficient for the R pixel and the B pixel, the description thereof is omitted.

3板化処理部350は、ベイヤ配列から欠落している色信号を補間処理で生成することで3板化を行う。例えば、公知のデモザイキング処理により補間処理を行う。   The 3-plate processing unit 350 performs 3-plate processing by generating a color signal missing from the Bayer array by interpolation processing. For example, an interpolation process is performed by a known demosaicing process.

3.2.ノイズ低減処理部
次に、第2の実施形態におけるノイズ低減処理について詳細に説明する。図14にノイズ低減処理部320の詳細な構成例を示す。ノイズ低減処理部320は、処理パラメータ制御部901、非線形フィルタ処理部902、903、重み加算処理部904、フレームメモリ905を含む。
3.2. Noise Reduction Processing Unit Next, the noise reduction processing in the second embodiment will be described in detail. FIG. 14 shows a detailed configuration example of the noise reduction processing unit 320. The noise reduction processing unit 320 includes a processing parameter control unit 901, nonlinear filter processing units 902 and 903, a weight addition processing unit 904, and a frame memory 905.

制御部302は、処理パラメータ制御部901に接続されている。処理パラメータ制御部901は、ノイズ低減処理する注目画素とその周辺画素領域における歪み補正後の局所拡大率を、制御部302から出力される歪み補正情報に基づいて算出する。この注目画素の局所拡大率は、第1の実施形態で上述の手法と同様に算出される。   The control unit 302 is connected to the processing parameter control unit 901. The processing parameter control unit 901 calculates the local enlargement rate after distortion correction in the target pixel to be subjected to noise reduction processing and the surrounding pixel region based on the distortion correction information output from the control unit 302. The local enlargement ratio of the target pixel is calculated in the same manner as the above-described method in the first embodiment.

図15に示すように、処理パラメータ制御部901は、フレーム内平滑化画素値とフレーム間平滑化画素値との合成比率を局所拡大率に基づいて設定し、決定した合成比率を重み加算処理部904へ出力する。図15に示す局所拡大率と合成比率の関係について説明する。   As illustrated in FIG. 15, the processing parameter control unit 901 sets a combination ratio between the intra-frame smoothed pixel value and the inter-frame smoothed pixel value based on the local enlargement ratio, and the determined combination ratio is a weight addition processing unit. Output to 904. The relationship between the local enlargement ratio and the composition ratio shown in FIG. 15 will be described.

図15に示すように、歪み補正に伴う局所拡大率が増大するとフレーム内平滑化画素値の合成比率αを下げ、フレーム間平滑化画素値の合成比率βを上げる。特に動きが小さな領域で解像度を維持しつつノイズ低減効果を得るには、フレーム内相関を用いたノイズ低減処理よりも、フレーム間相関を用いたノイズ低減処理の比率を上げる方がよい。   As shown in FIG. 15, when the local enlargement ratio associated with distortion correction is increased, the intra-frame smoothed pixel value composite ratio α is lowered, and the inter-frame smoothed pixel value composite ratio β is increased. In particular, in order to obtain the noise reduction effect while maintaining the resolution in a region where the motion is small, it is better to increase the ratio of the noise reduction processing using the inter-frame correlation than the noise reduction processing using the intra-frame correlation.

その理由を詳細に説明する。ランダムノイズは時間方向と空間方向で独立に変動するが、歪補正に伴う空間的な拡大処理はランダムノイズの空間的な特性をより低周波側へシフトさせる(低周波ノイズとなる)。一方、ランダムノイズの時間的な周波数変化は発生しない。   The reason will be described in detail. Random noise fluctuates independently in the time direction and the spatial direction, but spatial enlargement processing accompanying distortion correction shifts the spatial characteristics of the random noise to a lower frequency side (becomes low frequency noise). On the other hand, the temporal frequency change of random noise does not occur.

ノイズ低減処理は基本的にローパスフィルタ処理となるが、歪補正による拡大処理前後で被写体の空間的なボケ量を一定に保持するには、ローパスフィルタの周波数特性を固定とするのが良い。しかし空間方向のローパスフィルタ特性を固定にすると、歪補正による拡大処理後ではランダムノイズが空間的に低周波側へシフトするため、ローパスフィルタ処理でカットされずに残ったノイズが、より視覚感度特性の高い低周波ノイズとして顕在化する。そのため相対的にノイズ低減効果が低下したように知覚される。この低下分を時間方向のノイズ変動を抑圧するフレーム間相関を利用したノイズ低減処理で増強する。   The noise reduction process is basically a low-pass filter process, but in order to keep the subject's spatial blurring amount constant before and after the enlargement process by distortion correction, it is preferable to fix the frequency characteristic of the low-pass filter. However, if the low-pass filter characteristics in the spatial direction are fixed, random noise will be spatially shifted to the low frequency side after enlargement processing by distortion correction. It manifests itself as high low frequency noise. Therefore, it is perceived that the noise reduction effect is relatively lowered. This reduction is enhanced by noise reduction processing using inter-frame correlation that suppresses noise fluctuations in the time direction.

フレーム間相関を利用したノイズ低減処理は時間方向に対するローパスフィルタ処理となり、被写体に動きが無い場合には空間的なボケの発生を抑えつつランダムノイズをカットする事ができる。(この場合、上式(4)のσs2を上式(3)のσs1より小さく設定する必要がある) The noise reduction process using the correlation between frames is a low-pass filter process in the time direction, and when there is no motion in the subject, random noise can be cut while suppressing the occurrence of spatial blur. (In this case, σ s2 in the above equation (4) needs to be set smaller than σ s1 in the above equation (3)).

逆に動きが大きな領域では時間方向に高周波成分が発生することになるので、時間方向に対するローパスフィルタ処理を強めると、動きブレによる空間的なボケが発生する。また、ローパスフィルタ処理がIIR(infinite impulse response)型となるため、残像が多く発生してしまう。   On the other hand, since a high frequency component is generated in the time direction in a region where the motion is large, if the low-pass filter processing in the time direction is strengthened, spatial blur due to motion blur occurs. Further, since the low-pass filter processing is an IIR (infinite impulse response) type, a lot of afterimages are generated.

つまり、動きが小さな領域に対してはより積極的にフレーム間相関を利用したノイズ低減処理を適用できることになる。また、歪補正による拡大処理を行う前の画像周辺領域は画像中央領域に比べて縮小領域となるので、見かけ上の動きは小さい領域となる。したがって、画像周辺領域に対してフレーム間相関を利用したノイズ低減処理をより強く作用させて空間方向のノイズ低減効果の低下分を補ってもボケを抑えてノイズ低減効果を得る事が可能となる。特にフレーム間相関を利用したノイズ低減処理は図17に示す現在フレームの注目画素に対応する過去フレームの周辺領域を用いて処理するので、その周辺領域内に含まれる動き量であればフレーム間相関を利用できる。   That is, it is possible to apply the noise reduction process using the inter-frame correlation more positively to an area where the motion is small. Further, since the peripheral area of the image before the enlargement process by distortion correction is a reduced area compared to the central area of the image, the apparent movement is a small area. Therefore, even if the noise reduction process using the inter-frame correlation is more strongly applied to the peripheral area of the image to compensate for the reduction in the noise reduction effect in the spatial direction, it is possible to suppress the blur and obtain the noise reduction effect. . In particular, the noise reduction processing using inter-frame correlation is performed using the peripheral area of the past frame corresponding to the target pixel of the current frame shown in FIG. Can be used.

非線形フィルタ処理部902、903には、OBクランプ処理部310から出力された有効領域画像が入力される。非線形フィルタ処理部902、903は、例えばバイラテラルフィルタ等の非線形フィルタにより平滑化処理を行う。   The effective area image output from the OB clamp processing unit 310 is input to the nonlinear filter processing units 902 and 903. The non-linear filter processing units 902 and 903 perform a smoothing process using a non-linear filter such as a bilateral filter, for example.

非線形フィルタ処理部902は、空間方向に平滑化するフレーム内平滑化処理を行う。図14に示すように、非線形フィルタ処理部902は、現在の(処理対象の)フレーム画像内の注目画素とその周辺領域(例えばベイヤ配列上で9×9画素)に含まれている同一色の信号のみを抽出し、抽出した同一色の信号に対して平滑化処理を行う。同一色とは、R画素からなるR画像、G画素からなるG画像、B画素からなるB画像である。なお、図16(B)に示すように、G画素を更に、R画素と同一行に位置するGr画素からなるGr画像と、B画素と同一行に位置するGb画素からなるGb画像に分けてもよい。この場合には、後述する非線形フィルタ処理で用いる相対的なサンプリング位置はR、Gr、Gb、B画像に対して全て共通化することが可能となり、回路規模を低減できる。   The non-linear filter processing unit 902 performs an intra-frame smoothing process for smoothing in the spatial direction. As shown in FIG. 14, the non-linear filter processing unit 902 has the same color included in the pixel of interest in the current (processing target) frame image and its peripheral region (for example, 9 × 9 pixels on the Bayer array). Only the signal is extracted, and smoothing processing is performed on the extracted signal of the same color. The same color is an R image composed of R pixels, a G image composed of G pixels, and a B image composed of B pixels. As shown in FIG. 16B, the G pixel is further divided into a Gr image composed of Gr pixels located in the same row as the R pixel and a Gb image composed of Gb pixels located in the same row as the B pixel. Also good. In this case, the relative sampling positions used in the nonlinear filter processing described later can be made common to all the R, Gr, Gb, and B images, and the circuit scale can be reduced.

非線形フィルタ処理部903は、時間方向に平滑化するフレーム間平滑化処理を行う。図17に示すように、非線形フィルタ処理部903は、現在のフレーム画像の注目画素と、過去のフレーム画像の周辺領域に含まれている画素に対して処理を行う。過去のフレーム画像は、フレームメモリ905に格納されたノイズ低減済みの画像であり、例えば現在のフレーム画像の1フレーム前の画像である。周辺領域は、現在のフレーム画像の注目画素に対応する画素の周辺の画素である。   The non-linear filter processing unit 903 performs inter-frame smoothing processing for smoothing in the time direction. As illustrated in FIG. 17, the non-linear filter processing unit 903 performs processing on the target pixel of the current frame image and the pixels included in the peripheral region of the past frame image. The past frame image is a noise-reduced image stored in the frame memory 905, for example, an image one frame before the current frame image. The peripheral area is a pixel around the pixel corresponding to the target pixel of the current frame image.

非線形フィルタ処理部902は、例えば下式(3)に示す非線形フィルタにより平滑化処理を行う。下式(3)には、バイラテラルフィルタのフィルタ係数Fintra(x,y,t)を示す。
The nonlinear filter processing unit 902 performs a smoothing process using, for example, a nonlinear filter represented by the following expression (3). The following equation (3) shows the filter coefficient F intra (x, y, t) of the bilateral filter.

ここで、xは時刻tの画像の水平座標であり、yは時刻tの画像の垂直座標である。B(x,y,t)はフィルタの正規化係数である。P(x,y,t)はフィルタ処理する注目画素(x,y,t)の画素値である。P(x,y,t)は注目画素の周辺画素(x,y,t)の画素値である。 Here, x is the horizontal coordinate of the image at time t, and y is the vertical coordinate of the image at time t. B (x, y, t) is a normalization coefficient of the filter. P (x 0 , y 0 , t) is a pixel value of the target pixel (x 0 , y 0 , t) to be filtered. P (x, y, t) is a pixel value of the peripheral pixel (x, y, t) of the target pixel.

非線形フィルタ処理部903は、例えば下式(4)に示す非線形フィルタにより平滑化処理を行う。下式(4)には、バイラテラルフィルタのフィルタ係数Finter(x,y,t)を示す。
The nonlinear filter processing unit 903 performs a smoothing process using, for example, a nonlinear filter represented by the following expression (4). The following expression (4) shows the filter coefficient F inter (x, y, t) of the bilateral filter.

ここで、xは時刻t又は時刻t−1の画像の水平座標であり、yは時刻t又は時刻t−1の画像の垂直座標である。C(x,y,t)はフィルタの正規化係数である。Po(x,y,t−1)は、フレームメモリ905に格納された時刻t−1のノイズ低減済み画像において、時刻tの注目画素(x,y,t)に対応する画素(x,y,t−1)の周辺画素(x,y,t−1)の画素値である。 Here, x is the horizontal coordinate of the image at time t or time t-1, and y is the vertical coordinate of the image at time t or time t-1. C (x, y, t) is a normalization coefficient of the filter. Po (x, y, t−1) is a pixel (x corresponding to the pixel of interest (x 0 , y 0 , t) at time t in the noise-reduced image at time t−1 stored in the frame memory 905. This is the pixel value of the peripheral pixel (x, y, t−1) of 0 , y 0 , t−1).

重み加算処理部904には、非線形フィルタ処理部902からの注目画素のフレーム内平滑化画素値と、非線形フィルタ処理部903からの注目画素のフレーム間平滑化画素値が入力される。また重み加算処理部904には、出力されるフレーム内平滑化画素値とフレーム間平滑化画素値の合成比率が処理パラメータ制御部901から入力される。重み加算処理部904は、合成比率に基づいて、フレーム内平滑化画素値とフレーム間平滑化画素値を加重平均し、加重平均された加重平均値Poを歪み補正処理部330とフレームメモリ905へ出力する。   The weight addition processing unit 904 receives the intra-frame smoothed pixel value of the target pixel from the nonlinear filter processing unit 902 and the inter-frame smoothed pixel value of the target pixel from the nonlinear filter processing unit 903. In addition, the weight addition processing unit 904 receives from the processing parameter control unit 901 the composition ratio of the output intra-frame smoothed pixel value and the inter-frame smoothed pixel value. The weight addition processing unit 904 weights and averages the intra-frame smoothed pixel value and the inter-frame smoothed pixel value based on the combination ratio, and the weighted average weighted average value Po is sent to the distortion correction processing unit 330 and the frame memory 905. Output.

具体的には、重み加算処理部904は下式(5)により、注目画素(x0,y0,t)における加重平均値Po(x0,y0,t)を算出する。
Specifically, the weight addition processing unit 904 calculates the weighted average value Po (x0, y0, t) at the target pixel (x0, y0, t) by the following equation (5).

ここで、αは、処理パラメータ制御部901から出力されるフレーム内平滑化画素値の合成比率である。βは、処理パラメータ制御部901から出力されるフレーム間平滑化画素値の合成比率である。例えばα+β=1である。Σxyは、注目画素(x,y,t)の周辺領域内の同一色の画素に対する総和を表す。 Here, α is a synthesis ratio of the intra-frame smoothed pixel values output from the processing parameter control unit 901. β is a synthesis ratio of the inter-frame smoothed pixel values output from the processing parameter control unit 901. For example, α + β = 1. Σ xy represents the total sum for pixels of the same color in the peripheral region of the pixel of interest (x 0 , y 0 , t).

このようにフレーム間相関を用いたノイズ低減処理を行うことで、後段の歪み補正処理部330により拡大される画像周辺部のノイズが視覚的に目立つことを、事前に抑止することができる。   By performing the noise reduction process using the inter-frame correlation in this way, it is possible to prevent in advance that the noise in the peripheral portion of the image magnified by the subsequent distortion correction processing unit 330 is visually noticeable.

なお、上記では歪み補正処理部330の前段にノイズ低減処理部320を置いていたが、歪み補正処理部330の後段にノイズ低減処理部320を置いてもよい。この場合、フレーム間相関を利用したノイズ低減処理において、図17に示す現在フレームの注目画素に対応する過去フレームの周辺領域を、局所拡大率に応じてサイズ変更(拡大率高い場合はサイズを大きくする)し、上式(4)のσd2を大きく設定(フレーム間相関の高い画素をより見つけやすくなる)すれば良い。あるいは、周辺領域のサイズは変更せずに、現在フレームの周辺領域と過去フレームの周辺領域のブロックマッチング等により算出した動きベクトルに基づく動き補償処理を追加し、拡大率に応じて動きベクトルの探索範囲を可変にしてもよい。こうすることで、フレーム間相関を利用したノイズ低減処理を有効利用できるようになる。また設計上、最大となる局所拡大率が決定されれば、その局所拡大率に基づいて周辺領域のサイズ、あるいは動きベクトルの探索範囲を設定してもよい。この場合、周辺領域のサイズ、あるいは動きベクトルの探索範囲を可変にしなくても良いのはいうまでもない。 In the above description, the noise reduction processing unit 320 is placed before the distortion correction processing unit 330. However, the noise reduction processing unit 320 may be placed after the distortion correction processing unit 330. In this case, in the noise reduction processing using the correlation between frames, the peripheral area of the past frame corresponding to the target pixel of the current frame shown in FIG. 17 is resized according to the local enlargement ratio (if the enlargement ratio is high, the size is increased. And σ d2 in the above equation (4) may be set large (it becomes easier to find a pixel having a high inter-frame correlation). Alternatively, a motion compensation process based on a motion vector calculated by block matching between the peripheral area of the current frame and the peripheral area of the past frame is added without changing the size of the peripheral area, and the motion vector is searched according to the enlargement ratio. The range may be variable. This makes it possible to effectively use noise reduction processing using inter-frame correlation. If the maximum local enlargement ratio is determined by design, the size of the surrounding area or the search range for the motion vector may be set based on the local enlargement ratio. In this case, it goes without saying that the size of the peripheral region or the search range of motion vectors need not be variable.

ここで、第1の実施形態と第2の実施形態では対物レンズとして魚眼レンズを用いたが、これに限定されず、例えば、その他の広視野が得られる光学系を用いてもよい。例えば、反射型の対物光学系を用いてもよい。   Here, in the first embodiment and the second embodiment, the fisheye lens is used as the objective lens, but the present invention is not limited to this, and for example, another optical system that can obtain a wide field of view may be used. For example, a reflective objective optical system may be used.

以上によれば、図14に示すように、ノイズ低減処理部320は、時間平滑化処理部(非線形フィルタ処理部902)と、空間平滑化処理部(非線形フィルタ処理部903)と、合成処理部(重み加算処理部904)を含む。上式(4)で上述のように、時間平滑化処理部は、時間方向のノイズ成分を平滑化する処理を行い、処理後の画素値を時間平滑化画素値として出力する。上式(3)で上述のように、空間平滑化処理部は、空間方向のノイズ成分を平滑化する処理を行い、処理後の画素値を空間平滑化画素値として出力する。上式(5)で上述のように、合成処理部は、時間平滑化画素値と空間平滑化画素値を所定比率α、βで合成する。   According to the above, as shown in FIG. 14, the noise reduction processing unit 320 includes a time smoothing processing unit (nonlinear filter processing unit 902), a spatial smoothing processing unit (nonlinear filter processing unit 903), and a synthesis processing unit. (Weight addition processing unit 904). As described above in equation (4), the time smoothing processing unit performs a process of smoothing the noise component in the time direction, and outputs the processed pixel value as the time smoothed pixel value. As described above in Equation (3), the spatial smoothing processing unit performs processing to smooth the noise component in the spatial direction, and outputs the processed pixel value as the spatial smoothed pixel value. As described above in equation (5), the synthesis processing unit synthesizes the temporally smoothed pixel value and the spatially smoothed pixel value at predetermined ratios α and β.

より具体的には、図15に示すように、合成処理部は、変換処理前の処理対象領域の大きさと変換処理後の処理対象領域の大きさとの比較結果に関する情報(局所拡大率ΔM(x、y))に基づいて所定比率α、βを制御する。   More specifically, as illustrated in FIG. 15, the synthesis processing unit includes information (local enlargement ratio ΔM (x) regarding the comparison result between the size of the processing target area before the conversion process and the size of the processing target area after the conversion process. , Y)) to control the predetermined ratios α and β.

このようにすれば、画像周辺部を拡大表示する場合に、その画像周辺部に対してフレーム間相関を有効利用したノイズ低減を行うことが可能になる。これにより、拡大表示により視覚的に増大するノイズの抑制が可能となり、視認性を向上できる。視認性の向上により、今まで見逃されていたヒダ裏の病変部の見落とし率低減が可能になる。   In this way, when the peripheral portion of the image is enlarged and displayed, it is possible to perform noise reduction that effectively uses the inter-frame correlation with respect to the peripheral portion of the image. As a result, it is possible to suppress visually increased noise due to the enlarged display, and the visibility can be improved. By improving visibility, it is possible to reduce the oversight rate of lesions behind the folds that have been missed.

4.ソフトウェア
上記の本実施形態では、画像処理部301を構成する各部をハードウェアで構成することとしたが、これに限定されるものではない。例えば、カプセル内視鏡等の撮像装置を用いて予め取得された画像に対して、CPUが各部の処理を行う構成とし、CPUがプログラムを実行することによってソフトウェアとして実現することとしてもよい。あるいは、各部が行う処理の一部をソフトウェアで構成することとしてもよい。
4). Software In the above-described embodiment, each unit configuring the image processing unit 301 is configured by hardware. However, the present invention is not limited to this. For example, the CPU may be configured to perform processing of each unit on an image acquired in advance using an imaging device such as a capsule endoscope, and may be realized as software by the CPU executing a program. Alternatively, a part of processing performed by each unit may be configured by software.

撮像部を別体とし、画像処理部301の各部が行う処理をソフトウェアとして実現する場合には、ワークステーションやパソコン等の公知のコンピュータシステムを画像処理装置として用いることができる。そして、画像処理部301の各部が行う処理を実現するためのプログラム(画像処理プログラム)を予め用意し、この画像処理プログラムをコンピュータシステムのCPUが実行することによって実現できる。   When the imaging unit is a separate unit and the processing performed by each unit of the image processing unit 301 is realized as software, a known computer system such as a workstation or a personal computer can be used as the image processing apparatus. Then, a program (image processing program) for realizing the processing performed by each unit of the image processing unit 301 is prepared in advance, and this image processing program is executed by the CPU of the computer system.

図18は、本変形例におけるコンピュータシステム600の構成を示すシステム構成図であり、図19は、このコンピュータシステム600における本体部610の構成を示すブロック図である。図18に示すように、コンピュータシステム600は、本体部610と、本体部610からの指示によって表示画面621に画像等の情報を表示するためのディスプレイ620と、このコンピュータシステム600に種々の情報を入力するためのキーボード630と、ディスプレイ620の表示画面621上の任意の位置を指定するためのマウス640とを含む。   FIG. 18 is a system configuration diagram showing the configuration of the computer system 600 in this modification, and FIG. 19 is a block diagram showing the configuration of the main body 610 in this computer system 600. As shown in FIG. 18, the computer system 600 includes a main body 610, a display 620 for displaying information such as an image on the display screen 621 according to an instruction from the main body 610, and various information on the computer system 600. A keyboard 630 for input and a mouse 640 for designating an arbitrary position on the display screen 621 of the display 620 are included.

また、このコンピュータシステム600における本体部610は、図19に示すように、CPU611と、RAM612と、ROM613と、ハードディスクドライブ(HDD)614と、CD−ROM660を受け入れるCD−ROMドライブ615と、USBメモリ670を着脱可能に接続するUSBポート616と、ディスプレイ620、キーボード630およびマウス640を接続するI/Oインターフェース617と、ローカルエリアネットワークまたは広域エリアネットワーク(LAN/WAN)N1に接続するためのLANインターフェース618を含む。   Further, as shown in FIG. 19, a main body 610 in the computer system 600 includes a CPU 611, a RAM 612, a ROM 613, a hard disk drive (HDD) 614, a CD-ROM drive 615 that accepts a CD-ROM 660, and a USB memory. USB port 616 to which 670 is detachably connected, I / O interface 617 to which display 620, keyboard 630 and mouse 640 are connected, and a LAN interface for connection to a local area network or wide area network (LAN / WAN) N1 618.

さらに、このコンピュータシステム600には、インターネット等の公衆回線N3に接続するためのモデム650が接続されるとともに、LANインターフェース618およびローカルエリアネットワークまたは広域エリアネットワークN1を介して、他のコンピュータシステムであるパソコン(PC)681、サーバ682、プリンタ683等が接続される。   Further, the computer system 600 is connected to a modem 650 for connecting to a public line N3 such as the Internet, and is another computer system via a LAN interface 618 and a local area network or a wide area network N1. A personal computer (PC) 681, a server 682, a printer 683, and the like are connected.

そして、このコンピュータシステム600は、所定の記録媒体に記録された画像処理プログラムを参照して、後述する処理手順を実現するための画像処理プログラムを読み出して実行することで画像処理装置を実現する。ここで、所定の記録媒体とは、CD−ROM660やUSBメモリ670の他、MOディスクやDVDディスク、フレキシブルディスク(FD)、光磁気ディスク、ICカード等を含む「可搬用の物理媒体」、コンピュータシステム600の内外に備えられるHDD614やRAM612、ROM613等の「固定用の物理媒体」、モデム650を介して接続される公衆回線N3や、他のコンピュータシステム(PC)681またはサーバ682が接続されるローカルエリアネットワークまたは広域エリアネットワークN1等のように、プログラムの送信に際して短期にプログラムを記憶する「通信媒体」等、コンピュータシステム600によって読み取り可能な画像処理プログラムを記録するあらゆる記録媒体を含む。   The computer system 600 implements an image processing apparatus by referring to an image processing program recorded on a predetermined recording medium and reading and executing an image processing program for realizing a processing procedure to be described later. Here, the predetermined recording medium is a “portable physical medium” including an MO disk, a DVD disk, a flexible disk (FD), a magneto-optical disk, an IC card, etc. in addition to the CD-ROM 660 and the USB memory 670, a computer A “fixed physical medium” such as HDD 614, RAM 612, and ROM 613 provided inside and outside the system 600, a public line N3 connected via the modem 650, and another computer system (PC) 681 or server 682 are connected. It includes any recording medium that records an image processing program readable by the computer system 600, such as a “communication medium” that stores the program in a short time when transmitting the program, such as a local area network or a wide area network N1.

即ち、画像処理プログラムは、「可搬用の物理媒体」「固定用の物理媒体」「通信媒体」等の記録媒体にコンピュータ読み取り可能に記録されるものであり、コンピュータシステム600は、このような記録媒体から画像処理プログラムを読み出して実行することで画像処理装置を実現する。なお、画像処理プログラムは、コンピュータシステム600によって実行されることに限定されるものではなく、他のコンピュータシステム(PC)681またはサーバ682が画像処理プログラムを実行する場合や、これらが協働して画像処理プログラムを実行するような場合にも、本発明を同様に適用することができる。   That is, the image processing program is recorded on a recording medium such as “portable physical medium”, “fixed physical medium”, and “communication medium” in a computer-readable manner. An image processing apparatus is realized by reading and executing an image processing program from a medium. Note that the image processing program is not limited to be executed by the computer system 600, and when the other computer system (PC) 681 or the server 682 executes the image processing program or in cooperation therewith. The present invention can be similarly applied to a case where an image processing program is executed.

また本実施形態は、本実施形態の各部(ノイズ低減処理部、歪み補正処理部等)を実現するプログラムコードが記録されたコンピュータプログラムプロダクトにも適用できる。   The present embodiment can also be applied to a computer program product in which a program code for realizing each unit (noise reduction processing unit, distortion correction processing unit, etc.) of the present embodiment is recorded.

ここで、コンピュータプログラムプロダクトは、例えば、プログラムコードが記録された情報記憶媒体(DVD等の光ディスク媒体、ハードディスク媒体、メモリ媒体等)、プログラムコードが記録されたコンピュータ、プログラムコードが記録されたインターネットシステム(例えば、サーバとクライアント端末を含むシステム)等、プログラムコードが組み込まれた情報記憶媒体、装置、機器或いはシステム等である。この場合に、本実施形態の各構成要素や各処理プロセスは各モジュールにより実装され、これらの実装されたモジュールにより構成されるプログラムコードは、コンピュータプログラムプロダクトに記録される。   Here, the computer program product includes, for example, an information storage medium (an optical disk medium such as a DVD, a hard disk medium, a memory medium, etc.) on which the program code is recorded, a computer on which the program code is recorded, and an Internet system on which the program code is recorded. (For example, a system including a server and a client terminal) such as an information storage medium, apparatus, device, or system in which a program code is incorporated. In this case, each component and each processing process of this embodiment are mounted by each module, and the program code constituted by these mounted modules is recorded in the computer program product.

以上、本発明を適用した実施形態およびその変形例について説明したが、本発明は、各実施形態やその変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上記した各実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、各実施形態や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態や変形例で説明した構成要素を適宜組み合わせてもよい。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能である。   As mentioned above, although embodiment and its modification which applied this invention were described, this invention is not limited to each embodiment and its modification as it is, and in the range which does not deviate from the summary of invention in an implementation stage. The component can be modified and embodied. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiments and modifications. For example, some constituent elements may be deleted from all the constituent elements described in each embodiment or modification. Furthermore, you may combine suitably the component demonstrated in different embodiment and modification. Thus, various modifications and applications are possible without departing from the spirit of the invention.

また、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。   In addition, a term described together with a different term having a broader meaning or the same meaning at least once in the specification or the drawings can be replaced with the different term anywhere in the specification or the drawings.

100 光源部、101 白色光源、102 回転色フィルタ、
103 回転駆動部、104 集光レンズ、200 撮像部、
201 ライトガイドファイバ、202 照明レンズ、203 対物レンズ、
209 撮像素子、210 A/D変換部、300 制御装置、
301 画像処理部、302 制御部、310 OBクランプ処理部、
320 ノイズ低減処理部、330 歪み補正処理部、340 WB処理部、
350 3板化処理部、360 色補正処理部、370 階調変換処理部、
380 強調処理部、390 管腔、391 射影変換、392 射影変換、
400 表示部、500 外部I/F部、
600 コンピュータシステム、610 本体部、
611 CPU、612 RAM、613 ROM、614 HDD、
615 CD−ROMドライブ、616 USBポート、
617 I/Oインターフェース、618 LANインターフェース、
620 ディスプレイ、621 表示画面、630 キーボード、640 マウス、
650 モデム、660 CD−ROM、670 USBメモリ、681 PC、
682 サーバ、683 プリンタ、
701 ローパス処理部、702 ダウンサンプリング部、703 減算処理部、
704 ノイズ量推定部、705 平滑化処理部、706 ローパス処理部、
707 ダウンサンプリング部、708 減算処理部、709 ノイズ量推定部、
710 平滑化処理部、711 ローパス処理部、712 減算処理部、
713 ノイズ量推定部、714 平滑化処理部、715 ノイズ量推定部、
716 平滑化処理部、717 加算処理部、718 アップサンプリング部、
719 加算処理部、720 アップサンプリング部、721 加算処理部、
722 処理パラメータ制御部、751 局所拡大率算出部、
752〜755 第1〜第4のノイズ低減量算出部、
756〜759 第1〜第4の乗算部、803 回転モータ、
851 赤の色フィルタ、852 緑の色フィルタ、853 青の色フィルタ、
901 処理パラメータ制御部、902 非線形フィルタ処理部、
903 非線形フィルタ処理部、904 重み加算処理部、905 フレームメモリ、
FB1〜FB4 第1〜第4の周波数帯域、Finter フィルタ係数、
intra フィルタ係数、N1 広域エリアネットワーク、N3 公衆回線、
Po 加重平均値、d 周辺領域、h 中央領域、t 時刻、
ΔM(x,y) 局所拡大率、α 合成比率、β 合成比率、
σ 平滑化処理パラメータ
100 light source unit, 101 white light source, 102 rotating color filter,
103 rotational drive unit, 104 condenser lens, 200 imaging unit,
201 light guide fiber, 202 illumination lens, 203 objective lens,
209 imaging device, 210 A / D converter, 300 controller,
301 image processing unit, 302 control unit, 310 OB clamp processing unit,
320 noise reduction processing unit, 330 distortion correction processing unit, 340 WB processing unit,
350 3 plate processing unit, 360 color correction processing unit, 370 gradation conversion processing unit,
380 enhancement processing unit, 390 lumen, 391 projective transformation, 392 projective transformation,
400 display unit, 500 external I / F unit,
600 computer system, 610 main body,
611 CPU, 612 RAM, 613 ROM, 614 HDD,
615 CD-ROM drive, 616 USB port,
617 I / O interface, 618 LAN interface,
620 display, 621 display screen, 630 keyboard, 640 mouse,
650 modem, 660 CD-ROM, 670 USB memory, 681 PC,
682 server, 683 printer,
701 Low-pass processing unit, 702 downsampling unit, 703 subtraction processing unit,
704 noise amount estimation unit, 705 smoothing processing unit, 706 low-pass processing unit,
707 downsampling unit, 708 subtraction processing unit, 709 noise amount estimation unit,
710 smoothing processing unit, 711 low-pass processing unit, 712 subtraction processing unit,
713 noise amount estimation unit, 714 smoothing processing unit, 715 noise amount estimation unit,
716 smoothing processing unit, 717 addition processing unit, 718 upsampling unit,
719 addition processing unit, 720 upsampling unit, 721 addition processing unit,
722 processing parameter control unit, 751 local enlargement rate calculation unit,
752 to 755 first to fourth noise reduction amount calculation units,
756-759 1st-4th multiplication part, 803 rotary motor,
851 Red color filter, 852 Green color filter, 853 Blue color filter,
901 processing parameter control unit, 902 nonlinear filter processing unit,
903 nonlinear filter processing unit, 904 weight addition processing unit, 905 frame memory,
FB1 to FB4 First to fourth frequency bands, F inter filter coefficients,
F intra filter coefficient, N1 wide area network, N3 public line,
Po weighted average value, d peripheral area, h central area, t time,
ΔM (x, y) Local magnification, α composition ratio, β composition ratio,
s smoothing parameter

Claims (25)

光学系の光学収差により歪みが生じた歪み画像を取得する画像取得部と、
前記歪みを補正するための変換処理を、前記歪み画像の中の処理対象領域に対して行い、前記歪み画像を補正する補正処理部と、
前記変換処理による前記処理対象領域の変換態様を表す変換態様情報を取得する変換態様情報取得部と、
前記取得された変換態様情報に基づいて、前記歪み画像に含まれるノイズ成分を低減する処理を行うノイズ低減処理部と、
を含むことを特徴とする画像処理装置。
An image acquisition unit that acquires a distortion image in which distortion has occurred due to optical aberrations of the optical system;
A correction processing unit that performs a conversion process for correcting the distortion on a processing target area in the distortion image, and corrects the distortion image;
A conversion mode information acquisition unit that acquires conversion mode information representing a conversion mode of the processing target area by the conversion process;
A noise reduction processing unit that performs a process of reducing a noise component included in the distorted image based on the acquired conversion mode information;
An image processing apparatus comprising:
請求項1において、
前記変換態様情報は、
前記変換処理前の前記処理対象領域の大きさと、前記変換処理後の前記処理対象領域の大きさとの比較結果に関する情報であることを特徴とする画像処理装置。
In claim 1,
The conversion mode information is
An image processing apparatus, comprising: information related to a comparison result between the size of the processing target area before the conversion process and the size of the processing target area after the conversion process.
請求項2において、
前記ノイズ低減処理部は、
前記ノイズ成分を低減する度合いであるノイズ低減度合いを、前記変換処理前の前記処理対象領域の大きさと前記変換処理後の前記処理対象領域の大きさとの前記比較結果に応じて制御することを特徴とする画像処理装置。
In claim 2,
The noise reduction processing unit
A noise reduction degree, which is a degree of reducing the noise component, is controlled according to the comparison result between the size of the processing target area before the conversion process and the size of the processing target area after the conversion process. An image processing apparatus.
請求項3において、
前記ノイズ低減処理部は、
前記変換処理後の前記処理対象領域が前記変換処理前の前記処理対象領域よりも大きいという第1の条件に該当する場合には、前記ノイズ低減度合いを、前記第1の条件以外の条件に該当する場合よりも相対的に大きくすることを特徴とする画像処理装置。
In claim 3,
The noise reduction processing unit
When the first condition that the area to be processed after the conversion process is larger than the area to be processed before the conversion process corresponds to the condition other than the first condition, the noise reduction degree An image processing apparatus characterized in that the image processing apparatus is relatively larger than the case where it is performed.
請求項3において、
前記ノイズ低減処理部は、
前記変換処理後の前記処理対象領域が前記変換処理前の前記処理対象領域よりも小さいという第2の条件に該当する場合には、前記ノイズ低減度合いを、前記第2の条件以外の条件に該当する場合よりも相対的に小さくすることを特徴とする画像処理装置。
In claim 3,
The noise reduction processing unit
If the processing target area after the conversion process satisfies the second condition that the processing target area is smaller than the processing target area before the conversion process, the noise reduction degree corresponds to a condition other than the second condition. An image processing apparatus characterized in that the image processing apparatus is made relatively smaller than the case where it is performed.
請求項1において、
前記ノイズ低減処理部は、
前記ノイズ成分を低減する度合いであるノイズ低減度合いを前記変換態様情報に基づいて決定し、前記ノイズ低減度合いに基づいて前記ノイズ低減処理を行うことを特徴とする画像処理装置。
In claim 1,
The noise reduction processing unit
An image processing apparatus, wherein a noise reduction degree, which is a degree of reducing the noise component, is determined based on the conversion mode information, and the noise reduction processing is performed based on the noise reduction degree.
請求項1において、
前記画像取得部は、
前記処理対象領域における前記歪みの歪み度合いが、前記歪み画像における前記処理対象領域の位置に応じて異なる画像を取得し、
前記補正処理部は、
前記処理対象領域における前記歪み度合いに応じて、前記処理対象領域の大きさを変換する処理を行い、
前記ノイズ低減処理部は、
前記処理対象領域の大きさの変換結果に応じて、前記ノイズ成分を低減する度合いであるノイズ低減度合いを制御することを特徴とする画像処理装置。
In claim 1,
The image acquisition unit
The distortion degree of the distortion in the processing target area acquires an image that differs depending on the position of the processing target area in the distortion image,
The correction processing unit
According to the degree of distortion in the processing target area, to perform a process of converting the size of the processing target area,
The noise reduction processing unit
An image processing apparatus that controls a noise reduction degree, which is a degree of reducing the noise component, according to a conversion result of a size of the processing target area.
請求項7において、
前記画像取得部は、
前記歪み画像の中央領域における前記歪み度合いが、周辺領域における前記歪み度合いよりも相対的に小さい画像を取得し、
前記補正処理部は、
前記中央領域内の前記処理対象領域の大きさを、前記変換処理前の大きさよりも縮小する処理を行い、
前記ノイズ低減処理部は、
前記中央領域における前記ノイズ低減度合いを、前記周辺領域における前記ノイズ低減度合いよりも相対的に小さくすることを特徴とする画像処理装置。
In claim 7,
The image acquisition unit
Obtaining an image in which the degree of distortion in the central area of the distortion image is relatively smaller than the degree of distortion in the peripheral area;
The correction processing unit
A process of reducing the size of the processing target area in the central area than the size before the conversion process,
The noise reduction processing unit
The image processing apparatus according to claim 1, wherein the noise reduction degree in the central area is relatively smaller than the noise reduction degree in the peripheral area.
請求項7において、
前記画像取得部は、
前記歪み画像の中央領域における前記歪み度合いが、周辺領域における前記歪み度合いよりも相対的に小さい画像を取得し、
前記補正処理部は、
前記周辺領域内の前記処理対象領域の大きさを、前記変換処理前の大きさよりも拡大する処理を行い、
前記ノイズ低減処理部は、
前記周辺領域における前記ノイズ低減度合いを、前記中央領域における前記ノイズ低減度合いよりも相対的に大きくすることを特徴とする画像処理装置。
In claim 7,
The image acquisition unit
Obtaining an image in which the degree of distortion in the central area of the distortion image is relatively smaller than the degree of distortion in the peripheral area;
The correction processing unit
Performing a process of enlarging the size of the processing target area in the peripheral area than the size before the conversion process;
The noise reduction processing unit
The image processing apparatus according to claim 1, wherein the noise reduction degree in the peripheral area is relatively larger than the noise reduction degree in the central area.
請求項1において、
前記ノイズ低減処理部は、
前記歪み画像を、周波数帯域が異なる第1〜第nの周波数帯域画像(nは2以上の自然数)に分割する周波数帯域分割部と、
前記分割された各周波数帯域画像に対して異なる平滑化処理を行う平滑化処理部と、
を有することを特徴とする画像処理装置。
In claim 1,
The noise reduction processing unit
A frequency band dividing unit that divides the distortion image into first to n-th frequency band images (n is a natural number of 2 or more) having different frequency bands;
A smoothing processing unit that performs different smoothing processing on each of the divided frequency band images;
An image processing apparatus comprising:
請求項10において、
前記変換態様情報は、
前記変換処理前の前記処理対象領域の大きさと、前記変換処理後の前記処理対象領域の大きさとの比較結果に関する情報であり、
前記平滑化処理部は、
前記第1〜第nの周波数帯域画像のうちの第iの周波数帯域画像(iはn以下の自然数)に含まれる前記ノイズ成分を低減する度合いを、前記比較結果に関する情報に基づいて制御し、
前記平滑化処理部は、
前記制御されたノイズ低減度合いに基づいて、前記第iの周波数帯域画像に対する前記平滑化処理を行うことを特徴とする画像処理装置。
In claim 10,
The conversion mode information is
Information regarding a comparison result between the size of the processing target area before the conversion process and the size of the processing target area after the conversion process;
The smoothing processing unit
Controlling the degree of reducing the noise component included in the i-th frequency band image (i is a natural number equal to or less than n) of the first to n-th frequency band images based on the information on the comparison result;
The smoothing processing unit
An image processing apparatus that performs the smoothing process on the i-th frequency band image based on the controlled noise reduction degree.
請求項11において、
前記比較結果に関する情報は、
前記変換処理前の前記処理対象領域の面積に対する前記変換処理後の前記処理対象領域の面積の倍率であり、
前記変換処理前における前記第1〜第nの周波数帯域画像が第1から第nに向かって順次低周波数の帯域画像であり、前記倍率が第1〜第nの倍率範囲に分割され、前記第1〜第nの倍率範囲が第1から第nに向かって順次低倍率の倍率範囲である場合に、
前記平滑化処理部は、
前記倍率が前記第1〜第nの倍率範囲のうちの第iの倍率範囲に含まれる場合、前記第iの周波数帯域画像の前記ノイズ低減度合いを、他の周波数帯域画像の前記ノイズ低減度合い以上にすることを特徴とする画像処理装置。
In claim 11,
Information about the comparison result is
A magnification of the area of the processing target region after the conversion processing with respect to the area of the processing target region before the conversion processing;
The first to nth frequency band images before the conversion process are band images of low frequency sequentially from 1st to nth, and the magnification is divided into first to nth magnification ranges, When the 1st to nth magnification range is a magnification range of low magnification sequentially from 1st to nth,
The smoothing processing unit
When the magnification is included in the i-th magnification range of the first to n-th magnification ranges, the noise reduction degree of the i-th frequency band image is greater than or equal to the noise reduction degree of other frequency band images. An image processing apparatus.
請求項1において、
前記ノイズ低減処理部は
時間方向のノイズ成分を平滑化する処理を行い、処理後の画素値を時間平滑化画素値として出力する時間平滑化処理部と、
空間方向のノイズ成分を平滑化する処理を行い、処理後の画素値を空間平滑化画素値として出力する空間平滑化処理部と、
前記時間平滑化画素値と前記空間平滑化画素値を所定比率で合成する合成処理部と、
を有することを特徴とする画像処理装置。
In claim 1,
The noise reduction processing unit performs processing for smoothing a noise component in a time direction, and outputs a pixel value after processing as a time smoothed pixel value;
A spatial smoothing processing unit that performs a process of smoothing noise components in the spatial direction and outputs the processed pixel value as a spatially smoothed pixel value;
A synthesis processing unit that synthesizes the temporally smoothed pixel value and the spatially smoothed pixel value at a predetermined ratio;
An image processing apparatus comprising:
請求項13において、
前記変換態様情報は、
前記変換処理前の前記処理対象領域の大きさと、前記変換処理後の前記処理対象領域の大きさとの比較結果に関する情報であり、
前記合成処理部は、
前記比較結果に関する情報に基づいて前記所定比率を制御することを特徴とする画像処理装置。
In claim 13,
The conversion mode information is
Information regarding a comparison result between the size of the processing target area before the conversion process and the size of the processing target area after the conversion process;
The synthesis processing unit
An image processing apparatus that controls the predetermined ratio based on information relating to the comparison result.
請求項1において、
前記光学収差は、歪曲収差であることを特徴とする画像処理装置。
In claim 1,
The image processing apparatus, wherein the optical aberration is distortion.
請求項1において、
前記光学系は、
前方の視野範囲及び側方の視野範囲を撮像する対物レンズを有することを特徴とする画像処理装置。
In claim 1,
The optical system is
An image processing apparatus having an objective lens that images a front visual field range and a lateral visual field range.
請求項16において、
前記画像取得部は、
前記対物レンズを介して管状被写体内を撮像した画像を取得することを特徴とする画像処理装置。
In claim 16,
The image acquisition unit
An image processing apparatus that acquires an image obtained by imaging an inside of a tubular subject through the objective lens.
請求項1において、
前記変換処理は、射影変換処理であることを特徴とする画像処理装置。
In claim 1,
The image processing apparatus, wherein the conversion process is a projective conversion process.
請求項1乃至18のいずれかに記載の画像処理装置と、
前記歪み画像を撮像する内視鏡装置の観察状態を検出し、前記検出された観察状態に基づいて、前記補正処理部による前記変換処理を制御する制御部と、
を含むことを特徴とする制御装置。
An image processing apparatus according to any one of claims 1 to 18,
A control unit that detects an observation state of the endoscope apparatus that captures the distortion image, and controls the conversion processing by the correction processing unit based on the detected observation state;
The control apparatus characterized by including.
請求項19において、
前記制御部は、
前記観察状態が、前記歪み画像の周辺領域を拡大観察する状態である場合に、前記周辺領域を拡大する変換処理を行うように前記補正処理部を制御することを特徴とする制御装置。
In claim 19,
The controller is
When the observation state is a state of magnifying and observing the peripheral area of the distorted image, the control apparatus controls the correction processing unit to perform a conversion process for magnifying the peripheral area.
請求項19において、
前記制御部は、
ユーザから前記内視鏡装置の前記観察状態に関する情報の入力を受け付ける受付部を有し、
前記制御部は、
前記受け付けた情報に基づいて、前記内視鏡装置の前記観察状態を検出することを特徴とする制御装置。
In claim 19,
The controller is
A receiving unit that receives input of information related to the observation state of the endoscope apparatus from a user;
The controller is
A control apparatus that detects the observation state of the endoscope apparatus based on the received information.
請求項1乃至18のいずれかに記載の画像処理装置と、
前記補正処理部により補正された画像を表示部に表示する制御を行う表示制御部と、
を含むことを特徴とする制御装置。
An image processing apparatus according to any one of claims 1 to 18,
A display control unit that performs control to display the image corrected by the correction processing unit on a display unit;
The control apparatus characterized by including.
被写体を撮像する光学系と、
前記光学系の光学収差により歪みが生じた歪み画像を取得する画像取得部と、
前記歪みを補正するための変換処理を、前記歪み画像の中の処理対象領域に対して行い、前記歪み画像を補正する補正処理部と、
前記変換処理による前記処理対象領域の変換態様を表す変換態様情報を取得する変換態様情報取得部と、
前記取得された変換態様情報に基づいて、前記歪み画像に含まれるノイズ成分を低減する処理を行うノイズ低減処理部と、
を含むことを特徴とする内視鏡装置。
An optical system for imaging a subject;
An image acquisition unit for acquiring a distortion image in which distortion is caused by the optical aberration of the optical system;
A correction processing unit that performs a conversion process for correcting the distortion on a processing target area in the distortion image, and corrects the distortion image;
A conversion mode information acquisition unit that acquires conversion mode information representing a conversion mode of the processing target area by the conversion process;
A noise reduction processing unit that performs a process of reducing a noise component included in the distorted image based on the acquired conversion mode information;
An endoscopic device comprising:
光学系の光学収差により歪みが生じた歪み画像を取得し、
前記歪みを補正するための変換処理を、前記歪み画像の中の処理対象領域に対して行い、前記歪み画像を補正し、
前記変換処理による前記処理対象領域の変換態様を表す変換態様情報を取得し、
前記取得された変換態様情報に基づいて、前記歪み画像に含まれるノイズ成分を低減する処理を行うことを特徴とする画像処理方法。
Acquire a distortion image that is distorted by the optical aberration of the optical system,
A conversion process for correcting the distortion is performed on a processing target area in the distortion image, the distortion image is corrected,
Obtaining conversion mode information representing a conversion mode of the processing target area by the conversion processing;
An image processing method comprising: performing a process of reducing a noise component included in the distorted image based on the acquired conversion mode information.
光学系の光学収差により歪みが生じた歪み画像を取得する画像取得部と、
前記歪みを補正するための変換処理を、前記歪み画像の中の処理対象領域に対して行い、前記歪み画像を補正する補正処理部と、
前記変換処理による前記処理対象領域の変換態様を表す変換態様情報を取得する変換態様情報取得部と、
前記取得された変換態様情報に基づいて、前記歪み画像に含まれるノイズ成分を低減する処理を行うノイズ低減処理部として、
コンピュータを機能させることを特徴とする画像処理プログラム。
An image acquisition unit that acquires a distortion image in which distortion has occurred due to optical aberrations of the optical system;
A correction processing unit that performs a conversion process for correcting the distortion on a processing target area in the distortion image, and corrects the distortion image;
A conversion mode information acquisition unit that acquires conversion mode information representing a conversion mode of the processing target area by the conversion process;
Based on the acquired conversion mode information, as a noise reduction processing unit that performs processing to reduce noise components included in the distortion image,
An image processing program for causing a computer to function.
JP2011071522A 2011-03-29 2011-03-29 Image processor, control device, endoscope apparatus, image processing method, and image processing program Withdrawn JP2012205619A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011071522A JP2012205619A (en) 2011-03-29 2011-03-29 Image processor, control device, endoscope apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011071522A JP2012205619A (en) 2011-03-29 2011-03-29 Image processor, control device, endoscope apparatus, image processing method, and image processing program

Publications (1)

Publication Number Publication Date
JP2012205619A true JP2012205619A (en) 2012-10-25

Family

ID=47185987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011071522A Withdrawn JP2012205619A (en) 2011-03-29 2011-03-29 Image processor, control device, endoscope apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP2012205619A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014156604A1 (en) * 2013-03-26 2014-10-02 富士フイルム株式会社 Endoscope system, operational method therefor and processor device
JP2016073572A (en) * 2014-10-09 2016-05-12 富士フイルム株式会社 Image processing apparatus for electronic endoscope, electronic endoscope system, and image processing method for electronic endoscope
JP2018525059A (en) * 2015-08-11 2018-09-06 カン, ユンシクKANG, Yoon Sik Endoscope
CN110677721A (en) * 2019-09-27 2020-01-10 腾讯科技(深圳)有限公司 Video encoding and decoding method and device and storage medium
WO2022224859A1 (en) * 2021-04-23 2022-10-27 富士フイルム株式会社 Endoscope system and method for operating same
WO2022269975A1 (en) * 2021-06-25 2022-12-29 ソニーグループ株式会社 Observation system for medical use, information processing device, and information processing method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014156604A1 (en) * 2013-03-26 2014-10-02 富士フイルム株式会社 Endoscope system, operational method therefor and processor device
JP2014188083A (en) * 2013-03-26 2014-10-06 Fujifilm Corp Endoscope system, processor device, and operation method
JP2016073572A (en) * 2014-10-09 2016-05-12 富士フイルム株式会社 Image processing apparatus for electronic endoscope, electronic endoscope system, and image processing method for electronic endoscope
JP2018525059A (en) * 2015-08-11 2018-09-06 カン, ユンシクKANG, Yoon Sik Endoscope
CN110677721A (en) * 2019-09-27 2020-01-10 腾讯科技(深圳)有限公司 Video encoding and decoding method and device and storage medium
CN110677721B (en) * 2019-09-27 2022-09-13 腾讯科技(深圳)有限公司 Video encoding and decoding method and device and storage medium
WO2022224859A1 (en) * 2021-04-23 2022-10-27 富士フイルム株式会社 Endoscope system and method for operating same
WO2022269975A1 (en) * 2021-06-25 2022-12-29 ソニーグループ株式会社 Observation system for medical use, information processing device, and information processing method

Similar Documents

Publication Publication Date Title
EP2762059B1 (en) Image processing device for use with endoscope, endoscope, and image processing method
JP5284537B2 (en) Image processing apparatus, image processing method, image processing program, and imaging apparatus using the same
JP5684033B2 (en) IMAGING DEVICE AND ENDOSCOPE DEVICE OPERATION METHOD
JP5147994B2 (en) Image processing apparatus and imaging apparatus using the same
JP5054248B2 (en) Image processing apparatus, image processing method, image processing program, and imaging apparatus
US9154745B2 (en) Endscope apparatus and program
US8854448B2 (en) Image processing apparatus, image display system, and image processing method and program
JP6996901B2 (en) Endoscope system
JP2016213702A (en) Image processing system, control method thereof, and control program
JP2012205619A (en) Image processor, control device, endoscope apparatus, image processing method, and image processing program
CN104956661A (en) Image pickup apparatus, image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP2013031154A (en) Image processing device, image processing method, image capturing device, and program
JP2010034964A (en) Image composition apparatus, image composition method and image composition program
JP2013066648A (en) Endoscopic image processing device and endoscope apparatus
WO2013073627A1 (en) Image processing device and method
US9672596B2 (en) Image processing apparatus to generate a reduced image of an endoscopic image
JP2019138982A (en) Endoscope device, endoscope device control method, endoscope device control program and storage medium
JP2011176788A (en) Viewfinder video generation device
JP2003052057A (en) Stereoscopic vision image forming equipment using image conversion
JP2020201694A (en) Image processing device, imaging device, image processing method, program, and storage medium
EP3150107A1 (en) Image processing device
CN116402711A (en) Image processing method, device and computer readable storage medium

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20121130

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20121130

A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140603