JP2008311850A - Image processing apparatus and endoscopic instrument equipped with the same - Google Patents

Image processing apparatus and endoscopic instrument equipped with the same Download PDF

Info

Publication number
JP2008311850A
JP2008311850A JP2007156446A JP2007156446A JP2008311850A JP 2008311850 A JP2008311850 A JP 2008311850A JP 2007156446 A JP2007156446 A JP 2007156446A JP 2007156446 A JP2007156446 A JP 2007156446A JP 2008311850 A JP2008311850 A JP 2008311850A
Authority
JP
Japan
Prior art keywords
image
field signal
image field
motion
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007156446A
Other languages
Japanese (ja)
Other versions
JP5038027B2 (en
Inventor
Yoshihito Morita
恵仁 森田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2007156446A priority Critical patent/JP5038027B2/en
Priority to PCT/JP2008/060589 priority patent/WO2008153014A1/en
Publication of JP2008311850A publication Critical patent/JP2008311850A/en
Application granted granted Critical
Publication of JP5038027B2 publication Critical patent/JP5038027B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus which performs effective noise reduction processing, considering the results of motion detection in a field-sequential imaging method, and also to provide an endoscopic instrument equipped with the same. <P>SOLUTION: The image processing apparatus comprises: a motion detecting means 43 for detecting the motion of an object using a first image field signal of each color inputted sequentially by a field-sequential method and a second image field signal of each color which is the first image field signal reduced in noise and stored (42); and a predicted image creating means 46 for creating a predicted image field signal of each color using the detected motion of the object and the second image field signal of the same color as the first image field signal. A noise reducing means used for reducing the noise signal combines the first image field signal inputted at the point of time when it became a target for processing, and the predicted image field signal to perform noise reduction processing 47 on the first image field signal inputted at the point of time when it became a target for processing. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、面順次の撮像方式におけるノイズ成分を効果的に低減する画像処理装置およびこれを備えた内視鏡装置に関するものである。   The present invention relates to an image processing apparatus that effectively reduces noise components in a frame sequential imaging method, and an endoscope apparatus including the image processing apparatus.

被写体をカラーで表示する撮像装置、特に電子内視鏡装置の撮像方式として、面順次方式と同時方式がある。面順次方式の撮像方式を用いた場合、画素数が少ない場合にも解像度が比較的高くて色再現性に優れているため、微妙な色の変化を観察する必要がある医療分野では、面順次方式の電子内視鏡装置が広く用いられている。また、最近においては、狭帯域の照明光を用いて狭帯域光観察像を得ることができる面順次方式の電子内視鏡装置も知られている。   There are a frame sequential method and a simultaneous method as an imaging method of an imaging device that displays a subject in color, particularly an electronic endoscope device. When using a frame sequential imaging method, even when the number of pixels is small, the resolution is relatively high and the color reproducibility is excellent, so in the medical field where it is necessary to observe subtle color changes, A type of electronic endoscope apparatus is widely used. In addition, recently, a field sequential type electronic endoscope apparatus capable of obtaining a narrow band light observation image using narrow band illumination light is also known.

面順次方式の電子内視鏡装置では、光源装置内のランプから射出された照明光の光路上に、例えば赤色(R)、緑色(G)、青色(B)と、それぞれ異なる色波長域の光を透過させる三つの色透過フィルタが配置されている開口部を有し、開口部以外は遮光部となっている回転フィルタが挿入されており、回転フィルタが回転されることで、照明光が間欠的に遮断されて各色光が順次被写体に照射される。そして、電子内視鏡先端に配置されたCCDで、色毎に得られた被写体の像が時系列的に撮像される。   In the field sequential type electronic endoscope apparatus, red (R), green (G), and blue (B), for example, have different color wavelength ranges on the optical path of illumination light emitted from the lamp in the light source apparatus. A rotating filter having an opening in which three color transmission filters that transmit light are arranged and a light shielding part other than the opening is inserted. By rotating the rotating filter, illumination light is transmitted. The subject is interrupted intermittently, and each color light is sequentially irradiated onto the subject. Then, an image of the subject obtained for each color is picked up in time series by the CCD arranged at the tip of the electronic endoscope.

このときCCDでは、回転フィルタの回転タイミングにあわせて露光と遮光とが行われる。露光期間中にはCCDの全ての画素に新たな電荷が蓄えられ、照明光の遮断時である遮光期間中には、蓄えられた全ての電荷が読み出される。この電荷の蓄積と読み出しの動作が繰り返されて、CCDで撮像されて生成された画像信号が画像信号処理部に入力される。   At this time, the CCD performs exposure and light shielding in accordance with the rotation timing of the rotary filter. During the exposure period, new charges are stored in all the pixels of the CCD, and during the light blocking period, which is when the illumination light is blocked, all the stored charges are read out. This charge accumulation and readout operation is repeated, and an image signal generated by imaging with the CCD is input to the image signal processing unit.

一般に、これら動画像信号にはノイズ成分が含まれ、そのノイズ成分を低減させる手法としては、フレーム巡回型ノイズ低減処理が知られている。ここで、フレーム巡回型ノイズ低減処理とは、1フレーム前の出力画像と現在の入力画像から、画像信号の動きを検出し、動き量に応じて時間平均の程度を制御するものである。   In general, these moving image signals include noise components, and frame recursive noise reduction processing is known as a technique for reducing the noise components. Here, the frame cyclic noise reduction processing is to detect the motion of the image signal from the output image one frame before and the current input image, and to control the degree of time average according to the amount of motion.

このフレーム巡回型ノイズ低減装置の性能は、上述の動き検出の精度によって大きく左右される。ここで、一般的な動き検出アルゴリズムとしては、画像フレーム信号の輝度の差分絶対値を算出し、この差分絶対値と、動き判定閾値とを比較することが知られている。特許文献1においては、差分絶対値が動き判定閾値よりも大きい場合には動きと判定し、小さい場合には静止と判定する方法が開示されている。
特開2005−150903号公報
The performance of the frame recursive noise reduction device greatly depends on the accuracy of motion detection described above. Here, as a general motion detection algorithm, it is known to calculate a difference absolute value of luminance of an image frame signal and compare the difference absolute value with a motion determination threshold value. Patent Document 1 discloses a method of determining that a motion is absolute when the difference absolute value is larger than a motion determination threshold, and determining that the motion is stationary when the absolute value is smaller.
JP 2005-150903 A

しかしながら、上述のように面順次の撮像方式においては、例えばR、G、及びBの三つの色透過フィルタが配置された回転フィルタを回転させて、色毎の被写体の像をCCDにおいて時系列に撮像している。このため、被写体と撮像側とのいずれか一方、又は双方が撮影中に動くと、フレーム信号内に各色のフィールド信号の位置ずれが発生してしまう。このため、動画像信号における輝度の空間周波数が低下し、動き検出の精度が低下し、効率的なノイズ低減が行えないという問題があった。   However, as described above, in the field sequential imaging method, for example, by rotating a rotation filter in which three color transmission filters of R, G, and B are arranged, an image of a subject for each color is time-sequentially in the CCD. I'm shooting. For this reason, if one or both of the subject and the imaging side move during shooting, a position shift of the field signal of each color occurs in the frame signal. For this reason, there is a problem that the spatial frequency of luminance in the moving image signal is lowered, the accuracy of motion detection is lowered, and efficient noise reduction cannot be performed.

本発明は、上記問題に鑑みてなされたもので、面順次の撮像方式において、動き検出の結果を考慮して、効果的なノイズ低減処理を行う画像処理装置およびこれを備えた内視鏡装置を提供することを目的とする。   The present invention has been made in view of the above problems, and an image processing apparatus that performs an effective noise reduction process in consideration of the result of motion detection in an area sequential imaging method, and an endoscope apparatus including the image processing apparatus The purpose is to provide.

上記課題を解決するために、本発明は以下の手段を採用する。
本発明に係る画像処理装置は、面順次方式によって順次入力される各色の第1画像フィールド信号に対し、ノイズ低減処理を行うことによって各色の第2画像フィールド信号を作成するノイズ低減手段と、各色の前記第2画像フィールド信号を記憶する画像記憶手段と、前記第1画像フィールド信号と、過去の第1画像フィールド信号に対するノイズ低減処理によって作成され、前記画像記憶手段に記憶された、第1画像フィールド信号と同色の第2画像フィールド信号とを用いて、被写体の動きを検出する動き検出手段と、前記被写体の動きと前記過去の第2画像フィールド信号とを用いて、第1画像フィールド信号と同色の予測画像フィールド信号を作成する予測画像作成手段と、を備え、前記ノイズ低減手段は、前記処理対象となる時点で入力された第1画像フィールド信号と前記予測画像フィールド信号とを合成して、前記処理対象となる時点で入力された第1画像フィールド信号に対し、前記ノイズ低減処理を行うことを特徴とする。
In order to solve the above problems, the present invention employs the following means.
The image processing apparatus according to the present invention includes a noise reduction unit that generates a second image field signal of each color by performing noise reduction processing on the first image field signal of each color sequentially input by the frame sequential method, and each color. Image storage means for storing the second image field signal, the first image field signal, and the first image created by noise reduction processing for the first image field signal in the past and stored in the image storage means Using the second image field signal of the same color as the field signal, a motion detection means for detecting the motion of the subject, and using the motion of the subject and the past second image field signal, A predicted image creating means for creating a predicted image field signal of the same color, and the noise reducing means is the processing target The noise reduction process is performed on the first image field signal input at the time to be processed by synthesizing the first image field signal input in step 1 and the predicted image field signal. .

本発明に係る画像処理装置によれば、各色について、第1画像フィールド信号と記憶された第1画像フィールド信号と同色の過去の第2画像フィールド信号とを用いて被写体の動きが検出され、この被写体の動きと第1画像フィールド信号と同色の過去の第2画像フィールド信号とを用いて予測画像フィールド信号が生成される。そして、現画像である第1画像フィールド信号と被写体の動きを考慮した同色の予測画像フィールド信号との画像合成を行うことにより、面順次方式によって撮像された各色の第1画像フィールド信号に対してもノイズを低減することが可能となる。   According to the image processing apparatus of the present invention, for each color, the movement of the subject is detected using the first image field signal and the second image field signal of the same color as the stored first image field signal. A predicted image field signal is generated using the movement of the subject and the past second image field signal of the same color as the first image field signal. Then, by performing image synthesis of the first image field signal that is the current image and the predicted image field signal of the same color in consideration of the movement of the subject, the first image field signal of each color captured by the frame sequential method is obtained. It becomes possible to reduce noise.

本発明に係る画像処理装置は、前記動き検出手段によって検出された被写体の動き情報を記憶する動き記憶手段と、処理対象となる色についての前記動き情報を、前記動き記憶手段に記憶されている別の色の前記動き情報を用いて補正する動き補正手段と、を有することを特徴とする。   In the image processing apparatus according to the present invention, motion storage means for storing subject motion information detected by the motion detection means, and motion information for a color to be processed are stored in the motion storage means. Motion correction means for correcting using the motion information of another color.

例えば、体腔内を撮影する内視鏡においては、赤色(R)や緑色(G)フィールドの画像信号に比べて、青色(B)フィールドの画像信号は、信号レベルが小さくコントラストが低いため、動き情報の検知精度が低くなる。その結果、Bフィールドの予測画像信号を精度良く作成することができないため、ノイズ低減を効果的に行うことができないという問題がある。本発明に係る画像処理装置によれば、RやGフィールドの画像信号の動き情報を用いてBフィールドの画像信号の動き情報を補正することができる。これにより、Bフィールドの予測画像信号を高精度に作成することができ、ノイズ低減効果を向上させることが可能となる。   For example, in an endoscope that captures the inside of a body cavity, an image signal in a blue (B) field has a lower signal level and a lower contrast than an image signal in a red (R) or green (G) field. Information detection accuracy is lowered. As a result, there is a problem that noise cannot be effectively reduced because the predicted image signal of the B field cannot be generated with high accuracy. According to the image processing apparatus of the present invention, it is possible to correct the motion information of the image signal of the B field using the motion information of the image signal of the R or G field. Thereby, the predicted image signal of the B field can be generated with high accuracy, and the noise reduction effect can be improved.

前記動き補正手段は、空間周波数帯域の低い色の前記動き情報を、空間周波数帯域の高い色の前記被写体の前記動き情報を用いて補正することを特徴とする。   The motion correction unit corrects the motion information of a color having a low spatial frequency band using the motion information of the subject having a color having a high spatial frequency band.

空間周波数帯域の低い色については、被写体の動き情報の精度が低くなる。
本発明に係る画像処理装置によれば、空間周波数帯域の低い色の被写体の動きを、空間周波数帯域の高い色の被写体の動き情報を用いて補正することにより、空間周波数帯域の低い色の被写体の動き検出についても高精度に行うことができる。
For colors with a low spatial frequency band, the accuracy of the motion information of the subject is low.
According to the image processing apparatus of the present invention, a subject having a color with a low spatial frequency band is corrected by correcting the motion of the subject with a color having a low spatial frequency band using the motion information of the subject having a color with a high spatial frequency band. The motion detection can be performed with high accuracy.

本発明に係る画像処理装置は、前記被写体の動きに応じて、前記第1画像フィールド信号と前記予測画像フィールド信号との合成比を決定する合成比決定手段を有し、前記合成比決定手段によって決定された合成比で前記第1画像フィールド信号と前記予測画像フィールド信号とを合成することにより、前記第1画像フィールド信号のノイズ低減処理を行うことを特徴とする。   The image processing apparatus according to the present invention includes a synthesis ratio determining unit that determines a synthesis ratio between the first image field signal and the predicted image field signal in accordance with the movement of the subject, and the synthesis ratio determining unit The first image field signal is subjected to noise reduction processing by combining the first image field signal and the predicted image field signal with the determined combination ratio.

本発明に係る画像処理装置によれば、被写体の動きに基づいて、現画像である第1画像フィールド信号と予測画像フィールド信号との合成比が決定され、この合成比に従って画像合成が行われる。これにより、被写体の動きに応じたノイズ低減処理を行うことが可能となる。   According to the image processing apparatus of the present invention, the composition ratio between the first image field signal that is the current image and the predicted image field signal is determined based on the motion of the subject, and image composition is performed according to the composition ratio. This makes it possible to perform noise reduction processing according to the movement of the subject.

前記合成比決定手段は、前記被写体の動きが大きい領域は前記第1画像フィールド信号の比率を大きくし、前記被写体の動きが小さい領域は前記予測画像フィールド信号の比率を大きくなるように合成比を決定することを特徴とする。   The composition ratio determining means sets the composition ratio so that the ratio of the first image field signal is increased in an area where the subject motion is large, and the ratio of the predicted image field signal is increased in an area where the subject motion is small. It is characterized by determining.

本発明に係る画像処理装置によれば、被写体の動きが小さい部分については、予測画像フィールド信号の比率を高めるようにすることによって、ノイズを効果的に低減することが可能となる。一方、被写体の動きが大きい部分については、現画像である第1画像フィールド信号の比率を高めるようにすることにより、残像の発生を抑制することができる。   According to the image processing apparatus of the present invention, it is possible to effectively reduce noise by increasing the ratio of the predicted image field signal in a portion where the movement of the subject is small. On the other hand, with respect to a portion where the movement of the subject is large, the occurrence of an afterimage can be suppressed by increasing the ratio of the first image field signal that is the current image.

本発明に係る画像処理装置は、前記第1画像フィールド信号と前記予測画像フィールド信号との間の画像誤差を算出する画像誤差算出手段と、前記画像誤差に応じて、前記第1画像フィールド信号と前記予測画像フィールド信号との合成比を決定する合成比決定手段と、を有し、前記合成比決定手段によって決定された合成比で前記第1画像フィールド信号と前記予測画像フィールド信号とを合成することにより、前記第1画像フィールド信号のノイズ低減処理を行うことを特徴とする。   The image processing apparatus according to the present invention includes an image error calculation means for calculating an image error between the first image field signal and the predicted image field signal, and the first image field signal according to the image error. Combining ratio determining means for determining a combining ratio with the predicted image field signal, and combining the first image field signal and the predicted image field signal with the combining ratio determined by the combining ratio determining means. Thus, noise reduction processing is performed on the first image field signal.

本発明に係る画像処理装置によれば、画像誤差算出手段により算出された画像誤差に基づいて合成比が決定され、この合成比に従って画像合成が行われる。これにより、画像誤差に応じたノイズ低減処理を行うことが可能となる。   According to the image processing apparatus of the present invention, the composition ratio is determined based on the image error calculated by the image error calculation means, and the image composition is performed according to this composition ratio. This makes it possible to perform noise reduction processing according to the image error.

本発明に係る画像処理装置は、前記合成比決定手段は、前記画像誤差が大きい領域は前記第1画像フィールド信号の比率を大きくし、前記画像誤差が小さい領域は前記予測画像フィールド信号の比率を大きくなるように合成比を決定することを特徴とする。   In the image processing apparatus according to the present invention, the synthesis ratio determining means increases the ratio of the first image field signal in a region where the image error is large, and sets the ratio of the predicted image field signal in a region where the image error is small. The composition ratio is determined so as to increase.

本発明に係る画像処理装置によれば、画像誤差が小さい部分については、予測画像フィールド信号の比率を高めるようにすることによって、ノイズを効果的に低減することが可能となる。一方、画像誤差が大きい部分については、現画像である第1画像フィールド信号の比率を高めるようにすることにより、残像の発生を抑制することができる。   According to the image processing apparatus of the present invention, it is possible to effectively reduce noise by increasing the ratio of the predicted image field signal in a portion where the image error is small. On the other hand, in the portion where the image error is large, the occurrence of afterimage can be suppressed by increasing the ratio of the first image field signal which is the current image.

本発明に係る内視鏡装置は、上記のいずれかに記載の画像処理装置を備えることを特徴とする。   An endoscope apparatus according to the present invention includes any one of the image processing apparatuses described above.

本発明に係る内視鏡装置によれば、各フィールドの画像信号のノイズを低減させることができるので、被写体の微妙な色の変化を観察することが可能となる。   According to the endoscope apparatus according to the present invention, noise in the image signal of each field can be reduced, so that it is possible to observe a subtle color change of the subject.

本発明によれば、現画像である第1画像フィールド信号と被写体の動きを考慮した同色の予測画像フィールド信号との画像合成を行うことにより、面順次方式によって撮像された第1画像フィールド信号に対して好適なノイズを低減を行うことが可能となる。   According to the present invention, the first image field signal captured by the frame sequential method is obtained by performing image synthesis of the first image field signal that is the current image and the predicted image field signal of the same color in consideration of the movement of the subject. On the other hand, it is possible to reduce a suitable noise.

[第1の実施形態]
以下に、本発明の第1の実施形態に係る画像処理装置について、図面を参照して説明する。
図1は、本発明に係る画像処理装置を適用した内視鏡装置の概略構成図である。
図1に示すように、本発明に係る内視鏡装置は、撮像素子を備えた電子内視鏡11と、撮像素子の出力信号に対する信号処理を行う画像処理装置12と、電子内視鏡11に照明光を供給する光源装置13と、画像処理装置12からの画像信号が入力され、撮像した内視鏡画像を表示するモニタ14とを備えている。
[First Embodiment]
The image processing apparatus according to the first embodiment of the present invention will be described below with reference to the drawings.
FIG. 1 is a schematic configuration diagram of an endoscope apparatus to which an image processing apparatus according to the present invention is applied.
As shown in FIG. 1, an endoscope apparatus according to the present invention includes an electronic endoscope 11 including an image sensor, an image processing device 12 that performs signal processing on an output signal of the image sensor, and the electronic endoscope 11. A light source device 13 that supplies illumination light to the monitor, and a monitor 14 that receives an image signal from the image processing device 12 and displays a captured endoscopic image.

電子内視鏡11の本体は、操作部15と、操作部15の先端側に設けられた細長の挿入部16と、操作部15の側部に接続され操作部15とは反対側が2股に分岐したケーブル17とを備えている。
ケーブル17の分岐側の先端部にはそれぞれコネクタ18、19が設けられている。また、ケーブル17は、コネクタ18を介して画像処理装置12と、コネクタ19を介して光源装置13と接続されている。
挿入部16の先端には、対物レンズ20と、固体撮像素子としてのCCD21とが取り付けられており、CCD21は対物レンズ20の結像位置に配置されている。CCD21には駆動信号線22と出力信号線23と接続され、駆動信号線22および出力信号線23はコネクタ18を介して画像処理装置12に接続されている。
また、電子内視鏡11には、挿入部16の先端まで照明光を伝達するガラスファイバ束であるライトガイド24が配置され、このライトガイド24は、コネクタ19を介して光源装置13に接続されている。これにより、光源装置13から出射される照明光が、ライトガイド24の入射端に入射されるようになっている。
The main body of the electronic endoscope 11 includes an operation unit 15, an elongated insertion unit 16 provided on the distal end side of the operation unit 15, and a side opposite to the operation unit 15 connected to the side of the operation unit 15. And a branched cable 17.
Connectors 18 and 19 are provided at the branch ends of the cable 17, respectively. The cable 17 is connected to the image processing device 12 via a connector 18 and to the light source device 13 via a connector 19.
An objective lens 20 and a CCD 21 as a solid-state imaging device are attached to the distal end of the insertion portion 16, and the CCD 21 is disposed at the image forming position of the objective lens 20. A drive signal line 22 and an output signal line 23 are connected to the CCD 21, and the drive signal line 22 and the output signal line 23 are connected to the image processing apparatus 12 via a connector 18.
The electronic endoscope 11 is provided with a light guide 24 that is a glass fiber bundle that transmits illumination light to the distal end of the insertion portion 16, and the light guide 24 is connected to the light source device 13 via the connector 19. ing. Thereby, the illumination light emitted from the light source device 13 enters the incident end of the light guide 24.

画像処理装置12は、面順次方式の撮像とノイズ低減処理、同時化処理を行うためのものであり、前処理回路30と、CCD駆動回路31と、制御回路32と、A/Dコンバータ33と、ノイズ低減回路34と、同時化回路35と、同時化回路35と、D/Aコンバータ36と、後処理回路37とを備えている。
前処理回路30およびCCD駆動回路31は、コネクタ18を介してCCD21に接続されている。また、前処理回路30は、A/Dコンバータ33、ノイズ低減回路34、同時化回路35、同時化回路35、D/Aコンバータ36、後処理回路37、モニタ14の順にて接続されている。さらに、制御回路32からは制御線が各回路に接続されていて、発生するタイミング信号を制御し、各回路部にその信号を供給するようになっている。
The image processing device 12 is for performing frame-sequential imaging, noise reduction processing, and synchronization processing, and includes a preprocessing circuit 30, a CCD drive circuit 31, a control circuit 32, and an A / D converter 33. , A noise reduction circuit 34, a synchronization circuit 35, a synchronization circuit 35, a D / A converter 36, and a post-processing circuit 37.
The preprocessing circuit 30 and the CCD drive circuit 31 are connected to the CCD 21 via the connector 18. The preprocessing circuit 30 is connected in the order of an A / D converter 33, a noise reduction circuit 34, a synchronization circuit 35, a synchronization circuit 35, a D / A converter 36, a post-processing circuit 37, and the monitor 14. Further, a control line is connected to each circuit from the control circuit 32 to control a generated timing signal and supply the signal to each circuit unit.

光源装置13は、白色光を発生する光源ランプ25と、モータ26と、モータ26によって駆動され、R、G、Bの三原色の色透過フィルタを有する回転フィルタ27と、集光レンズ28と、モータ26を制御する駆動回路29とを備えている。   The light source device 13 includes a light source lamp 25 that generates white light, a motor 26, a rotary filter 27 that is driven by the motor 26, and has color transmission filters of three primary colors of R, G, and B, a condenser lens 28, and a motor. And a drive circuit 29 for controlling the H.26.

上記構成を有する内視鏡装置における画像信号の流れについて以下に説明する。
光源ランプ25から射出された白色光は、その光路中に配置された回転フィルタ27を透過して、順次、R、G、Bの各波長の照明光になされた後、集光レンズ28によって集光され、ライトガイド24の入射端に入射される。ライトガイド24の先端より出射されたR、G、Bの各照明光により被写体から反射した光は、対物レンズ20を透過してCCD21の撮像面に結像され、光電変換されて光学像から撮像信号へ変換される。なお、回転フィルタ27は、駆動回路29により制御されたモータ26によって駆動され、通常は20Hzで回転している。また、CCD21での露光と遮光とは回転フィルタ27の回転に合わせて行われるよう制御されており、例えば上述のように、回転フィルタ27が20Hzで回転している場合、色毎に1/60Hzのタイミングで露光と遮光とが繰り返されている。
The flow of image signals in the endoscope apparatus having the above configuration will be described below.
The white light emitted from the light source lamp 25 passes through the rotary filter 27 arranged in the optical path, and is sequentially made into illumination light of each wavelength of R, G, B, and then collected by the condenser lens 28. Light is incident on the incident end of the light guide 24. The light reflected from the subject by the R, G, and B illumination lights emitted from the tip of the light guide 24 passes through the objective lens 20 and forms an image on the imaging surface of the CCD 21, and is photoelectrically converted and captured from the optical image. Converted to a signal. The rotary filter 27 is driven by a motor 26 controlled by a drive circuit 29 and normally rotates at 20 Hz. Further, exposure and light shielding by the CCD 21 are controlled to be performed in accordance with the rotation of the rotary filter 27. For example, as described above, when the rotary filter 27 rotates at 20 Hz, 1/60 Hz for each color. The exposure and the light shielding are repeated at the timing.

画像処理装置12では、制御回路32に接続された図示しないキーボード等の入力手段からの操作によって、文字・画像マスク信号の重畳、メニュー画面・テスト画面の切り替え(カラーバーなど)が行われる。
CCD駆動回路31は、制御回路32からの信号によりCCD21を駆動するための駆動信号を発生させる。このように駆動されたCCD21からの画像信号は、前処理回路30に入力される。前処理回路30に入力された画像信号は、増幅、波形整形等の所定の処理が行われた後、A/Dコンバータ33でデジタルデータ化される。デジタルデータ化された画像信号は、ノイズ低減回路34でノイズ低減処理が行われた後、同時化回路35に入力される。同時化回路35では面順次信号の同時化処理が行われ、D/Aコンバータ36に入力される。D/Aコンバータ36に入力された画像信号は、アナログ信号に変換される。アナログ化された画像信号は、後処理回路37に入力されてゲイン調整等の所定の処理が行われた後、モニタ14に入力される。モニタ14では上記処理が行われた画像信号に基づいて被検体の画像が表示される。
In the image processing apparatus 12, superimposition of a character / image mask signal and switching of a menu screen / test screen (color bar, etc.) are performed by an operation from an input means such as a keyboard (not shown) connected to the control circuit 32.
The CCD drive circuit 31 generates a drive signal for driving the CCD 21 based on a signal from the control circuit 32. The image signal from the CCD 21 driven in this way is input to the preprocessing circuit 30. The image signal input to the preprocessing circuit 30 is subjected to predetermined processing such as amplification and waveform shaping, and then converted into digital data by the A / D converter 33. The image signal converted into digital data is subjected to noise reduction processing by the noise reduction circuit 34 and then input to the synchronization circuit 35. The synchronization circuit 35 performs a frame sequential signal synchronization process and inputs the signal to the D / A converter 36. The image signal input to the D / A converter 36 is converted into an analog signal. The analog image signal is input to the post-processing circuit 37 and subjected to predetermined processing such as gain adjustment, and then input to the monitor 14. The monitor 14 displays an image of the subject based on the image signal subjected to the above processing.

上記の処理において、ノイズ低減回路34における処理の詳細について以下に説明する。
図2は、ノイズ低減回路34が備える機能を展開して示した機能ブロック図である。
ノイズ低減回路34は、画像入力部41と、画像記憶部(画像記憶手段)42と、セレクタ52と、動き検出部(動き検出手段)43と、動き記憶部(動き記憶手段)44と、動き補正部(動き補正手段)45と、予測画像作成部(予測画像作成手段)46と、ノイズ低減部(ノイズ低減手段)47と、画像合成比決定部(合成比決定手段)48と、セレクタ51と、画像出力部49とを備えている。
Details of the processing in the noise reduction circuit 34 in the above processing will be described below.
FIG. 2 is a functional block diagram showing the functions provided in the noise reduction circuit 34 in an expanded manner.
The noise reduction circuit 34 includes an image input unit 41, an image storage unit (image storage unit) 42, a selector 52, a motion detection unit (motion detection unit) 43, a motion storage unit (motion storage unit) 44, a motion A correction unit (motion correction unit) 45, a predicted image generation unit (prediction image generation unit) 46, a noise reduction unit (noise reduction unit) 47, an image composition ratio determination unit (composition ratio determination unit) 48, and a selector 51 And an image output unit 49.

上記構成を有するノイズ低減回路34における画像信号の流れについて以下に説明する。
画像入力部41には、A/Dコンバータ33でデジタルデータ化されたR、G、及びBフィールド信号が、順次所定の時間間隔で連続的に入力される。
The flow of the image signal in the noise reduction circuit 34 having the above configuration will be described below.
R, G, and B field signals converted into digital data by the A / D converter 33 are sequentially input to the image input unit 41 sequentially at predetermined time intervals.

画像記憶部42は、後述するノイズ低減部47から出力されたノイズ低減済み画像フィールド信号(第2画像フィールド信号)を色別に蓄積する。具体的には、画像記憶部42は、R、G、及びBフィールド信号メモリを有し、ノイズ低減部47から出力された第2画像フィールド信号を、セレクタ51を切り替えることにより、各フィールド信号の色に応じたメモリへ蓄積する。
また、画像記憶部42に蓄積された第2画像フィールド信号は、セレクタ52を切り替えることにより、画像入力部41から入力された現画像フィールド信号と同色のフィールド信号を動き検出部43、及び予測画像作成部46へ出力される。
The image storage unit 42 accumulates noise-reduced image field signals (second image field signals) output from a noise reduction unit 47 described later for each color. Specifically, the image storage unit 42 has R, G, and B field signal memories, and the second image field signal output from the noise reduction unit 47 is switched by switching the selector 51 so that each field signal is output. Accumulate in memory according to color.
Further, the second image field signal accumulated in the image storage unit 42 switches the selector 52 so that the field signal of the same color as the current image field signal input from the image input unit 41 is converted into the motion detection unit 43 and the predicted image. The data is output to the creation unit 46.

動き検出部43は、現画像フィールド信号と画像記憶部42に記憶された同色の第2画像フィールド信号との間における被写体の動きを検出する。具体的には、まず、画像入力部41にデジタルデータ化されたR、G、及びBフィールド信号が順次入力される。入力された画像フィールド信号は、現画像フィールド信号として、動き検出部43に読み込まれる。また、現画像フィールド信号が動き検出部43に読み出されるタイミングで、画像記憶部42に蓄積された現画像フィールド信号と同色の現画像に対して1フレーム前の第2画像フィールド信号が、セレクタ52を介して動き検出部43に読み込まれる。この画像記憶部42に蓄積された1フレーム前の第2画像フィールド信号を、現画像フィールド信号と比較することにより、被写体の動きが算出される。   The motion detector 43 detects the motion of the subject between the current image field signal and the second image field signal of the same color stored in the image storage unit 42. Specifically, first, R, G, and B field signals converted into digital data are sequentially input to the image input unit 41. The input image field signal is read into the motion detector 43 as a current image field signal. In addition, at the timing when the current image field signal is read by the motion detection unit 43, the second image field signal one frame before the current image field signal having the same color as the current image field signal stored in the image storage unit 42 is selected by the selector 52. Is read by the motion detection unit 43. The movement of the subject is calculated by comparing the second image field signal of the previous frame stored in the image storage unit 42 with the current image field signal.

動き検出には、例えば、現画像をブロックに分割し、ブロックごとに1フレーム前の画像(参照画像)からの動きを検出する手法が用いられる。この手法では、現画像の分割されたブロックの中の注目ブロックに対して、参照画像の探索範囲内で、この注目ブロックとの差異が最も小さい位置を特定する。この特定された位置によって、注目ブロックに対する、ブロックを単位とした被写体の移動方向および移動量を表すベクトル(以下、「動きベクトル」とする。)が定まる。つまり、探索範囲内の全ベクトルに対してブロック単位の差分絶対値またはその差分絶対値に相応する類似度評価値を計算し、計算された差分絶対値または類似度評価値に基づいて、注目ブロックとの差異が最も小さい位置が決定され、注目ブロックの動きベクトルが定まる。   For the motion detection, for example, a method is used in which the current image is divided into blocks and a motion from an image (reference image) one frame before is detected for each block. In this method, a position with the smallest difference from the target block is specified within the search range of the reference image with respect to the target block in the divided blocks of the current image. Based on the specified position, a vector (hereinafter referred to as “motion vector”) representing the moving direction and moving amount of the subject in units of the block with respect to the block of interest is determined. In other words, the absolute difference value in block units or the similarity evaluation value corresponding to the absolute difference value is calculated for all vectors within the search range, and the target block is calculated based on the calculated absolute difference value or similarity evaluation value. Is determined, and the motion vector of the block of interest is determined.

ブロックサイズには、例えば、16×16、16×8、8×16、8×8画素のサイズが規定される。また、動き検出部43は、前述した動き検出の手法により、1フレーム前の第2画像フィールド信号と現画像フィールド信号との間における被写体の動きの検出を全ブロックにおいて終了すると、被写体の動きの有無、量、方向などを、被写体の動き情報として、動き記憶部44、及び動き補正部45へ出力する。
なお、動き記憶部44は、動き検出部43からの被写体の動き情報を蓄積する。
As the block size, for example, sizes of 16 × 16, 16 × 8, 8 × 16, and 8 × 8 pixels are defined. In addition, when the motion detection unit 43 finishes detecting the motion of the subject between the second image field signal one frame before and the current image field signal in all blocks by the motion detection method described above, the motion detection unit 43 detects the motion of the subject. Presence / absence, amount, direction, and the like are output to the motion storage unit 44 and the motion correction unit 45 as subject motion information.
The motion storage unit 44 accumulates the subject motion information from the motion detection unit 43.

動き補正部45は、動き検出部43より検出された被写体の動き情報を、動き検出の精度に応じて、動き記憶部44に蓄積された別の色の画像フィールド信号における動き情報を用いて補正を行う。動き補正部45に入力された動き情報は、画像のブロック毎に動き検出の精度を算出する。   The motion correction unit 45 corrects the motion information of the subject detected by the motion detection unit 43 using the motion information in the image field signal of another color accumulated in the motion storage unit 44 according to the accuracy of motion detection. I do. The motion information input to the motion correction unit 45 calculates the accuracy of motion detection for each block of the image.

動き検出の精度を算出する工程は、例えば、注目ブロックの動き情報を4近傍又は8近傍のブロックにおける動き情報と比較することにより行われる。具体的には、注目ブロックの動きベクトルと各近傍ブロックの動きベクトルの大きさ、角度に基づいた相関値を用い、動きの検出精度を算出する。または、注目ブロックの動き情報を検出した探索範囲の空間周波数帯域を用いてもよい。さらに、前述の相関値と空間周波数帯域の両方を用いてもよい。ここで、探索範囲の空間周波数が低い場合は、画像の動き検出精度が低くなるため、参照画像の探索範囲における空間周波数を用いて検出精度を算出する。   The step of calculating the accuracy of motion detection is performed, for example, by comparing the motion information of the block of interest with the motion information in blocks near 4 or 8. Specifically, the motion detection accuracy is calculated using a correlation value based on the motion vector of the block of interest and the magnitude and angle of the motion vector of each neighboring block. Or you may use the spatial frequency band of the search range which detected the motion information of the attention block. Further, both the correlation value and the spatial frequency band described above may be used. Here, when the spatial frequency of the search range is low, the image motion detection accuracy is low, so the detection accuracy is calculated using the spatial frequency in the search range of the reference image.

次に、このようにして求めた動き検出の精度に応じて、動き記憶部44に蓄積された別の色の画像フィールド信号の動き情報を読み出し、動き情報の補正を行う。動き情報の補正は、例えば、動き検出の精度が精度判定閾値よりも低い場合は、動き記憶部44に蓄積された、検出精度が高い別の色のフィールド信号における同一位置の動き情報に置き換えを行う。または、動き記憶部44に蓄積された2つの画像フィールド信号の動き情報から外挿した値を用いてもよい。特に、体腔内を撮影する内視鏡においては、R及びGフィールドがBフィールドに比べて、信号レベルが高く、空間周波数帯域が高いことから、動き検出が高精度に行えるため、動き記憶部44に蓄積されたR及びGフィールドの動き情報を用いて、Bフィールドの動き情報の補正を行ってもよい。
このようにして、動き補正部45により補正された動き情報は、予測画像作成部46と画像合成比決定部48に出力される。
Next, the motion information of the image field signal of another color accumulated in the motion storage unit 44 is read out according to the accuracy of motion detection thus obtained, and the motion information is corrected. For example, when the accuracy of motion detection is lower than the accuracy determination threshold, the motion information is corrected by replacing the motion information at the same position in the field signal of another color with high detection accuracy accumulated in the motion storage unit 44. Do. Alternatively, a value extrapolated from the motion information of the two image field signals accumulated in the motion storage unit 44 may be used. In particular, in an endoscope that captures the inside of a body cavity, since the R and G fields have a higher signal level and a higher spatial frequency band than the B field, motion detection can be performed with high accuracy. The motion information of the B field may be corrected using the motion information of the R and G fields stored in the.
In this way, the motion information corrected by the motion correction unit 45 is output to the predicted image creation unit 46 and the image composition ratio determination unit 48.

予測画像作成部46は、画像記憶部42から読み込んだ、現画像と同色の第2画像フィールド信号と、動き補正部45により提供された動き情報とを基に、予測画像フィールド信号を作成する。具体的には、画像記憶部42から読み込んだ第2画像フィールド信号を参照画像とし、動き情報の分ずれた位置の参照画像のブロックにより、予測画像データを作成する。また、予測画像作成部46は、予測画像フィールド信号をノイズ低減部47へ出力する。   The predicted image creation unit 46 creates a predicted image field signal based on the second image field signal having the same color as the current image read from the image storage unit 42 and the motion information provided by the motion correction unit 45. Specifically, the second image field signal read from the image storage unit 42 is used as a reference image, and predicted image data is created from a block of the reference image at a position shifted by the motion information. Further, the predicted image creation unit 46 outputs the predicted image field signal to the noise reduction unit 47.

画像合成比決定部48は、被写体の動き情報に基づいて、現画像フィールド信号と予測画像フィールド信号との合成比を決定する。具体的には、画像合成比決定部48では、入力した画素毎の動き情報に基づいて、現画像フィールド信号における動きの量が小さい部分(静止部分及び静止に近い部分)の画素については、予測画像フィールド信号の画素における画素値の比率が高くなるように合成比を決定する。一方、現画像フィールド信号における動きの量が大きい部分(動き部分及び動きに近い部分)の画素については、現画像における画素の画素値の比率が高くなるように合成比を決定する。例えば、予測画像と現画像との間における被写体の動きの量が大きいときには、現画像の比率は1または1に近い値になる。   The image composition ratio determining unit 48 determines a composition ratio between the current image field signal and the predicted image field signal based on the motion information of the subject. Specifically, the image composition ratio determination unit 48 predicts the pixel of the part (the still part and the part close to the still part) in which the amount of motion is small in the current image field signal based on the input motion information for each pixel. The composition ratio is determined so that the ratio of pixel values in the pixels of the image field signal is high. On the other hand, for the pixels of the portion where the amount of motion in the current image field signal is large (the motion portion and the portion close to motion), the composition ratio is determined so that the ratio of the pixel values of the pixels in the current image is high. For example, when the amount of movement of the subject between the predicted image and the current image is large, the ratio of the current image is 1 or a value close to 1.

なお、同じ画像合成比であっても、撮像装置の特性、動き情報の特性等の要因によって画質が異なるため、最終的には操作者が実際に画像を見て画像合成比を調整するようにしてもよい。例えば、画像合成比決定部48では、操作者によりノイズ低減強度を設定し、ノイズ低減強度に応じて合成比を調整する。ノイズ低減強度を強く設定した場合は、予測画像フィールド信号の画素における画素値の比率が高くなるように合成比を調整する。一方、ノイズ低減強度を弱く設定した場合は、現画像における画素の画素値の比率が高くなるように合成比を調整する。また、画像合成比決定部48は、このようにして決定した画像合成比をノイズ低減部47へ出力する。   Even with the same image composition ratio, the image quality differs depending on factors such as the characteristics of the imaging device and the characteristics of the motion information, so the operator should actually look at the image and adjust the image composition ratio. May be. For example, the image composition ratio determination unit 48 sets the noise reduction intensity by the operator and adjusts the composition ratio according to the noise reduction intensity. When the noise reduction intensity is set strongly, the synthesis ratio is adjusted so that the ratio of the pixel values in the pixels of the predicted image field signal is high. On the other hand, when the noise reduction intensity is set low, the composition ratio is adjusted so that the ratio of the pixel values of the pixels in the current image is high. Further, the image composition ratio determination unit 48 outputs the image composition ratio determined in this way to the noise reduction unit 47.

ノイズ低減部47は、画像合成比決定部48から提供された合成比情報を用いて現画像フィールド信号のノイズ低減処理を行う。具体的には、ノイズ低減部47では、画像合成比決定部48からの画像合成比を入力するとともに、画像入力部41からの現画像フィールド信号、及び予測画像作成部46からの予測画像フィールド信号を入力し、画像合成比に基づいて、現画像フィールド信号について、フィールド間のノイズを低減する。フィールド間ノイズ低減の手法は、現画像フィールド信号と予測画像フィールド信号とのそれぞれでのフィールド内位置が同一の画素における画素値と、その画素に対応する画像合成比とを用いて、以下の(1)式により、ノイズ低減済み画像の画素値を算出する。   The noise reduction unit 47 performs noise reduction processing on the current image field signal using the synthesis ratio information provided from the image synthesis ratio determination unit 48. Specifically, the noise reduction unit 47 inputs the image composition ratio from the image composition ratio determination unit 48, the current image field signal from the image input unit 41, and the predicted image field signal from the predicted image creation unit 46. , And the noise between fields is reduced for the current image field signal based on the image composition ratio. The inter-field noise reduction method uses the pixel value of a pixel having the same in-field position in each of the current image field signal and the predicted image field signal, and an image composition ratio corresponding to the pixel as follows ( The pixel value of the noise-reduced image is calculated by the equation 1).

Figure 2008311850
Figure 2008311850

このようにして合成した後の画像フィールド信号を、ノイズ低減済みの第2画像フィールド信号として画像記憶部42、及び画像出力部49へ出力する。
画像記憶部42に蓄積された第2画像フィールド信号は、1フレーム前の画像フィールド信号として、その後の第1画像フィールド信号のノイズ低減のために用いられる。また、画像出力部49は、ノイズ低減部47から出力されたノイズ低減済みの第2画像フィールド信号を同時化回路35に順次出力する。
The combined image field signal is output to the image storage unit 42 and the image output unit 49 as a second image field signal after noise reduction.
The second image field signal stored in the image storage unit 42 is used as an image field signal for the previous frame and for noise reduction of the subsequent first image field signal. The image output unit 49 sequentially outputs the noise-reduced second image field signal output from the noise reduction unit 47 to the synchronization circuit 35.

なお、上記の実施形態において、画像入力部41とノイズ低減部47との間に、フィールド内ノイズ低減部を配置し、現画像フィールド信号内のノイズを低減するように構成すれば、画像合成比決定部48において、現画像の合成比が大きく設定された場合でも、ノイズ低減効果のある画像を得ることができる。フィールド内ノイズ低減の手法は、例えば、メディアンフィルタにより特異点を平滑化する手法や、バイラテラルフィルタのような非線形フィルタによりエッジ成分を保存しつつランダムノイズを平滑化する手法や、暗黒状態において撮影素子から出力される固定パターンノイズを画素単位に減算する手法等がある。このように、フィールド内ノイズ低減の手法に従って、ノイズを低減した画像フィールド信号は、ノイズ低減部47へ出力する。   In the above embodiment, if an intra-field noise reduction unit is arranged between the image input unit 41 and the noise reduction unit 47 to reduce noise in the current image field signal, the image composition ratio is increased. Even when the composition ratio of the current image is set large in the determining unit 48, an image having a noise reduction effect can be obtained. In-field noise reduction methods include, for example, a method of smoothing singular points using a median filter, a method of smoothing random noise while preserving edge components using a nonlinear filter such as a bilateral filter, and shooting in a dark state. There is a method of subtracting the fixed pattern noise output from the element for each pixel. Thus, the image field signal with reduced noise is output to the noise reduction unit 47 in accordance with the in-field noise reduction technique.

以上のように、本実施形態に係る画像処理装置によれば、第1画像フィールド信号および記憶された第2画像フィールド信号を用いて被写体の動きが検出され、この被写体の動きと第2画像フィールド信号とを用いて予測画像フィールド信号が生成される。ここで、第2画像フィールド信号は被写体の動きを考慮した同色の信号であるため、現画像である第1画像フィールド信号と被写体の動きを考慮した同色の予測画像フィールド信号との画像合成を行うことにより、面順次方式によって撮像された第1画像フィールド信号に対して好適なノイズ低減を行うことが可能となる。   As described above, according to the image processing apparatus of the present embodiment, the movement of the subject is detected using the first image field signal and the stored second image field signal, and the movement of the subject and the second image field are detected. The predicted image field signal is generated using the signal. Here, since the second image field signal is a signal having the same color in consideration of the motion of the subject, image synthesis is performed between the first image field signal that is the current image and the predicted image field signal of the same color in consideration of the motion of the subject. Thus, it is possible to perform suitable noise reduction on the first image field signal imaged by the frame sequential method.

また、例えば、体腔内を撮影する内視鏡においては、赤色(R)や緑色(G)フィールドの画像信号に比べて、青色(B)フィールドの画像信号は、信号レベルが小さくコントラストが低いため、動き情報の検知精度が低くなる。その結果、Bフィールドの予測画像信号を精度良く作成することができないため、ノイズ低減を効果的に行うことができないという問題がある。本実施形態に係る画像処理装置によれば、RやGフィールドの画像信号の動き情報を用いてBフィールドの画像信号の動き情報を補正することができる。これにより、Bフィールドの予測画像信号を高精度に作成することができ、ノイズ低減効果を向上させることが可能となる。   Further, for example, in an endoscope that captures the inside of a body cavity, an image signal in a blue (B) field has a lower signal level and a lower contrast than an image signal in a red (R) or green (G) field. , Motion information detection accuracy is lowered. As a result, there is a problem that noise cannot be effectively reduced because the predicted image signal of the B field cannot be generated with high accuracy. The image processing apparatus according to the present embodiment can correct the motion information of the B field image signal using the motion information of the R and G field image signals. Thereby, the predicted image signal of the B field can be generated with high accuracy, and the noise reduction effect can be improved.

また、空間周波数帯域の低い色については、被写体の動き情報の精度が低くなる。
本発明に係る画像処理装置によれば、空間周波数帯域の低い色の被写体の動きを、空間周波数帯域の高い色の被写体の動き情報を用いて補正することにより、空間周波数帯域の低い色の被写体の動き検出についても高精度に行うことができる。
In addition, for the color having a low spatial frequency band, the accuracy of the motion information of the subject is low.
According to the image processing apparatus of the present invention, a subject having a color with a low spatial frequency band is corrected by correcting the motion of the subject with a color having a low spatial frequency band using the motion information of the subject having a color with a high spatial frequency band. The motion detection can be performed with high accuracy.

また、被写体の動きに基づいて、現画像である第1画像フィールド信号と予測画像フィールド信号との合成比が決定され、この合成比に従って画像合成が行われる。これにより、被写体の動きに応じたノイズ低減処理を行うことが可能となる。   Further, based on the movement of the subject, a synthesis ratio between the first image field signal that is the current image and the predicted image field signal is determined, and image synthesis is performed in accordance with the synthesis ratio. This makes it possible to perform noise reduction processing according to the movement of the subject.

さらに、被写体の動きが小さい部分については、予測画像フィールド信号の比率を高めるようにすることによって、ノイズを効果的に低減することが可能となる。一方、被写体の動きが大きい部分については、現画像である第1画像フィールド信号の比率を高めるようにすることにより、残像の発生を抑制することができる。
また、撮影時の条件や、ユーザの設定によって合成比を設定することも可能である。
Furthermore, noise can be effectively reduced by increasing the ratio of the predicted image field signal in a portion where the movement of the subject is small. On the other hand, with respect to a portion where the movement of the subject is large, the occurrence of an afterimage can be suppressed by increasing the ratio of the first image field signal that is the current image.
It is also possible to set the composition ratio according to shooting conditions and user settings.

また、本実施形態に係る内視鏡装置によれば、上述の画像処理装置を備えることにより、各フィールドの画像信号のノイズを低減させることができるので、被写体の微妙な色の変化を観察することが可能となる。   Further, according to the endoscope apparatus according to the present embodiment, since the image signal noise in each field can be reduced by providing the above-described image processing apparatus, a subtle color change of the subject is observed. It becomes possible.

なお、上記実施例ではハードウェアによる処理を前提としていたが、このような構成に限定される必要はない。例えば、CCD21からの信号を未処理のままRAWデータとして、制御回路32からの撮影時の情報をヘッダ情報として出力し、別途ソフトウェアにて処理する構成も可能である。この場合、画像処理装置は、CPU、RAM等の主記憶装置、上記処理の全て或いは一部を実現させるためのプログラムが記録されたコンピュータ読み取り可能な記録媒体を備えている。そして、CPUが上記記憶媒体に記録されているプログラムを読み出して、情報の加工・演算処理を実行することにより、上述の画像処理装置と同様の処理を実現させる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。   In the above embodiment, processing by hardware is assumed, but it is not necessary to be limited to such a configuration. For example, a configuration is possible in which the signal from the CCD 21 is output as raw data without processing, the information at the time of photographing from the control circuit 32 is output as header information, and separately processed by software. In this case, the image processing apparatus includes a main storage device such as a CPU and a RAM, and a computer-readable recording medium on which a program for realizing all or part of the above processing is recorded. The CPU reads out the program recorded in the storage medium and executes information processing / arithmetic processing, thereby realizing processing similar to that of the above-described image processing apparatus. Here, the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like.

本実施形態におけるノイズ低減処理をソフトウェアにて行った場合において、まず、全体の処理について図3を参照して以下に説明する。
Step1にて、第1画像フィールド信号および第2画像フィールド信号を読み込む。Step2にて、読み込んだ各画像フィールド信号より画像の動き情報を検出する。Step3にて、検出された動き情報を別の色の動き情報を用いて補正する。Step4にて、1フレーム前の画像フィールド信号(第2画像フィールド信号)から予測画像を作成する。Step5にて、被写体の動き情報に基づき、第1画像フィールド信号と予測画像フィールド信号との画像合成比を決定する。Step6にて、第1画像フィールド信号と予測画像フィールド信号とを合成することにより、第1画像フィールド信号のフィールド間ノイズを低減する。Step7にて、ノイズ低減済み画像(第2画像フィールド信号)を画像記憶部に蓄積する。Step8にて、ノイズ低減済み画像(第2画像フィールド信号)を出力して終了する。
次に、上記の各Stepにおける詳細な処理について以下に説明する。
When the noise reduction processing in the present embodiment is performed by software, first, the entire processing will be described below with reference to FIG.
In Step 1, the first image field signal and the second image field signal are read. In Step 2, image motion information is detected from each read image field signal. In Step 3, the detected motion information is corrected using motion information of another color. In Step 4, a predicted image is created from the image field signal (second image field signal) one frame before. In Step 5, the image synthesis ratio between the first image field signal and the predicted image field signal is determined based on the motion information of the subject. In Step 6, the inter-field noise of the first image field signal is reduced by synthesizing the first image field signal and the predicted image field signal. In Step 7, the noise-reduced image (second image field signal) is stored in the image storage unit. At Step 8, the noise-reduced image (second image field signal) is output and the process ends.
Next, detailed processing in each of the above steps will be described below.

図4は、上記Step2における動き検出処理に関するフローである。
Step11にて、第1画像フィールド信号を現画像フィールド信号として読み込む。Step12にて、画像記憶部に蓄積された、現画像フィールド信号と同色の、1フレーム前の第2画像フィールド信号を読み込む。Step13にて、現画像フィールド信号を複数のブロックに分割し、注目ブロックを抽出する。Step14にて、1フレーム前の第2画像フィールド信号の探索範囲内で、この注目ブロックとの類似度評価値を算出する。Step15にて、1フレーム前の第2画像フィールド信号の全探索範囲で類似度評価値の算出が完了したかを判断し、完了していない場合はStep14へ分岐し、完了した場合はStep16に分岐する。Step16にて、現画像の全ブロックで画像の動き検出が完了したかを判断し、完了していない場合はStep13に分岐し、完了した場合はStep17に分岐する。Step17にて、検出された画像の動き情報を動き蓄積部に蓄積する。Step18にて、検出した画像の動き情報を出力して終了する。
FIG. 4 is a flow relating to the motion detection process in Step 2 described above.
In Step 11, the first image field signal is read as the current image field signal. At Step 12, the second image field signal of the previous frame having the same color as the current image field signal stored in the image storage unit is read. In Step 13, the current image field signal is divided into a plurality of blocks, and the block of interest is extracted. In Step 14, the similarity evaluation value with this block of interest is calculated within the search range of the second image field signal one frame before. In Step 15, it is determined whether the calculation of the similarity evaluation value is completed in the entire search range of the second image field signal one frame before. If not completed, the process branches to Step 14, and if completed, the process branches to Step 16. To do. In Step 16, it is determined whether the image motion detection has been completed in all blocks of the current image. If not completed, the process branches to Step 13, and if completed, the process branches to Step 17. In Step 17, the motion information of the detected image is stored in the motion storage unit. At Step 18, the motion information of the detected image is output and the process ends.

図5は、上記Step3における動き補正処理に関するフローである。
Step21にて、現画像フィールド信号の動き情報を読み込む。Step22にて、画像のブロック毎に動き検出の精度を算出する。Step23にて、動き検出の精度が判定閾値より小さいかを判断し、検出精度が閾値より小さい場合はStep24へ分岐し、検出精度が閾値より大きい場合はStep26へ分岐する。Step24にて、動き記憶部に蓄積された別の色の画像フィールド信号の動き情報を読み出す。Step25にて、別の色の画像フィールド信号の動き情報を基に、現画像フィールド信号の動き情報を補正する。Step26にて、補正された被写体の動き情報を出力して終了する。
FIG. 5 is a flow relating to the motion correction process in Step 3 described above.
At Step 21, the motion information of the current image field signal is read. In Step 22, the accuracy of motion detection is calculated for each block of the image. In Step 23, it is determined whether or not the accuracy of motion detection is smaller than the determination threshold value. If the detection accuracy is smaller than the threshold value, the process branches to Step 24. If the detection accuracy is larger than the threshold value, the process branches to Step 26. In Step 24, the motion information of the image field signal of another color accumulated in the motion storage unit is read out. In Step 25, the motion information of the current image field signal is corrected based on the motion information of the image field signal of another color. At Step 26, the corrected subject movement information is output and the process ends.

図6は、上記Step4における予測画像作成処理に関するフローである。
Step31にて、現画像フィールド信号と同色の、1フレーム前に第2画像フィールド信号を読み出す。Step32にて、補正された被写体の動き情報を読み出す。Step33にて、被写体の動き情報を基に、1フレーム前の第2画像フィールド信号をずらすことにより、予測画像フィールド信号を作成する。Step34にて、作成された予測画像フィールド信号を出力して終了する。
FIG. 6 is a flow relating to the predicted image creation processing in Step 4 described above.
At Step 31, the second image field signal is read one frame before the same color as the current image field signal. In Step 32, the corrected movement information of the subject is read out. In Step 33, a predicted image field signal is created by shifting the second image field signal of the previous frame based on the motion information of the subject. At Step 34, the generated predicted image field signal is output and the process ends.

図7は、上記Step5における画像合成比決定処理に関するフローである。
Step41にて、現画像フィールド信号の動き情報を読み込む。Step42にて、現画像フィールド信号における動きの量が小さい部分の画素については、予測画像フィールド信号の画素における画素値の比率が高くなるように、一方、現画像フィールド信号における動きの量が大きい部分の画素については、現画像における画素の画素値の比率が高くなるように合成比を決定する。Step43にて、このようにして決定した画像合成比を出力して終了する。
FIG. 7 is a flow relating to the image composition ratio determination process in Step 5 described above.
In Step 41, the motion information of the current image field signal is read. At Step 42, for the pixels in the portion where the amount of motion in the current image field signal is small, the portion in which the amount of motion in the current image field signal is large while the ratio of the pixel values in the pixels of the predicted image field signal is high For these pixels, the composition ratio is determined so that the ratio of the pixel values of the pixels in the current image is high. At Step 43, the image composition ratio determined in this way is output and the process ends.

図8は、上記Step6におけるノイズ低減処理に関するフローである。
Step51にて、画像合成比を読み込む。Step52にて、現画像フィールド信号を読み込む。Step53にて、予測画像フィールド信号を読み込む。Step54にて、現画像フィールド信号と予測画像フィールド信号とのそれぞれでのフィールド内位置が同一の画素における画素値と、その画素に対応する画像合成比とを用いて、ノイズ低減済み画像の画素値を算出する。
FIG. 8 is a flow relating to the noise reduction processing in Step 6 described above.
In Step 51, the image composition ratio is read. At Step 52, the current image field signal is read. In Step 53, the predicted image field signal is read. In Step 54, the pixel value of the noise-reduced image is obtained using the pixel value of the pixel having the same position in the field in each of the current image field signal and the predicted image field signal and the image composition ratio corresponding to the pixel. Is calculated.

Step7にて、このようにして合成した後の画像フィールド信号を、ノイズ低減済みの第2画像フィールド信号として、出力して終了する。   In Step 7, the image field signal combined in this way is output as a second image field signal after noise reduction, and the process ends.

〔第2の実施形態〕
次に、本発明の第2の実施形態について、図9を用いて説明する。
本実施形態に係る画像処理装置が第1の実施形態と異なる点は、第1画像フィールド信号と予測画像フィールド信号との合成比を、各画像フィールド信号の画像誤差によって決定する点である。以下、本実施形態に係る画像処理装置について、第1の実施形態と共通する点については説明を省略し、異なる点について主に説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to FIG.
The image processing apparatus according to the present embodiment is different from the first embodiment in that the synthesis ratio between the first image field signal and the predicted image field signal is determined by the image error of each image field signal. Hereinafter, the image processing apparatus according to the present embodiment will not be described with respect to the points common to the first embodiment, and different points will be mainly described.

図9は、前述の第1の実施形態において、現画像フィールド信号と予測画像フィールド信号から画像誤差を算出する画像誤差算出部(画像誤差算出手段)50を追加した構成になっている。基本構成は第1の実施形態と同等であり、同一の構成には同一の名称と番号を割り当てている。   FIG. 9 shows a configuration in which an image error calculation unit (image error calculation means) 50 for calculating an image error from the current image field signal and the predicted image field signal is added in the first embodiment described above. The basic configuration is the same as that of the first embodiment, and the same name and number are assigned to the same configuration.

動き補正部45により補正された画像の動き情報は、予測画像作成部46に出力される。予測画像部46により作成された予測画像フィールド信号は、ノイズ低減部47及び、画像誤差算出部50へ出力される。   The motion information of the image corrected by the motion correction unit 45 is output to the predicted image creation unit 46. The predicted image field signal created by the predicted image unit 46 is output to the noise reduction unit 47 and the image error calculation unit 50.

画像誤差算出部50は、現画像フィールド信号と予測画像フィールド信号の間の画像誤差を算出する。具体的には、画像入力部41より入力された現画像フィールド信号と、予測画像作成部46より入力された予測画像フィールド信号とについて、それぞれの画像を複数のブロックに分割する。まず、注目ブロックを抽出し、フィールド内位置が同一のブロックにおける画素値を用いて、ブロック毎に画像誤差値を算出する。画像誤差値は、ブロック単位の差分絶対値、差分二乗値、またはそれに相応する評価値により決定される。相応する評価値として、例えば、SNR(Signal to Noise Ratio)における,信号を画像の最大値,雑音を予測画像と現画像の誤差とした、以下の(2)式に示すPSNR(Peak Signal to Noise Ratio)を用いてもよい。   The image error calculation unit 50 calculates an image error between the current image field signal and the predicted image field signal. Specifically, for the current image field signal input from the image input unit 41 and the predicted image field signal input from the predicted image creation unit 46, each image is divided into a plurality of blocks. First, a target block is extracted, and an image error value is calculated for each block using pixel values in blocks having the same position in the field. The image error value is determined by an absolute difference value in block units, a square difference value, or an evaluation value corresponding thereto. As a corresponding evaluation value, for example, in SNR (Signal to Noise Ratio), the signal is the maximum value of the image, and noise is the error between the predicted image and the current image. Ratio) may be used.

Figure 2008311850
Figure 2008311850

また、画像誤差値の算出には、ルックアップテーブルを用いてもよい。また、画像誤差算出部50は、このようにして決定した画像誤差値を画像合成比決定部48へ出力する。
画像合成比決定部48は、画像誤差算出部50から提供された画像誤差値に基づいて、現画像フィールド信号と予測画像フィールド信号との合成比を決定する。具体的には、画像合成比決定部48では、入力したブロック毎の画像誤差値に基づいて、現画像フィールド信号における画像誤差量が小さい部分の画素については、予測画像フィールド信号の画素における画素値の比率が高くなるように合成比を決定する。一方、現画像フィールド信号における画像誤差の量が大きい部分の画素については、現画像における画素の画素値の比率が高くなるように合成比を決定する。例えば、予測画像と現画像との間における画像誤差の量が大きいときには、現画像の比率は1または1に近い値になる。
Further, a lookup table may be used for calculating the image error value. Further, the image error calculation unit 50 outputs the image error value determined in this way to the image composition ratio determination unit 48.
The image composition ratio determination unit 48 determines a composition ratio between the current image field signal and the predicted image field signal based on the image error value provided from the image error calculation unit 50. Specifically, in the image composition ratio determination unit 48, based on the input image error value for each block, the pixel value in the pixel of the predicted image field signal is the pixel of the portion where the image error amount is small in the current image field signal. The synthesis ratio is determined so that the ratio of is high. On the other hand, the composition ratio is determined so that the ratio of the pixel value of the pixel in the current image is high for the pixel in the portion where the amount of image error in the current image field signal is large. For example, when the amount of image error between the predicted image and the current image is large, the ratio of the current image is 1 or a value close to 1.

なお、本実施形態において、ノイズ低減部47の手前に、フィールド内ノイズ低減部を配置し、現画像フィールド信号内のノイズを低減するように構成すれば、画像合成比決定部48において、現画像の合成比が大きく設定された場合でも、ノイズ低減効果のある画像を得ることができる。フィールド内ノイズを低減した画像フィールド信号は、ノイズ低減部47へ出力する。   In the present embodiment, if the intra-field noise reduction unit is arranged in front of the noise reduction unit 47 so as to reduce noise in the current image field signal, the image composition ratio determination unit 48 can reduce the current image. Even when the composite ratio is set large, an image having a noise reduction effect can be obtained. The image field signal with reduced intra-field noise is output to the noise reduction unit 47.

以上のように、本実施形態に係る画像処理装置によれば、画像誤差算出部50により算出された画像誤差に基づいて合成比が決定され、この合成比に従って画像合成が行われる。これにより、画像誤差に応じたノイズ低減処理を行うことが可能となる。   As described above, according to the image processing apparatus according to the present embodiment, the composition ratio is determined based on the image error calculated by the image error calculation unit 50, and image composition is performed according to the composition ratio. This makes it possible to perform noise reduction processing according to the image error.

また、画像誤差が小さい部分については、予測画像フィールド信号の比率を高めるようにすることによって、ノイズを効果的に低減することが可能となる。一方、画像誤差が大きい部分については、現画像である第1画像フィールド信号の比率を高めるようにすることにより、残像の発生を抑制することができる。
また、撮影時の条件や、ユーザの設定によって合成比を設定することも可能である。
In addition, in a portion where the image error is small, it is possible to effectively reduce noise by increasing the ratio of the predicted image field signal. On the other hand, in the portion where the image error is large, the occurrence of afterimage can be suppressed by increasing the ratio of the first image field signal which is the current image.
It is also possible to set the composition ratio according to shooting conditions and user settings.

なお、上記実施例ではハードウェアによる処理を前提としていたが、このような構成に限定される必要はない。例えば、CCD21からの信号を未処理のままRAWデータとして、制御回路32からの撮影時の情報をヘッダ情報として出力し、別途ソフトウェアにて処理する構成も可能である。   In the above embodiment, processing by hardware is assumed, but it is not necessary to be limited to such a configuration. For example, a configuration is possible in which the signal from the CCD 21 is output as raw data without processing, the information at the time of photographing from the control circuit 32 is output as header information, and separately processed by software.

本実施形態におけるノイズ低減処理をソフトウェアにて行った場合において、まず、全体の処理について図10を参照して以下に説明する。なお、図3に示す第1の実施形態におけるノイズ低減処理のソフトウェアフローと同一な処理Stepに関しては、同一なStep数を割り当てている。
Step1にて、画像フィールド信号を読み込む。Step2にて、画像の動き情報を検出する。Step3にて、検出された動き情報を別の色の動き情報を用いて補正する。Step4にて、1フレーム前の画像フィールド信号から予測画像を作成する。Step61にて、現画像フィールド信号と予測画像フィールド信号の間の、画像誤差値を算出する。Step62にて、画像誤差値に基づき画像合成比を決定する。Step6にて、フィールド間ノイズを低減する。Step7にて、ノイズ低減済み画像を画像記憶部に蓄積する。Step8にて、ノイズ低減済み画像を出力して終了する。
次に、上記の各Stepにおける詳細な処理について以下に説明する。
When the noise reduction process in the present embodiment is performed by software, first, the entire process will be described below with reference to FIG. Note that the same number of steps is assigned to the same processing step as the software flow of the noise reduction processing in the first embodiment shown in FIG.
At Step 1, an image field signal is read. In Step 2, image motion information is detected. In Step 3, the detected motion information is corrected using motion information of another color. In Step 4, a predicted image is created from the image field signal of the previous frame. In Step 61, an image error value between the current image field signal and the predicted image field signal is calculated. In Step 62, the image composition ratio is determined based on the image error value. At Step 6, noise between fields is reduced. In Step 7, the noise-reduced image is accumulated in the image storage unit. In Step 8, the noise-reduced image is output and the process ends.
Next, detailed processing in each of the above steps will be described below.

図11は、上記Step2における動き検出処理に関するフローである。
Step11にて、第1画像フィールド信号を現画像フィールド信号として読み込む。Step12にて、画像記憶部に蓄積された、現画像フィールド信号と同色の、1フレーム前の第2画像フィールド信号を読み込む。Step13にて、現画像フィールド信号を複数のブロックに分割し、注目ブロックを抽出する。Step14にて、1フレーム前の第2画像フィールド信号の探索範囲内で、この注目ブロックとの類似度評価値を算出する。Step15にて、1フレーム前の画像フィールド信号の全探索範囲で類似度評価値の算出が完了したかを判断し、完了していない場合はStep14へ分岐し、完了した場合はStep16に分岐する。Step16にて、現画像の全ブロックで画像の動き検出が完了したかを判断し、完了していない場合はStep13に分岐し、完了した場合はStep17に分岐する。Step17にて、検出された画像の動き情報を動き蓄積部に蓄積する。Step18にて、検出した画像の動き情報を出力して終了する。
FIG. 11 is a flow relating to the motion detection process in Step 2 described above.
In Step 11, the first image field signal is read as the current image field signal. At Step 12, the second image field signal of the previous frame having the same color as the current image field signal stored in the image storage unit is read. In Step 13, the current image field signal is divided into a plurality of blocks, and the block of interest is extracted. In Step 14, the similarity evaluation value with this block of interest is calculated within the search range of the second image field signal one frame before. In Step 15, it is determined whether the calculation of the similarity evaluation value is completed in the entire search range of the image field signal one frame before. If not completed, the process branches to Step 14, and if completed, the process branches to Step 16. In Step 16, it is determined whether the image motion detection has been completed in all blocks of the current image. If not completed, the process branches to Step 13, and if completed, the process branches to Step 17. In Step 17, the motion information of the detected image is stored in the motion storage unit. At Step 18, the motion information of the detected image is output and the process ends.

図12は、上記Step3における動き補正処理に関するフローである。
Step21にて、現画像フィールド信号の動き情報を読み込む。Step22にて、画像のブロック毎に動き検出の精度を算出する。Step23にて、動き検出の精度が判定閾値より小さいかを判断し、検出精度が閾値より小さい場合はStep24へ分岐し、検出精度が閾値より大きい場合はStep26へ分岐する。Step24にて、動き記憶部に蓄積された別の色の画像フィールド信号の動き情報を読み出す。Step25にて、別の色の画像フィールド信号の動き情報を基に、現画像フィールド信号の動き情報を補正する。Step26にて、補正された画像の動き情報を出力して終了する。
FIG. 12 is a flow related to the motion correction process in Step 3 described above.
At Step 21, the motion information of the current image field signal is read. In Step 22, the accuracy of motion detection is calculated for each block of the image. In Step 23, it is determined whether or not the accuracy of motion detection is smaller than the determination threshold value. If the detection accuracy is smaller than the threshold value, the process branches to Step 24. If the detection accuracy is larger than the threshold value, the process branches to Step 26. In Step 24, the motion information of the image field signal of another color accumulated in the motion storage unit is read out. In Step 25, the motion information of the current image field signal is corrected based on the motion information of the image field signal of another color. In Step 26, the motion information of the corrected image is output and the process ends.

図13は、上記Step4における予測画像作成処理に関するフローである。
Step31にて、現画像フィールド信号と同色の、1フレーム前の第2画像フィールド信号を読み出す。Step32にて、補正された画像動き情報を読み出す。Step33にて、画像の動き情報を基に、1フレーム前の第2画像フィールド信号をずらした画像を作成し、予測画像フィールド信号とする。Step34にて、作成された予測画像フィールド信号を出力して終了する。
FIG. 13 is a flow relating to the predicted image creation processing in Step 4 described above.
At Step 31, the second image field signal of the previous frame having the same color as the current image field signal is read out. At Step 32, the corrected image motion information is read out. In Step 33, an image obtained by shifting the second image field signal of the previous frame is generated based on the motion information of the image, and is set as a predicted image field signal. At Step 34, the generated predicted image field signal is output and the process ends.

図14は、上記Step61における画像誤差算出処理に関するフローである。
Step71にて、現画像フィールド信号を読み込む。Step72にて、予測画像フィールド信号を読み込む。Step73にて、現画像フィールド信号を複数のブロックに分割し、注目ブロックを抽出する。Step74にて、現画像フィールド信号における注目ブロックと同一位置の、予測画像フィールド信号のブロックとの間で画像誤差値を算出する。Step75にて、現画像フィールド信号の全ブロックにおいて画像誤差値の算出が完了したかを判断し、完了していない場合はStep73へ分岐し、完了した場合はStep76へ分岐する。Step76にて、画像誤差値を出力して終了する。
FIG. 14 is a flow relating to the image error calculation process in Step 61.
At Step 71, the current image field signal is read. In Step 72, the predicted image field signal is read. In Step 73, the current image field signal is divided into a plurality of blocks, and the block of interest is extracted. In Step 74, an image error value is calculated between the predicted image field signal block and the same position as the target block in the current image field signal. In Step 75, it is determined whether the calculation of the image error value is completed in all blocks of the current image field signal. If not completed, the process branches to Step 73. If completed, the process branches to Step 76. At Step 76, an image error value is output and the process ends.

図15は、上記Step62における画像合成比決定処理に関するフローである。
Step81にて、現画像フィールド信号と、予測画像フィールド信号の間における、画像誤差値を読み込む。Step82にて、画像誤差値が小さい部分の画素については、予測画像フィールド信号の画素における画素値の比率が高くなるように、一方、画像誤差値が大きい部分の画素については、現画像における画素の画素値の比率が高くなるように合成比を決定する。Step43にて、このようにして決定した画像合成比を出力して終了する。
FIG. 15 is a flow relating to the image composition ratio determination process in Step 62 described above.
In Step 81, an image error value between the current image field signal and the predicted image field signal is read. In Step 82, the ratio of the pixel value in the pixel of the predicted image field signal is increased for the pixel in the portion having a small image error value, while the pixel in the current image is set in the portion in which the image error value is large. The composition ratio is determined so that the ratio of the pixel values becomes high. At Step 43, the image composition ratio determined in this way is output and the process ends.

図16は、上記Step6におけるノイズ低減処理に関するフローである。
Step51にて、画像合成比を読み込む。Step52にて、現画像フィールド信号を読み込む。Step53にて、予測画像フィールド信号を読み込む。Step54にて、現画像フィールド信号と予測画像フィールド信号とのそれぞれでのフィールド内位置が同一の画素における画素値と、その画素に対応する画像合成比とを用いて、ノイズ低減済み画像の画素値を算出する。
FIG. 16 is a flow relating to the noise reduction processing in Step 6 described above.
In Step 51, the image composition ratio is read. At Step 52, the current image field signal is read. In Step 53, the predicted image field signal is read. In Step 54, the pixel value of the noise-reduced image is obtained using the pixel value of the pixel having the same position in the field in each of the current image field signal and the predicted image field signal and the image composition ratio corresponding to the pixel. Is calculated.

Step7にて、このようにして合成した後の画像フィールド信号を、フィールド間ノイズ低減済みの第2画像フィールド信号として、出力して終了する。   At Step 7, the combined image field signal is output as a second image field signal having been subjected to inter-field noise reduction, and the process ends.

本発明に係る内視鏡装置の概略構成図である。1 is a schematic configuration diagram of an endoscope apparatus according to the present invention. 第1の実施形態に係る画像処理装置のノイズ低減回路が備える機能を展開して示した機能ブロック図である。FIG. 3 is a functional block diagram showing expanded functions provided in the noise reduction circuit of the image processing apparatus according to the first embodiment. 第1の実施形態に係るノイズ低減処理のフローチャートである。It is a flowchart of the noise reduction process which concerns on 1st Embodiment. 図3に示す処理における動き検出処理のフローチャートである。It is a flowchart of the motion detection process in the process shown in FIG. 図3に示す処理における動き補正処理のフローチャートである。It is a flowchart of the motion correction process in the process shown in FIG. 図3に示す処理における予測画像作成処理のフローチャートである。It is a flowchart of the prediction image creation process in the process shown in FIG. 図3に示す処理における画像合成比決定処理のフローチャートである。It is a flowchart of the image composition ratio determination process in the process shown in FIG. 図3に示す処理におけるノイズ低減処理のフローチャートである。It is a flowchart of the noise reduction process in the process shown in FIG. 第2の実施形態に係る画像処理装置のノイズ低減回路が備える機能を展開して示した機能ブロック図である。It is the functional block diagram which expand | deployed and showed the function with which the noise reduction circuit of the image processing apparatus which concerns on 2nd Embodiment is provided. 第2の実施形態に係るノイズ低減処理のフローチャートである。It is a flowchart of the noise reduction process which concerns on 2nd Embodiment. 図10に示す処理における動き検出処理のフローチャートである。It is a flowchart of the motion detection process in the process shown in FIG. 図10に示す処理における動き補正処理のフローチャートである。It is a flowchart of the motion correction process in the process shown in FIG. 図10に示す処理における予測画像作成処理のフローチャートである。It is a flowchart of the estimated image creation process in the process shown in FIG. 図10に示す処理における画像誤差算出処理のフローチャートである。It is a flowchart of the image error calculation process in the process shown in FIG. 図10に示す処理における画像合成比決定処理のフローチャートである。It is a flowchart of the image composition ratio determination process in the process shown in FIG. 図10に示す処理におけるノイズ低減処理のフローチャートである。It is a flowchart of the noise reduction process in the process shown in FIG.

符号の説明Explanation of symbols

1 内視鏡装置
12 画像処理装置
42 画像記憶部
43 動き検出部
44 動き記憶部
45 動き補正部
46 予測画像作成部
47 ノイズ低減部
48 合成比決定部
50 画像誤差算出部
DESCRIPTION OF SYMBOLS 1 Endoscopic apparatus 12 Image processing apparatus 42 Image storage part 43 Motion detection part 44 Motion storage part 45 Motion correction part 46 Predictive image creation part 47 Noise reduction part 48 Composition ratio determination part 50 Image error calculation part

Claims (8)

面順次方式によって順次入力される各色の第1画像フィールド信号に対し、ノイズ低減処理を行うことによって各色の第2画像フィールド信号を作成するノイズ低減手段と、
各色の前記第2画像フィールド信号を記憶する画像記憶手段と、
前記第1画像フィールド信号と、過去の第1画像フィールド信号に対するノイズ低減処理によって作成され、前記画像記憶手段に記憶された、前記第1画像フィールド信号と同色の第2画像フィールド信号とを用いて、被写体の動きを検出する動き検出手段と、
前記被写体の動きと前記過去の第2画像フィールド信号とを用いて、前記第1画像フィールド信号と同色の予測画像フィールド信号を作成する予測画像作成手段と、
を備え、
前記ノイズ低減手段は、前記処理対象となる時点で入力された第1画像フィールド信号と前記予測画像フィールド信号とを合成して、前記処理対象となる時点で入力された第1画像フィールド信号に対し、前記ノイズ低減処理を行う画像処理装置。
Noise reduction means for generating a second image field signal of each color by performing noise reduction processing on the first image field signal of each color sequentially input by a frame sequential method;
Image storage means for storing the second image field signal of each color;
Using the first image field signal and the second image field signal having the same color as the first image field signal, which is created by noise reduction processing for the past first image field signal and stored in the image storage means Motion detection means for detecting the motion of the subject;
Predicted image creating means for creating a predicted image field signal of the same color as the first image field signal using the movement of the subject and the second image field signal in the past;
With
The noise reduction unit synthesizes the first image field signal input at the time of the processing target and the predicted image field signal, and outputs the first image field signal input at the time of the processing target. An image processing apparatus that performs the noise reduction process.
前記動き検出手段によって検出された被写体の動き情報を記憶する動き記憶手段と、
処理対象となる色についての前記動き情報を、前記動き記憶手段に記憶されている別の色の前記動き情報を用いて補正する動き補正手段と、
を有する請求項1に記載の画像処理装置。
Movement storage means for storing movement information of the subject detected by the movement detection means;
Motion correction means for correcting the motion information about the color to be processed using the motion information of another color stored in the motion storage means;
The image processing apparatus according to claim 1, comprising:
前記動き補正手段は、空間周波数帯域の低い色の前記動き情報を、空間周波数帯域の高い色の前記動き情報を用いて補正する請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the motion correction unit corrects the motion information of a color having a low spatial frequency band using the motion information of a color having a high spatial frequency band. 前記被写体の動きに応じて、前記第1画像フィールド信号と前記予測画像フィールド信号との合成比を決定する合成比決定手段を有し、
前記合成比決定手段によって決定された合成比で前記第1画像フィールド信号と前記予測画像フィールド信号とを合成することにより、前記第1画像フィールド信号のノイズ低減処理を行う請求項1から3のいずれかに記載の画像処理装置。
A synthesis ratio determining unit that determines a synthesis ratio of the first image field signal and the predicted image field signal according to the movement of the subject;
4. The noise reduction process for the first image field signal is performed by synthesizing the first image field signal and the predicted image field signal at a synthesis ratio determined by the synthesis ratio determination unit. An image processing apparatus according to claim 1.
前記合成比決定手段は、前記被写体の動きが大きい領域は前記第1画像フィールド信号の比率を大きくし、前記被写体の動きが小さい領域は前記予測画像フィールド信号の比率を大きくなるように合成比を決定する請求項4に記載の画像処理装置。   The composition ratio determining means sets the composition ratio so that the ratio of the first image field signal is increased in an area where the subject motion is large, and the ratio of the predicted image field signal is increased in an area where the subject motion is small. The image processing apparatus according to claim 4, wherein the image processing apparatus is determined. 前記第1画像フィールド信号と前記予測画像フィールド信号との間の画像誤差を算出する画像誤差算出手段と、
前記画像誤差に応じて、前記第1画像フィールド信号と前記予測画像フィールド信号との合成比を決定する合成比決定手段と、
を有し、
前記合成比決定手段によって決定された合成比で前記第1画像フィールド信号と前記予測画像フィールド信号とを合成することにより、前記第1画像フィールド信号のノイズ低減処理を行う請求項1から3のいずれかに記載の画像処理装置。
Image error calculating means for calculating an image error between the first image field signal and the predicted image field signal;
Synthesis ratio determining means for determining a synthesis ratio of the first image field signal and the predicted image field signal in accordance with the image error;
Have
4. The noise reduction process for the first image field signal is performed by synthesizing the first image field signal and the predicted image field signal at a synthesis ratio determined by the synthesis ratio determination unit. An image processing apparatus according to claim 1.
前記合成比決定手段は、前記画像誤差が大きい領域は前記第1画像フィールド信号の比率を大きくし、前記画像誤差が小さい領域は前記予測画像フィールド信号の比率を大きくなるように合成比を決定する請求項6に記載の画像処理装置。   The composition ratio determining means determines the composition ratio so that the ratio of the first image field signal is increased in a region where the image error is large and the ratio of the predicted image field signal is increased in a region where the image error is small. The image processing apparatus according to claim 6. 請求項1から7のいずれかに記載の画像処理装置を備える内視鏡装置。   An endoscope apparatus comprising the image processing apparatus according to claim 1.
JP2007156446A 2007-06-13 2007-06-13 Image processing apparatus and endoscope apparatus provided with the same Active JP5038027B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007156446A JP5038027B2 (en) 2007-06-13 2007-06-13 Image processing apparatus and endoscope apparatus provided with the same
PCT/JP2008/060589 WO2008153014A1 (en) 2007-06-13 2008-06-10 Image processing device and endoscope having same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007156446A JP5038027B2 (en) 2007-06-13 2007-06-13 Image processing apparatus and endoscope apparatus provided with the same

Publications (2)

Publication Number Publication Date
JP2008311850A true JP2008311850A (en) 2008-12-25
JP5038027B2 JP5038027B2 (en) 2012-10-03

Family

ID=40129619

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007156446A Active JP5038027B2 (en) 2007-06-13 2007-06-13 Image processing apparatus and endoscope apparatus provided with the same

Country Status (2)

Country Link
JP (1) JP5038027B2 (en)
WO (1) WO2008153014A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012010730A (en) * 2010-06-29 2012-01-19 Olympus Corp Image processing device and program
WO2012073865A1 (en) * 2010-11-30 2012-06-07 シャープ株式会社 Image processing device, image processing method, image processing program, and display device
JP2012142818A (en) * 2011-01-04 2012-07-26 Seikei Gakuen Color moving image motion estimation method and color moving image motion estimation apparatus
JP2012518844A (en) 2009-02-25 2012-08-16 ディメンジョナル フォトニクス インターナショナル,インコーポレイテッド Luminance and color display for 3D measurement systems
JP2015136155A (en) * 2015-03-05 2015-07-27 学校法人成蹊学園 Color video structure conversion method and color video structure conversion apparatus

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013049264A1 (en) 2011-09-28 2013-04-04 Carestream Health, Inc. Frame-sequential multiwavelength imaging system and method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06169463A (en) * 1992-11-30 1994-06-14 Olympus Optical Co Ltd Color image pickup device
JP2004267580A (en) * 2003-03-11 2004-09-30 Pentax Corp Electronic endoscopic device
JP2005150903A (en) * 2003-11-12 2005-06-09 Matsushita Electric Ind Co Ltd Image processing apparatus, noise elimination method, and noise elimination program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06169463A (en) * 1992-11-30 1994-06-14 Olympus Optical Co Ltd Color image pickup device
JP2004267580A (en) * 2003-03-11 2004-09-30 Pentax Corp Electronic endoscopic device
JP2005150903A (en) * 2003-11-12 2005-06-09 Matsushita Electric Ind Co Ltd Image processing apparatus, noise elimination method, and noise elimination program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012518844A (en) 2009-02-25 2012-08-16 ディメンジョナル フォトニクス インターナショナル,インコーポレイテッド Luminance and color display for 3D measurement systems
JP2012010730A (en) * 2010-06-29 2012-01-19 Olympus Corp Image processing device and program
US8711252B2 (en) 2010-06-29 2014-04-29 Olympus Corporation Image processing device and information storage medium including motion vector information calculation
WO2012073865A1 (en) * 2010-11-30 2012-06-07 シャープ株式会社 Image processing device, image processing method, image processing program, and display device
JP2012142818A (en) * 2011-01-04 2012-07-26 Seikei Gakuen Color moving image motion estimation method and color moving image motion estimation apparatus
JP2015136155A (en) * 2015-03-05 2015-07-27 学校法人成蹊学園 Color video structure conversion method and color video structure conversion apparatus

Also Published As

Publication number Publication date
JP5038027B2 (en) 2012-10-03
WO2008153014A1 (en) 2008-12-18

Similar Documents

Publication Publication Date Title
US20120262559A1 (en) Endoscope apparatus and shake correction processing method
JP7159577B2 (en) Endoscope system, control method, information processing device, and program
US8711252B2 (en) Image processing device and information storage medium including motion vector information calculation
US9154745B2 (en) Endscope apparatus and program
JP3271838B2 (en) Image processing device for endoscope
JP2009100935A (en) Imaging apparatus and endoscope system
JP5038027B2 (en) Image processing apparatus and endoscope apparatus provided with the same
JP5123443B2 (en) Signal processing apparatus and still image generation method
US11457801B2 (en) Image processing device, image processing method, and endoscope system
JP2010166558A (en) Image forming apparatus
JP4694336B2 (en) Electronic endoscope device
US20170366724A1 (en) Image processing device, image processing method, program and image processing system
JP2013128723A (en) Endoscope apparatus
US11033174B2 (en) Medical image processing device and medical observation device
JP2007215907A (en) Endoscope processor, endoscopic system and black balance adjustment program
JP6430880B2 (en) Endoscope system and method for operating endoscope system
JP5653163B2 (en) Endoscope device
WO2016088628A1 (en) Image evaluation device, endoscope system, method for operating image evaluation device, and program for operating image evaluation device
WO2017073181A1 (en) Endoscope apparatus
JP2013043007A (en) Focal position controller, endoscope, and focal position control method
JP2009273691A (en) Apparatus and method of endoscope image processing
JP2000197604A (en) Endoscope device
JPH11313247A (en) Endoscope system
JP4632761B2 (en) Electronic endoscope apparatus and color misregistration correction apparatus
JP2009285132A (en) Endoscope image processing device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120612

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120705

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150713

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5038027

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150713

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250