JP6242230B2 - Image processing apparatus, endoscope apparatus, operation method of image processing apparatus, and image processing program - Google Patents

Image processing apparatus, endoscope apparatus, operation method of image processing apparatus, and image processing program Download PDF

Info

Publication number
JP6242230B2
JP6242230B2 JP2014024049A JP2014024049A JP6242230B2 JP 6242230 B2 JP6242230 B2 JP 6242230B2 JP 2014024049 A JP2014024049 A JP 2014024049A JP 2014024049 A JP2014024049 A JP 2014024049A JP 6242230 B2 JP6242230 B2 JP 6242230B2
Authority
JP
Japan
Prior art keywords
image
unit
noise reduction
synthesis
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014024049A
Other languages
Japanese (ja)
Other versions
JP2015150029A (en
Inventor
日淑 江▲崎▼
日淑 江▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2014024049A priority Critical patent/JP6242230B2/en
Publication of JP2015150029A publication Critical patent/JP2015150029A/en
Application granted granted Critical
Publication of JP6242230B2 publication Critical patent/JP6242230B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Endoscopes (AREA)

Description

本発明は、画像処理装置、内視鏡装置、画像処理装置の作動方法及び画像処理プログラム等に関する。 The present invention relates to an image processing apparatus, an endoscope apparatus, an operation method of the image processing apparatus, an image processing program, and the like.

動画像のノイズ低減手法として、動画像の1枚のフレームを用いた空間方向のノイズ低減処理と、撮影時間の異なる複数フレームを用いた時間方向のノイズ低減処理がある。時間方向のノイズ低減処理は、空間方向のノイズ低減処理に比べて解像度の高い画像が得られるが、被写体が静止していない場合には残像が発生する。   As a moving image noise reduction method, there are a noise reduction process in a spatial direction using one frame of a moving image and a noise reduction process in a time direction using a plurality of frames having different shooting times. The noise reduction process in the time direction provides an image with a higher resolution than the noise reduction process in the spatial direction, but an afterimage occurs when the subject is not stationary.

このような残像を低減しつつ高解像度のノイズ低減を行う手法として、特許文献1には、空間方向のノイズ低減処理の結果と時間方向のノイズ低減処理の結果とをブレンドする手法が開示されている。この手法では、現フレームと前フレームの同一位置での画素値のSAD(差分絶対値)を算出し、そのSADに応じて、ブレンド率と、時間方向のノイズ低減処理で用いる巡回係数とを決定する。   As a technique for performing high-resolution noise reduction while reducing such afterimages, Patent Document 1 discloses a technique for blending the result of noise reduction processing in the spatial direction and the result of noise reduction processing in the time direction. Yes. In this method, the SAD (absolute difference value) of the pixel value at the same position in the current frame and the previous frame is calculated, and the blend rate and the cyclic coefficient used in the time-direction noise reduction processing are determined according to the SAD. To do.

画像内でSADが大きい領域では被写体が静止していないと考えられるので、SADが大きい領域ほど時間方向のノイズ低減処理から得られた結果のブレンド率を低くし、SADが小さい領域ほど時間方向のノイズ低減処理から得られた結果のブレンド率を高くする。これにより、被写体が静止している領域では解像度の高いノイズ低減処理結果が得られる。   Since it is considered that the subject is not stationary in the region where the SAD is large in the image, the blend rate as a result obtained from the noise reduction processing in the time direction is lowered in the region where the SAD is large. Increase the blend ratio of the results obtained from the noise reduction process. As a result, a high-resolution noise reduction processing result can be obtained in an area where the subject is stationary.

また、巡回係数に関しては、SADが小さい領域ほど係数が大きくなるように決定する。これにより、被写体が静止していない領域では小さな巡回係数に基づいてノイズ低減がされるために残像の発生が抑制される。一方、被写体が静止している領域では大きな巡回係数に基づいてノイズ低減処理がされるため、ノイズ低減効果を向上できる。   Further, the cyclic coefficient is determined so that the coefficient becomes larger as the SAD is smaller. As a result, in an area where the subject is not stationary, noise reduction is performed based on a small cyclic coefficient, so that afterimage generation is suppressed. On the other hand, since noise reduction processing is performed based on a large cyclic coefficient in a region where the subject is stationary, the noise reduction effect can be improved.

特開2005−150903号公報JP 2005-150903 A

しかしながら、上記のSADが小さい場合であっても、時間方向のノイズ低減処理において残像が生じる場合や、時間方向のノイズ低減処理の結果をブレンドすることでアーティファクトが生じる場合がある。この場合、特許文献1ではSADのみを用いてブレンド率を決定しているため、時間方向のノイズ低減処理のブレンド率が高くなり、残像やアーティファクトが発生するという課題がある。   However, even when the SAD is small, an afterimage may be generated in the noise reduction process in the time direction, or an artifact may be generated by blending the results of the noise reduction process in the time direction. In this case, since the blend ratio is determined using only SAD in Patent Document 1, there is a problem that the blend ratio of the noise reduction process in the time direction is increased, and afterimages and artifacts are generated.

本発明の幾つかの態様によれば、撮影条件を考慮したノイズ低減処理により残像やアーティファクトを低減することが可能な画像処理装置、内視鏡装置、画像処理方法及び画像処理プログラム等を提供できる。   According to some aspects of the present invention, it is possible to provide an image processing device, an endoscope device, an image processing method, an image processing program, and the like that can reduce afterimages and artifacts by noise reduction processing in consideration of shooting conditions. .

本発明の一態様は、撮像部による時系列の撮像画像を取得する画像取得部と、前記撮像画像に対して時間方向のノイズ低減処理を施して第1画像を生成する第1のノイズ低減処理部と、前記撮像画像に対して少なくとも空間方向のノイズ低減処理を施して第2画像を生成する第2のノイズ低減処理部と、前記撮像画像のフレーム間の類似度を検出する類似度検出部と、前記類似度が高いほど前記第1画像の合成度合いが高くなると共に前記第2画像の合成度合いが低くなるように前記第1画像と前記第2画像の合成処理を行う画像合成部と、前記撮像画像の撮影条件を取得する撮影条件取得部と、を含み、前記画像合成部は、前記撮影条件に基づき前記合成処理における前記合成度合いを変更する画像処理装置に関係する。   One aspect of the present invention is an image acquisition unit that acquires a time-series captured image by an imaging unit, and a first noise reduction process that generates a first image by performing noise reduction processing in a time direction on the captured image. A second noise reduction processing unit that performs at least spatial noise reduction processing on the captured image to generate a second image, and a similarity detection unit that detects a similarity between frames of the captured image An image composition unit that performs composition processing of the first image and the second image so that the degree of composition of the first image increases and the degree of composition of the second image decreases as the similarity increases. A shooting condition acquisition unit that acquires shooting conditions of the captured image, and the image synthesis unit relates to an image processing apparatus that changes the degree of synthesis in the synthesis process based on the shooting conditions.

本発明の一態様によれば、撮像画像のフレーム間の類似度が高いほど第1画像の合成度合いが高くなると共に第2画像の合成度合いが低くなるように第1画像と第2画像が合成処理される。このとき、撮影条件により合成度合いが変更される。これにより、撮影条件を考慮したノイズ低減処理が行われ、残像やアーティファクトを低減することが可能となる。   According to one aspect of the present invention, the first image and the second image are synthesized such that the higher the similarity between frames of the captured image, the higher the degree of synthesis of the first image and the lower the degree of synthesis of the second image. It is processed. At this time, the degree of synthesis is changed depending on the shooting conditions. As a result, noise reduction processing in consideration of shooting conditions is performed, and afterimages and artifacts can be reduced.

また本発明の他の態様は、上記に記載された画像処理装置を含む内視鏡装置に関係する。   Another aspect of the present invention relates to an endoscope apparatus including the image processing apparatus described above.

また本発明の更に他の態様は、撮像部による時系列の撮像画像を取得し、前記撮像画像に対して時間方向のノイズ低減処理を施して第1画像を生成する第1ノイズ低減処理を行い、前記撮像画像に対して少なくとも空間方向のノイズ低減処理を施して第2画像を生成する第2ノイズ低減処理を行い、前記撮像画像のフレーム間の類似度を検出し、前記撮像画像の撮影条件を取得し、前記類似度が高いほど前記第1画像の合成度合いが高くなると共に前記第2画像の合成度合いが低くなるように前記第1画像と前記第2画像を合成処理し、前記撮影条件により前記合成度合いを変更する画像処理方法に関係する。   According to still another aspect of the present invention, a first noise reduction process for acquiring a time-series captured image by an imaging unit and generating a first image by performing a noise reduction process in a time direction on the captured image is performed. , Performing a second noise reduction process for generating a second image by performing at least a spatial noise reduction process on the captured image, detecting a similarity between frames of the captured image, and capturing conditions of the captured image The first image and the second image are combined so that the higher the similarity is, the higher the degree of synthesis of the first image and the lower the degree of synthesis of the second image are. This relates to the image processing method for changing the degree of synthesis.

また本発明の更に他の態様は、撮像部による時系列の撮像画像を取得し、前記撮像画像に対して時間方向のノイズ低減処理を施して第1画像を生成する第1ノイズ低減処理を行い、前記撮像画像に対して少なくとも空間方向のノイズ低減処理を施して第2画像を生成する第2ノイズ低減処理を行い、前記撮像画像のフレーム間の類似度を検出し、前記撮像画像の撮影条件を取得し、前記類似度が高いほど前記第1画像の合成度合いが高くなると共に前記第2画像の合成度合いが低くなるように前記第1画像と前記第2画像を合成処理し、前記撮影条件により前記合成度合いを変更する、ステップをコンピューターに実行させる画像処理プログラムに関係する。   According to still another aspect of the present invention, a first noise reduction process for acquiring a time-series captured image by an imaging unit and generating a first image by performing a noise reduction process in a time direction on the captured image is performed. , Performing a second noise reduction process for generating a second image by performing at least a spatial noise reduction process on the captured image, detecting a similarity between frames of the captured image, and capturing conditions of the captured image The first image and the second image are combined so that the higher the similarity is, the higher the degree of synthesis of the first image and the lower the degree of synthesis of the second image are. This relates to an image processing program for causing a computer to execute the step of changing the degree of synthesis.

画像処理装置の構成例。1 is a configuration example of an image processing apparatus. 第1実施形態における内視鏡装置の構成例。The structural example of the endoscope apparatus in 1st Embodiment. 撮像素子の色フィルターの配置構成例。An arrangement configuration example of a color filter of an image sensor. 色フィルターの透過率特性の例。An example of transmittance characteristics of a color filter. 第1実施形態におけるノイズ低減処理部の詳細な構成例。The detailed structural example of the noise reduction process part in 1st Embodiment. 図6(A)、図6(B)は、差分平均値mSADについての説明図。FIG. 6A and FIG. 6B are explanatory diagrams of the difference average value mSAD. 図7(A)〜図7(C)は、差分平均値mSADについての説明図。FIG. 7A to FIG. 7C are explanatory diagrams of the difference average value mSAD. 図8(A)〜図8(C)は、差分平均値mSADについての説明図。FIG. 8A to FIG. 8C are explanatory diagrams of the difference average value mSAD. 第1実施形態における撮影条件取得部の詳細な構成例。3 is a detailed configuration example of an imaging condition acquisition unit in the first embodiment. 動きベクトルを検出する処理についての説明図。Explanatory drawing about the process which detects a motion vector. 第1実施形態における画像合成部の詳細な構成例。3 is a detailed configuration example of an image composition unit in the first embodiment. 類似度に関するブレンド率についての説明図。Explanatory drawing about the blend rate regarding similarity. 動き量に関するブレンド率についての説明図。Explanatory drawing about the blend rate regarding a motion amount. 第2実施形態における撮影条件取得部の詳細な構成例。The detailed structural example of the imaging condition acquisition part in 2nd Embodiment. 明るさの変化量に関するブレンド率についての説明図。Explanatory drawing about the blend rate regarding the variation | change_quantity of brightness. 第3実施形態における画像合成部についての説明図。Explanatory drawing about the image synthetic | combination part in 3rd Embodiment. 第5実施形態における内視鏡装置の構成例。The structural example of the endoscope apparatus in 5th Embodiment. 狭帯域フィルターの透過率特性の例。An example of transmittance characteristics of a narrow band filter. 第5実施形態における撮影条件取得部の詳細な構成例。The detailed structural example of the imaging condition acquisition part in 5th Embodiment.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.本実施形態の概要
上述したSADは、現フレームと前フレームの画素値を同一位置で比べたものであり、局所的な動きの程度(静止の程度)を表すものと言える。SADが小さい領域では、被写体は静止していると考えられるため、時間方向のノイズ低減処理において残像は発生していないと考えられる。そのため、SADが小さい領域では、大きなブレンド率で時間方向のノイズ低減処理の結果をブレンドすることで、残像を抑制しつつ解像度の高いノイズ低減が可能となる。
1. Outline of this Embodiment The SAD described above is a comparison of pixel values of the current frame and the previous frame at the same position, and it can be said that it represents the degree of local motion (degree of stillness). In a region where the SAD is small, the subject is considered to be stationary, and thus it is considered that no afterimage has occurred in the noise reduction processing in the time direction. For this reason, in a region where the SAD is small, it is possible to reduce noise with high resolution while suppressing afterimages by blending the results of noise reduction processing in the time direction with a large blend rate.

しかしながら、上記の手法ではSADのみでブレンド率を決定しており、撮影条件が考慮されていないため、ノイズ低減において画質を低下させる可能性がある。即ち、撮影条件とは、ノイズ低減処理において時間方向のノイズ低減処理の結果と空間方向のノイズ低減処理の結果を合成した場合に、その画像の画質に影響を与える条件である。言い換えれば、特定の撮影条件においては、合成した画像の画質が低下する可能性があるということである。   However, in the above method, the blend ratio is determined only by SAD, and imaging conditions are not taken into consideration, so there is a possibility that the image quality is reduced in noise reduction. That is, the shooting conditions are conditions that affect the image quality of the image when the result of the noise reduction process in the time direction and the result of the noise reduction process in the spatial direction are combined in the noise reduction process. In other words, there is a possibility that the image quality of the synthesized image may deteriorate under a specific shooting condition.

画質の低下としては、例えば上述した残像が残ることや、アーティファクトが生じることが考えられる。これらの低下が起きる状況として、例えば以下の状況が考えられる。   As the deterioration of the image quality, for example, the above-mentioned afterimage may remain or an artifact may occur. For example, the following situations can be considered as a situation in which these decreases occur.

1つ目は、局所的な動き(SAD)が小さいにも関わらず、時間方向のノイズ低減処理において残像が発生する場合である。残像が発生するということは被写体に動きがあるということだが、例えば低コントラスト画像などではSADが小さくなる。内視鏡装置では、消化管の粘膜等、構造物が比較的少ない被写体を観察することが多く、このような状況が起きやすい。   The first is a case where an afterimage is generated in the noise reduction processing in the time direction even though the local motion (SAD) is small. The occurrence of an afterimage means that the subject has movement, but the SAD becomes small in a low-contrast image, for example. Endoscopic devices often observe subjects with relatively few structures, such as the mucous membrane of the digestive tract, and this situation is likely to occur.

下式(2)で説明するように、時間方向のノイズ低減処理ではフレーム間の動きベクトルを検出し、位置合わせを行っている。この位置合わせが成功していれば残像が生じないが、実際には動きベクトルの検出が失敗する場合がある。例えば、被写体に比較的大きな動きが発生している場合である。例えば、動き検出の探索範囲を超えるような動きはそもそも検出できない。このような場合に、SADが小さいことだけでブレンド率を決めると、時間方向のノイズ低減処理の結果が大きなブレンド率でブレンドされることになり、残像が残ってしまう。   As described in the following equation (2), in the noise reduction process in the time direction, a motion vector between frames is detected and alignment is performed. If this alignment is successful, no afterimage occurs, but in reality, the detection of the motion vector may fail. For example, this is a case where a relatively large movement occurs in the subject. For example, a motion exceeding the search range for motion detection cannot be detected in the first place. In such a case, if the blend rate is determined only by the small SAD, the result of noise reduction processing in the time direction is blended at a large blend rate, and an afterimage remains.

2つ目は、現フレームと前フレームの明るさが大幅に異なる場合である。このような状況は、例えば撮像部を大きく動かした場合等に起き得る。内視鏡装置では、撮像部の先端から照明光を照射するため、被写体までの距離によって明るさが異なっている。そのため、撮像部を奥行き(光軸)方向に動かした場合や、消化管の蠕動などによって被写体までの距離が変わった場合等に、明るさが大きく変化する。   The second is a case where the brightness of the current frame and the previous frame are significantly different. Such a situation can occur, for example, when the imaging unit is moved greatly. In the endoscope apparatus, since the illumination light is irradiated from the tip of the imaging unit, the brightness varies depending on the distance to the subject. Therefore, the brightness changes greatly when the imaging unit is moved in the depth (optical axis) direction, or when the distance to the subject changes due to peristalsis of the digestive tract or the like.

空間方向のノイズ低減は基本的に現フレームに対して行うので、現フレームに近い明るさの画像となる。一方、時間方向のノイズ低減処理では現フレームと前フレームを加算するため、現フレームと前フレームの明るさが大きく異なる場合には、加算後の画像の明るさは現フレームの明るさと異なっている。SADは局所的な動きを表すので、一般には画素や領域ごとに異なった値を持ち、そのSADから決めたブレンド率は画素や領域ごとに異なったものとなる。そうすると、明るさが異なる時間方向のノイズ低減処理の結果と空間方向のノイズ低減処理の結果が、画素や領域ごとに異なる割合でブレンドされ、その明るさの差がアーティファクトとなる。   Since noise reduction in the spatial direction is basically performed on the current frame, the image has a brightness close to that of the current frame. On the other hand, since the current frame and the previous frame are added in the noise reduction process in the time direction, if the brightness of the current frame and the previous frame is greatly different, the brightness of the image after the addition is different from the brightness of the current frame. . Since SAD represents a local motion, it generally has a different value for each pixel or area, and the blend rate determined from that SAD differs for each pixel or area. Then, the result of the noise reduction process in the time direction and the result of the noise reduction process in the spatial direction with different brightness are blended at different ratios for each pixel or area, and the difference in brightness becomes an artifact.

なお、ノイズ低減処理の画質を低下させる撮影条件は上記の例に限定されるものでない。例えば、画像にノイズが多い条件では動きベクトルの検出を失敗する可能性が高くなり、時間方向のノイズ低減処理において残像が発生しやすい。ノイズが多くなる場合として、例えば第5実施形態で説明する狭帯域光画像などが考えられる。   Note that the shooting conditions for reducing the image quality of the noise reduction processing are not limited to the above example. For example, if there is a lot of noise in the image, there is a high possibility that the detection of the motion vector will fail, and an afterimage tends to occur in the noise reduction processing in the time direction. As a case where noise increases, for example, a narrow-band optical image described in the fifth embodiment can be considered.

以上のように、局所的な動きの程度であるSADのみで時間方向のノイズ低減処理の結果と空間方向のノイズ低減処理の結果を合成すると、ノイズ低減処理において画質が低下するという課題がある。   As described above, when the result of the noise reduction process in the time direction and the result of the noise reduction process in the spatial direction are combined only with the SAD that is the degree of local motion, there is a problem that the image quality is deteriorated in the noise reduction process.

このような課題を解決できる本実施形態の画像処理装置の構成例を図1に示す。画像処理装置は、画像取得部315と第1のノイズ低減処理部323と第2のノイズ低減処理部324と類似度検出部321と撮影条件取得部322と画像合成部325とを含む。   FIG. 1 shows a configuration example of an image processing apparatus according to this embodiment that can solve such a problem. The image processing apparatus includes an image acquisition unit 315, a first noise reduction processing unit 323, a second noise reduction processing unit 324, a similarity detection unit 321, an imaging condition acquisition unit 322, and an image composition unit 325.

画像取得部315は、撮像部により撮像された時系列の撮像画像を取得する。画像取得部315は、例えば図2で後述する補間処理部310に対応する。即ち、ベイヤ配列の画像に対して補間処理を行い、各画素にRGB画素値が存在するRGB画像を撮像画像として取得する。或は、R画像、G画像、B画像を順次に撮像する面順次方式の場合には、画像取得部315は、それらのR画像、G画像、B画像から1つのRGB画像にまとめることで、撮像画像を取得してもよい。   The image acquisition unit 315 acquires time-series captured images captured by the imaging unit. The image acquisition unit 315 corresponds to, for example, the interpolation processing unit 310 described later with reference to FIG. That is, an interpolation process is performed on the Bayer array image, and an RGB image in which each pixel has an RGB pixel value is acquired as a captured image. Alternatively, in the case of a frame sequential method that sequentially captures an R image, a G image, and a B image, the image acquisition unit 315 combines the R image, the G image, and the B image into one RGB image. A captured image may be acquired.

第1のノイズ低減処理部323は、撮像画像に対して時間方向のノイズ低減処理を施して第1画像を生成する。時間方向のノイズ低減処理は、複数フレームの画素値を用いて平滑化を行う処理である。例えば、下式(2)に示すように、画素単位で現フレームと前フレームの画素値を加重平均する処理である。   The first noise reduction processing unit 323 performs a time-direction noise reduction process on the captured image to generate a first image. The noise reduction process in the time direction is a process of performing smoothing using pixel values of a plurality of frames. For example, as shown in the following equation (2), the pixel values of the current frame and the previous frame are weighted and averaged in units of pixels.

第2のノイズ低減処理部324は、撮像画像に対して少なくとも空間方向のノイズ低減処理を施して第2画像を生成する。空間方向のノイズ低減処理は、同一フレームの画素値を用いて平滑化を行う処理である。少なくとも空間方向のノイズ低減処理を行えばよいので、同一フレームの画素値のみで平滑化を行ってもよいし、下式(3)、(4)に示すように、更に複数フレームの画素値を用いた平滑化を組み合わせてもよい。   The second noise reduction processing unit 324 performs at least spatial noise reduction processing on the captured image to generate a second image. The noise reduction process in the spatial direction is a process of performing smoothing using pixel values of the same frame. Since it is sufficient to perform noise reduction processing in at least the spatial direction, smoothing may be performed using only pixel values of the same frame, or pixel values of a plurality of frames may be further reduced as shown in the following equations (3) and (4). The smoothing used may be combined.

類似度検出部321は、撮像画像のフレーム間の類似度を検出する。即ち、現フレームと前フレームの間の類似度を検出する。類似度とは、各画素又は各局所領域について算出され、フレーム間の局所的な相関度合いを表す指標である。例えば、下式(1)に示す差分平均値mSADを類似度として用いる。この差分平均値mSADは各画素位置(x,y)について算出される。   The similarity detection unit 321 detects the similarity between frames of a captured image. That is, the similarity between the current frame and the previous frame is detected. The similarity is an index that is calculated for each pixel or each local region and represents the degree of local correlation between frames. For example, the difference average value mSAD shown in the following formula (1) is used as the similarity. This difference average value mSAD is calculated for each pixel position (x, y).

撮影条件取得部322は、撮像画像の撮影条件を取得する。撮影条件は、上述のように画質低下を招く可能性がある条件である。撮影条件は、例えば撮像画像から所定の量を抽出することで取得してもよいし、或は、センサーにより取得してもよいし、或は、制御信号や操作入力により取得してもよい。   The shooting condition acquisition unit 322 acquires shooting conditions of a captured image. The shooting conditions are conditions that may cause a reduction in image quality as described above. The shooting conditions may be acquired, for example, by extracting a predetermined amount from the captured image, may be acquired by a sensor, or may be acquired by a control signal or operation input.

画像合成部325は、類似度が高いほど第1画像の合成度合いが高くなると共に第2画像の合成度合いが低くなるように、第1画像と第2画像を合成処理する。即ち、類似度が高い画素や局所領域では、時間方向のノイズ低減処理の結果を高い合成度合いで合成する。このとき、画像合成部325は、撮影条件により合成度合いを変更する。撮影条件が残像やアーティファクトを発生させる条件である場合には、第1画像の合成度合いを低くする。即ち、同じ類似度であっても、時間方向のノイズ低減処理の結果が合成される度合いが低下し、残像やアーティファクトの発生を抑制できる。   The image synthesizing unit 325 synthesizes the first image and the second image so that the higher the similarity is, the higher the degree of synthesis of the first image and the lower the degree of synthesis of the second image. In other words, the result of the noise reduction process in the time direction is synthesized with a high degree of synthesis in a pixel or local region with a high degree of similarity. At this time, the image composition unit 325 changes the composition degree according to the shooting conditions. When the shooting condition is a condition for generating an afterimage or an artifact, the degree of synthesis of the first image is lowered. That is, even with the same similarity, the degree of synthesis of the results of noise reduction processing in the time direction is reduced, and the occurrence of afterimages and artifacts can be suppressed.

ここで、合成処理とは、ブレンド処理又は選択処理である。ブレンド処理は、第1画像を第1ブレンド率(例えば後述する1−α)で第2画像を第2ブレンド率(例えば後述するα)で加重平均する処理である。この場合、合成度合いはブレンド率である。一方、選択処理は、第1画像と第2画像のいずれかを選択する処理である。この場合、合成度合いは、選択される度合い(選択されやすさ)である。例えば、類似度が閾値以上である場合に第1画像を選択する場合、類似度が高くなれば第1画像が選択される度合いが上がり、類似度が低くなれば第1画像が選択される度合いが下がる。また、閾値を変化させることによって第1画像が選択される度合いを変化させることができる。   Here, the synthesis process is a blend process or a selection process. The blend process is a process of performing a weighted average of the first image at a first blend ratio (for example, 1-α described later) and the second image at a second blend ratio (for example, α described later). In this case, the degree of synthesis is a blend rate. On the other hand, the selection process is a process of selecting either the first image or the second image. In this case, the degree of synthesis is the degree of selection (ease of selection). For example, when the first image is selected when the similarity is greater than or equal to a threshold, the degree to which the first image is selected increases if the similarity is high, and the degree to which the first image is selected if the similarity is low Go down. In addition, the degree to which the first image is selected can be changed by changing the threshold value.

具体的には、撮影条件取得部322は、撮像部と被写体との間の相対的な動きにより変化する動き情報を撮影条件として取得する。そして、画像合成部325は、その動き情報が表す相対的な動きが大きいほど第1画像の合成度合いを低くすると共に第2画像の合成度合いを高くする。   Specifically, the shooting condition acquisition unit 322 acquires motion information that changes due to relative movement between the imaging unit and the subject as a shooting condition. Then, the image composition unit 325 lowers the degree of synthesis of the first image and increases the degree of synthesis of the second image as the relative motion represented by the motion information is larger.

動き情報としては、例えば上述した被写体の動き量や明るさの変化量等がある。画像内で被写体の動き量が大きくなるのは、例えば撮像部と被写体が相対的に横(光軸に交差する方向)に移動した場合である。また、画像の明るさが大きく変化するのは、例えば撮像部と被写体が相対的に縦(光軸方向)に移動した場合である。   The motion information includes, for example, the above-described subject motion amount and brightness change amount. The amount of movement of the subject in the image is large, for example, when the imaging unit and the subject move relatively horizontally (in the direction intersecting the optical axis). The brightness of the image greatly changes when, for example, the imaging unit and the subject move relatively vertically (in the optical axis direction).

動き情報が動き量である場合、動き量が大きいほど相対的な動きが大きいことを表す。また、動き情報が明るさの変化量である場合、明るさの変化量が大きいほど相対的な動きが大きいことを表す。本実施形態では、このような動き情報が表す動きが大きいほど、時間方向のノイズ低減処理の結果を合成する度合いを低くすることで、残像やアーティファクトの発生を抑制できる。   When the motion information is a motion amount, the larger the motion amount, the greater the relative motion. In addition, when the motion information is a brightness change amount, the greater the brightness change amount, the greater the relative motion. In the present embodiment, the greater the motion represented by such motion information, the lower the degree of synthesis of the results of noise reduction processing in the time direction, thereby suppressing the occurrence of afterimages and artifacts.

また、類似度検出部321は、撮像画像の第1の領域において類似度を検出し、撮影条件取得部322は、撮像画像の第1の領域よりも広い第2の領域において動き情報を取得する。   Further, the similarity detection unit 321 detects similarity in the first region of the captured image, and the imaging condition acquisition unit 322 acquires motion information in a second region wider than the first region of the captured image. .

例えば、類似度が下式(1)に示す差分平均値mSADである場合、類似度は(2k+1)×(2k+1)画素の領域(第1の領域)で検出する。動き量や明るさの変化量等の動き情報は、その(2k+1)×(2k+1)画素の領域よりも広い領域(第2の領域)で検出する。例えば、第1、第2実施形態で説明するように、画像全体についての動き量や明るさの変化量を検出する。   For example, when the similarity is the difference average value mSAD shown in the following equation (1), the similarity is detected in an area (first area) of (2k + 1) × (2k + 1) pixels. The motion information such as the motion amount and the brightness change amount is detected in a region (second region) wider than the (2k + 1) × (2k + 1) pixel region. For example, as described in the first and second embodiments, the amount of motion and the amount of change in brightness are detected for the entire image.

上述した画質を低下させる撮影条件は、類似度の検出領域よりもグローバル(大局的)な領域で発生する条件と予想される。例えば、内視鏡スコープの操作や消化管の蠕動などで生じる動きは、画像の広い範囲に及ぶと考えられる。また、低コントラスト画像などにおいて、類似度を検出する微小な領域でフレーム間に差がなかったとしても、広い領域で見れば動き量や明るさの変化量を検出することが可能である。   The above-described shooting conditions that lower the image quality are expected to occur in a global (global) area rather than a similarity detection area. For example, it is considered that movements caused by operation of the endoscope scope or peristalsis of the digestive tract extend over a wide range of images. Further, even if there is no difference between frames in a small area where the similarity is detected in a low-contrast image or the like, it is possible to detect the amount of movement and the amount of change in brightness when viewed in a wide area.

このような理由から、グローバルな動き情報を取得することによって、類似度が小さい場合であっても時間方向のノイズ低減処理の結果を合成する度合いを低くすることが可能となり、残像やアーティファクトを低減できる。   For this reason, by acquiring global motion information, it is possible to reduce the degree to which the results of noise reduction processing in the time direction are combined even when the degree of similarity is small, reducing afterimages and artifacts. it can.

2.第1実施形態
2.1.内視鏡装置
以下、詳細な実施形態について説明する。図2に、第1実施形態における内視鏡装置の構成例を示す。内視鏡システムは、光源部100と、撮像部200と、制御装置300と、表示部400と、外部I/F部500と、を含む。制御装置300は、補間処理部310と、ノイズ低減処理部320と、フレームメモリー330と、表示画像生成部340と、制御部390と、を含む。
2. First embodiment 2.1. Endoscope Device Hereinafter, detailed embodiments will be described. FIG. 2 shows a configuration example of the endoscope apparatus according to the first embodiment. The endoscope system includes a light source unit 100, an imaging unit 200, a control device 300, a display unit 400, and an external I / F unit 500. The control device 300 includes an interpolation processing unit 310, a noise reduction processing unit 320, a frame memory 330, a display image generation unit 340, and a control unit 390.

光源部100は、白色光を発生する白色光源110と、その白色光をライトガイドファイバー210に集光するためのレンズ120と、を含む。   The light source unit 100 includes a white light source 110 that generates white light and a lens 120 that collects the white light on the light guide fiber 210.

撮像部200は、体腔への挿入を可能にするため、例えば細長く且つ湾曲可能に形成されている。また、観察する部位により異なる撮像部が用いられるため、撮像部200は制御装置300に対して着脱可能な構造をしている。なお以下の説明では適宜、撮像部200をスコープと呼ぶ。   The imaging unit 200 is formed to be elongate and bendable, for example, so as to be inserted into a body cavity. In addition, since different imaging units are used depending on the site to be observed, the imaging unit 200 has a structure that can be attached to and detached from the control device 300. In the following description, the imaging unit 200 is appropriately referred to as a scope.

撮像部200は、光源部100で集光された光を導くためのライトガイドファイバー210と、そのライトガイドファイバー210により導かれた光を拡散させて被写体に照射する照明レンズ220と、を含む。また撮像部200は、被写体からの反射光を集光する集光レンズ230と、集光レンズ230により集光された反射光を検出するための撮像素子240と、メモリー250と、を含む。メモリー250は制御部390に接続されている。   The imaging unit 200 includes a light guide fiber 210 for guiding the light collected by the light source unit 100, and an illumination lens 220 that diffuses the light guided by the light guide fiber 210 and irradiates the subject. The imaging unit 200 includes a condenser lens 230 that collects reflected light from the subject, an imaging element 240 for detecting the reflected light collected by the condenser lens 230, and a memory 250. The memory 250 is connected to the control unit 390.

撮像素子240は、図3に示すようにベイヤ配列の色フィルターを有する撮像素子である。色フィルターは、rフィルター、gフィルター、bフィルターの3種類である。図4に示すように、rフィルターは580〜700nmの光を透過させ、gフィルターは480〜600nmの光を透過させ、bフィルターは390〜500nmの光を透過させる特性を有する。   The image sensor 240 is an image sensor having a Bayer array color filter as shown in FIG. There are three types of color filters: r filters, g filters, and b filters. As shown in FIG. 4, the r filter transmits light of 580 to 700 nm, the g filter transmits light of 480 to 600 nm, and the b filter transmits light of 390 to 500 nm.

外部I/F部500は、内視鏡装置に対するユーザーからの入力等を行うためのインターフェースである。例えば、外部I/F部500は、電源のオン/オフを行うための電源スイッチや、撮影モードやその他各種のモードを切り換えるためのモード切換ボタンなどを含んで構成されている。外部I/F部500は、入力された情報を制御部390へ出力する。   The external I / F unit 500 is an interface for performing input from the user to the endoscope apparatus. For example, the external I / F unit 500 is configured to include a power switch for turning on / off the power, a mode switching button for switching a photographing mode and various other modes. The external I / F unit 500 outputs the input information to the control unit 390.

制御装置300は、内視鏡装置の各部の制御や、撮像画像に対する画像処理等を行う。補間処理部310は、ノイズ低減処理部320に接続されている。ノイズ低減処理部320は表示画像生成部340に接続されている。また、ノイズ低減処理部320は、フレームメモリー330と双方向に接続されている。表示画像生成部340は表示部400に接続されている。制御部390は、補間処理部310と、ノイズ低減処理部320と、フレームメモリー330と、表示画像生成部340に接続されており、これらの制御を行う。   The control device 300 performs control of each part of the endoscope device, image processing on the captured image, and the like. The interpolation processing unit 310 is connected to the noise reduction processing unit 320. The noise reduction processing unit 320 is connected to the display image generation unit 340. In addition, the noise reduction processing unit 320 is bidirectionally connected to the frame memory 330. The display image generation unit 340 is connected to the display unit 400. The control unit 390 is connected to the interpolation processing unit 310, the noise reduction processing unit 320, the frame memory 330, and the display image generation unit 340, and performs these controls.

補間処理部310は、撮像素子240により取得される画像に対して補間処理を行う。上述のように撮像素子240はベイヤ配列を有するため、撮像素子240により取得される画像の各画素は、R、G、B信号のうちの何れか1色の信号値を有し、他の2色の信号値が欠落した状態である。補間処理部310は、この画像の各画素に対して補間処理を行うとで、欠落している信号値を補間し、各画素においてR、G、B信号の全ての信号値を有する画像を生成する。補間処理として、例えば公知のバイキュービック補間処理を用いればよい。なお以下では、補間処理後の画像をRGB画像と呼ぶ。補間処理部310は、生成したRGB画像をノイズ低減処理部320へ出力する。   The interpolation processing unit 310 performs an interpolation process on the image acquired by the image sensor 240. Since the image sensor 240 has a Bayer array as described above, each pixel of an image acquired by the image sensor 240 has a signal value of one color of R, G, and B signals, and the other two. The color signal value is missing. The interpolation processing unit 310 interpolates the missing signal value by performing interpolation processing on each pixel of this image, and generates an image having all the signal values of R, G, and B signals at each pixel. To do. For example, a known bicubic interpolation process may be used as the interpolation process. Hereinafter, the image after the interpolation processing is referred to as an RGB image. The interpolation processing unit 310 outputs the generated RGB image to the noise reduction processing unit 320.

ノイズ低減処理部320は、補間処理部310より出力されるRGB画像に対して、ノイズ低減処理を行う。ノイズ低減処理部320の詳細は後述する。なお以下では、ノイズ低減処理後の画像をNR画像(ノイズ低減画像)と呼ぶ。   The noise reduction processing unit 320 performs noise reduction processing on the RGB image output from the interpolation processing unit 310. Details of the noise reduction processing unit 320 will be described later. Hereinafter, the image after the noise reduction process is referred to as an NR image (noise reduced image).

表示画像生成部340は、ノイズ低減処理部320より出力されるNR画像に対し、例えば既存のホワイトバランスや色変換処理、階調変換処理等を施し、表示画像を生成する。表示画像生成部340は、生成した表示画像を表示部400に出力する。表示部400は、表示画像を表示し、例えば液晶表示装置等の表示装置により構成される。   The display image generation unit 340 performs, for example, existing white balance, color conversion processing, and gradation conversion processing on the NR image output from the noise reduction processing unit 320 to generate a display image. The display image generation unit 340 outputs the generated display image to the display unit 400. The display unit 400 displays a display image and is configured by a display device such as a liquid crystal display device.

2.2.ノイズ低減処理部
図5に、ノイズ低減処理部320の詳細な構成例を示す。ノイズ低減処理部320は、類似度検出部321と、撮影条件取得部322と、第1のノイズ低減処理部323と、第2のノイズ低減処理部324と、画像合成部325と、を含む。
2.2. Noise Reduction Processing Unit FIG. 5 shows a detailed configuration example of the noise reduction processing unit 320. The noise reduction processing unit 320 includes a similarity detection unit 321, an imaging condition acquisition unit 322, a first noise reduction processing unit 323, a second noise reduction processing unit 324, and an image composition unit 325.

類似度検出部321は、補間処理部310とフレームメモリー330と画像合成部325に接続されている。類似度検出部321は、補間処理部310から得られる現在のRGB画像と、フレームメモリー330から得られる過去画像を用いて類似度を検出し、その類似度を画像合成部325に転送する。過去画像とは、現在のRGB画像よりも1フレーム前の時点において、ノイズ低減処理部320から出力されたNR画像である。以下現在のRGB画像を現フレーム、過去画像を前フレームと呼ぶ。類似度検出部321は、後述する下式(1)を用いて、現フレームと前フレームの所定矩形領域内の差分値を類似度として検出する。   The similarity detection unit 321 is connected to the interpolation processing unit 310, the frame memory 330, and the image composition unit 325. The similarity detection unit 321 detects the similarity using the current RGB image obtained from the interpolation processing unit 310 and the past image obtained from the frame memory 330, and transfers the similarity to the image composition unit 325. The past image is an NR image output from the noise reduction processing unit 320 at a time one frame before the current RGB image. Hereinafter, the current RGB image is called the current frame, and the past image is called the previous frame. The similarity detection unit 321 detects a difference value in a predetermined rectangular area between the current frame and the previous frame as the similarity using the following formula (1) described later.

撮影条件取得部322は、補間処理部310とフレームメモリー330と画像合成部325と接続されている。撮影条件取得部322は、現フレームと前フレームから被写体の動き量を検出し、その動き量を撮影条件として画像合成部325へ転送する。具体的には、撮影条件取得部322は、現フレームと前フレームの間における被写体の動きベクトルを各局所領域について検出し、その検出した動きベクトルを大きさの昇順に整列する。そして、昇順に整列された動きベクトルのうち下位の複数個の動きベクトルを抽出し、その抽出した動きベクトルの大きさの平均値を求め、その平均値を動き量とする。   The imaging condition acquisition unit 322 is connected to the interpolation processing unit 310, the frame memory 330, and the image composition unit 325. The shooting condition acquisition unit 322 detects the amount of movement of the subject from the current frame and the previous frame, and transfers the amount of movement to the image composition unit 325 as the shooting condition. Specifically, the imaging condition acquisition unit 322 detects the motion vector of the subject between the current frame and the previous frame for each local region, and arranges the detected motion vectors in ascending order of size. Then, a plurality of lower-order motion vectors are extracted from the motion vectors arranged in ascending order, an average value of the extracted motion vectors is obtained, and the average value is used as a motion amount.

第1のノイズ低減処理部323は、補間処理部310とフレームメモリー330と画像合成部325に接続されている。第1のノイズ低減処理部323は、現フレームと前フレームを用いて時間方向のノイズ低減処理を行い、その結果の画像(以下、時間方向NR画像と呼ぶ)を画像合成部325に転送する。時間方向のノイズ低減処理の詳細は、下式(2)で後述する。   The first noise reduction processing unit 323 is connected to the interpolation processing unit 310, the frame memory 330, and the image composition unit 325. The first noise reduction processing unit 323 performs noise reduction processing in the time direction using the current frame and the previous frame, and transfers the resulting image (hereinafter referred to as a time direction NR image) to the image synthesis unit 325. Details of the noise reduction processing in the time direction will be described later with the following equation (2).

第2のノイズ低減処理部324は、補間処理部310と画像合成部325に接続されている。第2のノイズ低減処理部324は、現フレームを用いて空間方向のノイズ低減処理を行い、その結果の画像(以下空間方向NR画像と呼ぶ)を画像合成部325に転送する。空間方向のノイズ低減処理の詳細は、下式(3)、(4)で後述する。   The second noise reduction processing unit 324 is connected to the interpolation processing unit 310 and the image synthesis unit 325. The second noise reduction processing unit 324 performs noise reduction processing in the spatial direction using the current frame, and transfers the resulting image (hereinafter referred to as spatial direction NR image) to the image synthesis unit 325. Details of the noise reduction processing in the spatial direction will be described later with the following equations (3) and (4).

画像合成部325は、類似度及び動き量に基づいて、時間方向NR画像と空間方向NR画像を合成する処理を行う。画像合成部325は、合成処理の結果の画像をフレームメモリー330と表示画像生成部340に転送する。   The image synthesis unit 325 performs a process of synthesizing the time direction NR image and the spatial direction NR image based on the similarity and the motion amount. The image composition unit 325 transfers the image resulting from the composition process to the frame memory 330 and the display image generation unit 340.

フレームメモリー330は、画像合成部325から転送されたNR画像を記憶する。そして、そのNR画像を前フレームとして、類似度検出部321と撮影条件取得部322と第1のノイズ低減処理部323に転送する。   The frame memory 330 stores the NR image transferred from the image composition unit 325. Then, the NR image is transferred as a previous frame to the similarity detection unit 321, the imaging condition acquisition unit 322, and the first noise reduction processing unit 323.

2.3.類似度検出部
次に、類似度検出部の詳細について説明する。類似度検出部321は、現フレームと前フレームとを用いて、類似度である差分平均値mSADを算出する。以下に差分平均値mSADについて詳しく説明する。
2.3. Similarity Detection Unit Next, details of the similarity detection unit will be described. The similarity detection unit 321 calculates a difference average value mSAD, which is a similarity, using the current frame and the previous frame. The difference average value mSAD will be described in detail below.

ノイズ低減処理の対象となる画素である注目画素の座標を(x,y)とすると、差分平均値mSAD(フレーム間差分値)は、下式(1)を用いて算出される。

Figure 0006242230
Assuming that the coordinates of the pixel of interest, which is a target pixel for noise reduction processing, are (x, y), the difference average value mSAD (inter-frame difference value) is calculated using the following equation (1).
Figure 0006242230

類似度検出部321は、上式(1)のSAD(m,n)が最小となる差分平均値mSADの値を、画像合成部325へ出力する。なお、以下ではG信号についての処理を説明するが、R信号、B信号についても同一の処理が施される。   The similarity detection unit 321 outputs the value of the difference average value mSAD that minimizes the SAD (m, n) of the above formula (1) to the image synthesis unit 325. In the following, the processing for the G signal will be described, but the same processing is performed for the R signal and the B signal.

ここで、上式(1)において、min{}は、括弧内の値の最小値を取得する処理を表す。また、m=−1、0、1、n=−1、0、1である。また、FG_cur(x,y)は現フレームの座標(x,y)におけるG信号値であり、FG_pre(x,y)は前フレームの座標(x,y)におけるG信号値である。また、kは自然数であり、(2k+1)は差分平均値mSADを算出する際のカーネルサイズに相当する。kは、予め一定の値を設定しておくこともできるし、外部I/F部500より、ユーザーが任意の値を設定する構成としてもよい。また、||A||は、実数値Aの絶対値を取得する処理を表す。 Here, in the above formula (1), min {} represents a process of acquiring the minimum value in the parentheses. Further, m = -1, 0, 1, and n = -1, 0, 1. Further, F G_cur (x, y) is a G signal value at the coordinates (x, y) of the current frame, F G_pre (x, y) is a G signal value at the coordinates (x, y) of the previous frame. Also, k is a natural number, and (2k + 1) corresponds to the kernel size when calculating the difference average value mSAD. A constant value can be set for k in advance, or the user can set an arbitrary value from the external I / F unit 500. || A || represents a process of acquiring the absolute value of the real value A.

差分平均値mSADは、被写体が静止状態である場合と動作状態(動きがある状態)である場合とで、その値が異なっている。この特徴について以下に説明する。なお、説明を簡単にするために、画像を1次元の信号として扱う。また、画像信号の成分は、図6(A)に示す構造成分と、図6(B)に示すノイズ成分で構成されているものとする。   The difference average value mSAD differs depending on whether the subject is in a stationary state or in an operating state (a state where there is motion). This feature will be described below. In order to simplify the description, the image is handled as a one-dimensional signal. In addition, it is assumed that the component of the image signal includes a structural component illustrated in FIG. 6A and a noise component illustrated in FIG.

ある時刻tにおいて図7(A)に示す画像が取得され、その直前の時刻t−1において図7(B)に示す画像が取得された場合を考える。この場合、時刻tと時刻t−1において、構造成分の位置は変化していない(静止状態に相当)。そのため、時刻tにおける画像と、時刻t−1における画像との差分値(差分値の絶対値)を求めると、図7(C)に示すように、差分値にはノイズ成分のみが含まれることになる。一方、ある時刻tにおいて図8(A)に示す画像が取得され、その直前の時刻t−1において図8(B)に示す画像が取得された場合を考える。図8(B)に示すdは、フレーム間における被写体の動き量に相当する(動作状態に相当)。この場合、時刻tにおける画像と、時刻t−1における画像の差分値を求めると、図8(C)に示すように、差分値にはノイズ成分と構造成分の両方が含まれることになる。   Consider a case where the image shown in FIG. 7A is acquired at a certain time t and the image shown in FIG. 7B is acquired at the time t-1 immediately before that. In this case, the position of the structural component does not change at time t and time t-1 (corresponding to a stationary state). Therefore, when the difference value (absolute value of the difference value) between the image at time t and the image at time t−1 is obtained, only the noise component is included in the difference value as shown in FIG. become. On the other hand, consider a case where the image shown in FIG. 8A is acquired at a certain time t, and the image shown in FIG. 8B is acquired at the time t-1 immediately before that. D shown in FIG. 8B corresponds to the amount of movement of the subject between frames (corresponding to the operating state). In this case, when the difference value between the image at time t and the image at time t−1 is obtained, the difference value includes both a noise component and a structural component as shown in FIG.

従って、動作状態における差分平均値mSADは、静止状態における差分平均値mSADよりも大きくなる特徴がある。差分平均値mSADは後述する下式(9)〜(12)で説明するように、ブレンド率の決定に用いられる。   Therefore, the difference average value mSAD in the operating state is characterized by being larger than the difference average value mSAD in the stationary state. The difference average value mSAD is used to determine the blend ratio, as will be described in the following equations (9) to (12).

2.4.第1のノイズ低減処理部
次に、時間方向のノイズ低減処理の詳細について説明する。時間方向のノイズ低減処理には、下式(2)が用いられる。

Figure 0006242230
2.4. First Noise Reduction Processing Unit Next, details of noise reduction processing in the time direction will be described. The following formula (2) is used for the noise reduction process in the time direction.
Figure 0006242230

ここで、上式(2)において、FG_TimeNR(x,y)は時間方向NR画像の座標(x,y)におけるG信号値である。また、we_cur、we_preは加重平均処理時の重み係数である。重み係数we_preを重み係数we_curよりも大きくすることにより、ノイズ低減量が大きくなる。重み係数we_cur、we_preは予め一定の値を設定しておいてもよいし、外部I/F部500より、ユーザーが任意の値を設定する構成としてもよい。また、(u,v)は動きベクトルである。即ち、時間方向のノイズ低減処理において各座標(x,y)での被写体の動きベクトル(u,v)を検出し、その動きベクトル(u,v)により位置合わせを行う。 Here, in the above equation (2), FG_TimeNR (x, y) is a G signal value at the coordinates (x, y) of the time direction NR image. Further, we_cur and we_pre are weighting coefficients at the time of the weighted average process. By making the weighting coefficient we_pre larger than the weighting coefficient we_cur, the amount of noise reduction is increased. The weighting factors we_cur and we_pre may be set to certain values in advance, or the user may set arbitrary values from the external I / F unit 500. Further, (u, v) is a motion vector. That is, the motion vector (u, v) of the subject at each coordinate (x, y) is detected in the noise reduction process in the time direction, and alignment is performed based on the motion vector (u, v).

2.5.第2のノイズ低減処理部
次に、空間方向のノイズ低減処理の詳細について説明する。本実施形態において、空間方向のノイズ低減処理は、ノイズ低減処理の対象となる画素(注目画素)とその周辺の画素を用いた加重平均処理である。具体的には、下式(3)を用いてノイズを低減する。

Figure 0006242230
2.5. Second Noise Reduction Processing Unit Next, details of the noise reduction processing in the spatial direction will be described. In the present embodiment, the noise reduction process in the spatial direction is a weighted average process using a pixel (target pixel) that is a target of the noise reduction process and surrounding pixels. Specifically, noise is reduced using the following equation (3).
Figure 0006242230

ここで、上式(3)において、we_diff_cur(x+i,y+j)、we_diff_pre(x+i,y+j)は加重平均処理時の重み係数に相当する。この係数は、下式(4)に示すように、ガウス分布で与えられる。また、Iは自然数である。また、m、nは、上式(1)において差分平均値mSADとして選択されたSAD(m,n)のm、nである。

Figure 0006242230
Here, in the above equation (3), we_diff_cur (x + i, y + j) and we_diff_pre (x + i, y + j) correspond to the weighting coefficients in the weighted average process. This coefficient is given by a Gaussian distribution as shown in the following equation (4). I is a natural number. M and n are m and n of SAD (m, n) selected as the difference average value mSAD in the above equation (1).
Figure 0006242230

上式(4)に示すように、本実施形態で用いられる空間方向のノイズ低減処理では、注目画素の信号値と周辺画素の信号値との差分の大きさに応じて、適応的に重み係数が設定される。具体的には、差分が大きい場合には、加重平均処理時の重みが小さくなる。従って、エッジ部など信号値が急に変化する領域の画素は加重平均処理に寄与しなくなるため、エッジ部を保持してノイズ成分のみを低減できる利点がある。   As shown in the above equation (4), in the spatial noise reduction processing used in the present embodiment, the weighting factor is adaptively set according to the difference between the signal value of the target pixel and the signal value of the surrounding pixels. Is set. Specifically, when the difference is large, the weight during the weighted average process is small. Therefore, pixels in regions where signal values change suddenly, such as edge portions, do not contribute to the weighted average processing, and there is an advantage that only noise components can be reduced while retaining edge portions.

2.6.撮影条件取得部
以上のように、ノイズ低減処理部320は、時間方向のノイズ低減処理と空間方向のノイズ低減処理を行う。時間方向のノイズ低減処理は、解像感を保持できる反面、残像の副作用があり、時間方向のノイズ低減処理は、残像が生じない反面、解像が低下する副作用がある。
2.6. Imaging condition acquisition unit As described above, the noise reduction processing unit 320 performs the noise reduction processing in the time direction and the noise reduction processing in the spatial direction. While the noise reduction process in the time direction can maintain a sense of resolution, there are side effects of afterimages. The noise reduction process in the time direction has no side effects, but has a side effect of reducing resolution.

そこで、本実施形態では、類似度(差分平均値mSAD)に応じて空間方向NR画像と時間方向NR画像をブレンドすることで、時間方向のノイズ低減処理と空間方向のノイズ低減処理のそれぞれの利点を活かした、高性能なノイズ低減を実現する。   Therefore, in the present embodiment, by blending the spatial direction NR image and the temporal direction NR image according to the similarity (difference average value mSAD), each advantage of the temporal direction noise reduction processing and the spatial direction noise reduction processing. Realizing high-performance noise reduction by utilizing

具体的には、差分平均値mSADの値が小さい場合には、現フレームと前フレームの間は被写体が静止状態であると判断できる。よって差分平均値mSADの値が小さいと類似性が高くなるため、時間方向NR画像のブレンド率を高くする制御を行う。逆に、差分平均値mSADの値が大きい場合には、現フレームと前フレームの間は被写体が動作状態であると判断できる。よって差分平均値mSADが大きいと類似度が低くなるため、空間方向NR画像のブレンド率を高くする制御を行う。   Specifically, when the difference average value mSAD is small, it can be determined that the subject is stationary between the current frame and the previous frame. Therefore, since the similarity increases when the difference average value mSAD is small, control is performed to increase the blend ratio of the time-direction NR image. Conversely, when the value of the difference average value mSAD is large, it can be determined that the subject is in an operating state between the current frame and the previous frame. Therefore, when the difference average value mSAD is large, the degree of similarity is low, so control is performed to increase the blend ratio of the spatial direction NR image.

このような制御によって、残像が生じない静止状態では時間方向NR画像のブレンド率を上げて解像度を向上させ、残像が生じる動作状態では空間方向NR画像のブレンド率を上げて残像を抑制できる。   By such control, the resolution can be improved by increasing the blend ratio of the time direction NR image in a still state where no afterimage is generated, and the afterimage can be suppressed by increasing the blend ratio of the spatial direction NR image in an operation state where the afterimage is generated.

しかしながら、静止状態を判断する指標として差分平均値mSADの信頼性が低い場合があり、そのような場合には、差分平均値mSADが小さい場合であっても実際には静止状態ではない可能性がある。例えば、「1.本実施形態の概要」で説明した1つ目の状況である。即ち、被写体のコントラストやノイズの影響により、差分平均値mSADを誤判定し、時間方向NR画像に残像があるにも関わらず合成度合いが高くなる場合である。   However, there is a case where the reliability of the difference average value mSAD is low as an index for determining the stationary state. In such a case, even if the difference average value mSAD is small, there is a possibility that it is not actually in the stationary state. is there. For example, this is the first situation described in “1. Overview of the present embodiment”. That is, the difference average value mSAD is erroneously determined due to the influence of the contrast and noise of the subject, and the degree of synthesis increases even though there is an afterimage in the time direction NR image.

そこで本実施形態では、画像の広い範囲における被写体の動きの程度を表すグローバルな動き量を用いてブレンド率を決定する。即ち、グローバルな動き量が大きい場合は、時間方向NR画像を少なくするようにブレンド率を調整することで、残像を抑えたノイズ低減処理を実現する。   Therefore, in the present embodiment, the blend rate is determined using a global motion amount that represents the degree of motion of the subject in a wide range of the image. That is, when the global motion amount is large, the noise reduction processing with reduced afterimage is realized by adjusting the blend rate so as to reduce the time-direction NR image.

以下、この構成について詳細に説明する。図9に撮影条件取得部322の詳細な構成例を示す。撮影条件取得部322は、公知のブロックマッチング処理を用いて複数の局所領域から動きベクトルを算出する動きベクトル検出部601と、得られた動きベクトルを昇順に並べる動きベクトル整列部602と、所定の割合で下位の動きベクトルを採用し、それらの平均値を算出する動きベクトル平均部603と、を含む。   Hereinafter, this configuration will be described in detail. FIG. 9 shows a detailed configuration example of the imaging condition acquisition unit 322. The imaging condition acquisition unit 322 includes a motion vector detection unit 601 that calculates a motion vector from a plurality of local regions using a known block matching process, a motion vector alignment unit 602 that arranges the obtained motion vectors in ascending order, A motion vector averaging unit 603 that employs lower-order motion vectors in proportion and calculates an average value thereof.

具体的には、動きベクトル検出部601は、現フレームに対し、図10に示すように代表点を中心とする局所領域を複数設定する。xは画像の水平走査方向における座標であり、yは画像の垂直走査方向における座標である。設定する局所領域の大きさ,数は、予め一定の値を設定しておくこともできるし、外部I/F部500によりユーザーが任意の値を設定できる構成としても良い。   Specifically, the motion vector detection unit 601 sets a plurality of local regions centered on the representative point as shown in FIG. 10 for the current frame. x is a coordinate in the horizontal scanning direction of the image, and y is a coordinate in the vertical scanning direction of the image. The size and number of local areas to be set can be set in advance, or can be configured so that the user can set arbitrary values using the external I / F unit 500.

次に、動きベクトル検出部601は、設定された全ての局所領域について公知のブロックマッチング処理を用いて動きベクトル(mx,my)を算出する。ブロックマッチング処理では、現フレーム(基準画像)の各ブロックに対して、相関が高いブロックの位置を前フレーム(対象画像)内で探索する。ブロック間の相対的なズレ量が、そのブロックの動きベクトル(mx,my)に対応する。   Next, the motion vector detection unit 601 calculates a motion vector (mx, my) using a known block matching process for all the set local regions. In the block matching process, the position of a block having a high correlation with respect to each block of the current frame (reference image) is searched in the previous frame (target image). The relative shift amount between the blocks corresponds to the motion vector (mx, my) of the block.

ブロックマッチングで相関の高いブロックを探索する方法としては、例えば二乗誤差SSDや、絶対誤差SADなどを用いれば良い。これは基準画像におけるブロック領域をI、対象画像におけるブロック領域をI’として、Iと相関が高いI’の位置を求める方法である。各ブロック領域での画素位置をp∈I及びq∈I’として、各画素の信号値をLp,Lqとすると、SSD,SADは、下式(5)及び下式(6)で定義され、この値が小さいほど相関が高いと評価する。

Figure 0006242230
Figure 0006242230
As a method of searching for a highly correlated block by block matching, for example, a square error SSD or an absolute error SAD may be used. This is a method for obtaining the position of I ′ having a high correlation with I, where I is the block area in the reference image and I ′ is the block area in the target image. Assuming that the pixel position in each block region is pεI and qεI ′ and the signal values of each pixel are Lp and Lq, SSD and SAD are defined by the following equations (5) and (6), The smaller the value, the higher the correlation.
Figure 0006242230
Figure 0006242230

ここで、p及びqはそれぞれ2次元の値を持ち、I及びI’は2次元の領域を持つものとし、p∈Iは座標pが領域Iに含まれていることを示す。また||A||は実数値Aの絶対値を取得する処理を表す。   Here, p and q each have a two-dimensional value, I and I 'have a two-dimensional area, and pεI indicates that the coordinate p is included in the area I. || A || represents a process of acquiring the absolute value of the real value A.

動きベクトル整列部602は、全ての局所領域において算出された動きベクトル(mx,my)をサイズ(大きさ)に基づき昇順に整列する。動きベクトルのサイズは、動きベクトルの水平成分であるmxと、動きベクトルの垂直成分であるmyの、それぞれの絶対値である。算出する各代表画素における動き量mvは、下式(7)に示すように、|mx|と|my|を比較し、値の大きい方を選択したものである。

Figure 0006242230
The motion vector alignment unit 602 aligns the motion vectors (mx, my) calculated in all local regions in ascending order based on the size (size). The size of the motion vector is an absolute value of mx, which is the horizontal component of the motion vector, and my, which is the vertical component of the motion vector. As shown in the following formula (7), the motion amount mv in each representative pixel to be calculated is obtained by comparing | mx | and | my | and selecting the larger one.
Figure 0006242230

動きベクトル平均部603は、整列された動き量mvの中から、下位の所定の割合(例えば数%)の動き量mvを採用する。採用した複数の動き量mvを平均するための式を下式(8)に示す。

Figure 0006242230
The motion vector averaging unit 603 employs a lower predetermined ratio (for example, several percent) of the motion amount mv from the aligned motion amounts mv. The following equation (8) shows an equation for averaging the plurality of employed motion amounts mv.
Figure 0006242230

ここで、numは動きベクトルの数であり、mvはi番目の代表点における動き量mvであり、それらにより算出された結果がグローバルな動き量MVである。 Here, num is the number of motion vectors, mv i is the motion amount mv of the i-th representative point, the results calculated by they are global motion amount MV.

なお、上記では、動き量MVをフレーム全体で算出する例を挙げたが、これに限定されず、動き量MVを所定領域毎、若しくは画素毎で算出しても良い。   In the above example, the motion amount MV is calculated for the entire frame. However, the present invention is not limited to this, and the motion amount MV may be calculated for each predetermined region or each pixel.

2.7.画像合成部
図11に、画像合成部325の詳細な構成例を示す。画像合成部325は、類似度である差分平均値mSADとグローバルな動き量MVとに基づいてブレンド率を決定するブレンド率決定部611と、そのブレンド率に基づいて時間方向NR画像と空間方向NR画像をブレンドするブレンド処理部612と、を含む。
2.7. Image Composition Unit FIG. 11 shows a detailed configuration example of the image composition unit 325. The image composition unit 325 includes a blend rate determination unit 611 that determines a blend rate based on the difference average value mSAD that is the similarity and the global motion amount MV, and a temporal direction NR image and a spatial direction NR based on the blend rate. A blend processing unit 612 for blending images.

具体的には、ブレンド率決定部611は、制御部390からブレンド率を決定するためのパラメーターを取得し、類似度検出部321から類似度(差分平均値mSAD)を取得し、撮影条件取得部322から動き量MVを取得する。そして、下式(9)によりブレンド率αを決定する。ブレンド率αは空間方向NR画像のブレンド率であり、時間方向NR画像のブレンド率は(1−α)となる。

Figure 0006242230
Specifically, the blend rate determination unit 611 acquires a parameter for determining the blend rate from the control unit 390, acquires the similarity (difference average value mSAD) from the similarity detection unit 321, and captures an imaging condition acquisition unit. The amount of movement MV is acquired from 322. Then, the blend rate α is determined by the following equation (9). The blend rate α is the blend rate of the spatial direction NR image, and the blend rate of the time direction NR image is (1−α).
Figure 0006242230

αは、0以上1以下の値となるように正規化する。また、BLEND_mSADは類似度に関するブレンド率であり、BLEND_CONDITIONは観察条件に関するブレンド率である。   α is normalized so as to be a value between 0 and 1. BLEND_mSAD is a blend rate related to the similarity, and BLEND_CONDITION is a blend rate related to the observation condition.

まず、類似度に関するブレンド率BLEND_mSADについて説明する。メモリー250は、ブレンド率BLEND_mSADを決定するのに用いるパラメーターである閾値mSAD_TH及び傾きmSAD_SLPを保持している。これらのパラメーターは、予めメモリー250に登録しておく。制御部390は、メモリー250を参照して、パラメーターを画像合成部325に転送する。   First, the blend rate BLEND_mSAD related to the similarity will be described. The memory 250 holds a threshold value mSAD_TH and a gradient mSAD_SLP, which are parameters used to determine the blend ratio BLEND_mSAD. These parameters are registered in the memory 250 in advance. The control unit 390 refers to the memory 250 and transfers the parameters to the image composition unit 325.

図12に示すように、横軸を差分平均値mSADとし、縦軸をブレンド率BLEND_mSADとする。まず、閾値mSAD_THと傾きmSAD_SLPを用いて下式(10)によりBLEND_mSAD’を算出する。

Figure 0006242230
As shown in FIG. 12, the horizontal axis is the difference average value mSAD, and the vertical axis is the blend rate BLEND_mSAD. First, BLEND_mSAD ′ is calculated by the following equation (10) using the threshold value mSAD_TH and the slope mSAD_SLP.
Figure 0006242230

次に、下式(11)に示すようにBLEND_mSAD’を下限値0と上限値64でクリッピングする。下限値0と上限値64は任意の値に設定可能である。

Figure 0006242230
Next, BLEND_mSAD ′ is clipped with the lower limit value 0 and the upper limit value 64 as shown in the following equation (11). The lower limit value 0 and the upper limit value 64 can be set to arbitrary values.
Figure 0006242230

次に、下式(12)に示すようにBLEND_mSAD’を正規化してBLEND_mSADを求める。

Figure 0006242230
Next, BLEND_mSAD ′ is normalized as shown in the following equation (12) to obtain BLEND_mSAD.
Figure 0006242230

差分平均値mSADは各位置(x,y)で算出するので、ブレンド率BLEND_mSADは各位置(x,y)で異なる値となる。即ち、最終的なブレンド率αも各位置(x,y)で異なる値をもつことになる。   Since the difference average value mSAD is calculated at each position (x, y), the blend rate BLEND_mSAD becomes a different value at each position (x, y). That is, the final blend rate α also has a different value at each position (x, y).

次に、観察条件に関するブレンド率BLEND_CONDITIONについて説明する。下式(13)に示すように、ブレンド率BLEND_CONDITIONは、動き量MVに関するブレンド率BLEND_MVである。

Figure 0006242230
Next, the blend rate BLEND_CONDITION related to the observation conditions will be described. As shown in the following formula (13), the blend rate BLEND_CONDITION is the blend rate BLEND_MV related to the motion amount MV.
Figure 0006242230

メモリー250は、ブレンド率BLEND_MVを決定するのに用いるパラメーター、閾値MV_THと傾きMV_SLPを保持している。これらのパラメーターは、予めメモリー250に登録しておく。制御部390は、メモリー250を参照して、パラメーターを画像合成部325に転送する。   The memory 250 holds parameters used for determining the blend ratio BLEND_MV, a threshold MV_TH and a slope MV_SLP. These parameters are registered in the memory 250 in advance. The control unit 390 refers to the memory 250 and transfers the parameters to the image composition unit 325.

図13に示すように、横軸を動き量MVとし、縦軸をブレンド率BLEND_MVとする。まず、閾値MV_THと傾きMV_SLPを用いて下式(14)によりBLEND_MV’を求める。そして、下式(15)によりBLEND_MV’をクリッピングし、下式(16)に示すようにBLEND_MV’を正規化してブレンド率BLEND_MVを求める。

Figure 0006242230
Figure 0006242230
Figure 0006242230
As shown in FIG. 13, the horizontal axis is the amount of movement MV, and the vertical axis is the blend rate BLEND_MV. First, BLEND_MV ′ is obtained by the following equation (14) using the threshold MV_TH and the gradient MV_SLP. Then, BLEND_MV ′ is clipped by the following equation (15), and BLEND_MV ′ is normalized as shown in the following equation (16) to obtain the blend ratio BLEND_MV.
Figure 0006242230
Figure 0006242230
Figure 0006242230

閾値mSAD_TH、mSAD_THを設けるのは以下の理由による。即ち、閾値の存在により、差分平均値mSADや動き量MVがある程度の大きさになるまでは空間方向NR画像のブレンド率αが低くなる。これにより、残像が発生しにくい条件では時間方向NR画像のブレンド率(1−α)を高くでき、解像度を維持できるからである。   The thresholds mSAD_TH and mSAD_TH are provided for the following reason. That is, due to the presence of the threshold value, the blend ratio α of the spatial direction NR image is lowered until the difference average value mSAD and the motion amount MV become a certain level. This is because the blend ratio (1-α) of the time-direction NR image can be increased and the resolution can be maintained under conditions where afterimages are unlikely to occur.

ブレンド処理部612は、上記のようにして決定されたブレンド率αに基づいて、第1のノイズ低減処理部323からの時間方向NR画像と第2のノイズ低減処理部324からの空間方向NR画像とをブレンドする。   Based on the blend rate α determined as described above, the blend processing unit 612 performs the temporal direction NR image from the first noise reduction processing unit 323 and the spatial direction NR image from the second noise reduction processing unit 324. And blend.

具体的には、下式(17)によりブレンド結果の画像FG_NR(x,y)を求める。

Figure 0006242230
Specifically, the blended image FG_NR (x, y) is obtained by the following equation (17).
Figure 0006242230

ここで、FG_TimeNR(x,y)は時間方向NR画像の画素値であり、FG_SpaceNRは空間方向NR画像の画素値である。 Here, FG_TimeNR (x, y) is a pixel value of the time direction NR image, and FG_SpaceNR is a pixel value of the spatial direction NR image.

なお、上記ではブレンド率BLEND_mSAD、BLEND_MVを用いて空間方向NR画像のブレンド率αを算出する例を説明したが、これに限定されず、時間方向NR画像のブレンド率(1−α)を算出するようにしても良い。その場合は、図12、図13のグラフが右下がりとなる。   In the above description, the example of calculating the blend ratio α of the spatial direction NR image using the blend ratios BLEND_mSAD and BLEND_MV has been described. However, the present invention is not limited to this, and the blend ratio (1-α) of the time direction NR image is calculated. You may do it. In that case, the graphs of FIG. 12 and FIG.

以上の第1実施形態によれば、撮影条件取得部322は、撮像部200と被写体との間の相対的な動き量MVを動き情報として取得する。そして、画像合成部325は、動き量MVが大きいほど第1画像(時間方向NR画像)の合成度合いを低くすると共に第2画像(空間方向NR画像)の合成度合いを高くする。   According to the first embodiment described above, the imaging condition acquisition unit 322 acquires the relative motion amount MV between the imaging unit 200 and the subject as motion information. Then, the image composition unit 325 increases the degree of composition of the first image (time direction NR image) and increases the degree of composition of the second image (space direction NR image) as the motion amount MV increases.

具体的には、撮影条件取得部322は、撮像画像上での被写体のフレーム間における動きベクトルの大きさを動き量MVとして取得する。なお、動き量は画像から動きベクトルを検出する場合に限定されず、例えば撮像部200に加速度センサー等のモーションセンサー(変位量検出部)を設け、そのセンシング信号に基づいて動き量を検出してもよい。   Specifically, the imaging condition acquisition unit 322 acquires the magnitude of the motion vector between the frames of the subject on the captured image as the motion amount MV. The amount of motion is not limited to detecting a motion vector from an image. For example, a motion sensor (displacement amount detection unit) such as an acceleration sensor is provided in the imaging unit 200, and the amount of motion is detected based on the sensing signal. Also good.

このようにすれば、類似度が低い場合であっても、動き量MVが検出された場合には時間方向NR画像の合成度合いを低くできるので、最終的なNR画像において残像を抑制できる。   In this way, even if the degree of similarity is low, if the amount of motion MV is detected, the degree of synthesis of the time-direction NR image can be lowered, so that afterimages can be suppressed in the final NR image.

具体的には、図12に示すように、局所的な類似度が低くなるほど(差分平均値mSADの値が大きくなるほど)ブレンド率BLEND_mSADの値が大きくなるので、空間方向NR画像のブレンド率αが大きくなる。また、図13に示すように、グローバルな動き量MVが大きくなるほどブレンド率BLEND_MVの値が大きくなるので、空間方向NR画像のブレンド率αが大きくなる。   Specifically, as shown in FIG. 12, the blend ratio BLEND_mSAD increases as the local similarity decreases (as the difference average value mSAD increases), so that the blend ratio α of the spatial direction NR image increases. growing. Also, as shown in FIG. 13, as the global motion amount MV increases, the blend rate BLEND_MV increases, so the blend rate α of the spatial direction NR image increases.

これにより、局所的な類似度又はグローバルな動き量MVの少なくとも一方が大きい場合には、時間方向NR画像のブレンド率(1−α)が小さくなり、残像を低減できる。特に、局所的な類似度が高い(差分平均値mSADの値が小さい)場合であっても、グローバルな動き量MVが大きい場合には時間方向NR画像に残像が発生しやすいが、本実施形態ではグローバルな動き量MVを考慮しているため時間方向NR画像のブレンド率(1−α)が小さくなり、残像を抑制できる。   Thereby, when at least one of the local similarity or the global motion amount MV is large, the blend ratio (1-α) of the time direction NR image becomes small, and the afterimage can be reduced. In particular, even when the local similarity is high (the difference average value mSAD is small), if the global motion amount MV is large, an afterimage is likely to occur in the time-direction NR image. However, since the global motion amount MV is taken into consideration, the blend ratio (1-α) of the time-direction NR image is reduced, and the afterimage can be suppressed.

なお、第1実施形態では合成処理はブレンド処理であるが、第3実施形態で説明するように合成処理は選択処理であってもよい。選択処理の場合にも、上記と同様の効果が得られる。   In the first embodiment, the synthesis process is a blend process, but as described in the third embodiment, the synthesis process may be a selection process. In the case of the selection process, the same effect as described above can be obtained.

また第1実施形態では、撮影条件取得部322は、撮像画像の複数の領域について動きベクトルを検出し、その複数の領域についての動きベクトルを大きさmv(上式(7))の順に並べる。そして、撮影条件取得部322は、大きさmvが小さい方から所定割合の動きベクトルの平均値(上式(8))を動き量MVとして取得する。   In the first embodiment, the imaging condition acquisition unit 322 detects motion vectors for a plurality of areas of the captured image, and arranges the motion vectors for the plurality of areas in the order of magnitude mv (the above formula (7)). Then, the imaging condition acquisition unit 322 acquires the average value of the motion vectors at a predetermined ratio (the above equation (8)) as the motion amount MV from the smaller size mv.

例えば鉗子により処置を行っているような場合、背景が静止しているが、画面全体の中で比較的少ない領域の被写体(鉗子)が大きく動いている状況が生まれる。このような状況では、できるだけ時間方向NR画像を採用して解像度を高くすることが望ましい。   For example, when a treatment is performed with forceps, the background is stationary, but a subject (forceps) in a relatively small area in the entire screen moves greatly. In such a situation, it is desirable to increase the resolution by adopting the time direction NR image as much as possible.

しかしながら、このような場合に、全ての動き量mvを採用して最終的なグローバルな動き量MVを求めると、動いている被写体(鉗子)の動き量mvによりグローバルな動き量MVが大きくなってしまう。そうすると、背景が静止してグローバルな動きがないにも関わらず、動きがあるかのような動き量MVが算出され、時間方向NR画像の合成度合いが低くなる。   However, in such a case, when the final global motion amount MV is obtained by adopting all the motion amounts mv, the global motion amount MV increases due to the motion amount mv of the moving subject (forceps). End up. Then, although the background is stationary and there is no global motion, the motion amount MV as if there is motion is calculated, and the degree of synthesis of the time direction NR image is reduced.

この点、本実施形態では、大きさmvが小さい方から所定割合の動きベクトルを採用するので、上記の鉗子のような画像の一部で動きがあっても、その動きベクトルの大きさmvは除外される。これにより、背景に動きがない場合には動き量MVとして小さい値を算出でき、時間方向NR画像の合成度合いを高くできる。   In this regard, in the present embodiment, since a predetermined percentage of motion vectors is adopted from the smaller size mv, even if there is motion in a part of the image such as the above-mentioned forceps, the magnitude mv of the motion vector is Excluded. Thereby, when there is no motion in the background, a small value can be calculated as the motion amount MV, and the degree of synthesis of the time direction NR image can be increased.

3.第2実施形態
次に、第2実施形態について説明する。「1.本実施形態の概要」で説明したように、画質を低下させる2つ目の状況として画像の明るさに大きな変化が生じた場合がある。例えば、現フレームが暗い画像であり、前フレームが明るい画像であるとする。この場合、空間方向NR画像は現フレームと同じく暗い画像となり、時間方向NR画像は現フレームと前フレームを加算した中間の明るさの画像となる。これらの画像は、場所によって異なるブレンド率αでブレンドされるので、明るさの異なる画素や領域が隣り合わせとなり、その明るさの違いが偽輪郭として現れ、アーティファクトとなってしまう。
3. Second Embodiment Next, a second embodiment will be described. As described in “1. Overview of the present embodiment”, there is a case where a large change occurs in the brightness of the image as a second situation in which the image quality is deteriorated. For example, assume that the current frame is a dark image and the previous frame is a bright image. In this case, the spatial direction NR image is a dark image like the current frame, and the temporal direction NR image is an intermediate brightness image obtained by adding the current frame and the previous frame. Since these images are blended at different blend ratios α depending on places, pixels or regions having different brightness are adjacent to each other, and the difference in brightness appears as a false contour, resulting in an artifact.

そこで第2実施形態では、フレーム間における明るさの変化量を考慮してブレンド率αを決定する。なお、以下では撮影条件として動き量MVと明るさの変化量を組み合わせる場合を例に説明するが、これに限定されず、撮影条件として明るさの変化量のみを用いてもよい。   Therefore, in the second embodiment, the blend rate α is determined in consideration of the amount of change in brightness between frames. In the following, a case where the motion amount MV and the brightness change amount are combined as an imaging condition will be described as an example. However, the present invention is not limited to this, and only the brightness change amount may be used as the imaging condition.

図14に、第2実施形態における撮影条件取得部322の詳細な構成例を示す。撮影条件取得部322は、動きベクトル検出部601と動きベクトル整列部602と動きベクトル平均部603と明るさ変化量検出部604とを含む。なお、内視鏡装置及びノイズ低減処理部320の構成は第1実施形態と同じである。また、すでに説明した構成要素と同一の構成要素については同一の符号を付し、適宜説明を省略する。   FIG. 14 shows a detailed configuration example of the imaging condition acquisition unit 322 in the second embodiment. The imaging condition acquisition unit 322 includes a motion vector detection unit 601, a motion vector alignment unit 602, a motion vector average unit 603, and a brightness change amount detection unit 604. Note that the configurations of the endoscope apparatus and the noise reduction processing unit 320 are the same as those in the first embodiment. Further, the same components as those already described are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

明るさ変化量検出部604は、現フレームと前フレームのフレーム間における明るさの変化を、明るさの変化量として検出し、その明るさの変化量を画像合成部325へ転送する。   The brightness change amount detection unit 604 detects a change in brightness between the current frame and the previous frame as a brightness change amount, and transfers the brightness change amount to the image composition unit 325.

具体的には、下式(18)に示すように、現フレームの画素値又は輝度値の平均値Aveall_curと、前フレームの画素値又は輝度値の平均値Aveall_preとを求め、それらの差分値を明るさの変化量AVEall_diffとして求める。

Figure 0006242230
Specifically, as shown in the following equation (18) obtains an average value Ave All_cur pixel values or luminance values of the current frame and an average value Ave All_pre pixel value or luminance value of the previous frame, the difference between them The value is obtained as a brightness change amount AVE all_diff .
Figure 0006242230

平均値Aveall_cur、Aveall_preは画像全体の明るさを代表している。例えば、画像の中心位置(x,y)=(W/2,L/2)を中心とする所定矩形内の画素の画素値を平均して求められる。Wは水平走査方向の画像サイズであり、Lは垂直走査方向の画像サイズである。 The average values Ave all_cur and Ave all_pre represent the brightness of the entire image. For example, the pixel values of pixels within a predetermined rectangle centered at the center position (x, y) = (W / 2, L / 2) of the image are obtained by averaging. W is the image size in the horizontal scanning direction, and L is the image size in the vertical scanning direction.

画像合成部325は、上記で求めた明るさの変化量AVEall_diffと、第1実施形態で説明した類似度(差分平均値mSAD)及びグローバルの動き量MVに基づいて、時間方向NR画像と空間方向NR画像をブレンドする。 Based on the brightness change amount AVE all_diff obtained in the above, the similarity (difference average value mSAD) and the global motion amount MV described in the first embodiment, the image composition unit 325 determines the temporal direction NR image and the space. Blend direction NR images.

具体的には、第1実施形態の図11と同様に、画像合成部325はブレンド率決定部611とブレンド処理部612を含む。   Specifically, as in FIG. 11 of the first embodiment, the image composition unit 325 includes a blend rate determination unit 611 and a blend processing unit 612.

ブレンド率決定部611は、制御部390からブレンド率を決定するためのパラメーターを取得し、類似度検出部321から差分平均値mSADを取得し、撮影条件取得部322から動き量MVと明るさの変化量AVEall_diffを取得する。 The blend rate determination unit 611 acquires a parameter for determining the blend rate from the control unit 390, acquires the average difference value mSAD from the similarity detection unit 321, and acquires the motion amount MV and the brightness from the imaging condition acquisition unit 322. The change amount AVE all_diff is acquired.

ブレンド率αを決定する式は上式(9)と同じであるが、観察条件に関するブレンド率BLEND_CONDITIONは、下式(19)となる。BLEND_LNは、明るさの変化量AVEall_diffに関するブレンド率である。

Figure 0006242230
The formula for determining the blend rate α is the same as that in the above formula (9), but the blend rate BLEND_CONDITION relating to the observation condition is expressed by the following formula (19). BLEND_LN is a blend rate related to the brightness change amount AVE all_diff .
Figure 0006242230

ブレンド率BLEND_LNは、以下のようにして求める。即ち、メモリー250は、ブレンド率BLEND_LNを決定するのに用いるパラメーターとして閾値LN_THと傾きLN_SLPを保持している。これらのパラメーターは、予めメモリー250に登録しておく。制御部390は、メモリー250を参照して、パラメーターを画像合成部325に転送する。   The blend rate BLEND_LN is obtained as follows. In other words, the memory 250 holds the threshold value LN_TH and the gradient LN_SLP as parameters used to determine the blend ratio BLEND_LN. These parameters are registered in the memory 250 in advance. The control unit 390 refers to the memory 250 and transfers the parameters to the image composition unit 325.

図15に示すように、横軸をフレームごとの明るさの変化量AVEall_diffとし、縦軸をブレンド率BLEND_LNとする。まず、閾値LN_THと傾きLN_SLPを用いて下式(20)によりBLEND_LN’を求める。そして、下式(21)によりBLEND_LN’をクリッピングし、下式(22)に示すようにBLEND_LN’を正規化してブレンド率BLEND_LNを求める。

Figure 0006242230
Figure 0006242230
Figure 0006242230
As shown in FIG. 15, the horizontal axis represents the brightness change amount AVE all_diff for each frame, and the vertical axis represents the blend rate BLEND_LN. First, BLEND_LN ′ is obtained by the following equation (20) using the threshold value LN_TH and the gradient LN_SLP. Then, BLEND_LN ′ is clipped by the following equation (21), and BLEND_LN ′ is normalized as shown in the following equation (22) to obtain the blend ratio BLEND_LN.
Figure 0006242230
Figure 0006242230
Figure 0006242230

閾値LN_THを設けるのは以下の理由による。即ち、閾値の存在により、明るさの変化量AVEall_diffがある程度の大きさになるまでは空間方向NR画像のブレンド率αが低くなる。これにより、アーティファクトが発生しにくい条件では時間方向NR画像のブレンド率(1−α)を高くでき、解像度を維持できるからである。 The reason why the threshold value LN_TH is provided is as follows. That is, due to the presence of the threshold, the blend ratio α of the spatial direction NR image is lowered until the brightness change amount AVE all_diff becomes a certain level. This is because the blend ratio (1-α) of the time-direction NR image can be increased and the resolution can be maintained under conditions where artifacts are unlikely to occur.

なお、上記ではブレンド率BLEND_mSAD、BLEND_CONDITIONを用いて空間方向NR画像のブレンド率αを算出する例を説明したが、これに限定されず、時間方向NR画像のブレンド率(1−α)を算出するようにしても良い。その場合は、図12、図13、図15のグラフが右下がりとなる。   In the above description, the example of calculating the blend ratio α of the spatial direction NR image using the blend ratios BLEND_mSAD and BLEND_CONDITION has been described. You may do it. In that case, the graphs of FIG. 12, FIG. 13, and FIG.

以上の第2実施形態によれば、撮影条件取得部322は、撮像画像のフレーム間における明るさの変化量AVEall_diffを動き情報として取得する。そして、画像合成部325は、明るさの変化量AVEall_diffが大きいほど第1画像(時間方向NR画像)の合成度合いを低くすると共に第2画像(空間方向NR画像)の合成度合いを高くする。 According to the second embodiment described above, the imaging condition acquisition unit 322 acquires the brightness change amount AVE all_diff between frames of the captured image as motion information. The image composition unit 325 lowers the degree of synthesis of the first image (time direction NR image) and increases the degree of synthesis of the second image (space direction NR image) as the brightness change amount AVE all_diff is larger.

このようにすれば、類似度が低い場合であっても、明るさの変化量AVEall_diffが検出された場合には時間方向NR画像の合成度合いを低くできるので、アーティファクトを抑制できる。 In this way, even if the degree of similarity is low, if the brightness change amount AVE all_diff is detected, the degree of synthesis of the time-direction NR image can be lowered, and thus artifacts can be suppressed.

具体的には、図15に示すように、明るさの変化量AVEall_diffが大きくなるほどブレンド率BLEND_LNの値が大きくなるので、空間方向NR画像のブレンド率αが大きくなる。即ち、局所的な類似度が高い(差分平均値mSADの値が小さい)場合であっても、画像全体の明るさの変化量AVEall_diffが大きい場合には時間方向NR画像のブレンド率(1−α)が小さくなる。これにより、明るさが異なる空間方向NR画像と時間方向NR画像が混在してブレンドされることがなくなり、アーティファクトを抑制できる。 Specifically, as shown in FIG. 15, as the brightness change amount AVE all_diff increases, the value of the blend rate BLEND_LN increases, so the blend rate α of the spatial direction NR image increases. That is, even when the local similarity is high (the difference average value mSAD is small), if the brightness change amount AVE all_diff of the entire image is large, the blend ratio (1− α) becomes smaller. Thereby, the spatial direction NR image and the time direction NR image having different brightness are not mixed and blended, and the artifact can be suppressed.

なお、第2実施形態では合成処理はブレンド処理であるが、第3実施形態で説明するように合成処理は選択処理であってもよい。選択処理の場合にも、上記と同様の効果が得られる。   In the second embodiment, the synthesis process is a blend process, but as described in the third embodiment, the synthesis process may be a selection process. In the case of the selection process, the same effect as described above can be obtained.

4.第3実施形態
次に、第3実施形態について説明する。第3実施形態では、類似度である差分平均値mSADと動き量MVと明るさの変化量AVEall_diffを用いて閾値を決定し、その閾値に基づいて時間方向NR画像と空間方向NR画像のいずれかを選択する。
4). Third Embodiment Next, a third embodiment will be described. In the third embodiment, a threshold value is determined using a difference average value mSAD that is a similarity, a motion amount MV, and a brightness change amount AVE all_diff , and based on the threshold value, either a time direction NR image or a spatial direction NR image Select.

なお、以下では動き量MVと明るさの変化量AVEall_diffの双方を用いて閾値を決定する場合を説明するが、これに限定されず、動き量MVと明るさの変化量AVEall_diffのいずれか一方を用いて閾値を決定してもよい。 In the following description, the threshold value is determined using both the motion amount MV and the brightness change amount AVE all_diff. However, the present invention is not limited to this, and any one of the motion amount MV and the brightness change amount AVE all_diff is described. One may be used to determine the threshold value.

図16に、第3実施形態における画像合成部325の詳細な構成例を示す。画像合成部325は、閾値決定部621と選択部622を含む。なお、内視鏡装置及びノイズ低減処理部320の構成は第1実施形態と同じであり、撮影条件取得部322の構成は第2実施形態と同じである。また、すでに説明した構成要素と同一の構成要素については同一の符号を付し、適宜説明を省略する。   FIG. 16 shows a detailed configuration example of the image composition unit 325 in the third embodiment. The image composition unit 325 includes a threshold value determination unit 621 and a selection unit 622. The configuration of the endoscope apparatus and noise reduction processing unit 320 is the same as that of the first embodiment, and the configuration of the imaging condition acquisition unit 322 is the same as that of the second embodiment. Further, the same components as those already described are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

メモリー250は、類似度に関する閾値mSAD_THをパラメーターとして保持している。制御部390は、メモリー250に保持されているパラメーターを参照し、画像合成部325にパラメーターを送る。   The memory 250 holds a threshold mSAD_TH related to the similarity as a parameter. The control unit 390 refers to the parameters held in the memory 250 and sends the parameters to the image composition unit 325.

閾値決定部621は、制御部390から閾値を決定するためのパラメーターを取得し、類似度検出部321から類似度(差分平均値mSAD)を取得し、撮影条件取得部322から動き量MVと明るさの変化量AVEall_diffを取得する。閾値決定部621は、取得した類似度、動き量、明るさの変化量に基づいて閾値を決定する。 The threshold determination unit 621 acquires a parameter for determining a threshold from the control unit 390, acquires a similarity (difference average value mSAD) from the similarity detection unit 321, and acquires the motion amount MV and the brightness from the imaging condition acquisition unit 322. The change amount AVE all_diff of the length is acquired. The threshold determination unit 621 determines a threshold based on the obtained similarity, motion amount, and brightness change amount.

具体的には、閾値決定部621では、閾値mSAD_THと、撮影条件に関する値CONDITION_VALを用いて、下式(23)のように閾値mSAD_TH’を再設定する。

Figure 0006242230
Specifically, the threshold value determination unit 621 resets the threshold value mSAD_TH ′ as shown in the following equation (23) using the threshold value mSAD_TH and the value CONDITION_VAL related to the imaging condition.
Figure 0006242230

ここで、CONDITION_VALは、動き量MVと明るさの変化量AVEall_diffを用いて下式(24)のように算出する。CONDITION_VALの下限値0と上限値64は任意の値に設定可能である。また、上式(23)においてCONDITION_VAL/64の分母64は、CONDITION_VALの上限値と同一の値であり、正規化を意味する。

Figure 0006242230
Here, CONDITION_VAL is calculated by the following equation (24) using the motion amount MV and the brightness change amount AVE all_diff . The lower limit value 0 and the upper limit value 64 of CONDITION_VAL can be set to arbitrary values. In the above formula (23), the denominator 64 of CONDITION_VAL / 64 is the same value as the upper limit value of CONDITION_VAL, which means normalization.
Figure 0006242230

上式(23)、(24)によれば、動き量MV又は明るさの変化量AVEall_diffが大きいほど閾値mSAD_THよりも小さくなるような閾値mSAD_TH’を設定することができる。 According to the above equations (23) and (24), the threshold value mSAD_TH ′ can be set such that the larger the motion amount MV or the brightness change amount AVE all_diff, the smaller the threshold value mSAD_TH.

選択部622は、閾値mSAD_TH’に基づいて、時間方向NR画像若しくは、空間方向NR画像の何れかを選択し、その選択した画像をフレームメモリー330と表示画像生成部340に転送する。   The selection unit 622 selects either the time direction NR image or the space direction NR image based on the threshold value mSAD_TH ′, and transfers the selected image to the frame memory 330 and the display image generation unit 340.

具体的には、選択部622は、再設定された閾値mSAD_TH’と類似度である差分平均値mSADを用いて下式(25)のように判別処理を行う。

Figure 0006242230
Specifically, the selection unit 622 performs a determination process as shown in the following equation (25) using the reset threshold value mSAD_TH ′ and the difference average value mSAD that is the similarity.
Figure 0006242230

G_TimeNR(x,y)は時間方向NR画像の画素値であり、FG_SpaceNRは空間方向NR画像の画素値であり、FG_NR(x,y)は選択された画像である。 F G_TimeNR (x, y) is a pixel value of the time direction NR image, F G_SpaceNR is a pixel value of the spatial direction NR image, and F G_NR (x, y) is the selected image.

差分平均値mSADがmSAD_TH’よりも小さい場合は、差分平均値mSADによる局所的な動き検出が成功している、或は現フレームと前フレームで明るさの変化が少ないと判断できるので、時間方向のノイズ低減処理の結果を選択する。一方、差分平均値mSADがmSAD_TH’よりも大きい場合は、差分平均値mSADによる局所的な動き検出が失敗している、或は現フレームと前フレームの明るさの変化が大きいと判断できるので、空間方向のノイズ低減処理の結果を選択する。このようにして、撮影条件を考慮することにより残像やアーティファクトを抑制できる。   When the difference average value mSAD is smaller than mSAD_TH ′, it can be determined that the local motion detection based on the difference average value mSAD is successful, or that there is little change in brightness between the current frame and the previous frame. Select the result of noise reduction processing. On the other hand, when the difference average value mSAD is larger than mSAD_TH ′, it can be determined that the local motion detection based on the difference average value mSAD has failed, or the change in brightness between the current frame and the previous frame is large. Select the result of noise reduction processing in the spatial direction. In this way, afterimages and artifacts can be suppressed by taking the imaging conditions into consideration.

5.第4実施形態
次に、第4実施形態について説明する。第4実施形態では、明るさの変化量AVEall_diffに基づいて画像の明るさを補正することで、空間方向NR画像と時間方向NR画像の明るさを合わせ、アーティファクトを抑制する。具体的には、時間方向NR画像に明るさの変化量AVEall_diffを加算してから空間方向NR画像とブレンド若しくは選択を行う。
5. Fourth Embodiment Next, a fourth embodiment will be described. In the fourth embodiment, by correcting the brightness of the image based on the brightness change amount AVE all_diff , the brightness of the spatial direction NR image and the time direction NR image are matched, and artifacts are suppressed. Specifically, the brightness change amount AVE all_diff is added to the time direction NR image, and then blended or selected with the spatial direction NR image.

まず、ブレンドを行う場合について説明する。画像合成部325の構成は図11の第1実施形態と同じである。また、内視鏡装置及びノイズ低減処理部320の構成は図1、図5の第1実施形態と同じであり、撮影条件取得部322の構成は図14の第2実施形態と同じである。   First, a case where blending is performed will be described. The configuration of the image composition unit 325 is the same as that of the first embodiment of FIG. Further, the configuration of the endoscope apparatus and noise reduction processing unit 320 is the same as that of the first embodiment of FIGS. 1 and 5, and the configuration of the imaging condition acquisition unit 322 is the same as that of the second embodiment of FIG.

明るさ変化量検出部604は、下式(26)に示すように、注目画素(x、y)を中心とする所定矩形内における現フレームの画素値の平均値AVEcur(x,y)と前フレームの画素値の平均値AVEpre(x+u,x+v)をとり、現フレームと前フレームの明るさの変化量AVEdiff(x,y)を算出する。(u,v)は上式(2)の動きベクトル(u,v)である。即ち、明るさ変化量検出部604は、第1のノイズ低減処理部323により検出された動きベクトル(u,v)を受けて、位置合わせを行う。なお、動き検出をしなかった場合には(u,v)=(0,0)である。

Figure 0006242230
As shown in the following equation (26), the brightness change amount detection unit 604 calculates the average value AVE cur (x, y) of the pixel values of the current frame within a predetermined rectangle centered on the target pixel (x, y). An average value AVE pre (x + u, x + v) of the pixel values of the previous frame is taken, and a brightness change amount AVE diff (x, y) between the current frame and the previous frame is calculated. (U, v) is a motion vector (u, v) of the above equation (2). That is, the brightness change amount detection unit 604 receives the motion vector (u, v) detected by the first noise reduction processing unit 323 and performs alignment. If no motion is detected, (u, v) = (0, 0).
Figure 0006242230

画像合成部325は、下式(27)に示すように、明るさの変化量AVEdiff(x,y)を時間方向NR画像FG_TimeNR(x,y)に加算し、その画像と空間方向NR画像FG_SpaceNR(x,y)とをブレンドする。

Figure 0006242230
The image composition unit 325 adds the brightness change amount AVE diff (x, y) to the time direction NR image FG_TimeNR (x, y) as shown in the following expression (27), and the image and the spatial direction NR. The image FG_SpaceNR (x, y) is blended.
Figure 0006242230

次に、選択を行う場合について説明する。画像合成部325の構成は図16の第3実施形態と同じである。また、内視鏡装置及びノイズ低減処理部320の構成は図1、図5の第1実施形態と同じであり、撮影条件取得部322の構成は図14の第2実施形態と同じである。   Next, a case where selection is performed will be described. The configuration of the image composition unit 325 is the same as that of the third embodiment in FIG. Further, the configuration of the endoscope apparatus and noise reduction processing unit 320 is the same as that of the first embodiment of FIGS. 1 and 5, and the configuration of the imaging condition acquisition unit 322 is the same as that of the second embodiment of FIG.

明るさ変化量検出部604は、上式(26)により明るさの変化量AVEdiff(x,y)を算出する。そして、画像合成部325は、下式(28)に示すように、明るさの変化量AVEdiff(x,y)を時間方向NR画像FG_TimeNR(x,y)に加算し、その画像と空間方向NR画像FG_SpaceNR(x,y)のいずれかを選択する。

Figure 0006242230
The brightness change amount detection unit 604 calculates the brightness change amount AVE diff (x, y) by the above equation (26). Then, the image composition unit 325 adds the brightness change amount AVE diff (x, y) to the time direction NR image FG_TimeNR (x, y) as shown in the following equation (28), and the image and space One of the direction NR images FG_SpaceNR (x, y) is selected.
Figure 0006242230

以上の処理の効果として、明るさの変化量AVEdiff(x,y)を時間方向NR画像に加算してからブレンドすることで、明るさの違いによるアーティファクトを防ぐことができる。 As an effect of the above processing, the brightness change amount AVE diff (x, y) is added to the time direction NR image and then blended, thereby preventing artifacts due to the difference in brightness.

6.第5実施形態
次に、第5実施形態について説明する。第5実施形態では、画像の種類を撮影条件としてブレンド率や選択を制御する。
6). Fifth Embodiment Next, a fifth embodiment will be described. In the fifth embodiment, the blend rate and selection are controlled using the type of image as a shooting condition.

図17に、第5実施形態における内視鏡装置の構成例を示す。内視鏡装置は、光源部100と、撮像部200と、制御装置300と、表示部400と、外部I/F部500と、を含む。なお以下では、すでに説明した構成要素と同一の構成要素については同一の符号を付し、適宜説明を省略する。   FIG. 17 shows a configuration example of an endoscope apparatus according to the fifth embodiment. The endoscope apparatus includes a light source unit 100, an imaging unit 200, a control device 300, a display unit 400, and an external I / F unit 500. In the following description, the same components as those already described are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

撮像部200は、ライトガイドファイバー210と、照明レンズ220と、集光レンズ230と、撮像素子240と、メモリー250と、フィルター駆動部280と、狭帯域フィルター290と、を含む。フィルター駆動部280は狭帯域フィルター290に接続されており、さらに制御部390と双方向に接続されている。   The imaging unit 200 includes a light guide fiber 210, an illumination lens 220, a condenser lens 230, an imaging device 240, a memory 250, a filter driving unit 280, and a narrow band filter 290. The filter driving unit 280 is connected to the narrow band filter 290 and further connected to the control unit 390 in both directions.

狭帯域フィルター290は、図18に示すように、380〜450nm、及び530〜550nmの光を透過する。また、狭帯域フィルター290は、集光レンズ230及び撮像素子240の間の光路に挿入できるようになっている。狭帯域フィルター290の挿入・非挿入は、例えば外部I/F部500よりユーザーが制御する。この場合、ユーザーの指示が、外部I/F部500より制御部390を介してフィルター駆動部280に送られ、フィルター駆動部280が狭帯域フィルター290を駆動する。狭帯域フィルター290が光路中に挿入されている場合、制御部390は、補間処理部310及びノイズ低減処理部320へトリガー信号を出力する。   As shown in FIG. 18, the narrow band filter 290 transmits light of 380 to 450 nm and 530 to 550 nm. The narrow band filter 290 can be inserted into the optical path between the condenser lens 230 and the image sensor 240. The insertion / non-insertion of the narrow band filter 290 is controlled by the user from the external I / F unit 500, for example. In this case, a user instruction is sent from the external I / F unit 500 to the filter driving unit 280 via the control unit 390, and the filter driving unit 280 drives the narrow band filter 290. When the narrowband filter 290 is inserted in the optical path, the control unit 390 outputs a trigger signal to the interpolation processing unit 310 and the noise reduction processing unit 320.

補間処理部310は、撮像素子240により撮影される画像に対して補間処理を行う。補間処理部310は、上述のトリガー信号が制御部390から出力されてない場合(狭帯域フィルター290が挿入されてない場合)には、第1実施形態と同一の手法によりRGB画像を生成する。以下では狭帯域フィルター290が挿入されない場合に取得されるRGB画像を、白色光画像と呼ぶ。   The interpolation processing unit 310 performs interpolation processing on the image captured by the image sensor 240. When the above-described trigger signal is not output from the control unit 390 (when the narrowband filter 290 is not inserted), the interpolation processing unit 310 generates an RGB image by the same method as in the first embodiment. Hereinafter, the RGB image acquired when the narrowband filter 290 is not inserted is referred to as a white light image.

一方、トリガー信号が制御部390から出力されている場合(狭帯域フィルター290が挿入されている場合)には、補間処理部310は、G信号及びB信号に対してのみ補間処理を行う。補間処理は、例えば公知のバイキュービック補間処理である。この場合、補間処理部310は、全画素においてG信号を有するG画像と、全画素においてB信号を有するB画像とを、補間処理により生成する。そして、RGB画像のR信号にG画像を入力し、RGB画像のG信号とB信号にB画像を入力することで、RGB画像を生成する。以下では、狭帯域フィルター290が挿入されている場合に取得されるRGB画像を、狭帯域光画像(特殊光画像)と呼ぶ。   On the other hand, when the trigger signal is output from the control unit 390 (when the narrowband filter 290 is inserted), the interpolation processing unit 310 performs interpolation processing only on the G signal and the B signal. The interpolation process is, for example, a known bicubic interpolation process. In this case, the interpolation processing unit 310 generates a G image having a G signal in all pixels and a B image having a B signal in all pixels by interpolation processing. Then, the RGB image is generated by inputting the G image to the R signal of the RGB image and inputting the B image to the G signal and the B signal of the RGB image. Hereinafter, the RGB image acquired when the narrowband filter 290 is inserted is referred to as a narrowband light image (special light image).

なお、上記では、狭帯域フィルター290を光路に挿入することにより狭帯域光画像を撮像する場合を例に説明したが、本実施形態はこれに限定されない。例えば、光源部100が、特殊光(狭義には狭帯域光)を出射することにより狭帯域光画像を撮像してもよい。あるいは、撮像部200が、特殊光を透過する色フィルターを有する撮像素子を更に含み、その撮像素子により狭帯域光画像を撮像してもよい。あるいは、画像処理により白色光画像から狭帯域光画像を生成してもよい。   In the above description, the case where a narrowband light image is captured by inserting the narrowband filter 290 into the optical path has been described as an example. However, the present embodiment is not limited to this. For example, the light source unit 100 may capture a narrowband light image by emitting special light (narrowband light in a narrow sense). Alternatively, the imaging unit 200 may further include an imaging element having a color filter that transmits special light, and a narrowband light image may be captured by the imaging element. Alternatively, a narrow band light image may be generated from a white light image by image processing.

さて、狭帯域光画像は、白色光画像と比べて光の波長帯域が狭いので光量が不足し、ノイズが増加(S/Nが低下)する。即ち、白色光画像と狭帯域光画像とでは撮影条件が異なっている。上述したようにS/Nが低下した画像ではNR画像に残像が出やすいため、白色光画像と同じブレンド率や閾値で狭帯域光画像のノイズ低減処理を行うと、狭帯域光画像のNR画像に残像が出てしまうという課題がある。   Now, since the narrow-band light image has a narrower wavelength band of light than the white light image, the amount of light is insufficient and noise increases (S / N decreases). That is, the photographing conditions are different between the white light image and the narrow-band light image. As described above, since an afterimage is likely to appear in an NR image in an image with a reduced S / N, if the noise reduction processing of a narrowband light image is performed with the same blend ratio and threshold as the white light image, the NR image of the narrowband light image There is a problem that an afterimage appears.

そこで本実施形態では、撮影条件に画像の種類を用いることで、それぞれの画像に合ったブレンド率や閾値の設定をする。白色光画像の場合は、第1実施形態で設定されたブレンド率や閾値を用い、狭帯域光画像の場合は、白色光画像と比べてノイズ量が増加し、差分平均値mSADによる判定精度が低下してしまうことを考慮してブレンド率や閾値を設定する。具体的には、白色光画像と比べて、空間方向NR画像を用いる割合を増やす。   Therefore, in the present embodiment, by using the type of image as the shooting condition, a blend rate and a threshold value that match each image are set. In the case of a white light image, the blend rate and threshold set in the first embodiment are used. In the case of a narrow band light image, the amount of noise increases compared to the white light image, and the determination accuracy based on the difference average value mSAD is improved. The blend rate and threshold value are set in consideration of the decrease. Specifically, the ratio of using the spatial direction NR image is increased as compared with the white light image.

このように、画像の種類に合わせて、時間方向NR画像と空間方向NR画像のブレンド率や閾値を決定し、ブレンドや選択を行うことで、残像を低減した高性能なノイズ低減を実現できる。   As described above, by determining the blending rate and threshold value of the time direction NR image and the spatial direction NR image in accordance with the type of the image, and performing blending and selection, high-performance noise reduction with reduced afterimage can be realized.

まず、ブレンドを行う場合について説明する。図19に、第5実施形態における撮影条件取得部322の詳細な構成例を示す。撮影条件取得部322は、動きベクトル検出部601と動きベクトル整列部602と動きベクトル平均部603と明るさ変化量検出部604と種類情報取得部605とを含む。なお、ノイズ低減処理部320及び画像合成部325の構成は図5、図11の第1実施形態と同じである。   First, a case where blending is performed will be described. FIG. 19 shows a detailed configuration example of the imaging condition acquisition unit 322 in the fifth embodiment. The imaging condition acquisition unit 322 includes a motion vector detection unit 601, a motion vector alignment unit 602, a motion vector average unit 603, a brightness change amount detection unit 604, and a type information acquisition unit 605. The configurations of the noise reduction processing unit 320 and the image composition unit 325 are the same as those in the first embodiment shown in FIGS.

種類情報取得部605は、白色光画像か狭帯域光画像かを識別するための種類情報を制御部390から取得する。種類情報は、外部I/F部500によりユーザーが狭帯域フィルター290を挿入した場合に制御部390が出力するトリガー信号である。例えば、制御部390は、白色光画像の場合は“0”をトリガー信号として出力し、狭帯域光画像の場合は“1”をトリガー信号として出力する。種類情報取得部605は、画像合成部325と接続されており、種類情報を画像合成部325に転送する。   The type information acquisition unit 605 acquires type information for identifying whether it is a white light image or a narrow band light image from the control unit 390. The type information is a trigger signal output from the control unit 390 when the user inserts the narrow band filter 290 by the external I / F unit 500. For example, the control unit 390 outputs “0” as a trigger signal for a white light image, and outputs “1” as a trigger signal for a narrowband light image. The type information acquisition unit 605 is connected to the image composition unit 325 and transfers the type information to the image composition unit 325.

画像合成部325は、撮影条件取得部322から取得した種類情報に応じたパラメーターと類似度からブレンド率αを算出し、そのブレンド率αに基づいてブレンド処理を行う。   The image composition unit 325 calculates a blend rate α from parameters and similarities according to the type information acquired from the imaging condition acquisition unit 322, and performs a blend process based on the blend rate α.

具体的には、メモリー250は、白色光画像に対応するブレンド率BLEND_WILと狭帯域画像に対応するブレンド率BLEND_NBIを保持している。BLEND_NBI、BLEND_WILは0以上1以下であり、BLEND_NBIはBLEND_WILよりも大きい値を持つ。   Specifically, the memory 250 holds a blend rate BLEND_WIL corresponding to a white light image and a blend rate BLEND_NBI corresponding to a narrowband image. BLEND_NBI and BLEND_WIL are 0 or more and 1 or less, and BLEND_NBI has a larger value than BLEND_WIL.

ブレンド率決定部611は、撮影条件取得部322から種類情報を取得し、撮影条件に関するブレンド率BLEND_CONDITIONを下式(29)により算出する。

Figure 0006242230
The blend rate determination unit 611 acquires type information from the shooting condition acquisition unit 322, and calculates a blend rate BLEND_CONDITION related to the shooting conditions by the following equation (29).
Figure 0006242230

BLEND_IMAGETYPEは、画像の種類に関するブレンド率である。ブレンド率決定部611は、下式(30)に示すように、トリガー信号TS=0の場合には、白色光画像に対応したブレンド率BLEND_WLIをブレンド率BLEND_IMAGETYPEとして設定する。一方、トリガー信号TS=1の場合には、狭帯域光画像に対応したブレンド率BLEND_NBIをブレンド率BLEND_IMAGETYPEとして設定する。

Figure 0006242230
BLEND_IMAGEGETTYPE is a blend rate related to the type of image. As shown in the following formula (30), the blend rate determination unit 611 sets the blend rate BLEND_WLI corresponding to the white light image as the blend rate BLEND_IMAGETYPE when the trigger signal TS = 0. On the other hand, when the trigger signal TS = 1, the blend rate BLEND_NBI corresponding to the narrow-band light image is set as the blend rate BLEND_IMAGETYPE.
Figure 0006242230

ブレンド処理部612は、上記のようにして設定したブレンド率BLEND_CONDITIONを上式(9)に代入してブレンド率αを求め、上式(17)により時間方向NR画像と空間方向NR画像をブレンドする。   The blend processing unit 612 calculates the blend rate α by substituting the blend rate BLEND_CONDITION set as described above into the above equation (9), and blends the time direction NR image and the spatial direction NR image by the above equation (17). .

次に、選択を行う場合について説明する。撮影条件取得部322及びノイズ低減処理部320の構成はブレンドを行う場合と同じである。また、画像合成部325の構成は図16の第3実施形態と同じである。   Next, a case where selection is performed will be described. The configurations of the imaging condition acquisition unit 322 and the noise reduction processing unit 320 are the same as those in the case of blending. The configuration of the image composition unit 325 is the same as that of the third embodiment in FIG.

メモリー250は、白色光画像に対応する値VAL_WLIと狭帯域画像に対応する値VAL_NBIを保持している。ただし、VAL_NBIはVAL_WLIよりも大きい値を持つ。   The memory 250 holds a value VAL_WLI corresponding to the white light image and a value VAL_NBI corresponding to the narrow band image. However, VAL_NBI has a larger value than VAL_WLI.

閾値決定部621は、撮影条件取得部322から種類情報を取得し、撮影条件に関する値CONDITION_VALを下式(31)により算出する。

Figure 0006242230
The threshold value determination unit 621 acquires type information from the imaging condition acquisition unit 322, and calculates a value CONDITION_VAL related to the imaging condition by the following equation (31).
Figure 0006242230

VAL_IMAGETYPEは画像の種類に関する値である。閾値決定部621は、下式(32)に示すように、トリガー信号TS=0の場合には、白色光画像に対応した値VAL_WLIを値VAL_IMAGETYPEとして設定する。一方、トリガー信号TS=1の場合には、狭帯域光画像に対応した値VAL_NBIを値VAL_IMAGETYPEとして設定する。

Figure 0006242230
VAL_IMAGETYPE is a value related to the type of image. As shown in the following equation (32), the threshold value determination unit 621 sets the value VAL_WLI corresponding to the white light image as the value VAL_IMAGETYPE when the trigger signal TS = 0. On the other hand, when the trigger signal TS = 1, the value VAL_NBI corresponding to the narrow band light image is set as the value VAL_IMAGEGETE.
Figure 0006242230

閾値決定部621は、上記のようにして設定した値CONDITION_VALを上式(23)に代入して閾値mSAD_TH’を求め、上式(25)により時間方向NR画像と空間方向NR画像のいずれかを選択する。   The threshold value determination unit 621 obtains the threshold value mSAD_TH ′ by substituting the value CONDITION_VAL set as described above into the above equation (23), and obtains either the time direction NR image or the spatial direction NR image by the above equation (25). select.

以上の第5実施形態によれば、撮影条件取得部322は、撮像画像の種類を撮影条件として取得する。そして、画像合成部325は、撮像画像の種類が第1の種類である場合と、撮像画像の種類が第2の種類である場合とで、合成度合いを変更する。   According to the fifth embodiment described above, the shooting condition acquisition unit 322 acquires the type of the captured image as the shooting condition. Then, the image composition unit 325 changes the degree of composition between the case where the type of the captured image is the first type and the case where the type of the captured image is the second type.

具体的には、第1の種類は、白色の波長帯域における情報を有した白色光画像であり、第2の種類は、特定の波長帯域における情報を有した特殊光画像(狭帯域光画像)である。そして、画像合成部325は、撮像画像の種類が特殊光画像である場合には、撮像画像の種類が白色光画像である場合に比べて、第1画像(時間方向NR画像)の合成度合いを低くすると共に第2画像(空間方向NR画像)の合成度合いを高くする。   Specifically, the first type is a white light image having information in a white wavelength band, and the second type is a special light image (narrow band light image) having information in a specific wavelength band. It is. Then, when the type of the captured image is a special light image, the image composition unit 325 increases the degree of synthesis of the first image (time direction NR image) compared to the case where the type of the captured image is a white light image. While lowering, the synthesis degree of the second image (spatial direction NR image) is increased.

このように、画像の種類に応じて異なる合成度合いで合成処理(ブレンド処理又は選択処理)を行うことで、残像が発生しやすい画像の種類である場合であっても時間方向NR画像の合成度合いを下げて、残像を抑制できる。   In this way, by performing synthesis processing (blend processing or selection processing) with different synthesis levels depending on the type of image, the degree of synthesis of the time direction NR image even when the type of image is likely to generate afterimages. The afterimage can be suppressed by lowering.

具体的には、白色光画像の場合は、第1実施形態で設定されたブレンド率や閾値を用い、狭帯域光画像の場合は、白色光画像と比べてノイズ量が増加し、差分平均値mSADによる判定精度が低下してしまうことを考慮してブレンド率や閾値を設定する。即ち、白色光画像と比べて、空間方向NR画像を用いる割合を増やすことで、最終的なNR画像において残像を抑制できる。   Specifically, in the case of a white light image, the blend ratio and the threshold set in the first embodiment are used. In the case of a narrow band light image, the amount of noise increases compared to the white light image, and the difference average value A blend rate and a threshold value are set in consideration of a decrease in determination accuracy by mSAD. In other words, afterimages can be suppressed in the final NR image by increasing the ratio of using the spatial direction NR image compared to the white light image.

また第5実施形態によれば、特定の波長帯域は、白色の波長帯域(例えば380nm〜650nm)よりも狭い帯域である(NBI:Narrow Band Imaging)。例えば、白色光画像及び特殊光画像は、生体内を写した生体内画像であり、その生体内画像に含まれる特定の波長帯域は、血液中のヘモグロビンに吸収される波長の波長帯域である。例えば、このヘモグロビンに吸収される波長は、390nm〜445nm(第1の狭帯域光)、または530nm〜550nm(第2の狭帯域光)である。   According to the fifth embodiment, the specific wavelength band is a band narrower than the white wavelength band (for example, 380 nm to 650 nm) (NBI: Narrow Band Imaging). For example, a white light image and a special light image are in-vivo images obtained by copying the inside of a living body, and a specific wavelength band included in the in-vivo image is a wavelength band of a wavelength that is absorbed by hemoglobin in blood. For example, the wavelength absorbed by the hemoglobin is 390 nm to 445 nm (first narrowband light) or 530 nm to 550 nm (second narrowband light).

これにより、生体の表層部及び、深部に位置する血管の構造を観察することが可能になる。また得られた信号を特定のチャンネル(G2→R、B2→G,B)に入力することで、扁平上皮癌等の通常光では視認が難しい病変などを褐色等で表示することができ、病変部の見落としを抑止することができる。なお、390nm〜445nmまたは530nm〜550nmとは、ヘモグロビンに吸収されるという特性及び、それぞれ生体の表層部または深部まで到達するという特性から得られた数字である。ただし、この場合の波長帯域はこれに限定されず、例えばヘモグロビンによる吸収と生体の表層部又は深部への到達に関する実験結果等の変動要因により、波長帯域の下限値が0〜10%程度減少し、上限値が0〜10%程度上昇することも考えられる。   Thereby, it becomes possible to observe the structure of the blood vessel located in the surface layer part and the deep part of the living body. In addition, by inputting the obtained signals to specific channels (G2 → R, B2 → G, B), lesions that are difficult to see with normal light such as squamous cell carcinoma can be displayed in brown, etc. Oversight of parts can be suppressed. Note that 390 nm to 445 nm or 530 nm to 550 nm are numbers obtained from the characteristic of being absorbed by hemoglobin and the characteristic of reaching the surface layer or the deep part of the living body, respectively. However, the wavelength band in this case is not limited to this. For example, the lower limit of the wavelength band is reduced by about 0 to 10% due to the variation factors such as the absorption by hemoglobin and the experimental results regarding the arrival of the living body on the surface layer or the deep part. It is also conceivable that the upper limit value increases by about 0 to 10%.

7.ソフトウェア
以上に説明した実施形態では、例えば、画像処理装置を構成する各部をハードウェアで構成してもよいし、或は、撮像画像に対してプロセッサーが各部の処理を行う構成としてもよい。例えば、プロセッサーがプログラムを実行することによって画像処理装置をソフトウェアとして実現することとしてもよい。或は、画像処理装置の各部が行う処理の一部をソフトウェアで構成することとしてもよい。ソフトウェアとして実現する場合、情報記憶媒体に記憶されたプログラムが読み出され、読み出されたプログラムをプロセッサーが実行する。
7). Software In the embodiment described above, for example, each unit configuring the image processing apparatus may be configured by hardware, or the processor may perform a process of each unit for a captured image. For example, the image processing apparatus may be realized as software by a processor executing a program. Alternatively, part of the processing performed by each unit of the image processing apparatus may be configured by software. When implemented as software, the program stored in the information storage medium is read, and the processor executes the read program.

ここで、プロセッサーは、例えばCPUやMPU、DSP、GPU等の汎用のプロセッサーであってもよいし、ASIC等の専用に設計されたプロセッサーであってもよい。即ち、プロセッサーは、処理を記述したプログラムを外部から読み込んで実行する汎用のプロセッサーであってもよいし、その処理を専用に行う回路を予め組み込んだ専用のプロセッサーであってもよい。また、プロセッサーは1つのチップで構成されてもよいし、複数のチップを組み合わせて構成されてもよい。   Here, the processor may be a general-purpose processor such as a CPU, MPU, DSP, or GPU, or may be a dedicated processor such as an ASIC. That is, the processor may be a general-purpose processor that reads and executes a program describing processing from the outside, or may be a dedicated processor in which a circuit dedicated to the processing is incorporated in advance. Further, the processor may be configured by one chip or may be configured by combining a plurality of chips.

また、情報記憶媒体(コンピューターにより読み取り可能な媒体)は、プログラムやデータなどを格納するものである。情報記憶媒体は、CD−ROMやUSBメモリーの他、MOディスクやDVDディスク、フレキシブルディスク(FD)、光磁気ディスク、ICカード等を含む「可搬用の物理媒体」、コンピューターシステムの内外に備えられるHDDやRAM、ROM等の「固定用の物理媒体」、モデムを介して接続される公衆回線や、他のコンピューターシステム又はサーバーが接続されるローカルエリアネットワーク又は広域エリアネットワーク等のように、プログラムの送信に際して短期にプログラムを記憶する「通信媒体」等、コンピューターシステムによって読み取り可能なプログラムを記録するあらゆる記録媒体を含む。   An information storage medium (a computer-readable medium) stores programs, data, and the like. The information storage medium is provided inside and outside the computer system, including a CD-ROM and USB memory, as well as a “portable physical medium” including an MO disk, DVD disk, flexible disk (FD), magneto-optical disk, IC card, etc. Programs such as “fixed physical media” such as HDD, RAM, and ROM, public lines connected via modems, local area networks or wide area networks to which other computer systems or servers are connected It includes any recording medium that records a program that can be read by a computer system, such as a “communication medium” that stores a program in a short time during transmission.

即ち、プログラムは、上記の記録媒体にコンピューター読み取り可能に記録されるものであり、コンピューターシステム(操作部、処理部、記憶部、出力部を備える装置)は、このような記録媒体からプログラムを読み出して実行することで画像処理装置を実現する。なお、プログラムは、コンピューターシステムによって実行されることに限定されるものではなく、他のコンピューターシステム又はサーバーがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。   That is, the program is recorded on the above recording medium so as to be readable by a computer, and the computer system (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) reads the program from such a recording medium. To implement the image processing apparatus. Note that the program is not limited to be executed by a computer system, and when another computer system or server executes the program, or when they cooperate to execute the program, The present invention can be similarly applied.

以上、本発明を適用した実施形態およびその変形例について説明したが、本発明は、各実施形態やその変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上記した各実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、画像処理装置や内視鏡装置、画像処理方法(画像処理装置の作動方法、内視鏡装置の作動方法)等の各実施形態や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態や変形例で説明した構成要素を適宜組み合わせてもよい。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能である。また、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。   As mentioned above, although embodiment and its modification which applied this invention were described, this invention is not limited to each embodiment and its modification as it is, and in the range which does not deviate from the summary of invention in an implementation stage. The component can be modified and embodied. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiments and modifications. For example, some constituent elements from all the constituent elements described in the embodiments and modifications such as the image processing apparatus, the endoscope apparatus, and the image processing method (the operation method of the image processing apparatus, the operation method of the endoscope apparatus) May be deleted. Furthermore, you may combine suitably the component demonstrated in different embodiment and modification. Thus, various modifications and applications are possible without departing from the spirit of the invention. In addition, a term described together with a different term having a broader meaning or the same meaning at least once in the specification or the drawings can be replaced with the different term anywhere in the specification or the drawings.

100 光源部、110 白色光源、120 レンズ、200 撮像部、
210 ライトガイドファイバー、220 照明レンズ、230 集光レンズ、
240 撮像素子、250 メモリー、280 フィルター駆動部、
290 狭帯域フィルター、300 制御装置、310 補間処理部、
315 画像取得部、320 ノイズ低減処理部、321 類似度検出部、
322 撮影条件取得部、323 第1のノイズ低減処理部、
324 第2のノイズ低減処理部、325 画像合成部、
330 フレームメモリー、340 表示画像生成部、390 制御部、
400 表示部、500 外部I/F部、601 動きベクトル検出部、
602 動きベクトル整列部、603 動きベクトル平均部、
604 明るさ変化量検出部、605 種類情報取得部、
611 ブレンド率決定部、612 ブレンド処理部、
621 閾値決定部、622 選択部
100 light source unit, 110 white light source, 120 lens, 200 imaging unit,
210 light guide fiber, 220 illumination lens, 230 condenser lens,
240 image sensor, 250 memory, 280 filter drive unit,
290 narrowband filter, 300 controller, 310 interpolation processing unit,
315 image acquisition unit, 320 noise reduction processing unit, 321 similarity detection unit,
322 shooting condition acquisition unit, 323 first noise reduction processing unit,
324 second noise reduction processing unit, 325 image synthesis unit,
330 frame memory, 340 display image generation unit, 390 control unit,
400 display unit, 500 external I / F unit, 601 motion vector detection unit,
602 motion vector alignment unit, 603 motion vector averaging unit,
604 brightness change amount detection unit, 605 type information acquisition unit,
611 blend rate determination unit, 612 blend processing unit,
621 Threshold value determination unit, 622 selection unit

Claims (18)

撮像部による時系列の撮像画像を取得する画像取得部と、
前記撮像画像に対して時間方向のノイズ低減処理を施して第1画像を生成する第1のノイズ低減処理部と、
前記撮像画像に対して少なくとも空間方向のノイズ低減処理を施して第2画像を生成する第2のノイズ低減処理部と、
前記撮像画像のフレーム間の類似度を検出する類似度検出部と、
前記類似度が高いほど前記第1画像の合成度合いが高くなると共に前記第2画像の合成度合いが低くなるように前記第1画像と前記第2画像の合成処理を行う画像合成部と、
前記撮像画像の撮影条件を取得する撮影条件取得部と、
を含み、
前記撮影条件取得部は、
前記撮像部と被写体との間の相対的な動きにより変化する動き情報を前記撮影条件として取得し、
前記画像合成部は、
前記動き情報が表す前記相対的な動きが大きいほど前記第1画像の合成度合いを低くすると共に前記第2画像の合成度合いを高くすることを特徴とする画像処理装置。
An image acquisition unit for acquiring time-series captured images by the imaging unit;
A first noise reduction processing unit that performs a noise reduction process in a time direction on the captured image to generate a first image;
A second noise reduction processing unit that performs a noise reduction process in at least a spatial direction on the captured image to generate a second image;
A similarity detection unit for detecting a similarity between frames of the captured image;
An image synthesizing unit for synthesizing the first image and the second image so that the higher the similarity is, the higher the degree of synthesis of the first image and the lower the degree of synthesis of the second image;
A shooting condition acquisition unit for acquiring shooting conditions of the captured image;
Including
The photographing condition acquisition unit
Obtaining movement information that changes due to relative movement between the imaging unit and the subject as the imaging condition;
The image composition unit
The image processing apparatus characterized by lowering the degree of synthesis of the first image and increasing the degree of synthesis of the second image as the relative motion represented by the motion information is larger .
請求項において、
前記類似度検出部は、
前記撮像画像の第1の領域において前記類似度を検出し、
前記撮影条件取得部は、
前記撮像画像の前記第1の領域よりも広い第2の領域において前記動き情報を取得することを特徴とする画像処理装置。
In claim 1 ,
The similarity detection unit
Detecting the similarity in a first region of the captured image;
The photographing condition acquisition unit
The image processing apparatus, wherein the motion information is acquired in a second area wider than the first area of the captured image.
請求項において、
前記撮影条件取得部は、
前記撮像部と被写体との間の相対的な動き量を前記動き情報として取得し、
前記画像合成部は、
前記動き量が大きいほど前記第1画像の合成度合いを低くすると共に前記第2画像の合成度合いを高くすることを特徴とする画像処理装置。
In claim 1 ,
The photographing condition acquisition unit
Obtaining a relative amount of movement between the imaging unit and the subject as the movement information;
The image composition unit
The image processing apparatus characterized by lowering the degree of synthesis of the first image and increasing the degree of synthesis of the second image as the amount of motion increases.
請求項において、
前記撮影条件取得部は、
前記撮像画像上での前記被写体のフレーム間における動きベクトルの大きさを前記動き量として取得することを特徴とする画像処理装置。
In claim 3 ,
The photographing condition acquisition unit
An image processing apparatus, wherein a magnitude of a motion vector between frames of the subject on the captured image is acquired as the amount of motion.
請求項において、
前記撮影条件取得部は、
前記撮像画像の複数の領域について動きベクトルを検出し、前記複数の領域についての前記動きベクトルを前記動きベクトルの大きさの順に並べ、前記大きさが小さい方から所定割合の前記動きベクトルの平均値を前記動き量として取得することを特徴とする画像処理装置。
In claim 4 ,
The photographing condition acquisition unit
Motion vectors are detected for a plurality of regions of the captured image, the motion vectors for the plurality of regions are arranged in the order of the magnitudes of the motion vectors, and an average value of the motion vectors in a predetermined ratio from the smallest size Is acquired as the amount of motion.
請求項において、
前記撮影条件取得部は、
前記撮像画像のフレーム間における明るさの変化量を前記動き情報として取得し、
前記画像合成部は、
前記明るさの変化量が大きいほど前記第1画像の合成度合いを低くすると共に前記第2画像の合成度合いを高くすることを特徴とする画像処理装置。
In claim 1 ,
The photographing condition acquisition unit
The amount of change in brightness between frames of the captured image is acquired as the motion information,
The image composition unit
The image processing apparatus characterized by lowering the degree of synthesis of the first image and increasing the degree of synthesis of the second image as the amount of change in brightness increases.
請求項において、
前記画像合成部は、
前記第1画像に対する第1ブレンド率(α)及び、前記第2画像に対する第2ブレンド率(1−α)を決定し、前記類似度が高いほど前記第1ブレンド率(α)を高くするブレンド率決定部と、
前記第1ブレンド率(α)と前記第2ブレンド率(1−α)で前記第1画像と前記第2画像をブレンドする処理を、前記合成処理として行うブレンド処理部と、
を有し、
前記ブレンド率決定部は、
前記動き情報が表す前記相対的な動きが大きいほど前記第1ブレンド率(α)を低くすることを特徴とする画像処理装置。
In claim 1 ,
The image composition unit
The first blend ratio (α) for the first image and the second blend ratio (1-α) for the second image are determined, and the higher the similarity, the higher the first blend ratio (α) is. A rate determining unit;
A blend processing unit that performs a process of blending the first image and the second image at the first blend ratio (α) and the second blend ratio (1-α) as the synthesis process;
Have
The blend rate determination unit
The image processing apparatus according to claim 1, wherein the first blend ratio (α) is lowered as the relative movement represented by the movement information increases.
請求項において、
前記画像合成部は、
閾値を決定する閾値決定部と、
前記類似度が前記閾値よりも大きい場合には前記第1画像を選択し、前記類似度が前記閾値よりも小さい場合には前記第2画像を選択する選択部と、
を有し、
前記閾値決定部は、
前記動き情報が表す前記相対的な動きが大きいほど前記閾値を低く設定することを特徴とする画像処理装置。
In claim 1 ,
The image composition unit
A threshold value determination unit for determining a threshold value;
A selection unit that selects the first image when the similarity is greater than the threshold, and selects the second image when the similarity is less than the threshold;
Have
The threshold determination unit
The image processing apparatus, wherein the threshold value is set lower as the relative movement represented by the movement information is larger.
請求項1において、
前記撮影条件取得部は、
前記撮像画像の種類を前記撮影条件として取得し、
前記画像合成部は、
前記撮像画像の前記種類が第1の種類である場合と、前記撮像画像の前記種類が第2の種類である場合とで、前記合成度合いを変更することを特徴とする画像処理装置。
In claim 1,
The photographing condition acquisition unit
Acquiring the type of the captured image as the imaging condition;
The image composition unit
The image processing apparatus, wherein the degree of synthesis is changed between the case where the type of the captured image is a first type and the case where the type of the captured image is a second type.
請求項において、
前記第1の種類は、白色の波長帯域における情報を有した白色光画像であり、
前記第2の種類は、特定の波長帯域における情報を有した特殊光画像であり、
前記画像合成部は、
前記撮像画像の前記種類が前記特殊光画像である場合には、前記撮像画像の前記種類が前記白色光画像である場合に比べて、前記第1画像の合成度合いを低くすると共に前記第2画像の合成度合いを高くすることを特徴とする画像処理装置。
In claim 9 ,
The first type is a white light image having information in a white wavelength band,
The second type is a special light image having information in a specific wavelength band,
The image composition unit
When the type of the captured image is the special light image, the degree of synthesis of the first image is lowered and the second image is compared with the case where the type of the captured image is the white light image. An image processing apparatus characterized by increasing the degree of synthesis of the image.
請求項10において、
前記画像合成部は、
前記第1画像に対する第1ブレンド率(α)及び、前記第2画像に対する第2ブレンド率(1−α)を決定し、前記類似度が高いほど前記第1ブレンド率(α)を高くするブレンド率決定部と、
前記第1ブレンド率(α)と前記第2ブレンド率(1−α)で前記第1画像と前記第2画像をブレンドする処理を、前記合成処理として行うブレンド処理部と、
を有し、
前記ブレンド率決定部は、
前記撮像画像の前記種類が前記特殊光画像である場合には、前記撮像画像の前記種類が前記白色光画像である場合に比べて、前記第1ブレンド率を低くすることを特徴とする画像処理装置。
In claim 10 ,
The image composition unit
The first blend ratio (α) for the first image and the second blend ratio (1-α) for the second image are determined, and the higher the similarity, the higher the first blend ratio (α) is. A rate determining unit;
A blend processing unit that performs a process of blending the first image and the second image at the first blend ratio (α) and the second blend ratio (1-α) as the synthesis process;
Have
The blend rate determination unit
When the type of the captured image is the special light image, the first blend ratio is lowered as compared with the case where the type of the captured image is the white light image. apparatus.
請求項10において、
前記画像合成部は、
閾値を決定する閾値決定部と、
前記類似度が前記閾値よりも大きい場合には前記第1画像を選択し、前記類似度が前記閾値よりも小さい場合には前記第2画像を選択する選択部と、
を有し、
前記閾値決定部は、
前記撮像画像の前記種類が前記特殊光画像である場合には、前記撮像画像の前記種類が前記白色光画像である場合に比べて、前記閾値を低く設定することを特徴とする画像処理装置。
In claim 10 ,
The image composition unit
A threshold value determination unit for determining a threshold value;
A selection unit that selects the first image when the similarity is greater than the threshold, and selects the second image when the similarity is less than the threshold;
Have
The threshold determination unit
The image processing apparatus, wherein when the type of the captured image is the special light image, the threshold value is set lower than when the type of the captured image is the white light image.
請求項10において、
前記特定の波長帯域は、
前記白色の波長帯域よりも狭い帯域であることを特徴とする画像処理装置。
In claim 10 ,
The specific wavelength band is
An image processing apparatus having a band narrower than the white wavelength band.
請求項1において、
前記類似度は、前記撮像画像の現在フレームの画素値と前記現在フレームよりも前のフレームの画素値との差分値の絶対値を、所定領域において加算した値であり、
前記加算した値が小さいほど前記類似度は高くなることを特徴とする画像処理装置。
In claim 1,
The similarity is a value obtained by adding an absolute value of a difference value between a pixel value of a current frame of the captured image and a pixel value of a frame before the current frame in a predetermined area,
The image processing apparatus according to claim 1, wherein the similarity is higher as the added value is smaller.
請求項1に記載された画像処理装置を含むことを特徴とする内視鏡装置。   An endoscope apparatus comprising the image processing apparatus according to claim 1. 撮像部による時系列の撮像画像を取得する画像取得部と、
前記撮像画像に対して時間方向のノイズ低減処理を施して第1画像を生成する第1のノイズ低減処理部と、
前記撮像画像に対して少なくとも空間方向のノイズ低減処理を施して第2画像を生成する第2のノイズ低減処理部と、
前記撮像画像のフレーム間の類似度を検出する類似度検出部と、
前記類似度が高いほど前記第1画像の合成度合いが高くなると共に前記第2画像の合成度合いが低くなるように前記第1画像と前記第2画像の合成処理を行う画像合成部と、
前記撮像画像の撮影条件を取得する撮影条件取得部と、
を含み、
前記画像合成部は、
前記撮影条件に基づき前記合成処理における前記合成度合いを変更することを特徴とする内視鏡装置
An image acquisition unit for acquiring time-series captured images by the imaging unit;
A first noise reduction processing unit that performs a noise reduction process in a time direction on the captured image to generate a first image;
A second noise reduction processing unit that performs a noise reduction process in at least a spatial direction on the captured image to generate a second image;
A similarity detection unit for detecting a similarity between frames of the captured image;
An image synthesizing unit for synthesizing the first image and the second image so that the higher the similarity is, the higher the degree of synthesis of the first image and the lower the degree of synthesis of the second image;
A shooting condition acquisition unit for acquiring shooting conditions of the captured image;
Including
The image composition unit
An endoscope apparatus, wherein the degree of synthesis in the synthesis process is changed based on the imaging condition.
画像処理装置が、撮像部による時系列の撮像画像を取得し、
前記画像処理装置が、前記撮像画像に対して時間方向のノイズ低減処理を施して第1画像を生成する第1ノイズ低減処理を行い、
前記画像処理装置が、前記撮像画像に対して少なくとも空間方向のノイズ低減処理を施して第2画像を生成する第2ノイズ低減処理を行い、
前記画像処理装置が、前記撮像画像のフレーム間の類似度を検出し、
前記画像処理装置が、前記撮像部と被写体との間の相対的な動きにより変化する動き情報を前記撮像画像の撮影条件として取得し、
前記画像処理装置が、前記類似度が高いほど前記第1画像の合成度合いが高くなると共に前記第2画像の合成度合いが低くなるように前記第1画像と前記第2画像を合成処理し、前記動き情報が表す前記相対的な動きが大きいほど前記第1画像の合成度合いを低くすると共に前記第2画像の合成度合いを高くすることを特徴とする画像処理装置の作動方法
The image processing apparatus acquires a time-series captured image by the imaging unit,
The image processing apparatus performs a first noise reduction process for generating a first image by performing a noise reduction process in a time direction on the captured image;
The image processing apparatus performs a second noise reduction process for generating a second image by performing at least a spatial noise reduction process on the captured image;
The image processing device detects a similarity between frames of the captured image;
The image processing apparatus acquires movement information that changes due to relative movement between the imaging unit and a subject as a shooting condition of the captured image,
The image processing apparatus, the said first image and the second image so that the resultant degree is lower in the second image with the synthetic degree of higher similarity the first image is higher synthesizing process, the A method of operating an image processing apparatus, wherein the degree of synthesis of the first image is lowered and the degree of synthesis of the second image is increased as the relative movement represented by the motion information is larger .
撮像部による時系列の撮像画像を取得し、
前記撮像画像に対して時間方向のノイズ低減処理を施して第1画像を生成する第1ノイズ低減処理を行い、
前記撮像画像に対して少なくとも空間方向のノイズ低減処理を施して第2画像を生成する第2ノイズ低減処理を行い、
前記撮像画像のフレーム間の類似度を検出し、
前記撮像部と被写体との間の相対的な動きにより変化する動き情報を前記撮像画像の撮影条件として取得し、
前記類似度が高いほど前記第1画像の合成度合いが高くなると共に前記第2画像の合成度合いが低くなるように前記第1画像と前記第2画像を合成処理し、前記動き情報が表す前記相対的な動きが大きいほど前記第1画像の合成度合いを低くすると共に前記第2画像の合成度合いを高くする
ステップをコンピューターに実行させる画像処理プログラム。
Acquire time-series captured images by the imaging unit,
Performing a first noise reduction process for generating a first image by performing a noise reduction process in a time direction on the captured image;
Performing a second noise reduction process for generating a second image by performing a noise reduction process in at least a spatial direction on the captured image;
Detecting the similarity between frames of the captured image;
Obtaining movement information that changes due to relative movement between the imaging unit and the subject as a shooting condition of the captured image;
The higher the similarity, the higher the degree of synthesis of the first image and the lower the degree of synthesis of the second image, so that the first image and the second image are synthesized, and the relative information represented by the motion information The greater the movement, the lower the degree of synthesis of the first image and the degree of synthesis of the second image ,
An image processing program that causes a computer to execute steps.
JP2014024049A 2014-02-12 2014-02-12 Image processing apparatus, endoscope apparatus, operation method of image processing apparatus, and image processing program Expired - Fee Related JP6242230B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014024049A JP6242230B2 (en) 2014-02-12 2014-02-12 Image processing apparatus, endoscope apparatus, operation method of image processing apparatus, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014024049A JP6242230B2 (en) 2014-02-12 2014-02-12 Image processing apparatus, endoscope apparatus, operation method of image processing apparatus, and image processing program

Publications (2)

Publication Number Publication Date
JP2015150029A JP2015150029A (en) 2015-08-24
JP6242230B2 true JP6242230B2 (en) 2017-12-06

Family

ID=53892934

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014024049A Expired - Fee Related JP6242230B2 (en) 2014-02-12 2014-02-12 Image processing apparatus, endoscope apparatus, operation method of image processing apparatus, and image processing program

Country Status (1)

Country Link
JP (1) JP6242230B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6688540B2 (en) * 2015-07-29 2020-04-28 株式会社大一商会 Amusement machine
CN109561816B (en) * 2016-07-19 2021-11-12 奥林巴斯株式会社 Image processing apparatus, endoscope system, information storage apparatus, and image processing method
JP6812193B2 (en) * 2016-10-07 2021-01-13 キヤノン株式会社 Image display system, image display method, and program
CN112602115A (en) * 2018-09-06 2021-04-02 索尼公司 Medical system, information processing apparatus, and information processing method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2508078B2 (en) * 1987-04-30 1996-06-19 株式会社島津製作所 X-ray image processing device
JPH0613271U (en) * 1992-07-15 1994-02-18 日本アビオニクス株式会社 TV image quality improvement method
JP3326819B2 (en) * 1992-07-31 2002-09-24 株式会社島津製作所 Image processing device
JP5543194B2 (en) * 2009-12-24 2014-07-09 キヤノン株式会社 Information processing apparatus, processing method, and program
JP5816511B2 (en) * 2011-10-04 2015-11-18 オリンパス株式会社 Image processing apparatus, endoscope apparatus, and operation method of image processing apparatus
JP5696026B2 (en) * 2011-11-25 2015-04-08 株式会社 日立産業制御ソリューションズ Imaging apparatus, imaging method, and monitoring system

Also Published As

Publication number Publication date
JP2015150029A (en) 2015-08-24

Similar Documents

Publication Publication Date Title
JP5816511B2 (en) Image processing apparatus, endoscope apparatus, and operation method of image processing apparatus
US9629525B2 (en) Image processing device, image processing method, and program
JP6150583B2 (en) Image processing apparatus, endoscope apparatus, program, and operation method of image processing apparatus
JP5669529B2 (en) Imaging apparatus, program, and focus control method
US8711252B2 (en) Image processing device and information storage medium including motion vector information calculation
JP5452242B2 (en) Image processing apparatus, endoscope system, program, and operation method of image processing apparatus
US20130165753A1 (en) Image processing device, endoscope apparatus, information storage device, and image processing method
US9826884B2 (en) Image processing device for correcting captured image based on extracted irregularity information and enhancement level, information storage device, and image processing method
JP2012100909A (en) Endoscopic apparatus, and program
JP6242230B2 (en) Image processing apparatus, endoscope apparatus, operation method of image processing apparatus, and image processing program
US20170319051A1 (en) Endoscope device and focus control method for endoscope device
US20150325014A1 (en) Image processing device, image processing method, image processing program, and recording medium storing said program
WO2017122287A1 (en) Endoscope device and method for operating endoscope device
US9323978B2 (en) Image processing device, endoscope apparatus, and image processing method
JP5940604B2 (en) Image processing apparatus, method of operating image processing apparatus, and program
WO2016199264A1 (en) Endoscopic device and focus control method
JP6653386B2 (en) Image processing apparatus, endoscope system, program, and method of operating image processing apparatus
JP6942892B2 (en) Endoscope device, operation method and program of the endoscope device
JP6168878B2 (en) Image processing apparatus, endoscope apparatus, and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170613

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171107

R151 Written notification of patent or utility model registration

Ref document number: 6242230

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees