JP6242230B2 - Image processing apparatus, endoscope apparatus, operation method of image processing apparatus, and image processing program - Google Patents
Image processing apparatus, endoscope apparatus, operation method of image processing apparatus, and image processing program Download PDFInfo
- Publication number
- JP6242230B2 JP6242230B2 JP2014024049A JP2014024049A JP6242230B2 JP 6242230 B2 JP6242230 B2 JP 6242230B2 JP 2014024049 A JP2014024049 A JP 2014024049A JP 2014024049 A JP2014024049 A JP 2014024049A JP 6242230 B2 JP6242230 B2 JP 6242230B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- noise reduction
- synthesis
- similarity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 166
- 238000000034 method Methods 0.000 title claims description 62
- 239000000203 mixture Substances 0.000 claims description 184
- 230000033001 locomotion Effects 0.000 claims description 165
- 230000009467 reduction Effects 0.000 claims description 93
- 238000003384 imaging method Methods 0.000 claims description 75
- 230000015572 biosynthetic process Effects 0.000 claims description 68
- 238000003786 synthesis reaction Methods 0.000 claims description 68
- 239000013598 vector Substances 0.000 claims description 52
- 230000008859 change Effects 0.000 claims description 51
- 238000011946 reduction process Methods 0.000 claims description 51
- 230000008569 process Effects 0.000 claims description 48
- 238000001514 detection method Methods 0.000 claims description 40
- 238000002156 mixing Methods 0.000 claims description 12
- 230000002194 synthesizing effect Effects 0.000 claims description 7
- 206010047571 Visual impairment Diseases 0.000 description 37
- 230000000875 corresponding effect Effects 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 7
- 230000007423 decrease Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 230000002123 temporal effect Effects 0.000 description 6
- 238000012935 Averaging Methods 0.000 description 5
- 239000000835 fiber Substances 0.000 description 5
- 102000001554 Hemoglobins Human genes 0.000 description 4
- 108010054147 Hemoglobins Proteins 0.000 description 4
- 230000001174 ascending effect Effects 0.000 description 4
- 125000004122 cyclic group Chemical group 0.000 description 4
- 238000009499 grossing Methods 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 239000000470 constituent Substances 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 210000001035 gastrointestinal tract Anatomy 0.000 description 3
- 238000003672 processing method Methods 0.000 description 3
- 239000002344 surface layer Substances 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000001727 in vivo Methods 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 230000008855 peristalsis Effects 0.000 description 2
- 238000002834 transmittance Methods 0.000 description 2
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000004400 mucous membrane Anatomy 0.000 description 1
- 231100000957 no side effect Toxicity 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 206010041823 squamous cell carcinoma Diseases 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Endoscopes (AREA)
Description
本発明は、画像処理装置、内視鏡装置、画像処理装置の作動方法及び画像処理プログラム等に関する。 The present invention relates to an image processing apparatus, an endoscope apparatus, an operation method of the image processing apparatus, an image processing program, and the like.
動画像のノイズ低減手法として、動画像の1枚のフレームを用いた空間方向のノイズ低減処理と、撮影時間の異なる複数フレームを用いた時間方向のノイズ低減処理がある。時間方向のノイズ低減処理は、空間方向のノイズ低減処理に比べて解像度の高い画像が得られるが、被写体が静止していない場合には残像が発生する。 As a moving image noise reduction method, there are a noise reduction process in a spatial direction using one frame of a moving image and a noise reduction process in a time direction using a plurality of frames having different shooting times. The noise reduction process in the time direction provides an image with a higher resolution than the noise reduction process in the spatial direction, but an afterimage occurs when the subject is not stationary.
このような残像を低減しつつ高解像度のノイズ低減を行う手法として、特許文献1には、空間方向のノイズ低減処理の結果と時間方向のノイズ低減処理の結果とをブレンドする手法が開示されている。この手法では、現フレームと前フレームの同一位置での画素値のSAD(差分絶対値)を算出し、そのSADに応じて、ブレンド率と、時間方向のノイズ低減処理で用いる巡回係数とを決定する。
As a technique for performing high-resolution noise reduction while reducing such afterimages,
画像内でSADが大きい領域では被写体が静止していないと考えられるので、SADが大きい領域ほど時間方向のノイズ低減処理から得られた結果のブレンド率を低くし、SADが小さい領域ほど時間方向のノイズ低減処理から得られた結果のブレンド率を高くする。これにより、被写体が静止している領域では解像度の高いノイズ低減処理結果が得られる。 Since it is considered that the subject is not stationary in the region where the SAD is large in the image, the blend rate as a result obtained from the noise reduction processing in the time direction is lowered in the region where the SAD is large. Increase the blend ratio of the results obtained from the noise reduction process. As a result, a high-resolution noise reduction processing result can be obtained in an area where the subject is stationary.
また、巡回係数に関しては、SADが小さい領域ほど係数が大きくなるように決定する。これにより、被写体が静止していない領域では小さな巡回係数に基づいてノイズ低減がされるために残像の発生が抑制される。一方、被写体が静止している領域では大きな巡回係数に基づいてノイズ低減処理がされるため、ノイズ低減効果を向上できる。 Further, the cyclic coefficient is determined so that the coefficient becomes larger as the SAD is smaller. As a result, in an area where the subject is not stationary, noise reduction is performed based on a small cyclic coefficient, so that afterimage generation is suppressed. On the other hand, since noise reduction processing is performed based on a large cyclic coefficient in a region where the subject is stationary, the noise reduction effect can be improved.
しかしながら、上記のSADが小さい場合であっても、時間方向のノイズ低減処理において残像が生じる場合や、時間方向のノイズ低減処理の結果をブレンドすることでアーティファクトが生じる場合がある。この場合、特許文献1ではSADのみを用いてブレンド率を決定しているため、時間方向のノイズ低減処理のブレンド率が高くなり、残像やアーティファクトが発生するという課題がある。
However, even when the SAD is small, an afterimage may be generated in the noise reduction process in the time direction, or an artifact may be generated by blending the results of the noise reduction process in the time direction. In this case, since the blend ratio is determined using only SAD in
本発明の幾つかの態様によれば、撮影条件を考慮したノイズ低減処理により残像やアーティファクトを低減することが可能な画像処理装置、内視鏡装置、画像処理方法及び画像処理プログラム等を提供できる。 According to some aspects of the present invention, it is possible to provide an image processing device, an endoscope device, an image processing method, an image processing program, and the like that can reduce afterimages and artifacts by noise reduction processing in consideration of shooting conditions. .
本発明の一態様は、撮像部による時系列の撮像画像を取得する画像取得部と、前記撮像画像に対して時間方向のノイズ低減処理を施して第1画像を生成する第1のノイズ低減処理部と、前記撮像画像に対して少なくとも空間方向のノイズ低減処理を施して第2画像を生成する第2のノイズ低減処理部と、前記撮像画像のフレーム間の類似度を検出する類似度検出部と、前記類似度が高いほど前記第1画像の合成度合いが高くなると共に前記第2画像の合成度合いが低くなるように前記第1画像と前記第2画像の合成処理を行う画像合成部と、前記撮像画像の撮影条件を取得する撮影条件取得部と、を含み、前記画像合成部は、前記撮影条件に基づき前記合成処理における前記合成度合いを変更する画像処理装置に関係する。 One aspect of the present invention is an image acquisition unit that acquires a time-series captured image by an imaging unit, and a first noise reduction process that generates a first image by performing noise reduction processing in a time direction on the captured image. A second noise reduction processing unit that performs at least spatial noise reduction processing on the captured image to generate a second image, and a similarity detection unit that detects a similarity between frames of the captured image An image composition unit that performs composition processing of the first image and the second image so that the degree of composition of the first image increases and the degree of composition of the second image decreases as the similarity increases. A shooting condition acquisition unit that acquires shooting conditions of the captured image, and the image synthesis unit relates to an image processing apparatus that changes the degree of synthesis in the synthesis process based on the shooting conditions.
本発明の一態様によれば、撮像画像のフレーム間の類似度が高いほど第1画像の合成度合いが高くなると共に第2画像の合成度合いが低くなるように第1画像と第2画像が合成処理される。このとき、撮影条件により合成度合いが変更される。これにより、撮影条件を考慮したノイズ低減処理が行われ、残像やアーティファクトを低減することが可能となる。 According to one aspect of the present invention, the first image and the second image are synthesized such that the higher the similarity between frames of the captured image, the higher the degree of synthesis of the first image and the lower the degree of synthesis of the second image. It is processed. At this time, the degree of synthesis is changed depending on the shooting conditions. As a result, noise reduction processing in consideration of shooting conditions is performed, and afterimages and artifacts can be reduced.
また本発明の他の態様は、上記に記載された画像処理装置を含む内視鏡装置に関係する。 Another aspect of the present invention relates to an endoscope apparatus including the image processing apparatus described above.
また本発明の更に他の態様は、撮像部による時系列の撮像画像を取得し、前記撮像画像に対して時間方向のノイズ低減処理を施して第1画像を生成する第1ノイズ低減処理を行い、前記撮像画像に対して少なくとも空間方向のノイズ低減処理を施して第2画像を生成する第2ノイズ低減処理を行い、前記撮像画像のフレーム間の類似度を検出し、前記撮像画像の撮影条件を取得し、前記類似度が高いほど前記第1画像の合成度合いが高くなると共に前記第2画像の合成度合いが低くなるように前記第1画像と前記第2画像を合成処理し、前記撮影条件により前記合成度合いを変更する画像処理方法に関係する。 According to still another aspect of the present invention, a first noise reduction process for acquiring a time-series captured image by an imaging unit and generating a first image by performing a noise reduction process in a time direction on the captured image is performed. , Performing a second noise reduction process for generating a second image by performing at least a spatial noise reduction process on the captured image, detecting a similarity between frames of the captured image, and capturing conditions of the captured image The first image and the second image are combined so that the higher the similarity is, the higher the degree of synthesis of the first image and the lower the degree of synthesis of the second image are. This relates to the image processing method for changing the degree of synthesis.
また本発明の更に他の態様は、撮像部による時系列の撮像画像を取得し、前記撮像画像に対して時間方向のノイズ低減処理を施して第1画像を生成する第1ノイズ低減処理を行い、前記撮像画像に対して少なくとも空間方向のノイズ低減処理を施して第2画像を生成する第2ノイズ低減処理を行い、前記撮像画像のフレーム間の類似度を検出し、前記撮像画像の撮影条件を取得し、前記類似度が高いほど前記第1画像の合成度合いが高くなると共に前記第2画像の合成度合いが低くなるように前記第1画像と前記第2画像を合成処理し、前記撮影条件により前記合成度合いを変更する、ステップをコンピューターに実行させる画像処理プログラムに関係する。 According to still another aspect of the present invention, a first noise reduction process for acquiring a time-series captured image by an imaging unit and generating a first image by performing a noise reduction process in a time direction on the captured image is performed. , Performing a second noise reduction process for generating a second image by performing at least a spatial noise reduction process on the captured image, detecting a similarity between frames of the captured image, and capturing conditions of the captured image The first image and the second image are combined so that the higher the similarity is, the higher the degree of synthesis of the first image and the lower the degree of synthesis of the second image are. This relates to an image processing program for causing a computer to execute the step of changing the degree of synthesis.
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。 Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.
1.本実施形態の概要
上述したSADは、現フレームと前フレームの画素値を同一位置で比べたものであり、局所的な動きの程度(静止の程度)を表すものと言える。SADが小さい領域では、被写体は静止していると考えられるため、時間方向のノイズ低減処理において残像は発生していないと考えられる。そのため、SADが小さい領域では、大きなブレンド率で時間方向のノイズ低減処理の結果をブレンドすることで、残像を抑制しつつ解像度の高いノイズ低減が可能となる。
1. Outline of this Embodiment The SAD described above is a comparison of pixel values of the current frame and the previous frame at the same position, and it can be said that it represents the degree of local motion (degree of stillness). In a region where the SAD is small, the subject is considered to be stationary, and thus it is considered that no afterimage has occurred in the noise reduction processing in the time direction. For this reason, in a region where the SAD is small, it is possible to reduce noise with high resolution while suppressing afterimages by blending the results of noise reduction processing in the time direction with a large blend rate.
しかしながら、上記の手法ではSADのみでブレンド率を決定しており、撮影条件が考慮されていないため、ノイズ低減において画質を低下させる可能性がある。即ち、撮影条件とは、ノイズ低減処理において時間方向のノイズ低減処理の結果と空間方向のノイズ低減処理の結果を合成した場合に、その画像の画質に影響を与える条件である。言い換えれば、特定の撮影条件においては、合成した画像の画質が低下する可能性があるということである。 However, in the above method, the blend ratio is determined only by SAD, and imaging conditions are not taken into consideration, so there is a possibility that the image quality is reduced in noise reduction. That is, the shooting conditions are conditions that affect the image quality of the image when the result of the noise reduction process in the time direction and the result of the noise reduction process in the spatial direction are combined in the noise reduction process. In other words, there is a possibility that the image quality of the synthesized image may deteriorate under a specific shooting condition.
画質の低下としては、例えば上述した残像が残ることや、アーティファクトが生じることが考えられる。これらの低下が起きる状況として、例えば以下の状況が考えられる。 As the deterioration of the image quality, for example, the above-mentioned afterimage may remain or an artifact may occur. For example, the following situations can be considered as a situation in which these decreases occur.
1つ目は、局所的な動き(SAD)が小さいにも関わらず、時間方向のノイズ低減処理において残像が発生する場合である。残像が発生するということは被写体に動きがあるということだが、例えば低コントラスト画像などではSADが小さくなる。内視鏡装置では、消化管の粘膜等、構造物が比較的少ない被写体を観察することが多く、このような状況が起きやすい。 The first is a case where an afterimage is generated in the noise reduction processing in the time direction even though the local motion (SAD) is small. The occurrence of an afterimage means that the subject has movement, but the SAD becomes small in a low-contrast image, for example. Endoscopic devices often observe subjects with relatively few structures, such as the mucous membrane of the digestive tract, and this situation is likely to occur.
下式(2)で説明するように、時間方向のノイズ低減処理ではフレーム間の動きベクトルを検出し、位置合わせを行っている。この位置合わせが成功していれば残像が生じないが、実際には動きベクトルの検出が失敗する場合がある。例えば、被写体に比較的大きな動きが発生している場合である。例えば、動き検出の探索範囲を超えるような動きはそもそも検出できない。このような場合に、SADが小さいことだけでブレンド率を決めると、時間方向のノイズ低減処理の結果が大きなブレンド率でブレンドされることになり、残像が残ってしまう。 As described in the following equation (2), in the noise reduction process in the time direction, a motion vector between frames is detected and alignment is performed. If this alignment is successful, no afterimage occurs, but in reality, the detection of the motion vector may fail. For example, this is a case where a relatively large movement occurs in the subject. For example, a motion exceeding the search range for motion detection cannot be detected in the first place. In such a case, if the blend rate is determined only by the small SAD, the result of noise reduction processing in the time direction is blended at a large blend rate, and an afterimage remains.
2つ目は、現フレームと前フレームの明るさが大幅に異なる場合である。このような状況は、例えば撮像部を大きく動かした場合等に起き得る。内視鏡装置では、撮像部の先端から照明光を照射するため、被写体までの距離によって明るさが異なっている。そのため、撮像部を奥行き(光軸)方向に動かした場合や、消化管の蠕動などによって被写体までの距離が変わった場合等に、明るさが大きく変化する。 The second is a case where the brightness of the current frame and the previous frame are significantly different. Such a situation can occur, for example, when the imaging unit is moved greatly. In the endoscope apparatus, since the illumination light is irradiated from the tip of the imaging unit, the brightness varies depending on the distance to the subject. Therefore, the brightness changes greatly when the imaging unit is moved in the depth (optical axis) direction, or when the distance to the subject changes due to peristalsis of the digestive tract or the like.
空間方向のノイズ低減は基本的に現フレームに対して行うので、現フレームに近い明るさの画像となる。一方、時間方向のノイズ低減処理では現フレームと前フレームを加算するため、現フレームと前フレームの明るさが大きく異なる場合には、加算後の画像の明るさは現フレームの明るさと異なっている。SADは局所的な動きを表すので、一般には画素や領域ごとに異なった値を持ち、そのSADから決めたブレンド率は画素や領域ごとに異なったものとなる。そうすると、明るさが異なる時間方向のノイズ低減処理の結果と空間方向のノイズ低減処理の結果が、画素や領域ごとに異なる割合でブレンドされ、その明るさの差がアーティファクトとなる。 Since noise reduction in the spatial direction is basically performed on the current frame, the image has a brightness close to that of the current frame. On the other hand, since the current frame and the previous frame are added in the noise reduction process in the time direction, if the brightness of the current frame and the previous frame is greatly different, the brightness of the image after the addition is different from the brightness of the current frame. . Since SAD represents a local motion, it generally has a different value for each pixel or area, and the blend rate determined from that SAD differs for each pixel or area. Then, the result of the noise reduction process in the time direction and the result of the noise reduction process in the spatial direction with different brightness are blended at different ratios for each pixel or area, and the difference in brightness becomes an artifact.
なお、ノイズ低減処理の画質を低下させる撮影条件は上記の例に限定されるものでない。例えば、画像にノイズが多い条件では動きベクトルの検出を失敗する可能性が高くなり、時間方向のノイズ低減処理において残像が発生しやすい。ノイズが多くなる場合として、例えば第5実施形態で説明する狭帯域光画像などが考えられる。 Note that the shooting conditions for reducing the image quality of the noise reduction processing are not limited to the above example. For example, if there is a lot of noise in the image, there is a high possibility that the detection of the motion vector will fail, and an afterimage tends to occur in the noise reduction processing in the time direction. As a case where noise increases, for example, a narrow-band optical image described in the fifth embodiment can be considered.
以上のように、局所的な動きの程度であるSADのみで時間方向のノイズ低減処理の結果と空間方向のノイズ低減処理の結果を合成すると、ノイズ低減処理において画質が低下するという課題がある。 As described above, when the result of the noise reduction process in the time direction and the result of the noise reduction process in the spatial direction are combined only with the SAD that is the degree of local motion, there is a problem that the image quality is deteriorated in the noise reduction process.
このような課題を解決できる本実施形態の画像処理装置の構成例を図1に示す。画像処理装置は、画像取得部315と第1のノイズ低減処理部323と第2のノイズ低減処理部324と類似度検出部321と撮影条件取得部322と画像合成部325とを含む。
FIG. 1 shows a configuration example of an image processing apparatus according to this embodiment that can solve such a problem. The image processing apparatus includes an
画像取得部315は、撮像部により撮像された時系列の撮像画像を取得する。画像取得部315は、例えば図2で後述する補間処理部310に対応する。即ち、ベイヤ配列の画像に対して補間処理を行い、各画素にRGB画素値が存在するRGB画像を撮像画像として取得する。或は、R画像、G画像、B画像を順次に撮像する面順次方式の場合には、画像取得部315は、それらのR画像、G画像、B画像から1つのRGB画像にまとめることで、撮像画像を取得してもよい。
The
第1のノイズ低減処理部323は、撮像画像に対して時間方向のノイズ低減処理を施して第1画像を生成する。時間方向のノイズ低減処理は、複数フレームの画素値を用いて平滑化を行う処理である。例えば、下式(2)に示すように、画素単位で現フレームと前フレームの画素値を加重平均する処理である。
The first noise
第2のノイズ低減処理部324は、撮像画像に対して少なくとも空間方向のノイズ低減処理を施して第2画像を生成する。空間方向のノイズ低減処理は、同一フレームの画素値を用いて平滑化を行う処理である。少なくとも空間方向のノイズ低減処理を行えばよいので、同一フレームの画素値のみで平滑化を行ってもよいし、下式(3)、(4)に示すように、更に複数フレームの画素値を用いた平滑化を組み合わせてもよい。
The second noise
類似度検出部321は、撮像画像のフレーム間の類似度を検出する。即ち、現フレームと前フレームの間の類似度を検出する。類似度とは、各画素又は各局所領域について算出され、フレーム間の局所的な相関度合いを表す指標である。例えば、下式(1)に示す差分平均値mSADを類似度として用いる。この差分平均値mSADは各画素位置(x,y)について算出される。
The
撮影条件取得部322は、撮像画像の撮影条件を取得する。撮影条件は、上述のように画質低下を招く可能性がある条件である。撮影条件は、例えば撮像画像から所定の量を抽出することで取得してもよいし、或は、センサーにより取得してもよいし、或は、制御信号や操作入力により取得してもよい。
The shooting
画像合成部325は、類似度が高いほど第1画像の合成度合いが高くなると共に第2画像の合成度合いが低くなるように、第1画像と第2画像を合成処理する。即ち、類似度が高い画素や局所領域では、時間方向のノイズ低減処理の結果を高い合成度合いで合成する。このとき、画像合成部325は、撮影条件により合成度合いを変更する。撮影条件が残像やアーティファクトを発生させる条件である場合には、第1画像の合成度合いを低くする。即ち、同じ類似度であっても、時間方向のノイズ低減処理の結果が合成される度合いが低下し、残像やアーティファクトの発生を抑制できる。
The
ここで、合成処理とは、ブレンド処理又は選択処理である。ブレンド処理は、第1画像を第1ブレンド率(例えば後述する1−α)で第2画像を第2ブレンド率(例えば後述するα)で加重平均する処理である。この場合、合成度合いはブレンド率である。一方、選択処理は、第1画像と第2画像のいずれかを選択する処理である。この場合、合成度合いは、選択される度合い(選択されやすさ)である。例えば、類似度が閾値以上である場合に第1画像を選択する場合、類似度が高くなれば第1画像が選択される度合いが上がり、類似度が低くなれば第1画像が選択される度合いが下がる。また、閾値を変化させることによって第1画像が選択される度合いを変化させることができる。 Here, the synthesis process is a blend process or a selection process. The blend process is a process of performing a weighted average of the first image at a first blend ratio (for example, 1-α described later) and the second image at a second blend ratio (for example, α described later). In this case, the degree of synthesis is a blend rate. On the other hand, the selection process is a process of selecting either the first image or the second image. In this case, the degree of synthesis is the degree of selection (ease of selection). For example, when the first image is selected when the similarity is greater than or equal to a threshold, the degree to which the first image is selected increases if the similarity is high, and the degree to which the first image is selected if the similarity is low Go down. In addition, the degree to which the first image is selected can be changed by changing the threshold value.
具体的には、撮影条件取得部322は、撮像部と被写体との間の相対的な動きにより変化する動き情報を撮影条件として取得する。そして、画像合成部325は、その動き情報が表す相対的な動きが大きいほど第1画像の合成度合いを低くすると共に第2画像の合成度合いを高くする。
Specifically, the shooting
動き情報としては、例えば上述した被写体の動き量や明るさの変化量等がある。画像内で被写体の動き量が大きくなるのは、例えば撮像部と被写体が相対的に横(光軸に交差する方向)に移動した場合である。また、画像の明るさが大きく変化するのは、例えば撮像部と被写体が相対的に縦(光軸方向)に移動した場合である。 The motion information includes, for example, the above-described subject motion amount and brightness change amount. The amount of movement of the subject in the image is large, for example, when the imaging unit and the subject move relatively horizontally (in the direction intersecting the optical axis). The brightness of the image greatly changes when, for example, the imaging unit and the subject move relatively vertically (in the optical axis direction).
動き情報が動き量である場合、動き量が大きいほど相対的な動きが大きいことを表す。また、動き情報が明るさの変化量である場合、明るさの変化量が大きいほど相対的な動きが大きいことを表す。本実施形態では、このような動き情報が表す動きが大きいほど、時間方向のノイズ低減処理の結果を合成する度合いを低くすることで、残像やアーティファクトの発生を抑制できる。 When the motion information is a motion amount, the larger the motion amount, the greater the relative motion. In addition, when the motion information is a brightness change amount, the greater the brightness change amount, the greater the relative motion. In the present embodiment, the greater the motion represented by such motion information, the lower the degree of synthesis of the results of noise reduction processing in the time direction, thereby suppressing the occurrence of afterimages and artifacts.
また、類似度検出部321は、撮像画像の第1の領域において類似度を検出し、撮影条件取得部322は、撮像画像の第1の領域よりも広い第2の領域において動き情報を取得する。
Further, the
例えば、類似度が下式(1)に示す差分平均値mSADである場合、類似度は(2k+1)×(2k+1)画素の領域(第1の領域)で検出する。動き量や明るさの変化量等の動き情報は、その(2k+1)×(2k+1)画素の領域よりも広い領域(第2の領域)で検出する。例えば、第1、第2実施形態で説明するように、画像全体についての動き量や明るさの変化量を検出する。 For example, when the similarity is the difference average value mSAD shown in the following equation (1), the similarity is detected in an area (first area) of (2k + 1) × (2k + 1) pixels. The motion information such as the motion amount and the brightness change amount is detected in a region (second region) wider than the (2k + 1) × (2k + 1) pixel region. For example, as described in the first and second embodiments, the amount of motion and the amount of change in brightness are detected for the entire image.
上述した画質を低下させる撮影条件は、類似度の検出領域よりもグローバル(大局的)な領域で発生する条件と予想される。例えば、内視鏡スコープの操作や消化管の蠕動などで生じる動きは、画像の広い範囲に及ぶと考えられる。また、低コントラスト画像などにおいて、類似度を検出する微小な領域でフレーム間に差がなかったとしても、広い領域で見れば動き量や明るさの変化量を検出することが可能である。 The above-described shooting conditions that lower the image quality are expected to occur in a global (global) area rather than a similarity detection area. For example, it is considered that movements caused by operation of the endoscope scope or peristalsis of the digestive tract extend over a wide range of images. Further, even if there is no difference between frames in a small area where the similarity is detected in a low-contrast image or the like, it is possible to detect the amount of movement and the amount of change in brightness when viewed in a wide area.
このような理由から、グローバルな動き情報を取得することによって、類似度が小さい場合であっても時間方向のノイズ低減処理の結果を合成する度合いを低くすることが可能となり、残像やアーティファクトを低減できる。 For this reason, by acquiring global motion information, it is possible to reduce the degree to which the results of noise reduction processing in the time direction are combined even when the degree of similarity is small, reducing afterimages and artifacts. it can.
2.第1実施形態
2.1.内視鏡装置
以下、詳細な実施形態について説明する。図2に、第1実施形態における内視鏡装置の構成例を示す。内視鏡システムは、光源部100と、撮像部200と、制御装置300と、表示部400と、外部I/F部500と、を含む。制御装置300は、補間処理部310と、ノイズ低減処理部320と、フレームメモリー330と、表示画像生成部340と、制御部390と、を含む。
2. First embodiment 2.1. Endoscope Device Hereinafter, detailed embodiments will be described. FIG. 2 shows a configuration example of the endoscope apparatus according to the first embodiment. The endoscope system includes a
光源部100は、白色光を発生する白色光源110と、その白色光をライトガイドファイバー210に集光するためのレンズ120と、を含む。
The
撮像部200は、体腔への挿入を可能にするため、例えば細長く且つ湾曲可能に形成されている。また、観察する部位により異なる撮像部が用いられるため、撮像部200は制御装置300に対して着脱可能な構造をしている。なお以下の説明では適宜、撮像部200をスコープと呼ぶ。
The
撮像部200は、光源部100で集光された光を導くためのライトガイドファイバー210と、そのライトガイドファイバー210により導かれた光を拡散させて被写体に照射する照明レンズ220と、を含む。また撮像部200は、被写体からの反射光を集光する集光レンズ230と、集光レンズ230により集光された反射光を検出するための撮像素子240と、メモリー250と、を含む。メモリー250は制御部390に接続されている。
The
撮像素子240は、図3に示すようにベイヤ配列の色フィルターを有する撮像素子である。色フィルターは、rフィルター、gフィルター、bフィルターの3種類である。図4に示すように、rフィルターは580〜700nmの光を透過させ、gフィルターは480〜600nmの光を透過させ、bフィルターは390〜500nmの光を透過させる特性を有する。
The
外部I/F部500は、内視鏡装置に対するユーザーからの入力等を行うためのインターフェースである。例えば、外部I/F部500は、電源のオン/オフを行うための電源スイッチや、撮影モードやその他各種のモードを切り換えるためのモード切換ボタンなどを含んで構成されている。外部I/F部500は、入力された情報を制御部390へ出力する。
The external I /
制御装置300は、内視鏡装置の各部の制御や、撮像画像に対する画像処理等を行う。補間処理部310は、ノイズ低減処理部320に接続されている。ノイズ低減処理部320は表示画像生成部340に接続されている。また、ノイズ低減処理部320は、フレームメモリー330と双方向に接続されている。表示画像生成部340は表示部400に接続されている。制御部390は、補間処理部310と、ノイズ低減処理部320と、フレームメモリー330と、表示画像生成部340に接続されており、これらの制御を行う。
The
補間処理部310は、撮像素子240により取得される画像に対して補間処理を行う。上述のように撮像素子240はベイヤ配列を有するため、撮像素子240により取得される画像の各画素は、R、G、B信号のうちの何れか1色の信号値を有し、他の2色の信号値が欠落した状態である。補間処理部310は、この画像の各画素に対して補間処理を行うとで、欠落している信号値を補間し、各画素においてR、G、B信号の全ての信号値を有する画像を生成する。補間処理として、例えば公知のバイキュービック補間処理を用いればよい。なお以下では、補間処理後の画像をRGB画像と呼ぶ。補間処理部310は、生成したRGB画像をノイズ低減処理部320へ出力する。
The
ノイズ低減処理部320は、補間処理部310より出力されるRGB画像に対して、ノイズ低減処理を行う。ノイズ低減処理部320の詳細は後述する。なお以下では、ノイズ低減処理後の画像をNR画像(ノイズ低減画像)と呼ぶ。
The noise
表示画像生成部340は、ノイズ低減処理部320より出力されるNR画像に対し、例えば既存のホワイトバランスや色変換処理、階調変換処理等を施し、表示画像を生成する。表示画像生成部340は、生成した表示画像を表示部400に出力する。表示部400は、表示画像を表示し、例えば液晶表示装置等の表示装置により構成される。
The display
2.2.ノイズ低減処理部
図5に、ノイズ低減処理部320の詳細な構成例を示す。ノイズ低減処理部320は、類似度検出部321と、撮影条件取得部322と、第1のノイズ低減処理部323と、第2のノイズ低減処理部324と、画像合成部325と、を含む。
2.2. Noise Reduction Processing Unit FIG. 5 shows a detailed configuration example of the noise
類似度検出部321は、補間処理部310とフレームメモリー330と画像合成部325に接続されている。類似度検出部321は、補間処理部310から得られる現在のRGB画像と、フレームメモリー330から得られる過去画像を用いて類似度を検出し、その類似度を画像合成部325に転送する。過去画像とは、現在のRGB画像よりも1フレーム前の時点において、ノイズ低減処理部320から出力されたNR画像である。以下現在のRGB画像を現フレーム、過去画像を前フレームと呼ぶ。類似度検出部321は、後述する下式(1)を用いて、現フレームと前フレームの所定矩形領域内の差分値を類似度として検出する。
The
撮影条件取得部322は、補間処理部310とフレームメモリー330と画像合成部325と接続されている。撮影条件取得部322は、現フレームと前フレームから被写体の動き量を検出し、その動き量を撮影条件として画像合成部325へ転送する。具体的には、撮影条件取得部322は、現フレームと前フレームの間における被写体の動きベクトルを各局所領域について検出し、その検出した動きベクトルを大きさの昇順に整列する。そして、昇順に整列された動きベクトルのうち下位の複数個の動きベクトルを抽出し、その抽出した動きベクトルの大きさの平均値を求め、その平均値を動き量とする。
The imaging
第1のノイズ低減処理部323は、補間処理部310とフレームメモリー330と画像合成部325に接続されている。第1のノイズ低減処理部323は、現フレームと前フレームを用いて時間方向のノイズ低減処理を行い、その結果の画像(以下、時間方向NR画像と呼ぶ)を画像合成部325に転送する。時間方向のノイズ低減処理の詳細は、下式(2)で後述する。
The first noise
第2のノイズ低減処理部324は、補間処理部310と画像合成部325に接続されている。第2のノイズ低減処理部324は、現フレームを用いて空間方向のノイズ低減処理を行い、その結果の画像(以下空間方向NR画像と呼ぶ)を画像合成部325に転送する。空間方向のノイズ低減処理の詳細は、下式(3)、(4)で後述する。
The second noise
画像合成部325は、類似度及び動き量に基づいて、時間方向NR画像と空間方向NR画像を合成する処理を行う。画像合成部325は、合成処理の結果の画像をフレームメモリー330と表示画像生成部340に転送する。
The
フレームメモリー330は、画像合成部325から転送されたNR画像を記憶する。そして、そのNR画像を前フレームとして、類似度検出部321と撮影条件取得部322と第1のノイズ低減処理部323に転送する。
The
2.3.類似度検出部
次に、類似度検出部の詳細について説明する。類似度検出部321は、現フレームと前フレームとを用いて、類似度である差分平均値mSADを算出する。以下に差分平均値mSADについて詳しく説明する。
2.3. Similarity Detection Unit Next, details of the similarity detection unit will be described. The
ノイズ低減処理の対象となる画素である注目画素の座標を(x,y)とすると、差分平均値mSAD(フレーム間差分値)は、下式(1)を用いて算出される。
類似度検出部321は、上式(1)のSAD(m,n)が最小となる差分平均値mSADの値を、画像合成部325へ出力する。なお、以下ではG信号についての処理を説明するが、R信号、B信号についても同一の処理が施される。
The
ここで、上式(1)において、min{}は、括弧内の値の最小値を取得する処理を表す。また、m=−1、0、1、n=−1、0、1である。また、FG_cur(x,y)は現フレームの座標(x,y)におけるG信号値であり、FG_pre(x,y)は前フレームの座標(x,y)におけるG信号値である。また、kは自然数であり、(2k+1)は差分平均値mSADを算出する際のカーネルサイズに相当する。kは、予め一定の値を設定しておくこともできるし、外部I/F部500より、ユーザーが任意の値を設定する構成としてもよい。また、||A||は、実数値Aの絶対値を取得する処理を表す。
Here, in the above formula (1), min {} represents a process of acquiring the minimum value in the parentheses. Further, m = -1, 0, 1, and n = -1, 0, 1. Further, F G_cur (x, y) is a G signal value at the coordinates (x, y) of the current frame, F G_pre (x, y) is a G signal value at the coordinates (x, y) of the previous frame. Also, k is a natural number, and (2k + 1) corresponds to the kernel size when calculating the difference average value mSAD. A constant value can be set for k in advance, or the user can set an arbitrary value from the external I /
差分平均値mSADは、被写体が静止状態である場合と動作状態(動きがある状態)である場合とで、その値が異なっている。この特徴について以下に説明する。なお、説明を簡単にするために、画像を1次元の信号として扱う。また、画像信号の成分は、図6(A)に示す構造成分と、図6(B)に示すノイズ成分で構成されているものとする。 The difference average value mSAD differs depending on whether the subject is in a stationary state or in an operating state (a state where there is motion). This feature will be described below. In order to simplify the description, the image is handled as a one-dimensional signal. In addition, it is assumed that the component of the image signal includes a structural component illustrated in FIG. 6A and a noise component illustrated in FIG.
ある時刻tにおいて図7(A)に示す画像が取得され、その直前の時刻t−1において図7(B)に示す画像が取得された場合を考える。この場合、時刻tと時刻t−1において、構造成分の位置は変化していない(静止状態に相当)。そのため、時刻tにおける画像と、時刻t−1における画像との差分値(差分値の絶対値)を求めると、図7(C)に示すように、差分値にはノイズ成分のみが含まれることになる。一方、ある時刻tにおいて図8(A)に示す画像が取得され、その直前の時刻t−1において図8(B)に示す画像が取得された場合を考える。図8(B)に示すdは、フレーム間における被写体の動き量に相当する(動作状態に相当)。この場合、時刻tにおける画像と、時刻t−1における画像の差分値を求めると、図8(C)に示すように、差分値にはノイズ成分と構造成分の両方が含まれることになる。 Consider a case where the image shown in FIG. 7A is acquired at a certain time t and the image shown in FIG. 7B is acquired at the time t-1 immediately before that. In this case, the position of the structural component does not change at time t and time t-1 (corresponding to a stationary state). Therefore, when the difference value (absolute value of the difference value) between the image at time t and the image at time t−1 is obtained, only the noise component is included in the difference value as shown in FIG. become. On the other hand, consider a case where the image shown in FIG. 8A is acquired at a certain time t, and the image shown in FIG. 8B is acquired at the time t-1 immediately before that. D shown in FIG. 8B corresponds to the amount of movement of the subject between frames (corresponding to the operating state). In this case, when the difference value between the image at time t and the image at time t−1 is obtained, the difference value includes both a noise component and a structural component as shown in FIG.
従って、動作状態における差分平均値mSADは、静止状態における差分平均値mSADよりも大きくなる特徴がある。差分平均値mSADは後述する下式(9)〜(12)で説明するように、ブレンド率の決定に用いられる。 Therefore, the difference average value mSAD in the operating state is characterized by being larger than the difference average value mSAD in the stationary state. The difference average value mSAD is used to determine the blend ratio, as will be described in the following equations (9) to (12).
2.4.第1のノイズ低減処理部
次に、時間方向のノイズ低減処理の詳細について説明する。時間方向のノイズ低減処理には、下式(2)が用いられる。
ここで、上式(2)において、FG_TimeNR(x,y)は時間方向NR画像の座標(x,y)におけるG信号値である。また、we_cur、we_preは加重平均処理時の重み係数である。重み係数we_preを重み係数we_curよりも大きくすることにより、ノイズ低減量が大きくなる。重み係数we_cur、we_preは予め一定の値を設定しておいてもよいし、外部I/F部500より、ユーザーが任意の値を設定する構成としてもよい。また、(u,v)は動きベクトルである。即ち、時間方向のノイズ低減処理において各座標(x,y)での被写体の動きベクトル(u,v)を検出し、その動きベクトル(u,v)により位置合わせを行う。
Here, in the above equation (2), FG_TimeNR (x, y) is a G signal value at the coordinates (x, y) of the time direction NR image. Further, we_cur and we_pre are weighting coefficients at the time of the weighted average process. By making the weighting coefficient we_pre larger than the weighting coefficient we_cur, the amount of noise reduction is increased. The weighting factors we_cur and we_pre may be set to certain values in advance, or the user may set arbitrary values from the external I /
2.5.第2のノイズ低減処理部
次に、空間方向のノイズ低減処理の詳細について説明する。本実施形態において、空間方向のノイズ低減処理は、ノイズ低減処理の対象となる画素(注目画素)とその周辺の画素を用いた加重平均処理である。具体的には、下式(3)を用いてノイズを低減する。
ここで、上式(3)において、we_diff_cur(x+i,y+j)、we_diff_pre(x+i,y+j)は加重平均処理時の重み係数に相当する。この係数は、下式(4)に示すように、ガウス分布で与えられる。また、Iは自然数である。また、m、nは、上式(1)において差分平均値mSADとして選択されたSAD(m,n)のm、nである。
上式(4)に示すように、本実施形態で用いられる空間方向のノイズ低減処理では、注目画素の信号値と周辺画素の信号値との差分の大きさに応じて、適応的に重み係数が設定される。具体的には、差分が大きい場合には、加重平均処理時の重みが小さくなる。従って、エッジ部など信号値が急に変化する領域の画素は加重平均処理に寄与しなくなるため、エッジ部を保持してノイズ成分のみを低減できる利点がある。 As shown in the above equation (4), in the spatial noise reduction processing used in the present embodiment, the weighting factor is adaptively set according to the difference between the signal value of the target pixel and the signal value of the surrounding pixels. Is set. Specifically, when the difference is large, the weight during the weighted average process is small. Therefore, pixels in regions where signal values change suddenly, such as edge portions, do not contribute to the weighted average processing, and there is an advantage that only noise components can be reduced while retaining edge portions.
2.6.撮影条件取得部
以上のように、ノイズ低減処理部320は、時間方向のノイズ低減処理と空間方向のノイズ低減処理を行う。時間方向のノイズ低減処理は、解像感を保持できる反面、残像の副作用があり、時間方向のノイズ低減処理は、残像が生じない反面、解像が低下する副作用がある。
2.6. Imaging condition acquisition unit As described above, the noise
そこで、本実施形態では、類似度(差分平均値mSAD)に応じて空間方向NR画像と時間方向NR画像をブレンドすることで、時間方向のノイズ低減処理と空間方向のノイズ低減処理のそれぞれの利点を活かした、高性能なノイズ低減を実現する。 Therefore, in the present embodiment, by blending the spatial direction NR image and the temporal direction NR image according to the similarity (difference average value mSAD), each advantage of the temporal direction noise reduction processing and the spatial direction noise reduction processing. Realizing high-performance noise reduction by utilizing
具体的には、差分平均値mSADの値が小さい場合には、現フレームと前フレームの間は被写体が静止状態であると判断できる。よって差分平均値mSADの値が小さいと類似性が高くなるため、時間方向NR画像のブレンド率を高くする制御を行う。逆に、差分平均値mSADの値が大きい場合には、現フレームと前フレームの間は被写体が動作状態であると判断できる。よって差分平均値mSADが大きいと類似度が低くなるため、空間方向NR画像のブレンド率を高くする制御を行う。 Specifically, when the difference average value mSAD is small, it can be determined that the subject is stationary between the current frame and the previous frame. Therefore, since the similarity increases when the difference average value mSAD is small, control is performed to increase the blend ratio of the time-direction NR image. Conversely, when the value of the difference average value mSAD is large, it can be determined that the subject is in an operating state between the current frame and the previous frame. Therefore, when the difference average value mSAD is large, the degree of similarity is low, so control is performed to increase the blend ratio of the spatial direction NR image.
このような制御によって、残像が生じない静止状態では時間方向NR画像のブレンド率を上げて解像度を向上させ、残像が生じる動作状態では空間方向NR画像のブレンド率を上げて残像を抑制できる。 By such control, the resolution can be improved by increasing the blend ratio of the time direction NR image in a still state where no afterimage is generated, and the afterimage can be suppressed by increasing the blend ratio of the spatial direction NR image in an operation state where the afterimage is generated.
しかしながら、静止状態を判断する指標として差分平均値mSADの信頼性が低い場合があり、そのような場合には、差分平均値mSADが小さい場合であっても実際には静止状態ではない可能性がある。例えば、「1.本実施形態の概要」で説明した1つ目の状況である。即ち、被写体のコントラストやノイズの影響により、差分平均値mSADを誤判定し、時間方向NR画像に残像があるにも関わらず合成度合いが高くなる場合である。 However, there is a case where the reliability of the difference average value mSAD is low as an index for determining the stationary state. In such a case, even if the difference average value mSAD is small, there is a possibility that it is not actually in the stationary state. is there. For example, this is the first situation described in “1. Overview of the present embodiment”. That is, the difference average value mSAD is erroneously determined due to the influence of the contrast and noise of the subject, and the degree of synthesis increases even though there is an afterimage in the time direction NR image.
そこで本実施形態では、画像の広い範囲における被写体の動きの程度を表すグローバルな動き量を用いてブレンド率を決定する。即ち、グローバルな動き量が大きい場合は、時間方向NR画像を少なくするようにブレンド率を調整することで、残像を抑えたノイズ低減処理を実現する。 Therefore, in the present embodiment, the blend rate is determined using a global motion amount that represents the degree of motion of the subject in a wide range of the image. That is, when the global motion amount is large, the noise reduction processing with reduced afterimage is realized by adjusting the blend rate so as to reduce the time-direction NR image.
以下、この構成について詳細に説明する。図9に撮影条件取得部322の詳細な構成例を示す。撮影条件取得部322は、公知のブロックマッチング処理を用いて複数の局所領域から動きベクトルを算出する動きベクトル検出部601と、得られた動きベクトルを昇順に並べる動きベクトル整列部602と、所定の割合で下位の動きベクトルを採用し、それらの平均値を算出する動きベクトル平均部603と、を含む。
Hereinafter, this configuration will be described in detail. FIG. 9 shows a detailed configuration example of the imaging
具体的には、動きベクトル検出部601は、現フレームに対し、図10に示すように代表点を中心とする局所領域を複数設定する。xは画像の水平走査方向における座標であり、yは画像の垂直走査方向における座標である。設定する局所領域の大きさ,数は、予め一定の値を設定しておくこともできるし、外部I/F部500によりユーザーが任意の値を設定できる構成としても良い。
Specifically, the motion
次に、動きベクトル検出部601は、設定された全ての局所領域について公知のブロックマッチング処理を用いて動きベクトル(mx,my)を算出する。ブロックマッチング処理では、現フレーム(基準画像)の各ブロックに対して、相関が高いブロックの位置を前フレーム(対象画像)内で探索する。ブロック間の相対的なズレ量が、そのブロックの動きベクトル(mx,my)に対応する。
Next, the motion
ブロックマッチングで相関の高いブロックを探索する方法としては、例えば二乗誤差SSDや、絶対誤差SADなどを用いれば良い。これは基準画像におけるブロック領域をI、対象画像におけるブロック領域をI’として、Iと相関が高いI’の位置を求める方法である。各ブロック領域での画素位置をp∈I及びq∈I’として、各画素の信号値をLp,Lqとすると、SSD,SADは、下式(5)及び下式(6)で定義され、この値が小さいほど相関が高いと評価する。
ここで、p及びqはそれぞれ2次元の値を持ち、I及びI’は2次元の領域を持つものとし、p∈Iは座標pが領域Iに含まれていることを示す。また||A||は実数値Aの絶対値を取得する処理を表す。 Here, p and q each have a two-dimensional value, I and I 'have a two-dimensional area, and pεI indicates that the coordinate p is included in the area I. || A || represents a process of acquiring the absolute value of the real value A.
動きベクトル整列部602は、全ての局所領域において算出された動きベクトル(mx,my)をサイズ(大きさ)に基づき昇順に整列する。動きベクトルのサイズは、動きベクトルの水平成分であるmxと、動きベクトルの垂直成分であるmyの、それぞれの絶対値である。算出する各代表画素における動き量mvは、下式(7)に示すように、|mx|と|my|を比較し、値の大きい方を選択したものである。
動きベクトル平均部603は、整列された動き量mvの中から、下位の所定の割合(例えば数%)の動き量mvを採用する。採用した複数の動き量mvを平均するための式を下式(8)に示す。
ここで、numは動きベクトルの数であり、mviはi番目の代表点における動き量mvであり、それらにより算出された結果がグローバルな動き量MVである。 Here, num is the number of motion vectors, mv i is the motion amount mv of the i-th representative point, the results calculated by they are global motion amount MV.
なお、上記では、動き量MVをフレーム全体で算出する例を挙げたが、これに限定されず、動き量MVを所定領域毎、若しくは画素毎で算出しても良い。 In the above example, the motion amount MV is calculated for the entire frame. However, the present invention is not limited to this, and the motion amount MV may be calculated for each predetermined region or each pixel.
2.7.画像合成部
図11に、画像合成部325の詳細な構成例を示す。画像合成部325は、類似度である差分平均値mSADとグローバルな動き量MVとに基づいてブレンド率を決定するブレンド率決定部611と、そのブレンド率に基づいて時間方向NR画像と空間方向NR画像をブレンドするブレンド処理部612と、を含む。
2.7. Image Composition Unit FIG. 11 shows a detailed configuration example of the
具体的には、ブレンド率決定部611は、制御部390からブレンド率を決定するためのパラメーターを取得し、類似度検出部321から類似度(差分平均値mSAD)を取得し、撮影条件取得部322から動き量MVを取得する。そして、下式(9)によりブレンド率αを決定する。ブレンド率αは空間方向NR画像のブレンド率であり、時間方向NR画像のブレンド率は(1−α)となる。
αは、0以上1以下の値となるように正規化する。また、BLEND_mSADは類似度に関するブレンド率であり、BLEND_CONDITIONは観察条件に関するブレンド率である。 α is normalized so as to be a value between 0 and 1. BLEND_mSAD is a blend rate related to the similarity, and BLEND_CONDITION is a blend rate related to the observation condition.
まず、類似度に関するブレンド率BLEND_mSADについて説明する。メモリー250は、ブレンド率BLEND_mSADを決定するのに用いるパラメーターである閾値mSAD_TH及び傾きmSAD_SLPを保持している。これらのパラメーターは、予めメモリー250に登録しておく。制御部390は、メモリー250を参照して、パラメーターを画像合成部325に転送する。
First, the blend rate BLEND_mSAD related to the similarity will be described. The
図12に示すように、横軸を差分平均値mSADとし、縦軸をブレンド率BLEND_mSADとする。まず、閾値mSAD_THと傾きmSAD_SLPを用いて下式(10)によりBLEND_mSAD’を算出する。
次に、下式(11)に示すようにBLEND_mSAD’を下限値0と上限値64でクリッピングする。下限値0と上限値64は任意の値に設定可能である。
次に、下式(12)に示すようにBLEND_mSAD’を正規化してBLEND_mSADを求める。
差分平均値mSADは各位置(x,y)で算出するので、ブレンド率BLEND_mSADは各位置(x,y)で異なる値となる。即ち、最終的なブレンド率αも各位置(x,y)で異なる値をもつことになる。 Since the difference average value mSAD is calculated at each position (x, y), the blend rate BLEND_mSAD becomes a different value at each position (x, y). That is, the final blend rate α also has a different value at each position (x, y).
次に、観察条件に関するブレンド率BLEND_CONDITIONについて説明する。下式(13)に示すように、ブレンド率BLEND_CONDITIONは、動き量MVに関するブレンド率BLEND_MVである。
メモリー250は、ブレンド率BLEND_MVを決定するのに用いるパラメーター、閾値MV_THと傾きMV_SLPを保持している。これらのパラメーターは、予めメモリー250に登録しておく。制御部390は、メモリー250を参照して、パラメーターを画像合成部325に転送する。
The
図13に示すように、横軸を動き量MVとし、縦軸をブレンド率BLEND_MVとする。まず、閾値MV_THと傾きMV_SLPを用いて下式(14)によりBLEND_MV’を求める。そして、下式(15)によりBLEND_MV’をクリッピングし、下式(16)に示すようにBLEND_MV’を正規化してブレンド率BLEND_MVを求める。
閾値mSAD_TH、mSAD_THを設けるのは以下の理由による。即ち、閾値の存在により、差分平均値mSADや動き量MVがある程度の大きさになるまでは空間方向NR画像のブレンド率αが低くなる。これにより、残像が発生しにくい条件では時間方向NR画像のブレンド率(1−α)を高くでき、解像度を維持できるからである。 The thresholds mSAD_TH and mSAD_TH are provided for the following reason. That is, due to the presence of the threshold value, the blend ratio α of the spatial direction NR image is lowered until the difference average value mSAD and the motion amount MV become a certain level. This is because the blend ratio (1-α) of the time-direction NR image can be increased and the resolution can be maintained under conditions where afterimages are unlikely to occur.
ブレンド処理部612は、上記のようにして決定されたブレンド率αに基づいて、第1のノイズ低減処理部323からの時間方向NR画像と第2のノイズ低減処理部324からの空間方向NR画像とをブレンドする。
Based on the blend rate α determined as described above, the
具体的には、下式(17)によりブレンド結果の画像FG_NR(x,y)を求める。
ここで、FG_TimeNR(x,y)は時間方向NR画像の画素値であり、FG_SpaceNRは空間方向NR画像の画素値である。 Here, FG_TimeNR (x, y) is a pixel value of the time direction NR image, and FG_SpaceNR is a pixel value of the spatial direction NR image.
なお、上記ではブレンド率BLEND_mSAD、BLEND_MVを用いて空間方向NR画像のブレンド率αを算出する例を説明したが、これに限定されず、時間方向NR画像のブレンド率(1−α)を算出するようにしても良い。その場合は、図12、図13のグラフが右下がりとなる。 In the above description, the example of calculating the blend ratio α of the spatial direction NR image using the blend ratios BLEND_mSAD and BLEND_MV has been described. However, the present invention is not limited to this, and the blend ratio (1-α) of the time direction NR image is calculated. You may do it. In that case, the graphs of FIG. 12 and FIG.
以上の第1実施形態によれば、撮影条件取得部322は、撮像部200と被写体との間の相対的な動き量MVを動き情報として取得する。そして、画像合成部325は、動き量MVが大きいほど第1画像(時間方向NR画像)の合成度合いを低くすると共に第2画像(空間方向NR画像)の合成度合いを高くする。
According to the first embodiment described above, the imaging
具体的には、撮影条件取得部322は、撮像画像上での被写体のフレーム間における動きベクトルの大きさを動き量MVとして取得する。なお、動き量は画像から動きベクトルを検出する場合に限定されず、例えば撮像部200に加速度センサー等のモーションセンサー(変位量検出部)を設け、そのセンシング信号に基づいて動き量を検出してもよい。
Specifically, the imaging
このようにすれば、類似度が低い場合であっても、動き量MVが検出された場合には時間方向NR画像の合成度合いを低くできるので、最終的なNR画像において残像を抑制できる。 In this way, even if the degree of similarity is low, if the amount of motion MV is detected, the degree of synthesis of the time-direction NR image can be lowered, so that afterimages can be suppressed in the final NR image.
具体的には、図12に示すように、局所的な類似度が低くなるほど(差分平均値mSADの値が大きくなるほど)ブレンド率BLEND_mSADの値が大きくなるので、空間方向NR画像のブレンド率αが大きくなる。また、図13に示すように、グローバルな動き量MVが大きくなるほどブレンド率BLEND_MVの値が大きくなるので、空間方向NR画像のブレンド率αが大きくなる。 Specifically, as shown in FIG. 12, the blend ratio BLEND_mSAD increases as the local similarity decreases (as the difference average value mSAD increases), so that the blend ratio α of the spatial direction NR image increases. growing. Also, as shown in FIG. 13, as the global motion amount MV increases, the blend rate BLEND_MV increases, so the blend rate α of the spatial direction NR image increases.
これにより、局所的な類似度又はグローバルな動き量MVの少なくとも一方が大きい場合には、時間方向NR画像のブレンド率(1−α)が小さくなり、残像を低減できる。特に、局所的な類似度が高い(差分平均値mSADの値が小さい)場合であっても、グローバルな動き量MVが大きい場合には時間方向NR画像に残像が発生しやすいが、本実施形態ではグローバルな動き量MVを考慮しているため時間方向NR画像のブレンド率(1−α)が小さくなり、残像を抑制できる。 Thereby, when at least one of the local similarity or the global motion amount MV is large, the blend ratio (1-α) of the time direction NR image becomes small, and the afterimage can be reduced. In particular, even when the local similarity is high (the difference average value mSAD is small), if the global motion amount MV is large, an afterimage is likely to occur in the time-direction NR image. However, since the global motion amount MV is taken into consideration, the blend ratio (1-α) of the time-direction NR image is reduced, and the afterimage can be suppressed.
なお、第1実施形態では合成処理はブレンド処理であるが、第3実施形態で説明するように合成処理は選択処理であってもよい。選択処理の場合にも、上記と同様の効果が得られる。 In the first embodiment, the synthesis process is a blend process, but as described in the third embodiment, the synthesis process may be a selection process. In the case of the selection process, the same effect as described above can be obtained.
また第1実施形態では、撮影条件取得部322は、撮像画像の複数の領域について動きベクトルを検出し、その複数の領域についての動きベクトルを大きさmv(上式(7))の順に並べる。そして、撮影条件取得部322は、大きさmvが小さい方から所定割合の動きベクトルの平均値(上式(8))を動き量MVとして取得する。
In the first embodiment, the imaging
例えば鉗子により処置を行っているような場合、背景が静止しているが、画面全体の中で比較的少ない領域の被写体(鉗子)が大きく動いている状況が生まれる。このような状況では、できるだけ時間方向NR画像を採用して解像度を高くすることが望ましい。 For example, when a treatment is performed with forceps, the background is stationary, but a subject (forceps) in a relatively small area in the entire screen moves greatly. In such a situation, it is desirable to increase the resolution by adopting the time direction NR image as much as possible.
しかしながら、このような場合に、全ての動き量mvを採用して最終的なグローバルな動き量MVを求めると、動いている被写体(鉗子)の動き量mvによりグローバルな動き量MVが大きくなってしまう。そうすると、背景が静止してグローバルな動きがないにも関わらず、動きがあるかのような動き量MVが算出され、時間方向NR画像の合成度合いが低くなる。 However, in such a case, when the final global motion amount MV is obtained by adopting all the motion amounts mv, the global motion amount MV increases due to the motion amount mv of the moving subject (forceps). End up. Then, although the background is stationary and there is no global motion, the motion amount MV as if there is motion is calculated, and the degree of synthesis of the time direction NR image is reduced.
この点、本実施形態では、大きさmvが小さい方から所定割合の動きベクトルを採用するので、上記の鉗子のような画像の一部で動きがあっても、その動きベクトルの大きさmvは除外される。これにより、背景に動きがない場合には動き量MVとして小さい値を算出でき、時間方向NR画像の合成度合いを高くできる。 In this regard, in the present embodiment, since a predetermined percentage of motion vectors is adopted from the smaller size mv, even if there is motion in a part of the image such as the above-mentioned forceps, the magnitude mv of the motion vector is Excluded. Thereby, when there is no motion in the background, a small value can be calculated as the motion amount MV, and the degree of synthesis of the time direction NR image can be increased.
3.第2実施形態
次に、第2実施形態について説明する。「1.本実施形態の概要」で説明したように、画質を低下させる2つ目の状況として画像の明るさに大きな変化が生じた場合がある。例えば、現フレームが暗い画像であり、前フレームが明るい画像であるとする。この場合、空間方向NR画像は現フレームと同じく暗い画像となり、時間方向NR画像は現フレームと前フレームを加算した中間の明るさの画像となる。これらの画像は、場所によって異なるブレンド率αでブレンドされるので、明るさの異なる画素や領域が隣り合わせとなり、その明るさの違いが偽輪郭として現れ、アーティファクトとなってしまう。
3. Second Embodiment Next, a second embodiment will be described. As described in “1. Overview of the present embodiment”, there is a case where a large change occurs in the brightness of the image as a second situation in which the image quality is deteriorated. For example, assume that the current frame is a dark image and the previous frame is a bright image. In this case, the spatial direction NR image is a dark image like the current frame, and the temporal direction NR image is an intermediate brightness image obtained by adding the current frame and the previous frame. Since these images are blended at different blend ratios α depending on places, pixels or regions having different brightness are adjacent to each other, and the difference in brightness appears as a false contour, resulting in an artifact.
そこで第2実施形態では、フレーム間における明るさの変化量を考慮してブレンド率αを決定する。なお、以下では撮影条件として動き量MVと明るさの変化量を組み合わせる場合を例に説明するが、これに限定されず、撮影条件として明るさの変化量のみを用いてもよい。 Therefore, in the second embodiment, the blend rate α is determined in consideration of the amount of change in brightness between frames. In the following, a case where the motion amount MV and the brightness change amount are combined as an imaging condition will be described as an example. However, the present invention is not limited to this, and only the brightness change amount may be used as the imaging condition.
図14に、第2実施形態における撮影条件取得部322の詳細な構成例を示す。撮影条件取得部322は、動きベクトル検出部601と動きベクトル整列部602と動きベクトル平均部603と明るさ変化量検出部604とを含む。なお、内視鏡装置及びノイズ低減処理部320の構成は第1実施形態と同じである。また、すでに説明した構成要素と同一の構成要素については同一の符号を付し、適宜説明を省略する。
FIG. 14 shows a detailed configuration example of the imaging
明るさ変化量検出部604は、現フレームと前フレームのフレーム間における明るさの変化を、明るさの変化量として検出し、その明るさの変化量を画像合成部325へ転送する。
The brightness change
具体的には、下式(18)に示すように、現フレームの画素値又は輝度値の平均値Aveall_curと、前フレームの画素値又は輝度値の平均値Aveall_preとを求め、それらの差分値を明るさの変化量AVEall_diffとして求める。
平均値Aveall_cur、Aveall_preは画像全体の明るさを代表している。例えば、画像の中心位置(x,y)=(W/2,L/2)を中心とする所定矩形内の画素の画素値を平均して求められる。Wは水平走査方向の画像サイズであり、Lは垂直走査方向の画像サイズである。 The average values Ave all_cur and Ave all_pre represent the brightness of the entire image. For example, the pixel values of pixels within a predetermined rectangle centered at the center position (x, y) = (W / 2, L / 2) of the image are obtained by averaging. W is the image size in the horizontal scanning direction, and L is the image size in the vertical scanning direction.
画像合成部325は、上記で求めた明るさの変化量AVEall_diffと、第1実施形態で説明した類似度(差分平均値mSAD)及びグローバルの動き量MVに基づいて、時間方向NR画像と空間方向NR画像をブレンドする。
Based on the brightness change amount AVE all_diff obtained in the above, the similarity (difference average value mSAD) and the global motion amount MV described in the first embodiment, the
具体的には、第1実施形態の図11と同様に、画像合成部325はブレンド率決定部611とブレンド処理部612を含む。
Specifically, as in FIG. 11 of the first embodiment, the
ブレンド率決定部611は、制御部390からブレンド率を決定するためのパラメーターを取得し、類似度検出部321から差分平均値mSADを取得し、撮影条件取得部322から動き量MVと明るさの変化量AVEall_diffを取得する。
The blend
ブレンド率αを決定する式は上式(9)と同じであるが、観察条件に関するブレンド率BLEND_CONDITIONは、下式(19)となる。BLEND_LNは、明るさの変化量AVEall_diffに関するブレンド率である。
ブレンド率BLEND_LNは、以下のようにして求める。即ち、メモリー250は、ブレンド率BLEND_LNを決定するのに用いるパラメーターとして閾値LN_THと傾きLN_SLPを保持している。これらのパラメーターは、予めメモリー250に登録しておく。制御部390は、メモリー250を参照して、パラメーターを画像合成部325に転送する。
The blend rate BLEND_LN is obtained as follows. In other words, the
図15に示すように、横軸をフレームごとの明るさの変化量AVEall_diffとし、縦軸をブレンド率BLEND_LNとする。まず、閾値LN_THと傾きLN_SLPを用いて下式(20)によりBLEND_LN’を求める。そして、下式(21)によりBLEND_LN’をクリッピングし、下式(22)に示すようにBLEND_LN’を正規化してブレンド率BLEND_LNを求める。
閾値LN_THを設けるのは以下の理由による。即ち、閾値の存在により、明るさの変化量AVEall_diffがある程度の大きさになるまでは空間方向NR画像のブレンド率αが低くなる。これにより、アーティファクトが発生しにくい条件では時間方向NR画像のブレンド率(1−α)を高くでき、解像度を維持できるからである。 The reason why the threshold value LN_TH is provided is as follows. That is, due to the presence of the threshold, the blend ratio α of the spatial direction NR image is lowered until the brightness change amount AVE all_diff becomes a certain level. This is because the blend ratio (1-α) of the time-direction NR image can be increased and the resolution can be maintained under conditions where artifacts are unlikely to occur.
なお、上記ではブレンド率BLEND_mSAD、BLEND_CONDITIONを用いて空間方向NR画像のブレンド率αを算出する例を説明したが、これに限定されず、時間方向NR画像のブレンド率(1−α)を算出するようにしても良い。その場合は、図12、図13、図15のグラフが右下がりとなる。 In the above description, the example of calculating the blend ratio α of the spatial direction NR image using the blend ratios BLEND_mSAD and BLEND_CONDITION has been described. You may do it. In that case, the graphs of FIG. 12, FIG. 13, and FIG.
以上の第2実施形態によれば、撮影条件取得部322は、撮像画像のフレーム間における明るさの変化量AVEall_diffを動き情報として取得する。そして、画像合成部325は、明るさの変化量AVEall_diffが大きいほど第1画像(時間方向NR画像)の合成度合いを低くすると共に第2画像(空間方向NR画像)の合成度合いを高くする。
According to the second embodiment described above, the imaging
このようにすれば、類似度が低い場合であっても、明るさの変化量AVEall_diffが検出された場合には時間方向NR画像の合成度合いを低くできるので、アーティファクトを抑制できる。 In this way, even if the degree of similarity is low, if the brightness change amount AVE all_diff is detected, the degree of synthesis of the time-direction NR image can be lowered, and thus artifacts can be suppressed.
具体的には、図15に示すように、明るさの変化量AVEall_diffが大きくなるほどブレンド率BLEND_LNの値が大きくなるので、空間方向NR画像のブレンド率αが大きくなる。即ち、局所的な類似度が高い(差分平均値mSADの値が小さい)場合であっても、画像全体の明るさの変化量AVEall_diffが大きい場合には時間方向NR画像のブレンド率(1−α)が小さくなる。これにより、明るさが異なる空間方向NR画像と時間方向NR画像が混在してブレンドされることがなくなり、アーティファクトを抑制できる。 Specifically, as shown in FIG. 15, as the brightness change amount AVE all_diff increases, the value of the blend rate BLEND_LN increases, so the blend rate α of the spatial direction NR image increases. That is, even when the local similarity is high (the difference average value mSAD is small), if the brightness change amount AVE all_diff of the entire image is large, the blend ratio (1− α) becomes smaller. Thereby, the spatial direction NR image and the time direction NR image having different brightness are not mixed and blended, and the artifact can be suppressed.
なお、第2実施形態では合成処理はブレンド処理であるが、第3実施形態で説明するように合成処理は選択処理であってもよい。選択処理の場合にも、上記と同様の効果が得られる。 In the second embodiment, the synthesis process is a blend process, but as described in the third embodiment, the synthesis process may be a selection process. In the case of the selection process, the same effect as described above can be obtained.
4.第3実施形態
次に、第3実施形態について説明する。第3実施形態では、類似度である差分平均値mSADと動き量MVと明るさの変化量AVEall_diffを用いて閾値を決定し、その閾値に基づいて時間方向NR画像と空間方向NR画像のいずれかを選択する。
4). Third Embodiment Next, a third embodiment will be described. In the third embodiment, a threshold value is determined using a difference average value mSAD that is a similarity, a motion amount MV, and a brightness change amount AVE all_diff , and based on the threshold value, either a time direction NR image or a spatial direction NR image Select.
なお、以下では動き量MVと明るさの変化量AVEall_diffの双方を用いて閾値を決定する場合を説明するが、これに限定されず、動き量MVと明るさの変化量AVEall_diffのいずれか一方を用いて閾値を決定してもよい。 In the following description, the threshold value is determined using both the motion amount MV and the brightness change amount AVE all_diff. However, the present invention is not limited to this, and any one of the motion amount MV and the brightness change amount AVE all_diff is described. One may be used to determine the threshold value.
図16に、第3実施形態における画像合成部325の詳細な構成例を示す。画像合成部325は、閾値決定部621と選択部622を含む。なお、内視鏡装置及びノイズ低減処理部320の構成は第1実施形態と同じであり、撮影条件取得部322の構成は第2実施形態と同じである。また、すでに説明した構成要素と同一の構成要素については同一の符号を付し、適宜説明を省略する。
FIG. 16 shows a detailed configuration example of the
メモリー250は、類似度に関する閾値mSAD_THをパラメーターとして保持している。制御部390は、メモリー250に保持されているパラメーターを参照し、画像合成部325にパラメーターを送る。
The
閾値決定部621は、制御部390から閾値を決定するためのパラメーターを取得し、類似度検出部321から類似度(差分平均値mSAD)を取得し、撮影条件取得部322から動き量MVと明るさの変化量AVEall_diffを取得する。閾値決定部621は、取得した類似度、動き量、明るさの変化量に基づいて閾値を決定する。
The
具体的には、閾値決定部621では、閾値mSAD_THと、撮影条件に関する値CONDITION_VALを用いて、下式(23)のように閾値mSAD_TH’を再設定する。
ここで、CONDITION_VALは、動き量MVと明るさの変化量AVEall_diffを用いて下式(24)のように算出する。CONDITION_VALの下限値0と上限値64は任意の値に設定可能である。また、上式(23)においてCONDITION_VAL/64の分母64は、CONDITION_VALの上限値と同一の値であり、正規化を意味する。
上式(23)、(24)によれば、動き量MV又は明るさの変化量AVEall_diffが大きいほど閾値mSAD_THよりも小さくなるような閾値mSAD_TH’を設定することができる。 According to the above equations (23) and (24), the threshold value mSAD_TH ′ can be set such that the larger the motion amount MV or the brightness change amount AVE all_diff, the smaller the threshold value mSAD_TH.
選択部622は、閾値mSAD_TH’に基づいて、時間方向NR画像若しくは、空間方向NR画像の何れかを選択し、その選択した画像をフレームメモリー330と表示画像生成部340に転送する。
The
具体的には、選択部622は、再設定された閾値mSAD_TH’と類似度である差分平均値mSADを用いて下式(25)のように判別処理を行う。
FG_TimeNR(x,y)は時間方向NR画像の画素値であり、FG_SpaceNRは空間方向NR画像の画素値であり、FG_NR(x,y)は選択された画像である。 F G_TimeNR (x, y) is a pixel value of the time direction NR image, F G_SpaceNR is a pixel value of the spatial direction NR image, and F G_NR (x, y) is the selected image.
差分平均値mSADがmSAD_TH’よりも小さい場合は、差分平均値mSADによる局所的な動き検出が成功している、或は現フレームと前フレームで明るさの変化が少ないと判断できるので、時間方向のノイズ低減処理の結果を選択する。一方、差分平均値mSADがmSAD_TH’よりも大きい場合は、差分平均値mSADによる局所的な動き検出が失敗している、或は現フレームと前フレームの明るさの変化が大きいと判断できるので、空間方向のノイズ低減処理の結果を選択する。このようにして、撮影条件を考慮することにより残像やアーティファクトを抑制できる。 When the difference average value mSAD is smaller than mSAD_TH ′, it can be determined that the local motion detection based on the difference average value mSAD is successful, or that there is little change in brightness between the current frame and the previous frame. Select the result of noise reduction processing. On the other hand, when the difference average value mSAD is larger than mSAD_TH ′, it can be determined that the local motion detection based on the difference average value mSAD has failed, or the change in brightness between the current frame and the previous frame is large. Select the result of noise reduction processing in the spatial direction. In this way, afterimages and artifacts can be suppressed by taking the imaging conditions into consideration.
5.第4実施形態
次に、第4実施形態について説明する。第4実施形態では、明るさの変化量AVEall_diffに基づいて画像の明るさを補正することで、空間方向NR画像と時間方向NR画像の明るさを合わせ、アーティファクトを抑制する。具体的には、時間方向NR画像に明るさの変化量AVEall_diffを加算してから空間方向NR画像とブレンド若しくは選択を行う。
5. Fourth Embodiment Next, a fourth embodiment will be described. In the fourth embodiment, by correcting the brightness of the image based on the brightness change amount AVE all_diff , the brightness of the spatial direction NR image and the time direction NR image are matched, and artifacts are suppressed. Specifically, the brightness change amount AVE all_diff is added to the time direction NR image, and then blended or selected with the spatial direction NR image.
まず、ブレンドを行う場合について説明する。画像合成部325の構成は図11の第1実施形態と同じである。また、内視鏡装置及びノイズ低減処理部320の構成は図1、図5の第1実施形態と同じであり、撮影条件取得部322の構成は図14の第2実施形態と同じである。
First, a case where blending is performed will be described. The configuration of the
明るさ変化量検出部604は、下式(26)に示すように、注目画素(x、y)を中心とする所定矩形内における現フレームの画素値の平均値AVEcur(x,y)と前フレームの画素値の平均値AVEpre(x+u,x+v)をとり、現フレームと前フレームの明るさの変化量AVEdiff(x,y)を算出する。(u,v)は上式(2)の動きベクトル(u,v)である。即ち、明るさ変化量検出部604は、第1のノイズ低減処理部323により検出された動きベクトル(u,v)を受けて、位置合わせを行う。なお、動き検出をしなかった場合には(u,v)=(0,0)である。
画像合成部325は、下式(27)に示すように、明るさの変化量AVEdiff(x,y)を時間方向NR画像FG_TimeNR(x,y)に加算し、その画像と空間方向NR画像FG_SpaceNR(x,y)とをブレンドする。
次に、選択を行う場合について説明する。画像合成部325の構成は図16の第3実施形態と同じである。また、内視鏡装置及びノイズ低減処理部320の構成は図1、図5の第1実施形態と同じであり、撮影条件取得部322の構成は図14の第2実施形態と同じである。
Next, a case where selection is performed will be described. The configuration of the
明るさ変化量検出部604は、上式(26)により明るさの変化量AVEdiff(x,y)を算出する。そして、画像合成部325は、下式(28)に示すように、明るさの変化量AVEdiff(x,y)を時間方向NR画像FG_TimeNR(x,y)に加算し、その画像と空間方向NR画像FG_SpaceNR(x,y)のいずれかを選択する。
以上の処理の効果として、明るさの変化量AVEdiff(x,y)を時間方向NR画像に加算してからブレンドすることで、明るさの違いによるアーティファクトを防ぐことができる。 As an effect of the above processing, the brightness change amount AVE diff (x, y) is added to the time direction NR image and then blended, thereby preventing artifacts due to the difference in brightness.
6.第5実施形態
次に、第5実施形態について説明する。第5実施形態では、画像の種類を撮影条件としてブレンド率や選択を制御する。
6). Fifth Embodiment Next, a fifth embodiment will be described. In the fifth embodiment, the blend rate and selection are controlled using the type of image as a shooting condition.
図17に、第5実施形態における内視鏡装置の構成例を示す。内視鏡装置は、光源部100と、撮像部200と、制御装置300と、表示部400と、外部I/F部500と、を含む。なお以下では、すでに説明した構成要素と同一の構成要素については同一の符号を付し、適宜説明を省略する。
FIG. 17 shows a configuration example of an endoscope apparatus according to the fifth embodiment. The endoscope apparatus includes a
撮像部200は、ライトガイドファイバー210と、照明レンズ220と、集光レンズ230と、撮像素子240と、メモリー250と、フィルター駆動部280と、狭帯域フィルター290と、を含む。フィルター駆動部280は狭帯域フィルター290に接続されており、さらに制御部390と双方向に接続されている。
The
狭帯域フィルター290は、図18に示すように、380〜450nm、及び530〜550nmの光を透過する。また、狭帯域フィルター290は、集光レンズ230及び撮像素子240の間の光路に挿入できるようになっている。狭帯域フィルター290の挿入・非挿入は、例えば外部I/F部500よりユーザーが制御する。この場合、ユーザーの指示が、外部I/F部500より制御部390を介してフィルター駆動部280に送られ、フィルター駆動部280が狭帯域フィルター290を駆動する。狭帯域フィルター290が光路中に挿入されている場合、制御部390は、補間処理部310及びノイズ低減処理部320へトリガー信号を出力する。
As shown in FIG. 18, the
補間処理部310は、撮像素子240により撮影される画像に対して補間処理を行う。補間処理部310は、上述のトリガー信号が制御部390から出力されてない場合(狭帯域フィルター290が挿入されてない場合)には、第1実施形態と同一の手法によりRGB画像を生成する。以下では狭帯域フィルター290が挿入されない場合に取得されるRGB画像を、白色光画像と呼ぶ。
The
一方、トリガー信号が制御部390から出力されている場合(狭帯域フィルター290が挿入されている場合)には、補間処理部310は、G信号及びB信号に対してのみ補間処理を行う。補間処理は、例えば公知のバイキュービック補間処理である。この場合、補間処理部310は、全画素においてG信号を有するG画像と、全画素においてB信号を有するB画像とを、補間処理により生成する。そして、RGB画像のR信号にG画像を入力し、RGB画像のG信号とB信号にB画像を入力することで、RGB画像を生成する。以下では、狭帯域フィルター290が挿入されている場合に取得されるRGB画像を、狭帯域光画像(特殊光画像)と呼ぶ。
On the other hand, when the trigger signal is output from the control unit 390 (when the
なお、上記では、狭帯域フィルター290を光路に挿入することにより狭帯域光画像を撮像する場合を例に説明したが、本実施形態はこれに限定されない。例えば、光源部100が、特殊光(狭義には狭帯域光)を出射することにより狭帯域光画像を撮像してもよい。あるいは、撮像部200が、特殊光を透過する色フィルターを有する撮像素子を更に含み、その撮像素子により狭帯域光画像を撮像してもよい。あるいは、画像処理により白色光画像から狭帯域光画像を生成してもよい。
In the above description, the case where a narrowband light image is captured by inserting the
さて、狭帯域光画像は、白色光画像と比べて光の波長帯域が狭いので光量が不足し、ノイズが増加(S/Nが低下)する。即ち、白色光画像と狭帯域光画像とでは撮影条件が異なっている。上述したようにS/Nが低下した画像ではNR画像に残像が出やすいため、白色光画像と同じブレンド率や閾値で狭帯域光画像のノイズ低減処理を行うと、狭帯域光画像のNR画像に残像が出てしまうという課題がある。 Now, since the narrow-band light image has a narrower wavelength band of light than the white light image, the amount of light is insufficient and noise increases (S / N decreases). That is, the photographing conditions are different between the white light image and the narrow-band light image. As described above, since an afterimage is likely to appear in an NR image in an image with a reduced S / N, if the noise reduction processing of a narrowband light image is performed with the same blend ratio and threshold as the white light image, the NR image of the narrowband light image There is a problem that an afterimage appears.
そこで本実施形態では、撮影条件に画像の種類を用いることで、それぞれの画像に合ったブレンド率や閾値の設定をする。白色光画像の場合は、第1実施形態で設定されたブレンド率や閾値を用い、狭帯域光画像の場合は、白色光画像と比べてノイズ量が増加し、差分平均値mSADによる判定精度が低下してしまうことを考慮してブレンド率や閾値を設定する。具体的には、白色光画像と比べて、空間方向NR画像を用いる割合を増やす。 Therefore, in the present embodiment, by using the type of image as the shooting condition, a blend rate and a threshold value that match each image are set. In the case of a white light image, the blend rate and threshold set in the first embodiment are used. In the case of a narrow band light image, the amount of noise increases compared to the white light image, and the determination accuracy based on the difference average value mSAD is improved. The blend rate and threshold value are set in consideration of the decrease. Specifically, the ratio of using the spatial direction NR image is increased as compared with the white light image.
このように、画像の種類に合わせて、時間方向NR画像と空間方向NR画像のブレンド率や閾値を決定し、ブレンドや選択を行うことで、残像を低減した高性能なノイズ低減を実現できる。 As described above, by determining the blending rate and threshold value of the time direction NR image and the spatial direction NR image in accordance with the type of the image, and performing blending and selection, high-performance noise reduction with reduced afterimage can be realized.
まず、ブレンドを行う場合について説明する。図19に、第5実施形態における撮影条件取得部322の詳細な構成例を示す。撮影条件取得部322は、動きベクトル検出部601と動きベクトル整列部602と動きベクトル平均部603と明るさ変化量検出部604と種類情報取得部605とを含む。なお、ノイズ低減処理部320及び画像合成部325の構成は図5、図11の第1実施形態と同じである。
First, a case where blending is performed will be described. FIG. 19 shows a detailed configuration example of the imaging
種類情報取得部605は、白色光画像か狭帯域光画像かを識別するための種類情報を制御部390から取得する。種類情報は、外部I/F部500によりユーザーが狭帯域フィルター290を挿入した場合に制御部390が出力するトリガー信号である。例えば、制御部390は、白色光画像の場合は“0”をトリガー信号として出力し、狭帯域光画像の場合は“1”をトリガー信号として出力する。種類情報取得部605は、画像合成部325と接続されており、種類情報を画像合成部325に転送する。
The type
画像合成部325は、撮影条件取得部322から取得した種類情報に応じたパラメーターと類似度からブレンド率αを算出し、そのブレンド率αに基づいてブレンド処理を行う。
The
具体的には、メモリー250は、白色光画像に対応するブレンド率BLEND_WILと狭帯域画像に対応するブレンド率BLEND_NBIを保持している。BLEND_NBI、BLEND_WILは0以上1以下であり、BLEND_NBIはBLEND_WILよりも大きい値を持つ。
Specifically, the
ブレンド率決定部611は、撮影条件取得部322から種類情報を取得し、撮影条件に関するブレンド率BLEND_CONDITIONを下式(29)により算出する。
BLEND_IMAGETYPEは、画像の種類に関するブレンド率である。ブレンド率決定部611は、下式(30)に示すように、トリガー信号TS=0の場合には、白色光画像に対応したブレンド率BLEND_WLIをブレンド率BLEND_IMAGETYPEとして設定する。一方、トリガー信号TS=1の場合には、狭帯域光画像に対応したブレンド率BLEND_NBIをブレンド率BLEND_IMAGETYPEとして設定する。
ブレンド処理部612は、上記のようにして設定したブレンド率BLEND_CONDITIONを上式(9)に代入してブレンド率αを求め、上式(17)により時間方向NR画像と空間方向NR画像をブレンドする。
The
次に、選択を行う場合について説明する。撮影条件取得部322及びノイズ低減処理部320の構成はブレンドを行う場合と同じである。また、画像合成部325の構成は図16の第3実施形態と同じである。
Next, a case where selection is performed will be described. The configurations of the imaging
メモリー250は、白色光画像に対応する値VAL_WLIと狭帯域画像に対応する値VAL_NBIを保持している。ただし、VAL_NBIはVAL_WLIよりも大きい値を持つ。
The
閾値決定部621は、撮影条件取得部322から種類情報を取得し、撮影条件に関する値CONDITION_VALを下式(31)により算出する。
VAL_IMAGETYPEは画像の種類に関する値である。閾値決定部621は、下式(32)に示すように、トリガー信号TS=0の場合には、白色光画像に対応した値VAL_WLIを値VAL_IMAGETYPEとして設定する。一方、トリガー信号TS=1の場合には、狭帯域光画像に対応した値VAL_NBIを値VAL_IMAGETYPEとして設定する。
閾値決定部621は、上記のようにして設定した値CONDITION_VALを上式(23)に代入して閾値mSAD_TH’を求め、上式(25)により時間方向NR画像と空間方向NR画像のいずれかを選択する。
The threshold
以上の第5実施形態によれば、撮影条件取得部322は、撮像画像の種類を撮影条件として取得する。そして、画像合成部325は、撮像画像の種類が第1の種類である場合と、撮像画像の種類が第2の種類である場合とで、合成度合いを変更する。
According to the fifth embodiment described above, the shooting
具体的には、第1の種類は、白色の波長帯域における情報を有した白色光画像であり、第2の種類は、特定の波長帯域における情報を有した特殊光画像(狭帯域光画像)である。そして、画像合成部325は、撮像画像の種類が特殊光画像である場合には、撮像画像の種類が白色光画像である場合に比べて、第1画像(時間方向NR画像)の合成度合いを低くすると共に第2画像(空間方向NR画像)の合成度合いを高くする。
Specifically, the first type is a white light image having information in a white wavelength band, and the second type is a special light image (narrow band light image) having information in a specific wavelength band. It is. Then, when the type of the captured image is a special light image, the
このように、画像の種類に応じて異なる合成度合いで合成処理(ブレンド処理又は選択処理)を行うことで、残像が発生しやすい画像の種類である場合であっても時間方向NR画像の合成度合いを下げて、残像を抑制できる。 In this way, by performing synthesis processing (blend processing or selection processing) with different synthesis levels depending on the type of image, the degree of synthesis of the time direction NR image even when the type of image is likely to generate afterimages. The afterimage can be suppressed by lowering.
具体的には、白色光画像の場合は、第1実施形態で設定されたブレンド率や閾値を用い、狭帯域光画像の場合は、白色光画像と比べてノイズ量が増加し、差分平均値mSADによる判定精度が低下してしまうことを考慮してブレンド率や閾値を設定する。即ち、白色光画像と比べて、空間方向NR画像を用いる割合を増やすことで、最終的なNR画像において残像を抑制できる。 Specifically, in the case of a white light image, the blend ratio and the threshold set in the first embodiment are used. In the case of a narrow band light image, the amount of noise increases compared to the white light image, and the difference average value A blend rate and a threshold value are set in consideration of a decrease in determination accuracy by mSAD. In other words, afterimages can be suppressed in the final NR image by increasing the ratio of using the spatial direction NR image compared to the white light image.
また第5実施形態によれば、特定の波長帯域は、白色の波長帯域(例えば380nm〜650nm)よりも狭い帯域である(NBI:Narrow Band Imaging)。例えば、白色光画像及び特殊光画像は、生体内を写した生体内画像であり、その生体内画像に含まれる特定の波長帯域は、血液中のヘモグロビンに吸収される波長の波長帯域である。例えば、このヘモグロビンに吸収される波長は、390nm〜445nm(第1の狭帯域光)、または530nm〜550nm(第2の狭帯域光)である。 According to the fifth embodiment, the specific wavelength band is a band narrower than the white wavelength band (for example, 380 nm to 650 nm) (NBI: Narrow Band Imaging). For example, a white light image and a special light image are in-vivo images obtained by copying the inside of a living body, and a specific wavelength band included in the in-vivo image is a wavelength band of a wavelength that is absorbed by hemoglobin in blood. For example, the wavelength absorbed by the hemoglobin is 390 nm to 445 nm (first narrowband light) or 530 nm to 550 nm (second narrowband light).
これにより、生体の表層部及び、深部に位置する血管の構造を観察することが可能になる。また得られた信号を特定のチャンネル(G2→R、B2→G,B)に入力することで、扁平上皮癌等の通常光では視認が難しい病変などを褐色等で表示することができ、病変部の見落としを抑止することができる。なお、390nm〜445nmまたは530nm〜550nmとは、ヘモグロビンに吸収されるという特性及び、それぞれ生体の表層部または深部まで到達するという特性から得られた数字である。ただし、この場合の波長帯域はこれに限定されず、例えばヘモグロビンによる吸収と生体の表層部又は深部への到達に関する実験結果等の変動要因により、波長帯域の下限値が0〜10%程度減少し、上限値が0〜10%程度上昇することも考えられる。 Thereby, it becomes possible to observe the structure of the blood vessel located in the surface layer part and the deep part of the living body. In addition, by inputting the obtained signals to specific channels (G2 → R, B2 → G, B), lesions that are difficult to see with normal light such as squamous cell carcinoma can be displayed in brown, etc. Oversight of parts can be suppressed. Note that 390 nm to 445 nm or 530 nm to 550 nm are numbers obtained from the characteristic of being absorbed by hemoglobin and the characteristic of reaching the surface layer or the deep part of the living body, respectively. However, the wavelength band in this case is not limited to this. For example, the lower limit of the wavelength band is reduced by about 0 to 10% due to the variation factors such as the absorption by hemoglobin and the experimental results regarding the arrival of the living body on the surface layer or the deep part. It is also conceivable that the upper limit value increases by about 0 to 10%.
7.ソフトウェア
以上に説明した実施形態では、例えば、画像処理装置を構成する各部をハードウェアで構成してもよいし、或は、撮像画像に対してプロセッサーが各部の処理を行う構成としてもよい。例えば、プロセッサーがプログラムを実行することによって画像処理装置をソフトウェアとして実現することとしてもよい。或は、画像処理装置の各部が行う処理の一部をソフトウェアで構成することとしてもよい。ソフトウェアとして実現する場合、情報記憶媒体に記憶されたプログラムが読み出され、読み出されたプログラムをプロセッサーが実行する。
7). Software In the embodiment described above, for example, each unit configuring the image processing apparatus may be configured by hardware, or the processor may perform a process of each unit for a captured image. For example, the image processing apparatus may be realized as software by a processor executing a program. Alternatively, part of the processing performed by each unit of the image processing apparatus may be configured by software. When implemented as software, the program stored in the information storage medium is read, and the processor executes the read program.
ここで、プロセッサーは、例えばCPUやMPU、DSP、GPU等の汎用のプロセッサーであってもよいし、ASIC等の専用に設計されたプロセッサーであってもよい。即ち、プロセッサーは、処理を記述したプログラムを外部から読み込んで実行する汎用のプロセッサーであってもよいし、その処理を専用に行う回路を予め組み込んだ専用のプロセッサーであってもよい。また、プロセッサーは1つのチップで構成されてもよいし、複数のチップを組み合わせて構成されてもよい。 Here, the processor may be a general-purpose processor such as a CPU, MPU, DSP, or GPU, or may be a dedicated processor such as an ASIC. That is, the processor may be a general-purpose processor that reads and executes a program describing processing from the outside, or may be a dedicated processor in which a circuit dedicated to the processing is incorporated in advance. Further, the processor may be configured by one chip or may be configured by combining a plurality of chips.
また、情報記憶媒体(コンピューターにより読み取り可能な媒体)は、プログラムやデータなどを格納するものである。情報記憶媒体は、CD−ROMやUSBメモリーの他、MOディスクやDVDディスク、フレキシブルディスク(FD)、光磁気ディスク、ICカード等を含む「可搬用の物理媒体」、コンピューターシステムの内外に備えられるHDDやRAM、ROM等の「固定用の物理媒体」、モデムを介して接続される公衆回線や、他のコンピューターシステム又はサーバーが接続されるローカルエリアネットワーク又は広域エリアネットワーク等のように、プログラムの送信に際して短期にプログラムを記憶する「通信媒体」等、コンピューターシステムによって読み取り可能なプログラムを記録するあらゆる記録媒体を含む。 An information storage medium (a computer-readable medium) stores programs, data, and the like. The information storage medium is provided inside and outside the computer system, including a CD-ROM and USB memory, as well as a “portable physical medium” including an MO disk, DVD disk, flexible disk (FD), magneto-optical disk, IC card, etc. Programs such as “fixed physical media” such as HDD, RAM, and ROM, public lines connected via modems, local area networks or wide area networks to which other computer systems or servers are connected It includes any recording medium that records a program that can be read by a computer system, such as a “communication medium” that stores a program in a short time during transmission.
即ち、プログラムは、上記の記録媒体にコンピューター読み取り可能に記録されるものであり、コンピューターシステム(操作部、処理部、記憶部、出力部を備える装置)は、このような記録媒体からプログラムを読み出して実行することで画像処理装置を実現する。なお、プログラムは、コンピューターシステムによって実行されることに限定されるものではなく、他のコンピューターシステム又はサーバーがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。 That is, the program is recorded on the above recording medium so as to be readable by a computer, and the computer system (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) reads the program from such a recording medium. To implement the image processing apparatus. Note that the program is not limited to be executed by a computer system, and when another computer system or server executes the program, or when they cooperate to execute the program, The present invention can be similarly applied.
以上、本発明を適用した実施形態およびその変形例について説明したが、本発明は、各実施形態やその変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上記した各実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、画像処理装置や内視鏡装置、画像処理方法(画像処理装置の作動方法、内視鏡装置の作動方法)等の各実施形態や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態や変形例で説明した構成要素を適宜組み合わせてもよい。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能である。また、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。 As mentioned above, although embodiment and its modification which applied this invention were described, this invention is not limited to each embodiment and its modification as it is, and in the range which does not deviate from the summary of invention in an implementation stage. The component can be modified and embodied. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiments and modifications. For example, some constituent elements from all the constituent elements described in the embodiments and modifications such as the image processing apparatus, the endoscope apparatus, and the image processing method (the operation method of the image processing apparatus, the operation method of the endoscope apparatus) May be deleted. Furthermore, you may combine suitably the component demonstrated in different embodiment and modification. Thus, various modifications and applications are possible without departing from the spirit of the invention. In addition, a term described together with a different term having a broader meaning or the same meaning at least once in the specification or the drawings can be replaced with the different term anywhere in the specification or the drawings.
100 光源部、110 白色光源、120 レンズ、200 撮像部、
210 ライトガイドファイバー、220 照明レンズ、230 集光レンズ、
240 撮像素子、250 メモリー、280 フィルター駆動部、
290 狭帯域フィルター、300 制御装置、310 補間処理部、
315 画像取得部、320 ノイズ低減処理部、321 類似度検出部、
322 撮影条件取得部、323 第1のノイズ低減処理部、
324 第2のノイズ低減処理部、325 画像合成部、
330 フレームメモリー、340 表示画像生成部、390 制御部、
400 表示部、500 外部I/F部、601 動きベクトル検出部、
602 動きベクトル整列部、603 動きベクトル平均部、
604 明るさ変化量検出部、605 種類情報取得部、
611 ブレンド率決定部、612 ブレンド処理部、
621 閾値決定部、622 選択部
100 light source unit, 110 white light source, 120 lens, 200 imaging unit,
210 light guide fiber, 220 illumination lens, 230 condenser lens,
240 image sensor, 250 memory, 280 filter drive unit,
290 narrowband filter, 300 controller, 310 interpolation processing unit,
315 image acquisition unit, 320 noise reduction processing unit, 321 similarity detection unit,
322 shooting condition acquisition unit, 323 first noise reduction processing unit,
324 second noise reduction processing unit, 325 image synthesis unit,
330 frame memory, 340 display image generation unit, 390 control unit,
400 display unit, 500 external I / F unit, 601 motion vector detection unit,
602 motion vector alignment unit, 603 motion vector averaging unit,
604 brightness change amount detection unit, 605 type information acquisition unit,
611 blend rate determination unit, 612 blend processing unit,
621 Threshold value determination unit, 622 selection unit
Claims (18)
前記撮像画像に対して時間方向のノイズ低減処理を施して第1画像を生成する第1のノイズ低減処理部と、
前記撮像画像に対して少なくとも空間方向のノイズ低減処理を施して第2画像を生成する第2のノイズ低減処理部と、
前記撮像画像のフレーム間の類似度を検出する類似度検出部と、
前記類似度が高いほど前記第1画像の合成度合いが高くなると共に前記第2画像の合成度合いが低くなるように前記第1画像と前記第2画像の合成処理を行う画像合成部と、
前記撮像画像の撮影条件を取得する撮影条件取得部と、
を含み、
前記撮影条件取得部は、
前記撮像部と被写体との間の相対的な動きにより変化する動き情報を前記撮影条件として取得し、
前記画像合成部は、
前記動き情報が表す前記相対的な動きが大きいほど前記第1画像の合成度合いを低くすると共に前記第2画像の合成度合いを高くすることを特徴とする画像処理装置。 An image acquisition unit for acquiring time-series captured images by the imaging unit;
A first noise reduction processing unit that performs a noise reduction process in a time direction on the captured image to generate a first image;
A second noise reduction processing unit that performs a noise reduction process in at least a spatial direction on the captured image to generate a second image;
A similarity detection unit for detecting a similarity between frames of the captured image;
An image synthesizing unit for synthesizing the first image and the second image so that the higher the similarity is, the higher the degree of synthesis of the first image and the lower the degree of synthesis of the second image;
A shooting condition acquisition unit for acquiring shooting conditions of the captured image;
Including
The photographing condition acquisition unit
Obtaining movement information that changes due to relative movement between the imaging unit and the subject as the imaging condition;
The image composition unit
The image processing apparatus characterized by lowering the degree of synthesis of the first image and increasing the degree of synthesis of the second image as the relative motion represented by the motion information is larger .
前記類似度検出部は、
前記撮像画像の第1の領域において前記類似度を検出し、
前記撮影条件取得部は、
前記撮像画像の前記第1の領域よりも広い第2の領域において前記動き情報を取得することを特徴とする画像処理装置。 In claim 1 ,
The similarity detection unit
Detecting the similarity in a first region of the captured image;
The photographing condition acquisition unit
The image processing apparatus, wherein the motion information is acquired in a second area wider than the first area of the captured image.
前記撮影条件取得部は、
前記撮像部と被写体との間の相対的な動き量を前記動き情報として取得し、
前記画像合成部は、
前記動き量が大きいほど前記第1画像の合成度合いを低くすると共に前記第2画像の合成度合いを高くすることを特徴とする画像処理装置。 In claim 1 ,
The photographing condition acquisition unit
Obtaining a relative amount of movement between the imaging unit and the subject as the movement information;
The image composition unit
The image processing apparatus characterized by lowering the degree of synthesis of the first image and increasing the degree of synthesis of the second image as the amount of motion increases.
前記撮影条件取得部は、
前記撮像画像上での前記被写体のフレーム間における動きベクトルの大きさを前記動き量として取得することを特徴とする画像処理装置。 In claim 3 ,
The photographing condition acquisition unit
An image processing apparatus, wherein a magnitude of a motion vector between frames of the subject on the captured image is acquired as the amount of motion.
前記撮影条件取得部は、
前記撮像画像の複数の領域について動きベクトルを検出し、前記複数の領域についての前記動きベクトルを前記動きベクトルの大きさの順に並べ、前記大きさが小さい方から所定割合の前記動きベクトルの平均値を前記動き量として取得することを特徴とする画像処理装置。 In claim 4 ,
The photographing condition acquisition unit
Motion vectors are detected for a plurality of regions of the captured image, the motion vectors for the plurality of regions are arranged in the order of the magnitudes of the motion vectors, and an average value of the motion vectors in a predetermined ratio from the smallest size Is acquired as the amount of motion.
前記撮影条件取得部は、
前記撮像画像のフレーム間における明るさの変化量を前記動き情報として取得し、
前記画像合成部は、
前記明るさの変化量が大きいほど前記第1画像の合成度合いを低くすると共に前記第2画像の合成度合いを高くすることを特徴とする画像処理装置。 In claim 1 ,
The photographing condition acquisition unit
The amount of change in brightness between frames of the captured image is acquired as the motion information,
The image composition unit
The image processing apparatus characterized by lowering the degree of synthesis of the first image and increasing the degree of synthesis of the second image as the amount of change in brightness increases.
前記画像合成部は、
前記第1画像に対する第1ブレンド率(α)及び、前記第2画像に対する第2ブレンド率(1−α)を決定し、前記類似度が高いほど前記第1ブレンド率(α)を高くするブレンド率決定部と、
前記第1ブレンド率(α)と前記第2ブレンド率(1−α)で前記第1画像と前記第2画像をブレンドする処理を、前記合成処理として行うブレンド処理部と、
を有し、
前記ブレンド率決定部は、
前記動き情報が表す前記相対的な動きが大きいほど前記第1ブレンド率(α)を低くすることを特徴とする画像処理装置。 In claim 1 ,
The image composition unit
The first blend ratio (α) for the first image and the second blend ratio (1-α) for the second image are determined, and the higher the similarity, the higher the first blend ratio (α) is. A rate determining unit;
A blend processing unit that performs a process of blending the first image and the second image at the first blend ratio (α) and the second blend ratio (1-α) as the synthesis process;
Have
The blend rate determination unit
The image processing apparatus according to claim 1, wherein the first blend ratio (α) is lowered as the relative movement represented by the movement information increases.
前記画像合成部は、
閾値を決定する閾値決定部と、
前記類似度が前記閾値よりも大きい場合には前記第1画像を選択し、前記類似度が前記閾値よりも小さい場合には前記第2画像を選択する選択部と、
を有し、
前記閾値決定部は、
前記動き情報が表す前記相対的な動きが大きいほど前記閾値を低く設定することを特徴とする画像処理装置。 In claim 1 ,
The image composition unit
A threshold value determination unit for determining a threshold value;
A selection unit that selects the first image when the similarity is greater than the threshold, and selects the second image when the similarity is less than the threshold;
Have
The threshold determination unit
The image processing apparatus, wherein the threshold value is set lower as the relative movement represented by the movement information is larger.
前記撮影条件取得部は、
前記撮像画像の種類を前記撮影条件として取得し、
前記画像合成部は、
前記撮像画像の前記種類が第1の種類である場合と、前記撮像画像の前記種類が第2の種類である場合とで、前記合成度合いを変更することを特徴とする画像処理装置。 In claim 1,
The photographing condition acquisition unit
Acquiring the type of the captured image as the imaging condition;
The image composition unit
The image processing apparatus, wherein the degree of synthesis is changed between the case where the type of the captured image is a first type and the case where the type of the captured image is a second type.
前記第1の種類は、白色の波長帯域における情報を有した白色光画像であり、
前記第2の種類は、特定の波長帯域における情報を有した特殊光画像であり、
前記画像合成部は、
前記撮像画像の前記種類が前記特殊光画像である場合には、前記撮像画像の前記種類が前記白色光画像である場合に比べて、前記第1画像の合成度合いを低くすると共に前記第2画像の合成度合いを高くすることを特徴とする画像処理装置。 In claim 9 ,
The first type is a white light image having information in a white wavelength band,
The second type is a special light image having information in a specific wavelength band,
The image composition unit
When the type of the captured image is the special light image, the degree of synthesis of the first image is lowered and the second image is compared with the case where the type of the captured image is the white light image. An image processing apparatus characterized by increasing the degree of synthesis of the image.
前記画像合成部は、
前記第1画像に対する第1ブレンド率(α)及び、前記第2画像に対する第2ブレンド率(1−α)を決定し、前記類似度が高いほど前記第1ブレンド率(α)を高くするブレンド率決定部と、
前記第1ブレンド率(α)と前記第2ブレンド率(1−α)で前記第1画像と前記第2画像をブレンドする処理を、前記合成処理として行うブレンド処理部と、
を有し、
前記ブレンド率決定部は、
前記撮像画像の前記種類が前記特殊光画像である場合には、前記撮像画像の前記種類が前記白色光画像である場合に比べて、前記第1ブレンド率を低くすることを特徴とする画像処理装置。 In claim 10 ,
The image composition unit
The first blend ratio (α) for the first image and the second blend ratio (1-α) for the second image are determined, and the higher the similarity, the higher the first blend ratio (α) is. A rate determining unit;
A blend processing unit that performs a process of blending the first image and the second image at the first blend ratio (α) and the second blend ratio (1-α) as the synthesis process;
Have
The blend rate determination unit
When the type of the captured image is the special light image, the first blend ratio is lowered as compared with the case where the type of the captured image is the white light image. apparatus.
前記画像合成部は、
閾値を決定する閾値決定部と、
前記類似度が前記閾値よりも大きい場合には前記第1画像を選択し、前記類似度が前記閾値よりも小さい場合には前記第2画像を選択する選択部と、
を有し、
前記閾値決定部は、
前記撮像画像の前記種類が前記特殊光画像である場合には、前記撮像画像の前記種類が前記白色光画像である場合に比べて、前記閾値を低く設定することを特徴とする画像処理装置。 In claim 10 ,
The image composition unit
A threshold value determination unit for determining a threshold value;
A selection unit that selects the first image when the similarity is greater than the threshold, and selects the second image when the similarity is less than the threshold;
Have
The threshold determination unit
The image processing apparatus, wherein when the type of the captured image is the special light image, the threshold value is set lower than when the type of the captured image is the white light image.
前記特定の波長帯域は、
前記白色の波長帯域よりも狭い帯域であることを特徴とする画像処理装置。 In claim 10 ,
The specific wavelength band is
An image processing apparatus having a band narrower than the white wavelength band.
前記類似度は、前記撮像画像の現在フレームの画素値と前記現在フレームよりも前のフレームの画素値との差分値の絶対値を、所定領域において加算した値であり、
前記加算した値が小さいほど前記類似度は高くなることを特徴とする画像処理装置。 In claim 1,
The similarity is a value obtained by adding an absolute value of a difference value between a pixel value of a current frame of the captured image and a pixel value of a frame before the current frame in a predetermined area,
The image processing apparatus according to claim 1, wherein the similarity is higher as the added value is smaller.
前記撮像画像に対して時間方向のノイズ低減処理を施して第1画像を生成する第1のノイズ低減処理部と、
前記撮像画像に対して少なくとも空間方向のノイズ低減処理を施して第2画像を生成する第2のノイズ低減処理部と、
前記撮像画像のフレーム間の類似度を検出する類似度検出部と、
前記類似度が高いほど前記第1画像の合成度合いが高くなると共に前記第2画像の合成度合いが低くなるように前記第1画像と前記第2画像の合成処理を行う画像合成部と、
前記撮像画像の撮影条件を取得する撮影条件取得部と、
を含み、
前記画像合成部は、
前記撮影条件に基づき前記合成処理における前記合成度合いを変更することを特徴とする内視鏡装置。 An image acquisition unit for acquiring time-series captured images by the imaging unit;
A first noise reduction processing unit that performs a noise reduction process in a time direction on the captured image to generate a first image;
A second noise reduction processing unit that performs a noise reduction process in at least a spatial direction on the captured image to generate a second image;
A similarity detection unit for detecting a similarity between frames of the captured image;
An image synthesizing unit for synthesizing the first image and the second image so that the higher the similarity is, the higher the degree of synthesis of the first image and the lower the degree of synthesis of the second image;
A shooting condition acquisition unit for acquiring shooting conditions of the captured image;
Including
The image composition unit
An endoscope apparatus, wherein the degree of synthesis in the synthesis process is changed based on the imaging condition.
前記画像処理装置が、前記撮像画像に対して時間方向のノイズ低減処理を施して第1画像を生成する第1ノイズ低減処理を行い、
前記画像処理装置が、前記撮像画像に対して少なくとも空間方向のノイズ低減処理を施して第2画像を生成する第2ノイズ低減処理を行い、
前記画像処理装置が、前記撮像画像のフレーム間の類似度を検出し、
前記画像処理装置が、前記撮像部と被写体との間の相対的な動きにより変化する動き情報を前記撮像画像の撮影条件として取得し、
前記画像処理装置が、前記類似度が高いほど前記第1画像の合成度合いが高くなると共に前記第2画像の合成度合いが低くなるように前記第1画像と前記第2画像を合成処理し、前記動き情報が表す前記相対的な動きが大きいほど前記第1画像の合成度合いを低くすると共に前記第2画像の合成度合いを高くすることを特徴とする画像処理装置の作動方法。 The image processing apparatus acquires a time-series captured image by the imaging unit,
The image processing apparatus performs a first noise reduction process for generating a first image by performing a noise reduction process in a time direction on the captured image;
The image processing apparatus performs a second noise reduction process for generating a second image by performing at least a spatial noise reduction process on the captured image;
The image processing device detects a similarity between frames of the captured image;
The image processing apparatus acquires movement information that changes due to relative movement between the imaging unit and a subject as a shooting condition of the captured image,
The image processing apparatus, the said first image and the second image so that the resultant degree is lower in the second image with the synthetic degree of higher similarity the first image is higher synthesizing process, the A method of operating an image processing apparatus, wherein the degree of synthesis of the first image is lowered and the degree of synthesis of the second image is increased as the relative movement represented by the motion information is larger .
前記撮像画像に対して時間方向のノイズ低減処理を施して第1画像を生成する第1ノイズ低減処理を行い、
前記撮像画像に対して少なくとも空間方向のノイズ低減処理を施して第2画像を生成する第2ノイズ低減処理を行い、
前記撮像画像のフレーム間の類似度を検出し、
前記撮像部と被写体との間の相対的な動きにより変化する動き情報を前記撮像画像の撮影条件として取得し、
前記類似度が高いほど前記第1画像の合成度合いが高くなると共に前記第2画像の合成度合いが低くなるように前記第1画像と前記第2画像を合成処理し、前記動き情報が表す前記相対的な動きが大きいほど前記第1画像の合成度合いを低くすると共に前記第2画像の合成度合いを高くする、
ステップをコンピューターに実行させる画像処理プログラム。 Acquire time-series captured images by the imaging unit,
Performing a first noise reduction process for generating a first image by performing a noise reduction process in a time direction on the captured image;
Performing a second noise reduction process for generating a second image by performing a noise reduction process in at least a spatial direction on the captured image;
Detecting the similarity between frames of the captured image;
Obtaining movement information that changes due to relative movement between the imaging unit and the subject as a shooting condition of the captured image;
The higher the similarity, the higher the degree of synthesis of the first image and the lower the degree of synthesis of the second image, so that the first image and the second image are synthesized, and the relative information represented by the motion information The greater the movement, the lower the degree of synthesis of the first image and the degree of synthesis of the second image ,
An image processing program that causes a computer to execute steps.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014024049A JP6242230B2 (en) | 2014-02-12 | 2014-02-12 | Image processing apparatus, endoscope apparatus, operation method of image processing apparatus, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014024049A JP6242230B2 (en) | 2014-02-12 | 2014-02-12 | Image processing apparatus, endoscope apparatus, operation method of image processing apparatus, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015150029A JP2015150029A (en) | 2015-08-24 |
JP6242230B2 true JP6242230B2 (en) | 2017-12-06 |
Family
ID=53892934
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014024049A Expired - Fee Related JP6242230B2 (en) | 2014-02-12 | 2014-02-12 | Image processing apparatus, endoscope apparatus, operation method of image processing apparatus, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6242230B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6688540B2 (en) * | 2015-07-29 | 2020-04-28 | 株式会社大一商会 | Amusement machine |
CN109561816B (en) * | 2016-07-19 | 2021-11-12 | 奥林巴斯株式会社 | Image processing apparatus, endoscope system, information storage apparatus, and image processing method |
JP6812193B2 (en) * | 2016-10-07 | 2021-01-13 | キヤノン株式会社 | Image display system, image display method, and program |
CN112602115A (en) * | 2018-09-06 | 2021-04-02 | 索尼公司 | Medical system, information processing apparatus, and information processing method |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2508078B2 (en) * | 1987-04-30 | 1996-06-19 | 株式会社島津製作所 | X-ray image processing device |
JPH0613271U (en) * | 1992-07-15 | 1994-02-18 | 日本アビオニクス株式会社 | TV image quality improvement method |
JP3326819B2 (en) * | 1992-07-31 | 2002-09-24 | 株式会社島津製作所 | Image processing device |
JP5543194B2 (en) * | 2009-12-24 | 2014-07-09 | キヤノン株式会社 | Information processing apparatus, processing method, and program |
JP5816511B2 (en) * | 2011-10-04 | 2015-11-18 | オリンパス株式会社 | Image processing apparatus, endoscope apparatus, and operation method of image processing apparatus |
JP5696026B2 (en) * | 2011-11-25 | 2015-04-08 | 株式会社 日立産業制御ソリューションズ | Imaging apparatus, imaging method, and monitoring system |
-
2014
- 2014-02-12 JP JP2014024049A patent/JP6242230B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2015150029A (en) | 2015-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5816511B2 (en) | Image processing apparatus, endoscope apparatus, and operation method of image processing apparatus | |
US9629525B2 (en) | Image processing device, image processing method, and program | |
JP6150583B2 (en) | Image processing apparatus, endoscope apparatus, program, and operation method of image processing apparatus | |
JP5669529B2 (en) | Imaging apparatus, program, and focus control method | |
US8711252B2 (en) | Image processing device and information storage medium including motion vector information calculation | |
JP5452242B2 (en) | Image processing apparatus, endoscope system, program, and operation method of image processing apparatus | |
US20130165753A1 (en) | Image processing device, endoscope apparatus, information storage device, and image processing method | |
US9826884B2 (en) | Image processing device for correcting captured image based on extracted irregularity information and enhancement level, information storage device, and image processing method | |
JP2012100909A (en) | Endoscopic apparatus, and program | |
JP6242230B2 (en) | Image processing apparatus, endoscope apparatus, operation method of image processing apparatus, and image processing program | |
US20170319051A1 (en) | Endoscope device and focus control method for endoscope device | |
US20150325014A1 (en) | Image processing device, image processing method, image processing program, and recording medium storing said program | |
WO2017122287A1 (en) | Endoscope device and method for operating endoscope device | |
US9323978B2 (en) | Image processing device, endoscope apparatus, and image processing method | |
JP5940604B2 (en) | Image processing apparatus, method of operating image processing apparatus, and program | |
WO2016199264A1 (en) | Endoscopic device and focus control method | |
JP6653386B2 (en) | Image processing apparatus, endoscope system, program, and method of operating image processing apparatus | |
JP6942892B2 (en) | Endoscope device, operation method and program of the endoscope device | |
JP6168878B2 (en) | Image processing apparatus, endoscope apparatus, and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161027 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170613 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170609 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170807 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171031 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171107 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6242230 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |