JP5230538B2 - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP5230538B2 JP5230538B2 JP2009136706A JP2009136706A JP5230538B2 JP 5230538 B2 JP5230538 B2 JP 5230538B2 JP 2009136706 A JP2009136706 A JP 2009136706A JP 2009136706 A JP2009136706 A JP 2009136706A JP 5230538 B2 JP5230538 B2 JP 5230538B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- frame
- tap length
- image processing
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Liquid Crystal Display Device Control (AREA)
- Television Systems (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
Description
本発明は、より高いフレームレートに変換するための技術に関するものである。 The present invention relates to a technique for converting to a higher frame rate.
テレビジョン受像機に代表される動画像の表示装置には、CRTが長年用いられてきたが、近年では液晶デバイスを用いたパネルが主流となりつつある。図10を用いて液晶デバイスの特徴を説明する。 A CRT has been used for many years as a moving image display device typified by a television receiver, but in recent years, a panel using a liquid crystal device is becoming mainstream. Features of the liquid crystal device will be described with reference to FIG.
図10は、液晶デバイスにおける画素の表示について説明するための図で、図10において横軸は時刻、縦軸は画素の明るさを示している。ここでのフレームレートは、60zである。図10に示す如く、液晶デバイスの場合は、1/60秒の間に発光を持続し、そのため、「ホールド型」のデバイスと呼ばれている。 FIG. 10 is a diagram for explaining display of pixels in the liquid crystal device. In FIG. 10, the horizontal axis indicates time and the vertical axis indicates pixel brightness. The frame rate here is 60z. As shown in FIG. 10, in the case of a liquid crystal device, light emission is sustained for 1/60 second, and therefore, it is called a “hold type” device.
ホールド型のデバイスは、動きに対し、ボケを生じやすいという欠点を有している。係る点について図11を用いて説明する。図11は、ホールド型デバイスにおいて生じる、動きに起因するぼけを説明する為の図である。図11において横軸は画面上の位置、縦軸は時刻を示している。図11では、矩形の波形が画面の左から右に動く例を示している。このような動きを眼で追う場合、眼が追従する動きに対して、1/60秒の間、画素が同じ位置に留まった状態が、動きに対する相対的な遅れとなる。ホールド時間が長いと、この遅れの幅が広くなり、画面上では、動きのボケとして知覚されることとなる。図11において1101は、追従視している時の見え方を示したものであり、エッジ部分で、ある幅をもったボケ(斜線部分)が検知されることを示している。 The hold-type device has a drawback that it tends to cause blurring with respect to movement. This will be described with reference to FIG. FIG. 11 is a diagram for explaining blur caused by movement that occurs in the hold-type device. In FIG. 11, the horizontal axis indicates the position on the screen, and the vertical axis indicates the time. FIG. 11 shows an example in which a rectangular waveform moves from left to right on the screen. When such a movement is followed by the eye, a state in which the pixel stays at the same position for 1/60 second with respect to the movement that the eye follows follows a relative delay with respect to the movement. If the hold time is long, the delay is widened and is perceived as motion blur on the screen. In FIG. 11, reference numeral 1101 indicates the way of viewing when following, and indicates that a blur (shaded portion) having a certain width is detected at the edge portion.
動きボケ対策の一例として、駆動周波数を上げ、ホールド時間を短くする方法がある。図12は、フレームレートが60Hzである動画像を、120Hzで表示する例を説明するための図である。図12において横軸は時刻、縦軸は画素の明るさを示している。なお、倍のフレームレートで表示を行うために、入力画像の高域成分を含む画像と低域成分のみを含む画像とを、時間方向に分割して表示する手法も知られている。 As an example of measures against motion blur, there is a method of increasing the drive frequency and shortening the hold time. FIG. 12 is a diagram for explaining an example in which a moving image having a frame rate of 60 Hz is displayed at 120 Hz. In FIG. 12, the horizontal axis represents time, and the vertical axis represents pixel brightness. In addition, in order to perform display at a double frame rate, a method is also known in which an image including a high frequency component and an image including only a low frequency component of an input image are divided and displayed in the time direction.
図13は、入力画像の高域成分を含む画像と低域成分のみを含む画像とを、時間方向に分割して表示する手法における、画像の動特性を示す図である。図13において横軸は画面上における位置、縦軸は時刻を示している。図11と比較してわかるように、動きボケ(斜線部分)は大幅に低減されている。また、CRTと同様の発光特性を有するデバイスとして、フィールドエミッションタイプの表示装置の開発も進んでいる。 FIG. 13 is a diagram illustrating image dynamic characteristics in a method of displaying an image including a high frequency component and an image including only a low frequency component of an input image by dividing them in the time direction. In FIG. 13, the horizontal axis indicates the position on the screen, and the vertical axis indicates the time. As can be seen from comparison with FIG. 11, motion blur (shaded area) is greatly reduced. In addition, a field emission type display device has been developed as a device having light emission characteristics similar to those of a CRT.
図14は、フィールドエミッションタイプの表示装置の発光特性を模した説明図である。図14において横軸は時刻、縦軸は画素の明るさを示している。このタイプの表示装置は、1/60秒のうちの一瞬だけ発光するので、「インパルス型」と呼ばれている。 FIG. 14 is an explanatory diagram simulating the light emission characteristics of a field emission type display device. In FIG. 14, the horizontal axis represents time, and the vertical axis represents pixel brightness. This type of display device is called “impulse type” because it emits light for an instant of 1/60 second.
インパルス型のデバイスは、1/60秒の周期で発光の有無を繰り返すので、この点滅をフリッカとして知覚しやすいという欠点を有している。フリッカは面積が大きくなるほど目立ちやすいという特性があるため、近年の表示装置の大画面化の流れの中では、特に問題となりやすい。 The impulse-type device repeats the presence / absence of light emission at a period of 1/60 seconds, and thus has a drawback that it is easy to perceive this blinking as flicker. Since flicker has a characteristic that it becomes more conspicuous as the area becomes larger, it tends to be a problem particularly in the recent trend toward larger screens of display devices.
図15は、インパルス型デバイスの動特性を示す図である。図15において横軸は画面上の位置を示しており、縦軸は時刻を示している。ホールド型デバイスの特性と違い、インパルス型デバイスでは、残像となるような動きボケが発生しないことが最大の特徴となっている。 FIG. 15 is a diagram illustrating the dynamic characteristics of the impulse-type device. In FIG. 15, the horizontal axis indicates the position on the screen, and the vertical axis indicates the time. Unlike the characteristics of the hold type device, the impulse type device has the greatest feature that no motion blur that causes an afterimage occurs.
フリッカ対策の一例としても、駆動周波数を上げることが考えられる。図16は、フレームレートが60Hzである動画像を、倍の120Hzで表示する例を説明するための図である。図16において横軸は時刻、縦軸は画素の明るさを示している。インパルス型デバイスの場合は、1回の明るさの半分のレベルを2回表示することで、同等の明るさを得ることができる。 As an example of flicker countermeasures, it is conceivable to increase the drive frequency. FIG. 16 is a diagram for explaining an example in which a moving image having a frame rate of 60 Hz is displayed at double 120 Hz. In FIG. 16, the horizontal axis represents time, and the vertical axis represents pixel brightness. In the case of an impulse-type device, the same brightness can be obtained by displaying twice the half of the brightness of one time.
図17は、高域成分を含む画像と低域成分のみを含む画像とを時間方向に分割して表示する場合の動特性を説明するための図である。図17において横軸は画面上の位置、縦軸は時刻を示している。単純に2回ずつ同じフレームを表示すると2重写りとなってしまうが、高域成分のみを1回表示させることにより、低域成分に起因するボケのみで、視覚的な劣化は抑制される。 FIG. 17 is a diagram for explaining dynamic characteristics when an image including a high frequency component and an image including only a low frequency component are divided and displayed in the time direction. In FIG. 17, the horizontal axis indicates the position on the screen, and the vertical axis indicates the time. If the same frame is simply displayed twice, a double image is obtained. However, by displaying only the high-frequency component once, visual deterioration is suppressed only by the blur caused by the low-frequency component.
このように、ホールド型の表示装置における動きボケ対策として、もしくはインパルス型の表示装置におけるフリッカ対策として、周波数成分によりフレーム画像を2つのサブフレームに分配する方法は、効果的である。 As described above, as a countermeasure against motion blur in a hold type display device or as a countermeasure against flicker in an impulse type display device, a method of distributing a frame image into two subframes by frequency components is effective.
ホールド型の倍速駆動を実現する方法の一例として、特許文献1に開示されている技術がある。特許文献1に開示されている回路構成の一部を図18に示す。入力フレーム画像に対し、LPF(ローパスフィルタ)処理部1802は、低域成分のみを含むサブフレーム画像を生成する。 As an example of a method for realizing the hold-type double speed drive, there is a technique disclosed in Patent Document 1. A part of the circuit configuration disclosed in Patent Document 1 is shown in FIG. With respect to the input frame image, an LPF (low-pass filter) processing unit 1802 generates a sub-frame image including only a low frequency component.
差分検出部1803は、入力フレーム画像と、LPF処理部1802が生成した低域成分のみを含むサブフレーム画像との差分を、高域成分として抽出する。そして後段の加算器1899によって、差分検出部1803が求めた高域成分の画像と、入力フレーム画像とを加算することで、高域成分を強調したサブフレーム画像を得ることができる。 The difference detection unit 1803 extracts a difference between the input frame image and the sub-frame image including only the low frequency component generated by the LPF processing unit 1802 as a high frequency component. Then, the adder 1899 in the subsequent stage adds the high-frequency component image obtained by the difference detection unit 1803 and the input frame image, thereby obtaining a subframe image in which the high-frequency component is emphasized.
切替回路1805は、低域成分のみを含むサブフレーム画像と、高域成分を強調したサブフレーム画像とを、120Hzの周期で切り替えて後段に出力する。高域成分を除いたサブフレーム画像と高域成分を強調したサブフレーム画像とを交互に表示することで、60Hzの時間周期で見た場合は、元のフレーム画像が再現されていることになる。 The switching circuit 1805 switches the subframe image including only the low frequency component and the subframe image in which the high frequency component is emphasized at a period of 120 Hz and outputs the result to the subsequent stage. By alternately displaying the sub-frame image excluding the high-frequency component and the sub-frame image highlighting the high-frequency component, the original frame image is reproduced when viewed at a time period of 60 Hz. .
しかしながら、2つのサブフレーム画像を交互に表示することであたかもこれら2つの画像が合成されているかのように見えるフレーム画像が、元のフレーム画像と同じにならない場合がある。係る点について図19を用いて説明する。 However, when two subframe images are displayed alternately, a frame image that looks as if these two images are combined may not be the same as the original frame image. This will be described with reference to FIG.
図19(a)は、入力フレーム画像の波形例を示している。図19(b)は、この入力フレーム画像を、LPF処理部1802によって処理した結果の波形を示している。図19(c)は、図19(a)に示した波形の入力フレーム画像と、図19(b)に示した波形のフレーム画像とを差分検出部1803に入力した場合に、この差分検出部1803から出力されるフレーム画像の波形を示している。このフレーム画像は高域成分の画像であるため、その波形は正負の値を取る。図19(d)は、図19(c)に示した波形のフレーム画像と、図19(a)に示した波形のフレーム画像とを加算器1899に入力した場合に、この加算器1899から出力されるフレーム画像の波形を示している。 FIG. 19A shows a waveform example of the input frame image. FIG. 19B shows a waveform as a result of processing this input frame image by the LPF processing unit 1802. FIG. 19C shows the difference detection unit when the input frame image having the waveform shown in FIG. 19A and the frame image having the waveform shown in FIG. 19B are input to the difference detection unit 1803. The waveform of the frame image output from 1803 is shown. Since this frame image is a high-frequency component image, its waveform takes positive and negative values. FIG. 19D shows an output from the adder 1899 when the frame image of the waveform shown in FIG. 19C and the frame image of the waveform shown in FIG. The waveform of the frame image is shown.
ここで理論上では、120Hzの周期で図19(b)に示した波形と図19(c)に示した波形とを交互に表示することで、見かけ上の波形は、図19(a)に示した波形と同じになる。しかしながら、図19(a)に示した波形における低輝度レベル部分がゼロ、もしくはそれに近い値である場合、図19(d)に示した波形は、負の値を持つことになる。負の値の画像を表示することはできないので、実際には、図19(e)に示すように、負の値はゼロとして表示されることになる。すると、見かけの合成波形は、図19(b)に示した波形のフレーム画像と図19(e)に示した波形のフレーム画像とを交互に表示することになるので、図19(f)に示す波形となる。このような波形のフレーム画像が、例えば、黒の背景に白の文字が配置されているような画像である場合、この文字の輪郭がにじんだ画像として知覚される。このように、入力フレーム画像の波形によっては、分配処理後の画像が元の画像と同じに見えず、それが劣化として知覚される、という問題がある。 Theoretically, the waveform shown in FIG. 19B and the waveform shown in FIG. 19C are alternately displayed at a period of 120 Hz, so that the apparent waveform is shown in FIG. It becomes the same as the waveform shown. However, when the low luminance level portion in the waveform shown in FIG. 19A is zero or a value close thereto, the waveform shown in FIG. 19D has a negative value. Since an image having a negative value cannot be displayed, the negative value is actually displayed as zero as shown in FIG. 19 (e). As a result, the apparent composite waveform is displayed alternately with the frame image of the waveform shown in FIG. 19B and the frame image of the waveform shown in FIG. 19E. The waveform is as shown. For example, when the waveform frame image is an image in which white characters are arranged on a black background, it is perceived as an image in which the outline of the characters is blurred. As described above, depending on the waveform of the input frame image, there is a problem that the image after the distribution process does not look the same as the original image and is perceived as degradation.
このサブフレーム画像の分割時に負値が発生する問題を解決するため、特許文献2では、図8に示すように、LPF処理部1802の前に最小値フィルタ部1801を設け、LPF処理部1802による処理対象領域内に対して最小値フィルタ処理を施していた。この最小値フィルタ処理とは、例えば、9画素×9画素のブロック内で最小の輝度値を検索し、検索した輝度値をこのブロックの中心画素に割り当てる、という周知の技術である。 In order to solve the problem that a negative value occurs when the subframe image is divided, in Patent Document 2, as shown in FIG. 8, a minimum value filter unit 1801 is provided in front of the LPF processing unit 1802, and the LPF processing unit 1802 The minimum value filtering process is performed on the processing target area. This minimum value filtering process is a well-known technique in which, for example, a minimum luminance value is searched for in a 9 pixel × 9 pixel block, and the searched luminance value is assigned to the central pixel of this block.
図8に示す構成を有する装置によって各段階で得られるフレーム画像の波形を図9に示す。図9(a)は入力フレーム画像の波形を示している。最小値フィルタ部1801がこの入力フレーム画像に対して最小値フィルタ処理を施すことで、図9(b)に示す波形のフレーム画像が生成される。LPF処理部1802が図9(b)に示した波形のフレーム画像に対してローパスフィルタ処理を施すことで、図9(c)に示した波形のフレーム画像を生成する。この波形のフレーム画像は、最小値フィルタによりエッジによる勾配領域が高信号値領域側に半区間長分シフトされるため、勾配の開始点が図9(a)に示した波形のフレーム画像のエッジと一致するという特徴を持つ。 FIG. 9 shows the waveform of the frame image obtained at each stage by the apparatus having the configuration shown in FIG. FIG. 9A shows the waveform of the input frame image. The minimum value filter unit 1801 performs minimum value filtering on the input frame image, thereby generating a frame image having the waveform shown in FIG. The LPF processing unit 1802 performs a low-pass filter process on the frame image having the waveform shown in FIG. 9B, thereby generating a frame image having the waveform shown in FIG. 9C. In the frame image of this waveform, the gradient region due to the edge is shifted to the high signal value region side by the half-section length by the minimum value filter, so the start point of the gradient is the edge of the waveform frame image shown in FIG. It has the feature of matching.
差分検出部1803は、図9(a)に示した波形のフレーム画像から図9(c)に示した波形のフレーム画像を減じることで、図9(d)に示した波形のフレーム画像を生成する。最小値フィルタにより、どの信号領域においても、図9(c)に示した波形のフレーム画像は図9(a)に示した波形のフレーム画像よりも低い値を取るため、図9(d)に示した波形のフレーム画像は常に正値をとる。 The difference detection unit 1803 generates the frame image having the waveform shown in FIG. 9D by subtracting the frame image having the waveform shown in FIG. 9C from the frame image having the waveform shown in FIG. To do. Since the minimum value filter causes the frame image of the waveform shown in FIG. 9C to take a lower value than the frame image of the waveform shown in FIG. 9A in any signal region, FIG. The frame image of the waveform shown always takes a positive value.
加算器1899は、図9(a)に示した波形のフレーム画像に図9(d)に示した波形のフレーム画像を加えることで、図9(e)に示した波形のフレーム画像を生成する。そして、表示においては、図9(e)に示した波形のフレーム画像と図9(c)に示した波形のフレーム画像とをサブフレーム画像として時間的に交互に表示させる。これにより、図9(f)に示した波形のフレーム画像(見かけのフレーム画像)を、図9(a)に示した波形のフレーム画像(入力フレーム画像)と一致させることができる。 The adder 1899 generates the frame image having the waveform shown in FIG. 9E by adding the frame image having the waveform shown in FIG. 9D to the frame image having the waveform shown in FIG. . In display, the waveform frame image shown in FIG. 9E and the waveform frame image shown in FIG. 9C are alternately displayed as sub-frame images in terms of time. Thereby, the waveform frame image (apparent frame image) shown in FIG. 9F can be matched with the waveform frame image (input frame image) shown in FIG.
このように、最小値フィルタには、サブフレーム分割時における負値発生抑止機能があり、これにより画質を向上させることができる。最小値フィルタの影響範囲は、ローパスフィルタの影響範囲と同じにするか、もしくはより広く設定することにより、高周波数成分の画像の生成時における負の値の発生を防ぐことができる。 As described above, the minimum value filter has a negative value generation suppression function at the time of subframe division, thereby improving the image quality. By setting the influence range of the minimum value filter to be the same as or wider than the influence range of the low-pass filter, it is possible to prevent the occurrence of a negative value when generating an image of a high frequency component.
しかしながら、最小値フィルタを用いても、2つのサブフレーム画像を合成した見かけのフレーム画像が、見かけ上、元のフレーム画像と同じにならず、且つその歪みが目立つ場合がある。この点について、図2を用いて説明する。 However, even if the minimum value filter is used, the apparent frame image obtained by synthesizing the two sub-frame images may not appear to be the same as the original frame image, and the distortion may be conspicuous. This point will be described with reference to FIG.
図2(a)では、平坦な画像領域内にレベルの低い小領域(暗領域)が右へ追従視できる速度で移動している。図2(a)の左側に示すように、高周波成分の画像SHに対し、低周波成分の画像SLは追従視の影響で位置がすれることになり、2つのサブフレーム画像を合成した波形は歪むことになる。結果として、図2(a)の左側に示すように、見かけの信号としてはレベルの上昇と下降がおこったように知覚される。画像の条件により、特にレベルの高いところが目立ち、これが画像としては白く滲んだように見える要因となる。図2(b)は正常時におけるそれぞれのサブフレーム画像と見かけのフレーム画像を示してる。 In FIG. 2A, a small area (dark area) with a low level moves in a flat image area at a speed at which it can be viewed to the right. As shown on the left side of FIG. 2A, the low-frequency component image SL is displaced by the influence of the follow-up vision with respect to the high-frequency component image SH, and the waveform obtained by synthesizing the two sub-frame images is as follows. It will be distorted. As a result, as shown on the left side of FIG. 2A, the apparent signal is perceived as an increase and decrease in level. Depending on the image conditions, a particularly high level is conspicuous, and this is a factor that makes the image appear white. FIG. 2B shows the sub-frame images and the apparent frame images at the normal time.
図3にその具体的な症状の例を示す。平坦な領域内で向かって右へ低速で移動する黒領域がある場合、その左側に尾引するように白く滲んだボケが観察される。この症状では、大面積をしめる平坦部のレベルによっては黒く滲んだボケが観察される。この時の波形を図2(c)の左側に示し、その症状の例を図3(b)に示す。この場合、ボケは進行方向の前に現れ、レベルが低下することが異なる。このように、入力画像の波形によっては、分配処理後の画像が元の画像と同じに見えず、それが劣化として知覚される問題がある。 FIG. 3 shows examples of specific symptoms. When there is a black area that moves slowly toward the right in a flat area, a blur that is white and blurring to the left is observed. In this symptom, black blurring is observed depending on the level of a flat portion that covers a large area. The waveform at this time is shown on the left side of FIG. 2 (c), and an example of the symptom is shown in FIG. 3 (b). In this case, the blur appears before the traveling direction, and the level decreases. As described above, depending on the waveform of the input image, there is a problem that the image after the distribution process does not look the same as the original image and is perceived as degradation.
本実施形態は以上の問題に鑑みてなされたものであり、1フレームの画像を複数のサブフレーム画像に分割し、それぞれのサブフレーム画像をこのフレームの画像として表示する場合に、表示画質の劣化を軽減するための技術を提供することを目的とする。 The present embodiment has been made in view of the above problems. When one frame image is divided into a plurality of subframe images and each subframe image is displayed as an image of this frame, the display image quality is deteriorated. It aims at providing the technique for reducing.
本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。即ち、連続する各フレームの画像を取得する手段と、着目フレームの画像から画像特徴量を取得する取得手段と、前記着目フレームの画像における動き量を求める計算手段と、前記着目フレームの画像に対して適用する最小値フィルタのタップ長を、前記画像特徴量と前記動き量とに応じて設定する設定手段と、前記設定手段により設定されたタップ長の最小値フィルタを用いて前記着目フレームの画像に対して最小値フィルタ処理を行うフィルタ手段と、前記フィルタ手段によるフィルタ処理後の画像に対してローパスフィルタ処理を行うことで、低周波数成分で構成されている低周波数成分画像を生成する手段と、前記着目フレームの画像から前記低周波数成分画像を差し引くことで、高周波数成分で構成されている高周波数成分画像を生成する手段と、前記低周波数成分画像と前記高周波数成分画像とを交互に出力する手段とを備えることを特徴とする。 In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement. That is, a means for acquiring an image of each successive frame, an acquisition means for acquiring an image feature amount from the image of the target frame, a calculation means for obtaining a motion amount in the image of the target frame, and an image of the target frame A setting unit that sets a tap length of a minimum value filter to be applied according to the image feature amount and the amount of motion, and an image of the frame of interest using a minimum value filter of a tap length set by the setting unit. Filter means for performing minimum value filtering on the image, and means for generating a low-frequency component image composed of low-frequency components by performing low-pass filter processing on the image after the filter processing by the filter means; By subtracting the low frequency component image from the image of the frame of interest, a high frequency component image composed of high frequency components is obtained. Means for forming, characterized in that it comprises a means for outputting said and said high-frequency component image and the low frequency component image alternately.
本発明の構成によれば、1フレームの画像を複数のサブフレーム画像に分割し、それぞれのサブフレーム画像をこのフレームの画像として表示する場合に、表示画質の劣化を軽減することができる。 According to the configuration of the present invention, when one frame image is divided into a plurality of subframe images and each subframe image is displayed as an image of this frame, it is possible to reduce display image quality degradation.
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。 Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.
[第1の実施形態]
図1は、本実施形態に係る画像処理装置の機能構成例を示すブロック図である。本実施形態では、図1に示した各部はハードウェアでもって構成されているものとして説明する。
[First Embodiment]
FIG. 1 is a block diagram illustrating a functional configuration example of the image processing apparatus according to the present embodiment. In the present embodiment, description will be made assuming that each unit shown in FIG. 1 is configured by hardware.
本実施形態に係る画像処理装置には、連続する各フレームの画像(フレーム画像)が順次入力される。画像処理装置は、入力されたフレームの画像を複数のサブフレーム画像に分割し、このフレームの画像の代わりに、それぞれのサブフレーム画像を出力する。これにより、倍速表示を可能にする。 In the image processing apparatus according to the present embodiment, images of successive frames (frame images) are sequentially input. The image processing apparatus divides the input frame image into a plurality of subframe images, and outputs each subframe image instead of the frame image. This enables double speed display.
以下の説明では、着目フレームの画像(着目フレーム画像)が画像処理装置に入力された場合における、画像処理装置の動作について説明する。即ち、以下に説明する各部の動作は、各フレーム画像について行われることになる。 In the following description, the operation of the image processing device when an image of the frame of interest (frame of interest image) is input to the image processing device will be described. That is, the operation of each unit described below is performed for each frame image.
最小値フィルタ部101は、入力された着目フレーム画像に対して最小値フィルタ処理を施すことで、処理済み画像を生成し、生成した処理済み画像を後段のLPF(ローパスフィルタ)処理部102に送出する。 The minimum value filter unit 101 generates a processed image by performing minimum value filter processing on the input frame image of interest, and sends the generated processed image to a subsequent LPF (low-pass filter) processing unit 102. To do.
ここで最小値フィルタ処理とは周知の通り、画像を構成する各画素について次のような処理を行うことである。即ち、画素Pに対して最小値フィルタ処理を施す場合、この画素Pを囲む8画素とこの画素Pの合計9画素についてそれぞれの画素値を参照し、最小の画素値を特定する。そして画素Pの画素値を、この特定した最小の画素値に更新する。 Here, as is well known, the minimum value filter processing is to perform the following processing for each pixel constituting the image. That is, when the minimum value filtering process is performed on the pixel P, the minimum pixel value is specified by referring to the respective pixel values of a total of nine pixels including the eight pixels surrounding the pixel P and the pixel P. Then, the pixel value of the pixel P is updated to the specified minimum pixel value.
従って、このような処理を画像を構成する各画素について行うことで、この画像に対して最小値フィルタ処理を施し、処理済み画像を生成(取得)することができる。最小値フィルタ処理では、高輝度の画素値と低輝度の画素値とが隣接している境界部分では、低輝度の画素値が選ばれることになるので、結果としてエッジの境界部分は、高輝度領域の内側に狭められることになる。 Therefore, by performing such processing for each pixel constituting the image, it is possible to generate (acquire) a processed image by performing minimum value filtering on the image. In the minimum value filtering process, a low luminance pixel value is selected at a boundary portion where a high luminance pixel value and a low luminance pixel value are adjacent to each other. It will be narrowed inside the area.
一方、着目フレーム画像は、画像特徴量算出部104、動き度検出部106、フレームメモリ107にも入力される。画像特徴量算出部104は、着目フレーム画像を複数の矩形画像(例えば16画素×16画素)に分割し、それぞれの矩形画像から画像特徴量を抽出する。そして、抽出した矩形画像毎の画像特徴量は、後段の最小値フィルタ長設定部105に送出する。 On the other hand, the frame image of interest is also input to the image feature amount calculation unit 104, the motion degree detection unit 106, and the frame memory 107. The image feature amount calculation unit 104 divides the target frame image into a plurality of rectangular images (for example, 16 pixels × 16 pixels), and extracts an image feature amount from each rectangular image. Then, the extracted image feature amount for each rectangular image is sent to the subsequent minimum value filter length setting unit 105.
フレームメモリ107は少なくとも1フレーム分の画像を格納するためのエリアを有する。従って、フレームメモリ107には少なくとも、着目フレームの1つ前のフレームの画像(前フレーム画像)が格納されていることになる。 The frame memory 107 has an area for storing an image for at least one frame. Therefore, the frame memory 107 stores at least an image of the frame immediately before the frame of interest (previous frame image).
動き度検出部106は、フレームメモリ107から前フレーム画像を読み出し、着目フレーム画像と、この読み出した前フレーム画像と、の差分画像を生成する。そしてこの差分画像を用いて、着目フレーム画像における動き量を求める(計算する)。なお、動き度検出部106は、着目フレーム画像を複数の矩形画像に分割し、それぞれの矩形画像毎に動き量を求める。そして動き度検出部106は、それぞれの矩形画像について求めた動き量を、後段の最小値フィルタ長設定部105に送出する。 The motion detection unit 106 reads the previous frame image from the frame memory 107 and generates a difference image between the frame image of interest and the read previous frame image. Then, using this difference image, the amount of motion in the frame image of interest is obtained (calculated). Note that the motion detection unit 106 divides the frame image of interest into a plurality of rectangular images, and obtains the amount of motion for each rectangular image. Then, the degree-of-motion detection unit 106 sends the amount of motion obtained for each rectangular image to the minimum value filter length setting unit 105 in the subsequent stage.
最小値フィルタ長設定部105は、画像特徴量算出部104から得られた矩形画像毎の画像特徴量と、動き度検出部106から得られた矩形画像毎の動き量と、を用いて、最小値フィルタ部101で用いる最小値フィルタのタップ長を矩形画像毎に設定する。従って、最小値フィルタ部101では、矩形画像毎に異なるタップ長の最小値フィルタを用いて最小値フィルタ処理を行うことになる。 The minimum value filter length setting unit 105 uses the image feature amount for each rectangular image obtained from the image feature amount calculation unit 104 and the motion amount for each rectangular image obtained from the motion degree detection unit 106 to obtain the minimum value. The tap length of the minimum value filter used in the value filter unit 101 is set for each rectangular image. Therefore, the minimum value filter unit 101 performs minimum value filter processing using a minimum value filter having a different tap length for each rectangular image.
LPF処理部102は、最小値フィルタ部101により最小値フィルタ処理が施された画像に対して2次元のローパスフィルタ処理を行うことで、低周波数成分のフレーム画像(低周波数成分画像)を生成する。なお、ローパスフィルタは、特に関数を規定するものではなく、例えばガウス関数でもよいし、移動平均あるいは重み付け移動平均フィルタのようなものでもよい。 The LPF processing unit 102 generates a low-frequency component frame image (low-frequency component image) by performing a two-dimensional low-pass filter process on the image subjected to the minimum value filter processing by the minimum value filter unit 101. . The low-pass filter does not particularly define a function, and may be, for example, a Gaussian function or a moving average or weighted moving average filter.
分配比率処理部190は、それぞれのサブフレーム画像(本実施形態では2つのサブフレーム画像)を発光させる割合を決定する。フリッカを知覚しにくくするためには、2つのサブフレーム画像の明るさの差が少ない方が望ましい。従って本実施形態では50%ずつに分配する。従って、分配比率処理部190は、LPF処理部102による処理済みの画像の輝度値に対して0.5を乗じることで、この画像の輝度値を半分にする。 The distribution ratio processing unit 190 determines a ratio at which each subframe image (two subframe images in the present embodiment) is emitted. In order to make it difficult to perceive flicker, it is desirable that the difference in brightness between the two sub-frame images is small. Therefore, in this embodiment, 50% is distributed. Therefore, the distribution ratio processing unit 190 multiplies the luminance value of the image processed by the LPF processing unit 102 by 0.5 to halve the luminance value of this image.
分配比率処理部190による処理済みの画像は、差分検出部103に送出されると共に、切替部180にも送出される。差分検出部103は、着目フレーム画像から、分配比率処理部190から送出された低周波数成分画像を減じることで、高周波数成分のフレーム画像(高周波数成分画像)を生成する。そして、差分検出部103は、生成した高周波数成分画像を、後段の切替部180に送出する。 The image processed by the distribution ratio processing unit 190 is sent to the difference detection unit 103 and also sent to the switching unit 180. The difference detection unit 103 generates a high-frequency component frame image (high-frequency component image) by subtracting the low-frequency component image sent from the distribution ratio processing unit 190 from the frame image of interest. Then, the difference detection unit 103 sends the generated high frequency component image to the subsequent switching unit 180.
切替部180は、分配比率処理部190から送出された低周波数成分画像と、差分検出部103から送出された高周波数成分画像とを交互に外部に送出する。送出先については特に限定するものではないが、例えば、CRTや液晶画面などがある。 The switching unit 180 alternately sends the low frequency component image sent from the distribution ratio processing unit 190 and the high frequency component image sent from the difference detection unit 103 to the outside. The destination is not particularly limited, and examples thereof include a CRT and a liquid crystal screen.
次に、画像特徴量算出部104、動き度検出部106、最小値フィルタ長設定部105が行う処理についてより詳細に説明する。上述の通り、画像特徴量算出部104、動き度検出部106、最小値フィルタ長設定部105は、矩形画像毎に処理を行うので、以下では、着目フレーム画像中の着目矩形画像を処理する場合について説明する。即ち、画像特徴量算出部104、動き度検出部106、最小値フィルタ長設定部105は、以下に説明する各処理を、矩形画像毎に行うことになる。 Next, processing performed by the image feature amount calculation unit 104, the motion degree detection unit 106, and the minimum value filter length setting unit 105 will be described in more detail. As described above, the image feature amount calculation unit 104, the motion degree detection unit 106, and the minimum value filter length setting unit 105 perform processing for each rectangular image, and in the following, when processing the target rectangular image in the target frame image Will be described. That is, the image feature amount calculation unit 104, the motion degree detection unit 106, and the minimum value filter length setting unit 105 perform each process described below for each rectangular image.
図5は、着目矩形画像について、画像特徴量算出部104、動き度検出部106、最小値フィルタ長設定部105のそれぞれが行う処理のフローチャートである。先ず、ステップS201では、動き度検出部106は、着目矩形画像について動き量を求める。動き量は図4に示すように、2つのフレーム画像F0,F1間の差分である。課題の発生する状態として低レベル小領域が移動することを想定すると、移動方向はその差分値で判別でき、尾引によりボケの発生する領域の差分値は負となる。 FIG. 5 is a flowchart of processing performed by each of the image feature amount calculation unit 104, the motion degree detection unit 106, and the minimum value filter length setting unit 105 for the target rectangular image. First, in step S201, the motion level detection unit 106 obtains a motion amount for the target rectangular image. The amount of motion is a difference between the two frame images F0 and F1, as shown in FIG. Assuming that the low-level small area moves as a state where the problem occurs, the moving direction can be determined by the difference value, and the difference value of the area where the blur occurs due to the trailing is negative.
従って動き度検出部106は、着目矩形画像における動き量を次のようにして求める。先ず、着目フレーム画像における着目矩形画像と、前フレーム画像において着目矩形画像に位置的に対応する領域内の画像との差分画像を求める。この差分画像は、本装置の不図示のメモリに格納し、後述する処理で用いる。また、この差分画像を構成する各画素の値には、正の値だけでなく、負の値も含まれうる。そして次に、この差分画像を構成する各画素の値の絶対値の総和値を、着目矩形画像における動き量DAとして求める。 Therefore, the motion level detection unit 106 obtains the motion amount in the target rectangular image as follows. First, a difference image between a target rectangular image in the target frame image and an image in an area corresponding to the target rectangular image in the previous frame image is obtained. This difference image is stored in a memory (not shown) of the present apparatus and used in the processing described later. In addition, the value of each pixel constituting the difference image can include not only a positive value but also a negative value. Next, the total sum of the absolute values of the pixels constituting the difference image is obtained as the motion amount DA in the target rectangular image.
そして次に、動き度検出部106は、この動き量DAと、予め設定された閾値DXとの大小比較を行う。この大小比較の結果、DA>DXである場合には、高速な動きをしていると判定し、動き度検出部106は、この判定結果を最小値フィルタ長設定部105に送出する。そして処理はステップS209に進む。 Then, the degree-of-motion detector 106 compares the amount of movement DA with a preset threshold DX. If DA> DX as a result of the size comparison, it is determined that the motion is fast, and the motion detection unit 106 sends the determination result to the minimum value filter length setting unit 105. Then, the process proceeds to step S209.
ステップS209では、最小値フィルタ長設定部105は、最小値フィルタ部101に対して規定のタップ長を設定する。これにより最小値フィルタ部101は、着目矩形画像に対して規定のタップ長の最小値フィルタを用いた最小値フィルタ処理を行うことになる。 In step S <b> 209, the minimum value filter length setting unit 105 sets a specified tap length for the minimum value filter unit 101. As a result, the minimum value filter unit 101 performs minimum value filter processing using a minimum value filter having a specified tap length on the target rectangular image.
一方、ステップS201における上記大小比較の結果、DA≦DXである場合には、低速の動きをしていると判定し、処理はステップS202に進む。ステップS202では、画像特徴量算出部104は、着目矩形画像内のエッジ強度を求める。エッジ強度は、水平方向、垂直方向に対するSobelフィルタ処理後の値を加算することで求める。図20(a)、(b)は、Sobelフィルタの構成例を示す図である。なお、着目矩形画像を構成する各画素のエッジ強度値については別途、本装置の不図示のメモリにエッジマップとして格納し、後述する処理で用いる。 On the other hand, if DA ≦ DX as a result of the size comparison in step S201, it is determined that the movement is slow, and the process proceeds to step S202. In step S202, the image feature amount calculation unit 104 obtains the edge strength in the target rectangular image. The edge strength is obtained by adding the values after the Sobel filter processing in the horizontal direction and the vertical direction. 20A and 20B are diagrams illustrating a configuration example of the Sobel filter. Note that the edge intensity value of each pixel constituting the rectangular image of interest is separately stored as an edge map in a memory (not shown) of the present apparatus and used in the processing described later.
そして画像特徴量算出部104は、求めたエッジ強度SAと、予め定められた閾値SXとの大小比較を行う。この大小比較の結果、SA<SXの場合には、処理はステップS209に進む。 Then, the image feature amount calculation unit 104 compares the obtained edge strength SA with a predetermined threshold value SX. As a result of the size comparison, if SA <SX, the process proceeds to step S209.
一方、SA≧SX(閾値以上)の場合には、処理はステップS203に進む。ステップS203では、画像特徴量算出部104は、着目矩形画像を構成する各画素の画素値を用いて画素値の分散値を求める。そして求めた分散値BAと、予め定められた閾値BXとの大小比較を行う。この大小比較の結果、BA>BXである場合には、処理はステップS209に進む。 On the other hand, if SA ≧ SX (greater than or equal to the threshold), the process proceeds to step S203. In step S <b> 203, the image feature amount calculation unit 104 obtains a variance value of pixel values using the pixel values of each pixel constituting the target rectangular image. Then, the obtained variance value BA is compared with a predetermined threshold value BX. As a result of this size comparison, if BA> BX, the process proceeds to step S209.
一方、BA≦BXである場合には、着目矩形画像は着目フレーム画像における平坦部に含まれているものと判断し、処理はステップS204に進む。ステップS204では、画像特徴量算出部104は、着目矩形画像内のコントラストを求める。係る処理では先ず、ステップS202でメモリに格納したエッジマップを参照し、着目矩形画像を構成する各画素のうち、エッジ強度値が閾値以下の画素を特定する。そして、特定した画素の画素値を参照し、参照した画素値のうち最大の画素値と最小の画素値との差CAをコントラストとして求める。 On the other hand, if BA ≦ BX, it is determined that the target rectangular image is included in the flat portion of the target frame image, and the process proceeds to step S204. In step S204, the image feature amount calculation unit 104 obtains the contrast in the target rectangular image. In this process, first, the edge map stored in the memory in step S202 is referred to, and among the pixels constituting the target rectangular image, the pixel whose edge intensity value is equal to or smaller than the threshold is specified. Then, the pixel value of the identified pixel is referred to, and the difference CA between the maximum pixel value and the minimum pixel value among the referenced pixel values is obtained as the contrast.
次に、画像特徴量算出部104は、この求めた差CAと、予め定められた閾値CXとの大小比較を行う。この大小比較の結果、CA<CXの場合には、処理はステップS209に進む。 Next, the image feature amount calculation unit 104 compares the obtained difference CA with a predetermined threshold CX. As a result of this size comparison, if CA <CX, the process proceeds to step S209.
一方、CA≧CXの場合には、処理はステップS205に進む。ステップS205では、画像特徴量算出部104は、ステップS201でメモリに格納した差分画像と、ステップS202でメモリに格納したエッジマップと、を参照する。そして、差分画像を構成する画素のうち値が負の画素であって、エッジマップ上の対応する画素位置におけるエッジ強度値が閾値以下となる画素を特定する。そして特定したそれぞれの画素の画素値の平均値を求める。そして求めた平均値AAと、予め定められた閾値AXとの大小比較を行う。この大小比較の結果、AA<AXである場合には、処理はステップS207に進む。 On the other hand, if CA ≧ CX, the process proceeds to step S205. In step S205, the image feature amount calculation unit 104 refers to the difference image stored in the memory in step S201 and the edge map stored in the memory in step S202. And the pixel which is a pixel with a negative value among the pixels which comprise a difference image, and the edge intensity value in the corresponding pixel position on an edge map becomes below a threshold value is specified. Then, an average value of the pixel values of the specified pixels is obtained. Then, the obtained average value AA is compared with a predetermined threshold value AX. As a result of the size comparison, if AA <AX, the process proceeds to step S207.
ステップS207では、最小値フィルタ長設定部105は、現在設定されている最小値フィルタのタップ長を、より長いタップ長に再設定する。これにより最小値フィルタ部101は、着目矩形画像に対して、最小値フィルタ長設定部105によって再設定されたタップ長の最小値フィルタを用いた最小値フィルタ処理を行うことになる。なお、タップ長の増分については特に限定するものではないが、例えば、既定のタップ長に対し、差分画像において負の値を有する画素で構成されている領域の水平、垂直の幅を測定し、その値の1/2とする。 In step S207, the minimum value filter length setting unit 105 resets the tap length of the currently set minimum value filter to a longer tap length. Thus, the minimum value filter unit 101 performs minimum value filter processing using the minimum value filter with the tap length reset by the minimum value filter length setting unit 105 on the target rectangular image. Note that the tap length increment is not particularly limited, but for example, the horizontal and vertical widths of a region composed of pixels having a negative value in the difference image with respect to a predetermined tap length are measured, It is set to 1/2 of the value.
一方、ステップS205における上記大小比較の結果、AA≧AXである場合には、処理はステップS206に進む。ステップS206では、画像特徴量算出部104は、ステップS201でメモリに格納した差分画像と、ステップS202でメモリに格納したエッジマップと、を参照する。そして、差分画像を構成する画素のうち値が正の画素であって、エッジマップ上の対応する画素位置におけるエッジ強度値が閾値以下となる画素を特定する。そして特定したそれぞれの画素の画素値の平均値を求める。そして求めた平均値AAAと、予め定められた閾値AAXとの大小比較を行う。この大小比較の結果、AAA≦AAX(閾値以下)である場合には、処理はステップS209に進む。 On the other hand, if the result of the size comparison in step S205 is AA ≧ AX, the process proceeds to step S206. In step S206, the image feature amount calculation unit 104 refers to the difference image stored in the memory in step S201 and the edge map stored in the memory in step S202. Then, a pixel having a positive value among the pixels constituting the difference image and having an edge intensity value at a corresponding pixel position on the edge map equal to or less than a threshold value is specified. Then, an average value of the pixel values of the specified pixels is obtained. Then, the obtained average value AAA is compared with a predetermined threshold value AAX. As a result of the size comparison, if AAA ≦ AAX (below the threshold value), the process proceeds to step S209.
一方、係る大小比較において、AAA>AAXである場合には、処理はステップS208に進む。ステップS208では、最小値フィルタ長設定部105は、現在設定されている最小値フィルタのタップ長を、より短いタップ長に再設定する。これにより最小値フィルタ部101は、着目矩形画像に対して、最小値フィルタ長設定部105によって再設定されたタップ長の最小値フィルタを用いた最小値フィルタ処理を行うことになる。なお、タップ長の減分については特に限定するものではないが、例えば、既定のタップ長に対し、差分画像において正の値を有する画素で構成されている領域の水平、垂直の幅を測定し、その値の1/2とする。 On the other hand, in the size comparison, if AAA> AAX, the process proceeds to step S208. In step S208, the minimum value filter length setting unit 105 resets the tap length of the currently set minimum value filter to a shorter tap length. Thus, the minimum value filter unit 101 performs minimum value filter processing using the minimum value filter with the tap length reset by the minimum value filter length setting unit 105 on the target rectangular image. The decrement of the tap length is not particularly limited. For example, the horizontal and vertical widths of an area composed of pixels having a positive value in the difference image are measured with respect to a predetermined tap length. , ½ of the value.
以上の説明により、本実施形態によれば、それぞれのサブフレーム画像の合成表示結果は、図2(a)の右側に示す如く白く滲んだボケのレベルが低下し、また図2(c)の右側に示す如く黒く沈んだボケのレベルが低下し、目立たなくなる。図6は、画像特徴量とタップ長との関係を示す図である。 As described above, according to the present embodiment, in the combined display result of each subframe image, the level of white blurring is reduced as shown on the right side of FIG. 2A, and the result of FIG. As shown on the right side, the level of blurring that has sunk in black decreases and becomes inconspicuous. FIG. 6 is a diagram illustrating the relationship between the image feature amount and the tap length.
<変形例1>
隣接する矩形画像間で、用いた最小値フィルタのタップ長に大きな差があると、隣接する矩形画像間で不連続なボケが生じることになる。そのため、タップ長の変化は規定値以内(規定の差PX以内)に留めた方がよい。
<Modification 1>
If there is a large difference in the tap length of the minimum value filter used between adjacent rectangular images, discontinuous blurring occurs between adjacent rectangular images. Therefore, it is better to keep the change in tap length within a specified value (within a specified difference PX).
例えば、フレーム画像を構成する各矩形画像列を上から順に、且つ1つの矩形画像列を構成する各矩形画像を左から順に選択し、選択した矩形画像について最小値フィルタ処理を施す場合を考える。この場合、着目矩形画像に用いる最小値フィルタのタップ長の変化分は、着目矩形画像の直上の矩形画像に用いた最小値フィルタのタップ長、着目矩形画像に隣接して左側の矩形画像に用いた最小値フィルタのタップ長、との差がPXとなるようにする。 For example, consider a case in which each rectangular image sequence constituting the frame image is selected in order from the top and each rectangular image constituting one rectangular image sequence is selected in order from the left, and the selected rectangular image is subjected to minimum value filtering. In this case, the change in the tap length of the minimum value filter used for the target rectangular image is used for the left side rectangular image adjacent to the minimum length filter tap length used for the rectangular image immediately above the target rectangular image. The difference from the tap length of the minimum value filter is set to PX.
<変形例2>
最小値フィルタのタップ長は、エッジ強度値が閾値以下の画素群で構成されている領域、若しくは画素値の分散値が閾値以下の領域を検出し、その範囲サイズとしても良い。
<Modification 2>
The tap length of the minimum value filter may be a range size by detecting an area composed of a pixel group having an edge intensity value equal to or smaller than a threshold value or an area having a pixel value variance value equal to or smaller than a threshold value.
[第2の実施形態]
図7は、本実施形態に係る画像処理装置の機能構成例を示すブロック図である。以下では、図7に示した各部は、ハードウェアで構成されているものとして説明する。図7において、最小値フィルタ部701、LPF処理部702、分配比率処理部703、差分検出部708、切替部709はそれぞれ、最小値フィルタ部101、LPF処理部102、分配比率処理部190、差分検出部103、切替部180と同じである。
[Second Embodiment]
FIG. 7 is a block diagram illustrating a functional configuration example of the image processing apparatus according to the present embodiment. In the following description, it is assumed that each unit illustrated in FIG. 7 is configured by hardware. In FIG. 7, the minimum value filter unit 701, the LPF processing unit 702, the distribution ratio processing unit 703, the difference detection unit 708, and the switching unit 709 are respectively the minimum value filter unit 101, the LPF processing unit 102, the distribution ratio processing unit 190, and the difference. The same as the detection unit 103 and the switching unit 180.
図7に示した構成は、図1に示した構成から画像特徴量算出部104、最小値フィルタ長設定部105、動き度検出部106、フレームメモリ107を取り除くと共に、最小値フィルタ部701とLPF処理部702との間にスイッチ部711を設けている。更に、最小値フィルタ部701の直前にフレームメモリ710を設けると共に、差分検出部708の直後に飽和検出部712を設けている。 The configuration shown in FIG. 7 removes the image feature amount calculation unit 104, the minimum value filter length setting unit 105, the motion degree detection unit 106, and the frame memory 107 from the configuration shown in FIG. 1, and also includes a minimum value filter unit 701 and an LPF. A switch unit 711 is provided between the processing unit 702 and the processing unit 702. Further, a frame memory 710 is provided immediately before the minimum value filter unit 701, and a saturation detection unit 712 is provided immediately after the difference detection unit 708.
係る構成において、フレームメモリ710には、各フレーム画像が入力される。各フレーム画像は順次最小値フィルタ部701、スイッチ部711、差分検出部708に送出される。先ずスイッチ部711は、端子7aに接続する。従って、フレームメモリ710からスイッチ部711を介してフレーム画像がLPF処理部702に入力され、LPF処理部702、分配比率処理部703により低周波数成分画像が得られる。この低周波数成分画像は、差分検出部708、切替部709に送出される。一方、差分検出部708からは高周波数成分画像が飽和検出部712に入力される。 In such a configuration, each frame image is input to the frame memory 710. Each frame image is sequentially transmitted to the minimum value filter unit 701, the switch unit 711, and the difference detection unit 708. First, the switch unit 711 is connected to the terminal 7a. Therefore, a frame image is input from the frame memory 710 to the LPF processing unit 702 via the switch unit 711, and a low frequency component image is obtained by the LPF processing unit 702 and the distribution ratio processing unit 703. This low frequency component image is sent to the difference detection unit 708 and the switching unit 709. On the other hand, a high frequency component image is input from the difference detection unit 708 to the saturation detection unit 712.
ここで、飽和検出部712からは図19(d)に示すような負信号が検出される。飽和検出部712は、この検出がない場合には何も出力しないが、検出した場合には、負値の領域の幅を画素単位で確定し、それをタップ長補正値とし最小値フィルタ部701に設定する。そして次にスイッチ部711は、端子7bに接続する。以降の動作については、第1の実施形態で説明したとおりである。 Here, the saturation detection unit 712 detects a negative signal as shown in FIG. The saturation detection unit 712 does not output anything in the absence of this detection, but in the case of detection, the minimum value filter unit 701 determines the width of the negative value area in units of pixels and uses it as a tap length correction value. Set to. Then, the switch unit 711 is connected to the terminal 7b. Subsequent operations are as described in the first embodiment.
[第3の実施形態]
上記各実施形態では、図1、図7に示した各部はハードウェアで構成されているものとして説明した。しかし、図1においてフレームメモリ107を除く各部、図7においてフレームメモリ710を除く各部は、ソフトウェアで構成しても良い。この場合、このソフトウェアを格納するメモリと、このメモリに格納されているソフトウェアを実行するCPUとを有するコンピュータは、図1,7に示した構成を有する画像処理装置として機能することになる。図21は、上記各実施形態で説明した各画像処理装置に適用可能なコンピュータのハードウェア構成例を示すブロック図である。
[Third Embodiment]
In the above embodiments, the respective units illustrated in FIGS. 1 and 7 have been described as being configured by hardware. However, each unit excluding the frame memory 107 in FIG. 1 and each unit excluding the frame memory 710 in FIG. 7 may be configured by software. In this case, a computer having a memory for storing the software and a CPU for executing the software stored in the memory functions as an image processing apparatus having the configuration shown in FIGS. FIG. 21 is a block diagram illustrating a hardware configuration example of a computer applicable to each image processing apparatus described in the above embodiments.
CPU2002は、ROM2003やRAM2004に格納されているコンピュータプログラムやデータを用いてコンピュータ全体の制御を行うと共に、本コンピュータを適用する上記各実施形態に係る画像処理装置が行うものとして上述した各処理を実行する。 The CPU 2002 controls the entire computer using computer programs and data stored in the ROM 2003 and the RAM 2004, and executes the processes described above as performed by the image processing apparatus according to each of the embodiments to which the computer is applied. To do.
ROM2003には、本コンピュータの設定データやブートプログラムなどが格納されている。RAM2004は、ネットワークI/F(インターフェース)2005を介して外部から受信したデータ、外部記憶装置2008からロードされたコンピュータプログラムやデータ等を一時的に格納するためのエリアを有する。更に、RAM2004は、CPU2002が各種の処理を実行する際に用いるワークエリアを有する。即ち、RAM2004は、各種のエリアを適宜提供することができる。例えば、RAM2004は、図1に示したフレームメモリ107や図7に示したフレームメモリ710、第1の実施形態で説明した不図示のメモリとして機能する。 The ROM 2003 stores setting data and a boot program for the computer. The RAM 2004 has an area for temporarily storing data received from the outside via the network I / F (interface) 2005, computer programs and data loaded from the external storage device 2008, and the like. Furthermore, the RAM 2004 has a work area that is used when the CPU 2002 executes various processes. That is, the RAM 2004 can provide various areas as appropriate. For example, the RAM 2004 functions as the frame memory 107 shown in FIG. 1, the frame memory 710 shown in FIG. 7, and the memory (not shown) described in the first embodiment.
ネットワークI/F2005は、LANやインターネット等のネットワークに本コンピュータを接続する為のもので、ネットワーク上に接続されている装置とのデータ通信を可能にする。 A network I / F 2005 is used to connect the computer to a network such as a LAN or the Internet, and enables data communication with devices connected on the network.
操作部2006は、キーボードやマウスなどにより構成されており、本コンピュータの操作者が操作することで、各種の指示をCPU2002に対して入力することができる。出力装置2007は、CRTや液晶画面などの表示装置、プリンタなどの印刷装置であり、本コンピュータが処理した結果としての画像を印刷したり表示したりすることができる。 The operation unit 2006 is configured by a keyboard, a mouse, and the like, and can input various instructions to the CPU 2002 by being operated by an operator of the computer. The output device 2007 is a display device such as a CRT or a liquid crystal screen, or a printing device such as a printer, and can print or display an image as a result of processing by the computer.
外部記憶装置2008は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置2008には、OS(オペレーティングシステム)が保存されている。この他にも外部記憶装置2008には、図1においてフレームメモリ107を除く各部、図7においてフレームメモリ710を除く各部、の機能をCPU2002に実行させるためのコンピュータプログラムやデータ、が保存されている。また、外部記憶装置2008には、上記各実施形態で既知のデータとして説明したものについても保存されている。 The external storage device 2008 is a large-capacity information storage device represented by a hard disk drive device. The external storage device 2008 stores an OS (operating system). In addition, the external storage device 2008 stores computer programs and data for causing the CPU 2002 to execute the functions of the respective units except the frame memory 107 in FIG. 1 and the respective units other than the frame memory 710 in FIG. . The external storage device 2008 also stores data described as known data in the above embodiments.
外部記憶装置2008に保存されているコンピュータプログラムやデータは、CPU2002による制御に従って適宜RAM2004にロードされ、CPU2002による処理対象となる。2001は、上述の各部を繋ぐバスである。 Computer programs and data stored in the external storage device 2008 are appropriately loaded into the RAM 2004 under the control of the CPU 2002 and are processed by the CPU 2002. A bus 2001 connects the above-described units.
[その他の実施形態]
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録したコンピュータ読み取り可能な記録媒体(または記憶媒体)は、本発明を構成することになる。また、記録媒体から読み出されたプログラムコードによって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
[Other Embodiments]
Further, the object of the present invention is that a computer-readable recording medium (or storage medium) that records a program code (computer program) of software that realizes the functions of the above-described embodiments constitutes the present invention. Needless to say, the case where the functions of the above-described embodiment are realized by the program code read from the recording medium is also included. When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.
Claims (13)
着目フレームの画像から画像特徴量を取得する取得手段と、
前記着目フレームの画像における動き量を求める計算手段と、
前記着目フレームの画像に対して適用する最小値フィルタのタップ長を、前記画像特徴量と前記動き量とに応じて設定する設定手段と、
前記設定手段により設定されたタップ長の最小値フィルタを用いて前記着目フレームの画像に対して最小値フィルタ処理を行うフィルタ手段と、
前記フィルタ手段によるフィルタ処理後の画像に対してローパスフィルタ処理を行うことで、低周波数成分で構成されている低周波数成分画像を生成する手段と、
前記着目フレームの画像から前記低周波数成分画像を差し引くことで、高周波数成分で構成されている高周波数成分画像を生成する手段と、
前記低周波数成分画像と前記高周波数成分画像とを交互に出力する手段と
を備えることを特徴とする画像処理装置。 Means for obtaining an image of each successive frame;
Acquisition means for acquiring an image feature amount from the image of the frame of interest;
A calculation means for obtaining a motion amount in the image of the frame of interest;
Setting means for setting a tap length of a minimum value filter to be applied to the image of the frame of interest according to the image feature amount and the motion amount ;
Filter means for performing minimum value filter processing on the image of the frame of interest using the minimum value filter of the tap length set by the setting means;
Means for generating a low-frequency component image composed of low-frequency components by performing low-pass filter processing on the image after filtering by the filter means;
Means for generating a high frequency component image composed of high frequency components by subtracting the low frequency component image from the image of the frame of interest;
An image processing apparatus comprising: means for alternately outputting the low frequency component image and the high frequency component image.
前記着目フレームの画像と前記着目フレームよりも1つ前のフレームである前フレームの画像との差分画像を構成する各画素のうち、画素値が負であって、前記着目フレームの画像上の対応する画素位置のエッジ強度値が予め定められた閾値以下となるような画素を特定し、該特定したそれぞれの画素の画素値の平均値を計算し、該計算した平均値が予め定められた閾値よりも小さい場合には、前記タップ長をより長いタップ長に再設定する手段と
を備えることを特徴とする請求項2に記載の画像処理装置。 The setting means is configured such that the amount of motion is equal to or less than a predetermined threshold, the edge strength is equal to or greater than a predetermined threshold, the variance value is equal to or less than a predetermined threshold, and the contrast is equal to or greater than a predetermined threshold. If it is,
Among the pixels constituting the difference image between the image of the frame of interest and the image of the previous frame that is one frame before the frame of interest, the pixel value is negative and the correspondence on the image of the frame of interest edge intensity value at the pixel position that is specified pixel such that less than a predetermined threshold value, the average value of pixel values for each pixel and the identified calculates the average value the calculated predetermined threshold The image processing apparatus according to claim 2, further comprising: a unit that resets the tap length to a longer tap length when the tap length is smaller.
前記動き量が予め定められた閾値以下、且つ前記エッジ強度が予め定められた閾値以上、且つ前記分散値が予め定められた閾値以下、且つ前記コントラストが予め定められた閾値以上、且つ前記平均値が予め定められた閾値以上である場合、
前記着目フレームの画像と前記着目フレームよりも1つ前のフレームである前フレームの画像との差分画像を構成する各画素のうち、画素値が正であって、前記着目フレームの画像上の対応する画素位置のエッジ強度値が予め定められた閾値以下となるような画素を特定し、該特定したそれぞれの画素の画素値の平均値を計算し、該計算した平均値が予め定められた閾値以下である場合には、前記タップ長として規定のタップ長を設定し、該計算した平均値が予め定められた閾値よりも大きい場合には、前記タップ長をより短いタップ長に再設定する手段と
を備えることを特徴とする請求項7に記載の画像処理装置。 The setting means includes
The amount of motion is equal to or less than a predetermined threshold, the edge strength is equal to or greater than a predetermined threshold, the variance is equal to or less than a predetermined threshold, and the contrast is equal to or greater than a predetermined threshold, and the average value Is greater than or equal to a predetermined threshold,
Among the pixels constituting the difference image between the image of the frame of interest and the image of the previous frame that is one frame before the frame of interest, the pixel value is positive and the correspondence on the image of the frame of interest edge intensity value at the pixel position which is to identify the pixels such that below a predetermined threshold, the average value of the pixel values of the respective pixels the specified calculated, mean values the calculated predetermined threshold the case is less than or equal to set the tap length defined as the tap length, when the average value the calculation is greater than a predetermined threshold value, means for resetting the tap length shorter tap length The image processing apparatus according to claim 7 , further comprising:
前記画像処理装置の画像取得手段が、連続する各フレームの画像を取得する工程と、
前記画像処理装置の画像特徴量取得手段が、着目フレームの画像から画像特徴量を取得する取得工程と、
前記画像処理装置の計算手段が、前記着目フレームの画像における動き量を求める計算工程と、
前記画像処理装置の設定手段が、前記着目フレームの画像に対して適用する最小値フィルタのタップ長を、前記画像特徴量と前記動き量とに応じて設定する設定工程と、
前記画像処理装置のフィルタ手段が、前記設定工程で設定されたタップ長の最小値フィルタを用いて前記着目フレームの画像に対して最小値フィルタ処理を行うフィルタ工程と、
前記画像処理装置の低周波数成分画像生成手段が、前記フィルタ工程によるフィルタ処理後の画像に対してローパスフィルタ処理を行うことで、低周波数成分で構成されている低周波数成分画像を生成する工程と、
前記画像処理装置の高周波数成分画像生成手段が、前記着目フレームの画像から前記低周波数成分画像を差し引くことで、高周波数成分で構成されている高周波数成分画像を生成する工程と、
前記画像処理装置の出力手段が、前記低周波数成分画像と前記高周波数成分画像とを交互に出力する工程と
を備えることを特徴とする画像処理方法。 An image processing method performed by an image processing apparatus,
An image acquisition unit of the image processing apparatus acquires an image of each successive frame;
An image feature amount acquisition unit of the image processing apparatus acquires an image feature amount from an image of the frame of interest; and
A calculating step of calculating a motion amount in the image of the frame of interest by the calculation means of the image processing device ;
A setting step in which the setting unit of the image processing apparatus sets a tap length of a minimum value filter to be applied to the image of the frame of interest according to the image feature amount and the motion amount ;
A filter step in which the filter means of the image processing device performs a minimum value filter process on the image of the frame of interest using the minimum value filter of the tap length set in the setting step;
A step of generating a low-frequency component image composed of low-frequency components by performing low-pass filter processing on the image after the filtering processing by the filtering step , wherein the low-frequency component image generating means of the image processing device ; ,
A step of generating a high-frequency component image composed of high-frequency components by subtracting the low-frequency component image from the image of the frame of interest , wherein the high-frequency component image generating means of the image processing device ;
An image processing method, comprising: an output unit of the image processing apparatus that alternately outputs the low-frequency component image and the high-frequency component image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009136706A JP5230538B2 (en) | 2009-06-05 | 2009-06-05 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009136706A JP5230538B2 (en) | 2009-06-05 | 2009-06-05 | Image processing apparatus and image processing method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2010283695A JP2010283695A (en) | 2010-12-16 |
JP2010283695A5 JP2010283695A5 (en) | 2012-07-19 |
JP5230538B2 true JP5230538B2 (en) | 2013-07-10 |
Family
ID=43540034
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009136706A Active JP5230538B2 (en) | 2009-06-05 | 2009-06-05 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5230538B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4125827B2 (en) * | 1997-08-26 | 2008-07-30 | 松下電器産業株式会社 | Vertical contour correction device |
TW200623897A (en) * | 2004-12-02 | 2006-07-01 | Seiko Epson Corp | Image display method, image display device, and projector |
JP5080899B2 (en) * | 2007-08-08 | 2012-11-21 | キヤノン株式会社 | Video processing apparatus and control method thereof |
JP5464819B2 (en) * | 2008-04-30 | 2014-04-09 | キヤノン株式会社 | Moving image processing apparatus and method, and program |
-
2009
- 2009-06-05 JP JP2009136706A patent/JP5230538B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2010283695A (en) | 2010-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5464819B2 (en) | Moving image processing apparatus and method, and program | |
KR100815010B1 (en) | LCD Motion Blur Precompensation Method | |
US8363971B2 (en) | Image processing apparatus and image processing method | |
US11200649B2 (en) | Image processing method and apparatus, display device, and computer readable storage medium | |
KR101295649B1 (en) | Image processing apparatus, image processing method and storage medium | |
US8462267B2 (en) | Frame rate conversion apparatus and frame rate conversion method | |
US20100158402A1 (en) | Motion blur detecting apparatus and method, image processing apparatus, and image display apparatus | |
JP5479064B2 (en) | Image processing apparatus, control method therefor, and program | |
US8279346B2 (en) | Frame rate converting apparatus and method thereof | |
JP2011154342A (en) | Image processing apparatus and image processing method | |
US8958657B2 (en) | Frame rate conversion image processing apparatus, control method, and computer-readable storage medium | |
JP2009109694A (en) | Display unit | |
US11010882B2 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
JP5230538B2 (en) | Image processing apparatus and image processing method | |
JP2010124257A (en) | Video processing apparatus, video display device, and frame-rate conversion method | |
JP6320022B2 (en) | VIDEO DISPLAY DEVICE, VIDEO DISPLAY DEVICE CONTROL METHOD, AND PROGRAM | |
KR101577703B1 (en) | Video picture display method to reduce the effects of blurring and double contours and device implementing this method | |
JP2010028576A (en) | Image processor and its control method | |
JP5583177B2 (en) | Image processing apparatus and image processing method | |
JP2000059648A (en) | Method and device for displaying image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120604 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120604 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130218 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130319 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160329 Year of fee payment: 3 |