JP5029892B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP5029892B2
JP5029892B2 JP2007221274A JP2007221274A JP5029892B2 JP 5029892 B2 JP5029892 B2 JP 5029892B2 JP 2007221274 A JP2007221274 A JP 2007221274A JP 2007221274 A JP2007221274 A JP 2007221274A JP 5029892 B2 JP5029892 B2 JP 5029892B2
Authority
JP
Japan
Prior art keywords
pixel
subfield
region
light
light amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007221274A
Other languages
Japanese (ja)
Other versions
JP2008233852A (en
Inventor
哲二郎 近藤
左近 山元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007221274A priority Critical patent/JP5029892B2/en
Priority to TW096138537A priority patent/TWI394121B/en
Priority to CN2007800469262A priority patent/CN101589419B/en
Priority to KR1020097012552A priority patent/KR20090096606A/en
Priority to PCT/JP2007/074261 priority patent/WO2008075659A1/en
Priority to BRPI0720515-5A priority patent/BRPI0720515A2/en
Priority to AU2007335488A priority patent/AU2007335488B2/en
Priority to EP07850749A priority patent/EP2101310A4/en
Priority to US12/518,649 priority patent/US8363071B2/en
Publication of JP2008233852A publication Critical patent/JP2008233852A/en
Application granted granted Critical
Publication of JP5029892B2 publication Critical patent/JP5029892B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関し、特に、例えば、画像を表示するLCD(Liquid Crystal Display)等の第1の表示デバイスを用いて、第1の表示デバイスと異なる特性を有するPDP(Plasma Display Panel)等の第2の表示デバイスにおいて画像を表示した状態を再現することができるようにする画像処理装置、画像処理方法、及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program, and in particular, using a first display device such as an LCD (Liquid Crystal Display) that displays an image, for example, has characteristics different from those of the first display device. The present invention relates to an image processing apparatus, an image processing method, and a program capable of reproducing a state in which an image is displayed on a second display device such as a PDP (Plasma Display Panel).

画像信号を表示する表示デバイスとして、例えば、CRT(Cathode Ray Tube)、LCD、PDP、有機EL(Electroluminescence)、プロジェクタ等、様々な表示デバイスが存在する。   As display devices for displaying image signals, there are various display devices such as CRT (Cathode Ray Tube), LCD, PDP, organic EL (Electroluminescence), and projector.

そして、例えば、PDPについては、表示画面上で移動画素に対し視線が追従したときに、各網膜位置に入る光量の計算を行い、その出力データから新しいサブフィールドデータを生成することで、偽輪郭の発生を抑制する方法が提案されている(例えば、特許文献1を参照)。   For example, for PDP, when the line of sight follows a moving pixel on the display screen, the amount of light entering each retinal position is calculated, and new subfield data is generated from the output data, thereby producing a false contour. There has been proposed a method for suppressing the occurrence of (see, for example, Patent Document 1).

特開2000-39864号公報JP 2000-39864 A

ところで、表示特性は表示デバイスによって異なるため、画像信号が適切な視聴状態(表示状態)にあるかを確認するモニタリングにおいては、表示デバイスの特性(表示特性)の違いが大きな問題となる。すなわち、ある画像信号をLCDに表示してモニタリングを行ったとしても、その画像信号をPDPに表示した際に、どのように見えるかを確認することは困難であった。   By the way, since the display characteristics differ depending on the display device, a difference in the characteristics (display characteristics) of the display device is a big problem in monitoring for checking whether the image signal is in an appropriate viewing state (display state). That is, even if a certain image signal is displayed on the LCD and monitored, it is difficult to confirm how the image signal looks when displayed on the PDP.

そのため、複数の表示デバイスの特性を考慮してモニタリングを行うには、表示デバイスを必要な分だけ用意する必要があり、モニタリングシステムの規模の増大につながっていた。   Therefore, in order to perform monitoring in consideration of the characteristics of a plurality of display devices, it is necessary to prepare as many display devices as necessary, leading to an increase in the scale of the monitoring system.

またPDPは、入力画像信号の1フィールドを複数のサブフィールドで構成し、各サブフィールドを発光、非発光のどちらかの状態にするように制御することで、多階調表示を実現する表示デバイスである。   In addition, the PDP is a display device that realizes multi-gradation display by controlling one sub-field to be in either a light emitting state or a non-light emitting state by configuring one field of an input image signal with a plurality of subfields. It is.

そのため、動画像を表示した際に、画像内の動き物体等に人の視線が追従すると、サブフィールドの発光パターンによっては、表示している画像と人の目に見える画像が異なるといった特徴がある。しかしながらPDPにおいて、実際に動画像がどのように見えるかを確認するには、PDPに動画像を表示し、人が目で見て確認するしかなく、確認作業が大変な上、客観的な評価が困難であった。   Therefore, when a moving image is displayed, if a person's line of sight follows a moving object or the like in the image, the displayed image may be different from the image visible to the human depending on the light emission pattern of the subfield. . However, in the PDP, the only way to check how the moving image actually looks is to display the moving image on the PDP and visually check it. It was difficult.

本発明は、このような状況に鑑みてなされたものであり、例えば、LCD等の第1の表示デバイスを用いて、第1の表示デバイスと異なる特性を有するPDP等の第2の表示デバイスにおいて画像を表示した状態を再現することができるようにするものである。   The present invention has been made in view of such a situation. For example, in a second display device such as a PDP having characteristics different from those of the first display device using the first display device such as an LCD. This makes it possible to reproduce the state in which the image is displayed.

本発明の一側面の画像処理装置、又は、プログラムは、画像を表示する第1の表示デバイスを用いて、前記第1の表示デバイスと異なる特性を有する第2の表示デバイスにおいて画像を表示した状態を再現する画像処理装置、又は、画像処理装置としてコンピュータを機能させるプログラムにおいて、入力画像信号から画像の動きを検出する動き検出手段と、前記入力画像信号を複数のサブフィールドに展開するサブフィールド展開手段と、An image processing apparatus or program according to one aspect of the present invention displays an image on a second display device having characteristics different from those of the first display device, using the first display device that displays an image. In an image processing apparatus that reproduces image data or a program that causes a computer to function as an image processing apparatus, motion detection means that detects image motion from an input image signal, and subfield expansion that expands the input image signal into a plurality of subfields Means,
前記動き検出手段において検出された動きの方向と、前記サブフィールド展開手段において展開されたサブフィールドの発光パターンから、前記第2の表示デバイスに表示された前記入力画像信号を人が見た際に、網膜に積分される光量を擬似的に算出し、その光量を画素値とする出力画像信号を生成する光量積算手段とを有し、前記サブフィールド展開手段は、前記入力画像信号を、画素ごとに、発光の光量が異なる複数のサブフィールドに展開し、前記光量積算手段は、前記第2の表示デバイスにおいて前記入力画像信号を表示する表示面に垂直な方向を時間方向として、前記複数のサブフィールドを時間方向に並べた、前記第2の表示デバイスによる前記入力画像信号の表示をモデル化した表示モデルにおいて、注目している注目画素の領域を断面とし、かつ、前記注目画素の動きの方向に延びる領域を、光量の積算を行う光量積算領域として、前記光量積算領域内の光量を、前記サブフィールドの発光パターンに従って積算することにより、前記注目画素の画素値を算出するにあたり、前記表示モデルにおいて、前記表示面の画素の領域を断面とし、かつ、時間方向に、前記サブフィールドの発光の光量に対応する長さだけ延びる領域を、画素サブフィールド領域として、前記画素サブフィールド領域内を前記光量積算領域が占める比率である占有比率に、前記画素サブフィールド領域に対応するサブフィールドの前記発光パターンに従った発光の光量を乗算することにより、前記画素サブフィールド領域が前記注目画素の画素値に影響する分の影響光量を、前記画素サブフィールド領域すべてについて求め、前記画素サブフィールド領域すべてについて求められた前記影響光量を積算し、動きを検出するサーチ範囲内の各画素の位置に対応する各動きごとに、前記複数のサブフィールドそれぞれについての前記占有比率が登録されたテーブルであって、前記注目画素を基準とする前記サーチ範囲内の各画素の相対位置と、各サブフィールドとについて、前記相対位置の画素の領域を断面とし、かつ、時間方向に、前記サブフィールドの発光の光量に対応する長さだけ延びる前記画素サブフィールド領域内を前記光量積算領域が占める前記占有比率が登録されているテーブルを用い、前記注目画素の動きに対する前記テーブルから、前記注目画素について、各画素サブフィールドの占有比率を求める画像処理装置、又は、画像処理装置としてコンピュータを機能させるためのプログラムである。  When the person views the input image signal displayed on the second display device from the direction of movement detected by the motion detection means and the light emission pattern of the subfield developed by the subfield development means. A light amount integrating unit that artificially calculates a light amount integrated into the retina and generates an output image signal using the light amount as a pixel value, and the sub-field expanding unit converts the input image signal for each pixel. The light intensity integrating means expands the plurality of sub-fields with the direction perpendicular to the display surface displaying the input image signal as the time direction in the second display device. A pixel of interest in a display model in which the display of the input image signal by the second display device is modeled with fields arranged in the time direction By integrating the amount of light in the light amount integration region according to the light emission pattern of the subfield, the region extending in the direction of the movement of the pixel of interest as a cross-section, as a light amount integration region for integrating the amount of light, In calculating the pixel value of the pixel of interest, in the display model, an area extending in a time direction in a length corresponding to the light emission amount of the subfield in the cross-sectional area of the pixel on the display surface, As a pixel subfield region, an occupation ratio, which is a ratio of the light amount integration region in the pixel subfield region, is multiplied by the light emission amount according to the light emission pattern of the subfield corresponding to the pixel subfield region. The amount of influence of the pixel subfield region that affects the pixel value of the pixel of interest is For each of the plurality of subfields, for each motion corresponding to the position of each pixel within the search range for detecting motion, integrating all the affected light amounts obtained for all the field subfield regions A table in which the occupancy ratio is registered, with respect to the relative position of each pixel in the search range with respect to the pixel of interest as a reference, and the subfield, the region of the pixel at the relative position as a cross-section, and Using a table in which the occupation ratio occupied by the light amount integration region in the pixel subfield region extending in the time direction by a length corresponding to the light emission amount of the subfield is registered, An image processing device for obtaining an occupation ratio of each pixel subfield for the target pixel from the table, Or it is a program for functioning a computer as an image processing apparatus.

本技術の一側面の画像処理方法は、画像を表示する第1の表示デバイスを用いて、前記第1の表示デバイスと異なる特性を有する第2の表示デバイスにおいて画像を表示した状態を再現する画像処理方法において、入力画像信号から画像の動きを検出する動き検出ステップと、前記入力画像信号を複数のサブフィールドに展開するサブフィールド展開ステップと、前記動き検出ステップにおいて検出された動きの方向と、前記サブフィールド展開ステップにおいて展開されたサブフィールドの発光パターンから、前記第2の表示デバイスに表示された前記入力画像信号を人が見た際に、網膜に積分される光量を擬似的に算出し、その光量を画素値とする出力画像信号を生成する光量積算ステップとを含み、前記サブフィールド展開ステップは、前記入力画像信号を、画素ごとに、発光の光量が異なる複数のサブフィールドに展開し、前記光量積算ステップは、前記第2の表示デバイスにおいて前記入力画像信号を表示する表示面に垂直な方向を時間方向として、前記複数のサブフィールドを時間方向に並べた、前記第2の表示デバイスによる前記入力画像信号の表示をモデル化した表示モデルにおいて、注目している注目画素の領域を断面とし、かつ、前記注目画素の動きの方向に延びる領域を、光量の積算を行う光量積算領域として、前記光量積算領域内の光量を、前記サブフィールドの発光パターンに従って積算することにより、前記注目画素の画素値を算出するにあたり、前記表示モデルにおいて、前記表示面の画素の領域を断面とし、かつ、時間方向に、前記サブフィールドの発光の光量に対応する長さだけ延びる領域を、画素サブフィールド領域として、前記画素サブフィールド領域内を前記光量積算領域が占める比率である占有比率に、前記画素サブフィールド領域に対応するサブフィールドの前記発光パターンに従った発光の光量を乗算することにより、前記画素サブフィールド領域が前記注目画素の画素値に影響する分の影響光量を、前記画素サブフィールド領域すべてについて求め、前記画素サブフィールド領域すべてについて求められた前記影響光量を積算し、動きを検出するサーチ範囲内の各画素の位置に対応する各動きごとに、前記複数のサブフィールドそれぞれについての前記占有比率が登録されたテーブルであって、前記注目画素を基準とする前記サーチ範囲内の各画素の相対位置と、各サブフィールドとについて、前記相対位置の画素の領域を断面とし、かつ、時間方向に、前記サブフィールドの発光の光量に対応する長さだけ延びる前記画素サブフィールド領域内を前記光量積算領域が占める前記占有比率が登録されているテーブルを用い、前記注目画素の動きに対する前記テーブルから、前記注目画素について、各画素サブフィールドの占有比率を求める画像処理方法である。An image processing method according to an aspect of the present technology uses a first display device that displays an image, and reproduces a state in which the image is displayed on a second display device having characteristics different from those of the first display device. In the processing method, a motion detection step of detecting a motion of an image from an input image signal, a subfield expansion step of expanding the input image signal into a plurality of subfields, and a direction of the motion detected in the motion detection step, From the light emission pattern of the subfield developed in the subfield development step, the amount of light integrated into the retina is simulated when a person views the input image signal displayed on the second display device. A light amount integrating step for generating an output image signal having the light amount as a pixel value, and the subfield developing step includes The input image signal is developed into a plurality of subfields having different light emission amounts for each pixel, and the light amount integration step has a direction perpendicular to a display surface on which the input image signal is displayed in the second display device. In the display model in which the display of the input image signal by the second display device is modeled by arranging the plurality of subfields in the time direction as a time direction, a region of a target pixel of interest is a cross section, and The region extending in the direction of movement of the target pixel is used as a light amount integration region for integrating the amount of light, and the light amount in the light amount integration region is integrated according to the light emission pattern of the subfield, whereby the pixel value of the target pixel In the display model, the pixel area of the display surface is a cross section, and the subfield is calculated in the time direction. A region extending by a length corresponding to the amount of emitted light is defined as a pixel subfield region, and the subfield corresponding to the pixel subfield region is set to an occupation ratio that is a ratio occupied by the light amount integration region in the pixel subfield region. By multiplying the light emission amount according to the light emission pattern of the pixel subfield region, the influence light amount of the pixel subfield region affecting the pixel value of the target pixel is obtained for all the pixel subfield regions, and the pixel subfield A table in which the occupancy ratios for each of the plurality of subfields are registered for each movement corresponding to the position of each pixel in the search range for detecting the movement by integrating the influence light amounts obtained for all the areas. And the relative position of each pixel within the search range with respect to the pixel of interest and each sub The area occupied by the light amount integration region occupies the pixel subfield region having a cross section of the pixel region at the relative position and extending in a time direction by a length corresponding to the light emission amount of the subfield. In this image processing method, a table in which a ratio is registered is used to obtain an occupation ratio of each pixel subfield for the target pixel from the table for the movement of the target pixel.

以上のような一側面においては、入力画像信号から画像の動きが検出される一方、前記入力画像信号が複数のサブフィールドに展開される。そして、画像の動きの方向と、サブフィールドの発光パターンから、前記第2の表示デバイスに表示された前記入力画像信号を人が見た際に、網膜に積分される光量が擬似的に算出され、その光量を画素値とする出力画像信号が生成される。この場合において、入力画像信号の、複数のサブフィールドへの展開では、前記入力画像信号が、画素ごとに、発光の光量が異なる複数のサブフィールドに展開される。また、出力画像信号の生成では、前記第2の表示デバイスにおいて前記入力画像信号を表示する表示面に垂直な方向を時間方向として、前記複数のサブフィールドを時間方向に並べた、前記第2の表示デバイスによる前記入力画像信号の表示をモデル化した表示モデルにおいて、注目している注目画素の領域を断面とし、かつ、前記注目画素の動きの方向に延びる領域を、光量の積算を行う光量積算領域として、前記光量積算領域内の光量を、前記サブフィールドの発光パターンに従って積算することにより、前記注目画素の画素値が算出される。In one aspect as described above, the motion of the image is detected from the input image signal, while the input image signal is developed into a plurality of subfields. Then, the amount of light integrated into the retina when the person views the input image signal displayed on the second display device is calculated in a pseudo manner from the direction of image movement and the light emission pattern of the subfield. Then, an output image signal having the light amount as a pixel value is generated. In this case, when the input image signal is developed into a plurality of subfields, the input image signal is developed into a plurality of subfields having different light emission amounts for each pixel. Further, in the generation of the output image signal, the second display device includes the second sub-fields arranged in the time direction, with the direction perpendicular to the display surface displaying the input image signal as the time direction. In a display model that models the display of the input image signal by a display device, a light amount integration that integrates a light amount in a cross-section of the region of interest of the pixel of interest and that extends in the direction of movement of the pixel of interest As a region, the pixel value of the target pixel is calculated by integrating the light amount in the light amount integration region according to the light emission pattern of the subfield.
具体的には、前記表示モデルにおいて、前記表示面の画素の領域を断面とし、かつ、時間方向に、前記サブフィールドの発光の光量に対応する長さだけ延びる領域を、画素サブフィールド領域として、前記画素サブフィールド領域内を前記光量積算領域が占める比率である占有比率に、前記画素サブフィールド領域に対応するサブフィールドの前記発光パターンに従った発光の光量を乗算することにより、前記画素サブフィールド領域が前記注目画素の画素値に影響する分の影響光量が、前記画素サブフィールド領域すべてについて求められ、前記画素サブフィールド領域すべてについて求められた前記影響光量が積算される。Specifically, in the display model, a region of the pixel on the display surface is a cross section, and a region extending in the time direction by a length corresponding to the light emission amount of the subfield is defined as a pixel subfield region. The pixel subfield is obtained by multiplying the occupation ratio, which is the ratio of the light intensity integration area in the pixel subfield area, by the light emission amount according to the light emission pattern of the subfield corresponding to the pixel subfield area. The influence light quantity corresponding to the area affecting the pixel value of the target pixel is obtained for all the pixel subfield areas, and the influence light quantities obtained for all the pixel subfield areas are integrated.
また、動きを検出するサーチ範囲内の各画素の位置に対応する各動きごとに、前記複数のサブフィールドそれぞれについての前記占有比率が登録されたテーブルであって、前記注目画素を基準とする前記サーチ範囲内の各画素の相対位置と、各サブフィールドとについて、前記相対位置の画素の領域を断面とし、かつ、時間方向に、前記サブフィールドの発光の光量に対応する長さだけ延びる前記画素サブフィールド領域内を前記光量積算領域が占める前記占有比率が登録されているテーブルを用い、前記注目画素の動きに対する前記テーブルから、前記注目画素について、各画素サブフィールドの占有比率が求められる。In addition, for each motion corresponding to the position of each pixel within the search range for detecting motion, a table in which the occupation ratio for each of the plurality of subfields is registered, the reference pixel being the reference For each of the relative position of each pixel in the search range and each subfield, the pixel having a cross section of the region of the pixel at the relative position and extending in the time direction by a length corresponding to the light emission amount of the subfield Using a table in which the occupation ratio occupied by the light amount integration area in the subfield area is registered, the occupation ratio of each pixel subfield is obtained for the target pixel from the table for the movement of the target pixel.

本発明の一側面によれば、LCD等の第1の表示デバイスを用いて、第1の表示デバイスと異なる特性を有するPDP等の第2の表示デバイスにおいて画像を表示した状態を再現することができる。   According to one aspect of the present invention, a state in which an image is displayed on a second display device such as a PDP having characteristics different from those of the first display device can be reproduced using the first display device such as an LCD. it can.

以下、図を参照しながら、本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明を適用した画像処理装置の第1実施の形態の構成例を示している。   FIG. 1 shows a configuration example of a first embodiment of an image processing apparatus to which the present invention is applied.

入力画像信号Vinは、動き検出部100と、サブフィールド展開部200へ供給される。   The input image signal Vin is supplied to the motion detection unit 100 and the subfield development unit 200.

図2は、図1の動き検出部100の構成を示している。動き検出部100では、入力画像信号Vinから、各画素の動きベクトルを、入力画像信号Vinを人が見た際の画素毎の視線として検出する。   FIG. 2 shows a configuration of the motion detection unit 100 of FIG. The motion detection unit 100 detects the motion vector of each pixel from the input image signal Vin as the line of sight for each pixel when the person views the input image signal Vin.

入力画像信号Vinは、相関演算回路101と遅延回路102へ供給される。相関演算回路101では、現フィールドの入力画像信号Vinと、遅延回路102で1フィールド遅延された前フィールドの入力画像信号との間で、相関演算を行う。   The input image signal Vin is supplied to the correlation calculation circuit 101 and the delay circuit 102. The correlation calculation circuit 101 performs correlation calculation between the input image signal Vin of the current field and the input image signal of the previous field delayed by one field by the delay circuit 102.

図3に相関演算の動作を示す。   FIG. 3 shows the operation of the correlation calculation.

相関演算回路101は、現フィールドの注目画素において、注目画素を中心としたブロックBLを設定する。ブロックBLは例えば5×5画素のブロックである。そして、相関演算回路101は、遅延回路102で遅延された前フィールドにおいて、現フィールドでのブロックBLと同じ位置を中心としたサーチ範囲を設定する。サーチ範囲は例えば、現フィールドでのブロックBLと同じ位置を基準とし、水平、垂直方向に−8〜+7画素分の領域である。そして、相関演算回路101は、ブロックBLとサーチ範囲内の、ブロックBLと同一サイズの各候補ブロックとの間で、例えば、画素値どうしの差分絶対値の総和を、ブロックBLと候補ブロックとの相関を評価するための評価値として求める演算を、相関演算として行い、各候補ブロックでの演算結果を、視線決定回路103へ供給する。   The correlation calculation circuit 101 sets a block BL centered on the target pixel in the target pixel of the current field. The block BL is, for example, a 5 × 5 pixel block. Then, the correlation operation circuit 101 sets a search range centered on the same position as the block BL in the current field in the previous field delayed by the delay circuit 102. The search range is, for example, an area corresponding to −8 to +7 pixels in the horizontal and vertical directions with reference to the same position as the block BL in the current field. Then, the correlation operation circuit 101 calculates, for example, the sum of absolute differences between pixel values between the block BL and each candidate block within the search range and the same size as the block BL. The calculation obtained as an evaluation value for evaluating the correlation is performed as a correlation calculation, and the calculation result in each candidate block is supplied to the line-of-sight determination circuit 103.

図2に戻り、視線決定回路103では、相関演算回路101から供給された演算結果の中から、最小の値の演算結果が得られた候補ブロックの位置を、注目画素の動きベクトルとして検出する。ここで、候補ブロックの位置は、図4に示すように、ブロックBLからの相対位置である。視線決定回路103は、注目画素の動きベクトルの方向を、人が注目画素を見たときの視線の方向、すなわち、現フィールドを見た人の視線が追っていく方向(視線方向)mvに決定する。   Returning to FIG. 2, the line-of-sight determination circuit 103 detects the position of the candidate block from which the calculation result of the minimum value is obtained from the calculation results supplied from the correlation calculation circuit 101 as the motion vector of the target pixel. Here, the position of the candidate block is a relative position from the block BL as shown in FIG. The line-of-sight determination circuit 103 determines the direction of the motion vector of the pixel of interest as the direction of the line of sight when the person looks at the pixel of interest, that is, the direction (gaze direction) mv along which the line of sight of the person viewing the current field follows. .

相関演算回路101では、注目画素毎にブロックBLを設定するが、現フィールドを最初に5×5画素のブロックに分割し、ブロック毎に視線方向(動きベクトル)を求め、ブロック内の画素では、全て同じ視線方向を適用してもよい。またサーチ範囲内の各候補ブロックとの相関演算には、注目画素の近傍の画素における差分絶対値に一定の重みをつけて評価値を求めてもよい。この場合、注目画素の近傍の画素の相関を重く評価することになる。   In the correlation calculation circuit 101, a block BL is set for each pixel of interest, but the current field is first divided into 5 × 5 pixel blocks, and the line-of-sight direction (motion vector) is obtained for each block. The same line-of-sight direction may all be applied. In addition, in the correlation calculation with each candidate block in the search range, an evaluation value may be obtained by applying a certain weight to the absolute difference value in the pixel near the target pixel. In this case, the correlation between pixels in the vicinity of the pixel of interest is heavily evaluated.

図5は、図1のサブフィールド展開部200の構成例を示している。   FIG. 5 shows a configuration example of the subfield expansion unit 200 of FIG.

サブフィールド展開部200では、入力画像信号VinをPDPに表示する際の各サブフィールドの発光パターンを生成する。   The subfield development unit 200 generates a light emission pattern of each subfield when the input image signal Vin is displayed on the PDP.

サブフィールド展開部200の動作を説明する前に、PDPにおける多階調表示の方法について説明する。PDPは、1フィールドを複数のサブフィールドに分割し、各サブフィールドの発光の輝度の重みを変えることで多階調表示を行う。   Before describing the operation of the subfield developing unit 200, a multi-gradation display method in the PDP will be described. The PDP divides one field into a plurality of subfields, and performs multi-gradation display by changing the weight of luminance of light emission in each subfield.

図6にPDPにおけるサブフィールドの構成例を示す。図6では1フィールドは8つのサブフィールドSF1、SF2、SF3、SF4、SF5、SF6、SF7、SF8に分割され、各サブフィールドSF1ないしSF8は異なる輝度の重み(光量)を持っている。各サブフィールドSF1ないしSF8は、それぞれの画素を発光、非発光のどちらかに設定するアドレス期間と、アドレス期間において発光と設定された画素を発光させる発光期間から構成されている。   FIG. 6 shows a configuration example of subfields in the PDP. In FIG. 6, one field is divided into eight subfields SF1, SF2, SF3, SF4, SF5, SF6, SF7, and SF8, and each of the subfields SF1 to SF8 has a different luminance weight (light quantity). Each subfield SF1 to SF8 includes an address period in which each pixel is set to emit light or not to emit light, and a light emission period in which pixels set to emit light in the address period are caused to emit light.

各サブフィールドSF1ないしSF8の輝度の重みを例えば1、2、4、8、16、32、64、128とすると、これらのサブフィールドSF1ないしSF8を組み合わせることで、0〜255までの256階調を実現することができる。   If the luminance weight of each subfield SF1 to SF8 is, for example, 1, 2, 4, 8, 16, 32, 64, 128, 256 gradations from 0 to 255 can be obtained by combining these subfields SF1 to SF8. Can be realized.

実際のPDPは2次元平面において構成されるため、PDPによる画像の表示は、図7に示すように、PDPにおける画素位置X,Yと時間方向Tのサブフィールドからなる3次元的なモデル図で表現される。   Since an actual PDP is configured in a two-dimensional plane, an image displayed by the PDP is a three-dimensional model diagram composed of pixel positions X and Y in the PDP and subfields in the time direction T as shown in FIG. Expressed.

図5に戻り、入力画像信号Vinは、サブフィールド割当回路201へ供給される。サブフィールド割当回路201は、入力画像信号Vinの1フィールドの画素値を、以下の式(1)を用いて表す。ただしNiは、サブフィールドSF#iの非発光または発光を表す発光情報であり、0または1である。 Returning to FIG. 5, the input image signal Vin is supplied to the subfield allocation circuit 201. The subfield assignment circuit 201 represents the pixel value of one field of the input image signal Vin using the following equation (1). N i is light emission information indicating non-light emission or light emission of the subfield SF # i and is 0 or 1.

1×N1+2×N2+4×N3+8×N4+16×N5+32×N6+64×N7+128×N8
・・・(1)
1 × N 1 + 2 × N 2 + 4 × N 3 + 8 × N 4 + 16 × N 5 + 32 × N 6 + 64 × N 7 + 128 × N 8
... (1)

なおここでは、表示対象とするPDPのサブフィールド構造を図6に示す場合と同様に、8つのサブフィールドSF1ないしSF8で構成し、各サブフィールドSF1ないしSF8の輝度の重みをそれぞれ1、2、4、8、16、32、64、128としている。また以下の説明でもこの構造を元にするものとする。   Here, the subfield structure of the PDP to be displayed is composed of eight subfields SF1 to SF8 as in the case shown in FIG. 6, and the luminance weights of the subfields SF1 to SF8 are set to 1, 2, respectively. 4, 8, 16, 32, 64, and 128. The following description is based on this structure.

そして、サブフィールド割当回路201は、各画素についての発光情報Niの値を発光決定回路202へ供給する。発光決定回路202では、Niが1の場合を発光、0の場合を非発光として、サブフィールドの発光パターンを表す発光制御情報SFを生成する。 Then, the subfield allocation circuit 201 supplies the value of emission information N i for each pixel to the light-emitting decision circuit 202. The light emission determining circuit 202 generates light emission control information SF representing the light emission pattern of the subfield, with Ni i being 1 for light emission and 0 for no light emission.

例えば入力画像信号Vinのある画素値が「7」である場合、サブフィールドSF1、SF2、SF3を発光、それ以外を非発光と割り当てる発光制御情報SFを生成する。また例えば、入力画像信号Vinのある画素値が「22」である場合、サブフィールドSF2、SF3、SF5を発光、それ以外を非発光と割り当てる発光制御情報SFを生成する。   For example, when a certain pixel value of the input image signal Vin is “7”, light emission control information SF that assigns the subfields SF1, SF2, and SF3 to emit light and the other to emit no light is generated. Further, for example, when a certain pixel value of the input image signal Vin is “22”, light emission control information SF that assigns the subfields SF2, SF3, and SF5 to emit light and the other to emit no light is generated.

図8は、図1の光量積算部300の構成を示している。光量積算部300では、入力画像信号VinをPDPに表示した際に、人の網膜で積分される光量を画素値とする画像を、PDPにおいて入力画像信号を表示したときに人の目に見える、いわば擬似的な画像として生成して出力する。   FIG. 8 shows a configuration of the light amount integrating unit 300 of FIG. In the light amount integrating unit 300, when the input image signal Vin is displayed on the PDP, an image having the light amount integrated in the human retina as a pixel value is visible to the human eye when the input image signal is displayed in the PDP. In other words, it is generated and output as a pseudo image.

光量積算部300の動作を説明する前に、PDP特有の、視線方向と発光パターンによる画像の見え方について説明する。   Before explaining the operation of the light quantity integrating unit 300, the way in which an image is seen based on the line-of-sight direction and the light emission pattern, which is unique to the PDP, will be explained.

図9は、横軸を画素位置X(Y)とするとともに、縦軸を時間Tとしたサブフィールドの、画素値127と128の境界を示しており、影を付してあるサブフィールドが発光するサブフィールドを示している。   FIG. 9 shows the boundary between the pixel values 127 and 128 of the subfield where the horizontal axis is the pixel position X (Y) and the vertical axis is the time T, and the shaded subfield emits light. Indicates a subfield to be executed.

画像が動いていない場合には、人の視線方向は、縦軸の時間方向Tと平行な方向A−A’となり、サブフィールドの発光が正しく人の網膜で積分されるため、画素値127と128が正しく認識される。   When the image is not moving, the person's line-of-sight direction is a direction AA ′ parallel to the time direction T on the vertical axis, and the light emission of the subfield is correctly integrated in the human retina. 128 is recognized correctly.

しかし画像が左方向に1フィールドで1画素分動くとすると、動きに人の目(視線)が追従するため、視線方向が、縦軸の時間方向Tと平行でない方向B−B’となり、サブフィールドの発光が人の網膜で積分されず、画素値127と128の間に黒い線を認識してしまう。また逆に画像が右方向に1フィールドで1画素分動くとすると、動きに人の目が追従するため、視線方向が、縦軸の時間方向Tと平行でない方向C−C’となり、サブフィールドの発光が人の網膜に積分されすぎて、画素値127と128の間に白い線を認識してしまう。   However, if the image moves to the left by one pixel in one field, the human eye (line of sight) follows the movement, so the line of sight is a direction BB ′ that is not parallel to the time direction T on the vertical axis. The light emission of the field is not integrated in the human retina, and a black line is recognized between the pixel values 127 and 128. Conversely, if the image moves one pixel in one field in the right direction, the human eye follows the movement, so the line-of-sight direction becomes a direction CC ′ that is not parallel to the time direction T on the vertical axis, and the subfield Is excessively integrated into the human retina, and a white line is recognized between the pixel values 127 and 128.

以上のようにPDPにおいては、サブフィールドを用いる駆動方式のため、視線方向とサブフィールドの発光パターンによって、表示している画像と人の目に見えている画像とが異なる現象が発生する場合があり、一般に動画擬似輪郭として知られている。   As described above, in the PDP, a driving method using subfields may cause a phenomenon in which a displayed image differs from an image visible to the human eye depending on the viewing direction and the light emission pattern of the subfield. Yes, commonly known as moving image pseudo contour.

図8に戻り、動き検出部100で検出された各画素の視線方向mvと、サブフィールド展開部200で生成された発光制御情報SFが光量積算領域決定回路301へ供給される。   Returning to FIG. 8, the line-of-sight direction mv of each pixel detected by the motion detection unit 100 and the light emission control information SF generated by the subfield development unit 200 are supplied to the light amount integration region determination circuit 301.

光量積算領域決定回路301は、動き検出部100で検出された視線方向mvとサブフィールド展開部200で生成されたサブフィールドの発光パターンを表す発光制御情報SFとから、入力画像信号VinをPDPに表示した際に、人の網膜で積分される光量を擬似的に再現するための、光量積算領域を、画素ごとに決定する。すなわち図10に示すように、注目画素に対し、検出された視線方向に1画素分の断面積の光量積算領域を設定する。   The light amount integration region determination circuit 301 converts the input image signal Vin into a PDP from the line-of-sight direction mv detected by the motion detector 100 and the light emission control information SF representing the light emission pattern of the subfield generated by the subfield development unit 200. When displayed, a light amount integration region for artificially reproducing the light amount integrated in the human retina is determined for each pixel. That is, as shown in FIG. 10, a light amount integration region having a cross-sectional area of one pixel is set for the target pixel in the detected line-of-sight direction.

さらに、光量積算領域決定回路301は、光量積算領域内の各サブフィールドの発光、非発光の領域の比率に応じて各サブフィールドSF#iでの光量を積算する。例えば図10の場合、サブフィールドSF8において発光、非発光の領域の比率が7:1であるとき、サブフィールドSF8において積算される光量は、128×1÷(7+1)=16となる。光量積算領域決定回路301は、同様に全てのサブフィールドSF1ないしSF8において積分される光量を算出し、光量積算回路302に供給する。   Further, the light amount integration region determination circuit 301 integrates the light amount in each subfield SF # i in accordance with the ratio of the light emission and non-light emission regions of each subfield in the light amount integration region. For example, in the case of FIG. 10, when the ratio of the light emitting and non-light emitting areas in the subfield SF8 is 7: 1, the amount of light integrated in the subfield SF8 is 128 × 1 ÷ (7 + 1) = 16. Similarly, the light amount integration region determination circuit 301 calculates the amount of light integrated in all the subfields SF1 to SF8 and supplies it to the light amount integration circuit 302.

光量積算回路302は、光量積算領域決定回路301からのサブフィールドSF1ないしSF8それぞれの光量の総和を求め、注目画素における画素値とする。そして、光量積算回路302は、全ての画素に対し、同様の処理を行うことで出力画像Voutを生成する。   The light amount integrating circuit 302 obtains the sum of the light amounts of the subfields SF1 to SF8 from the light amount integrating region determining circuit 301, and sets it as the pixel value in the target pixel. Then, the light amount integrating circuit 302 generates an output image Vout by performing the same processing on all the pixels.

また、光量積算領域決定回路301、及び光量積算回路302の処理は、以下のように簡便に行うこともできる。   Further, the processing of the light amount integration region determination circuit 301 and the light amount integration circuit 302 can be simply performed as follows.

すなわち、図10において、各サブフィールドの発光、非発光の領域の比率において、大きい方を採用する。この場合、サブフィールドSF8は非発光となり光量0、サブフィールドSF7は発光となり光量64、以下同様に全てのサブフィールドでの結果の総和を注目画素における画素値とする。   That is, in FIG. 10, the larger one is adopted in the ratio of the light emitting and non-light emitting regions of each subfield. In this case, the subfield SF8 emits no light and the light amount is 0, the subfield SF7 emits light and the light amount is 64, and the sum of the results in all the subfields is the pixel value of the target pixel.

実際のPDPは2次元平面において構成されるため、PDPによる画像の表示は、図11に示すように、PDPにおける画素位置X,Yと時間方向Tのサブフィールドからなる3次元的なモデル図で表現される。   Since an actual PDP is configured in a two-dimensional plane, an image displayed by the PDP is a three-dimensional model diagram including pixel positions X and Y in the PDP and subfields in the time direction T as shown in FIG. Expressed.

以上のように、図1に示す画像処理装置は、入力画像信号Vinから、画素毎の視線方向と、PDPに表示した際のサブフィールドの発光パターンから、PDPに表示された画像を見る人の網膜に積分される光量を画素値とする画像を、PDPに表示された画像を見る人の目に見える画像として生成するので、入力画像信号VinをPDPに表示し、人が見た場合の画像を擬似的に再現することができる。   As described above, the image processing apparatus shown in FIG. 1 uses the line-of-sight direction for each pixel from the input image signal Vin and the light emission pattern of the subfield when displayed on the PDP. An image with the amount of light integrated into the retina as a pixel value is generated as an image that is visible to the person viewing the image displayed on the PDP, so the input image signal Vin is displayed on the PDP and the image viewed by the person Can be reproduced in a pseudo manner.

図12は、本発明を適用した画像処理装置の第2実施の形態の構成例を示している。   FIG. 12 shows a configuration example of the second embodiment of the image processing apparatus to which the present invention is applied.

一般にPDPにおいて、動画擬似輪郭を抑制するために、使用する階調に制限を設け、さらに見た目に階調を出すために、入力画像と表示する画像の画素値の差分を、時空間の周辺の画素に割り振る誤差拡散処理、そして複数の画素値の時空間パターンによって、見た目の階調を表現するディザ処理などが行われている。図12に示す画像処理装置は、入力画像信号Vinを表示するPDPにおいて、前記の誤差拡散処理やディザ処理が行われる場合に人の目に見える画像を擬似的に再現する。   In general, in the PDP, in order to suppress the moving image pseudo contour, the gradation to be used is limited, and in order to obtain a gradation, the difference between the pixel value of the input image and the displayed image An error diffusion process that assigns pixels, a dither process that expresses an apparent gradation, and the like are performed using a spatio-temporal pattern of a plurality of pixel values. The image processing apparatus shown in FIG. 12 reproduces, in a PDP that displays the input image signal Vin, an image that is visible to the human eye when the error diffusion process or dither process is performed.

図12において、入力画像信号Vinは動き検出部100と階調変換部400へ供給される。動き検出部100の構成は図1のものと同様であるため説明を省略する。   In FIG. 12, the input image signal Vin is supplied to the motion detection unit 100 and the gradation conversion unit 400. The configuration of the motion detection unit 100 is the same as that of FIG.

図13は、図12の階調変換部400の構成例を示している。   FIG. 13 shows a configuration example of the gradation conversion unit 400 of FIG.

入力画像信号Vinは、演算器405において、後述する表示階調誤差Vpdと加算され、画素値(階調)Vpとなり、階調変換回路402へ供給される   The input image signal Vin is added to a display gradation error Vpd, which will be described later, in an arithmetic unit 405 to become a pixel value (gradation) Vp, which is supplied to the gradation conversion circuit 402.

階調変換回路402では、階調変換テーブル403に応じて、入力された画素の階調(画素値)Vpを別の階調Vpoへと変換する。すなわち動画擬似輪郭の発生しにくい階調として0、1、3、7、15、31、63、127、255を使用するとした場合、階調変換テーブル403では、前記の使用する階調と、前記の使用する階調の時空間の分布で表現する見た目の階調(ディザ階調)を設定する。   The gradation conversion circuit 402 converts the gradation (pixel value) Vp of the input pixel into another gradation Vpo according to the gradation conversion table 403. That is, when 0, 1, 3, 7, 15, 31, 63, 127, and 255 are used as gradations that are unlikely to generate moving image pseudo contours, the gradation conversion table 403 uses the above-described gradations and The apparent gray scale (dither gray scale) expressed by the temporal and spatial distribution of the gray scale used is set.

階調変換回路402では、階調変換テーブル403で設定された階調のみを用いるものとして、入力された階調Vpを、階調変換テーブル403の階調のうちの、階調Vpとの差分がもっとも小さい階調Vpoに置き換えて出力する。階調変換回路402の出力である階調Vpoはディザ変換回路404に供給されるとともに、演算器406において、階調変換回路402の入力である階調Vpとの差分が求められることにより、表示階調誤差Vpdとされ、遅延回路401で水平方向で1画素分遅延され、演算器405で次の入力画像信号Vinの画素値と加算される。このように変換された階調の差分を周辺の画素の階調で表現することを誤差拡散処理と呼ぶ。   The gradation conversion circuit 402 uses only the gradation set in the gradation conversion table 403, and the difference between the input gradation Vp and the gradation Vp among the gradations in the gradation conversion table 403 is determined. Is replaced with the smallest gradation Vpo and output. The gradation Vpo that is the output of the gradation conversion circuit 402 is supplied to the dither conversion circuit 404, and the calculator 406 obtains a difference from the gradation Vp that is the input of the gradation conversion circuit 402, thereby displaying A gradation error Vpd is obtained, and is delayed by one pixel in the horizontal direction by the delay circuit 401, and is added to the pixel value of the next input image signal Vin by the calculator 405. Expressing the gradation difference thus converted with the gradation of the surrounding pixels is called error diffusion processing.

ディザ変換回路404では、使用する階調の時空間の分布によって、見た目の階調を表現するディザ処理(ディザ変換)を行う。ディザ変換回路404の動作例を図14に示す。ディザ変換回路404では、例えば階調を4として表示する領域があったとすると、使用する階調である3と7を用いて、例えば図14に示すように階調を分布させる。このようにすると、人の目には、階調の値が平均されて、階調の値が4として見えることになる。   The dither conversion circuit 404 performs a dither process (dither conversion) that represents an apparent gradation according to a temporal and spatial distribution of the gradation to be used. An operation example of the dither conversion circuit 404 is shown in FIG. In the dither conversion circuit 404, for example, if there is an area to be displayed with a gradation of 4, gradations are distributed using the gradations 3 and 7 to be used as shown in FIG. In this way, the gradation value is averaged to the human eye, and the gradation value is seen as 4.

図12に戻り、以上のように、階調変換部400では、入力画像信号Vinを実際に表示に用いる画像信号Vdに変換し、サブフィールド展開部200へ供給する。サブフィールド展開部200、および光量積算部300の構成は、図1のものと同様であるため説明を省略する。   Returning to FIG. 12, as described above, the gradation conversion unit 400 converts the input image signal Vin into the image signal Vd that is actually used for display, and supplies it to the subfield development unit 200. The configurations of the subfield developing unit 200 and the light amount integrating unit 300 are the same as those in FIG.

すなわち、図12の画像処理装置では、階調変換部400によって、実際に表示される階調を元に、人の目に見える画像を擬似的に画像として出力する。この場合、動き検出部100では入力画像信号Vinから視線を検出(決定)しているが、階調変換部400で変換される階調の見た目が入力画像信号Vinと大きく異ならない場合、視線方向も大きく異ならないため、このような構成にしても問題がなくなる。また階調変換部400は、入力画像信号Vinを表示に用いる画像信号Vdに変換するものであれば何でもよく、例えば特開2004−138783号公報などに記載の手法を用いてもよい。   That is, in the image processing apparatus of FIG. 12, the gradation conversion unit 400 outputs an image visible to human eyes as a pseudo image based on the actually displayed gradation. In this case, the motion detection unit 100 detects (determines) the line of sight from the input image signal Vin. However, when the appearance of the gradation converted by the gradation conversion unit 400 is not significantly different from the input image signal Vin, the direction of the line of sight Therefore, there is no problem even with such a configuration. The gradation conversion unit 400 may be anything that converts the input image signal Vin into the image signal Vd used for display. For example, a technique described in Japanese Patent Application Laid-Open No. 2004-138383 may be used.

図15は、本発明を適用した画像処理装置の第3実施の形態の構成例を示している。   FIG. 15 shows a configuration example of a third embodiment of an image processing apparatus to which the present invention is applied.

この画像処理装置では、階調変換部400の出力である画素(画像信号の)Vdを動き検出部100へ供給する。この場合、動き検出部100では、実際に表示する画像信号を元に視線(視線方向)を検出することになる。そのため制限された階調や拡散誤差やディザそのものが視覚的に検知される場合の視線を検出するとともに、階調変換部400によって、実際に表示される階調を元に、人の目に見える画像を擬似的に画像として出力することができる。   In this image processing apparatus, the pixel (image signal) Vd that is the output of the gradation conversion unit 400 is supplied to the motion detection unit 100. In this case, the motion detection unit 100 detects the line of sight (gaze direction) based on the image signal to be actually displayed. Therefore, the line of sight when the limited gradation, diffusion error, and dither itself are visually detected is detected, and the gradation conversion unit 400 can visually recognize the gradation based on the actually displayed gradation. An image can be output as a pseudo image.

なお、図15において、動き検出部100、サブフィールド展開部200、光量積算部300、および階調変換部400の構成は、図12のものと同様であるため説明を省略する。   In FIG. 15, the configurations of the motion detection unit 100, the subfield development unit 200, the light amount integration unit 300, and the gradation conversion unit 400 are the same as those in FIG.

図16は、本発明を適用した画像処理装置の第4実施の形態の構成例を示している。   FIG. 16 shows a configuration example of a fourth embodiment of an image processing apparatus to which the present invention is applied.

入力画像信号Vinは階調変換部400へ供給され、表示に用いる画像信号Vdへ変換される。表示に用いる画像信号Vdは視覚補正部500へ供給される。   The input image signal Vin is supplied to the gradation conversion unit 400 and converted into an image signal Vd used for display. The image signal Vd used for display is supplied to the visual correction unit 500.

図17は視覚補正部500の構成例を示している。視覚補正部500では、表示に用いる画像信号Vdを人の見た目の画像(画像信号)へと擬似的に補正する。表示に用いる画像信号Vdはディザ補正回路501へ供給される。ディザ補正回路501では、ディザで表示する階調を見た目の階調へと擬似的に補正する。すなわち図14に示したようにディザ階調が用いられていた場合、人の見た目には、階調の値が平均されるものとして、図18に示すように階調を補正する。そしてディザ補正された画像Vmbは、拡散誤差補正回路502へ供給される。   FIG. 17 shows a configuration example of the visual correction unit 500. The visual correction unit 500 artificially corrects the image signal Vd used for display into an image (image signal) that appears to the human eye. The image signal Vd used for display is supplied to the dither correction circuit 501. The dither correction circuit 501 artificially corrects the gradation displayed by dither to the apparent gradation. That is, when the dither gradation is used as shown in FIG. 14, the gradation is corrected as shown in FIG. 18 on the assumption that the gradation values are averaged for human eyes. The dither-corrected image Vmb is supplied to the diffusion error correction circuit 502.

拡散誤差補正回路502では、注目画素の周辺の画素に拡散した誤差を見た目の階調へと擬似的に補正する。すなわち、拡散誤差補正回路502では、ディザ補正された画像信号Vmbにおいて、入力画像信号Vinとの差分(誤差)が拡散されているものとし、拡散された誤差を補正する。例えば図19に示すように、画像信号Vmbが90である画素の誤差は、右隣の画像信号Vmbが110である画素における入力画像信号Vinとの差分であるとし、110−105=5を拡散された誤差として画像信号Vmbに加算し、視覚補正された画像信号Vmを出力する。同様に全ての画素についても同じ処理を行う。   The diffusion error correction circuit 502 artificially corrects an error diffused to pixels around the target pixel to an apparent gradation. That is, the diffusion error correction circuit 502 assumes that the difference (error) from the input image signal Vin is diffused in the dither-corrected image signal Vmb, and corrects the diffused error. For example, as shown in FIG. 19, it is assumed that the error of the pixel whose image signal Vmb is 90 is the difference from the input image signal Vin in the pixel whose right image signal Vmb is 110, and 110−105 = 5 is diffused. The corrected error is added to the image signal Vmb to output a visually corrected image signal Vm. Similarly, the same processing is performed for all pixels.

以上のように、視覚補正部500では、階調変換部400によって変換された階調を、人の目に見える際の階調として擬似的に補正を行い、補正した画像信号を動き検出部100へ供給する。そのため制限された階調や拡散誤差やディザが人の目に見える際の擬似的な画像を元に視線を検出するとともに、階調変換部400によって、実際に表示される階調を元に、人の目に見える画像を擬似的に得ることができる。なお、図16の動き検出部100、サブフィールド展開部200、光量積算部300、および階調変換部400の構成は、図12のものと同様であるため説明を省略する。   As described above, in the visual correction unit 500, the gradation converted by the gradation conversion unit 400 is artificially corrected as a gradation when visible to the human eye, and the corrected image signal is used as the motion detection unit 100. To supply. Therefore, the line of sight is detected based on a pseudo image when the limited gradation, diffusion error, and dither are visible to the human eye, and the gradation converter 400 based on the actually displayed gradation. An image that is visible to the human eye can be obtained in a pseudo manner. The configurations of the motion detection unit 100, the subfield development unit 200, the light amount integration unit 300, and the gradation conversion unit 400 in FIG. 16 are the same as those in FIG.

以上のように、図1、図12、図15、及び図16の画像処理装置では、PDPに画像を表示した際に、サブフィールドの発光パターンと視線方向から、人の目に見える画像を擬似的に得ることができる。このためPDPと異なる表示デバイスにおいて、任意の画像信号をPDPに表示した際に、人の目に見える画像を擬似的に表示することが可能となる。すなわち、例えば、LCDや、CRT、有機EL、プロジェクタ等の第1の表示デバイスを用いて、第1の表示デバイスと異なる特性を有するPDP等の第2の表示デバイスにおいて画像を表示した状態を再現することができ、第2の表示デバイスの表示のエミュレーションを、第2の表示デバイスとは異なる特性の第1の表示デバイスを用いて行うことができる。   As described above, in the image processing apparatuses of FIGS. 1, 12, 15, and 16, when an image is displayed on the PDP, an image visible to the human eye is simulated from the light emission pattern of the subfield and the line-of-sight direction. Can be obtained. For this reason, when an arbitrary image signal is displayed on the PDP on a display device different from the PDP, an image visible to the human eye can be displayed in a pseudo manner. That is, for example, using a first display device such as an LCD, CRT, organic EL, or projector, reproduces a state in which an image is displayed on a second display device such as a PDP having characteristics different from those of the first display device. The display of the second display device can be emulated using the first display device having characteristics different from those of the second display device.

なお、PDPのサブフィールドの構造として図6を例に用いたが、サブフィールドの枚数、および各サブフィールドの輝度の重みは任意のものでよい。   Although FIG. 6 is used as an example of the PDP subfield structure, the number of subfields and the luminance weight of each subfield may be arbitrary.

図20は、図1の画像処理装置の処理を説明するフローチャートを示している。   FIG. 20 is a flowchart for explaining processing of the image processing apparatus of FIG.

ステップST100において、入力画像信号Vinが、画像処理装置に入力される。次にステップST200において、動き検出部100が、入力画像信号Vinのフィールド(又はフレーム)を、順次、注目フィールドとして、その注目フィールドについて、画素毎に動きベクトルを検出し、その動きベクトルの方向を、視線方向として決定する。   In step ST100, the input image signal Vin is input to the image processing apparatus. Next, in step ST200, the motion detection unit 100 sequentially uses the field (or frame) of the input image signal Vin as a target field, detects a motion vector for each target field, and determines the direction of the motion vector. Determined as the line-of-sight direction.

図21は、ステップST200における動き(ベクトル)の検出の処理を説明するフローチャートである。   FIG. 21 is a flowchart illustrating the motion (vector) detection process in step ST200.

ステップST201において注目フィールドの入力画像信号Vinが動き検出部100に入力される。次にステップST202において、動き検出部100は、注目フィールドを構成する画素を、順次、注目画素として選択し、注目画素を中心とする所定のサイズのブロックを注目ブロックとする。そして、動き検出部100は、注目フィールドの注目ブロックと1フィールド前の所定のサーチ範囲内の候補ブロックとの間で、相関演算を行う。次にステップST203において、動き検出部100は、全ての候補ブロックと演算が終了したかを判定する。終了した場合、処理はステップST204へ進み、終了してない場合、処理は、ステップST202へ戻り処理を継続する。ステップST204では、動き検出部100は、候補ブロックの中で最も相関の高い候補ブロック(差分絶対値の総和の最も小さい候補ブロック)の位置を、動きベクトルとして検出し、その動きベクトルを、注目画素における視線方向mvと決定する。そしてステップST205において、動き検出部100は、視線方向mvを出力する。   In step ST201, the input image signal Vin of the field of interest is input to the motion detection unit 100. Next, in step ST202, the motion detection unit 100 sequentially selects pixels constituting the target field as the target pixel, and sets a block having a predetermined size centered on the target pixel as the target block. Then, the motion detection unit 100 performs a correlation operation between the target block of the target field and a candidate block within a predetermined search range one field before. Next, in step ST203, the motion detection unit 100 determines whether the calculation has been completed for all candidate blocks. If completed, the process proceeds to step ST204. If not completed, the process returns to step ST202 and continues the process. In step ST204, the motion detection unit 100 detects a position of a candidate block having the highest correlation among candidate blocks (a candidate block having the smallest sum of absolute difference values) as a motion vector, and the motion vector is detected as a target pixel. Is determined as the line-of-sight direction mv. In step ST205, the motion detection unit 100 outputs the line-of-sight direction mv.

図20に戻り、次のステップST300において、サブフィールド展開部200は、入力画像信号Vinの注目フィールドをPDPに表示する際のサブフィールドの発光パターンを表す発光制御情報SFを生成する。   Returning to FIG. 20, in the next step ST300, the subfield developing unit 200 generates light emission control information SF representing the light emission pattern of the subfield when the field of interest of the input image signal Vin is displayed on the PDP.

図22は、ステップST300におけるサブフィールドの発光パターンを表す発光制御情報SFを生成するフローチャートである。   FIG. 22 is a flowchart for generating light emission control information SF representing the light emission pattern of the subfield in step ST300.

ステップST301において入力画像信号Vinの注目フィールドがサブフィールド展開部200に入力される。次にステップST302において、サブフィールド展開部200は、入力画像信号Vinの注目フィールドを、式(1)の各サブフィールドの輝度の重みの総和で表現し、発光情報Niを求める。次にステップST303において、サブフィールド展開部200は、発光情報Niに基づき、注目フィールドの各サブフィールドの発光、非発光の発光パターンを表す発光制御情報SFを生成する。そしてステップST304で、サブフィールド展開部200は、サブフィールドの発光パターンを表す発光制御情報SFを出力する。   In step ST301, the target field of the input image signal Vin is input to the subfield developing unit 200. Next, in step ST302, the subfield development unit 200 expresses the field of interest of the input image signal Vin by the sum of the luminance weights of the subfields of Expression (1) to obtain the light emission information Ni. Next, in step ST303, the subfield developing unit 200 generates light emission control information SF representing the light emission and non-light emission patterns of each subfield of the field of interest based on the light emission information Ni. In step ST304, subfield developing section 200 outputs light emission control information SF representing the light emission pattern of the subfield.

図20に戻り、次のステップST400において、光量積算部300は、入力画像信号Vinの注目フィールドをPDPに表示した際に、人の網膜で積分される光量(人の目に見える画像)に相当する画像信号Voutを、擬似的に生成する。   Returning to FIG. 20, in the next step ST400, the light amount integrating unit 300 corresponds to the amount of light integrated in the human retina (image visible to the human eye) when the field of interest of the input image signal Vin is displayed on the PDP. The image signal Vout to be generated is generated in a pseudo manner.

図23は、ステップST400における光量の積算を示すフローチャートである。   FIG. 23 is a flowchart showing the integration of the amount of light in step ST400.

ステップST401において、ステップST200で検出された注目フィールドの各画素における視線方向mvと、ステップST300で生成された注目フィールドのサブフィールドの発光制御情報SFが光量積算部300に入力される。次にステップST402では、光量積算部300において、注目フィールドの各画素が、順次、注目画素として選択され、注目画素における視線方向mvに応じて、光量を積算する光量積算領域が決定される。そしてステップST403で、光量積算部300は、ステップST402で決定された光量積算領域内で発光するサブフィールドの光量を、発行制御情報SFが表す発光パターンに基づいて積算し、注目画素の画素値を求めることにより、その画素値で構成される出力画像(信号)Voutを生成する。そしてステップST404で、光量積算部300は、出力画像Voutを出力する。   In step ST401, the line-of-sight direction mv in each pixel of the target field detected in step ST200 and the light emission control information SF of the subfield of the target field generated in step ST300 are input to the light amount integrating unit 300. Next, in step ST402, each pixel of the target field is sequentially selected as the target pixel in the light amount integration unit 300, and a light amount integration region in which the light amount is integrated is determined according to the line-of-sight direction mv of the target pixel. In step ST403, the light amount integrating unit 300 integrates the light amount of the subfield that emits light within the light amount integrating region determined in step ST402 based on the light emission pattern represented by the issue control information SF, and calculates the pixel value of the target pixel. As a result, an output image (signal) Vout composed of the pixel values is generated. In step ST404, the light amount integrating unit 300 outputs the output image Vout.

図20に戻り、次のステップST500において、図示せぬ第2の表示デバイスとしての、例えば、LCDは、生成された出力画像Voutを表示する。   Returning to FIG. 20, in the next step ST500, for example, the LCD as the second display device (not shown) displays the generated output image Vout.

図24は、図12の画像処理装置の処理を説明するフローチャートを示している。   FIG. 24 is a flowchart for explaining processing of the image processing apparatus of FIG.

ステップST110において、図20のステップST100と同様に、入力画像信号Vinが入力される。次にステップST210において画素毎に動きベクトル、ひいては視線方向mvを検出する。ステップST210の動作は図20のステップST200と同様である。次にステップST310において、階調変換部400は、PDPで表示する際に行われる階調変換を行う。   In step ST110, as in step ST100 of FIG. 20, the input image signal Vin is input. Next, in step ST210, the motion vector for each pixel, and thus the line-of-sight direction mv, is detected. The operation in step ST210 is the same as that in step ST200 in FIG. Next, in step ST310, the gradation conversion unit 400 performs gradation conversion that is performed when a PDP is displayed.

図25は、ステップST310における階調変換の動作を示すフローチャートである。   FIG. 25 is a flowchart showing the gradation conversion operation in step ST310.

ステップST311において、入力画像信号Vinが階調変換部400に入力される。次にステップST312において、階調変換部400では、入力画像信号Vinが、周辺の画像から拡散された誤差を加算することにより、画像信号Vpとされる。次にステップST313において、階調変換部400は、階調変換テーブル403(図13)に従って、画像信号Vpの階調を変換する。次にステップST314において、階調変換部400は、階調の変換前の画像信号Vpと変換後の画像信号Vpoとの誤差(表示階調誤差)Vpdを算出する。次にステップST315で、階調変換部400は、画像信号Vpoのディザ変換を行う。そしてステップST316で、階調変換部400は、ディザ変換によって得られた画像信号を、階調変換された画像信号Vdとして出力する。   In step ST311, the input image signal Vin is input to the gradation converting unit 400. Next, in step ST312, in the gradation conversion unit 400, the input image signal Vin is converted into an image signal Vp by adding an error diffused from the surrounding images. Next, in step ST313, the gradation conversion unit 400 converts the gradation of the image signal Vp according to the gradation conversion table 403 (FIG. 13). Next, in step ST314, the gradation conversion unit 400 calculates an error (display gradation error) Vpd between the image signal Vp before gradation conversion and the image signal Vpo after conversion. Next, in step ST315, the gradation conversion unit 400 performs dither conversion of the image signal Vpo. In step ST316, the gradation converting unit 400 outputs the image signal obtained by the dither conversion as the image signal Vd subjected to the gradation conversion.

図24に戻り、次のステップST410で、ステップST310で変換された画像信号Vdに対し、図20のステップST300と同様の処理を行う。また以下のステップST510とST610は、図20のステップST400とST500とそれぞれ同様であるため説明を省略する。   Returning to FIG. 24, in the next step ST410, the same processing as step ST300 in FIG. 20 is performed on the image signal Vd converted in step ST310. Also, the following steps ST510 and ST610 are the same as steps ST400 and ST500 in FIG.

図26は、図15の画像処理装置の処理を説明するフローチャートを示している。   FIG. 26 shows a flowchart for explaining the processing of the image processing apparatus of FIG.

なお図26では、ステップST220で変換された画像信号Vdに対し、次のステップST320で視線方向(動きベクトル)の検出が実行される以外は、ステップST120,ST220,ST320,ST420,ST520,ST620において、それぞれ、図24のステップST110,ST310,ST210,ST410,ST510,ST610と同様の処理が行われる。   In FIG. 26, in steps ST120, ST220, ST320, ST420, ST520, and ST620, except that the visual line direction (motion vector) is detected in the next step ST320 for the image signal Vd converted in step ST220. The same processing as in steps ST110, ST310, ST210, ST410, ST510, and ST610 in FIG. 24 is performed.

図27は、図16の画像処理装置の処理を説明するフローチャートを示している。   FIG. 27 shows a flowchart for explaining the processing of the image processing apparatus of FIG.

ステップST130において、図26のステップST120と同様に、入力画像信号Vinが入力される。次にステップST230で、図26の場合と同様に階調が変換された画像信号Vdが生成される。次にステップST330で、ステップST320で変換された画像信号Vdに対し、視覚補正が行われる。以下、ステップST430,ST530,ST630,ST730において、それぞれ図26のステップST320,ST420,ST520,ST620と同様の処理が行われる。   In step ST130, the input image signal Vin is input as in step ST120 of FIG. Next, in step ST230, an image signal Vd whose gradation is converted is generated as in the case of FIG. Next, in step ST330, visual correction is performed on the image signal Vd converted in step ST320. Thereafter, in steps ST430, ST530, ST630, and ST730, processing similar to that in steps ST320, ST420, ST520, and ST620 in FIG. 26 is performed.

図28は、ステップST330における、視覚補正の動作を示すフローチャートである。ステップST331で画像信号Vdが視覚補正部500に入力される。次にステップST332において、視覚補正部500は、ディザの視覚的な効果に応じて、画像信号Vdを補正する。次にステップST333で、視覚補正部500は、周辺の画素に拡散した誤差の影響を擬似的に補正し、画像信号Vmを生成する。そしてステップST334で、視覚補正部500は、画像信号Vmを出力する。   FIG. 28 is a flowchart showing the visual correction operation in step ST330. In step ST331, the image signal Vd is input to the visual correction unit 500. Next, in step ST332, the visual correction unit 500 corrects the image signal Vd according to the visual effect of dither. Next, in step ST333, the visual correction unit 500 artificially corrects the influence of the error diffused to surrounding pixels, and generates an image signal Vm. In step ST334, the visual correction unit 500 outputs the image signal Vm.

以上のように、図1、図12、図15、及び図16の画像処理装置では、PDPに画像を表示した際に、サブフィールドの発光パターンと視線方向から、人の目に見える画像を擬似的に生成する。このためPDPと異なる表示デバイスにおいて、任意の画像信号をPDPに表示した際に、人の目に見える画像を擬似的に表示することが可能となる。   As described above, in the image processing apparatuses of FIGS. 1, 12, 15, and 16, when an image is displayed on the PDP, an image visible to the human eye is simulated from the light emission pattern of the subfield and the line-of-sight direction. Generate automatically. For this reason, when an arbitrary image signal is displayed on the PDP on a display device different from the PDP, an image visible to the human eye can be displayed in a pseudo manner.

次に、図1の光量積算部300の処理の詳細を説明するが、その前に、PDPによる画像の表示について、再度説明する。   Next, the details of the processing of the light quantity integrating unit 300 in FIG. 1 will be described. Before that, the display of an image by the PDP will be described again.

PDPによる画像の表示は、図7や図11に示したように、PDPにおける画素位置X,Yと時間方向Tのサブフィールドからなる3次元的なモデル図で表現される。   As shown in FIGS. 7 and 11, the display of an image by the PDP is expressed by a three-dimensional model diagram including pixel positions X and Y in the PDP and subfields in the time direction T.

図29は、PDPによる画像の表示をモデル化したモデル(以下、適宜、表示モデルという)を示している。   FIG. 29 shows a model obtained by modeling the display of an image by the PDP (hereinafter referred to as a display model as appropriate).

ここで、図29は、上述の図7や図11と同様の図である。   Here, FIG. 29 is a view similar to FIGS. 7 and 11 described above.

表示モデルでは、PDPにおいて入力画像信号Vinを表示する表示面としてのXY平面に垂直な方向を時間Tの方向として、8つのサブフィールドSF1ないしSF8が時間Tの方向に並べられている。   In the display model, eight subfields SF1 to SF8 are arranged in the direction of time T, with the direction perpendicular to the XY plane as the display surface for displaying the input image signal Vin in the PDP as the direction of time T.

なお、表示面としてのXY平面は、例えば、表示面の左上の点を原点とするとともに、左から右方向をX方向とし、上から下方向をY方向とする。   The XY plane as the display surface has, for example, the upper left point on the display surface as the origin, the left to right direction as the X direction, and the top to bottom direction as the Y direction.

光量積算部300(図1)では、PDPに表示される入力画像信号Vinの画素(入力画像信号Vinに従ってPDPに表示される、入力画像信号Vinに対応する画像の画素)を、順次、注目画素として選択し、表示モデルにおいて、注目画素の領域を断面とし、かつ、注目画素における視線方向mv(注目画素について検出された動きベクトルの方向)に延びる領域を、光量の積算を行う光量積算領域として、その光量積算領域内の光量を、発光制御情報SFが表すサブフィールドの発光パターンに従って積算することにより、注目画素の画素値を算出する。   In the light amount integrating unit 300 (FIG. 1), the pixel of the input image signal Vin displayed on the PDP (the pixel of the image corresponding to the input image signal Vin displayed on the PDP according to the input image signal Vin) is sequentially selected as the target pixel. In the display model, the region of the pixel of interest has a cross-section, and the region extending in the line-of-sight direction mv (the direction of the motion vector detected for the pixel of interest) in the pixel of interest is used as the light amount integration region for performing light amount integration. The pixel value of the target pixel is calculated by integrating the light amount in the light amount integration region according to the light emission pattern of the subfield represented by the light emission control information SF.

すなわち、光量積算部300は、図29に示すように、表示モデルの表示面の画素の領域を断面とし、かつ、時間Tの方向に、サブフィールドSF#iの発光の光量に対応する長さだけ延びる直方体形状の領域(空間)を、画素サブフィールド領域として、画素サブフィールド領域内を光量積算領域が占める比率である占有比率に、画素サブフィールド領域に対応するサブフィールドSF#iの発光パターン(サブフィールドSF#iの画素サブフィールド領域が発光であるのか、又は非発光であるのか)に従った発光の光量Lを乗算することにより、画素サブフィールド領域が注目画素の画素値に影響する分の影響光量を、光量積算領域が通る画素サブフィールド領域すべてについて求める。   That is, as shown in FIG. 29, the light amount integrating unit 300 has a cross section of the pixel area of the display surface of the display model and has a length corresponding to the light emission amount of the subfield SF # i in the direction of time T. A cuboid-shaped region (space) extending only as a pixel subfield region, and the light emission pattern of the subfield SF # i corresponding to the pixel subfield region is set to an occupation ratio that is a ratio of the light amount integration region in the pixel subfield region The pixel subfield region affects the pixel value of the target pixel by multiplying the light emission amount L according to (whether the pixel subfield region of the subfield SF # i emits light or not). The influence light amount of the minute is obtained for all the pixel subfield regions through which the light amount integration region passes.

そして、光量積算部300は、光量積算領域が通る画素サブフィールド領域すべてについて求められた影響光量を積算することにより、その積算値を、注目画素の画素値として算出する。   Then, the light amount integrating unit 300 calculates the integrated value as the pixel value of the target pixel by integrating the influence light amount obtained for all the pixel subfield regions through which the light amount integrating region passes.

以下、光量積算部300による、表示モデルを用いた、注目画素の画素値の算出の方法の詳細について説明する。   Hereinafter, the details of the method of calculating the pixel value of the target pixel using the display model by the light amount integrating unit 300 will be described.

図30は、表示モデルの画素の例を示している。   FIG. 30 shows an example of a pixel of the display model.

表示モデルでは、画素は、例えば、横と縦の長さがいずれも1の方形状の領域になっていることとする。この場合、画素の領域の面積は、1(=1×1)である。   In the display model, the pixel is, for example, a rectangular region having both horizontal and vertical lengths of 1. In this case, the area of the pixel region is 1 (= 1 × 1).

また、表示モデルでは、画素の位置(画素位置)を、画素の左上の座標で表すこととする。この場合、例えば、画素位置(X,Y)が(300,200)の画素(としての方形状の領域)については、図30に示すように、その左上の点の座標は(300,200)となり、右上の点の座標は(301,200)となる。また、左下の点の座標は(300,201)となり、右下の点の座標は(301,201)となる。   In the display model, the position of the pixel (pixel position) is represented by the upper left coordinates of the pixel. In this case, for example, as shown in FIG. 30, for the pixel having the pixel position (X, Y) of (300,200) (as a rectangular area), the coordinates of the upper left point are (300,200), The coordinates of the point are (301,200). The coordinates of the lower left point are (300, 201), and the coordinates of the lower right point are (301, 201).

なお、表示モデルにおける画素の、例えば、左上の点を、以下、適宜、基準点という。   Note that, for example, the upper left point of the pixel in the display model is hereinafter referred to as a reference point as appropriate.

図31は、表示モデルにおける光量積算領域を示している。   FIG. 31 shows a light amount integration region in the display model.

例えば、いま、画素位置(x,y)にある画素を注目画素として、時刻T=αにおいて、注目画素(に映る被写体)が、時間Tfの間に、動きベクトル(vx,vy)で表される動き量だけ動き、時刻T=β(=α+Tf)において、位置(x+vx,y+vy)に移動したとする。 For example, assuming that the pixel at the pixel position (x, y) is the pixel of interest, the pixel of interest (subject to be reflected in) at time T = α is the motion vector (v x , v y ) during the time T f. And move to a position (x + v x , y + v y ) at time T = β (= α + T f ).

この場合、注目画素の領域としての方形状の領域が、位置(x,y)から位置(x+vx,y+vy)に移動するのに描く軌跡が、光量積算領域(空間)となる。 In this case, the locus drawn when the rectangular region as the region of the pixel of interest moves from the position (x, y) to the position (x + v x , y + v y ) is the light amount integration region (space). Become.

いま、光量積算領域の断面、つまり、位置(x,y)から位置(x+vx,y+vy)に移動する注目画素の領域を、断面領域(平面)ということとすると、断面領域は、画素の領域と同一の形状の領域であるので、4つの頂点を有する。 Now, if the cross section of the light amount integration area, that is, the area of the pixel of interest moving from the position (x, y) to the position (x + v x , y + v y ) is called a cross-section area (plane), the cross-section area Is an area having the same shape as the pixel area, and therefore has four vertices.

時刻αからβまでの間の任意の時刻T=t(α≦t≦β)における断面領域の4つの頂点のうちの、左上、右上、左下、及び右下の点(頂点)を、それぞれ、A,B,C、及びDと表すこととすると、左上の点Aは、時間Tfの間に、位置(x,y)から位置(x+vx,y+vy)に移動するので、時刻tにおける点Aの座標(X,Y)は、(x+vx(t-α)/Tf,y+vy(t-α)/Tf)となる。 Of the four vertices of the cross-sectional area at any time T = t (α ≦ t ≦ β) between time α and β, the upper left, upper right, lower left, and lower right points (vertices) are respectively Assuming A, B, C, and D, the upper left point A moves from position (x, y) to position (x + v x , y + v y ) during time T f . The coordinates (X, Y) of the point A at time t are (x + v x (t−α) / T f , y + v y (t−α) / T f ).

また、右上の点Bは、点AからX方向に+1だけ離れた点であるから、時刻tにおける点Bの座標(X,Y)は、(x+vx(t-α)/Tf+1,y+vy(t-α)/Tf)となる。同様に、左下の点Cは、点AからY方向に+1だけ離れた点であるから、時刻tにおける点Cの座標(X,Y)は、(x+vx(t-α)/Tf,y+vy(t-α)/Tf+1)となり、右下の点Dは、点AからX方向に+1だけ離れ、Y方向に+1だけ離れた点であるから、時刻tにおける点Dの座標(X,Y)は、(x+vx(t-α)/Tf+1,y+vy(t-α)/Tf+1)となる。 In addition, since the upper right point B is a point away from the point A by +1 in the X direction, the coordinate (X, Y) of the point B at time t is (x + v x (t−α) / T f + 1, y + v y (t−α) / T f ). Similarly, since the lower left point C is a point away from the point A by +1 in the Y direction, the coordinate (X, Y) of the point C at time t is (x + v x (t−α) / T f , y + v y (t-α) / T f +1), and the lower right point D is a point away from point A by +1 in the X direction and +1 in the Y direction The coordinates (X, Y) of the point D at time t are (x + v x (t−α) / T f +1, y + v y (t−α) / T f +1).

図32は、時刻T=tの断面領域を示している。   FIG. 32 shows a cross-sectional area at time T = t.

点AないしDを頂点とする断面領域は、変形しないので、任意の時刻T=tにおいて、(XY平面上に射影したときに)基準点を1以上の数だけ含む。図32では、断面領域に、1つの基準点(a,b)が含まれている。   Since the cross-sectional area having the points A to D as vertices is not deformed, it includes one or more reference points (when projected onto the XY plane) at an arbitrary time T = t. In FIG. 32, one reference point (a, b) is included in the cross-sectional area.

ここで、断面領域に、複数の基準点がある場合があるが、その場合については、後述する。   Here, there may be a plurality of reference points in the cross-sectional area, which will be described later.

また、断面領域は、時刻Tの経過とともに移動し、これにより、断面領域内の基準点の位置が変化するが、これは、断面領域を基準とすれば、相対的に、基準点が、時刻Tの経過とともに移動していると捉えることができる。そして、時刻Tの経過とともに基準点が移動することによって、断面領域内の基準点が(他の基準点)に変更される場合があるが、この場合についても、後述する。   In addition, the cross-sectional area moves with the passage of time T, thereby changing the position of the reference point in the cross-sectional area. It can be understood that it is moving with the passage of T. Then, as the reference point moves as time T elapses, the reference point in the cross-sectional area may be changed to (another reference point). This case will also be described later.

断面領域では、基準点(a,b)を通り、X軸に平行な直線LXと、Y軸に平行な直線LYとが、表示モデルを構成する画素の境界になるため、光量の積算は、断面領域を、直線LXとLYとで分割して得られる領域(以下、適宜、分割領域という)ごとに行う必要がある。 In the cross-sectional area, the straight line L X that passes through the reference point (a, b) and is parallel to the X axis and the straight line L Y that is parallel to the Y axis are the boundaries of the pixels that make up the display model. Needs to be performed for each region obtained by dividing the cross-sectional region by the straight lines L X and L Y (hereinafter, appropriately referred to as a divided region).

図32では、基準点(a,b)が、断面領域の内部(境界以外の部分)にあり、このため、断面領域は、4つの分割領域S1,S2,S3、及びS4に分割される。なお、図32では、基準点(a,b)の右上の領域が分割領域S1と、基準点(a,b)の左上の領域が分割領域S2と、基準点(a,b)の左下の領域が分割領域S3と、基準点(a,b)の右上の領域が分割領域S4と、それぞれされている。 In FIG. 32, the reference point (a, b) is inside the cross-sectional area (part other than the boundary), and therefore, the cross-sectional area is divided into four divided areas S 1 , S 2 , S 3 , and S 4 . Divided. In FIG. 32, a reference point (a, b) upper right region of the divided region S 1, a reference point (a, b) upper left area of the divided region S 2, reference point (a, b) a lower left region is divided area S 3, upper right region of the reference point (a, b) is a divided area S 4, are respectively.

時刻T=tにおける分割領域Si(i=1,2,3,4)の面積(Si)は、以下の式(1)ないし(4)で表される。 The area (S i ) of the divided region S i (i = 1, 2, 3, 4) at time T = t is expressed by the following equations (1) to (4).

Figure 0005029892
・・・(1)
Figure 0005029892
... (1)

Figure 0005029892
・・・(2)
Figure 0005029892
... (2)

Figure 0005029892
・・・(3)
Figure 0005029892
... (3)

Figure 0005029892
・・・(4)
Figure 0005029892
... (4)

いま、表示モデル(図29)の8つのサブフィールドSF1ないしSF8のうちの、ある1つのサブフィールドSF#jを、注目サブフィールドSF#jとして、断面領域が、注目サブフィールドSF#jを、時刻T=sfaから時刻T=sfbの間に通過することとする。 Now, of the eight subfields SF1 to SF8 of the display model (FIG. 29), a certain subfield SF # j is set as the target subfield SF # j, and the cross-sectional area is set as the target subfield SF # j. Pass between time T = sfa and time T = sfb .

断面領域が、注目サブフィールドSF#jを通過するときに描く軌跡としての光量積算領域は、その通過時に、分割領域S1ないしS4のそれぞれが描く軌跡の結合に等しい。 The light quantity integration region as a locus drawn when the cross-sectional region passes through the target subfield SF # j is equal to the combination of the locus drawn by each of the divided regions S 1 to S 4 at the time of passing.

いま、光量積算領域のうちの、分割領域Siが描く軌跡としての領域(分割領域Siを断面とする立体)の部分を、分割立体Viということとすると、分割立体Viの体積(Vi)は、以下の式(5)ないし(8)に従って、分割領域Siを、時刻tsfaからtsfbにわたって積分することで求めることができる。 Now, of the light intensity integrating region, a portion of the region as a trajectory divided area S i draws (solid to cross the divided area S i), when the fact that the division stereoscopic V i, the volume of the divided solid V i ( V i ) can be obtained by integrating the divided region S i from time t sfa to t sfb according to the following equations (5) to (8).

Figure 0005029892
・・・(5)
Figure 0005029892
... (5)

Figure 0005029892
・・・(6)
Figure 0005029892
... (6)

Figure 0005029892
・・・(7)
Figure 0005029892
... (7)

Figure 0005029892
・・・(8)
Figure 0005029892
... (8)

なお、ここでは、断面領域が、注目サブフィールドSF#jを通過するときに、基準点(a,b)は変更されない(断面領域が注目サブフィールドSF#jの通過を開始するときに、断面領域内に存在した基準点(a,b)が、断面領域が注目サブフィールドSF#jを通過するまで、断面領域内に存在し続ける)こととする。   Here, the reference point (a, b) is not changed when the cross-sectional area passes through the target subfield SF # j (when the cross-sectional area starts to pass through the target subfield SF # j, It is assumed that the reference point (a, b) existing in the area continues to exist in the cross-sectional area until the cross-sectional area passes through the target subfield SF # j.

一方、表示モデルにおいて、注目サブフィールドSF#jの、画素の領域を断面として時間Tの方向に延びる直方体形状の立体である画素フィールド領域(図29)の体積をVとすると、その画素フィールド領域の体積Vと、分割立体V1,V2,V3、及びV4の体積(Vi)との間には、式(9)の関係がある。 On the other hand, in the display model, when the volume of a pixel field region (FIG. 29) that is a rectangular solid extending in the direction of time T with the pixel region taken as a cross section in the target subfield SF # j is V, the pixel field region And the volume (V i ) of the divided solids V 1 , V 2 , V 3 , and V 4 have the relationship of Equation (9).

Figure 0005029892
・・・(9)
Figure 0005029892
... (9)

光量積算領域の一部である分割立体Viは、注目サブフィールドSF#jの、ある画素フィールド領域の一部を占めるが、その占める比率を、占有比率ということとすると、占有比率は、Vi/Vで表され、式(5)ないし式(9)から求めることができる。 The divided solid V i, which is a part of the light amount integration region, occupies a part of a certain pixel field region of the target subfield SF # j, and if the occupation ratio is referred to as an occupation ratio, the occupation ratio is V It is expressed by i / V and can be obtained from the equations (5) to (9).

いま、分割立体Viが一部を占める、注目サブフィールドSF#jの画素フィールド領域を、占有画素フィールド領域ということとすると、その占有画素フィールド領域(の光量)が、注目画素の画素値に影響する分の光量(以下、適宜、影響光量という)は、占有比率Vi/Vに、占有画素フィールド領域の光量SFViを乗算することで求めることができる。 Now, assuming that the pixel field area of the target subfield SF # j in which the divided solid V i occupies a part is the occupied pixel field area, the occupied pixel field area (the amount of light) becomes the pixel value of the target pixel. The amount of light affected (hereinafter referred to as “influence light amount” as appropriate) can be obtained by multiplying the occupation ratio V i / V by the light amount SF Vi of the occupied pixel field region.

ここで、占有画素フィールド領域の光量SFViは、注目サブフィールドSF#jの占有画素フィールド領域が発光している場合には、その注目サブフィールドSF#jの輝度の重みLとされ、注目サブフィールドSF#jの占有画素フィールド領域が発光していない(非発光である)場合には、0とされる。なお、注目サブフィールドSF#jの占有画素フィールド領域の発光/非発光は、サブフィールド展開部200(図1)から光量積算部300に供給される発光制御情報SFが表す発光パターンから認識することができる。 Here, the light amount SF Vi of the occupied pixel field region is set to the luminance weight L of the focused subfield SF # j when the occupied pixel field region of the focused subfield SF # j emits light. When the occupied pixel field area of the field SF # j is not emitting light (not emitting light), it is set to 0. Note that light emission / non-light emission in the occupied pixel field region of the target subfield SF # j is recognized from the light emission pattern represented by the light emission control information SF supplied from the subfield developing unit 200 (FIG. 1) to the light amount integrating unit 300. Can do.

注目サブフィールドSF#j(の光量)が、注目画素の画素値に影響する分の光量(注目サブフィールドSF#jによる光量)PSFL,jは、分割立体V1,V2,V3、及びV4それぞれが一部を占有する占有画素フィールド領域の影響光量SFV1×V1/V,SFV2×V2/V,SFV3×V3/V、及びSFV4×V4/Vの総和であるから、式(10)により求めることができる。 The amount of light that affects the pixel value of the target pixel (the amount of light of the target subfield SF # j) (the amount of light of the target subfield SF # j) P SFL , j is the divided solid V 1 , V 2 , V 3 , And V 4 each occupy a part of the occupied pixel field area influence light intensity SF V1 × V 1 / V, SF V2 × V 2 / V, SF V3 × V 3 / V, and SF V4 × V 4 / V Since it is the sum, it can be obtained from equation (10).

Figure 0005029892
・・・(10)
Figure 0005029892
... (10)

光量積算部300(図1)では、式(10)に従い、注目画素について、8つのサブフィールドSF1ないしSF8それぞれによるPSFL,1ないしPSFL,8が求められる。そして、光量積算部300では、8つのサブフィールドSF1ないしSF8それぞれによるPSFL,1ないしPSFL,8が積算され、その積算値PSFL,1+PSFL,2+・・・+PSFL,8が、注目画素の画素値とされる。なお、積算値PSFL,1+PSFL,2+・・・+PSFL,8を求めることは、光量積算領域が通る画素サブフィールド領域すべての影響光量を求め、その影響光量を積算することと等価である。 In the light quantity integrating unit 300 (FIG. 1), P SFL , 1 to P SFL , 8 are obtained for each pixel of interest by the eight subfields SF1 to SF8 according to Expression (10). Then, in the light quantity integrating unit 300, P SFL , 1 to P SFL , 8 by the eight subfields SF1 to SF8 are integrated, and the integrated values P SFL , 1 + P SFL , 2 +... + P SFL , 8 is the pixel value of the target pixel. Note that finding the integrated value P SFL , 1 + P SFL , 2 +... + P SFL , 8 is to obtain the influence light quantity of all the pixel subfield areas through which the light quantity integration area passes and integrate the influence light quantity. Is equivalent to

ところで、時刻Tの経過とともに移動する断面領域については、上述したように、断面領域内に、複数の基準点が存在する場合や、断面領域内の基準点が(他の基準点)に変更される場合がある。図33及び図34を参照して、そのような場合について説明する。   By the way, as for the cross-sectional area that moves with the lapse of time T, as described above, when there are a plurality of reference points in the cross-sectional area, or the reference point in the cross-sectional area is changed to (another reference point). There is a case. Such a case will be described with reference to FIGS. 33 and 34.

図33及び図34は、表示モデルの位置(x,y)にある画素を注目画素として、時刻Tの経過とともに表示モデル内を移動する断面領域を示している。   33 and 34 show a cross-sectional area that moves within the display model as time T passes, with the pixel at the position (x, y) of the display model as the pixel of interest.

なお、図34は、図33に続く図である。   FIG. 34 is a diagram following FIG.

図33及び図34では、画素位置(x,y)にある画素を注目画素として、注目画素(に映る被写体)が、時刻T=tsfaから時刻T=tsfbにかけて、動きベクトル(+2,-1)で表される動き量だけ動き、位置(x+2,y-1)に移動している。 In FIG. 33 and FIG. 34, the pixel at the pixel position (x, y) is the pixel of interest, and the pixel of interest (subject to appear in) is a motion vector (+2, 2, from time T = t sfa to time T = t sfb . -1) moves to the position (x + 2, y-1).

以上のように、位置(x,y)から位置(x+2,y-1)に移動する注目画素の領域である断面領域においては、その断面領域と、表示モデルの画素の領域との(XY平面から見た)位置が完全に一致するとき、その画素の領域の4つの頂点が、基準点として、断面領域内に存在する。   As described above, in the cross-sectional area that is the area of the target pixel moving from the position (x, y) to the position (x + 2, y-1), the cross-sectional area and the pixel area of the display model ( When the positions (viewed from the XY plane) completely match, the four vertices of the pixel region exist in the cross-sectional region as reference points.

すなわち、例えば、移動を開始するときの位置(x,y)にある断面領域(左上の頂点の位置が位置(x,y)の断面領域)内には、点(x,y)、点(x+1,y)、点(x,y+1)、及び点(x+1,y+1)の4つの基準点が存在する。   That is, for example, in the cross-sectional area at the position (x, y) when the movement is started (the cross-sectional area where the position of the upper left vertex is the position (x, y)), the point (x, y), the point ( There are four reference points, x + 1, y), point (x, y + 1), and point (x + 1, y + 1).

以上のように、断面領域内に複数の基準点が存在する場合、例えば、注目画素における視線方向mv(注目画素について検出された動きベクトルの方向)にある1つの基準点が、注目画素の画素値を求めるのに用いる基準点(以下、適宜、注目基準点という)として選択される。   As described above, when there are a plurality of reference points in the cross-sectional area, for example, one reference point in the line-of-sight direction mv (the direction of the motion vector detected for the target pixel) in the target pixel is the pixel of the target pixel. It is selected as a reference point used to obtain a value (hereinafter referred to as “reference point of interest” as appropriate).

すなわち、例えば、注目画素における視線方向mvを表す動きベクトルのX成分が0より大(符号が正)で、Y成分が0以下(Y成分が0か、又はその符号が負)である場合には、4つの基準点(x,y),(x+1,y),(x,y+1)、及び(x+1,y+1)のうちの、右上の基準点(x+1,y)が、注目基準点として選択される。   That is, for example, when the X component of the motion vector representing the line-of-sight direction mv at the target pixel is greater than 0 (sign is positive) and the Y component is 0 or less (Y component is 0 or the sign is negative). Of the four reference points (x, y), (x + 1, y), (x, y + 1), and (x + 1, y + 1) , y) is selected as the reference point of interest.

また、例えば、注目画素における視線方向mvを表す動きベクトルのX成分が0以下で、Y成分が0以下である場合には、4つの基準点(x,y),(x+1,y),(x,y+1)、及び(x+1,y+1)のうちの、左上の基準点(x,y)が、注目基準点として選択される。   Further, for example, when the X component of the motion vector representing the line-of-sight direction mv at the target pixel is 0 or less and the Y component is 0 or less, four reference points (x, y), (x + 1, y) , (x, y + 1) and (x + 1, y + 1), the upper left reference point (x, y) is selected as the target reference point.

さらに、例えば、注目画素における視線方向mvを表す動きベクトルのX成分が0以下で、Y成分が0より大である場合には、4つの基準点(x,y),(x+1,y),(x,y+1)、及び(x+1,y+1)のうちの、左下の基準点(x,y+1)が、注目基準点として選択される。   Further, for example, when the X component of the motion vector representing the line-of-sight direction mv at the target pixel is 0 or less and the Y component is greater than 0, four reference points (x, y), (x + 1, y ), (x, y + 1), and (x + 1, y + 1), the lower left reference point (x, y + 1) is selected as the target reference point.

また、例えば、注目画素における視線方向mvを表す動きベクトルのX成分及びY成分がいずれも0より大である場合には、4つの基準点(x,y),(x+1,y),(x,y+1)、及び(x+1,y+1)のうちの、右下の基準点(x+1,y+1)が、注目基準点として選択される。   For example, when the X component and the Y component of the motion vector representing the line-of-sight direction mv at the target pixel are both greater than 0, four reference points (x, y), (x + 1, y), Of (x, y + 1) and (x + 1, y + 1), the lower right reference point (x + 1, y + 1) is selected as the reference point of interest.

図33では、注目画素における視線方向mvを表す動きベクトルは、ベクトル(+2,-1)であるため、右上の基準点(x+1,y)が、注目基準点として選択される。   In FIG. 33, since the motion vector representing the line-of-sight direction mv at the target pixel is the vector (+2, −1), the upper right reference point (x + 1, y) is selected as the target reference point.

以上のようにして、注目基準点(x+1,y)が選択された後は、断面領域は、注目基準点(x+1,y)によって、図32で説明した4つの分割領域S1,S2,S3、及びS4に分割することができ、したがって、断面領域が視線方向mvに移動することにより、その断面領域内に、新たな基準点が含まれる状態とならない限り、式(1)ないし式(10)に従って、注目画素の画素値を求めることができる。 After the attention reference point (x + 1, y) is selected as described above, the cross-sectional area is divided into the four divided regions S 1 described in FIG. 32 by the attention reference point (x + 1, y). , S 2 , S 3 , and S 4 , and therefore, unless the cross-sectional area moves in the line-of-sight direction mv, a new reference point is included in the cross-sectional area. According to (1) to (10), the pixel value of the target pixel can be obtained.

一方、断面領域が視線方向mvに移動することにより、その断面領域内に、新たな基準点が含まれる状態となった場合、その新たな基準点を対象として、上述した場合と同様にして、新たな注目基準点が選択し直され、これにより、注目基準点が変更される。   On the other hand, when a new reference point is included in the cross-sectional area by moving the cross-sectional area in the line-of-sight direction mv, for the new reference point, as in the case described above, A new attention reference point is selected again, thereby changing the attention reference point.

すなわち、例えば、図33では、時刻T=γにおいて、断面領域の位置のX座標x+1が、表示モデルの画素の位置のX座標x+1と一致し、これにより、断面領域内に、新たな基準点(x+2,y)が含まれる状態となっている。   That is, for example, in FIG. 33, at time T = γ, the X coordinate x + 1 of the position of the cross-sectional area coincides with the X coordinate x + 1 of the position of the pixel of the display model. A new reference point (x + 2, y) is included.

この場合、新たな基準点(x+2,y)を対象として、新たな注目基準点が選択し直されるが、いまの場合、新たな基準点は、基準点(x+2,y)だけなので、その基準点(x+2,y)が、新たな注目基準点として選択され、これにより、注目基準点が、基準点(x+1,y)から基準点(x+2,y)に変更される。   In this case, a new reference point is selected again for the new reference point (x + 2, y), but in this case, the new reference point is only the reference point (x + 2, y). So, the reference point (x + 2, y) is selected as a new attention reference point, so that the attention reference point is changed from the reference point (x + 1, y) to the reference point (x + 2, y). Changed to

なお、断面領域の位置のY座標が、表示モデルの画素の位置のY座標と一致し、これにより、断面領域内に、新たな基準点が含まれる状態となった場合も、上述したように、注目基準点が変更される。   As described above, the Y coordinate of the position of the cross-sectional area coincides with the Y coordinate of the pixel position of the display model, and as a result, a new reference point is included in the cross-sectional area. The attention reference point is changed.

図34は、注目基準点が変更された後、すなわち、新たな注目基準点(x+2,y)が選択された後の断面領域を示している。   FIG. 34 shows a cross-sectional area after the attention reference point is changed, that is, after a new attention reference point (x + 2, y) is selected.

新たな注目基準点が選択された後は、断面領域は、その新たな注目基準点によって、図32で説明した場合と同様に、4つの分割領域に分割することができる。図34では、断面領域は、4つの分割領域S1',S2',S3'、及びS4'に分割されている。 After the new attention reference point is selected, the cross-sectional area can be divided into four divided areas by the new attention reference point as in the case described with reference to FIG. In FIG. 34, the cross-sectional area is divided into four divided areas S 1 ′, S 2 ′, S 3 ′, and S 4 ′.

新たな注目基準点の選択後、断面領域が視線方向mvに移動することにより、その断面領域内に、新たな基準点が含まれる状態となった場合、その新たな基準点を対象として、上述した場合と同様にして、新たな注目基準点が選択し直され、これにより、注目基準点が変更される。   After selection of a new reference point of interest, when the cross-sectional area moves in the line-of-sight direction mv and a new reference point is included in the cross-sectional area, the new reference point is used as a target. In the same manner as described above, a new attention reference point is selected again, and thereby the attention reference point is changed.

図34では、時刻T=tsfbにおいて、断面領域の位置のX座標x+2が、表示モデルの画素の位置(x+2,y-1)のX座標x+2と一致するとももに、断面領域の位置のY座標y-1が、表示モデルの画素の位置(x+2,y-1)のY座標y-1と一致し、これにより、断面領域内に、3つの新たな基準点(x+2,y-1),(x+3,y-1)、及び(x+3,y)が含まれる状態となっている。 In FIG. 34, at time T = t sfb , the X coordinate x + 2 of the position of the cross-sectional area coincides with the X coordinate x + 2 of the pixel position (x + 2, y-1) of the display model. , The Y coordinate y-1 of the position of the cross-sectional area matches the Y coordinate y-1 of the pixel position (x + 2, y-1) of the display model. Reference points (x + 2, y-1), (x + 3, y-1), and (x + 3, y) are included.

断面領域が、それ以降も移動する場合には、3つの新たな基準点(x+2,y-1),(x+3,y-1)、及び(x+3,y)の中から、上述したようにして、新たな注目基準点が選択し直される。   If the cross-sectional area moves after that, select from the three new reference points (x + 2, y-1), (x + 3, y-1), and (x + 3, y) As described above, a new attention reference point is selected again.

以上のように、注目基準点を選択し直す(変更する)ことで、光量積算領域が占有画素フィールド領域(図29)を占める占有比率、つまり、占有画素フィールド領域のうちの、光量積算領域が占める部分(この部分は、上述の分割立体に相当するので、この部分を、以下、適宜、分割立体の部分という)Vεの体積(Vε)と、占有画素フィールド領域Vの体積(V)との比Vε/Vを求めることができる。 As described above, by reselecting (changing) the target reference point, the occupation ratio in which the light amount integration region occupies the occupied pixel field region (FIG. 29), that is, the light amount integration region in the occupied pixel field region is changed. Occupied part (this part corresponds to the above-mentioned divided solid, so this part is hereinafter referred to as a divided solid part as appropriate) V ε volume (V ε ) and occupied pixel field region V volume (V) The ratio V ε / V can be obtained.

すなわち、例えば、図33及び図34に示したように、断面領域が、時刻T=tsfaから時刻T=tsfbにかけて、位置(x,y)から位置(X+2,y-1)に移動して、注目サブフィールドSF#jを通過する場合において、注目基準点の変更が、時刻T=γにおいて1回だけ行われるときには、注目サブフィールドSF#jの、例えば、位置(x+1,y-1)の画素の領域を断面とする占有画素フィールド領域のうちの光量積算領域が占める分割立体の部分Vεの体積(Vε)は、式(11)で求めることができる。 That is, for example, as shown in FIG. 33 and FIG. 34, the cross-sectional area is changed from position (x, y) to position (X + 2, y−1) from time T = t sfa to time T = t sfb. When moving and passing through the target subfield SF # j, if the target reference point is changed only once at time T = γ, for example, the position (x + 1) of the target subfield SF # j , y-1), the volume (V ε ) of the divided solid portion V ε occupied by the light quantity integration region in the occupied pixel field region having the cross section as the pixel region can be obtained by Expression (11).

Figure 0005029892
・・・(11)
Figure 0005029892
(11)

ここで、式(11)において、S1は、図33に示すように、基準点(x+1,y)が注目基準点となっている時刻T=tsfaから時刻T=γまでの間の、占有画素フィールド領域の断面となっている位置(x+1,y-1)の画素の領域上の分割領域の面積を表す。また、S2'は、図34に示すように、基準点(x+2,y)が注目基準点となっている時刻T=γから時刻T=tsfbまでの間の、占有画素フィールド領域の断面となっている位置(x+1,y-1)の画素の領域上の分割領域の面積を表す。 Here, in the expression (11), as shown in FIG. 33, S 1 is between time T = t sfa and time T = γ when the reference point (x + 1, y) is the reference point of interest. Represents the area of the divided region on the pixel region at the position (x + 1, y-1) in the cross section of the occupied pixel field region. Further, as shown in FIG. 34, S 2 ′ is an occupied pixel field region between time T = γ and time T = t sfb when the reference point (x + 2, y) is the reference point of interest. Represents the area of the divided region on the pixel region at the position (x + 1, y-1) in the cross section.

式(11)に示したように、注目サブフィールドSF#jの、ある位置(X,Y)の画素の領域を断面とする占有画素フィールド領域のうちの光量積算領域が占める分割立体の部分Vεの体積(Vε)は、積分の区間を、注目基準点が変更される区間(式(11)では、時刻T=tsfaから時刻T=γまでの間と、時刻T=γから時刻T=tsfbまでの間)に分けて、占有画素フィールド領域の断面となっている画素の領域上の分割領域の面積(式(11)では、面積S1とS2')を積分することで求めることができる。 As shown in Expression (11), the divided solid portion V occupied by the light amount integration region in the occupied pixel field region whose cross section is the region of the pixel at a certain position (X, Y) in the target subfield SF # j. The volume of ε (V ε ) is the integration interval, the interval in which the reference point of interest is changed (in the formula (11), from time T = t sfa to time T = γ, and from time T = γ to time T = t sfb ), and integrate the area of the divided area (areas S 1 and S 2 ′ in equation (11)) on the pixel area that is the cross section of the occupied pixel field area Can be obtained.

そして、光量積算領域が占有画素フィールド領域を占める占有比率Vε/Vは、占有画素フィールド領域のうちの光量積算領域が占める分割立体の部分Vεの体積(Vε)を、占有画素フィールド領域Vの体積(V)で除算することにより求めることができる。 Then, the occupation ratio V ε / V in which the light amount integration region occupies the occupied pixel field region is the volume (V ε ) of the divided solid portion V ε occupied by the light amount integration region in the occupied pixel field region. It can be obtained by dividing by the volume (V) of V.

占有比率Vε/Vを求めた後は、図31及び図32で説明したように、占有比率Vi/Vに、占有画素フィールド領域の光量を乗算することで、占有画素フィールド領域(の光量)が注目画素の画素値に影響する分の光量(影響光量)を求めることができる。そして、光量積算領域が通る画素サブフィールド領域すべての影響光量を求め、その影響光量を積算することで、注目画素の画素値を求めることができる。 After obtaining the occupation ratio V ε / V, as described with reference to FIGS. 31 and 32, the occupation ratio V i / V is multiplied by the light quantity of the occupation pixel field area, thereby obtaining the light quantity of the occupation pixel field area (the light quantity of the occupation pixel field area). ) Can affect the amount of light that affects the pixel value of the pixel of interest (influence light amount). Then, the influence light amount of all the pixel subfield regions through which the light amount integration region passes is obtained, and the influence light amount can be integrated to obtain the pixel value of the target pixel.

次に、式(11)に示したように、占有画素フィールド領域のうちの光量積算領域が占める分割立体の部分Vεの体積(Vε)を求めるには、注目基準点が変更される時刻(式(11)では、時刻γ)(以下、適宜、変更時刻という)が必要となる。 Next, as shown in Expression (11), in order to obtain the volume (V ε ) of the divided solid portion V ε occupied by the light amount integration region in the occupied pixel field region, the time at which the reference point of interest is changed (In Expression (11), time γ) (hereinafter referred to as a change time as appropriate) is required.

注目基準点の変更は、断面領域の位置のX座標が、表示モデルの画素の位置のX座標と一致するか、又は、断面領域の位置のY座標が、表示モデルの画素の位置のY座標y-1と一致するときに生じる。したがって、変更時刻は、次のようにして求めることができる。   To change the reference point of interest, the X coordinate of the cross-sectional area position matches the X coordinate of the pixel position of the display model, or the Y coordinate of the cross-sectional area position is the Y coordinate of the pixel position of the display model Occurs when it matches y-1. Therefore, the change time can be obtained as follows.

すなわち、例えば、いま、上述の図31に示したように、画素位置(x,y)にある画素を注目画素として、時刻T=αにおいて、位置(x,y)にある断面領域が、時間Tfの間に、動きベクトル(vx,vy)で表される動き量だけ動き、時刻T=β(=α+Tf)において、位置(x+vx,y+vy)に移動したとする。 That is, for example, as shown in FIG. 31 described above, the pixel at the pixel position (x, y) is the target pixel, and the cross-sectional area at the position (x, y) at time T = α is the time. During T f , it moved by the amount of motion represented by the motion vector (v x , v y ), and moved to the position (x + v x , y + v y ) at time T = β (= α + T f ) And

この場合、断面領域の位置のX座標が、表示モデルの画素の位置のX座標と一致する時刻としての変更時刻Tcxは、式(12)で表される。 In this case, the change time T cx as the time when the X coordinate of the position of the cross-sectional area coincides with the X coordinate of the pixel position of the display model is expressed by Expression (12).

Figure 0005029892
・・・(12)
Figure 0005029892
(12)

ここで、動きベクトルのX成分vxは、整数値をとることとする。 Here, the X component v x of the motion vector takes an integer value.

また、断面領域の位置のY座標が、表示モデルの画素の位置のY座標と一致する時刻としての変更時刻Tcyは、式(13)で表される。 Further, the change time T cy as the time when the Y coordinate of the position of the cross-sectional area coincides with the Y coordinate of the position of the pixel of the display model is expressed by Expression (13).

Figure 0005029892
・・・(13)
Figure 0005029892
... (13)

ここで、動きベクトルのY成分vyは、整数値をとることとする。 Here, it is assumed that the Y component v y of the motion vector takes an integer value.

なお、動きベクトルのX成分vxが0以外の値である場合には、時刻Tが、式(12)に従って求められる変更時刻Tcxになるごとに、直前に注目基準点であった基準点のX座標に+1又は-1を加算した点が、新たな注目基準点(変更後の基準点)となる。すなわち、動きベクトルのX成分vxが正である場合には、直前に注目基準点であった基準点のX座標を+1した点が、新たな注目基準点となり、動きベクトルのX成分vxが負である場合には、直前に注目基準点であった基準点のX座標を-1した点が、新たな注目基準点となる。 When the X component v x of the motion vector is a value other than 0, every time the time T becomes the change time T cx obtained according to the equation (12), the reference point that was the reference reference point immediately before A point obtained by adding +1 or -1 to the X coordinate of becomes a new attention reference point (reference point after change). That is, when the X component v x of the motion vector is positive, a point obtained by adding 1 to the X coordinate of the reference point that was the reference point just before becomes a new reference point, and the X component v of the motion vector When x is negative, a point obtained by decrementing the X coordinate of the reference point that was the attention reference point immediately before by −1 becomes a new attention reference point.

同様に、動きベクトルのY成分vyが0以外の値である場合には、時刻Tが、式(13)に従って求められる変更時刻Tcyになるごとに、直前に注目基準点であった基準点のY座標に+1又は-1を加算した点が、新たな注目基準点となる。すなわち、動きベクトルのY成分vyが正である場合には、直前に注目基準点であった基準点のY座標を+1した点が、新たな注目基準点となり、動きベクトルのY成分vyが負である場合には、直前に注目基準点であった基準点のY座標を-1した点が、新たな注目基準点となる。 Similarly, when the Y component v y of the motion vector is a value other than 0, every time the time T reaches the change time T cy obtained according to the equation (13), the reference that was the reference point just before A point obtained by adding +1 or -1 to the Y coordinate of the point becomes a new reference point of interest. That is, when the Y component v y of the motion vector is positive, the point obtained by adding +1 to the Y coordinate of the reference point that was the reference point immediately before becomes the new reference point, and the Y component v of the motion vector When y is negative, a point obtained by subtracting the Y coordinate of the reference point that was the attention reference point immediately before is −1 becomes a new attention reference point.

なお、変更時刻TcxとTcyとが等しい場合には、直前に注目基準点であった基準点のX座標及びY座標の両方を、上述したように、+1又は-1した点が、新たな注目基準点となる。 In addition, when the change times T cx and T cy are equal, both the X coordinate and the Y coordinate of the reference point that was the reference reference point immediately before, as described above, the point that is +1 or −1, It becomes a new attention reference point.

ここで、図33及び図34では、時刻T=tsfaにおいて、位置(x,y)にある断面領域が、時間Tfの間に、動きベクトル(vx,vy)=(+2,-1)で表される動き量だけ動き、時刻T=tsfb(=tsfa+Tf)において、位置(x+2,y-1)に移動している。 Here, in FIGS. 33 and 34, at time T = t sfa, position (x, y) cross-section area at the can, during a time T f, the motion vector (v x, v y) = (+ 2, -1), and moves to the position (x + 2, y-1) at time T = t sfb (= t sfa + T f ).

図33及び図34において、時刻T=γは、式(12)の変数Nが1であるときの変更時刻Tcxであり、式(12)において、Tf=tsfb-tsfa,N=1、及びvx=+2とすることにより、変更時刻Tcx=γは、式(tsfb-tsfa)×1/|+2|に従って求めることができる。 33 and 34, the time T = γ is the change time T cx when the variable N in the equation (12) is 1, and in the equation (12), T f = t sfb −t sfa , N = By setting 1 and v x = + 2, the change time T cx = γ can be obtained according to the equation (t sfb -t sfa ) × 1 / | +2 |.

次に、図35のフローチャートを参照して、図23で説明した、図20のステップST400における光量の積算の処理の詳細について、さらに説明する。   Next, with reference to the flowchart of FIG. 35, the details of the light amount integration processing in step ST400 of FIG. 20 described in FIG. 23 will be further described.

ステップST1001において、図20のステップST200で検出された注目フィールドの各画素における視線方向mvが、動き検出部100(図1)から光量積算部300に供給されるとともに、図20のステップST300で生成された注目フィールドのサブフィールドの発光パターンを表す発光制御情報SFが、サブフィールド展開部200(図1)から光量積算部300に供給される。   In step ST1001, the line-of-sight direction mv in each pixel of the field of interest detected in step ST200 of FIG. 20 is supplied from the motion detection unit 100 (FIG. 1) to the light amount integrating unit 300 and generated in step ST300 of FIG. The light emission control information SF representing the light emission pattern of the subfield of the target field is supplied from the subfield developing unit 200 (FIG. 1) to the light amount integrating unit 300.

ここで、ステップST1001は、図23のステップST401に対応する。   Here, step ST1001 corresponds to step ST401 in FIG.

その後、処理は、ステップST1001からステップST1002に進み、光量積算部300(図8)において、光量積算領域決定回路301は、注目フィールドを構成する画素のうちの、まだ注目画素として選択していない画素の1つを、注目画素に選択して、処理は、ステップST1003に進む。   Thereafter, the process proceeds from step ST1001 to step ST1002, and in the light amount integration section 300 (FIG. 8), the light amount integration region determination circuit 301 is a pixel that has not yet been selected as a target pixel among the pixels constituting the target field. Is selected as the target pixel, and the process proceeds to step ST1003.

ステップST1003では、光量積算領域決定回路301は、注目画素について、その注目画素における視線方向mvに基づき、表示モデルの基準点の中から、初期(最初)の注目基準点となる基準点を設定(選択)し、処理は、ステップST1004に進む。   In step ST1003, the light amount integration region determination circuit 301 sets a reference point that is an initial (first) reference point from the reference points of the display model based on the line-of-sight direction mv at the target pixel for the target pixel ( The process proceeds to step ST1004.

ステップST1004では、光量積算領域決定回路301は、式(12)及び式(13)で説明したように、注目画素について、注目基準点が変更する変更時刻を求めるとともに、各変更時刻において、新たな注目基準点となる基準点を求めて、処理は、ステップST1005に進む。   In step ST1004, as described in Expression (12) and Expression (13), the light amount integration region determination circuit 301 obtains a change time at which the target reference point changes for the target pixel, and at each change time, a new time is obtained. A reference point that is a target reference point is obtained, and the process proceeds to step ST1005.

ステップST1005では、光量積算領域決定回路301は、注目画素における視線方向mvと、ステップST1004で求めた変更時刻、及び、各変更時刻において新たな注目基準点となる基準点とを用いて、光量積算領域を求める。   In step ST1005, the light amount integration region determination circuit 301 uses the line-of-sight direction mv at the target pixel, the change time obtained in step ST1004, and the reference point that becomes a new reference point at each change time, and integrates the light amount. Find the area.

すなわち、ステップST1005では、光量積算領域決定回路301は、注目画素における視線方向mvと、変更時刻、及び、各変更時刻において新たな注目基準点となる基準点とを用いることにより、8つのサブフィールドSF1ないしSF8それぞれについて、占有画素フィールド領域のうちの、注目画素の光量積算領域が占める分割立体の部分Vi(式(10))の体積(Vi)を求める。ここで、8つのサブフィールドSF1ないしSF8それぞれについて得られる分割立体の部分Viをすべて合わせた領域が、光量積算領域となる。 That is, in step ST1005, the light amount integration region determination circuit 301 uses the line-of-sight direction mv at the target pixel, the change time, and the reference point that becomes a new target reference point at each change time, thereby providing eight subfields. For each of SF1 to SF8, the volume (V i ) of the divided solid portion V i (equation (10)) occupied by the light amount integration region of the target pixel in the occupied pixel field region is obtained. Here, eight subfields SF1 to SF8 region combined all portions V i of the resulting division stereoscopic each, the light-intensity integrating region.

ステップST1005では、さらに、光量積算領域決定回路301は、8つのサブフィールドSF1ないしSF8それぞれについて、注目画素の光量積算領域が占有画素フィールド領域を占める占有比率Vi/Vを求め、処理は、ステップST1006に進む。 In step ST1005, the light amount integration region determination circuit 301 further obtains an occupation ratio V i / V in which the light amount integration region of the target pixel occupies the occupied pixel field region for each of the eight subfields SF1 to SF8. Proceed to ST1006.

ステップST1006では、光量積算領域決定回路301は、8つのサブフィールドSF1ないしSF8それぞれについて、注目画素の光量積算領域が占有画素フィールド領域を占める占有比率Vi/Vに、その占有画素フィールド領域の光量SFViを乗算することで、式(10)で説明したように、占有画素フィールド領域(の光量)が注目画素の画素値に影響する分の光量(影響光量)PSFL,1ないしPSFL,8を求め、光量積算回路302に供給する。 In step ST1006, the light amount integration region determination circuit 301 sets the light amount of the occupied pixel field region to the occupation ratio V i / V in which the light amount integration region of the target pixel occupies the occupied pixel field region for each of the eight subfields SF1 to SF8. By multiplying SF Vi , as described in the equation (10), the amount of light (influenced light amount) P SFL , 1 to P SFL , in which the occupied pixel field region (the amount of light) affects the pixel value of the target pixel 8 is obtained and supplied to the light amount integrating circuit 302.

なお、サブフィールドSF#jの占有画素フィールド領域の光量SFViは、サブフィールドSF#jが発光している場合には、そのサブフィールドSF#jの輝度の重みLとされ、サブフィールドSF#jが発光していない(非発光である)場合には、0とされる。光量積算領域決定回路301は、サブフィールドSF#jの発光/非発光を、サブフィールド展開部200(図1)から供給される発光制御情報SFが表す発光パターンから認識する。 The light amount SF Vi of the occupied pixel field area of the subfield SF # j is set to the luminance weight L of the subfield SF # j when the subfield SF # j emits light, and the subfield SF # j When j is not emitting light (non-emitting), it is set to 0. The light amount integration region determination circuit 301 recognizes light emission / non-light emission of the subfield SF # j from the light emission pattern represented by the light emission control information SF supplied from the subfield development unit 200 (FIG. 1).

ここで、以上のステップST1002ないしステップST1006が、図23のステップST402に対応する。   Here, the above steps ST1002 to ST1006 correspond to step ST402 in FIG.

その後、処理は、ステップST1006からステップST1007に進み、光量積算回路302は、光量積算領域決定回路301からの影響光量PSFL,1ないしPSFL,8を積算することで、注目画素の画素値を求め、処理は、ステップST1008に進む。 Thereafter, the process proceeds from step ST1006 to step ST1007, and the light amount integration circuit 302 integrates the influence light amounts P SFL , 1 to P SFL , 8 from the light amount integration region determination circuit 301 to thereby obtain the pixel value of the target pixel. The processing proceeds to step ST1008.

ここで、ステップST1007は、図23のステップST403に対応する。   Here, step ST1007 corresponds to step ST403 in FIG.

ステップST1008では、光量積算領域決定回路301が、注目フィールドを構成する画素のすべてを、注目画素としたかどうかを判定する。   In step ST1008, the light amount integration region determination circuit 301 determines whether all the pixels constituting the target field have been set as the target pixel.

ステップST1008において、注目フィールドを構成する画素のすべてを、まだ、注目画素としていないと判定された場合、処理は、ステップST1002に戻り、光量積算領域決定回路301は、注目フィールドを構成する画素のうちの、まだ注目画素として選択していない画素の1つを、注目画素に新たに選択し、以下、同様の処理が繰り返される。   If it is determined in step ST1008 that all the pixels constituting the target field have not yet been set as the target pixel, the process returns to step ST1002, and the light amount integration region determination circuit 301 selects among the pixels constituting the target field. One of the pixels not yet selected as the target pixel is newly selected as the target pixel, and the same processing is repeated thereafter.

また、ステップST1008において、注目フィールドを構成する画素のすべてを、注目画素としたと判定された場合、処理は、ステップST1009に進み、光量積算回路302は、注目フィールドを構成する画素のすべてを注目画素として求めた画素値からなる出力画像Voutを出力する。   If it is determined in step ST1008 that all the pixels constituting the field of interest are the target pixel, the process proceeds to step ST1009, and the light amount integrating circuit 302 focuses on all the pixels constituting the field of interest. An output image Vout composed of pixel values obtained as pixels is output.

ここで、ステップST1009は、図23のステップST404に対応する。   Here, step ST1009 corresponds to step ST404 in FIG.

次に、図36は、図1の光量積算部300の他の構成例を示している。   Next, FIG. 36 shows another configuration example of the light amount integrating unit 300 of FIG.

なお、図中、図8の場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。   In the figure, portions corresponding to those in FIG. 8 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate.

すなわち、図36の光量積算部300は、光量積算回路302が設けられている点で、図8の場合と共通するが、図8の光量積算領域決定回路301に代えて、光量積算値テーブル記憶部303、及び光量積算領域選択回路304が設けられている点で、図8の場合と相違する。   36 is the same as that in FIG. 8 in that a light amount integration circuit 302 is provided, but instead of the light amount integration region determination circuit 301 in FIG. 8, a light amount integration value table storage is provided. 8 is different from the case of FIG. 8 in that a unit 303 and a light amount integration region selection circuit 304 are provided.

図36の光量積算部300では、視線方向mvと、占有比率とを対応付けたテーブル(以下、適宜、光量積算値テーブルという)を用い、注目画素における視線方向mvに基づき、注目画素について、占有比率が求められる。   36 uses a table in which the line-of-sight direction mv is associated with the occupation ratio (hereinafter, referred to as a light amount integrated value table as appropriate), and the pixel of interest is occupied based on the line-of-sight direction mv of the pixel of interest. A ratio is required.

すなわち、図36において、光量積算値テーブル記憶部303は、光量積算値テーブルを記憶している。   That is, in FIG. 36, the light amount integrated value table storage unit 303 stores a light amount integrated value table.

光量積算値テーブル記憶部303には、動き検出部100(図1)から、注目フィールドの各画素における視線方向mvが供給される。光量積算値テーブル記憶部303は、注目フィールドを構成する画素を、順次、注目画素として、そこに供給される注目画素における視線方向mvに対付けられている占有比率を、注目画素の光量積算領域が占有画素フィールド領域を占める占有比率Vi/Vとして、光量積算値テーブルから読み出し、光量積算領域選択回路304に供給する。 The line-of-sight direction mv at each pixel in the field of interest is supplied from the motion detection unit 100 (FIG. 1) to the light quantity integrated value table storage unit 303. The light amount integrated value table storage unit 303 sequentially sets the pixels constituting the target field as the target pixel, and sets the occupation ratio associated with the line-of-sight direction mv of the target pixel supplied thereto to the light amount integrated region of the target pixel. Is read from the light amount integrated value table as the occupation ratio V i / V occupying the occupied pixel field region and supplied to the light amount integrated region selection circuit 304.

光量積算領域選択回路304には、上述したように、光量積算値テーブル記憶部303から占有比率が供給される他、サブフィールド展開部200(図1)から、注目フィールドのサブフィールドの発光パターンを表す発光制御情報SFが供給される。   As described above, the light amount integration region selection circuit 304 is supplied with the occupation ratio from the light amount integration value table storage unit 303, and from the subfield development unit 200 (FIG. 1), the light emission pattern of the subfield of the field of interest. The light emission control information SF to be expressed is supplied.

光量積算領域選択回路304は、サブフィールドSF#jの占有画素フィールド領域の発光/非発光を、サブフィールド展開部200からの発光制御情報SFが表す発光パターンから認識する。さらに、光量積算領域選択回路304は、サブフィールドSF#jの占有画素フィールド領域が発光している場合には、その占有画素フィールド領域の光量SFViを、そのサブフィールドSF#jの輝度の重みLに設定し、サブフィールドSF#jの占有画素フィールド領域が発光していない(非発光である)場合には、その占有画素フィールド領域の光量SFViを、0に設定する。 The light amount integration region selection circuit 304 recognizes light emission / non-light emission of the occupied pixel field region of the subfield SF # j from the light emission pattern represented by the light emission control information SF from the subfield development unit 200. Further, when the occupied pixel field region of the subfield SF # j emits light, the light amount integration region selection circuit 304 uses the light amount SF Vi of the occupied pixel field region as the luminance weight of the subfield SF # j. When L is set and the occupied pixel field area of the subfield SF # j is not emitting light (not emitting light), the light quantity SF Vi of the occupied pixel field area is set to 0.

そして、光量積算領域選択回路304は、8つのサブフィールドSF1ないしSF8それぞれについて、光量積算値テーブル記憶部303からの、注目画素の光量積算領域が占有画素フィールド領域を占める占有比率Vi/Vに、その占有画素フィールド領域の光量SFViを乗算することで、式(10)で説明したように、占有画素フィールド領域(の光量)が注目画素の画素値に影響する分の光量(影響光量)PSFL,1ないしPSFL,8を求め、光量積算回路302に供給する。 Then, the light amount integration region selection circuit 304 sets the occupancy ratio V i / V in which the light amount integration region of the target pixel occupies the occupied pixel field region from the light amount integration value table storage unit 303 for each of the eight subfields SF1 to SF8. By multiplying the light amount SF Vi of the occupied pixel field region, as described in the equation (10), the light amount (influenced light amount) of the occupied pixel field region (its light amount) affects the pixel value of the target pixel. P SFL , 1 to P SFL , 8 are obtained and supplied to the light amount integrating circuit 302.

図37は、図36の光量積算値テーブル記憶部303に記憶された光量積算値テーブルを、模式的に示している。   FIG. 37 schematically shows a light amount integrated value table stored in the light amount integrated value table storage unit 303 of FIG.

光量積算値テーブルには、動き検出部100が検出し得る動きベクトルとしての視線方向mvと、その視線方向mvに対して計算によりあらかじめ求められた、8つのサブフィールドSF1ないしSF8それぞれについての、画素の領域を断面とする光量積算領域が占有画素フィールド領域を占める占有比率Vi/Vとが対応付けられて記憶されている。 In the integrated light quantity value table, pixels for each of the eight subfields SF1 to SF8 obtained in advance by calculation with respect to the line-of-sight direction mv as a motion vector that can be detected by the motion detection unit 100. And the occupation ratio V i / V occupying the occupied pixel field area is stored in association with each other.

すなわち、光量積算値テーブルは、視線方向mvごとに用意されている。したがって、視線方向mvとしての動きベクトルのサーチ範囲が、例えば、後述するように、16×16画素の範囲であり、視線方向mvが256通りをとり得ると、光量積算値テーブルは、256個だけ存在する。   That is, the integrated light quantity value table is prepared for each line-of-sight direction mv. Therefore, if the search range of the motion vector as the line-of-sight direction mv is, for example, a range of 16 × 16 pixels as will be described later, and the line-of-sight direction mv can take 256 ways, only 256 light quantity integration value tables are available. Exists.

1つの視線方向mvに対する光量積算値テーブルには、8つのサブフィールドSF1ないしSF8それぞれについての占有比率Vi/Vが登録されており、これにより、視線方向mvと、その視線方向mvに対する、8つのサブフィールドSF1ないしSF8それぞれについての占有比率Vi/Vとが対応付けられている。 In the integrated light quantity value table for one line-of-sight direction mv, the occupation ratios V i / V for each of the eight subfields SF1 to SF8 are registered, and thereby, the line-of-sight direction mv and 8 for the line-of-sight direction mv are registered. The occupation ratios V i / V for the two subfields SF1 to SF8 are associated with each other.

図37は、ある1つの視線方向mvに対する光量積算値テーブルを示している。   FIG. 37 shows a light amount integrated value table for one certain line-of-sight direction mv.

1つの視線方向mvに対する光量積算値テーブルは、例えば、横軸をサブフィールドSF#jとし、縦軸を注目画素からの相対位置[x,y]とするテーブルになっている。   The light quantity integrated value table for one line-of-sight direction mv is, for example, a table in which the horizontal axis is the subfield SF # j and the vertical axis is the relative position [x, y] from the target pixel.

ここで、本実施の形態では、8つのサブフィールドSF1ないしSF8があるので、光量積算値テーブルの横軸には、その8つのサブフィールドSF1ないしSF8それぞれに対応する欄が設けられる。   In this embodiment, since there are eight subfields SF1 to SF8, columns corresponding to the eight subfields SF1 to SF8 are provided on the horizontal axis of the light quantity integrated value table.

また、光量積算値テーブルの縦軸の相対位置[x,y]のx座標とy座標は、注目画素の位置を基準(原点)とするX方向の位置とY方向の位置を、それぞれ表す。例えば、相対位置[1,0]は、注目画素の右に隣接する画素の位置を表し、例えば、相対位置[0,-1]は、注目画素の上に隣接する画素の位置を表す。   Further, the x coordinate and the y coordinate of the relative position [x, y] on the vertical axis of the light quantity integrated value table represent a position in the X direction and a position in the Y direction, respectively, with the position of the target pixel as a reference (origin). For example, the relative position [1,0] represents the position of the pixel adjacent to the right of the target pixel. For example, the relative position [0, −1] represents the position of the pixel adjacent to the target pixel.

いま、視線方向mvとしての動きベクトルのサーチ範囲が、例えば、注目画素を中心として、X方向及びY方向のいずれにも、−8画素ないし+7画素の、16×16画素の範囲であるとすると、注目画素が1フィールドの間に動く動き光は、注目画素を基準として、[-8,-8]ないし[7,7]の256通りがあるので、光量積算値テーブルの縦軸には、その256通りの相対位置[x,y]それぞれに対応する欄が設けられる。   Now, suppose that the search range of the motion vector as the line-of-sight direction mv is, for example, a range of 16 × 16 pixels from −8 pixels to +7 pixels in both the X direction and the Y direction centering on the target pixel. Since there are 256 movement lights from [-8, -8] to [7, 7] with respect to the target pixel as the moving light that the target pixel moves during one field, A column corresponding to each of the 256 relative positions [x, y] is provided.

視線方向mvが、ある動きベクトルMVで表される場合の、その視線方向MVに対する光量積算値テーブルでは、ある相対位置[x,y]の行の、あるサブフィールドSF#jの列の欄には、注目画素の視線方向mvが、動きベクトルMVで表される場合において、注目画素からの相対位置が[x,y]で表される画素の領域を断面とする、サブフィールドSF#jの占有画素フィールド領域BSF#j[x,y]を、注目画素の光量積算領域が占める占有比率RSF#j[x,y](式(10)のVi/V)、又は、式(11)のVεを占有画素フィールド領域Vの体積(V)で除算したVε/V)が、計算によりあらかじめ求められて登録されている。 When the line-of-sight direction mv is represented by a certain motion vector MV, in the light quantity integrated value table for the line-of-sight direction MV, a column of a certain subfield SF # j in a row of a certain relative position [x, y] is displayed. In the subfield SF # j, in which the region of the pixel whose relative position from the target pixel is represented by [x, y] is a cross section when the line-of-sight direction mv of the target pixel is represented by the motion vector MV. Occupied pixel field region B SF # j [x, y] is set to the occupation ratio R SF # j [x, y] (V i / V in equation (10)) occupied by the light amount integration region of the target pixel, or equation ( V epsilon / V) of the V epsilon divided by the volume of the occupied pixel field region V (V) of 11), it is registered obtained in advance by calculation.

なお、注目画素からの相対位置が[x,y]で表される画素の領域を断面とする、サブフィールドSF#jの占有画素フィールド領域BSF#j[x,y]を、注目画素の光量積算領域が通らない場合(占有画素フィールド領域BSF#j[x,y]と、注目画素の光量積算領域とが重複しない場合)、その占有画素フィールド領域BSF#j[x,y]を、注目画素の光量積算領域が占める占有比率RSF#j[x,y]は、0とされる。 Note that the occupied pixel field region BSF # j [x, y] of the subfield SF # j having a cross section of the region of the pixel whose relative position from the target pixel is represented by [x, y] When the light amount accumulation area does not pass (when the occupied pixel field area B SF # j [x, y] and the light intensity accumulation area of the target pixel do not overlap), the occupied pixel field area B SF # j [x, y] Occupancy ratio R SF # j [x, y] occupied by the light amount integration region of the target pixel is set to 0.

ここで、注目画素における視線方向mvが、例えば、動きベクトル(1,-1)で表される場合には、注目画素の光量積算領域は、注目画素を中心とする16×16画素のサーチ範囲にある256画素それぞれの領域を断面とする、サブフィールドSF1ないしSF8それぞれの占有画素フィールド領域(256×8個の占有画素フィールド領域)のうちの、注目画素の領域を断面とする、サブフィールドSF1ないしSF8それぞれの8個の占有画素フィールド領域BSF1[0,0]ないしBSF8[0,0]、注目画素の右に隣接する画素を断面とする、サブフィールドSF1ないしSF8それぞれの8個の占有画素フィールド領域BSF1[1,0]ないしBSF8[1,0]、注目画素の上に隣接する画素を断面とする、サブフィールドSF1ないしSF8それぞれの8個の占有画素フィールド領域BSF1[0,-1]ないしBSF8[0,-1]、及び、注目画素の右上に隣接する画素を断面とする、サブフィールドSF1ないしSF8それぞれの8個の占有画素フィールド領域BSF1[1,-1]ないしBSF8[1,-1]だけを通り、他の占有画素フィールド領域を通らない。 Here, when the line-of-sight direction mv at the target pixel is represented by, for example, a motion vector (1, -1), the light amount integration region of the target pixel is a 16 × 16 pixel search range centered on the target pixel. In the subfield SF1, the region of the target pixel in the occupied pixel field region (256 × 8 occupied pixel field regions) of each of the subfields SF1 to SF8 having a cross section as a cross section is shown. Or eight occupied pixel field regions BSF1 [0,0] to BSF8 [0,0] of each of SF8, and eight subfields SF1 to SF8 each having a cross section of a pixel adjacent to the right of the target pixel. It occupied pixel field region B SF1 [1, 0] no B SF8 [1, 0], and cross-section of the pixel adjacent to the upper side of the pixel of interest, the sub-fields SF1 to SF8 each of the eight occupied pixel field Region B SF1 [0, -1] to B SF8 [0, -1], and a pixel adjacent to the upper right of the pixel of interest and cross subfields SF1 to SF8 8 amino occupied pixel field region of each B SF1 It passes only [1, -1] or BSF8 [1, -1] and does not pass through other occupied pixel field areas.

したがって、注目画素の領域を断面とする、サブフィールドSF1ないしSF8それぞれの8個の占有画素フィールド領域BSF1[0,0]ないしBSF8[0,0]のうちの、注目画素の光量積算領域が通る部分(分割立体の部分)の体積(式(5)ないし式(9)のVi)を、VSF1[0,0]ないしVSF8[0,0]と、注目画素の右に隣接する画素を断面とする、サブフィールドSF1ないしSF8それぞれの8個の占有画素フィールド領域BSF1[1,0]ないしBSF8[1,0]のうちの、注目画素の光量積算領域が通る部分の体積を、VSF1[1,0]ないしVSF8[1,0]と、注目画素の上に隣接する画素を断面とする、サブフィールドSF1ないしSF8それぞれの8個の占有画素フィールド領域BSF1[0,-1]ないしBSF8[0,-1]のうちの、注目画素の光量積算領域が通る部分の体積を、VSF1[0,-1]ないしVSF8[0,-1]と、注目画素の右上に隣接する画素を断面とする、サブフィールドSF1ないしSF8それぞれの8個の占有画素フィールド領域BSF1[1,-1]ないしBSF8[1,-1]のうちの、注目画素の光量積算領域が通る部分の体積を、VSF1[1,-1]ないしVSF8[1,-1]と、それぞれ表すこととすると、視線方向mvが、動きベクトル(1,-1)で表される、その視線方向mvに対する光量積算値テーブルでは、占有比率RSF1[0,0]ないしRSF8[0,0]が、値VSF1[0,0]/VないしVSF8[0,0]/Vに、占有比率RSF1[1,0]ないしRSF8[1,0]が、値VSF1[1,0]/VないしVSF8[1,0]/Vに、占有比率RSF1[0,-1]ないしRSF8[0,-1]が、値VSF1[0,-1]/VないしVSF8[0,-1]/Vに、占有比率RSF1[1,-1]ないしRSF8[1,-1]が、値VSF1[1,-1]/VないしVSF8[1,-1]/Vに、それぞれなっており、他の占有比率は、すべて0になっている。 Therefore, the light amount integration region of the target pixel in the eight occupied pixel field regions B SF1 [0,0] to B SF8 [0,0] of each of the subfields SF1 to SF8 having the cross section of the region of the target pixel. The volume of the part that passes through (the part of the divided solid) (V i in Expressions (5) to (9)) is adjacent to V SF1 [0,0] to V SF8 [0,0] and to the right of the target pixel Of the eight occupied pixel field regions BSF1 [1,0] to BSF8 [1,0] of each of the subfields SF1 to SF8, whose cross section is the pixel to be processed, Eight occupied pixel field regions B SF1 [ each of the subfields SF1 to SF8 having a volume of V SF1 [1,0] to V SF8 [1,0] and a cross section of a pixel adjacent to the target pixel . 0, -1] to B SF8 [0, of -1], the volume of the portion light-intensity integrating region of the pixel of interest passes, V SF1 [0, -1] to V SF8 [0, -1], And cross the pixel adjacent to the upper right eye pixels, the subfields SF1 to SF8 each of the eight occupied pixel field region B SF1 [1, -1] to B SF8 [1, -1] of the pixel of interest If the volume of the part through which the light intensity integration region passes is expressed as V SF1 [1, -1] to V SF8 [1, -1] , respectively, the line-of-sight direction mv is the motion vector (1, -1). In the light amount integrated value table represented for the line-of-sight direction mv, the occupation ratios R SF1 [0,0] to R SF8 [0,0] are values V SF1 [0,0] / V to V SF8 [0, 0] / V, the occupation ratio R SF1 [1,0] to R SF8 [1,0] is the value V SF1 [1,0] / V to V SF8 [1,0] / V, the occupation ratio R SF1 [0, -1] thru R SF8 [0, -1] have values V SF1 [0, -1] / V thru V SF8 [0, -1] / V and the occupation ratio R SF1 [1,- 1] to R SF8 [1, -1] are values V SF1 [1, -1] / V to V SF8 [1, -1] / V, respectively, and the other occupation ratios are all 0. It has become.

光量積算値テーブル記憶部303(図36)は、注目画素における視線方向mvに対する光量積算値テーブルに登録されている、8つのサブフィールドSF1ないしSF8それぞれと、256通りの相対位置[-8,-8]ないし[7,7]それぞれとの、合計で、8×256通りの占有比率を読み出し、光量積算領域選択回路304に供給する。   The light amount integrated value table storage unit 303 (FIG. 36) registers each of the eight subfields SF1 to SF8 registered in the light amount integrated value table for the line-of-sight direction mv at the target pixel and 256 relative positions [−8, − A total of 8 × 256 occupancy ratios for each of [8] to [7,7] are read and supplied to the light quantity integration region selection circuit 304.

光量積算領域選択回路304は、光量積算値テーブル記憶部303からの占有比率の中から、値が0以外の占有比率を選択し、その値が0以外の占有比率に、対応する光量SFViを乗算することで、影響光量を求める。 The light quantity integration region selection circuit 304 selects an occupation ratio with a value other than 0 from the occupation ratios from the light quantity integration value table storage unit 303, and sets the corresponding light quantity SF Vi to the occupation ratio with a value other than 0. The influence light quantity is obtained by multiplication.

なお、ここでは、光量積算領域選択回路304が、光量積算値テーブル記憶部303からの占有比率の中から、値が0以外の占有比率を選択し、その値が0以外の占有比率に、対応する光量SFViを乗算することで、影響光量を求めることとしたが、値が0の占有比率に対しては、どのような光量SFViを乗算を乗算しても、影響光量は0となるので、光量積算領域選択回路304では、光量積算値テーブル記憶部303からの占有比率の中から、値が0以外の占有比率を特に選択することなく、光量積算値テーブル記憶部303からの占有比率のそれぞれに、対応する光量SFViを乗算することで、影響光量を求めることが可能である。 Here, the light quantity integration region selection circuit 304 selects an occupation ratio with a value other than 0 from the occupation ratios from the light quantity integration value table storage unit 303, and the value corresponds to an occupation ratio with a value other than 0. The amount of influence light is calculated by multiplying the amount of light SF Vi to be used. However, for the occupation ratio of 0, the amount of influence SF is multiplied by any amount of light SF Vi. Therefore, the light quantity integration region selection circuit 304 does not particularly select an occupation ratio with a value other than 0 from the occupation ratios from the light quantity integration value table storage unit 303, and the occupation ratio from the light quantity integration value table storage unit 303. By multiplying each of these by the corresponding light amount SF Vi , it is possible to obtain the influence light amount.

次に、図38のフローチャートを参照して、図36の光量積算部300による光量の積算の処理の詳細について説明する。   Next, with reference to the flowchart of FIG. 38, the details of the light amount integration processing by the light amount integration unit 300 of FIG. 36 will be described.

ステップST1011において、注目フィールドの各画素における視線方向mvが、動き検出部100(図1)から光量積算部300の光量積算値テーブル記憶部303に供給されるとともに、注目フィールドのサブフィールドの発光パターンを表す発光制御情報SFが、サブフィールド展開部200(図1)から光量積算部300の光量積算領域選択回路304に供給される。   In step ST1011, the line-of-sight direction mv at each pixel of the field of interest is supplied from the motion detection unit 100 (FIG. 1) to the light amount integrated value table storage unit 303 of the light amount integrating unit 300, and the light emission pattern of the subfield of the field of interest Is supplied from the sub-field development unit 200 (FIG. 1) to the light amount integration region selection circuit 304 of the light amount integration unit 300.

その後、処理は、ステップST1011からステップST1012に進み、光量積算値テーブル記憶部303は、注目フィールドを構成する画素のうちの、まだ注目画素として選択していない画素の1つを、注目画素に選択して、処理は、ステップST1013に進む。   Thereafter, the process proceeds from step ST1011 to step ST1012, and the light amount integrated value table storage unit 303 selects one of the pixels constituting the target field that has not yet been selected as the target pixel as the target pixel. Then, the process proceeds to step ST1013.

ステップST1013では、光量積算値テーブル記憶部303は、動き検出部100からの視線方向mvのうちの、注目画素における視線方向mvに対する光量積算値テーブルから、そこに登録されているすべての占有比率RSF#j[x,y]を読み出して、光量積算領域選択回路304に供給し、処理は、ステップST1014に進む。 In step ST1013, the light amount integrated value table storage unit 303 stores all occupation ratios R registered therein from the light amount integrated value table for the line-of-sight direction mv of the target pixel in the line-of-sight direction mv from the motion detection unit 100. SF # j [x, y] is read out and supplied to the light quantity integration region selection circuit 304, and the process proceeds to step ST1014.

ステップST1014では、光量積算領域選択回路304は、光量積算値テーブル記憶部303からの占有比率RSF#j[x,y]に、対応する占有画素フィールド領域BSF#j[x,y]の光量SFjを乗算することで、占有画素フィールド領域BSF#j[x,y](の光量)が注目画素の画素値に影響する分の光量(影響光量)を求め、光量積算回路302に供給する。 In step ST1014, the light amount integration region selection circuit 304 sets the occupation pixel field region B SF # j [x, y] corresponding to the occupation ratio R SF # j [x, y] from the light amount integration value table storage unit 303 . By multiplying the light amount SF j , a light amount (influenced light amount) that the occupied pixel field region B SF # j [x, y] (of the light amount) affects the pixel value of the target pixel is obtained, and the light amount integrating circuit 302 is obtained. Supply.

なお、サブフィールドSF#jの占有画素フィールド領域の光量SFjは、サブフィールドSF#jが発光している場合には、そのサブフィールドSF#jの輝度の重みLとされ、サブフィールドSF#jが発光していない(非発光である)場合には、0とされる。光量積算領域選択回路304は、サブフィールドSF#jの発光/非発光を、サブフィールド展開部200(図1)から供給される発光制御情報SFが表す発光パターンから認識する。 Incidentally, the light amount SF j of the occupied pixel field region of the sub-field SF # j, when the sub-field SF # j is emitting light is the weight L of the luminance of the subfield SF # j, the sub-field SF # When j is not emitting light (non-emitting), it is set to 0. The light quantity integration region selection circuit 304 recognizes light emission / non-light emission of the subfield SF # j from the light emission pattern represented by the light emission control information SF supplied from the subfield development unit 200 (FIG. 1).

その後、処理は、ステップST1014からステップST1015に進み、光量積算回路302は、光量積算領域選択回路304からの影響光量すべてを積算することで、注目画素の画素値を求め、処理は、ステップST1016に進む。   Thereafter, the process proceeds from step ST1014 to step ST1015, and the light amount integrating circuit 302 obtains the pixel value of the target pixel by integrating all the influence light amounts from the light amount integrating region selecting circuit 304, and the process proceeds to step ST1016. move on.

ステップST1016では、光量積算領域選択回路304が、注目フィールドを構成する画素のすべてを、注目画素としたかどうかを判定する。   In step ST1016, the light amount integration region selection circuit 304 determines whether or not all of the pixels constituting the target field are the target pixels.

ステップST1016において、注目フィールドを構成する画素のすべてを、まだ、注目画素としていないと判定された場合、処理は、ステップST1012に戻り、光量積算値テーブル記憶部303は、注目フィールドを構成する画素のうちの、まだ注目画素として選択していない画素の1つを、注目画素に新たに選択し、以下、同様の処理が繰り返される。   If it is determined in step ST1016 that all of the pixels constituting the target field have not yet been set as the target pixel, the process returns to step ST1012, and the light amount integrated value table storage unit 303 stores the pixels constituting the target field. One of the pixels that has not yet been selected as the target pixel is newly selected as the target pixel, and the same processing is repeated thereafter.

また、ステップST1016において、注目フィールドを構成する画素のすべてを、注目画素としたと判定された場合、処理は、ステップST1017に進み、光量積算回路302は、注目フィールドを構成する画素のすべてを注目画素として求めた画素値からなる出力画像Voutを出力する。   If it is determined in step ST1016 that all the pixels constituting the field of interest are the pixel of interest, the process proceeds to step ST1017, and the light amount integrating circuit 302 focuses on all the pixels constituting the field of interest. An output image Vout composed of pixel values obtained as pixels is output.

次に、上述した一連の処理は、専用のハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。   Next, the series of processes described above can be performed by dedicated hardware or by software. When a series of processing is performed by software, a program constituting the software is installed in a general-purpose computer or the like.

そこで、図39は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。   Therefore, FIG. 39 shows a configuration example of an embodiment of a computer in which a program for executing the series of processes described above is installed.

プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク1105やROM1103に予め記録しておくことができる。   The program can be recorded in advance on a hard disk 1105 or a ROM 1103 as a recording medium built in the computer.

あるいはまた、プログラムは、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体1111に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体1111は、いわゆるパッケージソフトウエアとして提供することができる。   Alternatively, the program is stored temporarily on a removable recording medium 1111 such as a flexible disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto Optical) disk, a DVD (Digital Versatile Disc), a magnetic disk, or a semiconductor memory. It can be stored permanently (recorded). Such a removable recording medium 1111 can be provided as so-called package software.

なお、プログラムは、上述したようなリムーバブル記録媒体1111からコンピュータにインストールする他、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるプログラムを、通信部1108で受信し、内蔵するハードディスク1105にインストールすることができる。   The program is installed in the computer from the removable recording medium 1111 as described above, or transferred from the download site to the computer wirelessly via a digital satellite broadcasting artificial satellite, LAN (Local Area Network), The program can be transferred to a computer via a network such as the Internet, and the computer can receive the program transferred in this way by the communication unit 1108 and install it in the built-in hard disk 1105.

コンピュータは、CPU(Central Processing Unit)1102を内蔵している。CPU1102には、バス1101を介して、入出力インタフェース1110が接続されており、CPU1102は、入出力インタフェース1110を介して、ユーザによって、キーボードや、マウス、マイク等で構成される入力部1107が操作等されることにより指令が入力されると、それにしたがって、ROM(Read Only Memory)1103に格納されているプログラムを実行する。あるいは、また、CPU1102は、ハードディスク1105に格納されているプログラム、衛星若しくはネットワークから転送され、通信部1108で受信されてハードディスク1105にインストールされたプログラム、またはドライブ1109に装着されたリムーバブル記録媒体1111から読み出されてハードディスク1105にインストールされたプログラムを、RAM(Random Access Memory)1104にロードして実行する。これにより、CPU1102は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU1102は、その処理結果を、必要に応じて、例えば、入出力インタフェース1110を介して、LCD(Liquid Crystal Display)やスピーカ等で構成される出力部1106から出力、あるいは、通信部1108から送信、さらには、ハードディスク1105に記録等させる。   The computer includes a CPU (Central Processing Unit) 1102. An input / output interface 1110 is connected to the CPU 1102 via a bus 1101, and the CPU 1102 operates an input unit 1107 including a keyboard, a mouse, a microphone, and the like by the user via the input / output interface 1110. When a command is input as a result, the program stored in a ROM (Read Only Memory) 1103 is executed accordingly. Alternatively, the CPU 1102 may be a program stored in the hard disk 1105, a program transferred from a satellite or a network, received by the communication unit 1108 and installed in the hard disk 1105, or a removable recording medium 1111 attached to the drive 1109. The program read and installed in the hard disk 1105 is loaded into a RAM (Random Access Memory) 1104 and executed. Thereby, the CPU 1102 performs processing according to the above-described flowchart or processing performed by the configuration of the above-described block diagram. Then, the CPU 1102 outputs the processing result from the output unit 1106 configured with an LCD (Liquid Crystal Display), a speaker, or the like, for example, via the input / output interface 1110 as necessary, or from the communication unit 1108. Transmission and further recording on the hard disk 1105 are performed.

ここで、本明細書において、コンピュータに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。   Here, in this specification, the processing steps for describing a program for causing a computer to perform various types of processing do not necessarily have to be processed in time series according to the order described in the flowchart, but in parallel or individually. This includes processing to be executed (for example, parallel processing or processing by an object).

また、プログラムは、1のコンピュータにより処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。   Further, the program may be processed by a single computer, or may be processed in a distributed manner by a plurality of computers. Furthermore, the program may be transferred to a remote computer and executed.

なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

本発明を適用した画像処理装置の第1実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of 1st Embodiment of the image processing apparatus to which this invention is applied. 動き検出部100の構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of a motion detection unit 100. FIG. 動き検出を説明する図である。It is a figure explaining motion detection. 動き検出を説明する図である。It is a figure explaining motion detection. サブフィールド展開部200の構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of a subfield expansion unit 200. FIG. サブフィールドの構成例を示す図である。It is a figure which shows the structural example of a subfield. サブフィールドの構成例を示す図である。It is a figure which shows the structural example of a subfield. 光量積算部300の構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of a light amount integrating unit 300. FIG. 擬似輪郭の発生を説明する図である。It is a figure explaining generation | occurrence | production of a pseudo contour. 光量積算領域を示す図である。It is a figure which shows a light quantity integration area | region. 光量積算領域を示す図である。It is a figure which shows a light quantity integration area | region. 本発明を適用した画像処理装置の第2実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of 2nd Embodiment of the image processing apparatus to which this invention is applied. 階調変換部400の構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of a gradation conversion unit 400. FIG. ディザ変換回路404の動作を説明する図である。FIG. 6 is a diagram for explaining the operation of a dither conversion circuit 404. 本発明を適用した画像処理装置の第3実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of 3rd Embodiment of the image processing apparatus to which this invention is applied. 本発明を適用した画像処理装置の第4実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of 4th Embodiment of the image processing apparatus to which this invention is applied. 視覚補正部500の構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of a visual correction unit 500. FIG. ディザ補正回路501の動作を説明する図である。FIG. 6 is a diagram for explaining the operation of a dither correction circuit 501. 拡散誤差補正回路502の動作を説明する図である。FIG. 6 is a diagram for explaining the operation of a diffusion error correction circuit 502. 本発明を適用した画像処理装置の第1実施の形態の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of 1st Embodiment of the image processing apparatus to which this invention is applied. 動き検出の処理を説明するフローチャートである。It is a flowchart explaining the process of a motion detection. 画像をサブフィールドに展開する処理を説明するフローチャートである。It is a flowchart explaining the process which expand | deploys an image to a subfield. 光量を積算する処理を説明するフローチャートである。It is a flowchart explaining the process which integrates light quantity. 本発明を適用した画像処理装置の第2実施の形態の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of 2nd Embodiment of the image processing apparatus to which this invention is applied. 階調を変換する処理を説明するフローチャートである。It is a flowchart explaining the process which converts a gradation. 本発明を適用した画像処理装置の第3実施の形態の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of 3rd Embodiment of the image processing apparatus to which this invention is applied. 本発明を適用した画像処理装置の第4実施の形態の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of 4th Embodiment of the image processing apparatus to which this invention is applied. 視覚補正の処理を説明するフローチャートである。It is a flowchart explaining the process of visual correction. 表示モデルを示す図である。It is a figure which shows a display model. 表示モデルの画素を示す図である。It is a figure which shows the pixel of a display model. 表示モデルにおける光量積算領域を示す図である。It is a figure which shows the light quantity integration area | region in a display model. 断面領域を示す図である。It is a figure which shows a cross-sectional area | region. 時刻Tの経過とともに表示モデル内を移動する断面領域を示す図である。It is a figure which shows the cross-sectional area | region which moves within the display model with progress of the time T. FIG. 時刻Tの経過とともに表示モデル内を移動する断面領域を示す図である。It is a figure which shows the cross-sectional area | region which moves within the display model with progress of the time T. FIG. 光量の積算の処理を説明するフローチャートである。It is a flowchart explaining the process of integrating | accumulating light quantity. 光量積算部300の他の構成例を示すブロック図である。FIG. 10 is a block diagram illustrating another configuration example of the light amount integrating unit 300. 光量積算値テーブルを示す図である。It is a figure which shows a light quantity integrated value table. 光量の積算の処理を説明するフローチャートである。It is a flowchart explaining the process of integrating | accumulating light quantity. 本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of the computer to which this invention is applied.

符号の説明Explanation of symbols

100 動き検出部, 101 相関演算回路, 102 遅延回路, 103 視線決定回路, 200 サブフィールド展開部, 201 サブフィールド割当回路, 202 発光決定回路, 300 光量積算部, 301 光量積算領域決定回路, 302 光量積算回路, 303 光量積算値テーブル記憶部, 304 光量積算領域選択回路, 400 階調変換部, 401 遅延回路, 402 階調変換回路, 403 階調変換テーブル, 404 ディザ変換回路, 405,406 演算器 500 視覚補正部, 501 ディザ補正回路, 502 拡散誤差補正回路, 1101 バス, 1102 CPU, 1103 ROM, 1104 RAM, 1105 ハードディスク, 1106 出力部, 1107 入力部, 1108 通信部, 1109 ドライブ, 1110 入出力インタフェース, 1111 リムーバブル記録媒体   DESCRIPTION OF SYMBOLS 100 Motion detection part, 101 Correlation operation circuit, 102 Delay circuit, 103 Eye-gaze determination circuit, 200 Subfield expansion part, 201 Subfield allocation circuit, 202 Light emission determination circuit, 300 Light quantity integration part, 301 Light quantity integration area determination circuit, 302 Light quantity Integrating circuit, 303 light amount integrated value table storage unit, 304 light amount integrated region selecting circuit, 400 gradation converting unit, 401 delay circuit, 402 gradation converting circuit, 403 gradation converting table, 404 dither converting circuit, 405, 406 computing unit 500 visual correction unit, 501 dither correction circuit, 502 diffusion error correction circuit, 1101 bus, 1102 CPU, 1103 ROM, 1104 RAM, 1105 hard disk, 1106 output unit, 1107 input unit, 1108 communication unit, 11 9 Drive, 1110 output interface, 1111 removable recording medium

Claims (6)

画像を表示する第1の表示デバイスを用いて、前記第1の表示デバイスと異なる特性を有する第2の表示デバイスにおいて画像を表示した状態を再現する画像処理装置において、
入力画像信号から画像の動きを検出する動き検出手段と、
前記入力画像信号を複数のサブフィールドに展開するサブフィールド展開手段と、
前記動き検出手段において検出された動きの方向と、前記サブフィールド展開手段において展開されたサブフィールドの発光パターンから、前記第2の表示デバイスに表示された前記入力画像信号を人が見た際に、網膜に積分される光量を擬似的に算出し、その光量を画素値とする出力画像信号を生成する光量積算手段と
を有し、
前記サブフィールド展開手段は、前記入力画像信号を、画素ごとに、発光の光量が異なる複数のサブフィールドに展開し、
前記光量積算手段は、前記第2の表示デバイスにおいて前記入力画像信号を表示する表示面に垂直な方向を時間方向として、前記複数のサブフィールドを時間方向に並べた、前記第2の表示デバイスによる前記入力画像信号の表示をモデル化した表示モデルにおいて、注目している注目画素の領域を断面とし、かつ、前記注目画素の動きの方向に延びる領域を、光量の積算を行う光量積算領域として、前記光量積算領域内の光量を、前記サブフィールドの発光パターンに従って積算することにより、前記注目画素の画素値を算出するにあたり、
前記表示モデルにおいて、前記表示面の画素の領域を断面とし、かつ、時間方向に、前記サブフィールドの発光の光量に対応する長さだけ延びる領域を、画素サブフィールド領域として、前記画素サブフィールド領域内を前記光量積算領域が占める比率である占有比率に、前記画素サブフィールド領域に対応するサブフィールドの前記発光パターンに従った発光の光量を乗算することにより、前記画素サブフィールド領域が前記注目画素の画素値に影響する分の影響光量を、前記画素サブフィールド領域すべてについて求め、
前記画素サブフィールド領域すべてについて求められた前記影響光量を積算し、
動きを検出するサーチ範囲内の各画素の位置に対応する各動きごとに、前記複数のサブフィールドそれぞれについての前記占有比率が登録されたテーブルであって、前記注目画素を基準とする前記サーチ範囲内の各画素の相対位置と、各サブフィールドとについて、前記相対位置の画素の領域を断面とし、かつ、時間方向に、前記サブフィールドの発光の光量に対応する長さだけ延びる前記画素サブフィールド領域内を前記光量積算領域が占める前記占有比率が登録されているテーブルを用い、前記注目画素の動きに対する前記テーブルから、前記注目画素について、各画素サブフィールドの占有比率を求める
画像処理装置。
In an image processing apparatus for reproducing a state in which an image is displayed on a second display device having characteristics different from those of the first display device, using the first display device that displays an image,
Motion detection means for detecting the motion of the image from the input image signal;
Subfield expansion means for expanding the input image signal into a plurality of subfields;
When the person views the input image signal displayed on the second display device from the direction of movement detected by the motion detection means and the light emission pattern of the subfield developed by the subfield development means. , the amount of light integrated on the retina artificially calculated, have a light quantity integrating means for generating an output image signal for the amount of light as the pixel value,
The subfield expansion means expands the input image signal into a plurality of subfields having different light emission amounts for each pixel,
In the second display device, the light amount integrating unit includes the plurality of subfields arranged in the time direction with a direction perpendicular to a display surface on which the input image signal is displayed in the second display device as a time direction. In the display model in which the display of the input image signal is modeled, a region of the target pixel of interest is a cross section, and a region extending in the direction of movement of the target pixel is used as a light amount integration region for integrating the amount of light. In calculating the pixel value of the target pixel by integrating the light amount in the light amount integration region according to the light emission pattern of the subfield,
In the display model, the pixel subfield region is defined as a pixel subfield region in which a region of the pixel on the display surface is a cross section and extends in the time direction by a length corresponding to the light emission amount of the subfield. The pixel subfield region is multiplied by the light emission amount according to the light emission pattern of the subfield corresponding to the pixel subfield region to the occupation ratio that is the ratio occupied by the light amount integration region in the pixel subfield region. For each of the pixel subfield regions, the amount of influence light that affects the pixel value of
Accumulating the influence light amount obtained for all the pixel subfield regions,
A table in which the occupation ratio for each of the plurality of subfields is registered for each motion corresponding to the position of each pixel in the search range for detecting motion, and the search range based on the target pixel The pixel subfield of the relative position of each of the pixels and each subfield is a cross section of the region of the pixel at the relative position and extends in the time direction by a length corresponding to the light emission amount of the subfield An image processing apparatus for obtaining an occupation ratio of each pixel subfield for the target pixel from the table for the movement of the target pixel, using a table in which the occupation ratio occupied by the light amount integration area in the area is registered .
前記第1の表示デバイスは、PDP(Plasma Display Panel)以外の表示デバイスである
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the first display device is a display device other than a PDP (Plasma Display Panel).
前記第1の表示デバイスは、CRT(Cathode Ray Tube),LCD(Liquid Crystal Display)、有機EL(Electroluminescence)、又はプロジェクタである
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the first display device is a CRT (Cathode Ray Tube), an LCD (Liquid Crystal Display), an organic EL (Electroluminescence), or a projector.
前記第2の表示デバイスは、PDP(Plasma Display Panel)である
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the second display device is a PDP (Plasma Display Panel).
画像を表示する第1の表示デバイスを用いて、前記第1の表示デバイスと異なる特性を有する第2の表示デバイスにおいて画像を表示した状態を再現する画像処理方法において、
入力画像信号から画像の動きを検出する動き検出ステップと
前記入力画像信号を複数のサブフィールドに展開するサブフィールド展開ステップと
前記動き検出ステップにおいて検出された動きの方向と、前記サブフィールド展開ステップにおいて展開されたサブフィールドの発光パターンから、前記第2の表示デバイスに表示された前記入力画像信号を人が見た際に、網膜に積分される光量を擬似的に算出し、その光量を画素値とする出力画像信号を生成する光量積算ステップと
み、
前記サブフィールド展開ステップは、前記入力画像信号を、画素ごとに、発光の光量が異なる複数のサブフィールドに展開し、
前記光量積算ステップは、前記第2の表示デバイスにおいて前記入力画像信号を表示する表示面に垂直な方向を時間方向として、前記複数のサブフィールドを時間方向に並べた、前記第2の表示デバイスによる前記入力画像信号の表示をモデル化した表示モデルにおいて、注目している注目画素の領域を断面とし、かつ、前記注目画素の動きの方向に延びる領域を、光量の積算を行う光量積算領域として、前記光量積算領域内の光量を、前記サブフィールドの発光パターンに従って積算することにより、前記注目画素の画素値を算出するにあたり、
前記表示モデルにおいて、前記表示面の画素の領域を断面とし、かつ、時間方向に、前記サブフィールドの発光の光量に対応する長さだけ延びる領域を、画素サブフィールド領域として、前記画素サブフィールド領域内を前記光量積算領域が占める比率である占有比率に、前記画素サブフィールド領域に対応するサブフィールドの前記発光パターンに従った発光の光量を乗算することにより、前記画素サブフィールド領域が前記注目画素の画素値に影響する分の影響光量を、前記画素サブフィールド領域すべてについて求め、
前記画素サブフィールド領域すべてについて求められた前記影響光量を積算し、
動きを検出するサーチ範囲内の各画素の位置に対応する各動きごとに、前記複数のサブフィールドそれぞれについての前記占有比率が登録されたテーブルであって、前記注目画素を基準とする前記サーチ範囲内の各画素の相対位置と、各サブフィールドとについて、前記相対位置の画素の領域を断面とし、かつ、時間方向に、前記サブフィールドの発光の光量に対応する長さだけ延びる前記画素サブフィールド領域内を前記光量積算領域が占める前記占有比率が登録されているテーブルを用い、前記注目画素の動きに対する前記テーブルから、前記注目画素について、各画素サブフィールドの占有比率を求める
画像処理方法。
In an image processing method for reproducing a state in which an image is displayed on a second display device having a characteristic different from that of the first display device, using the first display device that displays an image,
A motion detection step for detecting the motion of the image from the input image signal;
A sub-field expansion step of expanding the input image signal into a plurality of sub-fields;
When a person views the input image signal displayed on the second display device from the direction of motion detected in the motion detection step and the light emission pattern of the subfield developed in the subfield development step. A light amount integrating step for artificially calculating a light amount integrated into the retina and generating an output image signal having the light amount as a pixel value ;
Only including,
The sub-field expanding step expands the input image signal into a plurality of sub-fields having different light emission amounts for each pixel,
The light amount integrating step is performed by the second display device in which the second display device has the plurality of subfields arranged in the time direction, with the direction perpendicular to the display surface displaying the input image signal as the time direction. In the display model in which the display of the input image signal is modeled, a region of the target pixel of interest is a cross section, and a region extending in the direction of movement of the target pixel is used as a light amount integration region for integrating the amount of light. In calculating the pixel value of the target pixel by integrating the light amount in the light amount integration region according to the light emission pattern of the subfield,
In the display model, the pixel subfield region is defined as a pixel subfield region in which a region of the pixel on the display surface is a cross section and extends in the time direction by a length corresponding to the light emission amount of the subfield. The pixel subfield region is multiplied by the light emission amount according to the light emission pattern of the subfield corresponding to the pixel subfield region to the occupation ratio that is the ratio occupied by the light amount integration region in the pixel subfield region. For each of the pixel subfield regions, the amount of influence light that affects the pixel value of
Accumulating the influence light amount obtained for all the pixel subfield regions,
A table in which the occupation ratio for each of the plurality of subfields is registered for each motion corresponding to the position of each pixel in the search range for detecting motion, and the search range based on the target pixel The pixel subfield of the relative position of each of the pixels and each subfield is a cross section of the region of the pixel at the relative position and extends in the time direction by a length corresponding to the light emission amount of the subfield An image processing method for obtaining an occupancy ratio of each pixel subfield for the target pixel from the table for the movement of the target pixel, using a table in which the occupancy ratio occupied by the light amount integration area in the area is registered .
画像を表示する第1の表示デバイスを用いて、前記第1の表示デバイスと異なる特性を有する第2の表示デバイスにおいて画像を表示した状態を再現する画像処理装置として、コンピュータを機能させるプログラムにおいて、
入力画像信号から画像の動きを検出する動き検出手段と、
前記入力画像信号を複数のサブフィールドに展開するサブフィールド展開手段と、
前記動き検出手段において検出された動きの方向と、前記サブフィールド展開手段において展開されたサブフィールドの発光パターンから、前記第2の表示デバイスに表示された前記入力画像信号を人が見た際に、網膜に積分される光量を擬似的に算出し、その光量を画素値とする出力画像信号を生成する光量積算手段と
して、コンピュータを機能させるプログラムであり、
前記サブフィールド展開手段は、前記入力画像信号を、画素ごとに、発光の光量が異なる複数のサブフィールドに展開し、
前記光量積算手段は、前記第2の表示デバイスにおいて前記入力画像信号を表示する表示面に垂直な方向を時間方向として、前記複数のサブフィールドを時間方向に並べた、前記第2の表示デバイスによる前記入力画像信号の表示をモデル化した表示モデルにおいて、注目している注目画素の領域を断面とし、かつ、前記注目画素の動きの方向に延びる領域を、光量の積算を行う光量積算領域として、前記光量積算領域内の光量を、前記サブフィールドの発光パターンに従って積算することにより、前記注目画素の画素値を算出するにあたり、
前記表示モデルにおいて、前記表示面の画素の領域を断面とし、かつ、時間方向に、前記サブフィールドの発光の光量に対応する長さだけ延びる領域を、画素サブフィールド領域として、前記画素サブフィールド領域内を前記光量積算領域が占める比率である占有比率に、前記画素サブフィールド領域に対応するサブフィールドの前記発光パターンに従った発光の光量を乗算することにより、前記画素サブフィールド領域が前記注目画素の画素値に影響する分の影響光量を、前記画素サブフィールド領域すべてについて求め、
前記画素サブフィールド領域すべてについて求められた前記影響光量を積算し、
動きを検出するサーチ範囲内の各画素の位置に対応する各動きごとに、前記複数のサブフィールドそれぞれについての前記占有比率が登録されたテーブルであって、前記注目画素を基準とする前記サーチ範囲内の各画素の相対位置と、各サブフィールドとについて、前記相対位置の画素の領域を断面とし、かつ、時間方向に、前記サブフィールドの発光の光量に対応する長さだけ延びる前記画素サブフィールド領域内を前記光量積算領域が占める前記占有比率が登録されているテーブルを用い、前記注目画素の動きに対する前記テーブルから、前記注目画素について、各画素サブフィールドの占有比率を求める
プログラム
In a program for causing a computer to function as an image processing apparatus that reproduces a state in which an image is displayed on a second display device having characteristics different from those of the first display device, using the first display device that displays an image.
Motion detection means for detecting the motion of the image from the input image signal;
Subfield expansion means for expanding the input image signal into a plurality of subfields;
When the person views the input image signal displayed on the second display device from the direction of movement detected by the motion detection means and the light emission pattern of the subfield developed by the subfield development means. , A program for causing a computer to function as a light amount integrating unit that artificially calculates a light amount integrated into the retina and generates an output image signal having the light amount as a pixel value ;
The subfield expansion means expands the input image signal into a plurality of subfields having different light emission amounts for each pixel,
In the second display device, the light amount integrating unit includes the plurality of subfields arranged in the time direction with a direction perpendicular to a display surface on which the input image signal is displayed in the second display device as a time direction. In the display model in which the display of the input image signal is modeled, a region of the target pixel of interest is a cross section, and a region extending in the direction of movement of the target pixel is used as a light amount integration region for integrating the amount of light. In calculating the pixel value of the target pixel by integrating the light amount in the light amount integration region according to the light emission pattern of the subfield,
In the display model, the pixel subfield region is defined as a pixel subfield region in which a region of the pixel on the display surface is a cross section and extends in the time direction by a length corresponding to the light emission amount of the subfield. The pixel subfield region is multiplied by the light emission amount according to the light emission pattern of the subfield corresponding to the pixel subfield region to the occupation ratio that is the ratio occupied by the light amount integration region in the pixel subfield region. For each of the pixel subfield regions, the amount of influence light that affects the pixel value of
Accumulating the influence light amount obtained for all the pixel subfield regions,
A table in which the occupation ratio for each of the plurality of subfields is registered for each motion corresponding to the position of each pixel in the search range for detecting motion, and the search range based on the target pixel The pixel subfield of the relative position of each of the pixels and each subfield is a cross section of the region of the pixel at the relative position and extends in the time direction by a length corresponding to the light emission amount of the subfield Using a table in which the occupation ratio occupied by the light amount integration area in the area is registered, the occupation ratio of each pixel subfield is obtained for the target pixel from the table for the movement of the target pixel.
Program .
JP2007221274A 2006-12-18 2007-08-28 Image processing apparatus, image processing method, and program Expired - Fee Related JP5029892B2 (en)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP2007221274A JP5029892B2 (en) 2007-02-23 2007-08-28 Image processing apparatus, image processing method, and program
TW096138537A TWI394121B (en) 2006-12-18 2007-10-15 An image processing apparatus, an image processing method, and a recording medium
KR1020097012552A KR20090096606A (en) 2006-12-18 2007-12-18 Image processing device, image processing method, and program
PCT/JP2007/074261 WO2008075659A1 (en) 2006-12-18 2007-12-18 Image processing device, image processing method, and program
CN2007800469262A CN101589419B (en) 2006-12-18 2007-12-18 Image processing device, image processing method
BRPI0720515-5A BRPI0720515A2 (en) 2006-12-18 2007-12-18 IMAGE PROCESSING DEVICE AND METHOD, AND, PROGRAM
AU2007335488A AU2007335488B2 (en) 2006-12-18 2007-12-18 Image processing device, image processing method, and program
EP07850749A EP2101310A4 (en) 2006-12-18 2007-12-18 Image processing device, image processing method, and program
US12/518,649 US8363071B2 (en) 2006-12-18 2007-12-18 Image processing device, image processing method, and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007043161 2007-02-23
JP2007043161 2007-02-23
JP2007221274A JP5029892B2 (en) 2007-02-23 2007-08-28 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2008233852A JP2008233852A (en) 2008-10-02
JP5029892B2 true JP5029892B2 (en) 2012-09-19

Family

ID=39906659

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007221274A Expired - Fee Related JP5029892B2 (en) 2006-12-18 2007-08-28 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5029892B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3425083B2 (en) * 1997-07-24 2003-07-07 松下電器産業株式会社 Image display device and image evaluation device
JP3414265B2 (en) * 1997-11-18 2003-06-09 松下電器産業株式会社 Multi-tone image display device
JP2001083926A (en) * 1999-09-09 2001-03-30 Sharp Corp Animation false contour compensating method, and image display device using it

Also Published As

Publication number Publication date
JP2008233852A (en) 2008-10-02

Similar Documents

Publication Publication Date Title
TWI394121B (en) An image processing apparatus, an image processing method, and a recording medium
KR100595077B1 (en) Image display apparatus
JP4649108B2 (en) Image display device and image display method
JP2005321775A (en) Display device
JPH11231827A (en) Image display device and image evaluating device
JP2005301273A (en) Display apparatus and control method thereof
JP5141043B2 (en) Image display device and image display method
JP5029892B2 (en) Image processing apparatus, image processing method, and program
JP4264052B2 (en) Plasma display panel driving apparatus, plasma display panel image processing method, and plasma display panel
JP5061439B2 (en) Video signal processing apparatus and video signal processing method
JPH1138932A (en) Image display device
JP2001051641A (en) Method and device for displaying gradation
JP3697681B2 (en) Gradation display method and gradation display device
JP2001042819A (en) Method and device for gradation display
JP2003177696A (en) Device and method for display
KR100578917B1 (en) A driving apparatus of plasma display panel, a method for processing pictures on plasma display panel and a plasma display panel
JP2009103889A (en) Image display device and image display method
KR100578918B1 (en) A driving apparatus of plasma display panel and a method for processing pictures on plasma display panel
JP2003162247A (en) Image evaluation apparatus
WO2009090735A1 (en) Motion vector detection method and device, plasma display panel driving method, and plasma display device
KR20030020177A (en) Gray Scale Display Method for Plasma Display Panel and Apparatus thereof
JPH10254403A (en) Dynamic picture correcting circuit for display device
JP2010032562A (en) Moving image display device and moving image display method
JP2002032054A (en) Display device and display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120410

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120531

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120613

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150706

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees