JP2009168975A - Image processing method, image processor, and image processing program - Google Patents

Image processing method, image processor, and image processing program Download PDF

Info

Publication number
JP2009168975A
JP2009168975A JP2008005320A JP2008005320A JP2009168975A JP 2009168975 A JP2009168975 A JP 2009168975A JP 2008005320 A JP2008005320 A JP 2008005320A JP 2008005320 A JP2008005320 A JP 2008005320A JP 2009168975 A JP2009168975 A JP 2009168975A
Authority
JP
Japan
Prior art keywords
image data
color space
image
frames
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008005320A
Other languages
Japanese (ja)
Inventor
Kazuki Nagai
数樹 永井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2008005320A priority Critical patent/JP2009168975A/en
Publication of JP2009168975A publication Critical patent/JP2009168975A/en
Withdrawn legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To suppress deterioration of image quality by performing frame interpolation and to make it possible to compress image data by a small amount of operations. <P>SOLUTION: This image processing method includes a color space conversion step into a second color space of converting image data in a first color space having predetermined tristimulus values into image data in the second color space having predetermined three stimulus values using a plurality of frames of image data corresponding to an image to be displayed as a processing unit, wherein in the color space conversion step to the second color space, image data with a stimulus value regarding an element influencing human eyes most of the image data with the tristimulus values in the second color space is obtained for each frame of the plurality of frames to be the processing unit, and image data with other stimulus values is obtained in a certain frame of the plurality of frames to be the processing unit. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像処理方法、画像処理装置及び画像処理プログラムに関する。   The present invention relates to an image processing method, an image processing apparatus, and an image processing program.

プロジェクタなどの画像表示機器において動画像を表示する際、動画像の視認性を高めるために、2つのフレームから中間画像データを生成して、フレームレートを高めた画像表示を行う技術が様々提案されている(例えば、特許文献1参照)。特許文献1に開示された技術(第1従来技術という)は、フリッカのない滑らかな動画像の表示を可能とするものである。   Various techniques for generating intermediate image data from two frames and displaying an image at an increased frame rate have been proposed to improve the visibility of moving images when displaying moving images on image display devices such as projectors. (For example, refer to Patent Document 1). The technique disclosed in Patent Document 1 (referred to as the first conventional technique) enables a smooth moving image display without flicker.

また、逆に高いフレームレートの動画像データを圧縮して伝送能力の低いハードウエアによって構成された画像表示システムにおいても動画像の再生を可能とする技術も様々提案されている(例えば特許文献2参照)。特許文献2に開示された技術(従来技術という)は、画像データの圧縮に伴う画像の劣化の抑制を可能とするとともに、高い圧縮率で安定した画像圧縮を可能とするものである。   On the other hand, various techniques have also been proposed for enabling playback of moving images even in an image display system configured by hardware with low transmission capability by compressing moving image data at a high frame rate (for example, Patent Document 2). reference). The technique (referred to as the prior art) disclosed in Patent Document 2 enables suppression of image degradation accompanying compression of image data and enables stable image compression at a high compression rate.

特開2003−69961号公報Japanese Patent Laid-Open No. 2003-69691 特開平8−265755号公報JP-A-8-265755

第1従来技術のように中間画像を生成してフレーム補間を行うことにより、フレームレートを高くすることができ、滑らかな動画像の表示が可能となるが、単にフレーム補間を行うだけでは、画質の面で課題が残る場合もある。例えば、ある特定の色成分に対応する画像データのフレームを挿入するというようなフレーム補間を行なった場合、偽色が発生し、それが画質を劣化させる要因ともなる場合がある。   By generating an intermediate image and performing frame interpolation as in the first prior art, the frame rate can be increased and a smooth moving image can be displayed. However, by simply performing frame interpolation, the image quality is improved. In some cases, there are still issues. For example, when frame interpolation is performed such that a frame of image data corresponding to a specific color component is inserted, a false color is generated, which may cause deterioration in image quality.

また、第2従来技術は、画像を複数の小ブロックに分割して、分割されたブロックごとに離散コサイン変換などを行うようにしている。このため、画像圧縮のための演算量が多く、演算も複雑となるといった問題がある。また、画像をブロックに分割して処理を行うことにより、いわゆるブロックノイズが発生し、それが画質の低下を招く原因ともなる場合がある。   In the second prior art, an image is divided into a plurality of small blocks, and discrete cosine transform or the like is performed for each of the divided blocks. For this reason, there is a problem that the amount of calculation for image compression is large and the calculation is complicated. Further, when processing is performed by dividing an image into blocks, so-called block noise is generated, which may cause deterioration in image quality.

本発明は、フレーム補間を行うことによる画質の劣化を抑制するとともに、少ない演算量で画像データ圧縮をも可能とする画像処理方法、画像処置装置及び画像処理プログラムを提供することを目的とする。   An object of the present invention is to provide an image processing method, an image processing apparatus, and an image processing program that can suppress image quality deterioration due to frame interpolation and that can also compress image data with a small amount of calculation.

本発明の画像処理方法は、表示すべき画像に対応する画像データの複数フレームを処理単位として、所定の3刺激値を有する第1色空間の画像データから所定の3刺激値を有する第2色空間の画像データへ変換する第2色空間への色空間変換ステップを有し、前記第2色空間への色空間変換ステップは、前記第2色空間の3刺激値の画像データうち、人間の目に最も影響を与える要素に関する刺激値の画像データについては、前記処理単位となる複数フレームの各フレームごとに求め、その他の刺激値の画像データについては、前記処理単位となる複数フレームのある1つのフレームにおいて求めることを特徴とする。   In the image processing method of the present invention, the second color having a predetermined tristimulus value from the image data of the first color space having a predetermined tristimulus value, with a plurality of frames of image data corresponding to the image to be displayed as a processing unit. A color space conversion step to a second color space for conversion to image data of the space, wherein the color space conversion step to the second color space includes human image data of tristimulus values in the second color space. The stimulus value image data relating to the element that most affects the eye is obtained for each frame of the plurality of frames serving as the processing unit, and the other stimulus value image data includes a plurality of frames serving as the processing unit. It is obtained in one frame.

このように、本発明の画像処理方法は、人間の目に最も影響を与える要素に関する刺激
値の画像データについては、前記処理単位となる複数フレームの各フレームごとに求め、その他の刺激値の画像データについては、前記処理単位となる複数フレームのある1つのフレームにおいて求めるようにしている。このような処理を行うことによって、3つの刺激値のうちの2つの刺激値の画像データのデータ量を削減することができ、表示すべき画像に対応する画像データ全体のデータ量を圧縮することができる。これによって、低い転送レートで画像データを転送することが可能となり、伝送能力の低いハードウエアで構成された画像表示システムにおいても動画像の表示が可能となる。
As described above, according to the image processing method of the present invention, the stimulation value image data relating to the element that most affects the human eye is obtained for each frame of the plurality of frames serving as the processing unit, and images of other stimulation values are obtained. Data is obtained in one frame having a plurality of frames as the processing unit. By performing such processing, it is possible to reduce the amount of image data of two stimulus values out of the three stimulus values, and to compress the data amount of the entire image data corresponding to the image to be displayed. Can do. As a result, image data can be transferred at a low transfer rate, and a moving image can be displayed even in an image display system configured with hardware having a low transmission capability.

また、本発明の画像処理方法は、画像データ圧縮を行う際に、画像を複数の小ブロックに分割する処理を行わないので、ブロックノイズによる画質劣化がなく、また、離散コサイン変換などの複雑な演算は行わないので、少ない演算量で画像データ圧縮が可能となる。   Further, the image processing method of the present invention does not perform processing for dividing an image into a plurality of small blocks when performing image data compression, so there is no image quality degradation due to block noise, and complex cosine transformation such as discrete cosine transform is performed. Since no calculation is performed, the image data can be compressed with a small calculation amount.

本発明の画像処理方法において、前記第1色空間以外の色空間の画像データを前記処理単位となる複数フレームの各フレームごとに前記第1色空間の画像データに変換する第1色空間への色空間変換ステップを有し、前記変換された第1色空間の画像データを前記第2色空間への色空間変換ステップに入力することが好ましい。
このような第1色空間変換ステップを有することによって、表示すべき画像に対応する画像データが第1色空間以外の色空間を有する場合にも対応可能となる。
In the image processing method of the present invention, image data in a color space other than the first color space is converted into image data in the first color space for each of a plurality of frames as the processing unit. Preferably, a color space conversion step is included, and the converted image data of the first color space is input to the color space conversion step to the second color space.
By including such a first color space conversion step, it is possible to cope with a case where image data corresponding to an image to be displayed has a color space other than the first color space.

本発明の画像処理方法において、前記第2色空間への色空間変換ステップにより変換された第2色空間の画像データを出力する画像データ出力ステップを有することが好ましい。
これによって、第2色空間変換ステップによって第2色空間に変換された画像データを画像表示装置などに出力することができる。
The image processing method of the present invention preferably includes an image data output step of outputting the image data of the second color space converted by the color space conversion step to the second color space.
As a result, the image data converted into the second color space by the second color space conversion step can be output to an image display device or the like.

また、本発明の画像処理方法において、前記第1色空間は、輝度(Y)と色差(Cb,Cr)とで表されるYCbCr色空間、前記第2色空間は、赤(R)、緑(G),青(B)とで表されるRGB色空間であって、前記第2色空間への色空間変換ステップは、前記Gの画像データについては、前記処理単位となる複数フレームの各フレームごとに求め、前記R及びBのそれぞれの画像データについては、前記処理単位となる複数フレームのある1つのフレームにおいて求めることが好ましい。   In the image processing method of the present invention, the first color space is a YCbCr color space represented by luminance (Y) and color difference (Cb, Cr), and the second color space is red (R), green. (G), an RGB color space represented by blue (B), and the color space conversion step to the second color space includes, for the G image data, each of a plurality of frames serving as the processing unit. It is determined for each frame, and it is preferable that the image data of R and B is determined in one frame having a plurality of frames as the processing unit.

本発明の画像処理方法においては、第2色空間への色空間変換ステップは、YCbCr色空間の画像データをRGB色空間の画像データに変換する処理を行うものである。このような色空間変換処理を行うことにより、人間の目に最も影響を与えるY(輝度)成分をR及びBにも分散して与えることができる。これにより、例えば、Gに対応する画像データのフレームの補間を行うことによって、Gに対応する画像データのフレームレートをR及びBに対応する画像データに対して高くするような処理を行った場合に発生する可能性のある偽色を抑制することができる。このように、本発明の画像処理方法によれば、ある特定の色成分に対応する画像データのフレームを挿入するというようなフレーム補間を行なった場合発生する可能性のある偽色を抑制することができ、画質の向上に寄与できる。   In the image processing method of the present invention, the color space conversion step to the second color space performs a process of converting the image data in the YCbCr color space into image data in the RGB color space. By performing such a color space conversion process, the Y (luminance) component that most affects the human eye can be distributed to R and B as well. Thus, for example, when processing is performed to increase the frame rate of image data corresponding to G with respect to image data corresponding to R and B by performing interpolation of the frame of image data corresponding to G It is possible to suppress false colors that may occur. Thus, according to the image processing method of the present invention, it is possible to suppress false colors that may occur when frame interpolation is performed such as inserting a frame of image data corresponding to a specific color component. Can contribute to the improvement of image quality.

本発明の画像処理方法において、前記第2色空間への色空間変換ステップでは、前記Rの画像データは、前記処理単位となる複数フレームのうちのある特定のフレームにおけるYの値と、前記処理単位となる複数フレームの各フレームのCrの値を平均したCrの平均値とに基づいて求め、前記Gの画像データは、前記処理単位となる複数フレームのうちのある特定のフレームにおけるYの値と、前記処理単位となる複数フレームの各フレームにおけるCbの値及び各フレームにおけるCrの値とに基づいて求め、前記Bの画像データは、前記処理単位となる複数フレームのうちのある特定のフレームにおけるYの値と、
前記処理単位となる複数フレームの各フレームのCbの値を平均したCbの平均値とに基づいて求めることが好ましい。
In the image processing method of the present invention, in the color space conversion step to the second color space, the R image data includes a Y value in a specific frame of the plurality of frames serving as the processing unit, and the processing. The G image data is obtained based on the average value of Cr obtained by averaging the Cr values of each frame of the plurality of frames serving as a unit, and the Y value in a specific frame among the plurality of frames serving as the processing unit. And the image data of B is a specific frame of the plurality of frames serving as the processing unit, based on the value of Cb in each frame of the plurality of frames serving as the processing unit and the value of Cr in each frame. The value of Y at
It is preferable to obtain it based on the average value of Cb obtained by averaging the Cb values of the respective frames of the plurality of frames serving as the processing unit.

これは、YCbCr色空間からRGB色空間への色空間変換処理を行う場合において、動きの再現性を優先とした場合の色空間変換処理であり、動きの再現性を優先とする場合、Y(輝度)の平均値ではなく、ある特定のフレーム(例えば、処理単位となる複数フレームの先頭フレームなど)において求められた輝度(Y)を用いるようにしている。このように、ある特定のフレームにおいて求められた輝度(Y)を用いることにより、動きの再現性を優先した画像データとすることができる。   This is color space conversion processing when priority is given to motion reproducibility when performing color space conversion processing from the YCbCr color space to the RGB color space. When priority is given to motion reproducibility, Y ( Instead of the average value of luminance, the luminance (Y) obtained in a specific frame (for example, the first frame of a plurality of frames as a processing unit) is used. As described above, by using the luminance (Y) obtained in a specific frame, it is possible to obtain image data giving priority to motion reproducibility.

本発明の画像処理方法において、前記第2色空間への色空間変換ステップでは、前記Rの画像データは、前記処理単位となる複数フレームの各フレームのYの値を平均したYの平均値と、前記処理単位となる複数フレームの各フレームのCrの値を平均したCrの平均値とに基づいて求め、前記Gの画像データは、前記処理単位となる複数フレームの各フレームのYの値を平均したYの平均値と、前記処理単位となる複数フレームの各フレームにおけるCbの値及び各フレームにおけるCrの値とに基づいて求め、前記Bの画像データは、前記処理単位となる複数フレームの各フレームのYの値を平均したYの平均値と、前記処理単位となる複数フレームの各フレームのCbの値を平均したCbの平均値とに基づいて求めることが好ましい。   In the image processing method of the present invention, in the color space conversion step to the second color space, the R image data includes an average value of Y obtained by averaging the Y values of each frame of the plurality of frames serving as the processing unit. And the average value of Cr obtained by averaging the Cr values of each frame of the plurality of frames serving as the processing unit, and the G image data is obtained by calculating the Y value of each frame of the plurality of frames serving as the processing unit. The average value of Y is obtained based on the Cb value in each frame of the plurality of frames serving as the processing unit and the Cr value in each frame, and the B image data is obtained from the plurality of frames serving as the processing unit. It is preferable to obtain the average value of Y obtained by averaging the Y values of the respective frames and the average value of Cb obtained by averaging the Cb values of the respective frames of the plurality of frames serving as the processing unit.

これは、YCbCr色空間からRGB色空間への色空間変換処理を行う場合において、色の再現性を優先とした場合の色空間変換処理であり、このような色空間変換処理によってRGB色空間における赤(R)、緑(G)及び青(B)に対応する画像データを生成することにより、生成された画像データは偽色の発生を抑制した画像データとなる。このように、色の再現性を優先する場合、Y(輝度)については平均値を用いることによって原画像に近い色とすることができる。   This is a color space conversion process when priority is given to color reproducibility when performing a color space conversion process from the YCbCr color space to the RGB color space. By generating image data corresponding to red (R), green (G), and blue (B), the generated image data becomes image data in which generation of false colors is suppressed. As described above, when priority is given to color reproducibility, a color close to the original image can be obtained by using an average value for Y (luminance).

本発明の画像処理方法において、前記表示すべき画像に対応する画像データの各フレームが、画像ソースから供給される基の画像データのフレームレートに対してm(mは2以上の整数)倍のフレームレートとなるようなフレーム補間が行われていた場合、前記処理単位となるフレームの数は、前記mとすることが好ましい。   In the image processing method of the present invention, each frame of the image data corresponding to the image to be displayed is m (m is an integer of 2 or more) times the frame rate of the base image data supplied from the image source. When frame interpolation is performed so as to achieve a frame rate, the number of frames serving as the processing unit is preferably set to m.

これは、緑(G)については、中間画像データを生成して、緑(G)に対応する画像データのフレームレートを赤(R)及び青(B)に対応する画像データのフレームレートのm倍として画像表示を行うような場合であり、このような場合、処理単位となるフレーム数をmとするということである。このようにして処理単位となるフレーム数を設定して本発明の画像処理方法を実行することにより、緑(G)に対応する画像データのフレームレートを赤(R)及び青(B)に対応する画像データに対して高くするような処理を行った場合に発生する可能性のある偽色を抑制することができる。   For green (G), intermediate image data is generated, and the frame rate of image data corresponding to green (G) is set to m of the frame rate of image data corresponding to red (R) and blue (B). In this case, the number of frames as a processing unit is set to m. In this way, by setting the number of frames as a processing unit and executing the image processing method of the present invention, the frame rate of the image data corresponding to green (G) corresponds to red (R) and blue (B). It is possible to suppress false colors that may occur when processing for increasing the image data is performed.

本発明の画像処理方法において、前記表示すべき画像に対応する画像データは、プロジェクタに与えられる画像データであって、前記プロジェクタは、光源からの色光を画像データに基づいて変調する3つの光変調素子を有し、当該3つの光変調素子で変調された各色光を合成して第1画像光として射出する第1画像形成手段と、光源からの色光を画像データに基づいて変調する3つの光変調素子を有し、当該3つの光変調素子で変調された各色光を合成して第2画像光として射出する第2画像形成手段と、前記第1画像形成手段及び第2画像形成手段から射出される前記第1画像光及び第2画像光を合成する偏光合成光学系と、前記偏光合成光学系で合成された画像光を投射面に投射する投射光学系とを備え、前記第1画像形成手段及び第2画像形成手段に設けられる合計6つの光変調素子のうち、4つの光変調素子は緑色光に対応する光変調素子、残りの2つの光変調素子は赤色光及
び青色光に対応する光変調素子として用いられ、前記緑色光に対応する4つの光変調素子で変調された各色光が前記画像データの各フレーム内において所定時間だけずれて順次射出されるように前記光源及び前記緑色光に対応する4つの光変調素子が制御されるプロジェクタであることが好ましい。
In the image processing method of the present invention, the image data corresponding to the image to be displayed is image data given to the projector, and the projector modulates the color light from the light source based on the image data. A first image forming unit that has an element, synthesizes the respective color lights modulated by the three light modulation elements and emits the first image light, and three lights that modulate the color light from the light source based on the image data A second image forming unit that has a modulation element, synthesizes the respective color lights modulated by the three light modulation elements, and emits the second image light; and the first image forming unit and the second image forming unit The first image formation comprising: a polarization combining optical system that combines the first image light and the second image light; and a projection optical system that projects the image light combined by the polarization combining optical system onto a projection surface. Means and number Of the total six light modulation elements provided in the image forming means, four light modulation elements are light modulation elements corresponding to green light, and the remaining two light modulation elements are light modulation elements corresponding to red light and blue light. 4 corresponding to the light source and the green light are used so that each color light modulated by the four light modulation elements corresponding to the green light is sequentially emitted with a predetermined time shift in each frame of the image data. Preferably, the projector is one in which two light modulation elements are controlled.

これは、2つの画像形成手段(第1画像形成手段及び第2画像形成手段)と1つの投射光学系とを有するプロジェクタに本発明の画像処理方法を適用した場合である。このようなプロジェクタは、第1画像形成手段及び第2画像形成手段のそれぞれに3個ずつの合計6個の光変調素子(液晶パネルなど)を有するものであり、これら6個の光変調素子のうち、4つを青(G)に対応する光変調素子として使用し、緑(G)に対応する画像データを赤(R)及び青(B)に対応する画像データに対して4倍のフレームレートで表示可能とするものである。このようなプロジェクタにおいて、単に緑(G)に対応する画像データのフレームの挿入によるフレーム補間を行うだけでは、偽色が発生する場合があるが、本発明の画像処理方法を適用することによって、偽色の発生を抑制することができる。   This is a case where the image processing method of the present invention is applied to a projector having two image forming means (first image forming means and second image forming means) and one projection optical system. Such a projector has a total of six light modulation elements (such as a liquid crystal panel) in each of the first image forming means and the second image forming means. Of these, four are used as light modulation elements corresponding to blue (G), and image data corresponding to green (G) is four times as many frames as image data corresponding to red (R) and blue (B). It is possible to display at a rate. In such a projector, false interpolation may occur by simply performing frame interpolation by inserting a frame of image data corresponding to green (G). By applying the image processing method of the present invention, Generation of false colors can be suppressed.

本発明の画像処理装置は、表示すべき画像に対応する画像データの複数フレームを処理単位として、所定の3刺激値を有する第1色空間の画像データから所定の3刺激値を有する第2色空間の画像データへ変換する第2色空間への色空間変換部を有し、第2色空間への色空間変換部は、前記第2色空間の3刺激値の画像データうち、人間の目に最も影響を与える要素に関する刺激値の画像データについては、前記処理単位となる複数フレームの各フレームごとに求め、その他の刺激値の画像データについては、前記処理単位となる複数フレームのある1つのフレームにおいて求めることを特徴とする。   The image processing apparatus of the present invention uses a plurality of frames of image data corresponding to an image to be displayed as a processing unit, and second color having predetermined tristimulus values from image data in a first color space having predetermined tristimulus values. A color space conversion unit to a second color space for converting into image data of the space, and the color space conversion unit to the second color space includes the human eye among the tristimulus value image data of the second color space. The image data of the stimulus value relating to the element that most influences the image is obtained for each frame of the plurality of frames serving as the processing unit, and the image data of the other stimulus values is provided by one of the plurality of frames serving as the processing unit. It is characterized in that it is obtained in a frame.

本発明の画像処理装置は、例えば、2つの画像形成手段と1つの投射光学系とを有するプロジェクタや、直視型の画像表示装置などに適用することが可能である。本発明の画像処理装置を2つの画像形成手段と1つの投射光学系とを有するプロジェクタに適用した場合には、前述したように、偽色の発生を抑制するといった効果が得られる。
また、本発明の画像処理装置を直視型の画像表示装置などに適用した場合には、画像データを圧縮することができるので、高い転送レートを必要とする画像データを画像表示装置に対して低い転送レートで送信することができる。これにより、伝送能力の低いハードウエアで構成された画像表示システムにおいても動画像の表示が可能となる。また、本発明の画像処理装置においても、前記本発明の画像処理方法が有するそれぞれの特徴を有することが好ましい。
The image processing apparatus of the present invention can be applied to, for example, a projector having two image forming units and one projection optical system, a direct-view image display apparatus, and the like. When the image processing apparatus of the present invention is applied to a projector having two image forming units and one projection optical system, the effect of suppressing the occurrence of false colors can be obtained as described above.
Further, when the image processing apparatus of the present invention is applied to a direct view type image display apparatus or the like, the image data can be compressed, so that image data requiring a high transfer rate is lower than that of the image display apparatus. It can be sent at a transfer rate. As a result, a moving image can be displayed even in an image display system configured with hardware having a low transmission capability. Also, the image processing apparatus of the present invention preferably has the respective characteristics of the image processing method of the present invention.

本発明の画像処理プログラムは、画像処理をコンピュータに実行させるための画像処理プログラムであって、表示すべき画像に対応する画像データの複数フレームを処理単位として、所定の3刺激値を有する第1色空間の画像データから所定の3刺激値を有する第2色空間の画像データへ変換する第2色空間への色空間変換ステップを有し、前記第2色空間への色空間変換ステップは、前記第2色空間の3刺激値の画像データうち、人間の目に最も影響を与える要素に関する刺激値の画像データについては、前記処理単位となる複数フレームの各フレームごとに求め、その他の刺激値の画像データについては、前記処理単位となる複数フレームのある1つのフレームにおいて求めることを特徴とする。   An image processing program of the present invention is an image processing program for causing a computer to execute image processing, and has a first tristimulus value having a plurality of frames of image data corresponding to an image to be displayed as a processing unit. A color space conversion step to a second color space for converting the image data of the color space to image data of a second color space having a predetermined tristimulus value, and the color space conversion step to the second color space comprises: Among the image data of the tristimulus values in the second color space, the image data of the stimulus values relating to the element that most affects the human eye is obtained for each frame of the plurality of frames as the processing unit, and other stimulus values The image data is obtained in one frame having a plurality of frames as the processing unit.

このような画像処理プログラムをコンピュータに実行させることにより、前述した本発明の画像処理方法を実現することができ、本発明の画像処理方法と同様の効果が得られる。また、本発明の画像処理プログラムにおいても、前記本発明の画像処理方法が有するそれぞれの特徴を有することが好ましい。   By causing a computer to execute such an image processing program, the above-described image processing method of the present invention can be realized, and the same effect as the image processing method of the present invention can be obtained. Also, the image processing program of the present invention preferably has the respective characteristics of the image processing method of the present invention.

以下、本発明の実施形態について説明する。本発明は、表示すべき画像に対応する画像
データの複数フレームを処理単位として、所定の3刺激値を有する第1色空間の画像データから所定の3刺激値を有する第2色空間の画像データへ変換する色空間変換処理を行う。この第2色空間の画像データへ変換する色空間変換処理を行う際は、第2色空間の3刺激値の画像データうち、人間の目に最も影響を与える要素に関する刺激値の画像データは、処理単位となる複数フレームの各フレームごとに求め、その他の刺激値の画像データは、処理単位となる複数フレームのある1つのフレームにおいて求めるといった処理を行う。
Hereinafter, embodiments of the present invention will be described. The present invention provides image data in a second color space having a predetermined tristimulus value from image data in a first color space having a predetermined tristimulus value, with a plurality of frames of image data corresponding to the image to be displayed as a processing unit. Perform color space conversion processing to convert to. When performing color space conversion processing for conversion to image data of the second color space, among the image data of the tristimulus values of the second color space, the image data of the stimulus values relating to the elements that most affect the human eye are: Processing is performed for each frame of a plurality of frames serving as a processing unit, and image data of other stimulus values is determined in one frame of the plurality of frames serving as a processing unit.

以下に示す実施形態では、所定の3刺激値を有する第1色空間の画像データは、YCbCr色空間の画像データであって、そのYCbCr色空間の画像データを所定の色空間変換処理によって、RGB色空間の画像データに変換する例について説明する。また、以下に示す実施形態では、入力画像データとしては、YCbCr色空間以外の色空間の画像データ(RGB色空間の画像データとする)が与えられ、まずは、そのRGB色空間の画像データをYCbCr色空間の画像データに変換し、YCbCr色空間の画像データに変換された画像データをRGB色空間に変換して、RGB色空間に変換された画像データを画像表示装置に出力するといった処理を行うものとする。   In the embodiment described below, the image data of the first color space having predetermined tristimulus values is image data of the YCbCr color space, and the image data of the YCbCr color space is converted into RGB by a predetermined color space conversion process. An example of conversion to color space image data will be described. In the embodiment described below, as input image data, image data in a color space other than the YCbCr color space (referred to as image data in the RGB color space) is given. First, the image data in the RGB color space is converted to YCbCr. Conversion to image data in the color space, conversion of the image data converted to image data in the YCbCr color space into RGB color space, and output of the image data converted into RGB color space to the image display device are performed. Shall.

図1は本発明の実施形態に係る画像処理装置の構成を概略的に示す図である。本発明の実施形態に係る画像処理装置10は、図1に示すように、表示すべき画像に対応する画像データ(RGB色空間の画像データであるとする)を輝度と色差とで表される第1色空間の画像データ(YCbCr色空間の画像データとする)に変換する第1色空間変換部(YCbCr色空間変換部とする)11と、YCbCr色空間の画像データを第2色空間の画像データ(RGB色空間の画像データとする)に変換する第2色空間変換部(RGB色空間変換部とする)12と、RGB色空間変換部12で変換された赤(R)、緑(G)、青(B)のそれぞれに対応する画像データ(RGB色空間の画像データ)を画像表示手段(図示せず)に出力する画像データ出力部13とを有している。
なお、YCbCr色空間変換部11及びRGB色空間変換部12による色空間変換処理は、画像データの複数フレーム(本発明の実施形態では4フレームとする)を処理単位として行うものとする。
FIG. 1 is a diagram schematically showing a configuration of an image processing apparatus according to an embodiment of the present invention. As shown in FIG. 1, the image processing apparatus 10 according to the embodiment of the present invention represents image data (assuming that it is image data in the RGB color space) corresponding to an image to be displayed by luminance and color difference. A first color space conversion unit (referred to as a YCbCr color space conversion unit) 11 that converts image data in the first color space (referred to as image data in the YCbCr color space), and image data in the YCbCr color space in the second color space. A second color space conversion unit (RGB color space conversion unit) 12 that converts to image data (image data in the RGB color space), and red (R) and green (converted by the RGB color space conversion unit 12) An image data output unit 13 for outputting image data corresponding to each of G) and blue (B) (image data in the RGB color space) to image display means (not shown).
Note that the color space conversion processing by the YCbCr color space conversion unit 11 and the RGB color space conversion unit 12 is performed using a plurality of frames of image data (four frames in the embodiment of the present invention) as processing units.

図2は図1に示した画像処理装置10が行う基本的な画像処理について説明する図である。図2及び図1を参照しながら画像処理装置10が行う基本的な画像処理について説明する。まず、図2の(a)に示すように、赤(R)に対応する4フレーム分の画像データ(R1,R2,R3,R4とする)と、緑(G)に対応する4フレーム分の画像データ(G1,G2,G3,G4とする)と、青(B)に対応する4フレーム分の画像データ(B1,B2,B3,B4とする)とが、先頭フレームから順に画像処理装置10に与えられるものとする。   FIG. 2 is a diagram for explaining basic image processing performed by the image processing apparatus 10 shown in FIG. Basic image processing performed by the image processing apparatus 10 will be described with reference to FIGS. 2 and 1. First, as shown in FIG. 2A, image data for four frames corresponding to red (R) (referred to as R1, R2, R3, and R4) and four frames corresponding to green (G). Image data (G1, G2, G3, G4) and four frames of image data (B1, B2, B3, B4) corresponding to blue (B) are sequentially processed from the first frame. Shall be given to

なお、赤(R)、緑(G)、青(B)に対応する4フレーム分の画像データに付された「1,2,3,4」の数字はフレーム番号を表し、「1」が当該処理単位の4フレームにおける1番目のフレーム(先頭フレーム)であるとする。例えば、赤(R)に対応する4フレーム分の画像データR1,R2,R3,R4においては、R1が1番目のフレーム(先頭フレーム)、R2が2番目のフレームというように、それぞれの数字がフレーム番号を表している。G1,G2,G3,G4及びB1,B2,B3,B4も同様である   The numbers “1, 2, 3, 4” attached to the image data for four frames corresponding to red (R), green (G), and blue (B) represent frame numbers, and “1” is It is assumed that it is the first frame (first frame) in the four frames of the processing unit. For example, in the image data R1, R2, R3, R4 for four frames corresponding to red (R), each number is such that R1 is the first frame (first frame) and R2 is the second frame. Indicates a frame number. The same applies to G1, G2, G3, G4 and B1, B2, B3, B4.

そして、YCbCr色空間変換部11では、図2の(a)に示す処理単位の画像データ(RGB色空間の画像データ)を輝度Yと青の色差Cbと赤の色差Crとで表されるYCbCr色空間に変換する。なお、処理単位の画像データ(RGB色空間の画像データ)をYCbCr色空間に変換する処理をYCbCr色空間変換ステップ(第1色空間変換ステップ)S1とする。図2の(b)は、YCbCr色空間変換ステップS1によってYCb
Cr色空間に変換された画像データ(YCbCr色空間画像データという)である。
Then, in the YCbCr color space conversion unit 11, YCbCr represented by luminance Y, blue color difference Cb, and red color difference Cr as processing unit image data (RGB color space image data) shown in FIG. Convert to color space. Note that the process of converting the processing unit image data (image data in the RGB color space) into the YCbCr color space is referred to as a YCbCr color space conversion step (first color space conversion step) S1. FIG. 2 (b) shows the YCbCr color space conversion step S1.
Image data converted to a Cr color space (referred to as YCbCr color space image data).

なお、図2の(b)に示すYCbCr色空間変換データにおいて、Y,Cb,Crに付されたそれぞれの数字「1,2,3,4」は、上記同様、処理単位としての4フレームのフレーム番号を示すものである。すなわち、Y1,Cb1,Cr1は、4フレームのうちの1番目のフレーム(先頭フレーム)におけるYCbCr色空間画像データ、Y2,Cb2,Cr2は、2番目のフレームにおけるYCbCr色空間画像データ、Y3,Cb3,Cr3は、3番目のフレームにおけるYCbCr色空間画像データ、Y4,Cb4,Cr4は、4番目のフレームにおけるYCbCr色空間画像データである。
また、YaはY1,Y2,Y3,Y4の平均値、CbaはCb1,Cb2,Cb3,Cb4の平均値、CraはCr1,Cr2,Cr3,Cr4の平均値である。
In the YCbCr color space conversion data shown in FIG. 2B, the numbers “1, 2, 3, 4” attached to Y, Cb, Cr are the same as the above, and the four frames as the processing unit. Indicates the frame number. That is, Y1, Cb1, and Cr1 are YCbCr color space image data in the first frame (first frame) of the four frames, and Y2, Cb2, and Cr2 are YCbCr color space image data in the second frame, and Y3 and Cb3. , Cr3 are YCbCr color space image data in the third frame, and Y4, Cb4, Cr4 are YCbCr color space image data in the fourth frame.
Ya is the average value of Y1, Y2, Y3, and Y4, Cba is the average value of Cb1, Cb2, Cb3, and Cb4, and Cra is the average value of Cr1, Cr2, Cr3, and Cr4.

このようにして、YCbCr色空間に変換されたYCbCr色空間画像データが求められると、今度は、RGB色空間変換部12によって、YCbCr色空間画像データをRGB色空間の画像データに変換する処理を行う。なお、YCbCr色空間画像データをRGB色空間の画像データに変換する処理をRGB色空間変換ステップ(第2色空間変換ステップ)S1とする。このRGB色空間変換ステップS2において、YCbCr色空間からRGB色空間の画像データに変換する際、Gに対応する画像データの生成は、4フレームの各フレームごとに行い、R及びBに対応する画像データの生成は、4フレームのある1つのフレーム(先頭フレームとする)のみに対して行う。これにより、Gについては、4フレーム分の各フレームに対応したGの画像データ(G1,G2,G3,G4)が得られ、RとBについては、先頭フレームのみの画像データR1及びB1が得られる(図2の(d)参照)。   When the YCbCr color space image data converted into the YCbCr color space is obtained in this way, the RGB color space conversion unit 12 now converts the YCbCr color space image data into image data in the RGB color space. Do. The process of converting the YCbCr color space image data into the RGB color space image data is referred to as an RGB color space conversion step (second color space conversion step) S1. In the RGB color space conversion step S2, when converting from the YCbCr color space to the image data in the RGB color space, the image data corresponding to G is generated every four frames, and the images corresponding to R and B are generated. Data generation is performed only for one frame (referred to as the first frame) of the four frames. Thereby, for G, G image data (G1, G2, G3, G4) corresponding to each frame for four frames is obtained, and for R and B, image data R1 and B1 of only the first frame are obtained. (See (d) of FIG. 2).

図2の(c)はYCbCr色空間からRGB色空間への変換式を示すものである。図2の(c)に示すように、YCbCr色空間からRGB色空間への変換式としては、動きの再現性を優先(動き優先という)とした変換式と色の再現性を優先(色優先という)とした変換式の2種類の変換式が設定されている。   FIG. 2C shows a conversion formula from the YCbCr color space to the RGB color space. As shown in FIG. 2C, as a conversion formula from the YCbCr color space to the RGB color space, priority is given to a conversion formula that gives priority to motion reproducibility (referred to as motion priority) and color reproducibility (color priority). Two types of conversion formulas are set.

ここで、動き優先とした変換式は、
R=Yx+Cra×1.4020・・・・・・・・・・・・・・(1)
G=Yx−Cbi×0.3441−Cri×0.7139・・・(2)
B=Yx+Cba×1.7718・・・・・・・・・・・・・・(3)
とする。
Here, the conversion formula with motion priority is
R = Yx + Cra × 1.4020 (1)
G = Yx−Cbi × 0.3441−Cri × 0.7139 (2)
B = Yx + Cba × 1.7718 (3)
And

一方、色優先とした変換式は、
R=Ya+Cra×1.4020・・・・・・・・・・・・・・(4)
G=Ya−Cbi×0.3441−Cri×0.7139・・・(5)
B=Ya+Cba×1.7718・・・・・・・・・・・・・・(6)
とする。
On the other hand, the conversion formula with color priority is
R = Ya + Cra × 1.4020 (4)
G = Ya−Cbi × 0.3441−Cri × 0.7139 (5)
B = Ya + Cba × 1.7718 (6)
And

上記(1)〜(3)式において、Yの添え字xは4つのフレームのうちのある特定のフレーム番号を示している。したがって、特定のフレーム番号として、4つのフレームのうちの1番目のフレーム(先頭のフレーム)を用いるものとすれば、Y1というように表される。   In the above formulas (1) to (3), the subscript x of Y indicates a specific frame number among the four frames. Therefore, if the first frame (first frame) of the four frames is used as the specific frame number, it is expressed as Y1.

また、(2)式及び(5)式において、Cb及びCrの添え字iはその時点におけるフレーム番号である。したがって、Cbi及びCriはその時点においてRGB色空間への変換対象となるフレームのCb,Crの値である。例えば、その時点において変換対象フレームのフレーム番号が「1」であれば、Cb1,Cr1というように表される。   In the expressions (2) and (5), the subscript i of Cb and Cr is the frame number at that time. Therefore, Cbi and Cri are the values of Cb and Cr of the frame to be converted into the RGB color space at that time. For example, if the frame number of the conversion target frame is “1” at that time, it is represented as Cb1, Cr1.

ここで、動き優先としてRGB色空間への変換を行う場合、Rxのxを1(先頭フレーム)に設定したとすれば、図2の(d)におけるR1及びB1は、上記(1)及び(3)式から、
R1=Y1+Cra×1.4020・・・・・・(7)
B1=Y1+Cba×1.7718・・・・・・(8)
というように求めることができる。
Here, when conversion to the RGB color space is performed with priority given to motion, if x of Rx is set to 1 (first frame), R1 and B1 in FIG. 3) From the equation
R1 = Y1 + Cra × 1.4020 (7)
B1 = Y1 + Cba × 1.7718 (8)
It can be obtained as follows.

また、図2の(d)におけるG1〜G4は、(2)式から、
G1=Y1−Cb1×0.3441−Cr1×0.7139・・・・・(9)
G2=Y1−Cb2×0.3441−Cr2×0.7139・・・・・(10)
G3=Y1−Cb3×0.3441−Cr3×0.7139・・・・・(11)
G4=Y1−Cb4×0.3441−Cr4×0.7139・・・・・(12)
と求めることができる。
In addition, G1 to G4 in (d) of FIG.
G1 = Y1-Cb1 * 0.3441-Cr1 * 0.7139 (9)
G2 = Y1-Cb2 * 0.3441-Cr2 * 0.7139 (10)
G3 = Y1-Cb3 * 0.3441-Cr3 * 0.7139 (11)
G4 = Y1-Cb4 * 0.3441-Cr4 * 0.7139 (12)
It can be asked.

このように、動き優先とする場合、Y(輝度)の平均値Yaではなく、ある特定のフレーム(例えば、処理対象となる複数フレームの先頭フレーム)において求められた輝度を用いるようにしている。このように、ある特定のフレームにおいて求められた輝度(Y)を用いることにより、動きの再現性を優先した画像データとすることができる。   As described above, when priority is given to motion, instead of the average value Ya of Y (luminance), the luminance obtained in a specific frame (for example, the first frame of a plurality of frames to be processed) is used. As described above, by using the luminance (Y) obtained in a specific frame, it is possible to obtain image data giving priority to motion reproducibility.

一方、色優先とする場合には、(4)〜(6)式で示されるように、平均の輝度Yaを用いている。このように、輝度Yについては平均の輝度Yaを用いることによって、原画像に近い色とすることができる。なお、色優先とする場合も、図2の(d)におけるR1及びB1は、上記(1)及び(3)式から、
R1=Ya+Cra×1.4020・・・・・(13)
B1=Ya+Cba×1.7718・・・・・(14)
というように求めることができる。
On the other hand, when priority is given to color, the average brightness Ya is used as shown in the equations (4) to (6). As described above, the luminance Y can be a color close to the original image by using the average luminance Ya. In the case of color priority, R1 and B1 in (d) of FIG. 2 are obtained from the above equations (1) and (3).
R1 = Ya + Cra × 1.4020 (13)
B1 = Ya + Cba × 1.7718 (14)
It can be obtained as follows.

また、図2の(d)におけるG1〜G4は、(2)式から、
G1=Ya−Cb1×0.3441−Cr1×0.7139・・・・・(15)
G2=Ya−Cb2×0.3441−Cr2×0.7139・・・・・(16)
G3=Ya−Cb3×0.3441−Cr3×0.7139・・・・・(17)
G4=Ya−Cb4×0.3441−Cr4×0.7139・・・・・(18)
と求めることができる。
In addition, G1 to G4 in (d) of FIG.
G1 = Ya−Cb1 × 0.3441−Cr1 × 0.7139 (15)
G2 = Ya-Cb2 × 0.3441-Cr2 × 0.7139 (16)
G3 = Ya-Cb3 × 0.3441-Cr3 × 0.7139 (17)
G4 = Ya-Cb4 * 0.3441-Cr4 * 0.7139 (18)
It can be asked.

このように、動き優先とするか色優先とするかによってRGB色空間への変換式が異なるが、動き優先とするか色優先とするかは、ユーザの好みや表示する画像の内容によって選ぶことができる。   As described above, the conversion formula to the RGB color space differs depending on whether motion priority is given or color priority, but whether to give priority to motion or color priority is selected according to the user's preference and the content of the image to be displayed. Can do.

ところで、図2の(d)は、RGB色空間変換ステップS2によって、RGB色空間に変換された画像データ(RGB色空間画像データという)である。図2の(d)に示すように、R及びBに対応する画像データは、この場合、処理単位となる4つのフレームのうちの1番目のフレーム(先頭フレーム)のみで求められている(R1及びB1)。また、Gに対応する画像データは、処理単位となる4つのフレームのすべてのフレームごとに求められている(G1,G2,G3,G4)。そして、図2の(d)に示すようなRGB色空間画像データは、画像データ出力部13から出力され、画像表示手段によって表示処理される。   FIG. 2D shows image data (referred to as RGB color space image data) converted into the RGB color space by the RGB color space conversion step S2. As shown in FIG. 2 (d), the image data corresponding to R and B is obtained only in the first frame (first frame) of the four frames serving as processing units (R1). And B1). Also, the image data corresponding to G is obtained for every frame of the four frames that are processing units (G1, G2, G3, G4). Then, the RGB color space image data as shown in FIG. 2D is output from the image data output unit 13 and subjected to display processing by the image display means.

図2に説明したような画像処理を行うことにより、例えば、4フレームを処理単位とした場合、RGB色空間変換ステップS2においては、Gについては、各フレームごとの変
換処理を行い、R及びBについては、1つのフレーム(先頭フレーム)についての変換処理を行えばよいので、演算量の削減が図れ、かつ、RGB色空間に変換された画像データを画像表示手段に転送する際のデータ量を削減することができる。それによって、画像表示手段に画像データを転送する際の転送レートを低く抑えることができる。
By performing the image processing as described in FIG. 2, for example, when 4 frames are used as a processing unit, in the RGB color space conversion step S <b> 2, G is subjected to conversion processing for each frame, and R and B With respect to, since it is only necessary to perform conversion processing for one frame (first frame), the amount of calculation can be reduced, and the data amount when transferring the image data converted into the RGB color space to the image display means can be reduced. Can be reduced. Thereby, the transfer rate when transferring the image data to the image display means can be kept low.

なお、RGB色空間の画像データを、一旦、YCbCr色空間に変換し、その後、再びRGB色空間に変換するのは、RGBに変換後において、人間の目に最も影響を与えるY(輝度)成分をR及びBにも分散させることによって、データ量を削減した場合でも偽色の発生を抑制する効果を持たせるためである。これにより、動きの速い画像データのような場合であっても、偽色の発生を抑制することができる。なお、最終的にRGB色空間の画像データとするのは、画像表示手段がRGB色空間で画像表示処理を行うのが一般的であるからである。   Note that the image data in the RGB color space is once converted into the YCbCr color space, and then converted into the RGB color space again after the conversion into RGB, which is the Y (luminance) component that most affects the human eye. This is because the effect of suppressing the occurrence of false colors can be obtained even when the amount of data is reduced by dispersing the R into B and R. Thereby, even if it is a case of image data with a quick motion, generation | occurrence | production of a false color can be suppressed. Note that the image data in the RGB color space is finally used because the image display means generally performs image display processing in the RGB color space.

次に、上記したような画像処理方法(本発明の基本的な画像処理という)を使用した本発明の応用例について説明する。   Next, an application example of the present invention using the above-described image processing method (referred to as basic image processing of the present invention) will be described.

[第1応用例]
第1応用例は、本発明の基本的な画像処理を2つの画像形成手段(画像形成ユニットという)と1つの投射光学系とを有するプロジェクタに適用するものである。
[First application example]
In the first application example, the basic image processing of the present invention is applied to a projector having two image forming means (referred to as an image forming unit) and one projection optical system.

図3は2つの画像形成ユニットと1つの投射光学系とを有するプロジェクタの光学的な構成を模式的に示す図である。第1応用例に用いるプロジェクタは、図3に示すように、2系統の画像形成ユニット100,200(第1画像形成ユニット100、第2画像形成ユニット200という)と、第1画像形成ユニット100及び第2画像形成ユニット200から射出されたそれぞれの画像光(第1画像光、第2画像光という)を合成する偏光合成光学系としての偏光合成プリズム300と、偏光合成プリズム300で合成された画像光を投射面としてのスクリーンSCRに投射する投射光学系400とを有する。   FIG. 3 is a diagram schematically showing an optical configuration of a projector having two image forming units and one projection optical system. As shown in FIG. 3, the projector used in the first application example includes two image forming units 100 and 200 (referred to as a first image forming unit 100 and a second image forming unit 200), a first image forming unit 100, and A polarization combining prism 300 as a polarization combining optical system that combines the respective image lights (first image light and second image light) emitted from the second image forming unit 200, and an image combined by the polarization combining prism 300 A projection optical system 400 that projects light onto a screen SCR as a projection surface.

第1画像形成ユニット100は、光源装置として第1〜第3光源装置110〜130を有し、第2画像形成ユニット200は、光源装置として第4〜第6光源装置210〜230を有している。第1〜第3光源装置110〜130及び第4〜第6光源装置210〜230は、光源として固体光源(LEDとする)が用いられる。   The first image forming unit 100 has first to third light source devices 110 to 130 as light source devices, and the second image forming unit 200 has fourth to sixth light source devices 210 to 230 as light source devices. Yes. The first to third light source devices 110 to 130 and the fourth to sixth light source devices 210 to 230 use solid light sources (LEDs) as light sources.

第1画像形成ユニット100における第1光源装置110は、赤色光を発光する複数の赤色LEDで構成される赤色光源R1と、赤色光源R1を構成する複数の赤色LEDに対応して設けられる複数の集光レンズ111と、ロッドインテグレータ112と、ロッドインテグレータ112の出力側に設けられる集光レンズ113とを有している。   The first light source device 110 in the first image forming unit 100 includes a plurality of red light sources R1 configured by a plurality of red LEDs that emit red light and a plurality of red LEDs that configure the red light sources R1. The condenser lens 111, the rod integrator 112, and the condenser lens 113 provided on the output side of the rod integrator 112 are included.

また、第2光源装置120は、緑色光を発光する複数の緑色LEDで構成される第1緑色光源G1と、第1緑色光源G1を構成する複数の緑色LEDに対応して設けられる複数の集光レンズ121と、ロッドインテグレータ122と、ロッドインテグレータ122の出力側に設けられる集光レンズ123とを有している。   In addition, the second light source device 120 includes a first green light source G1 composed of a plurality of green LEDs that emit green light, and a plurality of collections provided corresponding to the plurality of green LEDs that constitute the first green light source G1. It has an optical lens 121, a rod integrator 122, and a condenser lens 123 provided on the output side of the rod integrator 122.

また、第3光源装置130は、緑色光を発光する複数の緑色LEDで構成される第2緑色光源G2と、第2緑色光源G2を構成する複数の緑色LEDに対応して設けられる複数の集光レンズ131と、ロッドインテグレータ132と、ロッドインテグレータ132の出力側に設けられる集光レンズ133とを有している。   The third light source device 130 includes a second green light source G2 composed of a plurality of green LEDs that emit green light, and a plurality of light sources provided corresponding to the plurality of green LEDs constituting the second green light source G2. It has an optical lens 131, a rod integrator 132, and a condensing lens 133 provided on the output side of the rod integrator 132.

また、第1画像形成ユニット100は、これら第1〜第3光源装置110〜130に対応する光変調素子150R,150G1,150G2と、光変調素子150R、150G
1,150G2で変調された各色光を合成する合成光学系160をさらに有している。この合成光学系160は、クロスダイクロイックプリズムが用いられ、光変調素子150Rで変調された赤色光を反射し、光変調素子150G1で変調された緑色光を透過させ、光変調素子150G2で変調された緑色光を反射させて、これら各色光を合成する機能を有している。
The first image forming unit 100 includes light modulation elements 150R, 150G1, and 150G2 corresponding to the first to third light source devices 110 to 130, and light modulation elements 150R and 150G.
It further has a synthesis optical system 160 that synthesizes each color light modulated by 1,150G2. The composite optical system 160 uses a cross dichroic prism, reflects red light modulated by the light modulation element 150R, transmits green light modulated by the light modulation element 150G1, and is modulated by the light modulation element 150G2. It has the function of reflecting green light and combining these color lights.

また、第2画像形成ユニット200における第4光源装置210は、青色光を発光する複数の青色LEDで構成される青色光源B1と、青色光源B1を構成する複数の青色LEDに対応して設けられる複数の集光レンズ211と、ロッドインテグレータ212と、ロッドインテグレータ212の出力側に設けられる集光レンズ213とを有している。   The fourth light source device 210 in the second image forming unit 200 is provided corresponding to a blue light source B1 composed of a plurality of blue LEDs emitting blue light and a plurality of blue LEDs constituting the blue light source B1. A plurality of condenser lenses 211, a rod integrator 212, and a condenser lens 213 provided on the output side of the rod integrator 212 are provided.

また、第5光源装置220は、緑色光を発光する複数の緑色LEDで構成される第3緑色光源G3と、第3緑色光源G3を構成する複数の緑色LEDに対応して設けられる複数の集光レンズ221と、ロッドインテグレータ222と、ロッドインテグレータ222の出力側に設けられる集光レンズ223とを有している。   The fifth light source device 220 includes a third green light source G3 composed of a plurality of green LEDs that emit green light, and a plurality of light sources provided corresponding to the plurality of green LEDs constituting the third green light source G3. It has an optical lens 221, a rod integrator 222, and a condenser lens 223 provided on the output side of the rod integrator 222.

また、第6光源装置230は、緑色光を発光する複数の緑色LEDで構成される第4緑色光源G4と、第4緑色光源G4を構成する複数の緑色LEDに対応して設けられる複数の集光レンズ231と、ロッドインテグレータ232と、ロッドインテグレータ232の出力側に設けられる集光レンズ233とを有している。   The sixth light source device 230 includes a fourth green light source G4 composed of a plurality of green LEDs emitting green light and a plurality of light sources provided corresponding to the plurality of green LEDs constituting the fourth green light source G4. It has an optical lens 231, a rod integrator 232, and a condensing lens 233 provided on the output side of the rod integrator 232.

また、第2画像形成ユニット200は、これら第4〜第6光源装置210〜230に対応する光変調素子250B,250G3,250G4と、光変調素子250B、250G3,250G4で変調された各色光を合成する合成光学系260をさらに有している。この合成光学系260は、クロスダイクロイックプリズムが用いられ、光変調素子250Bで変調された青色光を反射し、光変調素子250G3で変調された緑色光を反射させ、光変調素子250G4で変調された緑色光を透過させて、これら各色光を合成する機能を有している。
また、光変調素子150R,150G1,150G2及び光変調素子250B,250G3,250G4は、液晶を用いた光変調素子(液晶パネル)であるとする。
The second image forming unit 200 combines the light modulation elements 250B, 250G3, and 250G4 corresponding to the fourth to sixth light source devices 210 to 230 and the respective color lights modulated by the light modulation elements 250B, 250G3, and 250G4. It further has a synthesizing optical system 260. This synthetic optical system 260 uses a cross dichroic prism, reflects blue light modulated by the light modulation element 250B, reflects green light modulated by the light modulation element 250G3, and is modulated by the light modulation element 250G4. It has a function of transmitting green light and synthesizing these color lights.
The light modulation elements 150R, 150G1, and 150G2 and the light modulation elements 250B, 250G3, and 250G4 are light modulation elements (liquid crystal panels) using liquid crystals.

ところで、緑色光の波長帯域は、約500nm〜565nmであるが、第1応用例に用いるプロジェクタにおいては、約500nm〜565nmの波長帯域を有する緑色光を、青色光に近い側の波長帯域(500nm〜532nmの波長帯域)を有する緑色光(第1緑色光という)と黄色光に近い側の波長帯域(533nm〜565nmの波長帯域)の緑色光(第2緑色光という)の2種類の緑色光として使用する。   By the way, the wavelength band of green light is about 500 nm to 565 nm. However, in the projector used in the first application example, green light having a wavelength band of about 500 nm to 565 nm is converted into a wavelength band closer to blue light (500 nm). Two types of green light: green light (referred to as first green light) having a wavelength band of ~ 532 nm) and green light (referred to as second green light) in a wavelength band close to yellow light (wavelength band of 533 nm to 565 nm). Use as

このように、緑色光を第1緑色光及び第2緑色光の2種類の緑色光として使用することによって、第1画像形成ユニット100の合成光学系160及び第2画像形成ユニット200の合成光学系260は、一般的なクロスダイクロイックプリズムを使用することができる。   Thus, by using green light as two types of green light, the first green light and the second green light, the composite optical system 160 of the first image forming unit 100 and the composite optical system of the second image forming unit 200 are used. A general cross dichroic prism 260 can be used.

第1応用例に用いるプロジェクタにおいては、第1画像形成ユニット100の光変調素子150G1と第2画像形成ユニット200の光変調素子250G3には、500nm〜532nmの波長帯域を有する第1緑色光が与えられ、第1画像形成ユニット100の光変調素子150G2と第2画像形成ユニット200の光変調素子250G4には、533nm〜565nmの波長帯域を有する第2緑色光が与えられるように設定されているものとする。   In the projector used in the first application example, the first green light having a wavelength band of 500 nm to 532 nm is given to the light modulation element 150G1 of the first image forming unit 100 and the light modulation element 250G3 of the second image forming unit 200. The light modulation element 150G2 of the first image forming unit 100 and the light modulation element 250G4 of the second image forming unit 200 are set so that the second green light having a wavelength band of 533 nm to 565 nm is given. And

図4は図3に示したプロジェクタにおける光源の動作と光変調素子の駆動との関係を説
明する図である。図4(a)は光変調素子150G1に対応する第1緑色光源G1の動作、図4(b)は光変調素子150G2に対応する第2緑色光源G2の動作、図4(c)は光変調素子250G3に対応する第3緑色光源G3の動作、図4(d)は光変調素子250G4に対応する第4緑色光源G4の動作を示すものである。また、図4(e)は光変調素子150Rに対応する赤色光源R1の動作、図4(f)は光変調素子250Bに対応する青色光源B1の動作を示すものである。
FIG. 4 is a diagram for explaining the relationship between the operation of the light source and the driving of the light modulation element in the projector shown in FIG. 4A shows the operation of the first green light source G1 corresponding to the light modulation element 150G1, FIG. 4B shows the operation of the second green light source G2 corresponding to the light modulation element 150G2, and FIG. 4C shows the light modulation. Operation of the third green light source G3 corresponding to the element 250G3, FIG. 4D shows the operation of the fourth green light source G4 corresponding to the light modulation element 250G4. FIG. 4E shows the operation of the red light source R1 corresponding to the light modulation element 150R, and FIG. 4F shows the operation of the blue light source B1 corresponding to the light modulation element 250B.

なお、図4(a)〜(f)において、灰色で示す領域は光源が点灯状態、白色で示す領域は光源が消灯状態であることを示している。また、図4(a)〜(d)において、緑色光は500nm〜532nmの波長帯域を有する第1緑色光と533〜565nmの波長帯域を有する第2緑色光とを使用しているので、これらを濃い灰色(第1緑色光)と薄い灰色(第2緑色光)とに分けて図示している。   In FIGS. 4A to 4F, gray areas indicate that the light source is turned on, and white areas indicate that the light source is turned off. 4A to 4D, the green light uses the first green light having a wavelength band of 500 nm to 532 nm and the second green light having a wavelength band of 533 to 565 nm. Are divided into dark gray (first green light) and light gray (second green light).

図4(a)〜(d)に示すように、第1応用例に用いるプロジェクタにおいては、第1画像形成ユニット100の第1緑色光源G1及び第2緑色光源G2、第2画像形成ユニット200の第3緑色光源G3及び第4緑色光源G4は、それぞれ画像データの1フレームを4分割した1/4フレームに対応する時間(これをΔt時間とする)経過ごとに順次点灯し、その点灯状態が2/4フレームに対応する時間(2Δt時間)だけ継続する。したがって、第1緑色光源G1、第2緑色光源G2、第3緑色光源G3及び第4緑色光源G4は、2Δt時間の点灯状態において、第1緑色光を発光する緑色光源(第1緑色光源G1及び第3緑色光源G3)と、第2緑色光を発光する緑色光源(第2緑色光源G2及び第4緑色光源G4)とがΔt時間だけ重複して点灯する。   As shown in FIGS. 4A to 4D, in the projector used in the first application example, the first green light source G1, the second green light source G2, and the second image forming unit 200 of the first image forming unit 100 are used. The third green light source G3 and the fourth green light source G4 are sequentially turned on every time corresponding to a quarter frame obtained by dividing one frame of image data into four (this is Δt time). It lasts for a time corresponding to 2/4 frame (2Δt time). Accordingly, the first green light source G1, the second green light source G2, the third green light source G3, and the fourth green light source G4 are each a green light source (first green light source G1 and G1) that emits the first green light in the lighting state for 2Δt hours. The third green light source G3) and the green light sources emitting the second green light (the second green light source G2 and the fourth green light source G4) are turned on by overlapping by Δt time.

例えば、第2フレームF2についてみると、当該第2フレームF2を4等分した第1番目の1/4フレームに対応する時間(Δt1時間とする)においては、第1緑色光源G1と第4緑色光源G4とが同時に点灯し、第2番目の1/4フレームに対応する時間(Δt2時間とする)においては、第1緑色光源G1と第2緑色光源G2とが同時に点灯する。また、第3番目の1/4フレームに対応するΔt時間(Δt3時間とする)においては、第2緑色光源G2と第3緑色光源G3とが同時に点灯し、第4番目の1/4フレームに対応するΔt時間(Δt4時間とする)においては、第3緑色光源G3と第4緑色光源G4とが同時に点灯する。   For example, regarding the second frame F2, the first green light source G1 and the fourth green color are used in the time corresponding to the first quarter frame obtained by equally dividing the second frame F2 into four (Δt1 time). The light source G4 is turned on at the same time, and the first green light source G1 and the second green light source G2 are turned on at the same time during the time corresponding to the second quarter frame (assumed as Δt2 time). In addition, during the Δt time (Δt3 time) corresponding to the third quarter frame, the second green light source G2 and the third green light source G3 are turned on simultaneously, and the fourth quarter frame is reached. In the corresponding Δt time (referred to as Δt4 time), the third green light source G3 and the fourth green light source G4 are turned on simultaneously.

このように、第1緑色光を発光する緑色光源と第2緑色光を発光する緑色光源を同時に点灯させるのは、人の目に緑色が2種類の緑色として視認されてしまうのを防止するためである。すなわち、緑色光を2種類の緑色(第1緑色光と第2緑色光)とすることにより、合成光学系として一般的なクロスダイクロイックプリズムの使用が可能となる反面、人の目に緑色が2種類の緑色として視認されてしまう可能性があるので、それを防止するために、第1緑色光を発光する緑色光源と第2緑色光を発光する緑色光源を同時に点灯させるようにしている。
また、図4(e),(f)は、赤色光源R1及び青色光源B1の動作を示すもので、赤色光源R1及び青色光源B1は連続点灯を行う。
As described above, the green light source that emits the first green light and the green light source that emits the second green light are simultaneously turned on in order to prevent the human eyes from seeing green as two types of green. It is. That is, by using two types of green light (first green light and second green light), a general cross dichroic prism can be used as a composite optical system. Since it may be visually recognized as a kind of green, in order to prevent this, a green light source that emits first green light and a green light source that emits second green light are turned on simultaneously.
4E and 4F show the operations of the red light source R1 and the blue light source B1, and the red light source R1 and the blue light source B1 perform continuous lighting.

また、図4(g)〜(l)は、各光変調素子の駆動時間を示すものであり、図4(g)は光変調素子150G1の駆動時間、図4(h)は光変調素子150G2の駆動時間、図4(i)は光変調素子250G3の駆動時間、図4(j)は光変調素子250G4の駆動時間、図4(k)は光変調素子150Rの駆動時間、図4(l)は光変調素子250Bの駆動時間を示すものであり、灰色で示した部分は各光変調素子が駆動されている時間を示している。   FIGS. 4G to 4L show the driving time of each light modulation element, FIG. 4G shows the driving time of the light modulation element 150G1, and FIG. 4H shows the light modulation element 150G2. 4 (i) is the driving time of the light modulation element 250G3, FIG. 4 (j) is the driving time of the light modulation element 250G4, FIG. 4 (k) is the driving time of the light modulation element 150R, and FIG. ) Indicates the drive time of the light modulation element 250B, and the gray portion indicates the time during which each light modulation element is driven.

図4(g)〜(l)に示すように、緑色光に対応する光変調素子150G1,150G
2及び光変調素子250G3,250G4は、第1〜第4緑色光源G1〜G4の点灯に対応するように駆動される。このとき、第1〜第4緑色光源G1〜G4の点灯時間(2Δt時間)の前後Δt時間をも含めた時間を駆動時間としている。このため、緑色光に対応する光変調素子150G1,150G2及び光変調素子250G3,250G4の駆動時間は、この場合、4Δt時間(1フレームに対応する時間)であるが、これら各光変調素子150G1,150G2及び光変調素子250G3,250G4で変調された各色光はそれぞれ2Δt時間だけ射出される。
As shown in FIGS. 4G to 4L, the light modulation elements 150G1 and 150G corresponding to green light.
2 and the light modulation elements 250G3 and 250G4 are driven so as to correspond to the lighting of the first to fourth green light sources G1 to G4. At this time, the driving time is a time including the Δt time before and after the lighting time (2Δt time) of the first to fourth green light sources G1 to G4. Therefore, in this case, the driving time of the light modulation elements 150G1 and 150G2 and the light modulation elements 250G3 and 250G4 corresponding to green light is 4Δt time (time corresponding to one frame). Each color light modulated by 150G2 and the light modulation elements 250G3 and 250G4 is emitted for 2Δt time.

このように、第1〜第4緑色光源G1〜G4の点灯時間(2Δt時間)の前後Δt時間をも含めた時間を各光変調素子の駆動時間とするのは、光変調素子が液晶を用いた光変調素子である場合、液晶の安定動作期間に光源を発光させるようにするためである。   As described above, the time including the time Δt before and after the lighting time (2Δt time) of the first to fourth green light sources G1 to G4 is used as the driving time of each light modulation element. This is because the light source emits light during the stable operation period of the liquid crystal.

なお、緑色光に対応する光変調素子150G1,150G2,250G3,250G4のうち、光変調素子150G1に対しては、画像データが元々有するフレームのうちの当該フレーム(n番目のフレームとする)に対応する画像データを与えるものとすれば、他の光変調素子150G2,250G3,250G4には、例えば、当該画像データのn番目のフレームとn+1番目のフレームとから生成された3つの中間画像データを与えることが好ましい。この中間画像データの生成は、動きベクトルに基づいた中間画像の生成技術など、一般的に行われている各種の中間画像データ生成技術を採用することができる。   Of the light modulation elements 150G1, 150G2, 250G3, and 250G4 corresponding to green light, the light modulation element 150G1 corresponds to the frame (referred to as the nth frame) of the frames originally included in the image data. For example, three intermediate image data generated from the nth frame and the (n + 1) th frame of the image data are given to the other light modulation elements 150G2, 250G3, and 250G4. It is preferable. For the generation of the intermediate image data, various commonly used intermediate image data generation techniques such as an intermediate image generation technique based on a motion vector can be employed.

第1応用例に用いるプロジェクタを図3に示すような構成とし、かつ、光源と光変調素子の駆動を図4に示すように行うことにより、緑色光に対応する画像データのフレームレートを赤色光及び青色光に対応する画像データに対して4倍とすることができる。
このように、第1応用例に用いるプロジェクタによれば、緑色光に対応する画像データのフレームレートを赤色光及び青色光の画像データに対して4倍とすることができ、フレーム補間された画像データとすることができる。
The projector used in the first application example is configured as shown in FIG. 3, and the light source and the light modulation element are driven as shown in FIG. 4, so that the frame rate of the image data corresponding to the green light is set to red light. In addition, the image data corresponding to blue light can be set to 4 times.
As described above, according to the projector used in the first application example, the frame rate of the image data corresponding to the green light can be four times that of the image data of the red light and the blue light. It can be data.

しかしながら、第1応用例に用いるプロジェクタのように、RGBの各色のうちのある特定の色成分(この場合は緑)に対応する画像データのフレームを挿入するというようなフレーム補間を行う場合、その特定の色成分に対応する画像データのフレームをそのまま挿入するだけでは偽色が生じる場合もあり、それが画質を劣化させる要因ともなる。このような偽色の発生を抑制するために、第1応用例に用いるプロジェクタでは、図1に示した画像処理装置10によって、図2で説明したような本発明の基本的な画像処理を施すことが好ましい。   However, when performing frame interpolation such as inserting a frame of image data corresponding to a specific color component (in this case, green) of RGB colors, like the projector used in the first application example, If a frame of image data corresponding to a specific color component is simply inserted as it is, a false color may be generated, which causes deterioration in image quality. In order to suppress the occurrence of such false colors, the projector used in the first application example performs the basic image processing of the present invention as described in FIG. 2 by the image processing apparatus 10 shown in FIG. It is preferable.

なお、第1応用例においては、図4からもわかるように、赤色光に対応する画像データ及び青色光に対応する画像データに対して緑色光に対応する画像データが4倍のフレームレートを有するため、本発明の基本的な画像処理を実行する際の処理単位は、緑色光に対応する画像データの4つのフレームであるとする。したがって、赤色光及び青色光に対応する画像データは、緑色光の4つのフレーム分の時間内で同じ値を保持する4つのフレームが存在するものとする。すなわち、本発明の基本的な画像処理を実行する際の処理単位は、赤色光に対応する画像データについては「R1,R1,R1,R1」、緑色光に対応する画像データについては「G1,G2,G3,G4」、青色光に対応する画像データについては「B1,B1,B1,B1」であるとする。   In the first application example, as can be seen from FIG. 4, the image data corresponding to the green light has a frame rate four times that of the image data corresponding to the red light and the image data corresponding to the blue light. Therefore, it is assumed that the processing unit when executing the basic image processing of the present invention is four frames of image data corresponding to green light. Accordingly, it is assumed that the image data corresponding to the red light and the blue light has four frames that hold the same value within the time corresponding to four frames of green light. That is, the processing unit when executing the basic image processing of the present invention is “R1, R1, R1, R1” for image data corresponding to red light, and “G1, for image data corresponding to green light. “G2, G3, G4” and image data corresponding to blue light are “B1, B1, B1, B1”.

ところで、第1応用例においては、RGBに対応するそれぞれの画像データと、赤色光源、緑色光源、青色光源とは、それぞれが対応するものであるあるため、画像データR1、画像データG1〜G4、画像データB1、赤色光源R1、緑色光源G1〜G4、青色光源B1というように画像データとそれぞれに対応する光源とは同じ符号が付されている。   By the way, in the first application example, each of the image data corresponding to RGB and the red light source, the green light source, and the blue light source correspond to each other. Therefore, the image data R1, the image data G1 to G4, Image data B1, red light source R1, green light sources G1 to G4, and blue light source B1 are assigned the same reference numerals to the image data and the corresponding light sources.

図5は第1応用例に用いるプロジェクタの画像処理について説明する図である。図5に示すように、画像処理装置10には、「R1,R1,R1,R1」、「G1,G2,G3,G4」、「B1,B1,B1,B1」が処理単位の画像データとして与えられる。このような画像データが画像処理装置10に入力されることにより、画像処理装置10では、図2において説明した本発明の基本的な画像処理を行うことができる。   FIG. 5 is a diagram for explaining image processing of the projector used in the first application example. As shown in FIG. 5, the image processing apparatus 10 includes “R1, R1, R1, R1”, “G1, G2, G3, G4”, and “B1, B1, B1, B1” as image data for each processing unit. Given. By inputting such image data to the image processing apparatus 10, the image processing apparatus 10 can perform the basic image processing of the present invention described in FIG.

すなわち、画像処理装置10では、図2において説明したように、処理単位の画像データに対して、RGB色空間からYCbCr色空間への変換処理を行い(YCbCr色空間変換ステップS1)、その後、YCbCr色空間からRGB色空間への変換処理を行う(RGB色空間変換ステップS2)。これにより、画像処理装置10の画像データ出力部13からは、図5に示すようなRGB色空間画像データが画像表示手段(光変調素子駆動部21R,21G1〜21G4,21Bとする)に出力される。   That is, as described in FIG. 2, the image processing apparatus 10 performs conversion processing from the RGB color space to the YCbCr color space (YCbCr color space conversion step S1) for the processing unit image data, and thereafter, YCbCr. Conversion processing from the color space to the RGB color space is performed (RGB color space conversion step S2). Thereby, the RGB color space image data as shown in FIG. 5 is output from the image data output unit 13 of the image processing apparatus 10 to the image display means (light modulation element driving units 21R, 21G1 to 21G4, 21B). The

ここで、画像データ出力部13から出力されるRGB色空間画像データのうち、画像データR1は光変調素子駆動部21Rに与えられ、画像データB1は光変調素子駆動部21Bに与えられる。また、画像データG1〜G4は図4に示す第1フレームF1に対応する時間内において、画像データG1は光変調素子駆動部21G1に与えられ、画像データG2は光変調素子駆動部21G2に与えられ、画像データG3は光変調素子駆動部21G3に与えられ、画像データG4は光変調素子駆動部21G4に与えられる。   Here, among the RGB color space image data output from the image data output unit 13, the image data R1 is provided to the light modulation element driving unit 21R, and the image data B1 is provided to the light modulation element driving unit 21B. Further, the image data G1 to G4 are given to the light modulation element driving unit 21G1 and the image data G2 is given to the light modulation element driving unit 21G2 within the time corresponding to the first frame F1 shown in FIG. The image data G3 is supplied to the light modulation element driving unit 21G3, and the image data G4 is supplied to the light modulation element driving unit 21G4.

このように、図5における画像処理装置10に入力される処理単位の画像データに対して、本発明の基本的な画像処理(図2参照)を行うことにより、データ量を削減した場合でも偽色の発生を抑制することができる。すなわち、RGB色空間の画像データを、一旦、YCbCr色空間に変換し、その後、RGB色空間に変換するといった処理を行うことにより、RGBに変換後において、人間の目に最も影響を与えるY(輝度)成分をR及びBにも分散させることができ、それによって、偽色の発生を抑制する効果を得ることができる。   As described above, even if the amount of data is reduced by performing the basic image processing (see FIG. 2) of the present invention on the processing unit image data input to the image processing apparatus 10 in FIG. Color generation can be suppressed. That is, the image data in the RGB color space is once converted into the YCbCr color space, and then converted into the RGB color space, so that Y ( (Luminance) component can also be dispersed in R and B, thereby obtaining the effect of suppressing the occurrence of false colors.

[第2応用例]
第2応用例は、図2に示した本発明の基本的な画像処理のアルゴリズムを画像データ圧縮に適用するものである。
[Second application example]
In the second application example, the basic image processing algorithm of the present invention shown in FIG. 2 is applied to image data compression.

図6は第2応用例としての画像表示システムの構成を示す図である。第2応用例としての画像表示システムは、図2に示した本発明の基本的な画像処理を行う画像処理装置10と、画像表示手段としての画像表示装置30とを有する。なお、画像表示装置30は、例えば直視型の画像表示装置であるとする。なお、画像処理装置10と画像表示装置30とはケーブルによって直接接続されるような構成であってもよく、また、ネットワークを介して接続されるような構成であってもよい。   FIG. 6 is a diagram showing a configuration of an image display system as a second application example. The image display system as the second application example includes the image processing apparatus 10 that performs the basic image processing of the present invention shown in FIG. 2 and the image display apparatus 30 as image display means. Note that the image display device 30 is, for example, a direct-view image display device. Note that the image processing apparatus 10 and the image display apparatus 30 may be configured to be directly connected by a cable, or may be configured to be connected via a network.

前述した第1応用例においては、緑(G)に対応する画像データのフレームレートを赤(R)及び青(B)に対応する画像データの4倍とした場合であるので、処理単位として設定されたフレーム数は4フレームであったが、第2応用例においては、画像データの処理単位のフレーム数を任意に設定することができる。例えば、動きの速い動画像である場合には、フレーム数を少なくし、動きの遅い画像データである場合には、フレーム数を多くすることができる。   In the first application example described above, the frame rate of the image data corresponding to green (G) is four times that of the image data corresponding to red (R) and blue (B). Although the number of frames that have been processed is four, in the second application example, the number of frames in the processing unit of image data can be arbitrarily set. For example, the number of frames can be reduced when the moving image is fast moving, and the number of frames can be increased when the moving image data is slow moving.

ここでは、説明の簡単化のためにフレーム数(nとする)をn=4、すなわち、処理単位としてのフレーム数は4フレームであるとする。この場合、画像処理装置10には、図6に示すように、「R1,R2,R3,R4」、「G1,G2,G3,G4」、「B1,B2,B3,B4」の4フレーム分の画像データが処理単位として順次与えられるものと
する。このようなRGB色空間の画像データが画像処理装置10に入力されることにより、画像処理装置10では、図2において説明した本発明の基本的な画像処理を行う。
Here, for simplification of explanation, it is assumed that the number of frames (assumed to be n) is n = 4, that is, the number of frames as a processing unit is 4. In this case, as shown in FIG. 6, the image processing apparatus 10 includes four frames of “R1, R2, R3, R4”, “G1, G2, G3, G4”, and “B1, B2, B3, B4”. Are sequentially given as processing units. When such image data in the RGB color space is input to the image processing apparatus 10, the image processing apparatus 10 performs the basic image processing of the present invention described in FIG.

すなわち、画像処理装置10では、図2において説明したように、まず、RGB色空間からYCbCr色空間への変換処理を行い(YCbCr色空間変換ステップS1)、その後、YCbCr色空間からRGB色空間への変換処理を行う(RGB色空間変換ステップS2)。これにより、画像処理装置10の画像データ出力部13からは、図6に示すように、圧縮されたRGB色空間画像データが出力され、そのRGB色空間画像データは画像表示装置30に送信される。   That is, as described with reference to FIG. 2, the image processing apparatus 10 first performs conversion processing from the RGB color space to the YCbCr color space (YCbCr color space conversion step S1), and then from the YCbCr color space to the RGB color space. (RGB color space conversion step S2). Thereby, as shown in FIG. 6, the compressed RGB color space image data is output from the image data output unit 13 of the image processing apparatus 10, and the RGB color space image data is transmitted to the image display device 30. .

画像表示装置30では、送信されてきた画像データの赤(R)及び青(B)については、1番目のフレーム(先頭フレーム)の画像データR1及びB1をメモリ上で保持し、緑(G)については、画像データG1,G2,・・・が送信されてくるごとにメモリ上で更新して、保持されている画像データR1及びB1と順次更新される画像データG1,G2,・・・とに基づいて画像表示処理を行う。   In the image display device 30, for the red (R) and blue (B) of the transmitted image data, the image data R1 and B1 of the first frame (first frame) are held in the memory, and the green (G) Is updated on the memory every time the image data G1, G2,... Is transmitted, and the image data G1, G2,. The image display process is performed based on the above.

なお、画像表示装置30が有するGPU(Graphics Processing Unit)などにおいては、通常の場合、RGBの各色が送信されてくるごとに、RGB各色の画像データをメモリ上で更新する処理を行うが、本発明を実現するために、緑(G)に対応する画像データについては、当該緑(G)に対応する画像データが送信されてくるごとに、緑(G)に対応する画像データG1,G2,G3,G4はメモリ上で順次更新し、赤(R)及び青(B)に対応するそれぞれの画像データR1及びB1については、緑(G)の4フレーム分の更新が終わるまで保持するといった機能を有しているものとする。このような機能は、画像表示装置30が有する画像処理機能をわずかに変更するだけで可能となる。   Note that a GPU (Graphics Processing Unit) or the like included in the image display device 30 normally performs a process of updating the image data of each RGB color on the memory every time each RGB color is transmitted. In order to realize the invention, for image data corresponding to green (G), every time image data corresponding to green (G) is transmitted, image data G1, G2, and G2 corresponding to green (G) are transmitted. G3 and G4 are sequentially updated on the memory, and the respective image data R1 and B1 corresponding to red (R) and blue (B) are held until the update of four frames of green (G) is completed. It shall have. Such a function can be achieved by slightly changing the image processing function of the image display device 30.

以上説明したように、第2応用例においては、表示すべき画像に対応する画像データが高い転送レートを必要とする画像データである場合、当該画像データの4フレームを処理単位として、画像処理装置10によって本発明の基本的な画像処理を行い、それによって圧縮された画像データを画像表示装置30に送信するようにしている。これにより、データ量が多く高い転送レートを必要とする画像データを低い転送レートで画像表示装置30に送信することができ、伝送能力の低いハードウエアで構成された画像表示システムにおいても動画像の表示が可能となる。   As described above, in the second application example, when the image data corresponding to the image to be displayed is image data that requires a high transfer rate, the image processing apparatus uses four frames of the image data as a processing unit. 10, the basic image processing of the present invention is performed, and the image data compressed thereby is transmitted to the image display device 30. As a result, image data having a large amount of data and requiring a high transfer rate can be transmitted to the image display device 30 at a low transfer rate, and even in an image display system configured with hardware having a low transmission capability, Display is possible.

なお、第2応用例においては、処理単位としてのフレーム数nは、前述したように、動画像の動きの速さなどに応じて任意に設定可能であるが、その設定の仕方としては、例えば2つのフレームの動きベクトル量の総和を求め、求められた動きベクトル量の総和に基づいて決定するという方法が一例として挙げられる。例えば、動きベクトル量の総和に閾値を設定しておき、求められた動きベクトル量が閾値を超えるまで、nの値を、例えば、1から順に増加させて行き、動きベクトル量が閾値を超えた時点のnをその時点のフレーム数とするといった決め方もある。   In the second application example, the number of frames n as a processing unit can be arbitrarily set according to the speed of motion of the moving image as described above. As a setting method, for example, An example is a method in which the sum of motion vector amounts of two frames is obtained and determined based on the obtained sum of motion vector amounts. For example, a threshold value is set for the sum of motion vector amounts, and the value of n is increased from, for example, 1 in order until the calculated motion vector amount exceeds the threshold value, and the motion vector amount exceeds the threshold value. There is also a method of determining n at the time as the number of frames at that time.

また、動きの速さを判定するパラメータとしては、動きベクトル量に限られるものではなく、例えば、図2で示した動き優先処理においては、YxとYiとの自乗平均を総和して得られた値であってもよい。なお、色優先処理の場合であれば、YaとYiとの自乗平均を総和して得られた値であってもよい。ここで、Yiの添え字iはその時点において処理対象となるフレーム番号であり、Yiは当該フレーム番号において求められるYCbCrのYの値である。   Further, the parameter for determining the speed of motion is not limited to the motion vector amount. For example, in the motion priority processing shown in FIG. 2, the parameter is obtained by summing the mean square of Yx and Yi. It may be a value. In the case of color priority processing, it may be a value obtained by summing the mean square of Ya and Yi. Here, the subscript i of Yi is the frame number to be processed at that time, and Yi is the Y value of YCbCr obtained at the frame number.

また、図6では画像処理装置10と画像表示装置30とを別々に設けた場合について説明したが、画像処理装置10と画像表示装置30とが一体的に構成されたものであっても
よい。
また、画像処理装置10の画像データ出力部13から出力される圧縮された画像データは、画像表示装置30に送信される形態に限られるものではなく、例えば、記録媒体に記録されるような形態であってもよい。
6 describes the case where the image processing apparatus 10 and the image display apparatus 30 are provided separately, the image processing apparatus 10 and the image display apparatus 30 may be configured integrally.
Further, the compressed image data output from the image data output unit 13 of the image processing apparatus 10 is not limited to the form transmitted to the image display apparatus 30, but for example, the form recorded on a recording medium. It may be.

なお、本発明は前述の実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲で種々変形実施可能となるものである。たとえば、前述の各実施形態では、入力される画像はRGB色空間の画像データに限られるものでなく、例えば、YCbCr色空間の画像データであってもよい。この場合、図1及び図2におけるYCbCr色空間変換部11によるYCbCr色空間変換処理(YCbCr色空間変換ステップS1)は省略することができる。   The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the spirit of the present invention. For example, in each of the above-described embodiments, the input image is not limited to image data in the RGB color space, and may be image data in the YCbCr color space, for example. In this case, the YCbCr color space conversion process (YCbCr color space conversion step S1) by the YCbCr color space conversion unit 11 in FIGS. 1 and 2 can be omitted.

また、図2の(c)における変換式において、動き優先としてRGB色空間への変換を行う場合、前述の例では、前述の(7)〜(12)式に示すように、RGBすべてにおいて、Yxを用い、x=1としてY1としたが、Gについては、YxではなくYiとして、その時点のフレーム番号としてもよい。例えば、フレーム番号をi=1,2,3,4とすれば、G1〜G4は、
G1=Y1−Cb1×0.3441−Cr1×0.7139
G2=Y2−Cb2×0.3441−Cr2×0.7139
G3=Y3−Cb3×0.3441−Cr3×0.7139
G4=Y4−Cb4×0.3441−Cr4×0.7139
として求めることも可能である。
In addition, in the conversion formula in FIG. 2C, when conversion to the RGB color space is performed as a motion priority, in the above example, as shown in the above formulas (7) to (12), Yx is used and x = 1 and Y1 is set. However, G may be Yi instead of Yx, and the frame number at that time may be used. For example, if the frame number is i = 1, 2, 3, 4, G1 to G4 are
G1 = Y1-Cb1 * 0.3441-Cr1 * 0.7139
G2 = Y2-Cb2 * 0.3441-Cr2 * 0.7139
G3 = Y3-Cb3 * 0.3441-Cr3 * 0.7139
G4 = Y4-Cb4 * 0.3441-Cr4 * 0.7139
It is also possible to ask for.

また、本発明が適用可能な応用例としては、2つの画像形成手段(画像形成ユニットという)と1つの投射光学系とを有するプロジェクタ(第1応用例)と、直視型の画像表示装置(第2応用例)を例示したが、本発明は前述の第1応用例及び第2応用例に限られるものではない。   Further, as application examples to which the present invention can be applied, a projector (first application example) having two image forming means (referred to as an image forming unit) and one projection optical system, and a direct-view type image display device (first display). Although two application examples) are illustrated, the present invention is not limited to the first application example and the second application example described above.

また、前述の実施形態では、RGB色空間の画像データを第1色空間変換ステップによってYCbCr色空間の画像データに変換したのち、変換されたYCbCr色空間の画像データを第2色空間変換ステップによってRGB色空間の画像データに変換する例(図2参照)について説明したが、本発明の画像処理方法は、このような色空間変換処理に限られるものではない。   In the above-described embodiment, after the RGB color space image data is converted into the YCbCr color space image data by the first color space conversion step, the converted YCbCr color space image data is converted by the second color space conversion step. Although an example (see FIG. 2) of converting to image data in the RGB color space has been described, the image processing method of the present invention is not limited to such color space conversion processing.

例えば、RGB色空間の画像データをXYZ色空間の画像データに変換する処理(第1色区間変換ステップ)を行ってXYZ色空間の画像データに変換したのち、変換されたXYZ色空間の画像データをRGB色空間の画像データに変換する処理(第2色区間変換ステップ)を行うこともできる。また、sRGB色空間の画像データをYUV色空間の画像データに変換する処理(第1色区間変換ステップ)を行ってYUV色空間の画像データに変換したのち、変換されたYUV色空間の画像データをsRGB色空間の画像データに変換する処理(第2色区間変換ステップ)を行うこともできる。   For example, after converting the image data in the RGB color space into image data in the XYZ color space (first color interval conversion step) to convert the image data into the XYZ color space, the converted image data in the XYZ color space Can be performed (second color interval conversion step) for converting the image data into image data in the RGB color space. Further, after converting the image data of the sRGB color space into the image data of the YUV color space (first color interval conversion step) to convert the image data into the image data of the YUV color space, the converted image data of the YUV color space Can also be performed (second color interval conversion step) for converting the image data into image data in the sRGB color space.

本発明の実施形態に係る画像処理装置の構成を概略的に示す図。1 is a diagram schematically showing a configuration of an image processing apparatus according to an embodiment of the present invention. 図1に示した画像処理装置10が行う基本的な画像処理について説明する図。FIG. 3 is a diagram for explaining basic image processing performed by the image processing apparatus 10 shown in FIG. 1. 2つの画像形成ユニットと1つの投射光学系とを有するプロジェクタの光学的な構成を模式的に示す図。FIG. 2 is a diagram schematically illustrating an optical configuration of a projector having two image forming units and one projection optical system. 図3に示したプロジェクタにおける光源の動作と光変調素子の駆動との関係を説明する図。The figure explaining the relationship between the operation | movement of the light source in the projector shown in FIG. 3, and the drive of a light modulation element. 第1応用例に用いるプロジェクタの画像処理について説明する図。The figure explaining the image processing of the projector used for a 1st application example. 第2応用例としての画像表示システムの構成を示す図。The figure which shows the structure of the image display system as a 2nd application example.

符号の説明Explanation of symbols

10・・・画像処理装置、11・・・YCbCr色空間変換部、12・・・RGB色空間変換部、13・・・画像データ出力部、30・・・画像表示装置   DESCRIPTION OF SYMBOLS 10 ... Image processing apparatus, 11 ... YCbCr color space conversion part, 12 ... RGB color space conversion part, 13 ... Image data output part, 30 ... Image display apparatus

Claims (10)

表示すべき画像に対応する画像データの複数フレームを処理単位として、所定の3刺激値を有する第1色空間の画像データから所定の3刺激値を有する第2色空間の画像データへ変換する第2色空間への色空間変換ステップを有し、
前記第2色空間への色空間変換ステップは、前記第2色空間の3刺激値の画像データうち、人間の目に最も影響を与える要素に関する刺激値の画像データについては、前記処理単位となる複数フレームの各フレームごとに求め、その他の刺激値の画像データについては、前記処理単位となる複数フレームのある1つのフレームにおいて求めることを特徴とする画像処理方法。
First, a plurality of frames of image data corresponding to an image to be displayed is converted into image data of a first color space having a predetermined tristimulus value and image data of a second color space having a predetermined tristimulus value. A color space conversion step to a two-color space,
In the color space conversion step to the second color space, among the image data of the tristimulus values in the second color space, the image data of the stimulus values related to the element that most affects the human eye is the processing unit. An image processing method characterized in that it is obtained for each of a plurality of frames, and the image data of other stimulus values is obtained in one certain frame of the plurality of frames as the processing unit.
請求項1に記載の画像処理方法において、
前記第1色空間以外の色空間の画像データを前記処理単位となる複数フレームの各フレームごとに前記第1色空間の画像データに変換する第1色空間への色空間変換ステップを有し、
前記変換された第1色空間の画像データを前記第2色空間への色空間変換ステップに入力することを特徴とする画像処理方法。
The image processing method according to claim 1,
A color space conversion step to a first color space for converting image data of a color space other than the first color space into image data of the first color space for each of a plurality of frames as the processing unit;
An image processing method, wherein the converted image data of the first color space is input to a color space conversion step to the second color space.
請求項1または2に記載の画像処理方法において、
前記第2色空間への色空間変換ステップにより変換された第2色空間の画像データを出力する画像データ出力ステップを有することを特徴とする画像処理方法。
The image processing method according to claim 1 or 2,
An image processing method comprising: an image data output step of outputting image data of the second color space converted by the color space conversion step to the second color space.
請求項1〜3のいずれかに記載の画像処理方法において、
前記第1色空間は、輝度(Y)と色差(Cb,Cr)とで表されるYCbCr色空間、前記第2色空間は、赤(R)、緑(G),青(B)とで表されるRGB色空間であって、
前記第2色空間への色空間変換ステップは、前記Gの画像データについては、前記処理単位となる複数フレームの各フレームごとに求め、前記R及びBのそれぞれの画像データについては、前記処理単位となる複数フレームのある1つのフレームにおいて求めることを特徴とする画像処理方法。
In the image processing method in any one of Claims 1-3,
The first color space is a YCbCr color space represented by luminance (Y) and color difference (Cb, Cr), and the second color space is red (R), green (G), and blue (B). RGB color space represented,
In the color space conversion step to the second color space, the G image data is obtained for each of a plurality of frames as the processing unit, and the R and B image data is processed in the processing unit. An image processing method characterized in that it is obtained in one frame of a plurality of frames.
請求項4に記載の画像処理方法において、
前記第2色空間への色空間変換ステップでは、
前記Rの画像データは、前記処理単位となる複数フレームのうちのある特定のフレームにおけるYの値と、前記処理単位となる複数フレームの各フレームのCrの値を平均したCrの平均値とに基づいて求め、
前記Gの画像データは、前記処理単位となる複数フレームのうちのある特定のフレームにおけるYの値と、前記処理単位となる複数フレームの各フレームにおけるCbの値及び各フレームにおけるCrの値とに基づいて求め、
前記Bの画像データは、前記処理単位となる複数フレームのうちのある特定のフレームにおけるYの値と、前記処理単位となる複数フレームの各フレームのCbの値を平均したCbの平均値とに基づいて求めることを特徴とする画像処理方法。
The image processing method according to claim 4,
In the color space conversion step to the second color space,
The R image data includes a value of Y in a specific frame among the plurality of frames serving as the processing unit and an average value of Cr obtained by averaging the Cr values of the frames of the plurality of frames serving as the processing unit. Based on,
The G image data includes a Y value in a specific frame among the plurality of frames serving as the processing unit, a Cb value in each frame of the plurality of frames serving as the processing unit, and a Cr value in each frame. Based on,
The B image data includes a Y value in a specific frame of the plurality of frames serving as the processing unit and an average value of Cb obtained by averaging the Cb values of the frames of the plurality of frames serving as the processing unit. An image processing method characterized in that it is obtained on the basis of the above.
請求項4に記載の画像処理方法において、
前記第2色空間への色空間変換ステップでは、
前記Rの画像データは、前記処理単位となる複数フレームの各フレームのYの値を平均したYの平均値と、前記処理単位となる複数フレームの各フレームのCrの値を平均したCrの平均値とに基づいて求め、
前記Gの画像データは、前記処理単位となる複数フレームの各フレームのYの値を平均したYの平均値と、前記処理単位となる複数フレームの各フレームにおけるCbの値及び各フレームにおけるCrの値とに基づいて求め、
前記Bの画像データは、前記処理単位となる複数フレームの各フレームのYの値を平均したYの平均値と、前記処理単位となる複数フレームの各フレームのCbの値を平均したCbの平均値とに基づいて求めることを特徴とする画像処理方法。
The image processing method according to claim 4,
In the color space conversion step to the second color space,
The R image data includes an average value of Y obtained by averaging the Y values of each frame of the plurality of frames serving as the processing unit, and an average of Cr obtained by averaging the Cr values of the respective frames of the plurality of frames serving as the processing unit. Based on the value and
The G image data includes an average value of Y obtained by averaging the Y values of each frame of the plurality of frames serving as the processing unit, a value of Cb in each frame of the plurality of frames serving as the processing unit, and a Cr value of each frame. Based on the value and
The B image data includes an average value of Y obtained by averaging the Y values of each frame of the plurality of frames serving as the processing unit, and an average of Cb obtained by averaging the Cb values of the respective frames of the plurality of frames serving as the processing unit. An image processing method characterized in that it is obtained based on a value.
請求項1〜6のいずれかに記載の画像処理方法において、
前記表示すべき画像に対応する画像データの各フレームが、画像ソースから供給される基の画像データのフレームレートに対してm(mは2以上の整数)倍のフレームレートとなるようなフレーム補間が行われていた場合、前記処理単位となるフレームの数は、前記mとすることを特徴とする画像処理方法。
In the image processing method according to any one of claims 1 to 6,
Frame interpolation such that each frame of image data corresponding to the image to be displayed has a frame rate that is m (m is an integer of 2 or more) times the frame rate of the base image data supplied from the image source. Is performed, the number of frames as the processing unit is set to m.
請求項7に記載の画像処理方法において、
前記表示すべき画像に対応する画像データは、プロジェクタに与えられる画像データであって、前記プロジェクタは、
光源からの色光を画像データに基づいて変調する3つの光変調素子を有し、当該3つの光変調素子で変調された各色光を合成して第1画像光として射出する第1画像形成手段と、光源からの色光を画像データに基づいて変調する3つの光変調素子を有し、当該3つの光変調素子で変調された各色光を合成して第2画像光として射出する第2画像形成手段と、前記第1画像形成手段及び第2画像形成手段から射出される前記第1画像光及び第2画像光を合成する偏光合成光学系と、前記偏光合成光学系で合成された画像光を投射面に投射する投射光学系とを備え、前記第1画像形成手段及び第2画像形成手段に設けられる合計6つの光変調素子のうち、4つの光変調素子は緑色光に対応する光変調素子、残りの2つの光変調素子は赤色光及び青色光に対応する光変調素子として用いられ、前記緑色光に対応する4つの光変調素子で変調された各色光が前記画像データの各フレーム内において所定時間だけずれて順次射出されるように前記光源及び前記緑色光に対応する4つの光変調素子が制御されるプロジェクタであることを特徴とする画像処理方法。
The image processing method according to claim 7.
The image data corresponding to the image to be displayed is image data given to a projector, and the projector
A first image forming unit that includes three light modulation elements that modulate color light from a light source based on image data, and synthesizes each color light modulated by the three light modulation elements to emit as first image light; A second image forming unit that has three light modulation elements that modulate the color light from the light source based on the image data, and synthesizes the respective color lights modulated by the three light modulation elements and emits them as the second image light. And a polarization combining optical system that combines the first image light and the second image light emitted from the first image forming unit and the second image forming unit, and image light combined by the polarization combining optical system. A total of six light modulation elements provided in the first image forming unit and the second image forming unit, four light modulation elements corresponding to green light, The remaining two light modulation elements are red and blue The light source is used as a light modulation element corresponding to light, and the respective color lights modulated by the four light modulation elements corresponding to the green light are sequentially emitted while being shifted by a predetermined time in each frame of the image data. And an image processing method, wherein the four light modulation elements corresponding to the green light are controlled.
表示すべき画像に対応する画像データの複数フレームを処理単位として、所定の3刺激値を有する第1色空間の画像データから所定の3刺激値を有する第2色空間の画像データへ変換する第2色空間への色空間変換部を有し、
第2色空間への色空間変換部は、前記第2色空間の3刺激値の画像データうち、人間の目に最も影響を与える要素に関する刺激値の画像データについては、前記処理単位となる複数フレームの各フレームごとに求め、その他の刺激値の画像データについては、前記処理単位となる複数フレームのある1つのフレームにおいて求めることを特徴とする画像処理装置。
First, a plurality of frames of image data corresponding to an image to be displayed is converted into image data of a first color space having a predetermined tristimulus value and image data of a second color space having a predetermined tristimulus value. A color space conversion unit to a two-color space;
The color space conversion unit to the second color space includes a plurality of image data of stimulus values relating to elements that most affect human eyes among the image data of tristimulus values of the second color space. An image processing apparatus characterized in that it is obtained for each frame, and the image data of other stimulus values is obtained in one frame having a plurality of frames as the processing unit.
画像処理をコンピュータに実行させるための画像処理プログラムであって、
表示すべき画像に対応する画像データの複数フレームを処理単位として、所定の3刺激値を有する第1色空間の画像データから所定の3刺激値を有する第2色空間の画像データへ変換する第2色空間への色空間変換ステップを有し、
前記第2色空間への色空間変換ステップは、前記第2色空間の3刺激値の画像データうち、人間の目に最も影響を与える要素に関する刺激値の画像データについては、前記処理単位となる複数フレームの各フレームごとに求め、その他の刺激値の画像データについては、前記処理単位となる複数フレームのある1つのフレームにおいて求めることを特徴とする画像処理プログラム。
An image processing program for causing a computer to execute image processing,
First, a plurality of frames of image data corresponding to an image to be displayed is converted into image data of a first color space having a predetermined tristimulus value and image data of a second color space having a predetermined tristimulus value. A color space conversion step to a two-color space,
In the color space conversion step to the second color space, among the image data of the tristimulus values in the second color space, the image data of the stimulus values related to the element that most affects the human eye is the processing unit. An image processing program characterized in that it is obtained for each of a plurality of frames, and image data of other stimulus values is obtained in one frame having a plurality of frames as the processing unit.
JP2008005320A 2008-01-15 2008-01-15 Image processing method, image processor, and image processing program Withdrawn JP2009168975A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008005320A JP2009168975A (en) 2008-01-15 2008-01-15 Image processing method, image processor, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008005320A JP2009168975A (en) 2008-01-15 2008-01-15 Image processing method, image processor, and image processing program

Publications (1)

Publication Number Publication Date
JP2009168975A true JP2009168975A (en) 2009-07-30

Family

ID=40970226

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008005320A Withdrawn JP2009168975A (en) 2008-01-15 2008-01-15 Image processing method, image processor, and image processing program

Country Status (1)

Country Link
JP (1) JP2009168975A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102682735A (en) * 2012-04-06 2012-09-19 东莞中山大学研究院 Multi-channel video output framework of video processing chip
CN102982502A (en) * 2012-11-26 2013-03-20 康佳集团股份有限公司 Picture batch conversion method and system
CN111007020A (en) * 2019-12-23 2020-04-14 武汉呵尔医疗科技发展有限公司 Double-frame four-spectrum imaging method and application

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102682735A (en) * 2012-04-06 2012-09-19 东莞中山大学研究院 Multi-channel video output framework of video processing chip
CN102982502A (en) * 2012-11-26 2013-03-20 康佳集团股份有限公司 Picture batch conversion method and system
CN102982502B (en) * 2012-11-26 2018-10-12 康佳集团股份有限公司 A kind of picture Batch conversion method and system
CN111007020A (en) * 2019-12-23 2020-04-14 武汉呵尔医疗科技发展有限公司 Double-frame four-spectrum imaging method and application
CN111007020B (en) * 2019-12-23 2021-10-08 武汉呵尔医疗科技发展有限公司 Double-frame four-spectrum imaging method and application

Similar Documents

Publication Publication Date Title
JP3719411B2 (en) Image display system, projector, program, information storage medium, and image processing method
KR101786161B1 (en) Method for producing a color image and imaging device employing same
JP4241902B2 (en) Color image display device and color conversion device
JP4364281B2 (en) Display device
JP5897159B2 (en) Display device and control method thereof
JP2005077868A (en) Projector
JP5091575B2 (en) Video display device
JP4937539B2 (en) Image display method and method for increasing brightness of output image of display device
JP2016505884A (en) Method for generating color image and imaging apparatus using the method
WO2006085274A2 (en) Method of displaying an image and correspond image-display system
JP2011033805A (en) Video controller, projection-type video display device, and video display system
JP2009168975A (en) Image processing method, image processor, and image processing program
JP2006308631A (en) Device, method and program for image display, and recording medium with image display program recorded
WO2005043501A1 (en) Color image processing apparatus, color image processing method, program, and recording medium
CN109327689B (en) Display apparatus and display method
KR101862608B1 (en) Display device
JP2008026682A (en) Color sequential image display method and device
JP2009162988A (en) Projector, and image display method in projector
JP2004286963A (en) Projection display apparatus
WO2009157915A1 (en) Field-sequential color display systems and methods with reduced color break-up
KR100735562B1 (en) Apparatus, system and method for reappearance of color according to a light source
JP5150183B2 (en) Projection display device
CN109324465B (en) Display apparatus and display method
JP3776899B2 (en) Projector and its color adjustment method
CN110278421B (en) Display apparatus and display method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110405