JP2019067097A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2019067097A
JP2019067097A JP2017191324A JP2017191324A JP2019067097A JP 2019067097 A JP2019067097 A JP 2019067097A JP 2017191324 A JP2017191324 A JP 2017191324A JP 2017191324 A JP2017191324 A JP 2017191324A JP 2019067097 A JP2019067097 A JP 2019067097A
Authority
JP
Japan
Prior art keywords
image data
image
color difference
component
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017191324A
Other languages
Japanese (ja)
Inventor
松浦 貴洋
Takahiro Matsuura
貴洋 松浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017191324A priority Critical patent/JP2019067097A/en
Publication of JP2019067097A publication Critical patent/JP2019067097A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

To enable display of an image having a high dynamic range, when displaying images output from a plurality of devices in a superimposing manner, without greatly degrading the image quality even if pixel deviation is generated between the superimposed images.SOLUTION: An image processing device in an image forming system of displaying an output image from a first device and an output image from a second device in a superimposing manner on the basis of an inputted image data, thereby forming an image indicated by the inputted image data, includes: dividing means for dividing the inputted image data into a color difference component and a luminance component; first generating means for generating image data for the first device in order to cause the first device to output the output image only on the basis of the luminance component without using the color difference component; and second generating means for generating image data for the second device in order to cause the second device to output the output image only on the basis of the color difference component without using the luminance component.SELECTED DRAWING: Figure 2

Description

複数デバイスを用いてハイダイナミックレンジ画像を出力する技術に関する。   The present invention relates to a technology for outputting a high dynamic range image using a plurality of devices.

近年、デジタルカメラ等で撮影した自然界の被写体において、ハイダイナミックレンジ画像(HDR画像)を扱う機会が増えてきている。こうしたHDR画像を鑑賞する際、表示デバイスや出力デバイスによって人間の主観的視覚に対して忠実に再現することが求められている。その際に、特に画像を大画面で表示できるプロジェクタや、高精細な大判出力が可能な大判プリンタ等のデバイスが、実物(被写体)の色や階調、質感等を、迫力のあるサイズで再現可能であるため、これらのデバイスの利用が期待されている。   In recent years, opportunities for handling high dynamic range images (HDR images) have increased in subjects in the natural world photographed with digital cameras and the like. When viewing such HDR images, it is required to faithfully reproduce human subjective vision by display devices and output devices. At that time, devices such as a projector capable of displaying an image on a large screen, and a large format printer capable of high definition and large format output reproduce the color, gradation, texture, etc. of a real (subject) in a powerful size. As it is possible, the use of these devices is expected.

一方でこれらのデバイスが有するダイナミックレンジや色域は、HDR画像を再現するには十分ではない。そこで、HDR画像をプロジェクタとプリンタとで合成して表示し、より広い色域で再現する技術が提案されている。特許文献1には、入力画像をプロジェクタ用のRGB信号とプリンタ用のCMY信号とに変換する際、プロジェクタにおける分光分布特性とプリンタにおける分光反射率特性とに基づいて生成された変換用のLUTを用いる技術が提案されている。特許文献1に記載された技術では、上記LUTを用いて変換した画像信号に基づいてプロジェクタで形成された画像とプリンタで形成された画像とを重畳する。それにより、ダイナミックレンジおよび色域を拡大しつつ、入力画像をより忠実に再現することを可能としている。   On the other hand, the dynamic range and color gamut possessed by these devices are not sufficient to reproduce an HDR image. Therefore, a technology has been proposed that combines and displays an HDR image between a projector and a printer, and reproduces it in a wider color gamut. Patent Document 1 discloses a conversion LUT generated based on spectral distribution characteristics of a projector and spectral reflectance characteristics of a printer when converting an input image into RGB signals for a projector and CMY signals for a printer. The technology used is proposed. In the technology described in Patent Document 1, an image formed by a projector and an image formed by a printer are superimposed on the basis of an image signal converted using the LUT. Thereby, it is possible to reproduce the input image more faithfully while expanding the dynamic range and the color gamut.

特許2010−103863号公報Patent 2010-103863 gazette

しかし、特許文献1に記載された技術では、プロジェクタとプリンタの両方で輝度成分を表示している。そのため、重畳された画像間で数画素のずれが生じただけで、表示画像がぼけたように見えてしまう可能性がある。   However, in the technology described in Patent Document 1, the luminance component is displayed on both the projector and the printer. Therefore, there is a possibility that the displayed image may appear to be blurred if only a shift of several pixels occurs between the superimposed images.

そこで、本発明は、複数デバイスから出力される画像を重畳して表示する際に、重畳する画像間で画素ずれが生じた場合でも画質を大きく劣化させることなく、ダイナミックレンジの高い画像を表示することができる画像処理装置を提供することを目的とする。   Therefore, according to the present invention, when displaying images output from a plurality of devices in a superimposed manner, an image with a high dynamic range is displayed without significantly degrading the image quality even when pixel misalignment occurs between the images to be superimposed. It is an object of the present invention to provide an image processing apparatus capable of

本発明による画像処理装置は、入力画像データに基づいて第1のデバイスによる出力像と第2のデバイスによる出力像とを重畳して表示させることで、入力画像データが表す画像を形成する画像形成システムにおける画像処理装置であって、入力画像データを色差成分と輝度成分に分割する分割手段と、色差成分を用いずに、輝度成分のみに基づいて、第1のデバイスに出力像を出力させるための第1のデバイス用の画像データを生成する第1の生成手段と、輝度成分を用いずに、色差成分のみに基づいて、第2のデバイスに出力像を出力させるための第2のデバイス用の画像データを生成する第2の生成手段と、を有することを特徴とする。   An image processing apparatus according to the present invention forms an image represented by input image data by superimposing and displaying an output image by a first device and an output image by a second device based on input image data. An image processing apparatus in a system, which causes an output image to be output to a first device based on only a luminance component without using division means for dividing input image data into a chrominance component and a luminance component and without using the chrominance component. First generating means for generating image data for the first device, and for the second device for causing the second device to output an output image based only on the color difference component without using the luminance component And second generation means for generating image data of

本発明によれば、複数デバイスから出力される画像を重畳して表示する際に、重畳する画像間で画素ずれが生じた場合でも画質を大きく劣化させることなく、ダイナミックレンジの高い画像を表示することができる。   According to the present invention, when superimposing and displaying images output from a plurality of devices, an image with a high dynamic range is displayed without significantly degrading the image quality even when pixel misalignment occurs between the superimposed images. be able to.

第1実施形態の画像処理装置を含むシステムの構成を示すブロック図である。It is a block diagram showing composition of a system containing an image processing device of a 1st embodiment. 第1実施形態の画像処理装置の処理を示すフローチャートである。It is a flow chart which shows processing of an image processing device of a 1st embodiment. 第1実施形態の画像処理装置によって入力画像が処理される様子を示す図である。It is a figure which shows a mode that an input image is processed by the image processing apparatus of 1st Embodiment. 第2実施形態の画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus of 2nd Embodiment. 第2実施形態における画像処理装置の処理を示すフローチャートである。It is a flow chart which shows processing of an image processing device in a 2nd embodiment. 画像振り分け部の処理を示すフローチャートである。It is a flowchart which shows the process of an image distribution part. 第2実施形態の画像処理装置によって入力画像が処理される様子を示す図である。It is a figure which shows a mode that an input image is processed by the image processing apparatus of 2nd Embodiment. 第2実施形態の画像処理装置によって入力画像が処理される様子を示す図である。It is a figure which shows a mode that an input image is processed by the image processing apparatus of 2nd Embodiment. システムの色域範囲を示す図である。FIG. 1 is a diagram showing a color gamut range of a system.

以下、図面を参照して、本発明を実施する形態について説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に必ずしも限定されるものではない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, the structure shown in the following embodiment is only an example, and this invention is not necessarily limited to the illustrated structure.

[実施形態1]
<画像処理装置>
図1は、第1実施形態の画像処理装置100を含む画像形成システムの構成を示すブロック図である。図1に示すように、本実施形態の画像処理装置100は、画像入力部101、画像分割部102、第1の画像生成部103、及び第2の画像生成部104を備える。また、図1に示すように、画像処理装置100には、プリンタ110とプロジェクタ120とが接続されている。
Embodiment 1
<Image processing device>
FIG. 1 is a block diagram showing the configuration of an image forming system including the image processing apparatus 100 according to the first embodiment. As shown in FIG. 1, the image processing apparatus 100 according to the present embodiment includes an image input unit 101, an image division unit 102, a first image generation unit 103, and a second image generation unit 104. Further, as shown in FIG. 1, a printer 110 and a projector 120 are connected to the image processing apparatus 100.

画像入力部101は、画像データ(以下、画像信号と呼ぶ場合がある)を入力する。本実施形態では、画像入力部101は、デジタルカメラ等で撮影して得られる画像データ、たとえばRGBの各色の画素値を有する画像データ(RGB画像データ)を入力する。   The image input unit 101 inputs image data (hereinafter sometimes referred to as an image signal). In the present embodiment, the image input unit 101 inputs image data obtained by photographing with a digital camera or the like, for example, image data (RGB image data) having pixel values of respective colors of RGB.

画像分割部102は、入力されたRGB画像データに対し、輝度成分と色差成分とに分割する処理を行う。RGB画像データを分割する方法としては、例えば、入力された画像データをBT.709として、RGB信号からYCrCb信号に変換し、Yを輝度成分、CrCbを色差成分とする方法がある。また例えば、入力された画像データをAcesRGBとして、RGB信号からLab信号に変換し、Lを輝度成分、abを色差成分とする方法がある。   The image dividing unit 102 performs processing of dividing the input RGB image data into a luminance component and a color difference component. As a method of dividing RGB image data, for example, input image data may be divided into BT. As a method 709, there is a method of converting RGB signals into YCrCb signals, Y as a luminance component, and CrCb as a color difference component. For example, there is a method of converting the input image data as Aces RGB, converting the RGB signal into a Lab signal, setting L as a luminance component and ab as a color difference component.

第1の画像生成部103は、画像分割部102により得られた輝度成分画像データから、プリンタ110が出力可能な画像データを生成する。プリンタ110は、第1の画像生成部103で生成された画像データを出力(印刷)する。   The first image generation unit 103 generates image data that can be output by the printer 110 from the luminance component image data obtained by the image division unit 102. The printer 110 outputs (prints) the image data generated by the first image generation unit 103.

第2の画像生成部104は、画像分割部102により得られた色差成分画像データから、プロジェクタ120が出力可能な画像データを生成する。プロジェクタ120は、第2の画像生成部104で生成された画像データを出力(投影)する。   The second image generation unit 104 generates image data that can be output by the projector 120 from the color difference component image data obtained by the image division unit 102. The projector 120 outputs (projects) the image data generated by the second image generation unit 104.

<実施形態画像処理装置の処理>
図2は、第1実施形態の画像処理装置100の処理を示すフローチャートである。図3は、第1実施形態の画像処理装置によって入力画像が処理される様子を示す図である。
<Process of Embodiment Image Processing Device>
FIG. 2 is a flowchart showing processing of the image processing apparatus 100 according to the first embodiment. FIG. 3 is a view showing how an input image is processed by the image processing apparatus of the first embodiment.

まず、画像入力部101が、画像データを入力する(ステップS201)。本実施形態では、画像入力部101は、上述したように、デジタルカメラ等で撮像して得られたRGB画像データを入力する。図3に示す入力画像301は、画像入力部101が入力するRGB画像データによって示さる画像(入力画像)の一例である。   First, the image input unit 101 inputs image data (step S201). In the present embodiment, as described above, the image input unit 101 inputs RGB image data obtained by imaging with a digital camera or the like. An input image 301 illustrated in FIG. 3 is an example of an image (input image) indicated by RGB image data input by the image input unit 101.

次いで、画像分割部102が、画像入力部101が入力した画像データ(入力画像データと呼ぶ)を輝度成分と色差成分とに分割する(ステップS202)。本実施形態では、画像分割部102は、RGB信号をYCrCb信号に変換して、Yを輝度成分とし、CrCbを色差成分として分割する。そして、画像分割部102は、プリンタ110に出力させるための画像データ(プリンタ110用の画像データ)として、輝度成分Yからなる輝度成分画像データを生成する。また、画像分割部102は、プロジェクタ120に出力させるための画像データ(プロジェクタ120用の画像データ)として、色差成分CrCbからなる色差成分画像データを生成する。図3に示す輝度成分画像302及び色差成分画像303は、入力画像データを分割して得られる輝度成分画像データ及び色差成分画像データによって示される画像の一例である。プリント画像304は、輝度成分画像データに従ってプリンタ110から出力される出力像の一例である。プロジェクタ投影像305は、色差成分画像データに従ってプロジェクタ120から出力される出力像の一例である。なお、RGB信号をLab信号に変換して、Lを輝度成分とし、abを色差成分として分割して、輝度成分Lからなる輝度成分画像データと、色差成分abからなる色差成分画像データとを生成するようにしてもよい。   Next, the image dividing unit 102 divides the image data (referred to as input image data) input by the image input unit 101 into a luminance component and a color difference component (step S202). In the present embodiment, the image dividing unit 102 converts an RGB signal into a YCrCb signal, and divides Y into a luminance component, and divides CrCb into a color difference component. Then, the image dividing unit 102 generates luminance component image data including the luminance component Y as image data (image data for the printer 110) to be output to the printer 110. Further, the image dividing unit 102 generates color difference component image data composed of color difference components CrCb as image data (image data for the projector 120) to be output to the projector 120. The luminance component image 302 and the chrominance component image 303 shown in FIG. 3 are an example of an image represented by luminance component image data and chrominance component image data obtained by dividing input image data. The print image 304 is an example of an output image output from the printer 110 according to the luminance component image data. The projector projected image 305 is an example of an output image output from the projector 120 according to the color difference component image data. Note that RGB signals are converted to Lab signals, L is a luminance component, ab is a color difference component, and luminance component image data consisting of the luminance component L and color difference component image data consisting of the color difference component ab are generated. You may do it.

ここで、RGB信号の分割について詳細に説明する。本実施形態の画像分割部102は、RGB信号を分割する際、BT.709で規定される変換式(以下の式1)に従ってRGB信号をYCrCb信号に変換し、Yを輝度成分、CrCbを色差成分として分割する。   Here, the division of the RGB signal will be described in detail. When dividing an RGB signal, the image dividing unit 102 according to the present embodiment converts the RGB. The RGB signal is converted into a YCrCb signal according to a conversion formula (the following formula 1) defined by 709, and Y is divided as a luminance component and CrCb as a color difference component.

なお、sRGBのRGB信号を、以下の式2に従ってXYZ信号に変換し、さらに、以下の式3〜式8に従ってXYZ信号をLab信号に変換し、Lを輝度成分、abを色差成分として分割するようにしてもよい。   The sRGB RGB signal is converted to an XYZ signal according to the following equation 2, and the XYZ signal is further converted to a Lab signal according to the following equations 3 to 8, and L is divided as a luminance component and ab as a color difference component You may do so.

次いで、第1の画像生成部103が、画像分割部102により生成された輝度成分画像データを、プリンタ110に適した画像データ(画像信号)に変換する。また、第2の画像生成部104が、画像分割部102により生成された色差成分画像データを、プロジェクタ120に適した画像データ(画像信号)に変換する(ステップS203)。   Next, the first image generation unit 103 converts the luminance component image data generated by the image division unit 102 into image data (image signal) suitable for the printer 110. Further, the second image generation unit 104 converts the color difference component image data generated by the image division unit 102 into image data (image signal) suitable for the projector 120 (step S203).

なお、輝度成分画像データは、上述したように輝度成分Yからなる画像データであり、より具体的には、式1で得られるYCrCb信号の色差成分Cr,Cbに、中間値である0を設定して得られる画像データである。したがって、入力画像データを分割して輝度成分画像データを生成することは、入力画像データ(RGB信号)を式1によりYCrCb信号に変換し、該YCrCb信号の色差成分Cr,Cbに0を設定することと等価である。また、輝度成分画像データからプリンタ110に適した画像信号を生成することは、色差成分Cr,Cbに0を設定したYCrCb信号を以下の式9により変換してRGB信号を得ることと等価である。また、色差成分画像データは、上述したように色差成分CrCbからなる色差成分画像データであり、より具体的には、式1によりで得られるYCrCb信号の輝度成分Yに、中間値である128を設定して得られる画像データである。したがって、入力画像データを分割して色差成分画像データを生成することは、入力画像データ(RGB信号)を式1により変換し、該YCrCb信号の色差成分Cr,Cbに0を設定することと等価である。また、色差成分画像データからプロジェクタ120に適した画像信号を生成することは、輝度成分Yに128を設定したYCrCb信号を以下の式9により変換してRGB信号を得ることと等価である。なお、輝度成分は128に限定したものではなく、一律の値であれば他の値でもよい。なお、式9は、YCrCb信号をBT.709のRGB信号に変換する場合に用いられる変換式である。   The luminance component image data is image data consisting of the luminance component Y as described above, and more specifically, the color difference components Cr and Cb of the YCrCb signal obtained by Equation 1 are set to 0 which is an intermediate value Image data obtained by Therefore, dividing input image data to generate luminance component image data converts the input image data (RGB signal) into a YCrCb signal according to equation 1, and sets the color difference components Cr and Cb of the YCrCb signal to 0. It is equivalent to Further, generating an image signal suitable for the printer 110 from luminance component image data is equivalent to obtaining an RGB signal by converting a YCrCb signal in which 0 is set to the color difference components Cr and Cb according to the following equation 9: . The color difference component image data is the color difference component image data consisting of the color difference component CrCb as described above, and more specifically, the luminance component Y of the YCrCb signal obtained by the equation 1 has an intermediate value 128 It is image data obtained by setting. Therefore, dividing input image data to generate color difference component image data is equivalent to converting the input image data (RGB signal) according to equation 1, and setting 0 to color difference components Cr and Cb of the YCrCb signal. It is. Further, generating an image signal suitable for the projector 120 from the color difference component image data is equivalent to obtaining an RGB signal by converting the YCrCb signal in which 128 is set to the luminance component Y according to the following equation 9. The luminance component is not limited to 128, and may be another value as long as it is a uniform value. Equation 9 shows that the YCrCb signal is BT. It is a conversion equation used when converting to 709 RGB signals.

なお、プリンタ110とプロジェクタ120がsRGBのRGB信号を入力するとした場合には、以下の式10〜式14に従ってLab信号をXYZ信号に変換し、さらに、以下の式15に従ってXYZ信号をRGB信号に変換すればよい。そのとき、輝度成分画像データをRGB信号に変換する場合には、色差成分a,bにそれぞれ、中間値である0を設定して変換すればよい。また、色差成分画像データをRGB信号に変換する場合には、輝度成分Lに、中間値である50を設定して変換すればよい。なお、輝度成分は50に限定したものではなく、一律の値であれば他の値でもよい。   When the printer 110 and the projector 120 input the RGB signal of sRGB, the Lab signal is converted into an XYZ signal according to Equations 10 to 14 below, and the XYZ signals are further converted to RGB signals according to Equation 15 below: It should be converted. At that time, in the case of converting the luminance component image data into the RGB signal, it is sufficient to set the color difference components a and b to 0 which is an intermediate value, respectively. Further, in the case of converting color difference component image data into an RGB signal, conversion may be performed by setting 50 as an intermediate value to the luminance component L. The luminance component is not limited to 50, and may be another value as long as it has a uniform value.

最後に、プリンタ110が、第1の画像生成部103が生成した画像信号に従って出力(印刷)を行う。また、プロジェクタ120が、第2の画像生成部104が生成した画像信号に従って出力(投影)を行う(ステップS204)。このとき、プリンタ110の出力画像(図3に示すプリント画像304)を壁などに貼り付けて、該画像にプロジェクタ120の出力画像(図3に示すプロジェクタ投影像305)を投影することで、両画像を重畳させる。図3に示す再現画像306は、両画像を重畳させて得られる画像の一例である。   Finally, the printer 110 performs output (printing) in accordance with the image signal generated by the first image generation unit 103. Further, the projector 120 performs output (projection) according to the image signal generated by the second image generation unit 104 (step S204). At this time, the output image of the printer 110 (print image 304 shown in FIG. 3) is attached to a wall or the like, and the output image of the projector 120 (projector projection image 305 shown in FIG. 3) is projected onto the image. Overlay the image. The reproduced image 306 shown in FIG. 3 is an example of an image obtained by superimposing both images.

以上のように、本実施形態では、入力画像データを輝度成分と色差成分とに分割し、輝度成分からなる画像データをプリンタに入力し、色差成分からなる画像データをプロジェクタに入力する。そして、プリンタから出力されるプリント画像に、プロジェクタの投影画像を重畳させて、再現画像を表示する。輝度画像同士を重畳して表示した場合、特に高周波な輝度画像同士を重畳して表示した場合には、互いの画像が数画素ずれただけでも、そのずれが目立ってしまう。しかし、本実施形態では、入力画像データを輝度成分と色差成分とに分割するようにしているので、輝度画像同士が重畳されることがなく、仮にプリント画像とプロジェクタの投影画像とが数画素ずれた場合でも画像のずれが目立ちにくくなる。つまり、本実施形態によれば、プロジェクタとプリンタとによる出力画像を重畳させた再現画像において、ダイナミックレンジを拡大しつつ、画像のずれによる画質の劣化を抑制することができる。   As described above, in the present embodiment, input image data is divided into a luminance component and a color difference component, image data composed of the luminance component is input to the printer, and image data composed of the color difference component is input to the projector. Then, the projected image of the projector is superimposed on the print image output from the printer, and the reproduced image is displayed. When luminance images are superimposed and displayed, particularly when high-frequency luminance images are superimposed and displayed, even if the images of each other are shifted by several pixels, the shift is noticeable. However, in the present embodiment, since the input image data is divided into the luminance component and the color difference component, the luminance images are not superimposed on each other, and temporarily the print image and the projection image of the projector deviate by several pixels. Even in this case, the image shift is less noticeable. That is, according to the present embodiment, in the reproduced image in which the output image of the projector and the printer is superimposed, it is possible to suppress the deterioration of the image quality due to the shift of the image while expanding the dynamic range.

なお、本実施形態では、輝度成分をプリンタで出力させ、色差成分をプロジェクタで出力させる方法を例にしたが、輝度成分をプロジェクタで出力させ、色差成分をプリンタで出力させるようにしてもよい。ただし、色差よりも輝度の方が人間の目に知覚されやすいので、輝度成分は、高解像度の画像を出力可能なデバイスで出力されることが望ましい。例えば、プロジェクタよりもプリンタのほうが高解像度の画像を出力可能である場合には、本実施形態のように、プリンタに輝度成分を出力させる形態が望ましい。   In the present embodiment, the luminance component is output by the printer and the color difference component is output by the projector. However, the luminance component may be output by the projector and the color difference component may be output by the printer. However, since the luminance is more easily perceived by human eyes than the color difference, it is desirable that the luminance component is output by a device capable of outputting a high resolution image. For example, when the printer can output a high resolution image than the projector, it is preferable to output the luminance component to the printer as in this embodiment.

また、輝度成分を高輝度バックライトで表示させ、色差成分をOHP(Overhead projector)用の透明フィルムで表示させてもよい。つまり、第1の画像生成部103に接続されるデバイスは、プリンタに限定されず、プロジェクタやディスプレイ装置、OHP、高輝度バックライトなどであってもよい。また、第2の画像生成部104に接続されるデバイスは、プロジェクタに限定されず、プリンタやディスプレイ装置、OHP、高輝度バックライトなどであってもよい。   Further, the luminance component may be displayed by a high luminance backlight, and the color difference component may be displayed by a transparent film for OHP (Overhead projector). That is, the device connected to the first image generation unit 103 is not limited to the printer, and may be a projector, a display device, an OHP, a high brightness backlight, or the like. Further, the device connected to the second image generation unit 104 is not limited to a projector, and may be a printer, a display device, an OHP, a high brightness backlight, or the like.

さらに、各デバイスから出力される画像を重畳可能であれば、各デバイスの組み合わせはどのような組み合わせであってもよい。例えば、ディスプレイ装置とプロジェクタとを用いて、ディスプレイ装置の表示画像にプロジェクタの投影画像を重畳させてもよい。また、プリンタとOHPとを用いて、プリント画像にOHPの投影画像を重畳させてもよい。また、プロジェクタを2台用いて、一方のプロジェクタの投影画像に他方のプロジェクタの投影画像を重畳させてもよい。   Furthermore, as long as the image output from each device can be superimposed, the combination of each device may be any combination. For example, the projection image of the projector may be superimposed on the display image of the display device using a display device and a projector. In addition, the projected image of the OHP may be superimposed on the print image using a printer and the OHP. Further, two projectors may be used to superimpose the projection image of the other projector on the projection image of one projector.

また、本実施形態では、画像処理装置100からプリンタ110とプロジェクタ120とに画像データ(各デバイスに適した画像信号)を出力する画像形成システムを例にした。しかし、第1の画像生成部103と第2の画像生成部104とによって生成された画像データのいずれかまたは両方を記憶装置(例えば、ネットワーク上のサーバ)に記憶させておくようにしてもよい。そして、画像処理装置100以外の装置が、上記記憶装置に記憶された画像データを読み出して、該画像データを対応するデバイスに出力するようにしてもよい。   Further, in the present embodiment, an image forming system which outputs image data (image signal suitable for each device) from the image processing apparatus 100 to the printer 110 and the projector 120 is exemplified. However, one or both of the image data generated by the first image generation unit 103 and the second image generation unit 104 may be stored in a storage device (for example, a server on a network). . Then, an apparatus other than the image processing apparatus 100 may read out the image data stored in the storage device and output the image data to the corresponding device.

[実施形態2]
第1実施形態では輝度成分をプリンタ、色差成分をプロジェクタで表示する例を説明した。本実施形態では、色差成分をプロジェクタだけでなくプリンタにも表示させるようにする。また、輝度成分をプリンタだけでなくプロジェクタに表示させるようにする。それにより、システムの色域範囲を拡大させる。ただし、両方のデバイスに周波数の高い輝度成分画像を表示させると、上述したように、画像同士が数画素ずれただけでも表示画像がぼけて見えてしまうおそれがある。したがって、本実施形態では、以下で説明するように、少なくともプロジェクタに表示させる輝度成分画像については、その周波数を低く設定する。
Second Embodiment
In the first embodiment, an example in which the luminance component is displayed by a printer and the color difference component is displayed by a projector has been described. In this embodiment, the color difference component is displayed not only on the projector but also on the printer. In addition, the luminance component is displayed not only on the printer but also on the projector. This expands the color gamut of the system. However, when a luminance component image having a high frequency is displayed on both devices, as described above, there is a risk that the displayed image may be blurred even if the images are shifted by several pixels. Therefore, in the present embodiment, as described below, the frequency of at least the luminance component image displayed on the projector is set low.

図4は、第2実施形態の画像処理装置200の構成を示すブロック図である。第2実施形態の画像処理装置200の構成は、第1実施形態の画像処理装置100と同様である。ただし、第2の画像処理装置200は、画像入力部101、画像分割部102、第1の画像生成部103、第2の画像生成部104に加えて、画像振り分け部401を備える。   FIG. 4 is a block diagram showing the configuration of the image processing apparatus 200 of the second embodiment. The configuration of the image processing apparatus 200 of the second embodiment is the same as that of the image processing apparatus 100 of the first embodiment. However, in addition to the image input unit 101, the image division unit 102, the first image generation unit 103, and the second image generation unit 104, the second image processing apparatus 200 includes an image distribution unit 401.

画像振り分け部401は、図4に示すように、画像分割部102の後段に配置される。そして、画像振り分け部401は、画像分割部102により得られた輝度成分画像データと色差成分画像データとを入力する。画像振り分け部401は、輝度成分画像データに、プリンタ110で再現可能な輝度を超える輝度成分が含まれる場合、には、後述するように、低周波輝度成分画像データを生成して第2の画像生成部104に渡す。同様に、画像振り分け部401は、色差成分画像データに、プロジェクタ120で再現可能な色域を超える色差成分が含まれる場合には、後述するように、低周波色差成分画像データを生成して第1の画像生成部103に渡す。   The image sorting unit 401 is disposed downstream of the image dividing unit 102, as shown in FIG. Then, the image distribution unit 401 inputs the luminance component image data and the color difference component image data obtained by the image division unit 102. When the luminance component image data includes a luminance component exceeding the luminance reproducible by the printer 110, the image distribution unit 401 generates low frequency luminance component image data and generates a second image, as will be described later. It passes to the generation unit 104. Similarly, when the color difference component image data includes a color difference component exceeding the color gamut reproducible by the projector 120, the image distribution unit 401 generates low-frequency color difference component image data, as will be described later. It is passed to the first image generation unit 103.

<実施形態2における画像処理装置の処理フロー>
図5は、第2実施形態における画像処理装置200の処理を示すフローチャートである。なお、ステップS501,S502,S505の処理は、第1実施形態におけるステップS201,S202,S204の処理と同様であるため説明を省略する。
<Processing Flow of Image Processing Device in Second Embodiment>
FIG. 5 is a flowchart showing processing of the image processing apparatus 200 in the second embodiment. The processes of steps S501, S502, and S505 are the same as the processes of steps S201, S202, and S204 in the first embodiment, and thus the description thereof will be omitted.

ステップS503において、画像振り分け部401は、画像分割部102から輝度成分画像データと色差成分画像データを受け取る。そして、画像振り分け部401は、画像分割部102から受け取った輝度成分画像データをそのまま第1の画像生成部103に出力する。また、画像振り分け部401は、画像分割部102から受け取った色差成分画像データをそのまま第2の画像生成部104に出力する。   In step S 503, the image distribution unit 401 receives the luminance component image data and the color difference component image data from the image division unit 102. Then, the image distribution unit 401 outputs the luminance component image data received from the image division unit 102 to the first image generation unit 103 as it is. Further, the image distribution unit 401 outputs the color difference component image data received from the image division unit 102 to the second image generation unit 104 as it is.

このとき、上述したように、入力画像にプロジェクタ120のみでは再現できない彩度が含まれる場合には、画像振り分け部401は、プリンタ110にも色差成分を表示させるために、低周波色差成分画像データを生成し第1の画像生成部103に出力する。また、入力画像にプリンタ110のみでは再現できない輝度が含まれる場合には、画像振り分け部401は、プロジェクタ120にも輝度成分を表示させるために、低周波輝度成分画像データを生成し第2の画像生成部104に出力する。   At this time, as described above, when the input image includes a saturation that can not be reproduced only by the projector 120, the image distributing unit 401 causes the printer 110 to also display the color difference component, so that the low frequency color difference component image data Are generated and output to the first image generation unit 103. In addition, when the input image includes luminance which can not be reproduced only by the printer 110, the image distributing unit 401 generates low frequency luminance component image data to cause the projector 120 to also display the luminance component, and the second image It is output to the generation unit 104.

ステップS504において、第1の画像生成部103および第2の画像生成部104はそれぞれ、画像振り分け部401から各画像データを受け取ると、次のように動作する。第1の画像生成部103は、画像振り分け部401から受け取った輝度成分画像データと低周波色差成分画像データとを合成する。そして、第1の画像生成部103は、合成して得られた合成画像データをプリンタ110に適した画像信号に変換してプリンタ110に出力する。また、第2の画像生成部104は、画像振り分け部401から受け取った色差成分画像データと低周波輝度成分画像データとを合成する。そして、第2の画像生成部104は、合成して得られた合成画像データをプロジェクタ120に適した画像信号に変換して出力する。なお、各デバイス用の信号への変換方法は、ステップS203と同様であるため説明を省略する。   When the first image generation unit 103 and the second image generation unit 104 each receive the image data from the image distribution unit 401 in step S504, the first image generation unit 103 and the second image generation unit 104 operate as follows. The first image generation unit 103 combines the luminance component image data received from the image distribution unit 401 with the low frequency color difference component image data. Then, the first image generation unit 103 converts composite image data obtained by combining into an image signal suitable for the printer 110, and outputs the image signal to the printer 110. In addition, the second image generation unit 104 combines the color difference component image data and the low frequency luminance component image data received from the image distribution unit 401. Then, the second image generation unit 104 converts the synthesized image data obtained by the synthesis into an image signal suitable for the projector 120 and outputs it. In addition, since the conversion method to the signal for each device is the same as that of step S203, description is abbreviate | omitted.

<画像振り分け部の処理>
図6は、画像振り分け部401の処理を示すフローチャートである。図7,8は、第2実施形態の画像処理装置200によって入力画像が処理される様子を示す図である。図9は、システムの色域範囲を示す図である。
<Processing of Image Sorting Unit>
FIG. 6 is a flowchart showing the process of the image distribution unit 401. FIGS. 7 and 8 show how an input image is processed by the image processing apparatus 200 according to the second embodiment. FIG. 9 is a diagram showing the color gamut range of the system.

画像振り分け部401は、画像分割部102から受け取った輝度成分画像データ及び色差成分画像データから1画素ずつ取得する(ステップS601)。なお、輝度成分画像データから取得した1画素について行われる処理と、色差成分画像データから取得した1画素について行われる処理とは同様である。したがって、以下では、輝度成分画像データから取得した1画素について行われる処理について説明する。   The image distribution unit 401 acquires each pixel from the luminance component image data and the color difference component image data received from the image division unit 102 (step S601). The process performed on one pixel acquired from the luminance component image data is the same as the process performed on one pixel acquired from the color difference component image data. Therefore, in the following, processing performed for one pixel acquired from the luminance component image data will be described.

次いで、画像振り分け部401は、プロジェクタ120の輝度成分初期値を設定する(ステップS602)。輝度成分初期値はYs=128(またはLs=50)である。なお、輝度成分初期値は、画像処理装置200が備える記憶装置(図示せず)等に予め格納されているものとする。また、ここでは、輝度成分初期値Ys(またはLs)として、Yの中間値(またはLの中間値)を設定したが、輝度成分初期値Ys(またはLs)にはその他の値が設定されてもよい。また、輝度成分初期値Ys(またはLs)は、ユーザによって指定可能であってもよい。   Next, the image distribution unit 401 sets an initial value of the luminance component of the projector 120 (step S602). The luminance component initial value is Ys = 128 (or Ls = 50). The luminance component initial value is assumed to be stored in advance in a storage device (not shown) or the like included in the image processing apparatus 200. In addition, here, the median value of Y (or the median value of L) is set as the luminance component initial value Ys (or Ls), but other values are set as the luminance component initial value Ys (or Ls) It is also good. Also, the luminance component initial value Ys (or Ls) may be designated by the user.

次いで、画像振り分け部401は、ステップS601で取得した画素がプリンタ110とプロジェクタ120との基本色域外かどうかを判定する(ステップS603)。基本色域とは、プリンタ110で輝度成分、プロジェクタで色差成分を表示する、第1実施形態におけるシステムの色域である。ステップS603の判定は、次の方法により行われる。画像振り分け部401は、ステップS601で取得した画素の画素値が予め作成した3DLUT内であるかどうかを判定する。そして、画素値が3DLUT内であれば(ステップS603のNO)、画像振り分け部401は、画素値が基本色域内であると判断し、ステップS605の処理に進む。画素値が3DLUT外であれば(ステップS603のYES)、画像振り分け部401は、画素値が基本色域外であると判断し、ステップS604の処理に進む。   Next, the image distribution unit 401 determines whether the pixel acquired in step S601 is outside the basic color gamut of the printer 110 and the projector 120 (step S603). The basic color gamut is a color gamut of the system according to the first embodiment in which the luminance component is displayed by the printer 110 and the color difference component is displayed by the projector. The determination in step S603 is performed by the following method. The image distribution unit 401 determines whether the pixel value of the pixel acquired in step S601 is in the 3DLUT created in advance. Then, if the pixel value is in the 3DLUT (NO in step S603), the image distribution unit 401 determines that the pixel value is in the basic color range, and the process proceeds to step S605. If the pixel value is outside the 3DLUT (YES in step S603), the image distribution unit 401 determines that the pixel value is out of the basic color gamut, and the process proceeds to step S604.

ここで、上記3DLUTの作成方法を説明する。まず、プリンタ110を用いて全面黒(Y=0、またはL=0)から全面白(Y=255、またはL=100)まで数段階に振った画像を出力する。次に、輝度をY=Ysに設定したプロジェクタ120で、Cr=−200〜200、Cb=−200〜200まで数段階に振ったパッチ画像を、プリンタ110が出力した画像(出力物)上に投影する。または、輝度をL=Lsに設定したプロジェクタ120で、a=−200〜200、b=−200〜200まで数段階に振ったパッチ画像を投影する。さらに、プロジェクタのそれぞれの投影輝度に対して先にプリンタで出力したパッチ画像を測定し、3DLUTを作成する。   Here, a method of creating the 3DLUT will be described. First, using the printer 110, an image with several levels from black (Y = 0 or L = 0) to white (Y = 255 or L = 100) is output. Next, with the projector 120 in which the luminance is set to Y = Ys, a patch image with several steps of Cr = -200 to 200 and Cb = -200 to 200 is displayed on the image (output) output from the printer 110. Project Alternatively, a patch image with several steps of a = −200 to 200 and b = −200 to 200 is projected by the projector 120 in which the luminance is set to L = Ls. Furthermore, a patch image previously output by the printer is measured for each projection brightness of the projector to create a 3D LUT.

ステップS604において、画像振り分け部401は、図9に示すシステムの色域に基づき、Ys(またはLs)を更新し、ステップS605の処理に進む。図9に示す内側のひし形の領域901は、第1実施形態のシステムの色域、すなわち基本色域を示す。外側のひし形の領域は、第2実施形態のシステムの色域を示す。領域902は、第2実施形態のシステムの色域のうち、第1実施形態のシステムの色域よりも輝度成分が大きい領域を示す。領域903は、第2実施形態のシステムの色域のうち、第1実施形態のシステムの色域よりも輝度成分が小さい領域を示す。領域904は、第2実施形態におけるシステムの色域のうち、第1実施形態のシステムの色域よりも色差成分が大きい領域を示す。つまり、領域902,903はプリンタ110のみでは再現不可である色域であって、プリンタ110とプロジェクタ120とを合せて用いることで再現可能となる色域を表している。また、領域904は、プロジェクタ120のみでは再現不可である色域であって、プリンタ110とプロジェクタ120とを合せて用いることで再現可能となる色域を表している。画像振り分け部401は、ステップS601で取得した画素の輝度成分が領域902に属するときは、以下の式16を用いてYs(またはLs)を更新し、該輝度成分が領域903に属するときは、以下の式17を用いてYs(またはLs)を更新する。式16及び式17における“8”や“5”といった数値はユーザによって指定可能であり、画像処理装置200が備える記憶装置(図示せず)等に予め格納されているものとする。
Ys=Ys+8(または、Ls=Ls+5) ・・・(式16)
Ys=Ys−8(または、Ls=Ls−5) ・・・(式17)
In step S604, the image distribution unit 401 updates Ys (or Ls) based on the color gamut of the system illustrated in FIG. 9, and the processing proceeds to step S605. An inner diamond-shaped area 901 shown in FIG. 9 shows the color gamut of the system of the first embodiment, ie, the basic color gamut. The outer diamond area shows the color gamut of the system of the second embodiment. A region 902 indicates a region in the luminance range of the system of the second embodiment that is larger than that of the system of the first embodiment. An area 903 indicates an area in which the luminance component is smaller than the color gamut of the system of the first embodiment in the color gamut of the system of the second embodiment. An area 904 indicates an area in the color gamut of the system according to the second embodiment that has a color difference component larger than that of the system according to the first embodiment. That is, the areas 902 and 903 are color gamuts that can not be reproduced only by the printer 110, and represent color gamuts that can be reproduced by using the printer 110 and the projector 120 together. An area 904 is a color gamut which can not be reproduced only by the projector 120, and represents a color gamut which can be reproduced by using the printer 110 and the projector 120 in combination. When the luminance component of the pixel acquired in step S 601 belongs to the area 902, the image distribution unit 401 updates Ys (or Ls) using Equation 16 below, and when the luminance component belongs to the area 903, Update Ys (or Ls) using Equation 17 below. Numerical values such as “8” and “5” in Equation 16 and Equation 17 can be designated by the user, and are stored in advance in a storage device (not shown) or the like included in the image processing apparatus 200.
Ys = Ys + 8 (or Ls = Ls + 5) (Equation 16)
Ys = Ys-8 (or Ls = Ls-5) (Expression 17)

ステップS605において、画像振り分け部401は、Ys(またはLs)を用いて、低周波輝度成分画像データを作成する。より具体的には、画像振り分け部401は、ステップS601で取得した画素と同じ画素位置にYs(またはLs)を設定した画像データを作成する。この処理が輝度成分画像データの全画素について行われることで、低周波輝度成分画像データが生成される。図7に示すプロジェクタ用輝度成分画像705は、低周波輝度成分画像データによって示される画像の一例である。   In step S605, the image distribution unit 401 creates low-frequency luminance component image data using Ys (or Ls). More specifically, the image distribution unit 401 creates image data in which Ys (or Ls) is set at the same pixel position as the pixel acquired in step S601. The low frequency luminance component image data is generated by performing this process for all pixels of the luminance component image data. The projector luminance component image 705 shown in FIG. 7 is an example of an image represented by low frequency luminance component image data.

ステップS606において、画像振り分け部401は、全画素について処理が終了したかどうかを判定する。全画素について処理が終了していれば(ステップS606のYES)、処理は終了する。全画素について処理が終了していなければ(ステップS606のNO)、処理はステップS601に戻る。   In step S606, the image sorting unit 401 determines whether the process has been completed for all pixels. If the process has been completed for all pixels (YES in step S606), the process ends. If the process has not been completed for all pixels (NO in step S606), the process returns to step S601.

以上のようにして、図7に示すように、輝度成分画像702から、プロジェクタ用輝度成分画像705が生成される。プロジェクタ用輝度成分画像705は、各画素に128,136(=128+8),120(=128−8)のいずれかの画素値が設定された、低周波の輝度成分画像である。なお、図7に示すプリンタ用輝度成分画像704は、画像振り分け部401から第1の画像生成部103に転送される輝度成分画像データによって示される画像であり、輝度成分画像702と同一である。また、プリンタ用画像708は、輝度成分画像データと低周波色差成分画像データとを合成して得られる合成画像データによって示される画像の一例である。   As described above, as shown in FIG. 7, the projector luminance component image 705 is generated from the luminance component image 702. The projector luminance component image 705 is a low frequency luminance component image in which pixel values of 128, 136 (= 128 + 8), 120 (= 128-8) are set for each pixel. The printer luminance component image 704 shown in FIG. 7 is an image represented by the luminance component image data transferred from the image distribution unit 401 to the first image generation unit 103, and is the same as the luminance component image 702. The printer image 708 is an example of an image represented by composite image data obtained by combining the luminance component image data and the low frequency color difference component image data.

また、画像振り分け部401は、色差成分画像データの各画素について上記の処理を同様に行って、低周波色差成分画像データを生成する。図7に示すプリンタ用色差成分画像706は、低周波色差成分画像データによって示される画像の一例である。なお、色差成分画像データの各画素について上記の処理を行う場合には、ステップS602において、プリンタ110の色差成分初期値を設定すればよい。色差成分初期値はCrs=Cbs=0(またはas=bs=50)である。また、ステップS603において、ステップS601で取得した画素の色差成分が、プラス側(図9において右側)の領域904に属するときには、式16と同様の式を用いてCrsとCbs(または、asとbs)を更新すればよい。また、ステップS603において、ステップS601で取得した画素の色差成分がマイナス側(図9において左側)の領域904に属するときには、式17と同様の式を用いてCrsとCbs(または、asとbs)を更新すればよい。なお、図7に示すプロジェクタ用色差成分画像707は、画像振り分け部401から第2の画像生成部104に転送される色差成分画像データによって示される画像であり、色差成分画像703と同一である。また、プロジェクタ用画像709は、色差成分画像データと低周波輝度成分画像データとを合成して得られる合成画像データによって示される画像の一例である。   Further, the image distribution unit 401 similarly performs the above-described processing on each pixel of the color difference component image data to generate low frequency color difference component image data. The printer color-difference component image 706 shown in FIG. 7 is an example of an image indicated by low-frequency color-difference component image data. When the above processing is performed on each pixel of the color difference component image data, the color difference component initial value of the printer 110 may be set in step S602. The color difference component initial value is Crs = Cbs = 0 (or as = bs = 50). In step S603, when the color difference component of the pixel acquired in step S601 belongs to the region 904 on the plus side (the right side in FIG. 9), Crs and Cbs (or as and bs) using the same equation as equation 16. ) Should be updated. Further, in step S603, when the color difference component of the pixel acquired in step S601 belongs to the area 904 on the minus side (left side in FIG. 9), Crs and Cbs (or as and bs) using the same equation as equation 17. Should be updated. The projector color-difference component image 707 shown in FIG. 7 is an image represented by the color-difference component image data transferred from the image distribution unit 401 to the second image generation unit 104, and is the same as the color-difference component image 703. The projector image 709 is an example of an image represented by composite image data obtained by combining the chrominance component image data and the low frequency luminance component image data.

以上のように、本実施形態では、入力画像の輝度成分をプロジェクタ120にも出力させるようにしているので、再現画像におけるダイナミックレンジをさらに拡大させることができる。それにより、例えば、図8に示す入力画像801のように、被写体(人物)にスポットライトが当たっている場面を撮影して得られた画像を表示する際に、スポットライトが被写体に当たる様子をより忠実に再現することが可能となる。なお、図8に示す画像802〜809は、画像702〜709と同様である。すなわち、画像802〜809は、入力画像801に対して本実施形態における画像処理を適用した場合に処理過程において生成される画像データによって示される画像のそれぞれに対応する。なお、説明の簡単のため、画像802〜809についての説明は省略する。   As described above, in the present embodiment, since the luminance component of the input image is also output to the projector 120, the dynamic range of the reproduced image can be further expanded. Thus, for example, when displaying an image obtained by photographing a scene in which the spotlight is on the subject (person) as in the input image 801 shown in FIG. It can be faithfully reproduced. Images 802 to 809 shown in FIG. 8 are the same as the images 702 to 709. That is, the images 802 to 809 correspond to each of the images indicated by the image data generated in the processing process when the image processing in the present embodiment is applied to the input image 801. In addition, the description about the images 802-809 is abbreviate | omitted for the simplification of description.

また、本実施形態では、入力画像の輝度成分をプロジェクタ120に出力させる際に、高周波の輝度成分画像同士が重畳されないように、低周波な輝度成分画像を生成し、それをプロジェクタ120に出力させるようにしている。よって、プリンタ110とプロジェクタ120との両方に輝度成分画像を出力させた場合でも、画素ずれによる画質の劣化を目立たちにくくすることができる。   Further, in the present embodiment, when the luminance component of the input image is output to the projector 120, a low frequency luminance component image is generated and output to the projector 120 so that the high frequency luminance component images are not superimposed. It is like that. Therefore, even when the luminance component image is output to both the printer 110 and the projector 120, the deterioration of the image quality due to the pixel shift can be made less noticeable.

また、本実施形態では、入力画像の色差成分をプリンタ110にも出力させるようにしているので、再現画像における色域をさらに拡大させることができる。よって、例えば、図7に示す入力画像701における被写体(車)のボディの色や“ABC”などの文字の色が彩度の高い色(蛍光の黄緑色や蛍光のオレンジ色など)である場合でも、再現画像においてそれらの色をより忠実に再現することが可能となる。なお、本実施形態では、低周波色差成分画像データを生成する際に、低周波輝度成分画像データを生成する場合と同様の手法で低周波な画像データを生成するようにしている。しかし、高周波の色差成分画像同士を重畳させた場合は、高周波の輝度成分画像同士を重畳させた場合と比較して画素ずれが目立ちにくい。したがって、低周波色差成分画像データは、必ずしも低周波輝度成分画像データと同程度に低周波にする必要はなく、上記以外の手法で生成するようにしてもよい。   Further, in the present embodiment, since the color difference component of the input image is also output to the printer 110, the color gamut in the reproduced image can be further expanded. Therefore, for example, when the color of the body of the subject (car) or the color of characters such as "ABC" in the input image 701 shown in FIG. 7 is a high saturation color (fluorescent yellow green, fluorescent orange, etc.) However, these colors can be reproduced more faithfully in the reproduced image. In the present embodiment, when the low frequency color difference component image data is generated, low frequency image data is generated by the same method as in the case of generating the low frequency luminance component image data. However, when the high-frequency color difference component images are superimposed, the pixel shift is less noticeable as compared with the case where the high-frequency luminance component images are superimposed. Therefore, the low frequency chrominance component image data does not necessarily have to have a frequency as low as that of the low frequency luminance component image data, and may be generated by a method other than the above.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

102 画像分割部
103 第1の画像生成部
104 第2の画像生成部
102 image division unit 103 first image generation unit 104 second image generation unit

Claims (15)

入力画像データに基づいて第1のデバイスによる出力像と第2のデバイスによる出力像とを重畳して表示させることで、前記入力画像データが表す画像を形成する画像形成システムにおける画像処理装置であって、
前記入力画像データを色差成分と輝度成分に分割する分割手段と、
前記色差成分を用いずに、前記輝度成分のみに基づいて、前記第1のデバイスに前記出力像を出力させるための前記第1のデバイス用の画像データを生成する第1の生成手段と、
前記輝度成分を用いずに、前記色差成分のみに基づいて、前記第2のデバイスに前記出力像を出力させるための前記第2のデバイス用の画像データを生成する第2の生成手段と、を有する
ことを特徴とする画像処理装置。
An image processing apparatus in an image forming system which forms an image represented by input image data by superimposing and displaying an output image by a first device and an output image by a second device based on input image data. ,
A division unit that divides the input image data into a color difference component and a luminance component;
First generation means for generating image data for the first device for causing the first device to output the output image based only on the luminance component without using the color difference component;
Second generation means for generating image data for the second device for causing the second device to output the output image based only on the color difference component without using the luminance component; An image processing apparatus characterized by having.
前記第1の生成手段は、前記第1のデバイス用の画像データの各画素位置の輝度成分に、前記入力画像データの対応する画素位置の輝度成分が示す輝度を設定し、該各画素位置の色差成分に、予め定めた色差を設定し、
前記第2の生成手段は、前記第2のデバイス用の画像データの各画素位置の色差成分に、前記入力画像データの対応する画素位置の色差成分が示す色差を設定し、該各画素位置の輝度成分に、予め定めた輝度を設定する
ことを特徴とする請求項1に記載の画像処理装置。
The first generation means sets the luminance indicated by the luminance component of the corresponding pixel position of the input image data to the luminance component of each pixel position of the image data for the first device. Set a predetermined color difference to the color difference component,
The second generation means sets the color difference indicated by the color difference component of the corresponding pixel position of the input image data to the color difference component of each pixel position of the image data for the second device. The image processing apparatus according to claim 1, wherein a predetermined luminance is set to the luminance component.
前記予め定めた色差が、前記第1のデバイス用の画像データに設定し得る色差の中間値であり、前記予め定めた輝度が、前記第2のデバイス用の画像データに設定し得る輝度の中間値である
ことを特徴とする請求項2に記載の画像処理装置。
The predetermined color difference is an intermediate value of the color difference that can be set to the image data for the first device, and the predetermined brightness is an intermediate value of the brightness that can be set to the image data for the second device. It is a value. The image processing device according to claim 2.
前記第1の生成手段は、前記輝度成分に基づいて、前記第1のデバイス用の画像データよりも低周波の輝度成分画像データを生成し、
前記第2の生成手段は、
前記輝度成分を用いずに前記色差成分のみに基づいて生成した前記第2のデバイス用の画像データと、前記低周波の輝度成分画像データとを合成して得られる合成画像データを、新たな前記第2のデバイス用の画像データとする
ことを特徴とする請求項1から請求項3のうちのいずれか1項に記載の画像処理装置。
The first generation means generates, based on the luminance component, luminance component image data of lower frequency than the image data for the first device,
The second generation means is
The composite image data obtained by combining the image data for the second device generated based on only the color difference component without using the luminance component, and the low frequency luminance component image data, is newly described. The image processing apparatus according to any one of claims 1 to 3, wherein the image data for the second device is used.
前記第1の生成手段は、前記入力画像データに、前記第1のデバイスで再現可能な色域外の輝度を示す輝度成分が含まれている場合に、前記低周波の輝度成分画像データを生成する
ことを特徴とする請求項4に記載の画像処理装置。
The first generation means generates the low frequency luminance component image data when the input image data includes a luminance component indicating luminance outside the color gamut reproducible by the first device. The image processing apparatus according to claim 4, characterized in that:
前記第1の生成手段は、
前記入力画像データについて、画素位置ごとに、該画素位置の輝度成分が示す輝度が前記第1のデバイスで再現可能な色域内であるか否かを判定し、
前記第1のデバイスで再現可能な色域内の輝度を示す輝度成分を有する画素位置については、予め定めた第1の輝度を設定し、前記第1のデバイスで再現可能な色域を上まわる輝度を示す輝度成分を有する画素位置については、前記第1の輝度よりも大きい第2の輝度を設定し、前記第1のデバイスで再現可能な色域を下まわる輝度を示す輝度成分を有する画素位置については、前記第1の輝度よりも小さい第3の輝度を設定することで、前記低周波の輝度成分画像データを生成する
ことを特徴とする請求項4または請求項5に記載の画像処理装置。
The first generation means is
With respect to the input image data, it is determined, for each pixel position, whether or not the luminance indicated by the luminance component of the pixel position is within a color range reproducible by the first device;
A first predetermined brightness is set for a pixel position having a brightness component indicating a brightness within a color range reproducible by the first device, and a brightness exceeding the color gamut reproducible by the first device is set. For a pixel position having a luminance component indicating a second luminance that is greater than the first luminance, and a pixel position having a luminance component that indicates a luminance below the color gamut reproducible by the first device The image processing apparatus according to claim 4 or 5, wherein the low frequency luminance component image data is generated by setting a third luminance smaller than the first luminance. .
前記予め定めた第1の輝度が、前記第2のデバイス用の画像データに設定し得る輝度の中間値である
ことを特徴とする請求項6に記載の画像処理装置。
The image processing apparatus according to claim 6, wherein the first predetermined brightness is an intermediate value of the brightness that can be set to the image data for the second device.
前記第2の生成手段は、前記色差成分に基づいて、前記第2のデバイス用の画像データよりも低周波の色差成分画像データを生成し、
前記第1の生成手段は、
前記色差成分を用いずに前記輝度成分のみに基づいて生成した前記第1のデバイス用の画像データと、前記低周波の色差成分画像データとを合成して得られる合成画像データを、新たな前記第1のデバイス用の画像データとする
ことを特徴とする請求項1から請求項7のうちのいずれか1項に記載の画像処理装置。
The second generation unit generates color difference component image data having a frequency lower than that of the image data for the second device, based on the color difference component.
The first generation means is
The composite image data obtained by combining the image data for the first device generated based only on the luminance component without using the color difference component and the color difference component image data of the low frequency is newly described. The image processing apparatus according to any one of claims 1 to 7, wherein the image processing apparatus is an image data for a first device.
前記第2の生成手段は、前記入力画像データに、前記第2のデバイスで再現可能な色域外の色差を示す色差成分が含まれている場合に、前記低周波な色差成分画像データを生成する
ことを特徴とする請求項8に記載の画像処理装置。
The second generation unit generates the low-frequency color difference component image data when the input image data includes a color difference component indicating a color difference outside the color gamut reproducible by the second device. The image processing apparatus according to claim 8, characterized in that:
前記第2の生成手段は、
前記入力画像データについて、画素位置ごとに、該画素位置の色差成分が示す色差が前記第2のデバイスで再現可能な色域内であるか否かを判定し、
前記第2のデバイスで再現可能な色域内の色差を示す色差成分を有する画素位置については、予め定めた第1の色差を設定し、前記第2のデバイスで再現可能な色域を上まわる色差を示す色差成分を有する画素位置については、前記第1の色差よりも大きい第2の色差を設定し、前記第2のデバイスで再現可能な色域を下まわる色差を示す色差成分を有する画素位置については、前記第1の色差よりも小さい第3の色差を設定することで、前記低周波な色差成分画像データを生成する
ことを特徴とする請求項8または請求項9に記載の画像処理装置。
The second generation means is
With respect to the input image data, it is determined, for each pixel position, whether or not the color difference indicated by the color difference component of the pixel position is within a color range reproducible by the second device.
A first predetermined color difference is set for a pixel position having a color difference component indicating a color difference within a reproducible color range by the second device, and a color difference exceeding the color gamut reproducible by the second device For a pixel position having a color difference component indicating a second color difference larger than the first color difference, and a pixel position having a color difference component indicating a color difference below the color gamut reproducible by the second device 10. The image processing apparatus according to claim 8, wherein the low-frequency color difference component image data is generated by setting a third color difference smaller than the first color difference. .
前記予め定めた第1の色差が、前記第1のデバイス用の画像データに設定し得る色差の中間値である
ことを特徴とする請求項10に記載の画像処理装置。
The image processing apparatus according to claim 10, wherein the predetermined first color difference is an intermediate value of the color difference that can be set to the image data for the first device.
前記第1のデバイスが、前記第2のデバイスよりも高解像度の画像を出力可能である
ことを特徴とする請求項1から請求項11のうちのいずれか1項に記載の画像処理装置。
The image processing apparatus according to any one of claims 1 to 11, wherein the first device can output an image having a resolution higher than that of the second device.
第1のデバイスがプリンタであり、第2のデバイスがプロジェクタである
ことを特徴とする請求項1から請求項12のうちのいずれか1項に記載の画像処理装置。
The image processing apparatus according to any one of claims 1 to 12, wherein the first device is a printer and the second device is a projector.
入力画像データに基づいて第1のデバイスによる出力像と第2のデバイスによる出力像とを重畳して表示させることで、前記入力画像データが表す画像を形成する画像形成システムにおける画像処理方法であって、
前記入力画像データを色差成分と輝度成分に分割する分割ステップと、
前記色差成分を用いずに、前記輝度成分のみに基づいて、前記第1のデバイスに前記出力像を出力させるための前記第1のデバイス用の画像データを生成する第1の生成ステップと、
前記輝度成分を用いずに、前記色差成分のみに基づいて、前記第2のデバイスに前記出力像を出力させるための前記第2のデバイス用の画像データを生成する第2の生成ステップと、を含む
ことを特徴とする画像処理方法。
An image processing method in an image forming system for forming an image represented by the input image data by superimposing and displaying an output image by a first device and an output image by a second device based on input image data. ,
A division step of dividing the input image data into a color difference component and a luminance component;
A first generation step of generating image data for the first device for causing the first device to output the output image based only on the luminance component without using the color difference component;
A second generation step of generating image data for the second device for causing the second device to output the output image based only on the color difference component without using the luminance component; An image processing method comprising:
コンピュータを、請求項1から請求項13のうちのいずれか1項に記載の画像処理装置として機能させるためのプログラム。   A program for causing a computer to function as the image processing device according to any one of claims 1 to 13.
JP2017191324A 2017-09-29 2017-09-29 Image processing device, image processing method, and program Pending JP2019067097A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017191324A JP2019067097A (en) 2017-09-29 2017-09-29 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017191324A JP2019067097A (en) 2017-09-29 2017-09-29 Image processing device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2019067097A true JP2019067097A (en) 2019-04-25

Family

ID=66337910

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017191324A Pending JP2019067097A (en) 2017-09-29 2017-09-29 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2019067097A (en)

Similar Documents

Publication Publication Date Title
JP5179829B2 (en) Gray data correction apparatus and method
TWI285046B (en) Signal processor and method, and program
EP2426928A2 (en) Image processing apparatus, image processing method and program
JP2000165692A (en) Color data converting method
JP4687673B2 (en) Monotone processing of color image
JP6122716B2 (en) Image processing device
JP2020004267A (en) Image processing apparatus, control method and program
KR20050098949A (en) Image processing device, method, and program
JP2005210495A (en) Image processing apparatus, method, and program
JP2010183232A (en) Color gamut conversion device
JP7327957B2 (en) Image display system, method and program
JP2005064789A (en) Monotonization processing of color image
JP5950756B2 (en) Image processing apparatus and image processing method
JP5523078B2 (en) Image processing apparatus and image processing method
JP7296745B2 (en) Image processing device, image processing method, and program
JPS62206556A (en) Artificial coloring method for picture image
JP2019067097A (en) Image processing device, image processing method, and program
JP5322326B2 (en) Color correction table calculation circuit, color correction device, display device, color correction method, and program
JP3749102B2 (en) Image processing apparatus, image forming apparatus, and image processing method
JP2007312313A (en) Image processor, image processing method and program
KR20110095556A (en) Image projection apparatus and image correcting method thereof
US8018468B2 (en) Image signal processor, image signal processing method for use in the same, and program
JP2021082069A (en) Image processing system, imaging apparatus, image processing method, and program
JP2007158446A (en) Image processor, image processing method and program, recording medium
JP2008072340A (en) Color processor