WO2005027040A1 - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
WO2005027040A1
WO2005027040A1 PCT/JP2004/013604 JP2004013604W WO2005027040A1 WO 2005027040 A1 WO2005027040 A1 WO 2005027040A1 JP 2004013604 W JP2004013604 W JP 2004013604W WO 2005027040 A1 WO2005027040 A1 WO 2005027040A1
Authority
WO
WIPO (PCT)
Prior art keywords
profile
processing
color
image
image processing
Prior art date
Application number
PCT/JP2004/013604
Other languages
English (en)
French (fr)
Inventor
Haruo Yamashita
Akio Kojima
Takeshi Ito
Yasuhiro Kuwahara
Tatsumi Watanabe
Yusuke Monobe
Toshiharu Kurosawa
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to US10/571,123 priority Critical patent/US20070165048A1/en
Priority to EP04773248A priority patent/EP1667063A4/en
Publication of WO2005027040A1 publication Critical patent/WO2005027040A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6016Conversion to subtractive colour signals
    • H04N1/6019Conversion to subtractive colour signals using look-up tables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6002Corrections within particular colour systems
    • H04N1/6005Corrections within particular colour systems with luminance or chrominance signals, e.g. LC1C2, HSL or YUV
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6002Corrections within particular colour systems
    • H04N1/6008Corrections within particular colour systems with primary colour signals, e.g. RGB or CMY(K)
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/603Colour correction or control controlled by characteristics of the picture signal generator or the picture reproducer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/85Camera processing pipelines; Components thereof for processing colour signals for matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/67Circuits for processing colour signals for matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/73Colour balance circuits, e.g. white balance circuits or colour temperature control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control

Definitions

  • the present invention relates to an image processing device, and more particularly to an image processing device that performs color processing of an image signal.
  • the color processing is, for example, processing called display color conversion processing, color gamut conversion processing, memory color correction processing, and the like.
  • the display color conversion process is a process of adjusting the overall color tone of an image signal. For example, the brightness of the image signal is adjusted, or the image signal is adjusted to have a specific effect (for example, a film-like process). This is the processing to be performed.
  • the color gamut conversion process is a process performed to reproduce and display an image signal in a color space unique to an image signal input / output device, and is a process called color gamut compression (GamutMapPinng).
  • the memory color correction process is a process of adjusting a specific color such as a sky color, a skin color, or a green color in an image signal so as to be suitable for storage.
  • mapping an input image signal it is necessary to perform a process of mapping an input image signal to another space using a certain mapping function.
  • a mapping function is generally not often a linear mapping function, and in some cases, it is not possible to formulate such a mapping function. Therefore, in such processing, processing using a look-up table is performed.
  • the problem with processing using a look-up table is how to perform high-precision color processing while reducing the capacity of the storage device that stores the look-up table. That is, if the data of the image signals subjected to the color processing for all the input image signals is stored in the look-up table, the look-up table has an enormous capacity. On the other hand, only the data of the color-processed image signals for some image signals is stored in the lookup table. 2004/013604
  • the look-up table stores the color-processed image signal data for a part of the input image signal, and uses this look-up table to interpolate to improve the accuracy of the color processing.
  • Japanese Patent Application Laid-Open No. 4-36671 Japanese Patent Application Laid-Open No. 4-36671
  • a technique for obtaining a look-up table that repeatedly corrects a look-up table to improve the color reproducibility of a memory color for example, Japanese Patent Application Laid-Open No. H11-205620 is known.
  • display color conversion process color gamut conversion process
  • memory color correction process it is required to arbitrarily adjust the degree of processing in each of the above-mentioned processes.
  • display color conversion processing, the memory color correction processing, and the like color processing according to each viewer's preference is required.
  • an object of the present invention is to provide an image processing apparatus capable of arbitrarily adjusting the processing degree for various color processing while reducing the storage capacity for storing a lookup table.
  • An image processing device is an image processing device that performs color processing of an image signal, and includes a color conversion lookup table creation unit and a color processing execution unit.
  • the color conversion look-up table creation unit is configured to perform a new color conversion for realizing a predetermined processing degree for a predetermined color processing based on a plurality of basic color conversion lookup tables for realizing a different processing degree for a predetermined color processing. Create a lookup table.
  • the color processing execution unit based on the created new color conversion look-up table, Executes color processing of the image signal.
  • the predetermined color process is, for example, a process called a display color conversion process, a color gamut conversion process, a memory color correction process, and the like (hereinafter, the same applies in this section).
  • the processing degree of the color processing is, for example, in the case of the memory color correction processing, the enhancement degree of the color correction processing for enhancing the memory color (the same applies in this section).
  • An image processing device is the image processing device according to the first aspect, wherein the color conversion look-up table creation unit has a creation execution unit and a look-up table storage unit.
  • the creation execution unit creates a new color conversion look-up table based on the degree of synthesis of a plurality of basic color conversion look-up tables that realize different processing degrees for the predetermined color processing.
  • the look-up table storage unit stores the new color conversion look-up table created by the creation execution unit.
  • the color processing execution unit executes color processing of the image signal based on the new color conversion look-up table stored in the look-up table storage unit.
  • the creation execution unit uses, for example, the degree of synthesis of the plurality of basic color conversion look-up tables to divide the corresponding elements in each of the basic color conversion look-up tables into or out of the corresponding element, and creates a new color conversion lookup. Determine the value of each element in the table.
  • the look-up table storage unit stores the value of each element of the new color conversion look-up table.
  • the color processing execution unit executes color processing of the image signal using the new color conversion look-up table stored in the look-up table storage unit.
  • the image processing device is the image processing device according to claim 1 or 2.
  • the plurality of basic color conversion look-up tables include a basic color conversion look-up table for realizing a default processing degree for a predetermined color processing and a basic color conversion look-up table for increasing or decreasing the default processing degree. And a basic color conversion lookup table to be implemented.
  • the creation execution unit may use a basic color conversion look-up table that realizes a default processing degree based on the degree of synthesis of a plurality of basic color conversion lookup tables, and may increase or decrease the default processing degree.
  • Each element corresponding to the basic color conversion look-up table that realizes the processing degree is divided internally or externally, and the value of each element of the new color conversion lookup table is determined.
  • the image processing apparatus of the present invention it is possible to perform color processing using the basic color conversion look-up table for realizing the default processing degree, and to realize the default processing degree as necessary. It is also possible to customize the color conversion lookup table and perform color processing.
  • the image processing device is the image processing device according to any one of claims 1 to 3, wherein each of the basic color conversion lookup tables includes a color realized by combining a plurality of different color processes. It is a conversion lookup table.
  • the basic color conversion look-up table stores, for example, a result of serially performing a plurality of color processes on an image signal. Further, each of the basic color conversion look-up tables is a color conversion look-up table that realizes different processing degrees for some of the plurality of color processes.
  • the image processing apparatus of the present invention since a color conversion look-up table realized by combining a plurality of color processes is used, it is possible to reduce the time required to execute the plurality of color processes. Further, at least a part of the plurality of color processes can be executed at an arbitrary processing degree.
  • the image processing device is the image processing device according to any one of claims 1 to 3, wherein the color conversion look-up table creation unit includes a plurality of color conversions created for each color process.
  • a look-up table that combines a plurality of color conversion look-up tables created based on a plurality of basic color conversion look-up tables that achieve different degrees of processing for each color process, thereby creating a new color conversion look. Create an uptable.
  • the color conversion look-up table creation unit creates a new color conversion look-up table by combining a plurality of basic color conversion look-up tables.
  • the image processing device of the present invention it is possible to create a new color conversion lookup table that realizes an arbitrary processing degree for each of the plurality of color processes. For this reason, it is possible to realize more accurate image processing.
  • An image processing method is an image processing method for performing color processing of an image signal, comprising a color conversion lookup table creation step and a color processing execution step.
  • the color conversion look-up table creation step includes a new color conversion look-up that realizes a predetermined processing degree for the predetermined color processing based on a plurality of basic color conversion look-up tables that realize different processing degrees for the predetermined color processing. Create a table.
  • the color processing execution step executes color processing of the image signal based on the created new color conversion look-up table.
  • An image processing program according to claim 7 is an image processing program for performing color processing of an image signal by a computer, wherein the image processing method includes a color conversion lookup table creation step and a color processing execution step. Let the computer do it.
  • the color conversion look-up table creation step is based on a plurality of basic color conversion look-up tables that realize different processing degrees for the predetermined color processing, and a new color conversion look-up that realizes the predetermined processing degree for the predetermined color processing. Create a table.
  • the color processing execution step executes color processing of the image signal based on the created new color conversion look-up table.
  • the integrated circuit according to claim 8 is an image processing device according to any one of claims 1 to 5. including.
  • a display device includes the image processing device according to any one of the first to fifth aspects, and a display unit that displays a color-processed image signal output from the image processing device. .
  • the image processing apparatus performs image processing, and performs color processing using an image captured by the image capturing device as an image signal. Device.
  • the portable information terminal is a data receiving means for receiving communication or broadcast image data, and performing color processing using the received image data as an image signal.
  • An image processing apparatus according to any one of claims 1 to 5, wherein the portable information terminal according to claim 12 is a photographing means for photographing an image, and performs color processing using an image photographed by the photographing means as an image signal. And a data transmission means for transmitting the color-processed image signal.
  • An image processing apparatus is an image processing apparatus that performs color processing of an input image signal, and includes a profile creation unit and an image processing execution unit.
  • the profile creation means creates a profile used for color processing based on a plurality of profiles for performing different color processing.
  • the image processing execution means is a professional Color processing is performed using the profile created by the file creation means.
  • the color processing includes, for example, display color conversion processing, color gamut conversion processing, memory color correction processing, and the like.
  • a profile is, for example, coefficient matrix data for performing an operation on an image signal, or table data for storing a color-processed image signal value for an image signal value. ).
  • the image processing device of the present invention creates a new profile based on a plurality of profiles. Therefore, even if the number of profiles prepared in advance is small, it is possible to perform many different color processes. That is, the storage capacity for storing the profiles can be reduced.
  • An image processing device is an image processing device that performs color processing of an input image signal, and includes a profile information output unit and an image processing execution unit.
  • the profile information output means outputs profile information for specifying a profile used for color processing.
  • the image processing execution means performs color processing using a profile specified based on the information output from the profile information output means.
  • the profile information includes, for example, data stored in the profile, tag information such as a number for specifying the profile file, parameter information indicating characteristics of the profile processing, and other information for specifying the profile. It is.
  • the image processing device of the present invention it is possible to control the profile and perform color processing based on the profile information.
  • the image processing device is the image processing device according to claim 14, wherein the profile information output unit outputs the profile information according to a display environment for displaying the color-processed image signal. Output.
  • the display environment includes, for example, the brightness and color temperature of ambient light, the device that performs display, the size of the displayed image, the positional relationship between the displayed image and the user who views the displayed image, Information.
  • the image processing device of the present invention it is possible to perform color processing according to the display environment.
  • the image processing device according to claim 16 is the image processing device according to claim 14.
  • the profile information output means outputs the profile information according to the information related to the profile among the information included in the image signal.
  • the information related to the profile includes, for example, data stored in the profile, tag information such as a number for specifying the profile, parameter information indicating characteristics of the profile processing, and other information for specifying the profile.
  • the image processing apparatus of the present invention it is possible to obtain information related to a profile from an image signal and perform color processing.
  • the image processing device is the image processing device according to claim 14, wherein the profile information output means outputs profile information according to the acquired information relating to the characteristics of the color processing. I do.
  • the information on the characteristics of the color processing is information on the characteristics of the parameters of the color processing, such as values of parameters such as lightness, hue, saturation, and memory color correction characteristics.
  • the image processing apparatus of the present invention for example, it is possible to perform recolor processing by inputting information relating to the characteristics of color processing as the user prefers.
  • An image processing device is the image processing device according to claim 14, wherein the profile information output means outputs profile information in accordance with information relating to an environment in which the image signal is generated. Output.
  • the information related to the environment in which the image signal is generated includes, for example, information related to the shooting environment when the image signal is recorded by shooting, shooting permission information in the shooting environment, and the like.
  • the image processing device of the present invention it is possible to perform color processing in accordance with information relating to the environment in which the image signal was generated.
  • An image processing device is the image processing device according to claim 14, wherein the image signal includes image data and attribute information of the image signal.
  • the profile information output means outputs profile information according to the attribute information.
  • the image processing device of the present invention it is possible to perform color processing according to the attribute information of the image signal. For this reason, color processing suitable for the image signal can be performed.
  • the image processing device is the image processing device according to claim 19.
  • the attribute information includes overall attribute information relating to the entire image data.
  • the overall attribute information includes, for example, information on the production of the entire image data and information on the contents of the entire image data.
  • image processing device of the present invention it is possible to perform color processing according to the overall attribute information. For this reason, color processing suitable for image data can be performed.
  • An image processing device is the image processing device according to claim 19 or 20, wherein the attribute information includes partial attribute information relating to a part of the image data.
  • the partial attribute information includes, for example, information on a part of scene contents of image data.
  • color processing can be performed according to the partial attribute information. For this reason, color processing suitable for image data can be performed.
  • An image processing device is the image processing device according to claim 19, wherein the attribute information includes generation environment attribute information relating to an environment in which the image signal is generated.
  • the generation environment attribute information is information on the environment in which the image signal was captured, recorded, and created.For example, information on the environment when the image signal was generated, operation information of the device used for generation, etc. Contains.
  • the image processing device of the present invention it is possible to perform color processing according to the generation environment attribute information. For this reason, color processing suitable for the image signal can be performed.
  • An image processing apparatus is the image processing apparatus according to claim 19, wherein the attribute information includes medium attribute information relating to a medium from which the image signal has been acquired.
  • the medium attribute information is information related to the medium from which the image signal was obtained, such as a broadcast medium, a communication medium, and a recording medium.
  • color processing can be performed according to the medium attribute information. Therefore, it is possible to perform color processing suitable for the attribute of the medium.
  • the image processing device is the image processing device according to any one of claims 13 to 23, wherein the profile is a two-dimensional LUT.
  • Image processing execution means Includes the image processing device according to any one of claims 1 to 5.
  • the same effects as those of the image processing apparatus according to any one of claims 13 to 23 can be obtained. Further, the same effects as those of the image processing device according to any one of claims 1 to 5 can be obtained.
  • An image processing apparatus includes an image processing execution unit, a profile information output unit, and a profile information addition unit.
  • the image processing execution means performs color processing on the input image signal.
  • the profile information output means outputs profile information for specifying a profile for performing suitable color processing on the input image signal.
  • the profile information adding means adds profile information to the image signal or the image signal that has been color-processed by the image processing executing means and outputs the result. According to the image processing apparatus of the present invention, it is possible to process the image signal or the image signal subjected to the recolor processing by the image processing execution means in association with the profile information. Therefore, the device that has acquired the signal to which the profile information has been added can easily perform suitable color processing on the signal.
  • An integrated circuit according to claim 26 includes the image processing device according to any one of claims 13 to 25.
  • a display device includes the image processing device according to any one of claims 13 to 25, and display means for displaying an image signal that has been color-processed by the image processing device. I have.
  • the photographing apparatus wherein the photographing means for photographing an image, and performing color processing using the image photographed by the photographing means as an image signal.
  • An image processing device An image processing device.
  • a portable information terminal receives image data transmitted or broadcast.
  • An image processing device according to any one of claims 13 to 25, wherein the image processing device performs color processing using the received image data as an image signal, and an image that has been color-processed by the image processing device.
  • the portable information terminal wherein the photographing means for photographing an image, and performing color processing using an image photographed by the photographing means as an image signal. And a data transmitting means for transmitting the color-processed image signal.
  • a semiconductor device is a semiconductor device that performs color processing of an image signal, and includes a color conversion lookup table creation unit and a color processing execution unit.
  • the color conversion look-up table creation unit is configured to generate a new color that realizes a predetermined processing degree for the predetermined color processing based on a plurality of basic color conversion lookup tables that realize different processing degrees for the predetermined color processing. Create a conversion lookup table.
  • the color processing execution unit executes color processing of the image signal based on the created new color conversion lookup table.
  • the semiconductor device of the present invention it is possible to realize color processing of an arbitrary processing degree based on a small number of basic color conversion lookup tables.
  • the small number of basic color conversion look-up tables there is no need to prepare a color conversion look-up table with a different degree of processing in advance, reducing the storage capacity of memory for storing color conversion look-up tables It is possible to do.
  • a semiconductor device is a semiconductor device that performs color processing of an input image signal, and includes a profile creation unit and an image processing execution unit.
  • the profile creation unit creates a profile used for color processing based on a plurality of profiles for performing different color processing.
  • the image processing execution unit performs color processing using the profile created by the profile creation unit.
  • the color processing includes, for example, display color conversion processing, color gamut conversion processing, and memory color correction processing. And so on.
  • the profile is, for example, coefficient matrix data for performing an operation on an image signal, or table data for storing the value of a color-processed image signal with respect to the value of the image signal.
  • the semiconductor device of the present invention creates a new profile based on a plurality of profiles. Therefore, even if the number of profiles prepared in advance is small, it is possible to perform many different color processes. That is, it is possible to reduce the storage capacity of a memory or the like for storing the profile.
  • a semiconductor device is a semiconductor device that performs color processing of an input image signal, and includes a profile information output unit and an image processing execution unit.
  • the mouth file information output unit outputs mouth file information for specifying a profile used for color processing.
  • the image processing execution unit performs color processing using a profile specified based on the information output from the profile information output unit.
  • the profile information includes, for example, data stored in the profile, tag information such as a number for specifying the profile file, parameter information indicating characteristics of the profile processing, and other information for specifying the profile. .
  • the semiconductor device of the present invention it is possible to control the profile and perform color processing based on the profile information.
  • a semiconductor device includes an image processing execution unit, a profile information output unit, and a profile information addition unit.
  • the image processing execution unit performs color processing on the input image signal.
  • the profile information output section outputs profile information for specifying a profile for performing color processing suitable for the input image signal.
  • the profile information adding unit adds profile information to the image signal or the image signal that has been recolored by the image processing execution unit and outputs the result.
  • the semiconductor device of the present invention it is possible to process an image signal or an image signal subjected to color processing by an image processing execution unit in association with profile information. For this reason, the device that has acquired the signal to which the profile information has been added can easily perform suitable color processing on the signal.
  • FIG. 1 is a block diagram (first embodiment) for explaining the basic configuration of the image processing apparatus 10.
  • FIG. 2 is a block diagram (first embodiment) for explaining a specific configuration of the image processing apparatus 10.
  • FIG. 3 is a flowchart (first embodiment) for explaining a color conversion profile creation method.
  • FIG. 4 is a block diagram (second embodiment) illustrating a specific configuration of the image processing device 26.
  • FIG. 5 is a block diagram (third embodiment) illustrating a specific configuration of the image processing device 45.
  • FIG. 6 is a block diagram (fourth embodiment) for explaining a specific configuration of the image processing device 60.
  • FIG. 7 is a block diagram (fifth embodiment) for explaining a specific configuration of the image processing device 75.
  • FIG. 8 is a block diagram (sixth embodiment) illustrating the configuration of the display device 720.
  • FIG. 9 is a block diagram (sixth embodiment) illustrating the configuration of the display image processing device 723.
  • FIG. 10 is an explanatory diagram (sixth embodiment) illustrating the relationship between environment information and profiles.
  • FIG. 11 is a graph (sixth embodiment) illustrating the dynamic range compression function F4.
  • FIG. 12 is a block diagram (sixth embodiment) illustrating the configuration of the display image processing device 7555.
  • FIG. 13 is a block diagram illustrating the configuration of the display image processing device 759 (the sixth embodiment). Form).
  • FIG. 14 shows a format (sixth embodiment) of an input signal d110 including content information.
  • FIG. 15 shows a format (sixth embodiment) of an input signal d110 including scene attribute information.
  • FIG. 16 shows the format of the input signal d110 including the shooting attribute information (sixth embodiment).
  • FIG. 17 shows the format of the input signal d110 including the broadcast attribute information (sixth embodiment).
  • FIG. 18 shows the format of the input signal d110 including the recording attribute information (sixth embodiment).
  • FIG. 19 shows the format of the input signal d110 including the profile attribute information (sixth embodiment).
  • FIG. 20 is a block diagram (sixth embodiment) illustrating the configuration of the display image processing device 765.
  • FIG. 21 is a block diagram (seventh embodiment) illustrating the configuration of the image capturing device 820.
  • FIG. 22 is a block diagram (seventh embodiment) for explaining the configuration of the image processing device 832 for photographing.
  • FIG. 23 is an explanatory diagram (seventh embodiment) illustrating the relationship between environment information and profiles.
  • FIG. 24 is a block diagram (seventh embodiment) illustrating the configuration of the image processing device for image capturing 875.
  • FIG. 25 is a block diagram (seventh embodiment) illustrating the configuration of the image processing device for image capturing 870.
  • FIG. 26 is an explanatory diagram (seventh embodiment) for explaining the operation of the imaging image processing device 870.
  • FIG. 27 is a block diagram illustrating a configuration of a photographing image processing device 884 (seventh embodiment).
  • FIG. 28 is a block diagram (seventh embodiment) for explaining the configuration of the image processing device 890 for photographing.
  • FIG. 29 shows a format of the output image signal d3661 including the recommended profile information d140 (seventh embodiment).
  • FIG. 30 is a block diagram (seventh embodiment) for explaining the configuration of the image processing device for photographing 8896.
  • FIG. 31 is a block diagram (seventh embodiment) for explaining the configuration of the image processing device for photographing 905.
  • FIG. 32 is a block diagram (ninth embodiment) for explaining the overall configuration of the content supply system.
  • FIG. 33 shows an example (ninth embodiment) of a mobile phone equipped with the image processing device of the present invention.
  • FIG. 34 is a block diagram (ninth embodiment) for explaining the configuration of a mobile phone.
  • FIG. 35 shows an example of a digital broadcasting system (ninth embodiment).
  • the image processing apparatus 10 is a device that performs color processing of an image signal together with visual processing of the image signal.
  • the image processing apparatus 10 is provided in a device that handles images such as a computer, a digital camera, a mobile phone, a PDA, a printer, a scanner, and a digital television.
  • the image processing device 10 is an image processing device that receives an input signal d1 and outputs an image-processed output signal d3.
  • the image processing device 10 includes a visual processing unit 11 that receives an input signal d1 as an input and outputs a visually processed image signal d2, and a basic color conversion profile that stores a basic color conversion profile that is a basic color process.
  • the selection profile that is the data of the color conversion profile
  • a basic profile group storage unit 12 that outputs the mouth file data d5; a color processing unit 13 that inputs the image signal d2 and the selected profile data d5 and outputs a color-processed output signal d3; And a control unit 14 that supplies control signals c1 to c3 to each unit.
  • the visual processing unit 11 receives the control signal c1 from the control unit 14, performs visual processing such as spatial processing and gradation processing of the input signal d1, and outputs an image signal d2.
  • the visual processing unit 11 performs spatial processing using, for example, a low-pass spatial filter that allows only the low-pass space of the input signal d1 to pass.
  • a low-pass spatial filter a commonly used FIR (Finite Impulse Responses) type low-pass spatial filter, or (IIR (Infinite Impulse Respones) type low-pass spatial filter) is used.
  • the visual processing unit 11 performs gradation processing using a gamma curve or the like.
  • the basic profile group storage unit 12 stores, for example, a plurality of basic color conversion profiles for implementing color processing such as display color conversion processing, color gamut conversion processing, and memory color correction processing alone or in combination. .
  • Each basic color conversion profile is stored as a look-up table that provides a mapping from one color space to another. More specifically, the look-up table calculates the image signal values after color processing for the three-dimensional image signal values (RO, GO, BO) of R (red), G (green), and B (blue). (R 1, G 1, B 1) is stored as a three-dimensional lookup table.
  • the basic color conversion profile stored in the basic profile group storage unit 12 is calculated in advance by a personal computer (PC) 25 outside the image processing apparatus.
  • the calculated basic color conversion profile is stored in the basic profile group storage unit 12 by transferring from the PC 25 the basic profile data d4 which is the data of the basic color conversion profile.
  • the basic profile group storage unit 12 is configured by a ROM, a rewritable data updateable storage medium (RAM, hard disk, etc.), or a storage medium removable from the image processing apparatus 10 (memory card, etc.). You. Basic profile data d 4 created in advance is read from the PC 25 into the basic profile group storage unit 12 of the image processing apparatus 10. Also, basic profile group storage If the rewriting and data updating of section 12 are possible, the basic color conversion profile can be freely updated from outside by connecting to an external network.
  • the color processing section 13 receives the selected profile data d5 as input and outputs the processing profile data d7 as an output, and the image signal d2 and the processing profile data d7 as input and outputs signals.
  • the profile creation unit 15 receives the selected profile data d5 as input, and outputs the generated profile data d6 created based on the selected profile data as an output, and the generated profile data d6 as input. And a profile RAM 21 which outputs processing profile data d7, which is data used for color processing among the stored data.
  • the basic profile group storage unit 12 stores a plurality of profile groups including a plurality of basic color conversion profiles.
  • two profile groups 22 and 23 each consisting of two basic color conversion profiles are stored.
  • the profile group 22 includes two basic color conversion profiles 22a and 22b for realizing the processing X1 and the processing X2 having different processing degrees for the processing X.
  • the profile group 23 includes two basic color conversion profiles 23 a and 23 b for realizing the processing Y 1 and the processing Y 2 having different processing degrees for the processing Y.
  • the processing X or the processing Y is, for example, any one of display color conversion processing, color gamut conversion processing, and memory color correction processing, or display color conversion processing, color gamut conversion processing, and memory color correction processing. Such as combined color processing.
  • the profile group is a group composed of basic color conversion profiles in which the degree of color processing is different for the same color processing.
  • Each of the profiles 22 and 23 has a display color conversion process and a color gamut conversion process. It has a function of realizing any one of color processing of memory processing and memory color correction processing, or a function of realizing color processing combining display color conversion processing, color gamut conversion processing, and memory color correction processing.
  • the profile group 22 implements memory color correction processing
  • the basic color conversion profiles 22a and 22b implement memory color correction with different degrees of correction. More specifically, for example, the basic color conversion profiles 22a convert the skin color to a dark skin color, and the basic color conversion profile 22b converts the skin color to a light skin color. Realizes different processing degrees while having functions.
  • the basic color conversion profile calculates the image signal values (R1, G1, B1) after color processing for the three-dimensional image signal values (RO, GO, BO) each represented by 8 bits.
  • This is a three-dimensional lookup table given.
  • the image signal values (R1, (31, B1)) after color processing represented by 8 bits are given to all of the image signal values (RO, GO, BO) before color processing.
  • ⁇ (2 ⁇ 8) ⁇ 3 ⁇ * 3 48 ⁇ bytes and a large storage capacity of the basic profile group storage unit 12. Therefore, the image signal values before color processing (RO , GO, BO), the image signal values (R1, G1, B1) after color processing represented by 8 bits are given for each of the upper few bits.
  • the basic color conversion profile gives the image signal values (R 1, G 1, B 1) after color processing only for the upper 5 bits of the image signal values (RO, GO, BO) before color processing.
  • the color processing unit 13 includes a profile generation unit 30 in the profile creation execution unit 20.
  • the profile generation unit 30 receives the selected profile data d5 (see FIG. 1) and outputs the generated profile data d6. ⁇ Action>
  • the count signal cl 0 from the control unit 14 is input to the basic profile group storage unit 12.
  • the count signal c10 designates the address of the basic profile group storage unit 12 at a fixed count cycle, and causes the image signal value stored in the designated address to be read. Specifically, when generating a color conversion profile that realizes the process X, the addresses of the basic color conversion profiles 22a and 22b are specified, and when a color conversion profile that realizes the process Y is generated. Specifies the addresses of the basic color conversion profiles 23a and 23b. The address is specified so that the data associated with the same image signal value (RO, GO, BO) is read out simultaneously in the two basic color conversion profiles.
  • the data read out in this way is output from the basic profile group storage unit 12 as first selected profile data d10 and second selected profile data dl1.
  • the basic color conversion profiles 22a and 22b are used only for the upper 5 bits of the image signal values (RO, GO, B0) before color processing, and the image signal values (R1, G 1, B 1), and (2 ⁇ 5) ⁇ 3 addresses are specified, and the data is read.
  • the profile generating unit 30 acquires the first selected open file data d10 and the second selected profile data d11 from the basic profile group storage unit 12. Further, a control signal G12 for specifying the degree of synthesis of the basic color conversion profiles 22a and 22b is provided from the control unit 14.
  • the profile generator 30 generates a control signal cl for the value [m] of the first selected profile data d 10 and the value [n] of the second selected profile data d 11.
  • the generation profile data d 6 having the value [I] is created using the value of the degree of synthesis [k] specified by 2.
  • the value [k] satisfies 0 ⁇ k ⁇ 1
  • the first selected profile data d 10 and the second selected profile data d 11 are internally divided, and the value [k] is k ⁇ If 0 or k> 1, the first selected profile data d 10 and the second selected profile data d 11 are externally separated.
  • the profile RAM 21 acquires the generated profile data d6 generated by the profile generating unit 30, and stores it in the address specified by the count signal c11 of the control unit 14.
  • the generated profile data d 6 is the same image signal value (RO) as the first selected profile data d 10 or the second selected profile data d 11 used to create the generated profile data d 6. , GO, BO).
  • a new color conversion profile that realizes the processing Xk is created based on the basic color conversion profile that realizes the processing X1 and the basic color conversion profile that realizes the processing X2.
  • the color processing execution section 16 specifies the address corresponding to the count signal G4 according to the image signal value (RO, GO, BO) of the image signal d2, and thereby the color conversion stored in the profile RAM21.
  • the processing profile data d7 which is profile data, is acquired, and color processing of the image signal d2 is performed. Specifically, for the image signal value (RO, GO, BO) of the image signal d2 each represented by 8 bits, the value of the upper 5 bits of the image signal value (RO, GO, BO) is changed. Read the corresponding processing profile data d7. Furthermore, the output signal d3 is obtained by three- dimensionally interpolating the read processing profile data d7 using the lower three bits of the image signal values (RO, GO, BO).
  • the address of the basic profile group storage unit 12 is specified at a fixed count cycle by the count signal c 10 from the control unit 14, and stored at the specified address in the basic profile group storage unit 12.
  • the read image signal value is read (step S101). Specifically, when generating a color conversion profile that realizes the process X, the addresses of the basic color conversion profiles 22a and 22b are specified, and when generating a color conversion profile that realizes the process Y, The addresses of the basic color conversion profiles 23a and 23b are specified.
  • the two specified basic color conversion profiles are read out to the profile generation unit 30 as first selected profile data d10 and second selected profile file data d11, respectively.
  • the profile generation unit 30 acquires a control signal c 1 2 specifying the degree of synthesis from the control unit 14 (step S 102).
  • the profile generation unit 30 calculates, for the value [m] of the first selected profile data d 10 and the value [n] of the second selected profile data d 11, the value of the degree of synthesis specified by the control signal cl 2 Using [k], the generation profile data d 6 of the value [I] is created (step S 103).
  • the generated profile data d6 is written to the profile RAM 21 (step S104).
  • the write destination address is specified by the count signal G 11 of the control unit 14 given to the profile RAM 21.
  • the control unit 14 determines whether or not the processing has been completed for all the data of the basic color conversion profiles 22a and 22b (Step 105). Until the processing is completed, Steps S101 to S101 are performed. Repeat the process of 105.
  • the color processing execution unit 16 executes the color processing of the image signal d2 based on the generated profile data d6.
  • the profile creation execution unit 20 uses the basic color conversion profiles 22a and 22b or the degree of synthesis of the basic color conversion profiles 23a and 23b to calculate the corresponding color in each basic color conversion profile. Elements are divided internally or externally, and the value of each element of the new color conversion profile is determined. Therefore, by arbitrarily changing the degree of synthesis of the basic color conversion profile, it is possible to create a new color conversion profile that realizes an arbitrary degree of processing.
  • the image processing apparatus 10 when the basic color conversion profile is realized by combining a plurality of color processes, it is possible to reduce the time required for sequentially executing the plurality of color processes. In addition, at least a part of the plurality of color processes can be executed with a desired processing degree.
  • the profile groups 22 and 23 each include two types of basic color conversion profiles.
  • the number of basic color conversion profiles included in the profile groups 22 and 23 is not limited to this.
  • a basic color conversion profile that has a default color processing degree a basic color conversion profile that realizes a color processing with an increased default color processing degree, and a default color conversion profile
  • a basic color conversion profile that realizes color processing with a reduced degree of color processing for the color processing realized by the profile group, a basic color conversion profile that has a default color processing degree, a basic color conversion profile that realizes a color processing with an increased default color processing degree, and a default color conversion profile And a basic color conversion profile that realizes color processing with a reduced degree of color processing.
  • control unit 14 executes color processing with a higher degree of default color processing.
  • the degree of synthesis of the basic color conversion profile to be displayed and the basic color conversion profile for realizing color processing with a reduced degree of default color processing is provided.
  • the count signal c 10 specifies the address of the basic color conversion profile to be read together with the default basic color conversion profile according to the degree of synthesis. That is, the basic color conversion profile having the default color processing degree is always read by the profile generation unit 30.
  • the count signal c 10 may specify an address so that all of the three types of basic color conversion profiles are read.
  • the control unit 14 reduces the default color processing degree and the basic color conversion profile having the default color processing degree and the basic color conversion profile having the default color processing degree. May be specified as [k 1] versus [k 2] versus [1 — k 1 — k 2].
  • [o] is the value read from the basic color conversion port file that realizes color processing with an increased degree of default color processing
  • [p] is the value read from the basic color conversion profile having the default color processing degree.
  • the image processing apparatus 10 can perform the color processing using the basic color conversion profile that realizes the default processing degree, and can realize the default processing degree as needed. It is also possible to perform color processing by customizing the color conversion profile.
  • the image processing device 10 includes the visual processing unit 11.
  • the image processing device 10 may not include the visual processing unit 11.
  • the input signal d1 is directly input to the color processing unit 13.
  • the processing in the color processing execution unit 16 is not limited to the processing described in the above embodiment.
  • the output signal d3 may be obtained by performing a volume interpolation of the processing profile data d7 with respect to the image signal value (RO, GO, BO) of the image signal d2.
  • the corresponding address is designated by the count signal c4 according to the image signal value (RO, GO, BO) of the image signal d2.
  • the count signal G 4 does not have to be provided from the color processing execution unit 16.
  • the control unit 14 may specify the address of the profile RAM 21 according to the image signal value (RO, GO, BO) of the image signal d2.
  • the image processing device 26 is a device that performs color processing of an image signal together with visual processing of the image signal.
  • the image processing device 26 is provided, for example, in a device that handles images such as a computer, a digital camera, a mobile phone, a PDA, a printer, a scanner, and a digital television o
  • FIG. 4 is a block diagram illustrating a characteristic portion of the image processing device 26.
  • the image processing device 26 is characterized in that the color processing in the color processing unit 31 performs a plurality of color processes in a superimposed manner, and that the processing degree of each color process can be adjusted. ing.
  • the basic profile group storage unit 12 stores a plurality of basic color conversion profiles.
  • the basic profile group storage unit 12 shown in FIG. 4 stores basic color conversion profiles 40 to 43.
  • the basic color conversion profile is a color conversion profile for realizing the processing X and the processing Y at the same time.
  • Basic Color Conversion Profile The four types of color conversion profiles that realize the combined processing of processing X 1 and processing X 2 with different processing degrees for processing X and processing Y 1 and processing Y 2 with different processing degrees for processing Y It is.
  • processing X or the processing Y is, for example, any one of display color conversion processing, color gamut conversion processing, and memory color correction processing.
  • the color processing unit 31 is different from the color processing unit 13 described with reference to FIG. 2 in the structure of the profile creation unit 35. More specifically, the profile creation unit 35 provided with the profile creation unit 35 has a difference from the profile creation unit 15 described with reference to FIG. 2 in that it has three profile creation units 37 to 39. are doing.
  • the first profile generation unit 37 receives the first selected profile data d16 and the second selected profile data d17 as input and outputs the first generated profile data d20.
  • the first selection profile data d16 is the data of the basic color conversion profile 40 that realizes the processing X1 and the processing Y1.
  • the second selection port file data d 17 is the data of the basic color conversion profile 41 that realizes the processing X 2 and the processing Y 1.
  • the second profile generation unit 38 receives the third selected profile data d18 and the fourth selected profile data d19 as input and outputs the second generated profile data d21.
  • the third selection profile data d 18 is data of the basic color conversion profile 42 that realizes the processing X 2 and the processing Y 2.
  • the fourth selection port file data d 19 is the data of the basic color conversion profile 43 that realizes the processing X 2 and the processing Y 2.
  • the third profile generation unit 39 receives the first generation profile data d20 and the second generation profile data d.21, and outputs the third generation profile data d22.
  • the count signal c 15 from the control unit 14 is input to the basic profile group storage unit 12.
  • the count signal c 15 is the address of the basic profile group storage unit 12 Is specified at a fixed count cycle, and the image signal value stored in the specified address is read. Specifically, in the basic color conversion profiles 40 to 43, data associated with the same image signal value (RO, GO, BO) is read simultaneously.
  • the first profile generation unit 37 uses the degree of synthesis specified by the control signal cl 7 for the first selected profile data d ′′ I 6 and the second selected profile data d 17, Is generated in the same manner as described for the profile generation unit 30 in the first embodiment. Thereby, the color conversion profile that realizes the processing X i and the processing Y 1
  • [ ⁇ ] is the value of the degree of synthesis specified by the control signal c 17
  • the second profile generation unit 38 outputs the third selected profile data d 18
  • the second generation profile data d 21 is generated using the degree of synthesis specified by the control signal c 17 with the fourth selection profile data d 19.
  • [i] is the value of the degree of synthesis specified by the control signal c 17, and is the same value as given to the first profile generation unit 37.
  • the third profile generation unit 39 uses the degree of synthesis specified by the control signal c 18 with respect to the first generation profile data d 20 and the second generation profile data d 21 to generate a third Create the generated profile data d22.
  • the details are the same as those described for the profile generation unit 30 in the first embodiment.
  • a color conversion profile that realizes the processing X i and the processing Y j is created.
  • [j] is the value of the degree of synthesis specified by the control signal cl8.
  • the profile RAM 21 acquires the third generated profile data d22 created by the third profile generator 39, and receives the count signal c16 from the controller 14 to obtain the generated profile data d22. Is stored at the specified address.
  • the third generated profile data d 22 is the first selected profile data d 16 used to create the third generated profile data d 22 to the fourth selected profile data d 1 It is associated with the same image signal value (RO, GO, BO) as 9.
  • the color processing X and the color processing Y are executed in a superimposed manner, and the processing degree of each color processing can be arbitrarily adjusted. This makes it possible to realize high-precision color processing using a small number of basic color conversion profiles.
  • the basic profile group storage unit 12 need not have only four types of basic color conversion profiles. That is, the basic profile group storage unit 12 may further include a plurality of basic color conversion profiles.
  • the above embodiment has described the case where the color processing X and the color processing Y are executed in a superimposed manner.
  • the effect of the present invention is not limited to the case where the color processing X and the color processing Y are executed in a superimposed manner. That is, a basic color conversion profile for performing more color processing in a superimposed manner is provided, the profile creation execution unit 36 is provided with more profile generation units, and the control unit 14 is provided with each profile generation unit.
  • the image processing device 45 is a device that performs color processing of an image signal together with visual processing of the image signal.
  • the image processing apparatus 4 5 is, for example, provided a computer, a digital camera, a cellular phone, PDA, printer, scanner, in an apparatus for handling images such as a digital television 0
  • FIG. 5 is a block diagram illustrating a characteristic portion of the image processing device 45.
  • the image processing device 45 is a device in which the color processing in the color processing unit 46 performs a plurality of color processes in a superimposed manner, as in the image processing device 26 according to the second embodiment.
  • the feature is that the degree of processing can be adjusted.
  • the image processing device 45 is characterized in that a new color conversion profile is created by synthesizing a plurality of color conversion profiles created from the basic color conversion profile.
  • the basic profile group storage unit 12 stores two profile groups 22 and 23 each including two basic color conversion profiles, similarly to the basic profile group storage unit 12 of FIG.
  • the profile group 22 includes two basic color conversion profiles 22 a and 22 b for executing the processing X 1 and the processing X 2 having different processing degrees for the processing X.
  • the profile group 23 includes two basic color conversion profiles 23a and 23b for executing the processing Y1 and the processing Y2 having different processing degrees for the processing Y.
  • the processing X or the processing Y is, for example, any one of display color conversion processing, color gamut conversion processing, and memory color correction processing, or display color conversion processing, color gamut conversion processing, and memory color correction processing. Such as combined color processing.
  • the profile group and the basic color conversion profile are the same as those described in the first embodiment. (Color processing section 4 6)
  • the color processing unit 46 differs from the color processing unit 13 described with reference to FIG. 2 in the structure of the profile creation unit 50. More specifically, the structure of the profile creation execution unit 51 provided in the profile creation unit 50 is different.
  • the profile creation execution section 51 includes a first profile generation section 52, a conversion section 53, a second profile generation section 54, a profile RAM 55, and a profile synthesis section 56. are doing.
  • the first profile generation unit 52 receives the first selected profile data d32 and the second selected profile data d33, and outputs the first generated profile data d34.
  • the first selection profile data d32 is data of a basic color conversion profile 22a that realizes the processing XI.
  • the second selection profile data d33 is data of a basic color conversion profile 22b that realizes the processing X2.
  • the conversion unit 53 receives the first generated profile data d34 as input, and outputs converted profile data d35 obtained by performing a conversion process such as gamma correction on the first generated profile data d34. I do.
  • the second profile generation unit 54 receives the third selected profile data d36 and the fourth selected profile data d37 as input and outputs the second generated profile data d38.
  • the third selection profile data d36 is data of the basic color conversion profile 23a that realizes the process Y1.
  • the fourth selection profile data d37 is the data of the basic color conversion profile 23b that implements the process Y2.
  • the profile RAM 55 receives the second generated profile data d38 as input and outputs the profile data for synthesis d39.
  • the profile synthesis unit 56 receives the conversion profile data d 35 and the profile data d 39 for synthesis and outputs the third generated profile data d 40.
  • the count signals c 31 and c 32 from the control unit 14 are input to the basic profile group storage unit 12.
  • the count signals c31 and c32 specify the address of the basic profile group storage unit 12 at a fixed count cycle, and read out the image signal value stored at the specified address.
  • the data associated with the same image signal value R 0, G O, B O
  • the count signal c 31 is simultaneously read out in the basic color conversion profiles 22 a and 22 b by the count signal c 31.
  • the data associated with the same image signal value (RO, GO, BO) is simultaneously read out in the basic color conversion profiles 23a and 23b by the count signal c32.
  • the first profile generation unit 52 uses the degree of synthesis specified by the control signal c 35 for the first selected profile data d 32 and the second selected profile data d 33, Generate the generation profile data d 3 4. The details are the same as those described for the profile generation unit 30 in the first embodiment. Thus, a color conversion profile for realizing the processing X i has been created.
  • [i] is the value of the degree of synthesis specified by the control signal c35.
  • the conversion unit 53 performs conversion processing such as gamma correction on the first generated profile data d34, and outputs conversion profile data d35.
  • the second profile generation section 54 Similarly to the first profile generation section 52, the second profile generation section 54 generates a control signal c 36 for the third selection profile data d36 and the fourth selection profile data d37.
  • the second generation profile data d 38 is generated using the synthesis degree specified by.
  • [j] is the value of the degree of synthesis specified by the control signal c36.
  • the profile RAM 55 acquires the second generated profile data d 38 created by the second profile generating unit 54 and stores it at the address specified by the count signal c 33 of the control unit 14.
  • the second generated profile data d 3 8 has the same image signal values (RO, GO, BO) as the third selected profile data d36 and the fourth selected profile data d37 used to create the second generated profile data d38. Associated.
  • the color conversion profile for realizing the processing Y j is stored in the profile RAM 55.
  • the profile synthesizing unit 56 calculates third generation profile data d40 based on the value of the conversion profile data d35. Specifically, the value of the color conversion profile stored in the profile RAM 55 associated with the value of the conversion profile data d35 is output as the third generation profile data d40. That is, the profile synthesizing unit 56 performs the same operation as the color processing executing unit 16 on the value of the conversion profile data d35. More specifically, the profile synthesizing unit 56 specifies the address of the profile RAM 55 using the count signal c40 according to the value of the conversion profile data d35. Further, the data stored in the specified address is output as the profile data for synthesis d39. The output profile data for synthesis d39 is interpolated according to the value of the conversion profile data d35, and the generated profile data d40 is output. A new color conversion profile to be realized is created.
  • the profile RAM 21 acquires the third generated profile data d40 and stores it in the address specified by the count signal c34 of the control unit 14.
  • the third generated profile data d40 is the same image as the first selected profile data d32 and the second selected profile data d33 used to generate the third generated profile data d40. It is related to the signal value (RO, GO, BO).
  • a new color conversion profile that realizes an arbitrary processing degree for the processing X and the processing Y is stored in the profile RAM 21.
  • the image processing device 45 exhibits the effect of reducing the storage capacity.
  • the color processing execution unit 16 needs to perform real-time processing on the image signal d2. For this reason, for example, it is possible to realize color processing excellent in real-time performance as compared with a case where color processing is sequentially performed a plurality of times on the image signal d2.
  • the profile RAM 55 and the profile RAM 21 need not be physically separated. That is, each may be a different area on the same RAM.
  • the conversion unit 53 does not necessarily have to be provided. Further, the processing may be incorporated in the basic color conversion profile in advance.
  • the basic profile group storage unit 12 includes two profile groups 22 and 23 has been described.
  • the present invention It can be extended even if it has a file group.
  • a third profile generation unit is further provided, and the configuration similar to that of the profile creation execution unit 51 is further provided.
  • the image processing device 60 is a device that performs color processing on image signals as well as visual processing on image signals.
  • the image processing device 60 is provided in a device that handles images such as a computer, a digital camera, a mobile phone, a PDA, a printer, a scanner, and a digital television.
  • FIG. 6 illustrates a characteristic portion of the image processing device 60. It is a block diagram.
  • the image processing device 60 performs color processing in the color processing unit 61 in a superimposed manner and performs a plurality of color processing operations.
  • the feature is that the degree of processing can be adjusted.
  • the image processing apparatus 60 has two systems of the color processing unit 13 shown in FIG. 2, and is characterized in that a plurality of color processes are executed in series.
  • the basic profile group storage unit 12 stores two profile groups 22 and 23 each composed of two basic color conversion profiles, similarly to the basic profile group storage unit 12 of FIG.
  • the profile group 22 has two basic color conversion profiles 22 a and 22 b for realizing the processing X 1 and the processing X 2 having different processing degrees for the processing X.
  • Profile groups 2 and 3 show the degree of processing for processing Y Are provided with two basic color conversion profiles 23a and 23b for realizing the processing Y1 and the processing ⁇ ⁇ ⁇ 2 different from each other.
  • processing X or processing Y is any one of display color conversion processing, color gamut conversion processing, and memory color correction processing, or a combination of display color conversion processing, color gamut conversion processing, and memory color correction processing. Such as color processing.
  • the profile group and the basic color conversion profile are the same as those described in the first embodiment.
  • the color processing unit 61 includes two systems of the color processing unit 13 described with reference to FIG. More specifically, the color processing unit 61 has a color processing execution unit 64 and a profile creation unit 65.
  • the color processing execution section 64 has a first color processing execution section 66 and a second color processing execution section 67.
  • the profile creation section 65 has a profile RAM 68 and a port file creation execution section 69.
  • the profile RAM 68 has a first profile RAM 70 and a second profile RAM 71.
  • the profile creation execution section 69 has a first profile creation section 72 and a second profile creation section 73.
  • the first profile generation unit 72 receives the first selected profile data d53 and the second selected profile data d54 as input and outputs the first generated profile data d55.
  • the first selection profile data d53 is data of the basic color conversion profile 22a that realizes the process X1.
  • the second selection profile data d54 is the data of the basic color conversion profile 22b that realizes the processing X2.
  • the first profile RAM 70 receives the first generated profile data d55 as input and outputs the first processing profile data d56.
  • the first color processing execution unit 66 receives the image signal d2 and the first processing profile data d56 as inputs and outputs an image processing signal d51 that has undergone color processing.
  • the second profile generation unit 73 receives the third selected profile data d57 and the fourth selected profile data d58 as input and outputs the second generated profile data d59.
  • the third selection profile data d57 is data of the basic color conversion profile 23a that realizes the process Y1.
  • Fourth selection profile The data d 58 is the data v of the basic color conversion profile 23 b that realizes the processing Y 2.
  • the second profile RAM 71 receives the second generated profile data d59 and outputs the second processing profile data d60.
  • the second color processing execution unit 67 receives the image processing signal d51 and the second processing profile data d60, and outputs the color-processed output signal d3.
  • the count signals c 51 and c 52 from the control unit 14 are input to the basic profile group storage unit 12.
  • the count signals G51 and c52 specify the address of the basic profile group storage unit 12 at a fixed count cycle, and read out the image signal value stored at the specified address. Specifically, the data associated with the same image signal value (R0, GO, BO) is simultaneously read out in the basic color conversion profiles 22a and 22b by the count signal c51. In addition, the data associated with the same image signal value (RO, GO, BO) is simultaneously read out in the basic color conversion profiles 23a and 23b by the count signal c52.
  • the first profile generation unit 72 uses the degree of synthesis specified by the control signal c 55 for the first selection profile data d 53 and the second selection profile data d 54 to generate the first generation profile data Generates d55.
  • the details are the same as those described for the profile generation unit 30 in the first embodiment.
  • a color conversion profile for realizing the processing X i has been created.
  • [ ⁇ ] is the value of the degree of synthesis specified by the control signal c55.
  • the first profile RAM 70 acquires the first generated profile data d55 and stores it at the address specified by the count signal c53 of the control unit 14.
  • the first generation profile data d55 is the first generation profile data d55.
  • the first color processing execution unit 66 specifies the address corresponding to the count signal c 57 in accordance with the image signal value (R 0, GO, BO) of the image signal d 2, so that the first The first processing profile data d56, which is the data of the color conversion profile stored in the RAM 70, is obtained, and the color processing of the image signal d2 is performed.
  • the image signal value (RO, G0, BO) of the image signal d2 each represented by 8 bits, the value of the upper 5 bits of the image signal value (RO, GO, BO) Read out the first processing profile data d56 corresponding to.
  • an image processing signal d51 is obtained by three-dimensionally interpolating the read first processing profile data d56 using the lower three bits of the image signal values (RO, GO, BO). .
  • Second profile generation unit 73, second profile RAM 71, second color processing execution unit 67 >>
  • the processing Y j ([ ⁇ ] is the synthesis degree specified by the control signal c 56 Is created.
  • the second color processing execution section 67 specifies the corresponding address by the count signal c 58 according to the image signal value (R 0 ′, GO ′, BO ′) of the image processing signal d 51.
  • the second profile data d60 which is data of the color conversion profile stored in the second profile RAM 71, is obtained, and color processing of the image processing signal d51 is performed.
  • the image processing device 60 exhibits the effect of reducing the storage capacity.
  • the image processing apparatus 60 has a structure in which the two color processing units 13 described with reference to FIG. 2 are arranged in series. This does not necessarily mean that twice the hardware configuration is required. That is, the profile creation execution unit 69, the opening file RAM 68, and the color processing execution unit 64 may be constituted by the same hardware; In this case, the data in each section is processed sequentially.
  • the basic profile group storage unit 12 includes the two profile groups 22 and 23 has been described.
  • the present invention can be extended to have a larger number of profiles.
  • the color processing unit 13 described with reference to FIG. 2 has a structure in which three systems are arranged in series.
  • the image processing device 75 is a device that performs color processing of an image signal together with visual processing of the image signal.
  • the image processing device 75 is provided, for example, in a device that handles images such as a computer, a digital camera, a mobile phone, a PDA, a printer, a scanner, and a digital television.
  • FIG. 7 illustrates a characteristic portion of the image processing device 75. It is a block diagram.
  • the image processing device 75 is configured such that the color processing in the color processing unit 76 performs a plurality of color processes in a superimposed manner, similarly to the image processing device 26 according to the second embodiment.
  • the feature is that the degree of processing can be adjusted.
  • the image processing device 75 executes color processing in parallel in the color processing execution unit 78 compared with the color processing execution unit 64 shown in FIG. 6 and interpolates the image signal value of the execution result. It has features in terms of points.
  • the basic profile group storage unit 12 shown in FIG. 7 stores basic color conversion profiles 40 to 43. The details are the same as those of the basic profile group storage unit 12 shown in FIG.
  • the color processing unit 76 differs from the color processing unit 61 described with reference to FIG. 6 in the structure of the color processing execution unit 78.
  • the profile RAM 85 and the profile creation execution unit 90 have the same structures as the profile RAM 68 and the profile creation execution unit 69 described with reference to FIG.
  • the first to fourth selected profile data d68, d69, d73, and d74 are data of the basic color conversion profiles 40 to 43, respectively. Are different.
  • the first profile generation section 91 and the second profile generation section 92 generate first generation profile data d70 and Xi for realizing the processing Xi and the processing Y1.
  • the difference is that the second generation profile data d75 for realizing the process Y2 is created. That is, the same degree of synthesis is designated by the control signal c 67 to the first profile generation unit 91 and the second profile generation unit 92.
  • the first profile RAM 86 and the second profile RAM 87 store the first generated profile data d70 and the second generated profile data d75, respectively. The difference is that the processing profile data d71 and the second processing profile data d76 are output.
  • the color processing execution section 78 includes a first color processing execution section 80, a second color processing execution section 81, and a pixel value interpolation section 82.
  • the first color processing execution unit 80 receives the image signal d2 and the first processing profile data d71 as inputs, and outputs a first image processing signal d65 that has been color-processed.
  • the second color processing execution section 81 receives the image signal d2 and the second processing profile data d76 as inputs, and outputs the second image processing signal d66 that has been color-processed.
  • the pixel value interpolation unit 82 receives the first image processing signal d65 and the second image processing signal d66 as input and outputs the output signal d3.
  • the first color processing execution section 80 specifies the address corresponding to the count signal c69 in accordance with the image signal value (RO, GO, BO) of the image signal d2, and thereby performs the first color processing.
  • the first processing profile data d71 which is the data of the color conversion profile stored in the mouth file RAM 86, is acquired, and the color processing of the image signal d2 is executed.
  • the first color processing execution unit 80 performs the same operation as that of the color processing execution unit 16 shown in FIG. 2, and a detailed description thereof will be omitted.
  • the first image processing signal d65 obtained by performing the processing Xi and the processing Y1 on the image signal d2 is output.
  • the second color processing execution unit 81 specifies the corresponding address with the count signal c70 in accordance with the image signal value (R0, GO, BO) of the image signal d2, and thereby executes the second process.
  • the second processing profile data d76 which is the data of the color conversion profile stored in the mouth file RAM 87, is obtained, and the color processing of the image signal d2 is executed. Since the second color processing execution unit 81 performs the same operation as the color processing execution unit 16 shown in FIG. 2, detailed description will be omitted.
  • a second image processing signal d66 obtained by performing the processing Xi and the processing Y2 on the image signal d2 is output.
  • the pixel value interpolation unit 82 interpolates the first image processing signal d65 and the second image processing signal d66 according to the degree of synthesis specified by the control signal c68.
  • the pixel value interpolation unit 82 interpolates the pixel value of the first image processing signal d65 and the pixel value of the second image processing signal d66 according to the degree of synthesis specified by the control signal c68. Therefore, the calculation of the output signal d3 is simplified as compared with the case where color processing is performed on the image signal by three-dimensional interpolation. That is, it is possible to change the processing degree of the processing Y in real time using the control signal c68.
  • the effect of the present invention is not limited to the number of basic color conversion profiles provided in the basic profile group storage unit 12. In other words, it is possible to provide more basic color conversion profiles than the basic profile group storage unit 12 shown in FIG. 7 and to extend it to realize color processing that combines more color processing in a superimposed manner. is there.
  • a display device 720 as a sixth embodiment of the present invention will be described with reference to FIGS.
  • a display device 720 shown in FIG. 8 is a display device that displays an image, such as a PDP, LCD, CRT, or projector.
  • the display device 720 is characterized in that it has a display image processing device 723 including the image processing device described in the above embodiment, and that it can automatically or manually switch a profile used for image processing.
  • the display device 720 may be an independent device, or may be a device provided in a portable information terminal such as a mobile phone, a PDA, or a PC.
  • the display device 720 includes a display unit 721, a drive control unit 722, a display image processing device 723, a CPU 724, an input unit 725, a tuner 726, an antenna 727, a codec 728, a memory controller 729, a memory 730, and an external device. Equipped with interface (I / F) 731 and external device 740.
  • the display unit 721 is a display device that displays the image information d360 read from the drive control unit 722.
  • the drive control unit 722 is a device for reading out the output image signal d361 output from the display image processing device 723 to the display unit 721 under the control of the CPU 724, and driving the display unit 721. More specifically, the drive control unit 722 gives a voltage value corresponding to the value of the output image signal d361 to the display unit 721 to display an image under the control of the CPU 724.
  • the display image processing device 723 receives the control from the CPU 724, performs image processing on the input signal d1 (see FIG. 9) included in the input image signal d362, and includes an output signal d3 (see FIG. 9). The device outputs the output image signal d361.
  • the display image processing device 723 includes the image processing device described in the above embodiment, and stores a profile. It is characterized in that image processing is performed using the image processing. Details will be described later.
  • the CPU 724 is a device for performing calculations relating to data processing of each unit of the display device 720 and controlling each unit.
  • the input unit 725 is a user interface for allowing the user to perform an operation on the display device 720, and includes keys, knobs, a remote controller, and the like for controlling each unit.
  • a tuner 726 demodulates a signal received via radio or wire and outputs it as digital data. More specifically, the tuner 726 receives terrestrial (digital / analog) broadcasts, BS (digital / analog) broadcasts, and the like via an antenna 727 or a cable (not shown).
  • the codec 728 decodes the digital data demodulated by the tuner 726, and outputs an input image signal d362 input to the display image processing device 723.
  • the memory controller 729 controls the address and access timing of the working memory 730 of the CPU that is constituted by DRAM or the like.
  • the external I ZF 731 is an interface for acquiring image data, profile information, and the like from an external device 740 such as a memory card 733 or PC735 and outputting it as an input image signal d362.
  • the profile information is information on a profile for performing image processing. Details will be described later.
  • the external I / F 731 includes, for example, a memory card I / F 732, a PC I / F 734, a network I / F 736, a wireless IZF 737, and the like. Note that the external I / F 731 does not need to include all of the above-described examples.
  • the memory card I / F 732 is an interface for connecting the memory card 733 storing image data, profile information, and the like to the display device 720.
  • the PC I / F734 is an interface for connecting the display device 720 with the PC 735, which is an external device such as a personal computer that stores image data and profile information.
  • the network I ZF 736 is an interface for connecting the display device 720 to a network and acquiring image data, profile information, and the like.
  • the wireless I / F 737 is an interface for connecting the display device 720 to an external device via a wireless LAN and acquiring image data and profile information.
  • the external I ZF 731 is not limited to the one shown in the figure. For example, an interface for connecting a display device 720 with a USB, an optical fiber, or the like may be used.
  • the image data and profile information obtained via the external IZF 731 are decoded by the re-codec 728 as necessary, and then displayed as an input image signal d362. Is input to
  • the configuration of the display image processing device 723 will be described with reference to FIG.
  • the display image processing device 723 includes an image processing device 750 having substantially the same configuration as the image processing device 10 described with reference to FIG. 1, and an environment detecting unit 754.
  • the environment detection unit 754 detects environment information described later manually or automatically using a sensor or the like, and outputs environment information d104.
  • the image processing device 750 obtains the environment information d104 detected by the environment detection unit 754 or the environment information d105 obtained from the CPU 724. Further, image processing is performed using a profile specified based on the acquired environment information.
  • the image processing is visual processing and color processing performed on the input signal d1 included in the input image signal d366 (see FIG. 8).
  • the result of the image processing is output as an output image signal d361 (see FIG. 8) including the image-processed output signal d3.
  • the environment detection unit 754 is a device that detects environment information manually or automatically using a sensor or the like and outputs environment information d104.
  • the environment information is information on the display environment of the display unit 721 (see FIG. 8) or the visual environment in which an image displayed on the display unit 721 is viewed. More specifically, the environmental information includes, for example, environmental light information such as the brightness and color temperature of the environmental light at the installation location of the display device 720, product information (for example, product number) of the display unit 721, Information on the image size displayed by the display unit 721, position information on the distance between the displayed image and the user who views the image, and user information on the user such as age and gender of the user Information.
  • environmental light information such as the brightness and color temperature of the environmental light at the installation location of the display device 720
  • product information for example, product number
  • position information on the distance between the displayed image and the user who views the image and user information on the user such as age and gender of the user Information.
  • the environment detection unit 754 includes, for example, an optical sensor that detects the brightness and color temperature of ambient light, and a device that reads product information attached to the display unit 721 via wireless or wired communication (for example, wireless communication).
  • Tag reading device bar code reading device
  • display device that reads information from a database that manages the information of each part included in the 720
  • wireless or infrared sensors that measure the distance to the user, etc. It is realized by devices such as a camera that acquires information about the user, and automatically detects environmental information.
  • the environment detection section 754 detects environment information obtained by a user input.
  • the environment detection unit 754 outputs the detected environment information to the image processing device 750 as environment information d104.
  • the environment detector 754 controls the items of environment information to be input to the user according to the input environment information d105. For example, control is performed such that the environment information of the item included in the environment information d105 is not input again.
  • the image processing device 750 generates a profile used when performing image processing based on the environment information d 104 detected by the environment detection unit 754 or the environment information d 105 acquired from the CPU. Identify. Further, using the specified profile, image processing including visual processing and color processing is performed on the input signal d1 included in the input image signal d366 (see FIG. 8), and the output signal d3 Output the output image signal d3 6 1 (see Fig. 8) including 3.
  • the image processing device 750 has substantially the same configuration as the image processing device 10 (see FIG. 1), but differs in that an information setting unit 752 is provided.
  • the other portions of the image processing device 75 that perform the same functions as the respective portions of the image processing device 10 are denoted by the same reference numerals, and detailed description thereof will be omitted.
  • the information setting unit 752 obtains the environment information d "I04 detected by the environment detection unit 754 or the environment information d105 obtained from the CPU, and, based on the obtained information,
  • the profile information cM 01, d 102, and cM 03 are output to the visual processing unit 11, the control unit 14, and the basic profile group storage unit 12, respectively.
  • the profile information is information for specifying a profile used for image processing in the visual processing unit 11 and the color processing unit 13. More specifically, the profile information includes data stored in the profile, tag information such as a number for identifying the profile, parameter information indicating characteristics of the profile processing, a display environment of the display section 721 (see FIG. 8) or The display unit includes at least one of environmental information relating to a visual environment in which an image displayed on the display unit is viewed.
  • the profile is data used for image processing in the visual processing unit 11 and the color processing unit 13, and more specifically, the color stored in the profile RAM described in the above embodiment.
  • a conversion profile For example, a conversion profile.
  • the profile is not only the color conversion profile as the table data described in the above embodiment, but also coefficient matrix data for storing the conversion coefficient for the input signal d1 to be processed. There may be.
  • Tag information is identification information for identifying a profile from other profiles. For example, tag information is allocated to each of a plurality of profiles registered in the visual processing unit 11 or the basic profile group storage unit 12. And so on.
  • the parameter information is information indicating characteristics of the processing of the profile, and is, for example, information obtained by quantifying the degree of processing such as contrast enhancement processing, dynamic range compression processing, and color conversion processing realized by the profile.
  • the environment information is information included in the environment information d104 or d105 obtained from the environment detection unit 754 or the GPU 724.
  • the profile information d 101 includes the tag information of the opening file used in the visual processing unit 11
  • the profile information dl 03 includes the tag information of the profile used in the color processing unit 13
  • the profile information d102 includes parameter information of each profile used by the visual processing unit 11 and the color processing unit 13.
  • the information setting unit 752 acquires the environment information d104 or the environment information d105, and outputs the open file information d101, d102, d103. Specifically, the information setting unit 752 selects a suitable profile according to the environment information d104 or the environment information acquired from the environment information d105, and outputs the profile information. .
  • the information setting unit 752 selects a suitable profile for the acquired environment information by referring to a database that associates the profile candidates with the respective values of the environment information.
  • the selection of the profile is performed for the visual processing unit 11 and the basic profile group storage unit 12, respectively.
  • the control unit 14 outputs a control signal c1 specifying the degree of synthesis of the profile in the visual processing unit 11 based on the parameter information included in the profile information d102. Further, the control unit 14 outputs a control signal c2 for specifying the degree of synthesis of the profile in the color processing unit 13 based on the parameter information included in the profile information d102. Further, the control unit 14 gives a power signal for reading out the profile to the visual processing unit 11 storing the profile and the basic profile group storage unit 12. The count signal is provided to the visual processing unit 11 and the basic profile group storage unit 12 as a control signal G1 and a control signal c3.
  • the visual processing unit 11 combines the profile specified by the tag information of the profile information d101 with the synthesis degree specified by the control signal c1, and generates a new opening file used for the visual processing. Further, the visual processing unit 11 performs visual processing of the input signal d1 using the generated profile, and outputs an image signal d2.
  • the basic profile group storage unit 12 reads the profile specified by the tag information of the profile information d103 at the timing specified by the control signal c3.
  • the color processing unit 13 acquires the selected profile data d5 read from the basic profile group storage unit 12, and based on the acquired selected profile data d5 and the degree of synthesis specified by the control signal c2. Generate a new profile for color processing. Further, the color processing unit 13 performs color processing of the image signal d2 using the generated profile, and outputs an output signal d3.
  • the profile information dl 0 1 and the profile information dl 0 3 It does not include the tag information that specifies the profile of.
  • the profile information dl 01 and the profile information d 103 each include tag information specifying one profile, the visual processing unit 11 and the color processing unit 13 do not generate a profile. May be. In this case, the profile specified by the tag information is used as it is.
  • the display device 720 includes an image processing device 7550 having substantially the same configuration as the image processing device 10. Therefore, the same effects as those of the image processing apparatus 10 described in the above embodiment can be obtained.
  • the display device 720 it is possible to generate a new profile. For this reason, it is not necessary to store many profiles in advance, and the storage capacity of the profiles can be reduced. Furthermore, in the generation of a profile, fine adjustment of the image processing realized by the profile can be made by changing the degree of synthesis.
  • the display device 720 generates a new profile using a plurality of profiles. For this reason, the degree of freedom of profile generation is improved as compared with the case where one profile is used. That is, it is possible to generate a profile that realizes more complicated image processing.
  • the display device 720 performs image processing using the generated profile.
  • Profile generation can be performed before image processing. Therefore, even if the image processing realized by the profile is complicated, it does not affect the processing speed of the image processing. That is, complicated processing can be performed at higher speed. This becomes more pronounced when the image processing realized by the generated profile adjusts more image parameters.
  • FIG. 10 shows a profile wk generated based on the profile wl and the profile w2 selected based on the environment information and the degree of synthesis specified by the control signal c2.
  • the profile wk is generated according to the value of the degree of synthesis specified by the control signal c2.
  • the saturation of the displayed image is changed according to the intensity of the ambient light (brightness of the ambient light). Is preferred. More specifically, as the ambient light increases, the color display is appropriately performed by increasing the saturation of the displayed image.
  • the information setting unit 752 selects a profile w1 and a profile w2, which are profiles having different degrees of processing with respect to saturation.
  • the profile w1 is a profile that realizes color processing that does not increase saturation
  • the profile W2 is a profile that realizes color processing that strongly increases saturation.
  • the information setting unit 752 outputs, to the control unit 14, parameter information of a profile that realizes appropriate color processing according to the intensity of the ambient light as profile information d102.
  • the control unit 14 outputs a control signal c2 specifying the degree of synthesis of the profile w1 and the profile w2 from the acquired parameter information.
  • the color processing unit 13 internally divides the profile w1 and the profile w2 using the degree of synthesis specified by the control signal c2 to generate a profile wk. Further, the color processing unit 13 performs color processing using the generated profile wk.
  • this display device 720 it is possible to realize color processing according to the intensity of ambient light, and it is possible to perform display with a higher visual effect.
  • the display unit 721 and the image size information displayed by the display unit 721 are acquired as environmental information, the product information and the image size information may be used. It is desirable to perform color processing on the displayed image.
  • the size of the display section 721 or the size of the displayed image determined from the product information is different, the size of the user's viewing angle is different, and the displayed color is different. For this reason, by performing color processing according to the viewing angle, it is possible to display an image that gives the same impression.
  • the information setting unit 752 specifies a port file used in the visual processing unit 11 and the color processing unit 13, respectively. For this reason, it is possible to prevent the image processing in the visual processing unit 11 and the color processing unit 13 from overlapping or canceling each other.
  • the display device 720 selection of a profile, change of the degree of synthesis, and the like are performed according to the environmental information 105 (see FIG. 9) acquired from the tree 724. Therefore, appropriate image processing is realized according to the environmental information, and the visual effect is further improved.
  • a dynamic range compression process is performed according to the brightness of external light in the surrounding environment of the display device 720. More specifically, the visual processing unit 11 (see FIG. 9) performs dynamic range compression processing of the input signal d 1, and further, the color processing unit 13 (see FIG. 9) performs dynamic range compression of the input signal d 1. A case where color processing is performed on the signal d1, that is, the image signal d2 will be described.
  • the visual processing unit 11 converts the color space of the input signal d1 from RGB to a luminance component ⁇ and color difference components CB and CR. Furthermore, dynamic range compression processing is performed on the luminance component Y.
  • the dynamic range compression for the luminance component Y is performed based on the dynamic range compression function F4.
  • Figure 11 shows the value of the luminance component Y of the input signal d1 (horizontal axis) and the dynamics of the luminance component Y.
  • 6 is a graph showing a relationship with a value (vertical axis) to which a compression range compression function F4 is applied.
  • r I og (n) / log (m) using the contrast [m] of the luminance component Y and the contrast [n] after compression.
  • “contrast” means a ratio between the minimum value and the maximum value of the signal, and indicates a value obtained by dividing the maximum value by using the minimum value.
  • the “dynamic range” means the ratio between the minimum value and the maximum value of the signal.
  • the contrast value [n] after compression is set as the visual contrast value of the displayed image under the ambient light of the display environment.
  • the value of the contrast [n] after compression should be determined as a value obtained by reducing the contrast value [m] of the luminance component of the input signal d1 by the influence of the luminance of the ambient light in the display environment. Can be.
  • the visual processing unit 11 converts the color space of the input signal d1 from RGB to a luminance component Y and color difference components CB and CR, and performs a dynamic range compression process on the luminance component ⁇ .
  • the image signal d2 has a hue different from the hue of the input signal d1 due to the influence of the luminance component subjected to the dynamic range conversion.
  • the ratio of the luminance component Yin before the conversion processing and the luminance signal Yout after the conversion processing in the visual processing unit 11 is calculated by using the color difference components CBin, CR of the input signal d1. You can also respond by riding in.
  • the color difference signals C Bout and C Rout it is necessary to obtain the color difference signals C Bout and C Rout in consideration of the color reproduction range of the finally output signal.
  • the required dynamic range compression ratio is set according to the intensity of external light, and the profile wl and the open file w2 are selected based on this compression ratio. I do. Further, a profile w k used for color processing is generated based on these profiles and the degree of synthesis specified by the control signal c 2. Here, the profile wk is generated according to the value of the degree of synthesis specified by the control signal c2.
  • the profile wl and the profile w2 are profiles that implement the color difference correction processing required to restore the hue shifted by the dynamic range compression.
  • the profile wl is a profile that realizes color processing for correcting color difference deviation due to the dynamic range compression ratio R1
  • the profile w2 is for correcting color difference deviation due to the dynamic range compression ratio R2.
  • This is a file that implements color processing.
  • each profile is associated with a dynamic range compression ratio.
  • the information setting unit 752 selects a profile w1 and a profile W2 that are different in the degree of processing for color difference correction. Further, the information setting unit 752 outputs, to the control unit 14 as profile information d102, profile parameter information for realizing an appropriate color difference correction process according to the intensity of ambient light.
  • the control unit 14 outputs a control signal c2 that specifies the degree of synthesis between the profile w1 and the profile w2 from the acquired parameter information.
  • the color processing unit 13 internally divides the profile w1 and the profile w2 using the degree of synthesis specified by the control signal c2 to generate a profile wk. Further, the color processing unit 13 performs color processing using the generated profile wk.
  • the color gamut is determined by the brightness processing of visual processing 11, so visual processing 11 is performed first and the output is subjected to color processing 13. It is desirable to perform
  • this display device 720 it is possible to realize color processing according to the intensity of ambient light, to suppress hue shift, and to perform display with a higher visual effect.
  • the display image processing device 723 in the display device 720 can be modified so as to appropriately apply the above embodiment.
  • modified examples characteristic of the display device 720 will be described.
  • each of the profile information d101 to d103 may include other information.
  • the profile information d 101 includes at least one of data stored in a profile used in the visual processing unit 11, parameter information indicating characteristics of profile processing, and environmental information.
  • the profile to be used may be specified.
  • the visual processing unit 11 refers to the database that associates the environment information with the profile, and specifies the profile, similarly to the information setting unit 752. It may be.
  • the profile information d 103 includes at least one of data stored in the profile used in the color processing unit 13, parameter information indicating characteristics of the profile processing, and environmental information, and is used by the color processing unit 13.
  • the profile to be specified may be specified.
  • the basic profile group storage unit 12 refers to a database that associates the environment information with the profile and specifies the profile, similarly to the information setting unit 752. You may do it.
  • the profile information d102 includes at least one of data stored in the profile, tag information such as a number for identifying the profile, and environmental information. It may be information for determining the degree of synthesis of each profile specified by the file information d 1 O 1 and the profile information d 103.
  • profile information d 101 to d 103 need only include at least one of profile data, tag information, parameter information, and environmental information, and each of them may be included at the same time.
  • a part that realizes a similar function may be realized by common hardware.
  • the input unit 725 may be a device for inputting environment information as the environment detection unit 754.
  • the environment information input from the input unit 725 is input to the display image processing device 723 as environment information d105 via the CPU 724.
  • the storage unit in which the profiles are stored in the visual processing unit 11 and the basic profile group storage unit 12 may be provided outside the display image processing device 7 23. 30 or an external device 7400.
  • the storage unit in which the profile is stored in the visual processing unit 11 and the basic open file group storage unit 12 may be realized by the same device.
  • the profiles stored in the storage unit in which the profiles are stored in the visual processing unit 11 and the basic open file group storage unit 12 may be those stored in advance in each unit. It may be obtained from the device 740 or the tuner 726.
  • control unit 14 and the information setting unit 752 of the image processing device 750 may be realized by the CPU 724.
  • each signal can be in any of RGB color space, YCbCr color space, YUV color space, Lab color space, LuV color space, YIQ color space, XYZ color space, YPbPr color space, etc. May be a signal of the color space.
  • the display image processing device 7 23 instead of the environment detector 7 It may have a user input unit for performing the operation.
  • FIG. 12 shows a configuration of a display image processing device 755 as a modification of the display image processing device 723.
  • the display image processing device 755 is characterized in that it has a user input unit 756 for allowing a user to make an input.
  • portions having substantially the same functions as those of the display image processing device 723 (see FIG. 9) are denoted by the same reference numerals, and description thereof is omitted.
  • the user input unit 756 inputs the image processing desired by the user, and inputs the input information to the information setting unit 750 of the image processing apparatus 750 (see FIG. 9). Output as 0 8.
  • the user input unit 756 includes, for example, a brightness input unit for inputting the brightness desired by the user, and an image quality input unit for inputting the image quality desired by the user.
  • the switch comprises a switch for inputting the state of light in the displayed image, a switch for inputting the state of light in the environment in which the image is displayed, and the like.
  • the switch for inputting the state of light in the displayed image is, for example, a switch for inputting backlight-direct light in the image, the presence or absence of a strobe at the time of shooting, the state of the macro program used at the time of shooting, etc.
  • the macro program is a program for controlling the photographing device according to the state of the subject.
  • the switch for inputting the light state of the environment in which the image is displayed is, for example, a switch for inputting the brightness of the environmental light, the color temperature, and the like.
  • the image quality input unit is a switch for inputting the user's image quality preference, for example, a switch for inputting a different visual effect such as a default ⁇ dynamic ⁇ ⁇ ⁇ ⁇ ⁇ classic.
  • the user input unit 756 outputs information input from the brightness input unit and the image quality input unit as input information d108.
  • the image processing device 750 In the image processing device 750, almost the same operation as when environment information dl04 (see FIG. 9) is input is performed.
  • the difference from the case where the environment information dl04 is input is that the information setting unit 752 refers to a database that associates the input information d108 with the profile, and the profile information d101-d The point is that 103 is output.
  • the display image processing device 755 of the present modification it is possible to select a profile used for image processing in accordance with a user input and perform image processing. For this reason, it is possible to perform image processing according to the user's preference.
  • the input unit 725 (see FIG. 8) operates in the same manner as the user input unit 756, and may input image processing desired by the user via the CPU 724.
  • the environment information d105 includes the same information as the input information d108.
  • the display image processing device 72 3 may be a device that separates attribute information included in an input signal, selects a profile based on the separated attribute information, and performs image processing.
  • FIG. 13 shows a display image processing device 759 as a modified example of the display image processing device 723.
  • the display image processing device 759 includes an attribute detector 760 that detects attribute information d111 included in the input signal d111, and based on the detected attribute information d111.
  • the feature is that the profile used for image processing is switched.
  • portions having substantially the same functions as those of the display image processing device 723 are denoted by the same reference numerals, and description thereof will be omitted.
  • the attribute detector 760 detects attribute information d111 included in the input signal d110.
  • the attribute information d111 is information arranged in a header portion or the like of the input signal d110, and is information relating to the attribute of the input signal d110.
  • the attribute detector 760 separates the attribute information d111 by reading the input signal d111 from the beginning by a predetermined number of bits.
  • the attribute information d111 may be arranged at the end of the input signal d110. Alternatively, they may be arranged so as to be separable with the flag information in the input signal d110.
  • FIG. 14 shows an example of the format of the input signal d110 including the attribute information d111.
  • the content information as the attribute information d111 is arranged at the head of the data, and the input image data d112 is subsequently arranged.
  • the content information is an attribute related to the entire contents of the input image data dl12, and includes the title of the input image data d112, a production company, a director, a production year, a type, an attribute designated by the production side, and the like.
  • the type is information related to the type of content, and includes, for example, information such as science fiction, action, drama, horror, and the like.
  • the creator-specified attribute is information on display characteristics specified by the content creator, and includes, for example, information such as dynamic, fear, and the like.
  • the input image data d112 is data similar to the input signal d1 described in the above embodiment, and is, for example, image data expressed in an RGB color space or another color space.
  • the attribute detection unit 760 outputs the detected attribute information d111 to the image processing device 758 (see Fig. 13).
  • the image processing device 758 has substantially the same configuration as the image processing device 750 shown in FIG. The details of the configuration are the same as those of the image processing apparatus 75 0, and thus description thereof is omitted. The image processing device 758 operates almost in the same manner as the image processing device 750. Hereinafter, differences from the image processing device 75 will be described.
  • the attribute information d111 is input from the attribute detector 760.
  • the information setting unit of the image processing device 758 refers to the database that associates the attribute information d111 with the profile, and outputs the profile information to the control unit, the visual processing unit, and the basic profile group storage unit.
  • the image processing device 758 receives an input signal d110 containing the attribute information d111.
  • the image processing device 758 performs the same visual processing and color processing as the image processing device 750 on the input image data d112 included in the input signal d110.
  • the display image processing device 759 can perform image processing using an appropriate profile according to the content information at the time of content creation. Therefore, image processing can be performed in consideration of the intention of the content production side.
  • the display image processing device 759 can output different opening file information to the visual processing unit and the color processing unit. For this reason, even when a plurality of values such as “action and horror J” are specified as the type of content information, the visual processing unit appropriately performs visual processing on a portion having a lot of movement such as an action. In addition, it is possible for the color processing unit to appropriately perform color processing on the parts where color has a psychological effect, such as horror.
  • the visual processing unit and the basic profile group storage unit can more easily select a profile.
  • the display image processing device 759 may be a device to which the attribute information d1114 is input from the input unit 725 (see FIG. 8).
  • the attribute information d114 input from the input unit 725 is input to the image processing device 758 via the CPU 724.
  • the information setting unit of the image processing device 758 outputs the profile information based on the attribute information d114 and the attribute information d111 input from the input unit 725.
  • the input unit 725 allows the user's preference to be reflected in the image processing. For example, it is possible to reflect the user's preference, such as for animations with sharp images and movies with vivid images. Furthermore, it becomes possible to correct the content information of a corrected image, such as a digitally remastered version.
  • content information that can be input by the user may be controlled in accordance with the attribute information detected by the attribute detection unit 760. For example, If the attribute detector 760 detects that the type of the input image data d111 is “Anime J,” the input unit 725 will only include items related to animation (eg, animation director, animation title, etc.). It may be input.
  • items related to animation eg, animation director, animation title, etc.
  • the display image processing device 7559 may include a separation unit that separates the input signal d111 into attribute information d111 and input image data d112.
  • the separating unit outputs the attribute information d 1 1 "1 separated from the input signal d 110 to the attribute detecting unit 760, and outputs the input image data d 112 to the image processing device 758. Thereby, the processes in the attribute detection unit 760 and the image processing device 758 can be reduced.
  • the content information once obtained may be used repeatedly. In this case, it is possible to specify a profile for performing image processing using the stored content information without acquiring all the information again.
  • the attribute information d111 may include information other than the content information. Specifically, scene attribute information relating to a part of the input image data, photographing attribute information relating to the environment in which the input signal d 110 was generated, and the input signal d 110 correspond to the display device 72. It may include broadcast attribute information related to the media up to the acquisition of 0, the medium on which the input signal dl10 is recorded, recording attribute information related to equipment, profile attribute information related to the profile used for image processing, etc. . The following is a specific explanation for each.
  • the attribute information d111 includes scene attribute information, shooting attribute information, broadcast attribute information, recording attribute information, and profile attribute information. These pieces of information may be included in the attribute information dl 11 all at the same time, or may be included by combining some of them. In this case, the effect of each information can be further improved.
  • FIG. 15 shows a format of the input signal d110 including the scene attribute information as the attribute information d111.
  • the scene attribute information is arranged in units of the scene of the input image data d112.
  • the scene attribute information is arranged so as to be separable from the input image data d112 with, for example, flag information.
  • the scene attribute information is information describing the scene content of the input image data d112 that follows.
  • the scene attribute information is described by a combination of items such as “brightness j”, “object”, “motion”, “scene overview”, etc., and includes “dark” forest ⁇ landscape J, “bright“ person ”up”
  • the content is described as “dark / person / landscape”. Note that these are examples of scene attribute information, and are not limited thereto.
  • content such as news, sports, home drama, and action may be specified as the “scene overview”.
  • the display image processing device that performs image processing on the input signal d110 including scene attribute information is a display image processing device 759 (see Fig. 13) that corresponds to the scene attribute information. Is the same as
  • the attribute detection unit 760 detects scene attribute information included in the input signal dl10, and outputs it to the image processing device 758 as attribute information dl11.
  • the information setting unit of the image processing device 758 acquires the attribute information d111 and outputs the profile information to the control unit, the visual processing unit, and the basic profile group storage unit. For example, the information setting unit outputs the profile information by referring to a database that stores the association between each item of the scene attribute information acquired from the attribute information d111 and the profile.
  • the profile information is the same as the profile information d101 to d103, the description is omitted.
  • the profile information may include scene attribute information.
  • the visual processing unit and the basic profile group storage unit select a profile to be used for image processing from the acquired scene attribute information.
  • each unit of the display image processing apparatus is the same as that in the case where the attribute information d111 includes the content information, and a description thereof will be omitted.
  • the scene attribute information is arranged as necessary for each scene of the input image data d112. Therefore, the image processing can be switched in more detail, and the image processing can be performed more appropriately.
  • the information setting unit sets the profile information that specifies “the profile to improve the dark part of the shadow”.
  • the profile information specifying “the profile that performs green memory color correction and does not perform skin color memory color correction” is output to the basic profile group storage unit.
  • the information setting unit sets “profile information specifying profile J in which contrast enhancement is suppressed”.
  • the profile information specifying the “profile for performing the memory color correction of skin color” is output to the basic profile group storage unit.
  • the information setting unit sets “the profile that emphasizes the dark part of the person and suppresses the improvement of the dark part of the background”. Is output to the visual processing unit, and the profile information that specifies ⁇ Profile without white balance adjustment and skin color storage color correction ⁇ is output to the basic profile group storage unit. Further, for example, when the scene attribute information is acquired as “person / drama” from the attribute information d111, the main processing target in the image is a person.
  • the information setting unit outputs profile information to the visual processing unit to specify a profile that improves the contrast of the skin color and low-luminance area and does not improve the contrast of the other low-luminance areas. I do. Also, the information setting unit performs a skin color storage correction on the basic profile group storage unit, and performs the correction for the other storage colors such as green. Outputs profile information that specifies the profile whose correction is to be weakened.
  • the scene attribute information may be input from the input unit 725 through the CPU 724 as in the above embodiment.
  • the subjective image quality for the user can be further improved.
  • scene attribute information can be added to each scene. It is also possible to add attribute information. It is also possible to add scene attribute information to the first scene first, and then add only the brightness variation information and the target variation information from the first scene as scene attribute information to the subsequent continuous scene. By doing so, it is possible to suppress flicker and rapid changes in image quality in image processing of a moving image.
  • FIG. 16 shows the format of the input signal d 110 containing the shooting attribute information as the attribute information d 111.
  • the photographing attribute information is arranged in the header portion of the input signal d110.
  • the shooting attribute information is not limited to this, and may be arranged so as to be separable from the input image data d112 with flag information, for example.
  • the shooting attribute information is information describing a shooting situation of the input image data d112 that follows.
  • the shooting attribute information is described by a combination of items such as “position / direction”, “date”, “time”, and “photographing device information”.
  • “Position 'direction” is information obtained from GPS or the like at the time of shooting.
  • “Shooting device information” is information of the device at the time of shooting, and stores information such as whether or not a strobe is used, an aperture, a shutter speed, and whether or not a macro aperture is shot.
  • a macro program a program for executing a combination of controls such as whether or not to use a flash, an aperture, and a shutter speed
  • the display image processing device that performs image processing on the input signal d110 including the photographing attribute information has the display image processing device 759 (see FIG. 13) corresponding to the photographing attribute information. Same as the one.
  • the attribute detecting unit 760 detects the photographing attribute information included in the input signal d111, and outputs it to the image processing device 758 as the attribute information d111.
  • the information setting unit of the image processing device 758 acquires the attribute information d111 and outputs the profile information to the control unit, the visual processing unit, and the basic profile group storage unit. For example, the information setting unit outputs the profile information by referring to a database that stores the association between each item of the photographing attribute information acquired from the attribute information d111 and the profile.
  • the profile information is the same as the profile information d101 to d103, the description is omitted.
  • the profile information may include shooting attribute information.
  • the visual processing unit and the basic profile group storage unit select a profile to be used for image processing from the acquired shooting attribute information.
  • each unit of the display image processing apparatus is the same as that in the case where the attribute information dl 11 includes the content information, and a description thereof will be omitted.
  • the photographing attribute information may be input from the input unit 725 via the CPU 724 as in the above embodiment.
  • the subjective image quality for the user can be further improved.
  • FIG. 17 shows the format of the input signal d 110 containing the broadcast attribute information as the attribute information d 111.
  • the broadcast attribute information is arranged in the header portion of the input signal d110.
  • the broadcast attribute information is not limited to this, and may be arranged so as to be separable from the input image data d112, for example, with flag information.
  • the broadcast attribute information is information relating to the medium until the input signal d110 is acquired by the display device 720, and in particular, in what broadcasting form the input signal d110 was acquired.
  • Information related to For example, the broadcast attribute information stores a value indicating any one of “terrestrial digital broadcasting”, “terrestrial analog broadcasting”, “satellite digital broadcasting”, “satellite analog broadcasting”, and Internet broadcasting.
  • the display image processing device that performs image processing on the input signal d110 including the broadcast attribute information is the same as the display image processing device 759 (see Fig. 13) that corresponds to the broadcast attribute information. It is.
  • the attribute detection unit 760 detects the broadcast attribute information included in the input signal d110 and outputs it to the image processing device 758 as the attribute information d111.
  • the information setting unit of the image processing device 758 acquires the attribute information d111 and outputs the profile information to the control unit, the visual processing unit, and the basic profile group storage unit. For example, the information setting unit outputs the profile information by referring to a database that stores the association between each item of the broadcast attribute information obtained from the attribute information d111 and the profile.
  • the profile information is the same as the profile information d101 to d103, the description is omitted.
  • the profile information may include broadcast attribute information.
  • the visual processing unit and the basic profile group storage unit select a profile to be used for image processing from the acquired broadcast attribute information.
  • each unit of the display image processing apparatus is the same as that in the case where the attribute information dl 11 includes the content information, and a description thereof will be omitted.
  • Image processing using an appropriate profile can be performed according to the broadcast attribute information. For example, it is possible to correct the effect of the broadcast route on the image and perform image processing in consideration of the intention of the broadcast station.
  • a profile that does not excessively emphasize noise during transmission is selected. This makes it possible to perform image processing on an image in which a subject is present in a night view using a profile that clarifies the subject while maintaining the brightness of the night view area.
  • image processing is performed by changing the color region for which memory color correction is performed in consideration of the difference in noise generation characteristics between analog broadcasting and digital broadcasting (analog broadcasting: noise between fields, digital broadcasting: compression noise).
  • analog broadcasting noise between fields
  • digital broadcasting compression noise
  • the broadcast attribute information may be input from the input unit 725 through the CPU 724 as in the above embodiment. In this case, it is possible to further improve the subjective image quality for the user.
  • FIG. 18 shows the format of an input signal d 110 containing record attribute information as the attribute information d 111.
  • the recording attribute information is arranged in the header portion of the input signal d110. Note that the recording attribute information is not limited to this, and may be arranged in a state that can be separated from the input image data d111, for example, with flag information.
  • the recording attribute information is information relating to the medium / device on which the input signal d110 is recorded.
  • the recording attribute information includes the “age” in which the input signal d110 was recorded, the “provider” of the recording medium-device, the “product information” for specifying the recording medium and the device, and the like. .
  • the display image processing device that performs image processing on the input signal d110 including the recording attribute information has the display image processing device 759 (see Fig. 13) corresponding to the recording attribute information. Same as the one.
  • the attribute detection unit 760 detects the recording attribute information included in the input signal d110 and outputs the attribute information to the image processing device 758 as attribute information d111.
  • the information setting unit of the image processing device 758 acquires the attribute information d111 and outputs the profile information to the control unit, the visual processing unit, and the basic profile group storage unit. For example, the information setting unit outputs the profile information by referring to a database that stores the association between each item of the record attribute information acquired from the attribute information d11 1 and the profile.
  • the profile information is the same as the profile information d 1 0 "! To d 103, and thus the description is omitted.
  • the profile information may include recording attribute information.
  • visual processing The unit and the basic profile group storage unit select a profile to be used for image processing from the acquired recording attribute information.
  • each unit of the display image processing apparatus is the same as that in the case where the attribute information d111 includes the content information, and a description thereof will be omitted.
  • Image processing using an appropriate profile according to the recording attribute information can be performed.
  • the “supplier” is a camera manufacturer that specializes in color processing
  • profile information is output so that the color processor does not perform much color processing.
  • profile information is output to input image data d112 recorded on a film or the like so as to perform color processing in consideration of the characteristics of the color expression area of the film. In this way, it is possible to correct the effect of the recording medium and the recording device on the image and perform image processing in consideration of the intention of the production side.
  • the recording attribute information may be input from the input unit 725 through the CPU 724 as in the above embodiment. In this case, it is possible to further improve the subjective image quality for the user.
  • FIG. 19 shows the format of an input signal d110 that includes profile attribute information as attribute information d111.
  • the profile attribute information is arranged in the header part of the input signal d110.
  • the profile attribute information is not limited to this, and may be arranged so as to be separable from the input image data d111, for example, with flag information.
  • the profile attribute information is information for specifying a profile.
  • the profile attribute information is information for specifying a profile recommended by an imaging device that generates the input image data d112.
  • the profile attribute information includes at least one of data stored in the profile, tag information such as a number for specifying the profile, and parameter information indicating characteristics of the profile processing.
  • Profile data, tag information, and parameter information are the same as those described in the description of the profile information d101 to d103 in the above embodiment.
  • the profile specified by the profile attribute information is, for example, a profile for performing any one of the following image processing [a] to image processing [c].
  • the image processing [a] is image processing determined to be suitable for the input image data d112 in a photographing device or the like that generates the input image data d112.
  • the image processing [b] is an image processing for performing image processing for correcting a difference in characteristics between the display unit of the imaging device and the display device of the standard model, in addition to the image processing [a].
  • the image processing [c] is an image processing for correcting the difference in characteristics between the display unit of the imaging device and the display device 720 (see FIG. 8) in addition to the image processing [a]. It is.
  • the profile attribute information includes processing flag information regarding whether or not the input image data d112 included in the input signal dl10 is data that has already been subjected to image processing in a photographing device or the like. .
  • the display image processing device that performs image processing on the input signal d110 containing the profile attribute information is the same as the display image processing device 759 (see Fig. 13) that corresponds to the profile attribute information. It is.
  • the attribute detection unit 760 detects the profile attribute information included in the input signal d "! 10, and outputs it to the image processing device 758 as attribute information d111.
  • the information setting unit of the image processing device 758 acquires the attribute information d111 and outputs the profile information to the control unit, the visual processing unit, and the basic profile group storage unit.
  • the profile information can be output in any of the following formats: profile data, tag information, and parameter information. Good.
  • the information setting unit determines whether to output the information for specifying the profile from the acquired profile attribute information as the profile information as it is.
  • the profile attribute information includes information for specifying a profile for performing the image processing [a] or the image processing [c], and the processing flag information indicates “no processing”, “j is determined as output j” I do.
  • the information setting unit includes a visual processing unit and a color processing unit. Information that specifies a profile that is not to be subjected to image processing by the other unit is output as profile information.
  • the profile attribute information includes information specifying a profile for performing image processing [b] and the processing flag information indicates "no processing"
  • the standard model is added to the image processing [a].
  • Information for specifying a profile for performing image processing for correcting a difference in characteristics between the display device and the display device 720 is output as profile information.
  • the display device and the display device of the standard model 720 The information for specifying the profile for performing the image processing for correcting the difference in the characteristics with the profile is output as the profile information.
  • the information setting unit includes the visual processing unit and the color processing unit.
  • information specifying a profile for performing image processing for correcting a difference in device characteristics between the display unit of the imaging device and the display device 720. Is output as profile information.
  • the image processing device 758 may always use the profile specified by the profile attribute information acquired from the attribute information d11.
  • the control unit outputs the synthesis degree for generating the profile specified from the attribute information d111 using the profile specified by the profile information output to the visual processing unit and the basic profile group storage unit. Is done.
  • the operation of each unit of the display image processing apparatus is the same as that in the case where the attribute information d111 includes the content information, and a description thereof will be omitted.
  • Image processing using an appropriate profile can be performed in accordance with profile attribute information. For example, it becomes possible to perform image processing using a profile recommended on the photographing side. In addition, it is possible to provide a display close to the image confirmed on the display unit on the photographing side. Therefore, image processing can be performed in consideration of the intention of the production side.
  • the profile attribute information may be input from the input unit 725 via the CPU 724 as in the above embodiment. In this case, it is possible to further improve the subjective image quality for the user.
  • the photographing side and the display side Since it is possible to determine the content of image processing on the photographing side and the presence or absence of image processing, it is possible to prevent the photographing side and the display side from performing duplicate image processing or canceling image processing. Furthermore, not only the presence or absence of image processing but also the degree of image processing can be included as profile attribute information. In this case, the same processing can be shared between the photographing side and the display side. For example, 50% image processing is performed on the shooting side and 50% image processing is performed on the display side. Processing can be performed.
  • tag information and parameter information are included as profile attribute information
  • information on the profile can be added with a small amount of information.
  • FIG. 20 is a block diagram showing a configuration of a display image processing device 765 as a modification of the display image processing device 759 shown in FIG.
  • the display image processing device 765 shown in FIG. 20 is characterized in that it has an attribute detection unit 760 as a modified example of the attribute detection unit 760 (see FIG. 13).
  • the attribute detecting section 756 1 detects profile attribute information (hereinafter referred to as input profile attribute information) included in the input signal dl 10, and converts the detected input profile attribute information to a profile attribute suitable for the image processing device 758.
  • the information can be converted into information (hereinafter referred to as suitable profile attribute information), and is composed of a profile information detecting unit 762 and a profile information converting unit 64.
  • portions performing the same operations as those of the display image processing device 759 are denoted by the same reference numerals, and description thereof is omitted.
  • the profile information detection section 762 detects input profile attribute information from the input signal dl 110 and outputs it as attribute information d 111.
  • the detailed operation is the same as that of the attribute detection unit 760 (see FIG. 13), and a description thereof will be omitted.
  • the profile information converter 746 acquires the attribute information dl 11 from the profile information detector 762. Further, it converts the input profile attribute information included in the attribute information d111 into suitable profile attribute information and outputs it as profile attribute information d116. Here, the conversion is performed using a conversion table prepared in advance.
  • the image processing device 758 acquires the profile attribute information d 1 16, and performs the same operation as when the attribute information d 1 1 1 including the profile attribute information in the above embodiment is acquired. Image of input image data d 1 1 2 (see Fig. 19) included in 0 Perform processing.
  • the display image processing device 765 as a modified example can perform image processing based on the input profile attribute information even when the format of the input profile attribute information and the preferred profile attribute information are different. It becomes.
  • profile information conversion section 764 is not limited to the one that only converts the format of the input profile attribute information.
  • the image processing can be performed by converting the image processing device into suitable profile attribute information that realizes image processing as close as possible. It becomes possible.
  • the input profile attribute information includes the processing degree of the image processing already performed on the input image data d1 12 of the input signal d110
  • the input profile attribute information is set according to the processing degree. It is possible to change the degree of image processing in the image processing device 758 by performing the above conversion. According to this, it is possible to share the image processing between the photographing side that generates the input signal d110 and the display side. Further, it is possible to prevent image processing that overlaps image processing that has already been performed or image processing that cancels image processing that has already been performed.
  • An imaging device 820 according to a seventh embodiment of the present invention will be described with reference to FIGS. 21 to 31.
  • the photographing device 820 shown in FIG. 21 is a photographing device for photographing images, such as a still camera for photographing images and a video camera.
  • the photographing device 8200 has a photographing image processing device 832 including the image processing device described in the above embodiment, and is capable of automatically or manually switching a profile used for image processing. It has features.
  • the photographing device 820 may be an independent device, or may be a device provided in a portable information terminal such as a mobile phone, a PDA, or a PC.
  • the photographing device 820 is composed of a photographing unit 821, a photographing image processing device 832, a display unit 834, a CPU 8464, a lighting unit 8448, an input unit 8550, a security judgment unit 85 2, ko It has a deck 840, a memory controller 842, a memory 844, an external interface (I / F) 854, and an external device 856.
  • the photographing section 821 is a section for photographing an image and outputting an input image signal d 362.
  • the lens 822 is a lens for forming an image of a subject on the CCD 826.
  • the aperture / shutter unit 824 is a mechanism for controlling the exposure by changing the passing range and passing time of the light beam passing through the lens 822.
  • the CCD 826 is an image sensor that photoelectrically converts an image of a subject and outputs an image signal.
  • the amplifier 828 is a device for amplifying the image signal output from the CCD 826.
  • the AZD conversion unit 830 is a device that converts an analog image signal amplified by the amplifier 828 into a digital image signal.
  • the CCD control unit 836 is a device that controls the timing for driving the CCD 826.
  • the information detection unit 838 is a device that detects information such as autofocus, aperture, and exposure from a digital image signal and outputs the information to the CPU 846.
  • the imaging image processing device 832 is the same device as the display image processing device 723 described with reference to FIG. 9 in [Sixth Embodiment]. Under the control of the CPU 846, the imaging image processing device 832 performs image processing on the input signal d1 (see FIG. 22) included in the input image signal d362, and outputs the output signal d3 (see FIG. 22). This is a device that outputs an output image signal d361 including the image data.
  • the imaging image processing device 832 includes the image processing device described in the above embodiment, and is characterized in that image processing is performed using a profile. Details will be described later.
  • the display unit 834 is a device that displays, for example, a thumbnail of the output image signal d 361 output by the image processing device 832 for photographing.
  • the display unit 834 is often configured by an LCD, but is not particularly limited as long as it is a device that displays an image, such as a PDP, a CRT, or a projector. Note that the display unit 834 is not limited to the one built in the imaging device 820, and may be connected via a wired or wireless network.
  • the display unit 834 includes the image processing device 832 for photographing and the CPU 84. 6 may be connected.
  • the CPU 846 is connected to the image processing device 832 for shooting, the codec 840, the memory controller 842, the external l / F 854, and the bus line via the bus line, and the detection result of the information detection unit 838 and the input unit 850 It receives input results, light emission information from the illumination unit 848, judgment results from the security judgment unit 852, etc., as well as a lens 822 and aperture.
  • the illumination unit 848 is a strobe or the like that emits illumination light for irradiating a subject.
  • the input unit 850 is a user interface for allowing the user to operate the image capturing device 820, and includes keys, knobs, a remote controller, and the like for controlling each unit.
  • the security determination unit 852 is a unit that determines security information acquired from the outside and controls the image processing device for photographing 832 via the CPU 846.
  • the codec 840 is a compression circuit that re-compresses the output image signal d 361 from the image processing device for photographing 832 using JPEG or MPEG.
  • the memory controller 842 controls the address and access timing of the memory 844 of the CPU constituted by a DRAM or the like.
  • the memory 844 is composed of DRAM or the like, and is used as a working memory for image processing.
  • the external I / F 854 is an interface for outputting the output image signal d361 or the output image signal d361 compressed by the codec 840 to an external device 856 such as a memory card 859 or a PC 861. Further, the external IZF 854 acquires profile information, etc., which is information relating to a profile for performing image processing, and outputs the input image signal d 362 including the acquired profile information to the image processing device for photography 832. Interface for output: L-source. The profile information is the same as that described in [Sixth Embodiment].
  • the external IZF 854 includes, for example, a memory card I / F 858, a PCI F.860, a network I / F 862, a wireless I / F 864, and the like.
  • the external IZF 8 54 does not need to have all of the examples illustrated here.
  • the memory card IZF 858 is an interface for connecting the memory card 859 for recording image data, profile information, and the like to the photographing device 820.
  • the PC I / F 860 is an interface for connecting the PC 861, which is an external device such as a personal computer that records image data, profile information, and the like, to the photographing device 820.
  • the network IZF 862 is an interface for connecting the image capturing device 8200 to a network and transmitting and receiving image data and profile information.
  • the wireless I / F 864 is an interface for connecting the image capturing device 820 to an external device via a wireless LAN or the like, and transmitting and receiving image data, profile information, and the like.
  • the external I / F 854 is not limited to the illustrated one, and may be, for example, an interface for connecting a USB, an optical fiber, or the like to the imaging device 820.
  • FIG. 22 shows the configuration of the photographing image processing device 832.
  • the photographing image processing device 832 has the same configuration as the display image processing device 723.
  • portions having the same functions as those of the display image processing device 723 are denoted by the same reference numerals.
  • the photographing image processing device 832 includes an image processing device 7500 having substantially the same configuration as the image processing device 10 described with reference to FIG. The operation of each unit has been described in [Sixth Embodiment], and thus detailed description is omitted.
  • the environment information including the environment information d 104 or the environment information d 105 is “information on an environment in which image-processed image data is displayed and viewed. Yes ", but this may be information on the environment in which the shooting is performed.
  • the environment in which the shooting is performed is, for example, information such as the color temperature of ambient light in the shooting environment, the illuminance, the type of light source, and the distance to the subject.
  • the imaging device 8230 includes the same imaging image processing device 832 as the display image processing device 72 (see FIG. 9) described in [Sixth Embodiment]. Therefore, the same effect as that of the display device 720 (see FIG. 8) including the display image processing device 72 can be obtained. (1)
  • the photographing device 820 includes an image processing device 750 having substantially the same configuration as the image processing device 10 (see FIG. 1). Therefore, the same effects as those of the image processing apparatus 10 described in the above embodiment can be obtained.
  • the imaging device 820 it is possible to generate a new profile. For this reason, it is not necessary to store many profiles in advance, and the storage capacity of the profiles can be reduced. Furthermore, in the generation of a profile, fine adjustment of the image processing realized by the profile can be made by changing the degree of synthesis.
  • the imaging device 820 generates a new profile using a plurality of profiles. For this reason, the degree of freedom of profile generation is improved as compared with the case where one profile is used. That is, it is possible to generate a profile that realizes more complicated image processing.
  • image processing using the generated profile is performed.
  • Profile generation can be performed before image processing. Therefore, even if the image processing realized by the profile is complicated, it does not affect the processing speed of the image processing. That is, complicated processing can be performed at higher speed. This becomes more pronounced when the image processing realized by the generated profile adjusts more image parameters.
  • the photographing device 820 selection of the opening file, change of the degree of synthesis, and the like are performed in accordance with the environment information detected by the environment detection unit 754. Therefore, appropriate image processing is realized according to the environmental information, and the visual effect is further improved.
  • FIG. 23 shows a profile zk generated based on the profiles z1 and z2 selected based on the environment information and the degree of synthesis specified by the control signal G2.
  • the profile zk is generated according to the value of the degree of synthesis specified by the control signal G2. For example, if the color temperature of the ambient light in the shooting environment of the shooting device 8200 can be obtained, the basic profile group storage unit 12 stores the profile z1 for the low color temperature (30000K) and the high color temperature. The profile z 2 for (550 K) is selected.
  • the profile selected as the profile z1 for the low color temperature (300 K) is set to the high color temperature (550 Compared to the profile z2 for K), the color adjustment range is set wider in the red direction, and the gain in the achromatic direction is set larger.
  • a control signal G2 is output from the control unit 14 according to the color temperature acquired from the environment information.
  • the degree of synthesis is specified based on the color temperature, and a suitable profile is generated. Therefore, the memory color correction is performed more appropriately.
  • the imaging device 8 20 includes a display unit 8 3 4 and can perform imaging while confirming the image processed image. For this reason, it is possible to bring the impression of the image at the time of shooting close to the impression at the time of displaying the shot image.
  • the information setting unit 752 specifies a port file used in the visual processing unit 11 and the color processing unit 13, respectively. For this reason, it is possible to prevent the image processing in the visual processing unit 11 and the color processing unit 13 from being duplicated or canceling each other.
  • the input unit 850 may be a device for inputting environment information as the environment detecting unit 754 (see FIG. 22).
  • the environment information input from the input unit 850 is input to the imaging image processing device 832 as environment information d105 via the CPU 846 (see FIG. 21).
  • the storage unit in which the profiles are stored in the visual processing unit 11 (see FIG. 9) and the basic profile group storage unit 12 (see FIG. 9) are provided outside the image processing device 832 for photographing.
  • it may be realized by the memory 844 or the external device 856.
  • the storage unit in which the profiles are stored in the visual processing unit 11 and the basic profile group storage unit 12 may be realized by the same device.
  • the storage unit in which the profile is stored in the visual processing unit 11 and the profile stored in the basic open file group storage unit 12 may be the one stored in advance in each unit, or an external device. It may be obtained from 8.56. Further, the functions of the control unit 14 and the information setting unit 752 of the image processing device 750 may be realized by the CPU 846.
  • the image processing device for photographing 832 may include a user input unit for allowing a user to make an input, instead of the environment detecting unit 754.
  • FIG. 24 shows a configuration of a photographing image processing device 875 as a modification of the photographing image processing device 832.
  • the image processing device for photographing 8875 is characterized in that it has a user input section 8775 for allowing a user to make an input.
  • portions having substantially the same functions as those of the image processing device 832 for photographing are denoted by the same reference numerals, and description thereof is omitted.
  • the user input unit 8 7 7 allows the user to input the image processing desired by the user, and inputs the input information to the information setting unit 7 52 (see FIG. 9) of the image processing device 7 50 (see FIG. 9). Output as 0 8.
  • the user input unit 8 7 7 is, for example, a brightness for inputting the brightness desired by the user.
  • the brightness input unit includes an input unit and an image quality input unit for inputting an image quality desired by the user.
  • the brightness input unit includes, for example, a switch for inputting a state of light in an image to be shot, and an environment for an image to be shot. It is composed of a switch for inputting the state of light.
  • the switch for inputting the state of light in the image to be captured is, for example, a switch for inputting backlight or forward light in the image, the presence or absence of a strobe at the time of shooting, and the state of the macro program used at the time of shooting. It is.
  • the macro program is a program for controlling the photographing device according to the state of the subject.
  • the switch for inputting the light state of the environment where the image is captured is, for example, a switch for inputting the brightness of the ambient light, the color temperature, and the like.
  • the image quality input unit is a switch for inputting the user's preference for image quality, for example, a switch for inputting different visual effects such as default / dynamic / classic.
  • the user input unit 877 outputs information input from the brightness input unit and the image quality input unit as input information d108.
  • the image processing device 750 performs almost the same operation as the case where the environment information d104 (see FIG. 22) is input.
  • the difference from the case where the environment information d 104 is input is that the information setting unit 752 refers to a database that associates the input information d 108 with the profile, and the profile information d 101 to This is the point that d 103 is output.
  • the image processing device for photographing 875 of the present modification it is possible to select a profile used for image processing in accordance with a user input and perform image processing. For this reason, it is possible to perform image processing according to the user's preference.
  • the input section 850 (see FIG. 21) operates in the same manner as the user input section 877, and may input image processing desired by the user via the CPU 846. ,.
  • the environment information d105 includes the same information as the input information d108.
  • the photographing image processing device 832 transmits security information. It may be a device that acquires and switches a profile used for image processing according to security information.
  • the security information is information indicating whether or not the photographing is permitted in the photographing environment of the photographing device 820, or the degree of the permission.
  • FIG. 25 shows a photographing image processing device 8 as a modification of the photographing image processing device 8 32.
  • the photographing image processing device 870 is the same as the photographing image processing device 832 in that it performs image processing of the input signal d1 and outputs an output signal d3.
  • the difference between the photographing image processing device 870 and the photographing image processing device 833 is that the photographing image processing device 870 has a security information input section 872 for acquiring security information in the photographing environment. It is a point to prepare.
  • the same reference numerals are given to portions common to the image processing device 832 for photographing, and description thereof will be omitted.
  • the security information input unit 872 is mainly configured by, for example, an input device that allows a user to directly input security information, a receiving device that obtains security information by wireless, infrared, or wire. Further, security information input section 872 outputs the obtained security information as security information d130.
  • the information setting section 752 (see Fig. 9) of the image processing device 750 identifies a port file that enables higher quality shooting as the degree of shooting permission indicated by the security information d130 increases. Then, the profile is specified so that the lower the level of permission for shooting, the lower the quality of the shooting.
  • FIG. 26 is an explanatory diagram for describing an operation of the photographing device 820 including the photographing image processing device 870 in the photographing control area 880 in which photographing is controlled.
  • shooting prohibited objects 8 8 3 for which shooting is prohibited are arranged.
  • Prohibited photography 8 8 3 is, for example, a person, a book, or something that is subject to portrait rights or copyrights.
  • a security information transmission device In the shooting control area 880, a security information transmission device
  • the security information transmitting device 881 transmits security information by wireless or infrared rays.
  • the photographing device 820 in the photographing control area 880 receives the security information through the security information input section 872 (see FIG. 25).
  • the security information input unit 872 outputs the received security information as security information d130.
  • the information setting unit 752 (see FIG. 9) of the image processing device 750 refers to a database or the like that stores the association between the value of the security information dl30 and the profile, and sets the value of the degree of permission for shooting.
  • the profile information d 101 to d 103 for specifying the corresponding profile is output.
  • a profile that enables higher-quality shooting is associated with a higher value of a shooting permission level.
  • the shooting device 8 20 is a security information transmitting device 8 8 If security information with a low degree of permission to shoot is received from 1, the image processing device 750 uses a profile that smoothes (or reduces the gradation) near the center of the image and the main area of the image. Image processing is performed. Further, the image processing device 750 performs image processing using a profile that makes an image achromatic. As a result, it becomes impossible to shoot with an appropriate image quality, and it becomes possible to protect rights such as portrait rights and copyrights.
  • the image processing device for photographing 870 not only switches the profile according to the security information d130, but also changes the profile. Some functions of the 870 or the photographing device 820 may be stopped.
  • the image processing device 750 receives security information from the security information input portion 872 and further obtains user authentication information d1 3 1 from the input portion 850 of the imaging device 8200, etc.
  • image processing may be performed using a profile that eases the degree of shooting permission.
  • the user authentication information is, for example, authentication information based on the user's fingerprint 'eyeprint' or the like.
  • the image processing device 750 that has obtained the authentication information transmits the data of the user who has been permitted to shoot. Referring to the database, it is determined whether the authenticated user is a user who is permitted to shoot. Also, at this time, the degree of permission for shooting may be determined based on the charging information of the user, and the higher the degree, the higher the quality of shooting.
  • the security information may be information for identifying the photographing device 820 permitted to shoot.
  • the security information input unit 872 may also be used as the security judgment unit 852 (see FIG. 21).
  • the image processing apparatus for photographing 832 outputs the output image signal d361 including the output signal d3 subjected to the image processing J”.
  • the photographing image processing device 832 may be a device capable of outputting the output image signal d361 and the input signal d1.
  • the image processing device 832 for photographing outputs the output image signal d361 to the display unit 834, and the codec 840 or the external device 856 (see FIG. 21) Outputs the input signal d1.
  • the display unit 834 of the photographing device 820 can perform display according to the photographing environment. For example, it is possible to display an image with increased contrast and saturation under ambient light. Also, it is possible to record and transmit the captured image itself to the codec 840 or the external device 856.
  • the photographing image processing device 832 may include a plurality of image processing devices.
  • Fig. 27 shows the configuration of a photographing image processing device 8884 provided with two image processing devices.
  • the photographing image processing device 8884 performs two image processing operations on the input signal d1.
  • the image processing apparatus is provided with an environment detecting section 887 which outputs environment information to each image processing apparatus.
  • the image processing device 885 and the image processing device 886 perform the same operation as the image processing device 750 (see FIG. 22) described in the above embodiment.
  • the environment detector 8 8 7 The same operation as that of the environment detection unit 754 (see FIG. 22) described in the embodiment is performed.
  • the environment detector 887 outputs environment information d134 and d135 to each image processing device.
  • the image processing device 885 acquires the environmental information d134, performs image processing on the input signal d1, and outputs the output signal d3 to the display unit 834.
  • the image processing device 8886 acquires the environment information d135, performs image processing on the input signal d1, and outputs an output signal d137.
  • the imaging image processing device 884 can output signals obtained by performing different image processing to the display unit 834 and the external device 856 and the like. For this reason, for example, an image with increased contrast or saturation is displayed on the display section 834 having a small display size, and a large display size screen is displayed on an external device 856.
  • the user may input environment information d105 to select a profile to be used for image processing.
  • the photographing image processing device 832 may be a device that adds profile information to the image-processed output signal d3 and outputs the result.
  • FIG. 28 shows a photographing image processing device 8900 as a modification of the photographing image processing device 832.
  • the image processing device 890 for photographing is composed of an image processing device 891 that performs image processing on the input signal d1 and outputs an output signal d3, and a profile recommended when performing image processing on the output signal d3.
  • a recommended profile information generator 894 that outputs recommended profile information d1400, which is information, and a profile that adds the recommended profile information d1400 to the output signal d3 and outputs the output image signal d361
  • the image processing device 891 including the information adding unit 892 has the same configuration as the image processing device 10 or the image processing device 7500 described in the above-described embodiment. Perform image processing on d1 This is a device that outputs an output signal d3.
  • the recommended profile information generating unit 894 generates the recommended profile information d140 to be added to the output signal d3 automatically or manually. More specifically, the recommended profile information generation unit 894 obtains the environment information described in the above embodiment using a sensor or the like, and refers to a database that associates the environment information with the profile. The profile information of the profile suitable for is output as the recommended profile information d140. Here, the profile information is the same as that described in the above embodiment. Also, the recommended profile information generating unit 894 may allow the user to input a suitable port file, and may output the profile information of the input profile as the recommended profile information d140.
  • the profile information adding section 8992 adds the recommended profile information d140 to the output signal d3 and outputs it as an output image signal d3661.
  • FIG. 29 shows an example of the format of the output image signal d3661 to which the profile information adding unit 892 has added the recommended profile information d140.
  • the recommended profile information d140 is arranged at the head of the output image signal d3661, and the output signal d3 is arranged subsequently.
  • image processing of all output signals d3 can be performed using the recommended profile information d140 at the beginning. It is sufficient that the recommended profile information d140 is arranged at only one place in the output image signal d361, and the ratio of the recommended profile information dl40 to the output image signal d361 is determined. It is possible to reduce.
  • recommended profile information d140 is arranged for each of the plurality of divided output signals d3.
  • different profiles are used in image processing of each of the divided output signals d3. For this reason, for example, it is possible to perform image processing using a different profile for each scene of the output signal d3, and it is possible to more appropriately perform image processing.
  • scene attribute information is added to the first scene, and only the fluctuation information of the brightness from the first scene and the target fluctuation information are added to the subsequent scenes. By adding it as scene attribute information, It is possible to suppress flicker and rapid changes in image quality in image processing.
  • the recommended profile information d140 may be any type of information as long as the information specifies a profile used for image processing of the output signal d3.
  • the profile managed in the database may be used.
  • the information may be information that associates the information with the output signal d3.
  • the photographing image processing device 832 may be a device that adds profile information to the input signal d1 and outputs the result.
  • FIG. 30 shows a photographing image processing device 896 as a modification of the photographing image processing device 832.
  • the photographing image processing device 8996 includes an image processing device 8997, a user input unit 898, a recommended profile information generating unit 8999, and a profile information adding unit 900.
  • the image processing device 897 and the user input unit 898 operate in the same manner as the image processing device 7550 and the user input unit 8777 described with reference to FIG. Further, the user input unit 898 outputs the information set by the user to the recommended profile information generation unit 899 as input information d144.
  • the recommended profile information generation unit 8999 refers to a database that associates the input information d144 with the profile, and outputs the recommended profile information d144.
  • the profile information adding section 900 adds recommended profile information d144 to the input signal d1, and outputs an output image signal d366.
  • the recommended profile information d144 is added in the same format as described with reference to FIG. That is, in FIG. 29, the recommended profile information d144 is arranged at the position where the recommended profile information dl40 is arranged, and the input signal d1 is arranged at the position where the output signal d3 is arranged. You.
  • the image processing device 8997, the recommended profile information generating unit 8999, and the profile information adding unit 900 are input via the CPU 846 instead of or in addition to the user input unit 8998.
  • the input may be made from the unit 850 (see FIG. 21).
  • the recommended profile information added to the output signal d3 may be generated in accordance with the information on the image processing performed by the image processing device.
  • FIG. 31 shows a photographing image processing device 905 as a modification of the photographing image processing device 832.
  • the image processing device for photographing 905 includes an image processing device 906, a recommended profile information generating unit 907, and a profile information adding unit 908.
  • the image processing device 906 is a device that performs image processing on an input signal d1 and outputs an output signal d3, and has substantially the same configuration as the image processing device 10 shown in FIG.
  • the difference from the image processing device 10 is that the visual processing unit 11, the control unit 14, and the basic profile group storage unit 12 provide the recommended profile information generation unit 9 0 7 according to each operation. Is output to For example, the visual processing unit 11 generates profile information d such as information on the profile used for the visual processing and the processing degree of the visual processing.
  • the control unit 14 outputs the degree of synthesis of the profiles used in the visual processing unit 11 and the color processing unit 13 as profile information d149.
  • the basic profile group storage unit 12 stores the profile information used in the color processing of the color processing unit 13 and the processing degree of the color processing of the color processing unit 13 as profile information d.
  • the recommended profile information generation unit 907 acquires the profile information d148 to d150 and outputs it as the recommended profile information d146.
  • the profile information adding unit 908 adds the recommended profile information d146 to the output signal d3, and outputs the output image signal d366.
  • the recommended profile information d146 is added in the same format as that described with reference to FIG. That is, in FIG. 29, the recommended profile information d146 is arranged at the position where the recommended profile information d140 is arranged.
  • the image processing device for shooting 905 on the display side, the content of image processing on the shooting side and The presence or absence of image processing can be determined. For this reason, it is possible to prevent image processing that is duplicated on the photographing side and display side and image processing that cancels out.
  • the recommendation profile information d146 can be included as the recommended profile information d146. This makes it possible to share the same processing between the photographing side and the display side. For example, it is possible to perform 50% image processing on the photographing side and 50% image processing on the display side.
  • tag information and parameter information are included as the recommended profile information dl46, information on the profile can be added with a small amount of information.
  • the visual processing unit, the profile creation execution unit, the control unit, the color processing execution unit, and the like may be implemented by software or hardware.
  • the program can be implemented in a hard disk, RAM, ROM, memory in a device built in or connected to a device that handles images, such as a computer, digital camera, mobile phone, PDA, digital TV, etc.
  • the program is stored in a storage device such as a card and executes color processing of an image.
  • the program may be provided via a recording medium such as a CD-ROM or via a network.
  • the visual processing unit, the profile creation execution unit, the control unit, the color processing execution unit, and the like may be provided inside the LSI. Since different processing is provided in the basic profile by having it inside the LSI, it is not necessary to design the LSI every time different processing is realized.
  • each functional block of the above-described embodiment may be individually integrated into one chip, or may be integrated into one chip so as to include a part or all of the functional blocks.
  • LSI it is sometimes called IC, system LS, super LSI, or ultra LS 1 depending on the degree of integration.
  • the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor.
  • a field programmable gate array FPGA
  • a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
  • the input signal d 1 and the image signal d 2 may be still images or moving images.
  • the image signal value is represented as coordinates in a color space using the three primary colors of R, G, and B.
  • the effect of the present invention is as follows when data in this color space is used. It is not limited.
  • the color space may be a CMY color space or a Lab color space.
  • the effects of the present invention are also effective in other than color processing that handles a three-dimensional color space. That is, the effect of the present invention does not depend on the dimension of the color space to be handled.
  • color processing can be performed in accordance with the environment of an output device that outputs a color-processed image signal. More specifically, it is possible to display a color-processed image signal on a monitor according to ambient light, or to print out the color-processed image signal using a printer according to paper quality. Become. In addition, in the display color conversion processing, the memory color correction processing, and the like, it becomes possible to perform color processing according to each viewer's preference.
  • the processing degree of the color processing is changed. It is not necessary to have an enormous number of lookup tables, and the storage capacity of a memory for storing the lookup tables can be reduced.
  • FIG. 32 is a block diagram showing an overall configuration of a content supply system eX100 realizing a content distribution service.
  • the area for providing communication services is divided into a desired size, and base stations e X 107 to e X 110 are fixed radio stations in each cell.
  • the content supply system eX100 for example, includes an Internet service provider eX102, a telephone network ex104, and base stations eX107 to eX110 on the Internet eX101.
  • Each device such as computer ex 1 1 1, PDA (personal digital assistant J ex 1 1 2, Kamef exl 1 3, mobile phone ex 1 1 4, mobile phone with camera ex 1 1 5 etc. is connected You.
  • each device may be directly connected to the telephone network ex 104 without going through the base stations ex 107 to ex 110 which are fixed wireless stations.
  • the camera eX113 is a device capable of shooting moving images such as a digital video camera.
  • PDC Personal Digital Communications
  • CDM A Code Division Multiple Access
  • W-CDM Wideband-Code Division Multiple Access
  • GSM Global System for Mobile Communi cat
  • PHS Personal Handyphone System
  • the streaming server ex 103 is connected to the camera ex 113 via the base station ex 109 and the telephone network ex 104, and performs encoding processing to be transmitted by the user using the camera ex 113. Live distribution etc. based on the collected data becomes possible. Even though the encoding of the captured data is performed by the camera eX113, the data transmission The processing may be performed by a server or the like. Also, moving image data shot by the camera ex116 may be transmitted to the streaming server ex103 via the computer eX111.
  • the camera ex116 is a device such as a digital camera that can shoot still images and moving images. In this case, the encoding of the moving image data may be performed by the camera eX116 or the computer ex111.
  • the encoding process is performed in the LSI ex117 of the combi- ter ex111 or the camera exl16.
  • the image encoding / decoding software may be incorporated in any storage medium (CD-ROM, flexible disk, disc, disc, etc.) that is a recording medium readable by a computer eX111 or the like.
  • the video data may be transmitted by a mobile phone with a camera eX115.
  • the moving image data at this time is data encoded by the LSI included in the mobile phone ex115.
  • the content for example, a video image of a live music taken by the user with the camera ex113, power camera ex116, etc. is encoded and streamed.
  • the streaming server eX103 stream-distributes the content data to the requested client.
  • the client include a computer ex111, a PDAex112, a camera ex113, a mobile phone ex114, etc., which can decode the encoded data.
  • the content supply system eX100 can receive and reproduce the encoded data at the client, and further receive, decode, and reproduce the encoded data in real time at the client.
  • the image processing apparatus, the image processing method, and the image processing program described in the above embodiment may be used.
  • a computer ex111, a PDAex112, a camera ex113, a mobile phone ex114, etc. are provided with the image processing device described in the above embodiment, and perform image processing methods and image processing programs. It may be realized.
  • the streaming server eX103 may provide profile data to the image processing apparatus via the Internet eX101. Further, a plurality of streaming servers ex 103 may be provided, each providing different opening file data. Further, the streamer server ex 103 may create a profile. As described above, when the image processing apparatus can acquire the profile via the Internet eX101, the image processing apparatus does not need to previously store the profile used for the image processing, and the storage capacity of the image processing apparatus is not required. Can also be reduced. Further, since profile data can be obtained from a plurality of servers connected via the Internet eX101, different image processing can be realized.
  • a mobile phone will be described as an example.
  • FIG. 33 is a diagram showing a mobile phone eX115 provided with the image processing device of the above embodiment.
  • the mobile phone eX115 has an antenna ex201 for transmitting and receiving radio waves to and from the base station ex110, a power camera unit ex203 for capturing images and still images from CCD cameras, etc.
  • Camera section eX202 a display section such as a liquid crystal display that displays decoded data of the video captured by the eX203, the video received by the antenna ex201, etc., a main body composed of operation keys ex204, audio Audio output unit eX208 such as speaker for output, audio input unit ex205 such as microphone for audio input, data of captured video or still image, data of received mail, data of video or still Recording media eX207 for storing encoded or decoded data, such as image data, and a slot unit for attaching the recording media eX207 to a mobile phone ex115 It has ex 206.
  • audio Audio output unit eX208 such as speaker for output
  • audio input unit ex205 such as microphone for audio input
  • data of captured video or still image data of received mail
  • data of video or still Recording media eX207 for storing encoded or decoded data, such as image data
  • a slot unit for attaching the recording media eX207 to a mobile phone ex115 It has ex 206.
  • the recording media eX207 contains a flash memory device, a type of electrically erasable and programmable read only memory (EEPROM), a non-volatile memory that can be electrically rewritten and erased in a plastic case such as an SD card. Things.
  • EEPROM electrically erasable and programmable read only memory
  • the mobile phone ex115 has a power supply circuit for the main control unit eX311, which is to control each part of the main unit equipped with the display unit eX202 and operation keys ex2O4.
  • Unit ex 310, operation input control unit eX304, image encoding unit ex312, camera interface unit eX303, LCD (Liquid Crystal Display) control unit ex302, image Image decoding unit eX309, demultiplexing unit eX308, recording / reproducing unit ex307, modulation / demodulation circuit unit eX306 and audio processing unit ex305 are synchronized buses ex313 They are connected to each other via.
  • the power supply circuit eX310 is a digital mobile phone with a re-camera that supplies power to each part from the battery pack when the call is terminated and the power key is turned on by user operation. Is activated.
  • the mobile phone ex115 receives a voice signal collected by the voice input unit eX205 in the voice call mode based on the control of the main control unit eX311, which includes a CPU, a ROM, a RAM, and the like. It is converted to digital audio data by the audio processing unit eX305, which is subjected to spectrum diffusion processing by the modulation / demodulation circuit unit eX306, and digital / analog conversion processing and frequency conversion by the transmission / reception circuit unit ex301. After the processing, transmission is performed via the antenna eX201. The mobile phone eX115 also amplifies the received signal received by the antenna eX201 in the voice call mode, and performs frequency conversion processing and analog digital conversion processing. After the spectrum despreading process is performed, the analog signal is converted into an analog audio signal by the audio processing unit eX305, and is output via the audio output unit eX208.
  • the main control unit eX311 which includes a CPU, a ROM, a RAM, and the like. It is
  • the text data of the e-mail input by operating the operation key eX204 on the main unit is controlled via the operation input control unit eX304. It is sent to the section ex 3 1 1.
  • the main control unit ex311 performs spread spectrum processing on the text data in the modulation / demodulation circuit unit eX306, and performs digital / analog conversion processing and frequency conversion processing on the transmission / reception circuit unit eX301, and then executes the antenna It transmits to the base station ex110 via eX201.
  • the image data captured by the camera unit eX203 is supplied to the image encoding unit eX312 via the camera interface unit eX303.
  • the image data captured by the camera unit ex203 is displayed on the display unit ex203 via the camera interface unit eX303 and the LCD control unit eX302.
  • the image encoding unit ex 3 12 can also display the image data directly from the camera unit e X 203.
  • the image data is converted into encoded image data by compression encoding, and is transmitted to the demultiplexing unit eX308.
  • the mobile phone eX115 simultaneously outputs the audio collected by the audio input unit eX205 through the audio processing unit ex305 while capturing images with the camera unit ex203.
  • the data is sent to the demultiplexing unit eX308 as audio data.
  • the demultiplexing unit eX308 multiplexes the encoded image data supplied from the image encoding unit ex312 and the audio data supplied from the audio processing unit eX305 in a predetermined manner, The resulting multiplexed data is subjected to spread spectrum processing in a modulation / demodulation circuit section eX306 and digital-analog conversion processing and frequency conversion processing in a transmission / reception circuit section eX301, followed by an antenna eX2. 0 through 1 to send.
  • the received signal received from the base station ex110 via the antenna eX201 is modulated and demodulated by the modem eX306. Then, the spectrum despreading process is performed, and the multiplexed data obtained as a result is sent to the demultiplexing unit eX308.
  • the demultiplexing unit ex308 demultiplexes the multiplexed data so that the coded bit stream of the image data and the audio
  • the data is divided into an encoded bit stream and the encoded image data is supplied to an image decoding unit ex 3 O 9 via a synchronous bus e X3 13 and the audio data is converted to an audio processing unit e X Feed to 305.
  • the image decoding unit eX309 generates replayed moving image data by decoding the coded bit stream of the image data, and outputs this through the LCD control unit ex302.
  • the data is supplied to the display unit eX202, and thereby, for example, moving image data included in a moving image file linked to a homepage is displayed.
  • the audio processing unit ex305 converts the audio data into an analog audio signal, and then supplies the analog audio signal to the audio output unit ex208, whereby, for example, a moving image file linked to a homepage is output. Is reproduced.
  • the image decoding unit eX309 may include the image processing device of the above embodiment.
  • the image processing device, the image processing method, and the image processing program described in the embodiment can be incorporated.
  • the coded bit stream of the video information is transmitted via radio waves to the communication or broadcasting satellite eX410.
  • the broadcasting satellite ex 410 that received the signal transmitted a broadcasting wave, and received this wave with a home antenna eX406 equipped with a satellite broadcasting receiving device, and then received a TV (receiver) ex 401 or set-top A box (STB) eX407 or the like decodes the encoded bit stream and reproduces it.
  • a device such as a television (receiver) ex 401 or a set-top box (STB) eX 407 may include the image processing device described in the above embodiment. Further, the image processing method of the above embodiment may be used. Further, an image processing program may be provided. Further, the reproducing apparatus eX403 which reads and decodes the encoded bit stream recorded on the storage medium ex402 as a recording medium such as CD or DVD is also provided with the image processing apparatus and image processing method described in the above embodiment. It is possible to implement an image processing program. In this case, the reproduced video signal is displayed on the monitor eX404.
  • the image processing apparatus, the image processing method, and the image processing program described in the above-described embodiment are provided in the set-top box ex 407 connected to the cable eX405 for cable television or the antenna eX406 for satellite / terrestrial broadcasting.
  • a configuration is also conceivable in which is implemented, and this is reproduced on the TV monitor eX408.
  • the image processing apparatus described in the above embodiment may be incorporated in the television instead of the set-top pox.
  • a signal is received from a satellite ex 41 0 or a base station e X 107 by a car ex 41 2 having an antenna e X 41 1 and a car navigation system e X 41 3 etc. of the car ex 41 2 is received. It is also possible to play a moving image on the display device.
  • an image signal can be encoded and recorded on a recording medium.
  • a recorder e X 420 such as a DV recorder that records image signals on a DV disc e X 421 and a disk recorder that records on a hard disk. It can also be recorded on an SD card eX422. If the recorder ex420 has the image processing of the above embodiment, the image signal recorded on the DVD disc ex421 or the SD card ex422 can be image-processed and displayed on the monitor eX408.
  • the configuration of the car navigation system ex 4 13 is, for example, of the configuration shown in FIG. 34, the camera section e X 203, the camera interface section e X 303, and the image encoding section e X 3 1 2 The same can be said for the computer eX111 and the TV (receiver) eX401.
  • the above-mentioned terminals such as the mobile phone eX114 are not only transmission and reception terminals having both an encoder and a decoder, but also transmission terminals having only an encoder and reception terminals having only a decoder. There are three possible implementation formats.
  • the image processing apparatus, the image processing method, and the image processing program described in the above embodiment can be used in any of the above-described device 'systems, and the effects described in the above embodiment can be obtained.
  • the present invention is directed to an image processing apparatus which is required to provide an image processing apparatus capable of arbitrarily adjusting the processing degree for various color processing while reducing the storage capacity for storing a lookup table, This is useful as an image processing device that performs color processing of an image signal.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Color Image Communication Systems (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

 本発明は、ルックアップテーブルを記憶するための記憶容量を削減しつつ、様々な色処理に対して処理度合いを任意に調整可能な画像処理装置を提供するものである。画像処理装置10は、画像信号d2の色処理を行う画像処理装置であって、プロファイル作成部15と、色処理実行部16とを備えている。プロファイル作成部15は、所定の色処理について異なる処理度合いを実現する複数の基本色変換プロファイルに基づいて、所定の色処理について所定の処理度合いを実現する新たな色変換プロファイルを作成する。色処理実行部16は、作成された新たな色変換プロファイルに基づいて、画像信号d2の色処理を実行する。

Description

明 細 書 画像処理装置、 画像処理方法および画像処理プログラム (技術分野) ,
本発明は、 画像処理装置、 特に、 画像信号の色処理を行う画像処理装置に関す る。
(背景技術)
画像信号に対する画像処理として、 色処理について知られている。
色処理とは、 例えば、 表示色変換処理、 色域変換処理、 記憶色補正処理等と呼 ばれる処理である。 表示色変換処理とは、 画像信号の全体の色調を調整する処理 であり、 例えば、 画像信号の明るさを調整する、 あるいは画像信号に特定の効果 (例えば、 フィルムライク処理など) を与えるよう調整する処理である。 色域変 換処理とは、 画像信号の入出力デバイスに固有の色空間において画像信号を再生 表示させるために行われる処理であり、 色域圧縮 (G a m u t M a p p i n g ) などと呼ばれる処理である。 記憶色補正処理とは、 画像信号中の空の色、 肌の 色あるいは緑の色といった特定の色を記憶に合うように調整する処理である。 これらの処理においては、 入力される画像信号をある写像関数により別空間へ と写像するという処理が必要となる。 しかし、 このような写像関数は、 一般的に 線形の写像関数とはならない場合が多い、 またこのような写像関数を定式化する こと自体できない場合もある。 そこで、 このような処理においては、 ルックアツ プテーブルを用いた処理が行われる。
ルックアップテーブルを用いた処理に際して、 問題となるのは、 ルックアップ テーブルを記憶する記憶装置の容量を減らしつつ、 いかに高精度の色処理を実行 することができるかという点である。 すなわち、 入力された全ての画像信号に対 して色処理された画像信号のデータをルックアップテーブルに格納するのでは、 ルックアップテーブルが膨大な容量となってしまう。 一方、 一部の画像信号に対 する色処理された画像信号のデータのみをルックアップテーブルに格納するので 2004/013604
2 は、 色処理の精度が低くなる。
これに対し、 ルックアップテーブルには、 入力された画像信号の一部に対する 色処理された画像信号のデータを格納し、 このルックアップテーブルを補間して 用いることによリ色処理の精度を向上させる技術 (例えば、 特開平 4— 3 6 7 1 6 2号公報参照) 、 またルックアップテーブルを繰り返し補正し、 記憶色の色再 現性を向上させるルックアップテーブルを得るための技術 (例えば、 特開平 1 1 - 2 0 5 6 2 0号公報参照) が知られている。
(発明の開示)
一方、 上記した表示色変換処理、 色域変換処理、 記憶色補正処理等と呼ばれる それぞれの処理において、 処理度合いを任意に調整することが求められている。 例えば、 色処理された画像信号を出力する出力デバイスの環境に対応して色処理 を行うことが求められている。 より具体的には、 色処理された画像信号を周囲の 環境光に応じてモニタ表示させること、 あるいは色処理された画像信号を紙質に 応じてプリンタによリプリントアウトさせることなどが求められている。 また、 表示色変換処理、 記憶色補正処理などにおいては、 観者それぞれの好みに応じた 色処理が求められている。
しかし、 これらの色処理を実現するためには、 色処理の処理度合いを異ならせ た膨大な数のルックアップテーブルを有することが必要となり、 ルックァップテ 一ブルを記憶するためのメモリなどの記憶容量も膨大なものとなる。
そこで、 本発明では、 ルックアップテーブルを記憶するための記憶容量を削減 しつつ、 様々な色処理に対して処理度合いを任意に調整可能な画像処理装置を提 供することを課題とする。
請求項 1に記載の画像処理装置は、 画像信号の色処理を行う画像処理装置であ つて、 色変換ルックアップテーブル作成部と、 色処理実行部とを備えている。 色 変換ルックアップテーブル作成部は、 所定の色処理について異なる処理度合いを 実現する複数の基本色変換ルックアップテーブルに基づいて、 所定の色処理につ いて所定の処理度合いを実現する新たな色変換ルックアップテーブルを作成する 。 色処理実行部は、 作成された新たな色変換ルックアップテーブルに基づいて、 画像信号の色処理を実行する。
ここで、 所定の色処理とは、 例えば、 表示色変換処理、 色域変換処理、 記憶色 補正処理等と呼ばれる処理である (以下、 この欄において同じ) 。 色処理につい ての処理度合いとは、 例えば、 記憶色補正処理であれば、 記憶色を強化する色補 正処理の強化度合いのことである (以下、 この欄において同じ) 。
本発明の画像処理装置においては、 少数の基本色変換ルックアツプテーブルを 備えるだけで、 任意の処理度合いの色処理を実現することが可能となる。 また、 少数の基本色変換ルックアツプテーブル以外には、 あらかじめ処理度合いを異な らせた色変換ルツクアツプテーブルを用意しておく必要がなく、 色変換ルツクァ ップテーブルを記憶するメモリなどの記憶容量を削減することが可能となる。 請求項 2に記載の画像処理装置は、 請求項 1に記載の画像処理装置であって、 色変換ルックアツプテーブル作成部は、 作成実行部とルックアツプテーブル記憶 部とを有している。 作成実行部は、 所定の色処理について異なる処理度合いを実 現する複数の基本色変換ルックアップテーブルの合成度合いに基づいて新たな色 変換ルックアップテーブルを作成する。 ルックアップテーブル記憶部は、 作成実 行部が作成した新たな色変換ルックアップテーブルを記憶する。 また、 色処理実 行部は、 ルックァップテーブル記憶部に記憶された新たな色変換ルックアツプテ 一ブルに基づいて、 画像信号の色処理を実行する。
作成実行部は、 例えば、 複数の基本色変換ルックアップテーブルどうしの合成 度合いを用いて、 それぞれの基本色変換ルックアップテーブルにおける対応する 要素どうしを内分あるいは外分し、 新たな色変換ルックアップテーブルの各要素 の値を決定する。 ルックァップテーブル記憶部は、 新たな色変換ルックアツプテ 一ブルの各要素の値を記憶する。 色処理実行部は、 ルックアップテーブル記憶部 に記憶された新たな色変換ルックアップテーブルを用いて、 画像信号の色処理を 実行する。
本発明の画像処理装置においては、 基本色変換ルックアップテーブルの合成度 合いを任意に変更することにより、 任意の処理度合いを実現する新たな色変換ル ックアップテーブルを作成することが可能となる。
請求項 3に記載の画像処理装置は、 請求項 1または 2に記載の画像処理装置で あって、 複数の基本色変換ルックアップテーブルは、 所定の色処理についてデフ オル卜の処理度合いを実現する基本色変換ルックアップテーブルと、 デフオル卜 の処理度合いを高めた、 あるいは低めた処理度合いを実現する基本色変換ルック アップテーブルとを含んでいる。
作成実行部は、 例えば、 複数の基本色変換ルックアップテーブルの合成度合い に基づいて、 デフオル卜の処理度合いを実現する基本色変換ルックアップテープ ルと、 デフォルトの処理度合いを高めた、 あるいは低めた処理度合いを実現する 基本色変換ルックアップテーブルとの対応する各要素どうしを内分あるいは外分 し、 新たな色変換ルックアップテーブルの各要素の値を決定する。
本発明の画像処理装置においては、 デフォルトの処理度合いを実現する基本色 変換ルックアップテーブルを用いて色処理を行うことが可能となるとともに、 必 要に応じてデフオル卜の処理度合いを実現する基本色変換ルックアップテーブル をカスタマイズして色処理を行うことも可能となる。
請求項 4に記載の画像処理装置は、 請求項 1〜 3のいずれかに記載の画像処理 装置であって、 基本色変換ルックアップテーブルのそれぞれは、 複数の異なる色 処理を組み合わせて実現する色変換ルツクアツプテーブルである。
ここで、 基本色変換ルックアップテーブルは、 例えば、 画像信号に対して複数 の色処理を直列的に行った結果を格納している。 さらに、 それぞれの基本色変換 ルックアップテーブルは、 複数の色処理のうちの一部の色処理について、 異なる 処理度合いを実現する色変換ルックアップテーブルである。
本発明の画像処理装置においては、 複数の色処理を組み合わせて実現する色変 換ルックアップテーブルを用いるため、 複数の色処理を実行するために要する時 間を短縮することが可能となる。 また、 複数の色処理のうちの少なくとも一部の 色処理については、 任意の処理度合いで実行することが可能となる。
請求項 5に記載の画像処理装置は、 請求項 1〜 3のいずれかに記載の画像処理 装置であって、 色変換ルックアップテーブル作成部は、 色処理毎に作成される複 数の色変換ルックアツプテ一ブルであって、 それぞれの色処理について異なる処 理度合いを実現する複数の基本色変換ルックアップテーブルに基づいて作成され る複数の色変換ルックアップテーブルを合成することにより新たな色変換ルック アップテーブルを作成する。
ここで、 色変換ルックアップテーブル作成部は、 複数の基本色変換ルックアツ プテーブルの合成によリ新たな色変換ルックアツプテーブルを作成する。
本発明の画像処理装置においては、 複数の色処理のそれぞれについて任意の処 理度合いを実現する新たな色変換ルックアップテーブルを作成することが可能と なる。 このため、 より高精度な画像処理を実現することが可能となる。
請求項 6に記載の画像処理方法は、 画像信号の色処理を行う画像処理方法であ つて、 色変換ルックアップテーブル作成ステップと、 色処理実行ステップとを備 えている。 色変換ルックアップテーブル作成ステップは、 所定の色処理について 異なる処理度合いを実現する複数の基本色変換ルックアツプテーブルに基づいて 、 所定の色処理について所定の処理度合いを実現する新たな色変換ルックアップ テーブルを作成する。 色処理実行ステップは、 作成された新たな色変換ルックァ ップテーブルに基づいて、 画像信号の色処理を実行する。
本発明の画像処理方法においては、 少数の基本色変換ルックアップテーブルを 備えるだけで、 任意の処理度合いの色処理を実現することが可能となる。 また、 少数の基本色変換ルックアップテ一ブル以外には、 あらかじめ処理度合いを異な らせた色変換ルツクアツプテーブルを用意しておく必要がなく、 色変換ルツクァ ップテーブルを記憶するメモリなどの記憶容量を削減することが可能となる。 請求項 7に記載の画像処理プログラムは、 コンピュータにより画像信号の色処 理を行うための画像処理プログラムであって、 色変換ルックアップテーブル作成 ステップと、 色処理実行ステツプとをそなえる画像処理方法をコンピュータに行 わせるものである。 色変換ルックアップテーブル作成ステップは、 所定の色処理 について異なる処理度合いを実現する複数の基本色変換ルックアップテーブルに 基づいて、 所定の色処理について所定の処理度合いを実現する新たな色変換ルツ クアップテーブルを作成する。 色処理実行ステップは、 作成された新たな色変換 ルックアップテーブルに基づいて、 画像信号の色処理を実行する。
本発明の画像処理プログラムにおいては、 少数の基本色変換ルックアップテー ブルを備えるだけで、 任意の処理度合いの色処理を実現することが可能となる。 請求項 8に記載の集積回路は、 請求項 1 ~ 5のいずれかに記載の画像処理装置 を含む。
本発明の集積回路では、 請求項 1 ~ 5のいずれかに記載の画像処理装置と同様 の効果を得ることが可能となる。
請求項 9に記載の表示装置は、 請求項 1 〜 5のいずれかに記載の画像処理装置 と、 画像処理装置から出力される色処理された画像信号の表示を行う表示手段と を備えている。
本発明の表示装置では、 請求項 1 ~ 5のいずれかに記載の画像処理装置と同様 の効果を得ることが可能となる。
請求項 1 0に記載の撮影装置は、 画像の撮影を行う撮影手段と、 撮影手段によ リ撮影された画像を画像信号として色処理を行う請求項 1〜 5のいずれかに記載 の画像処理装置とを備えている。
本発明の撮影装置では、 請求項 1〜 5のいずれかに記載の画像処理装置と同様 の効果を得ることが可能となる。
請求項 1 1に記載の携帯情報端末は、 通信あるいは放送された画像データを受 信するデータ受信手段と、 受信された画像データを画像信号として色処理を行う 請求項 1 ~ 5のいずれかに記載の画像処理装置と、 画像処理装置により色処理さ れた画像信号の表示を行う表示手段とを備えている。
本発明の携帯情報端末では、 請求項 1〜 5のいずれかに記載の画像処理装置と 同様の効果を得ることが可能となる。
請求項 1 2に記載の携帯情報端末は、 画像の撮影を行う撮影手段と、 撮影手段 により撮影された画像を画像信号として色処理を行う請求項 1〜5のいずれかに 記載の画像処理装置と、 色処理された画像信号を送信するデータ送信手段とを備 えている。
本発明の携帯情報端末では、 請求項 1 ~ 5のいずれかに記載の画像処理装置と 同様の効果を得ることが可能となる。
請求項 1 3に記載の画像処理装置は、 入力された画像信号の色処理を行う画像 処理装置であって、 プロファイル作成手段と、 画像処理実行手段とを備えている。 プロフアイル作成手段は、 異なる色処理を行うための複数のプロフアイルに基づ いて、 色処理に用いられるプロファイルを作成する。 画像処理実行手段は、 プロ ファイル作成手段により作成されたプロファイルを用いて、 色処理を行う。
ここで、 色処理とは、 例えば、 表示色変換処理、 色域変換処理、 記憶色補正処 理などである。
また、 プロファイルとは、 例えば、 画像信号に対する演算を行うための係数マ 卜リケスデータや、 画像信号の値に対する色処理された画像信号の値を格納する テーブルデータなどである (以下、 この欄において同じ) 。
本発明の画像処理装置は、 複数のプロフアイルに基づいて新たなプロファイル を作成する。 このため、 予め用意されるプロファイルが少数であっても、 多くの 異なる色処理を行うことが可能となる。 すなわち、 プロファイルを記憶するため の記憶容量を削減することが可能となる。
請求項 1 4に記載の画像処理装置は、 入力された画像信号の色処理を行う画像 処理装置であって、 プロファイル情報出力手段と、 画像処理実行手段とを備えて いる。 プロファイル情報出力手段は、 色処理に用いられるプロファイルを特定す るためのプロファイル情報を出力する。 画像処理実行手段は、 プロファイル情報 出力手段から出力された情報に基づいて特定されるプロファイルを用いて色処理 を行う。
ここで、 プロファイル情報とは、 例えば、 プロファイルが格納するデータ、 プ 口ファイルを特定する番号などのタグ情報、 プロファイルの処理の特徴を示すパ ラメ一タ情報、 その他プロファイルを特定するための情報などである。
本発明の画像処理装置では、 プロファイル情報に基づいて、 プロファイルを制 御し、 色処理を行うことが可能となる。
請求項 1 5に記載の画像処理装置は、 請求項 1 4に記載の画像処理装置であつ て、 プロファイル情報出力手段は、 色処理された画像信号を表示する表示環境に 応じて、 プロファイル情報を出力する。
ここで、 表示環境とは、 例えば、 環境光の明るさや色温度、 表示を行う装置、 表示される画像のサイズ、 表示される画像と表示される画像を視覚するユーザと の位置関係、 ユーザに関する情報などである。
本発明の画像処理装置では、 表示環境に応じた色処理を行うことが可能となる。 請求項 1 6に記載の画像処理装置は、 請求項 1 4に記載の画像処理装置であつ て、 プロファイル情報出力手段は、 画像信号に含まれる情報のうちプロファイル に関わる情報に応じて、 プロファイル情報を出力する。
プロファイルに関わる情報とは、 例えば、 プロファイルが格納するデータ、 プ ロフアイルを特定する番号などのタグ情報、 プロフアイルの処理の特徴を示すパ ラメータ情報、 その他プロファイルを特定するための情報などである。
本発明の画像処理装置では、 プロフアイルに関わる情報を画像信号から取得し、 色処理を行うことが可能となる。
請求項 1 7に記載の画像処理装置は、 請求項 1 4に記載の画像処理装置であつ て、 プロファイル情報出力手段は、 取得された色処理の特徴に関わる情報に応じ て、 プロファイル情報を出力する。
色処理の特徴に関わる情報とは、 色処理のパラメータの特徴についての情報で あり、 例えば、 明度、 色相、 彩度、 記憶色補正の特性などといったパラメータの 値などである。
本発明の画像処理装置では、 例えば、 色処理の特徴に関わる情報をユーザの好 みで入力することによリ色処理を行うことが可能となる。
請求項 1 8に記載の画像処理装置は、 請求項 1 4に記載の画像処理装置であつ て、 プロファイル情報出力手段は、 画像信号が生成された環境に関わる情報に応 じて、 プロファイル情報を出力する。
画像信号が生成された環境に関わる情報とは、 例えば、 画像信号が撮影により 記録された場合の撮影環境に関わる情報や、 撮影環境における撮影許可情報など を含んでいる。
本発明の画像処理装置では、 画像信号が生成された環境に関わる情報に応じて 色処理を行うことが可能となる。
請求項 1 9に記載の画像処理装置は、 請求項 1 4に記載の画像処理装置であつ て、 画像信号は、 画像データと、 画像信号の属性情報とを含んでいる。 プロファ ィル情報出力手段は、 属性情報に応じて、 プロファイル情報を出力する。
本発明の画像処理装置では、 画像信号の属性情報に応じて色処理を行うことが' 可能となる。 このため、 画像信号に適した色処理を行うことが可能となる。
請求項 2 0に記載の画像処理装置は、 請求項 1 9に記載の画像処理装置であつ て、 属性情報とは、 画像データの全体に関わる全体属性情報を含んでいる。 全体属性情報とは、 例えば、 画像データ全体の制作に関する情報や、 画像デー タ全体の内容に関する情報などを含んでいる。
本発明の画像処理装置では、 全体属性情報に応じて色処理を行うことが可能と なる。 このため、 画像データに適した色処理を行うことが可能となる。
請求項 2 1に記載の画像処理装置は、 請求項 1 9または 2 0に記載の画像処理 装置であって、 属性情報とは、 画像データの一部に関わる部分属性情報を含んで いる。
部分属性情報とは、 例えば、 画像データの一部のシーン内容に関する情報など を含んでいる。
本発明の画像処理装置では、 部分属性情報に応じて色処理を行うことが可能と なる。 このため、 画像データに適した色処理を行うことが可能となる。
請求項 2 2に記載の画像処理装置は、 請求項 1 9に記載の画像処理装置であつ て、 属性情報とは、 画像信号が生成された環境に関わる生成環境属性情報を含ん でいる。
生成環境属性情報とは、 画像信号が撮影、 記録、 作成された環境に関する情報 であり、 例えば、 画像信号が生成された際の環境に関する情報や、 生成に用いら れた機器の動作情報などを含んでいる。
本発明の画像処理装置では、 生成環境属性情報に応じて色処理を行うことが可 能となる。 このため、 画像信号に適した色処理を行うことが可能となる。
請求項 2 3に記載の画像処理装置は、 請求項 1 9に記載の画像処理装置であつ て、 属性情報とは、 画像信号が取得された媒体に関わる媒体属性情報を含んでい る。
媒体属性情報とは、 放送媒体、 通信媒体、 記録媒体など、 画像信号が取得され た媒体に関わる情報である。
本発明の画像処理装置では、 媒体属性情報に応じて色処理を行うことが可能と なる。 このため、 媒体の属性に適した色処理を行うことが可能となる。
請求項 2 4に記載の画像処理装置は、 請求項 1 3〜 2 3のいずれかに記載の画 像処理装置において、 プロファイルは、 2次元 L U Tである。 画像処理実行手段 は、 請求項 1〜 5のいずれかに記載の画像処理装置を含む。
本発明の画像処理装置では、 請求項 1 3〜 2 3のいずれかに記載の画像処理装 置と同様の効果が得られる。 さらに、 請求項 1〜 5のいずれかに記載の画像処理 装置と同様の効果が得られる。
請求項 2 5に記載の画像処理装置は、 画像処理実行手段と、 プロファイル情報 出力手段と、 プロファイル情報付加手段とを備えている。 画像処理実行手段は、 入力された画像信号に色処理を行う。 プロファイル情報出力手段は、 入力された 画像信号に好適な色処理を行うプロファイルを特定するためのプロファイル情報 を出力する。 プロファイル情報付加手段は、 画像信号あるいは画像処理実行手段 により色処理された画像信号に対して、 プロファイル情報を付加して出力する。 本発明の画像処理装置によリ、 画像信号あるいは画像処理実行手段によリ色処 理された画像信号と、 プロファイル情報とを関連づけて処理することが可能とな る。 このため、 プロファイル情報が付加された信号を取得した装置は、 その信号 に対して、 好適な色処理を容易に行うことが可能となる。
請求項 2 6に記載の集積回路は、 請求項 1 3〜2 5のいずれかに記載の画像処 理装置を含む。
本発明の集積回路では、 請求項 1 3〜 2 5のいずれかに記載の画像処理装置と 同様の効果を得ることが可能となる。
請求項 2 7に記載の表示装置は、 請求項 1 3〜2 5のいずれかに記載の画像処 理装置と、 画像処理装置により色処理された画像信号の表示を行う表示手段とを 備えている。
本発明の表示装置では、 請求項 1 3 ~ 2 5のいずれかに記載の画像処理装置と 同様の効果を得ることが可能となる。
請求項 2 8に記載の撮影装置は、 画像の撮影を行う撮影手段と、 撮影手段によ リ撮影された画像を画像信号として色処理を行う請求項 1 3 ~ 2 5のいずれかに 記載の画像処理装置とを備えている。
本発明の撮影装置では、 請求項 1 3〜2 5のいずれかに記載の画像処理装置と 同様の効果を得ることが可能となる。
請求項 2 9に記載の携帯情報端末は、 通信あるいは放送された画像データを受 信するデータ受信手段と、 受信された画像データを画像信号として色処理を行う 請求項 1 3 ~ 2 5のいずれかに記載の画像処理装置と、 画像処理装置によリ色処 理された画像信号の表示を行う表示手段とを備えている。
本発明の携帯情報端末では、 請求項 1 3〜2 5のいずれかに記載の画像処理装 置と同様の効果を得ることが可能となる。
請求項 3 0に記載の携帯情報端末は、 画像の撮影を行う撮影手段と、 撮影手段 により撮影された画像を画像信号として色処理を行う請求項 1 3 ~ 2 5のいずれ かに記載の画像処理装置と、 色処理された画像信号を送信するデータ送信手段と を備えている。
本発明の携帯情報端末では、 請求項 1 3〜 2 5のいずれかに記載の画像処理装 置と同様の効果を得ることが可能となる。
請求項 3 1に記載の半導体装置は、 画像信号の色処理を行う半導体装置であつ て、 色変換ルックアップテーブル作成部と、 色処理実行部とを備えている。 色変 換ルックアツプテーブル作成部は、 所定の色処理について異なる処理度合いを実 現する複数の基本色変換ルックアップテーブルに基づいて、 所定の色処理につい て所定の処理度合いを実現する新たな色変換ルックアップテーブルを作成する。 色処理実行部は、 作成された新たな色変換ルックアップテーブルに基づいて、 画 像信号の色処理を実行する。
本発明の半導体装置においては、 少数の基本色変換ルックアップテーブルに基 づいて、 任意の処理度合いの色処理を実現することが可能となる。 また、 少数の 基本色変換ルックアツプテーブル以外には、 あらかじめ処理度合いを異ならせた 色変換ルックアツプテーブルを用意しておく必要がなく、 色変換ルックアツプテ 一ブルを記憶するメモリなどの記憶容量を削減することが可能となる。
請求項 3 2に記載の半導体装置は、 入力された画像信号の色処理を行う半導体 装置であって、 プロファイル作成部と、 画像処理実行部とを備えている。 プロフ アイル作成部は、 異なる色処理を行うための複数のプロファイルに基づいて、 色 処理に用いられるプロファイルを作成する。 画像処理実行部は、 プロファイル作 成部により作成されたプロファイルを用いて、 色処理を行う。
ここで、 色処理とは、 例えば、 表示色変換処理、 色域変換処理、 記憶色補正処 理などである。
また、 プロファイルとは、 例えば、 画像信号に対する演算を行うための係数マ トリクスデータや、 画像信号の値に対する色処理された画像信号の値を格納する テーブルデータなどである。
本発明の半導体装置は、 複数のプロファイルに基づいて新たなプロファイルを 作成する。 このため、 予め用意されるプロファイルが少数であっても、 多くの異 なる色処理を行うことが可能となる。 すなわち、 プロファイルを記憶するための メモリなどの記憶容量を削減することが可能となる。
請求項 3 3に記載の半導体装置は、 入力された画像信号の色処理を行う半導体 装置であって、 プロファイル情報出力部と、 画像処理実行部とを備えている。 プ 口ファイル情報出力部は、 色処理に用いられるプロファイルを特定するためのプ 口ファイル情報を出力する。 画像処理実行部は、 プロファイル情報出力部から出 力された情報に基づいて特定されるプロファイルを用いて色処理を行う。
ここで、 プロファイル情報とは、 例えば、 プロファイルが格納するデータ、 プ 口ファイルを特定する番号などのタグ情報、 プロファイルの処理の特徴を示すパ ラメータ情報、 その他プロファイルを特定するための情報などである。
本発明の半導体装置では、 プロファイル情報に基づいて、 プロファイルを制御 し、 色処理を行うことが可能となる。
請求項 3 4に記載の半導体装置は、 画像処理実行部と、 プロファイル情報出力 部と、 プロファイル情報付加部とを備えている。 画像処理実行部は、 入力された 画像信号に色処理を行う。 プロファイル情報出力部は、 入力された画像信号に好 適な色処理を行うプロファイルを特定するためのプロファイル情報を出力する。 プロフアイル情報付加部は、 画像信号あるいは画像処理実行部によリ色処理され た画像信号に対して、 プロファイル情報を付加して出力する。
本発明の半導体装置により、 画像信号あるいは画像処理実行部により色処理さ れた画像信号と、 プロフアイル情報とを関連づけて処理することが可能となる。 このため、 プロファイル情報が付加された信号を取得した装置は、 その信号に対 して、 好適な色処理を容易に行うことが可能となる。
本発明により、 ルックアップテーブルを記憶するための記憶容量を削減しつつ、 様々な色処理に対して処理度合いを任意に調整可能な画像処理装置を提供するこ とが可能となる。
(図面の簡単な説明)
図 1は、 画像処理装置 1 0の基本構成を説明するブロック図 (第 1実施形態) である。
図 2は、 画像処理装置 1 0の具体的構成を説明するブロック図 (第 1実施形態 ) である。
図 3は、 色変換プロファイル作成方法について説明するフローチャート (第 1 実施形態) である。
図 4は、 画像処理装置 2 6の具体的構成を説明するブロック図 (第 2実施形態 ) である。
図 5は、 画像処理装置 4 5の具体的構成を説明するブロック図 (第 3実施形態 ) である。
図 6は、 画像処理装置 6 0の具体的構成を説明するブロック図 (第 4実施形態 ) である。
図 7は、 画像処理装置 7 5の具体的構成を説明するブロック図 (第 5実施形態 ) である。
図 8は、 表示装置 7 2 0の構成を説明するブロック図 (第 6実施形態) である o
図 9は、 表示用画像処理装置 7 2 3の構成を説明するブロック図 (第 6実施形 態) である。
図 1 0は、 環境情報とプロファイルとの関係を説明する説明図 (第 6実施形態 ) である。
図 1 1は、 ダイナミックレンジ圧縮関数 F 4について説明するグラフ (第 6実 施形態) である。
図 1 2は、 表示用画像処理装置 7 5 5の構成を説明するブロック図 (第 6実施 形態) である。
図 1 3は、 表示用画像処理装置 7 5 9の構成を説明するブロック図 (第 6実施 形態) である。
図 1 4は、 コンテンツ情報を含む入力信号 d 1 1 0のフォーマット (第 6実施 形態) である。
図 1 5は、 シーン属性情報を含む入力信号 d 1 1 0のフォーマット (第 6実施 形態) である。
図 1 6は、 撮影属性情報を含む入力信号 d 1 1 0のフォーマツ卜 (第 6実施形 態) である。
図 1 7は、 放送属性情報を含む入力信号 d 1 1 0のフォーマツ卜 (第 6実施形 態) である。
図 1 8は、 記録属性情報を含む入力信号 d 1 1 0のフォーマツ卜 (第 6実施形 態) である。
図 1 9は、 プロファイル属性情報を含む入力信号 d 1 1 0のフォーマツト (第 6実施形態) である。
図 2 0は、 表示用画像処理装置 7 6 5の構成を説明するブロック図 (第 6実施 形態) である。
図 2 1は、 撮影装置 8 2 0の構成を説明するブロック図 (第 7実施形態) であ る。
図 2 2は、 撮影用画像処理装置 8 3 2の構成を説明するブロック図 (第 7実施 形態) である。
図 2 3は、 環境情報とプロファイルとの関係を説明する説明図 (第 7実施形態 ) である。
図 2 4は、 撮影用画像処理装置 8 7 5の構成を説明するブロック図 (第 7実施 形態) である。
図 2 5は、 撮影用画像処理装置 8 7 0の構成を説明するブロック図 (第 7実施 形態) である。
図 2 6は、 撮影用画像処理装置 8 7 0の動作を説明する説明図 (第 7実施形態 ) である。
図 2 7は、 撮影用画像処理装置 8 8 4の構成を説明するブロック図.(第 7実施 形態) である。 図 2 8は、 撮影用画像処理装置 8 9 0の構成を説明するブロック図 (第 7実施 形態) である。
図 2 9は、 推奨プロファイル情報 d 1 4 0を含む出力画像信号 d 3 6 1のフォ 一マツト (第 7実施形態) である。
図 3 0は、 撮影用画像処理装置 8 9 6の構成を説明するブロック図 (第 7実施 形態) である。
図 3 1は、 撮影用画像処理装置 9 0 5の構成を説明するブロック図 (第 7実施 形態) である。
図 3 2は、 コンテンツ供給システムの全体構成について説明するブロック図 ( 第 9実施形態) である。
図 3 3は、 本発明の画像処理装置を搭載する携帯電話の例 (第 9実施形態) で あ 。
図 3 4は、 携帯電話の構成について説明するブロック図 (第 9実施形態) であ る。
図 3 5は、 ディジタル放送用システムの例 (第 9実施形態) である。
(発明を実施するための最良の形態)
[第 1実施形態]
図 1〜図 3を用いて、 第 1実施形態に係る画像処理装置 1 0について説明する 。 画像処理装置 1 0は、 画像信号の視覚処理とともに、 画像信号の色処理を行う 装置である。 画像処理装置 1 0は、 例えば、 コンピュータ、 デジタルカメラ、 携 帯電話、 P D A、 プリンタ、 スキャナ、 デジタルテレビなどの画像を取り扱う機 器において備えられる。
〈構成〉
図 1を用いて、 画像処理装置 1 0の基本構成について説明する。 画像処理装置 1 0は、 入力信号 d 1を入力とし、 画像処理された出力信号 d 3を出力とする画 像処理装置である。 画像処理装置 1 0は、 入力信号 d 1を入力とし視覚処理され た画像信号 d 2を出力とする視覚処理部 1 1 と、 色処理の基本となる基本色変換 プロファイルを格納し選択された基本色変換プロファイルのデータである選択プ 口ファイルデータ d 5を出力とする基本プロファイル群記憶部 1 2と、 画像信号 d 2と選択プロファイルデータ d 5とを入力とし色処理された出力信号 d 3を出 力する色処理部 1 3と、 各部に制御信号 c 1〜c 3を与える制御部 1 4とを備え ている。
視覚処理部 1 1は、 制御部 1 4からの制御信号 c 1を受け、 入力信号 d 1の空 間処理、 階調処理などといった視覚処理を行い、 画像信号 d 2を出力する。 視覚 処理部 1 1は、 例えば、 入力信号 d 1の低域空間のみを通過させる低域空間フィ ルタにより空間処理を行う。 低域空間フィルタとしては、 通常用いられる F I R (F i n i t e I mp u l s e R e s p o n e s ) 型の低域空間フィルタ、 あるし、(ま I I R ( I n f i n i t e I mp u l s e Re s p o n e s) 型の 低域空間フィルタなどを用いてもよい。 また、 視覚処理部 1 1は、 ガンマ曲線な どを用いた階調処理を行う。
基本プロファイル群記憶部 1 2は、 例えば、 表示色変換処理、 色域変換処理、 記憶色補正処理などの色処理を単独であるいは組み合わせて実現するための複数 の基本色変換プロファイルを格納している。 それぞれの基本色変換プロファイル は、 ある色空間から別の色空間への写像を与えるルックアップテーブルとして記 憶されている。 より具体的には、 ルックアップテーブルは、 R (レッド) 、 G ( グリーン) 、 B (ブルー) の 3次元の画像信号値 (RO, GO, BO) に対して 、 色処理後の画像信号値 (R 1 , G 1 , B 1 ) を与える 3次元ルックアップテー ブルとして記憶されている。 また、 基本プロファイル群記憶部 1 2に記憶される 基本色変換プロファイルは、 画像処理装置の外部のパーソナルコンピュータ (P C) 25において予め算出される。 算出された基本色変換プロファイルは、 基本 色変換プロファイルのデータである基本プロファイルデータ d 4を PC25から 転送することにより基本プロフアイル群記憶部 1 2に格納される。
なお、 基本プロファイル群記憶部 1 2は、 ROM、 書き換え 'データ更新が可 能な記憶媒体 (RAM、 ハードディスクなど) 、 あるいは画像処理装置 1 0から 取り外し可能な記憶媒体 (メモリーカードなど) で構成される。 画像処理装置 1 0の基本プロファイル群記憶部 1 2には、 予め作成された基本プロファイルデー タ d 4が PC 25から読み込まれることとなる。 また、 基本プロファイル群記憶 部 1 2の書き換え■データ更新が可能な場合、 外部のネッ卜ワークに接続するこ とで、 外部より自由に基本色変換プロファイルを更新させることができる。 色処理部 1 3は、 選択プロファイルデータ d 5を入力とし処理用プロファイル データ d 7を出力とするプロファイル作成部 1 5と、 画像信号 d 2と処理用プロ ファイルデータ d 7とを入力とし出力信号 d 3を出力とする色処理実行部 1 6と を有している。 プロファイル作成部 1 5は、 選択プロファイルデータ d 5を入力 とし選択プロファイルデータに基づいて作成された生成プロファイルデータ d 6 を出力とするプロファイル作成実行部 2 0と、 生成プロファイルデータ d 6を入 力として格納し、 格納されたデータのうち色処理に用いられるデータである処理 用プロファイルデータ d 7を出力とするプロファイル R A M 2 1 とから構成され る。
次に、 図 2を用いて、 本発明の特徴部分である基本プロファイル群記憶部 1 2 、 色処理部 1 3の詳細な構成について説明する。
(基本プロファイル群記憶部 1 2 )
基本プロファイル群記憶部 1 2は、 複数の基本色変換プロファイルからなる複 数のプロファイル群を記憶している。 図 2に示す画像処理装置 1 0では、 それぞ れ 2つの基本色変換プロファイルからなる 2つのプロファイル群 2 2, 2 3を記 憶している。 プロファイル群 2 2は、 処理 Xについて処理度合いの異なる処理 X 1 と処理 X 2とを実現するための 2つの基本色変換プロファイル 2 2 aと 2 2 b とを備えている。 プロファイル群 2 3は、 処理 Yについて処理度合いの異なる処 理 Y 1と処理 Y 2とを実現するための 2つの基本色変換プロファイル 2 3 aと 2 3 bとを備えている。
ここで、 処理 Xあるいは処理 Yとは、 例えば、 表示色変換処理、 色域変換処理 、 記憶色補正処理のいずれかの色処理、 あるいは表示色変換処理、 色域変換処理 、 記憶色補正処理を組み合わせた色処理などである。
《プロファイル群》
プロファイル群について説明する。 プロファイル群とは、 同じ色処理について 色処理の程度を異ならせた基本色変換プロファイルから構成されるグループであ る。 プロファイル群 2 2および 2 3のそれぞれは、 表示色変換処理、 色域変換処 理、 記憶色補正処理のいずれかの色処理を実現する機能、 あるいは表示色変換処 理、 色域変換処理、 記憶色補正処理を組み合わせた色処理を実現する機能を有し ている。 例えば、 プロファイル群 22が記憶色補正処理を実現する場合、 基本色 変換プロファイル 22 aと 22 bとは、 異なる補正度合いの記憶色補正を実現す る。 より具体的には、 例えば、 基本色変換プロファイル 22 aが肌色を濃い肌色 に変換し、 基本色変換プロファイル 22 bが肌色を薄い肌色に変換するというよ うに、 それぞれの基本色変換プロファイルは、 同じ機能を有しながら異なる処理 度合いを実現する。
《基本色変換プロファイル》
基本色変換プロファイルについて説明する。 基本色変換プロファイルは、 それ ぞれ 8ビットで表現される 3次元の画像信号値 (RO, GO, BO) に対して、 色処理後の画像信号値 ( R 1, G 1 , B 1 ) を与える 3次元ルックアップテ一ブ ルである。 ここで、 色処理前の画像信号値 (RO, GO, BO) の全てに対して 、 それぞれ 8ビットで表現される色処理後の画像信号値 (R 1, (31, B 1 ) を 与える場合、 { (2 Λ 8) Λ 3} *3 = 48Μバイトと基本プロファイル群記憶 部 1 2の記憶容量を多く必要とする。 そこで、 それぞれ 8ビットで表現される色 処理前の画像信号値 (RO, GO, BO) の上位数ビットに対してのみ、 それぞ れ 8ビットで表現される色処理後の画像信号値 (R1, G 1 , B 1 ) を与えてい る。 より具体的には、 例えば、 色処理前の画像信号値 (RO, GO, BO) の上 位 5ビットに対してのみ、 色処理後の画像信号値 (R 1, G 1 , B 1 ) を与える 場合、 1つの基本色変換プロファイルに必要な記憶容量は、 { (2 5) Λ 3} * 3 = 983 Ο 4バイ卜と削減される。
以下、 基本色変換プロファイルは、 色処理前の画像信号値 (RO, GO, BO ) の上位 5ビットに対してのみ、 色処理後の画像信号値 (R 1 , G 1 , B 1 ) を 与えるとする。
(色処理部 1 3)
色処理部 1 3は、 プロファイル作成実行部 20において、 プロファイル生成部 30をさらに備えている。 プロファイル生成部 30は、 選択プロファイルデータ d 5 (図 1参照) を入力とし生成プロファイルデータ d 6を出力とする。 〈作用〉
図 2を用いて、 各部の作用について説明する。
(基本プロファイル群記憶部 1 2 )
基本プロファイル群記憶部 1 2には、 制御部 1 4からのカウン卜信号 c l 0が 入力される。 カウント信号 c 1 0は、 基本プロファイル群記憶部 1 2のアドレス を一定のカウン卜周期で指定し、 指定したァドレスに格納されている画像信号値 を読み出させる。 具体的には、 処理 Xを実現する色変換プロファイルを生成する 場合には、 基本色変換プロファイル 2 2 aおよび 2 2 bのァドレスが指定され、 処理 Yを実現する色変換プロファイルを生成する場合には、 基本色変換プロファ ィル 2 3 aおよび 2 3 bのアドレスが指定される。 アドレスの指定は、 2つの基 本色変換プロファイルにおいて、 同じ画像信号値 (R O, G O , B O ) に関連づ けられたデータが同時に読み出されるよう行われる。 このようにして読み出され たデータは、 第 1の選択プロファイルデータ d 1 0および第 2の選択プロフアイ ルデータ d l 1 として基本プロファイル群記憶部 1 2から出力される。 基本色変 換プロファイル 2 2 aおよび 2 2 bは、 色処理前の画像信号値 (R O, G O , B 0 ) の上位 5ビッ卜に対してのみ、 色処理後の画像信号値 (R 1, G 1, B 1 ) を与えるため、 それぞれ (2 Λ 5 ) Λ 3個のァドレスが指定され、 データが読み 出される。
以下、 処理 Xを実現する色変換プロファイルを生成する場合について説明する 。 なお、 処理 Υを実現する色変換プロファイルを生成する場合も各部の動作は同 様である。
(色処理部 1 3 )
《プロファイル生成部 3 0》
プロファイル生成部 3 0は、 基本プロファイル群記憶部 1 2から第 1の選択プ 口ファイルデータ d 1 0および第 2の選択プロファイルデータ d 1 1を取得する 。 さらに、 制御部 1 4から基本色変換プロファイル 2 2 aおよび 2 2 bの合成度 を指定する制御信号 G 1 2が与えられる。
プロファイル生成部 3 0は、 第 1の選択プロファイルデータ d 1 0の値 [m] および第 2の選択プロファイルデータ d 1 1の値 [ n ] に対して、 制御信号 c l 2が指定する合成度の値 [k] を用いて、 値 [ I ] の生成プロファイルデータ d 6を作成する。 ここで、 値 [门 は、 [门 = (1一 k) * [m] +k * [n] により計算される。 なお、 値 [k] が 0≤k≤1を満たす場合には、 第 1の選択 プロファイルデータ d 1 0と第 2の選択プロファイルデータ d 1 1とは内分され 、 値 [k] が k<0または k>1を満たす場合には、 第 1の選択プロファイルデ —タ d 1 0と第 2の選択プロファイルデータ d 1 1 とは外分されることとなる。
《プロファイル RAM 21》
プロファイル RAM 21は、 プロファイル生成部 30が作成する生成プロファ ィルデータ d 6を取得し、 制御部 1 4のカウント信号 c 1 1により指定されるァ ドレスに格納する。 ここで、 生成プロファイルデータ d 6は、 生成プロファイル データ d 6を作成するのに用いられた第 1の選択プロファイルデータ d 1 0また は第 2の選択プロファイルデータ d 1 1と同じ画像信号値 (RO, GO, BO) に関連づけられる。
以上により、 処理 X 1を実現する基本色変換プロファイルと処理 X 2を実現す る基本色変換プロファイルとに基づいて、 処理 X kを実現する新たな色変換プロ ファイルが作成される。
《色処理実行部 1 6》
色処理実行部 1 6は、 画像信号 d 2の画像信号値 (RO, GO, BO) に応じ て、 カウント信号 G 4で対応するアドレスを指定することで、 プロファイル RA M21に格納される色変換プロファイルのデータである処理用プロファイルデー タ d 7を取得し、 画像信号 d 2の色処理を実行する。 具体的には、 それぞれが 8 ビットで表される画像信号 d 2の画像信号値 (RO, GO, BO) に対して、 画 像信号値 (RO, GO, BO) の上位 5ビットの値に対応する処理用プロフアイ ルデータ d 7を読み出す。 さらに、 読み出した処理用プロファイルデータ d 7を 画像信号値 (RO, GO, BO) の下位 3ビットの値を用いて3次元補間するこ とにより出力信号 d 3が得られる。
〈方法〉
図 3を用いて、 画像処理装置 1 0において実行される色変換プロファイル作成 方法について説明する。 制御部 1 4からのカウント信号 c 1 0により、 基本プロファイル群記憶部 1 2 のアドレスが一定のカウント周期で指定され、 基本プロファイル群記憶部 1 2に おいて、 指定されたアドレスに格納されている画像信号値が読み出される (ステ ップ S 1 01 ) 。 具体的には、 処理 Xを実現する色変換プロファイルを生成する 場合には、 基本色変換プロファイル 22 aおよび 22 bのアドレスが指定され、 処理 Yを実現する色変換プロファイルを生成する場合には、 基本色変換プロファ ィル 23 aおよび 23 bのァドレスが指定される。 指定された 2つの基本色変換 プロファイルは、 それぞれ第 1の選択プロファイルデータ d 1 0、 第 2の選択プ 口ファイルデータ d 1 1としてプロファイル生成部 30に読み出される。
プロファイル生成部 30は、 制御部 1 4から合成度を指定する制御信号 c 1 2 を取得する (ステップ S 1 02)。
プロファイル生成部 30は、 第 1の選択プロファイルデータ d 1 0の値 [m] および第 2の選択プロファイルデータ d 1 1の値 [n] に対して、 制御信号 c l 2が指定する合成度の値 [k] を用いて、 値 [ I ] の生成プロファイルデータ d 6を作成する (ステップ S 1 03) 。 ここで、 値 [ I ] は、 [门 = (1— k) * [m] +k * [n] により計算される。
プロファイル RAM21に対して生成プロファイルデータ d 6が書き込まれる (ステップ S 1 04) 。 ここで、 書き込み先のアドレスは、 プロファイル RAM 21に与えられる制御部 1 4のカウント信号 G 1 1により指定される。
制御部 1 4は、 基本色変換プロファイル 22 aおよび 22 bの全てのデータに ついての処理が終了したか否かを判断し (ステップ 1 05) 、 終了するまでステ ップ S 1 01からステップ S 1 05の処理を繰り返す。
また、 このようにしてプロファイル RAM 21に新たな色変換プロファイル格 納した後で、 色処理実行部 1 6は生成プロファイルデータ d 6に基づいて、 画像 信号 d 2の色処理を実行する。
〈効果〉
(1 )
画像処理装置 1 0においては、 基本プロファイル群記憶部 1 2において、 少数 の基本色変換プロファイル 22 a, 22 b, 23 a, 23 bを備えるだけで、 任 意の処理度合いの色処理を実現することが可能となる。 具体的には、 処理 Xにつ いて任意の処理度合いの色処理を実現するためには、 処理 X Iを実現する基本色 変換プロファイル 2 2 aと、 処理 X 2を実現する基本色変換プロファイル 2 2 b とを備えればよい。 このため、 少数の基本色変換プロファイル以外には、 あらか じめ処理度合いを異ならせた色変換プロファイルを用意しておく必要がなく、 基 本プロファイル群記憶部 1 2の記憶容量を削減することが可能となる。
( 2 )
プロファイル作成実行部 2 0は、 基本色変換プロファイル 2 2 aと 2 2 b、 あ るいは基本色変換プロファイル 2 3 aと 2 3 bの合成度合いを用いて、 それぞれ の基本色変換プロファイルにおける対応する要素どうしを内分あるいは外分し、 新たな色変換プロファイルの各要素の値を決定する。 このため、 基本色変換プロ フアイルの合成度合いを任意に変更することにより、 任意の処理度合いを実現す る新たな色変換プロファイルを作成することが可能となる。
( 3 )
画像処理装置 1 0においては、 基本色変換プロファイルが複数の色処理を組み 合わせて実現する場合、 複数の色処理を順次実行するのに比して要する時間を短 縮することが可能となる。 また、 複数の色処理のうちの少なくとも一部の色処理 については、 意の処理度合いで実行することが可能となる。
〈変形例〉
( 1 )
上記実施形態では、 プロファイル群 2 2 , 2 3は、 それぞれ 2種類の基本色変 換プロファイルを備えると説明した。 ここで、 プロファイル群 2 2, 2 3が備え る基本色変換プロファイルの個数は、 これに限定されない。 例えば、 プロフアイ ル群が実現する色処理に対して、 デフオル卜の色処理度合いを有する基本色変換 プロファイルと、 デフォルトの色処理度合いを高めた色処理を実現する基本色変 換プロファイルと、 デフオル卜の色処理度合いを低めた色処理を実現する基本色 変換プロファイルとの 3種類の基本色変換プロファイルを備えるものであっても よい。
この場合、 制御部 1 4からは、 デフォルトの色処理度合いを高めた色処理を実 現する基本色変換プロファイルと、 デフオル卜の色処理度合いを低めた色処理を 実現する基本色変換プロファイルとの合成度合いが提供される。 さらに、 合成度 合いに応じてカウント信号 c 1 0は、 デフオル卜の基本色変換プロファイルとと もに読み出す基本色変換プロファイルのアドレスを指定する。 すなわち、 デフォ ル卜の色処理度合いを有する基本色変換プロファイルは、 プロファイル生成部 3 0に常に読み出されることとなる。
なお、 3種類の基本色変換プロファイルを備える場合には、 カウント信号 c 1 0は、 3種類の基本色変換プロファイルの全てを読み出すようにァドレスを指定 するとしてもよい。 この場合、 制御部 1 4は、 デフォルトの色処理度合いを高め た色処理を実現する基本色変換プロファイルとデフオル卜の色処理度合いを有す る基本色変換プロファイルとデフオル卜の色処理度合いを低めた色処理を実現す る基本色変換プロファイルとの合成度合いを [k 1 ] 対 [k 2] 対 [1 — k 1 — k 2] として指定するものであってもよい。
この場合、 デフオル卜の色処理度合いを高めた色処理を実現する基本色変換プ 口ファイルを読み出した値を [o] 、 デフォルトの色処理度合いを有する基本色 変換プロファイルを読み出した値を [p] 、 デフォルトの色処理度合いを低めた 色処理を実現する基本色変換プロファイルを読み出した値を [q] とすると、 生 成プロファイルデータ d 6の値 [ I ] は、 [门 = [k 1 ] * [o] + [k 2] * [p] + [1 -k 1 -k 2] * [q] として計算される。
以上の場合、 画像処理装置 1 0は、 デフォルトの処理度合いを実現する基本色 変換プロフアイルを用いて色処理を行うことが可能となるとともに、 必要に応じ てデフオル卜の処理度合いを実現する基本色変換プロファイルをカスタマイズし て色処理を行うことも可能となる。
(2)
画像処理装置 1 0は、 視覚処理部 1 1を備えていると説明した。 ここで、 画像 処理装置 1 0は、 視覚処理部 1 1を備えないものであってもよい。 この場合、 入 力信号 d 1が直接色処理部 1 3に入力されることとなる。
(3)
色処理実行部 1 6における処理は、 上記実施形態で説明したものに限られない 。 例えば、 画像信号 d 2の画像信号値 (RO, GO, BO) に対して処理用プロ ファイルデータ d 7を体積補間する方法により出力信号 d 3を得るものであって もよい。
(4)
上記実施形態では、 画像信号 d 2の画像信号値 (RO, GO, BO) に応じて 、 カウント信号 c 4で対応するアドレスを指定すると説明した。 ここで、 カウン 卜信号 G 4は、 色処理実行部 1 6から与えられるもので無くてもよい。 例えば、 制御部 1 4が画像信号 d 2の画像信号値 (RO, GO, BO) に応じて、 プロフ アイル RAM21のァドレスを指定するものであってもよい。
[第 2実施形態]
第 2実施形態に係る画像処理装置 26について説明する。 画像処理装置 26は 、 画像信号の視覚処理とともに、 画像信号の色処理を行う装置である。 画像処理 装置 26は、 例えば、 コンピュータ、 デジタルカメラ、 携帯電話、 PDA、 プリ ンタ、 スキャナ、 デジタルテレビなどの画像を取り扱う機器において備えられる o
図 4は、 画像処理装置 26における特徴部分を説明するブロック図である。 画 像処理装置 26は、 色処理部 31における色処理が複数の色処理を重畳的に実行 するものであり、 かつそれぞれの色処理についての処理度合いを調整可能な点に おいて特徴を有している。
以下、 画像処理装置 26における特徴部分である色処理部 31および基本プロ ファイル群記憶部 1 2が備える基本色変換プロファイルについて説明する。 なお 、 第 1実施形態で説明したのと同様の機能を果たす部分については、 第 1実施形 態と同じ符号を付して説明を省略する。
〈構成〉
(基本プロファイル群記憶部 1 2)
基本プロファイル群記憶部 1 2は、 複数の基本色変換プロファイルを記憶して いる。 図 4に示す基本プロファイル群記憶部 1 2は、 基本色変換プロファイル 4 0〜43を記憶している。 基本色変換プロファイルは、 処理 Xと処理 Yとを同時 に実現するための色変換プロファイルである。 詳しくは、 基本色変換プロフアイ ルは、 処理 Xについて処理度合いの異なる処理 X 1および処理 X 2と、 処理 Yに ついて処理度合いの異なる処理 Y 1および処理 Y 2とをそれぞれ組み合わせた処 理を実現する 4種類の色変換プロファイルである。
ここで、 処理 Xあるいは処理 Yとは、 例えば、 表示色変換処理、 色域変換処理 、 記憶色補正処理のいずれかの色処理である。
(色処理部 3 1 )
色処理部 3 1は、 図 2を用いて説明した色処理部 1 3と、 プロファイル作成部 3 5の構造において相違している。 より詳しくは、 プロファイル作成部 3 5が備 えるプロファイル作成実行部 3 6が 3つのプロファイル生成部 3 7 ~ 3 9を有す る点において、 図 2を用いて説明したプロファイル作成部 1 5と相違している。 第 1のプロファイル生成部 3 7は、 第 1の選択プロファイルデータ d 1 6と第 2の選択プロファイルデータ d 1 7とを入力とし第 1の生成プロファイルデータ d 2 0を出力とする。 第 1の選択プロファイルデータ d 1 6とは、 処理 X 1 と処 理 Y 1 とを実現する基本色変換プロファイル 4 0のデータである。 第 2の選択プ 口ファイルデータ d 1 7とは、 処理 X 2と処理 Y 1 とを実現する基本色変換プロ ファイル 4 1のデータである。
第 2のプロファイル生成部 3 8は、 第 3の選択プロファイルデータ d 1 8と第 4の選択プロファイルデータ d 1 9とを入力とし第 2の生成プロファイルデータ d 2 1を出力とする。 第 3の選択プロファイルデータ d 1 8とは、 処理 X 2と処 理 Y 2とを実現する基本色変換プロファイル 4 2のデータである。 第 4の選択プ 口ファイルデータ d 1 9とは、 処理 X 2と処理 Y 2とを実現する基本色変換プロ ファイル 4 3のデータである。
第 3のプロファイル生成部 3 9は、 第 1の生成プロファイルデータ d 2 0と第 2の生成プロファイルデータ d .2 1 とを入力とし第 3の生成プロファイルデータ d 2 2を出力とする。
〈作用〉
(基本プロファイル群記憶部 1 2 )
基本プロファイル群記憶部 1 2には、 制御部 1 4からのカウント信号 c 1 5が 入力される。 カウント信号 c 1 5は、 基本プロファイル群記憶部 1 2のアドレス を一定のカウント周期で指定し、 指定したァドレスに格納されている画像信号値 を読み出させる。 具体的には、 基本色変換プロファイル 4 0〜4 3において、 同 じ画像信号値 (R O, G O , B O ) に関連づけられたデータが同時に読み出され る。
(色処理部 3 1 )
《プロファイル作成実行部 3 6》
第 1のプロファイル生成部 3 7は、 第 1の選択プロファイルデータ d "I 6と第 2の選択プロファイルデータ d 1 7とに対して、 制御信号 c l 7が指定する合成 度合いを用いて、 第 1の生成プロファイルデータ d 2 0を生成する。 詳しくは、 第 1実施形態でプロファイル生成部 3 0について説明したのと同様である。 これにより、 処理 X i と処理 Y 1 とを実現する色変換プロファイルが作成され たこととなる。 ここで、 [ ί ] は、 制御信号 c 1 7が指定する合成度の値である 第 2のプロファイル生成部 3 8は、 第 3の選択プロファイルデータ d 1 8と第 4の選択プロファイルデータ d 1 9とに対して、 制御信号 c 1 7が指定する合成 度合いを用いて、 第 2の生成プロファイルデータ d 2 1を生成する。
これにより、 処理 X i と処理 Y 2とを実現する色変換プロファイルが作成され たこととなる。 ここで、 [ i ] は、 制御信号 c 1 7が指定する合成度の値であり 、 第 1のプロファイル生成部 3 7に与えられるのと同じ値である。
第 3のプロファイル生成部 3 9は、 第 1の生成プロファイルデータ d 2 0と第 2の生成プロファイルデータ d 2 1 とに対して、 制御信号 c 1 8が指定する合成 度合いを用いて、 第 3の生成プロファイルデータ d 2 2を作成する。 詳しくは、 第 1実施形態でプロファイル生成部 3 0について説明したのと同様である。 これにより、 処理 X i と処理 Y jとを実現する色変換プロファイルが作成され たこととなる。 ここで、 [ j ] は、 制御信号 c l 8が指定する合成度の値である
《プロファイル R A M 2 1》
プロファイル R A M 2 1は、 第 3のプロファイル生成部 3 9が作成する第 3の 生成プロファイルデータ d 2 2を取得し、 制御部 1 4のカウン卜信号 c 1 6によ リ指定されるアドレスに格納する。 ここで、 第 3の生成プロファイルデータ d 2 2は、 第 3の生成プロファイルデータ d 2 2を作成するのに用いられた第 1の選 択プロファイルデータ d 1 6〜第 4の選択プロファイルデータ d 1 9と同じ画像 信号値 (R O, G O , B O ) に関連づけられる。
以上により、 処理 Xと処理 Yとについて任意の処理度合いを実現する新たな色 変換プロファイルが作成される。
〈効果〉
第 2実施形態では、 第 1実施形態で説明した効果に加え、 以下の効果がさらに 得られる。
( 1 )
画像処理装置 2 6においては、 色処理 Xと色処理 Yとを重畳的に実行し、 かつ それぞれの色処理についての処理度合いを任意に調整することが可能となる。 こ れによリ、 高精度な色処理を少ない基本色変換プロフアイルを用いて実現するこ とが可能となる。
〈変形例〉
( 1 )
基本プロファイル群記憶部 1 2は、 4種類の基本色変換プロファイルのみを備 えるもので無くてもよい。 すなわち、 基本プロファイル群記憶部 1 2は、 さらに 複数の基本色変換プロファイルを備えていてもよい。
( 2 )
上記実施形態では、 色処理 Xと色処理 Yとを重畳的に実行する場合について説 明した。 ここで、 本発明の効果は、 色処理 Xと色処理 Yとを重畳的に実行する場 合に限られるものではない。 すなわち、 さらに多くの色処理を重畳的に実行する ような基本色変換プロファイルを備え、 プロファイル作成実行部 3 6がさらに多 くのプロファイル生成部を備え、 かつ制御部 1 4がそれぞれのプロファイル生成 部に対してそれぞれの色処理の合成度合いを指定することにより、 さらに多くの 色処理について任意の処理度合い実現する新たな色変換プロファイルを作成する ことが可能となる。
[第 3実施形態] 第 3実施形態に係る画像処理装置 4 5について説明する。 画像処理装置 4 5は 、 画像信号の視覚処理とともに、 画像信号の色処理を行う装置である。 画像処理 装置 4 5は、 例えば、 コンピュータ、 デジタルカメラ、 携帯電話、 P D A、 プリ ンタ、 スキャナ、 デジタルテレビなどの画像を取り扱う機器において備えられる 0
図 5は、 画像処理装置 4 5における特徴部分を説明するブロック図である。 画 像処理装置 4 5は、 第 2実施形態に係る画像処理装置 2 6と同様に、 色処理部 4 6における色処理が複数の色処理を重畳的に実行するものであり、 かつそれぞれ の色処理についての処理度合いを調整可能な点において特徴を有している。 さらに、 画像処理装置 4 5は、 基本色変換プロファイルから作成された複数の 色変換プロファイルを合成することにより新たな色変換プロファイルを作成する 点において特徴を有している。
以下、 画像処理装置 4 5における特徴部分である色処理部 4 6および基本プロ ファイル群記憶部 1 2が備える基本色変換プロファイルについて説明する。 なお 、 第 1実施形態で説明したのと同様の機能を果たす部分については、 第 1実施形 態と同じ符号を付して説明を省略する。
〈構成〉
(基本プロファイル群記憶部 1 2 )
基本プロファイル群記憶部 1 2は、 図 2の基本プロファイル群記憶部 1 2と同 様に、 それぞれ 2つの基本色変換プロファイルからなる 2つのプロファイル群 2 2, 2 3を記憶している。 プロファイル群 2 2は、 処理 Xについて処理度合いの 異なる処理 X 1と処理 X 2とを実行するための 2つの基本色変換プロファイル 2 2 a , 2 2 bを備えている。 プロファイル群 2 3は、 処理 Yについて処理度合い の異なる処理 Y 1と処理 Y 2とを実行するための 2つの基本色変換プロファイル 2 3 a , 2 3 bを備えている。
ここで、 処理 Xあるいは処理 Yとは、 例えば、 表示色変換処理、 色域変換処理 、 記憶色補正処理のいずれかの色処理、 あるいは表示色変換処理、 色域変換処理 、 記憶色補正処理を組み合わせた色処理などである。 また、 プロファイル群およ び基本色変換プロフアイルについては、 第 1実施形態で説明したのと同様である (色処理部 4 6 )
色処理部 4 6は、 図 2を用いて説明した色処理部 1 3と、 プロファイル作成部 5 0の構造において相違している。 より詳しくは、 プロファイル作成部 5 0が備 えるプロファイル作成実行部 5 1の構造において相違している。
プロファイル作成実行部 5 1は、 第 1のプロファイル生成部 5 2と、 変換部 5 3と、 第 2のプロファイル生成部 5 4と、 プロファイル R A M 5 5と、 プロファ ィル合成部 5 6とを有している。
第 1のプロファイル生成部 5 2は、 第 1の選択プロファイルデータ d 3 2と第 2の選択プロファイルデータ d 3 3とを入力とし第 1の生成プロファイルデータ d 3 4を出力とする。 第 1の選択プロファイルデータ d 3 2とは、 処理 X Iを実 現する基本色変換プロファイル 2 2 aのデータである。 第 2の選択プロファイル データ d 3 3とは、 処理 X 2を実現する基本色変換プロファイル 2 2 bのデータ である。
変換部 5 3は、 第 1の生成プロファイルデータ d 3 4を入力とし、 第 1の生成 プロファイルデータ d 3 4に対してガンマ補正などの変換処理を行った変換プロ ファイルデータ d 3 5を出力とする。
第 2のプロファイル生成部 5 4は、 第 3の選択プロファイルデータ d 3 6と第 4の選択プロファイルデータ d 3 7とを入力とし第 2の生成プロファイルデータ d 3 8を出力とする。 第 3の選択プロファイルデータ d 3 6とは、 処理 Y 1を実 現する基本色変換プロファイル 2 3 aのデータである。 第 4の選択プロファイル データ d 3 7とは、 処理 Y 2を実現する基本色変換プロファイル 2 3 bのデータ である。
プロファイル R A M 5 5は、 第 2の生成プロファイルデータ d 3 8を入力とし 合成用プロファイルデータ d 3 9を出力とする。
プロファイル合成部 5 6は、 変換プロファイルデータ d 3 5と合成用プロファ ィルデータ d 3 9を入力とし第 3の生成プロファイルデータ d 4 0を出力とする
〈作用〉 (基本プロファイル群記憶部 1 2 )
基本プロファイル群記憶部 1 2には、 制御部 1 4からのカウント信号 c 3 1お よび c 3 2が入力される。 カウント信号 c 3 1および c 3 2は、 基本プロフアイ ル群記憶部 1 2のアドレスを一定のカウント周期で指定し、 指定したアドレスに 格納されている画像信号値を読み出させる。 具体的には、 カウント信号 c 3 1に より、 基本色変換プロファイル 2 2 aと 2 2 bとにおいて、 同じ画像信号値 (R 0, G O , B O ) に関連づけられたデータが同時に読み出される。 また、 カウン 卜信号 c 3 2により、 基本色変換プロファイル 2 3 aと 2 3 bとにおいて、 同じ 画像信号値 (R O, G O , B O ) に関連づけられたデータが同時に読み出される 。
(色処理部 4 6 )
《プロファイル作成実行部 5 1》
第 1のプロファイル生成部 5 2は、 第 1の選択プロファイルデータ d 3 2と第 2の選択プロファイルデータ d 3 3とに対して、 制御信号 c 3 5が指定する合成 度合いを用いて、 第 1の生成プロファイルデータ d 3 4を生成する。 詳しくは、 第 1実施形態でプロファイル生成部 3 0について説明したのと同様である。 これにより、 処理 X i を実現する色変換プロファイルが作成されたこととなる 。 ここで、 [ i ] は、 制御信号 c 3 5が指定する合成度の値である。
変換部 5 3は、 第 1の生成プロファイルデータ d 3 4に対してガンマ補正など の変換処理を行い変換プロファイルデータ d 3 5を出力する。
第 2のプロファイル生成部 5 4は、 第 1のプロファイル生成部 5 2と同様、 第 3の選択プロファイルデータ d 3 6と第 4の選択プロファイルデータ d 3 7とに 対して、 制御信号 c 3 6が指定する合成度合いを用いて、 第 2の生成プロフアイ ルデータ d 3 8を生成する。
これにより、 処理 Y jを実現する色変換プロファイルが作成されたこととなる 。 ここで、 [ j ] は、 制御信号 c 3 6が指定する合成度の値である。
プロファイル R A M 5 5は、 第 2のプロファイル生成部 5 4が作成する第 2の 生成プロファイルデータ d 3 8を取得し、 制御部 1 4のカウント信号 c 3 3によ リ指定されるアドレスに格納する。 ここで、 第 2の生成プロファイルデータ d 3 8は、 第 2の生成プロファイルデータ d 38を作成するのに用いられた第 3の選 択プロファイルデータ d 36および第 4の選択プロファイルデータ d 37と同じ 画像信号値 (RO, GO, BO) に関連づけられる。
これによリ、 処理 Y jを実現する色変換プロファイルがプロファイル RAM5 5に格納される。 '
プロファイル合成部 56は、 変換プロファイルデータ d 35の値に基づいて、 第 3の生成プロファイルデータ d 40を算出する。 具体的には、 変換プロフアイ ルデータ d 35の値に関連づけられたプロファイル RAM 55に格納される色変 換プロファイルの値を第 3の生成プロファイルデータ d 40として出力する。 す なわち、 プロファイル合成部 56は、 色処理実行部 1 6と同様の動作を変換プロ ファイルデータ d 35の値に対して実行する。 より詳しく説明すると、 プロファ ィル合成部 56は、 変換プロファイルデータ d 35の値に応じて、 カウント信号 c 40を用いてプロファイル RAM55のアドレスを指定する。 さらに、 指定さ れたァドレスに格納されるデータが、 合成用プロファイルデータ d 39として出 力される。 出力された合成用プロファイルデータ d 39は、 変換プロファイルデ ータ d 35の値に応じて補間され、 生成プロファイルデータ d 40が出力される 以上により、 処理 Xと処理 Yとについて任意の処理度合いを実現する新たな色 変換プロファイルが作成される。
《プロファイル R AM21》
プロファイル RAM 21は、 第 3の生成プロファイルデータ d 40を取得し、 制御部 1 4のカウント信号 c 34により指定されるァドレスに格納する。 ここで 、 第 3の生成プロファイルデータ d 40は、 第 3の生成プロファイルデータ d 4 0を作成するのに用いられた第 1の選択プロファイルデータ d 32および第 2の 選択プロファイルデータ d 33と同じ画像信号値 (RO, GO, BO) に関連づ けられる。
以上により、 処理 Xと処理 Yとについて任意の処理度合いを実現する新たな色 変換プロファイルがプロファイル RAM21に格納される。
〈効果〉 第 3実施形態では、 第 1実施形態および第 2実施形態で説明した効果に加え、 以下の効果がさらに得られる。
(1 )
画像処理装置 45においては、 例えば、 プロファイル群 22あるいは 23が基 本色変換プロファイルをさらに備える場合であっても、 基本プロファイル群記憶 部 1 2において必要な記憶容量の増加分は、 増えた基本色変換プロファイルのデ ータ量と同じとなる。 すなわち、 プロファイル群 22および 23がそれぞれ 3つ の異なる処理度合いを有する基本色変換プロファイルを有する場合、 画像処理装 置 45では、 基本色変換プロファイル 6個分の記憶容量があれば十分である。 一方、 第 2実施形態で示した画像処理装置 26の場合では、 3*3 = 9個分の 基本色変換プロフアイルの記憶容量が必要となる。
この点において、 画像処理装置 45では、 記憶容量を削減する効果を発揮する といえる。
(2)
画像処理装置 45においては、 画像信号 d 2に対してリアルタイムに処理を行 う必要があるのは色処理実行部 1 6だけである。 このため、 例えば、 画像信号 d 2に対して複数回の色処理を順次実行する場合に比して、 リアルタイム性に優れ た色処理を実現することが可能となる。
〈変形例〉
(1 )
プロファイル RAM55とプロファイル RAM21 とは、 物理的に離れたもの である必要はない。 すなわち、 それぞれは、 同じ RAM上の異なる領域であって もよい。
(2)
変換部 53は、 必ずしも備えられなくてもよい。 また、 予め基本色変換プロフ ァィルに組み込まれた処理であってもよい。
(3)
上記実施形態では、 基本プロファイル群記憶部 1 2が 2つのプロファイル群 2 2, 23を備える場合について説明した。 ここで、 本発明は、 さらに多くのプロ ファイル群を有する場合にも、 拡張可能である。 例えば、 プロファイル群を 3つ 有する場合には、 第 3のプロファイル生成部をさらに備え、 プロファイル作成実 行部 5 1と同様の構造をさらに備えることにより常識的に拡張することが可能で る。
これにより、 さらに多くの色処理を組み合わせた色処理を実現することが可能 となる。
[第 4実施形態]
第 4実施形態に係る画像処理装置 6 0について説明する。 画像処理装置 6 0は 、 画像信号の視覚処理とともに、.画像信号の色処理を行う装置である。 画像処理 装置 6 0は、 例えば、 コンピュータ、 デジタルカメラ、 携帯電話、 P D A、 プリ ンタ、 スキャナ、 デジタルテレビなどの画像を取り扱う機器において備えられる 図 6は、 画像処理装置 6 0における特徴部分を説明するブロック図である。 画 像処理装置 6 0は、 第 2実施形態に係る画像処理装置 2 6と同様に、 色処理部 6 1における色処理が複数の色処理を重畳的に実行するものであり、 かつそれぞれ の色処理についての処理度合いを調整可能な点において特徴を有している。 さらに画像処理装置 6 0は、 図 2に示す色処理部 1 3を 2系統備え、 複数の色 処理を直列的に実行する点に置いて特徴を有している。
以下、 画像処理装置 6 0における特徴部分である色処理部 6 1および基本プロ ファイル群記憶部 1 2が備える基本色変換プロファイルについて説明する。 なお 、 第 1実施形態で説明したのと同様の機能を果たす部分については、 第 1実施形 態と同じ符号を付して説明を省略する。
〈構成〉
(基本プロファイル群記憶部 1 2 )
基本プロファイル群記憶部 1 2は、 図 2の基本プロファイル群記憶部 1 2と同 様に、 それぞれ 2つの基本色変換プロフアイルからなる 2つのプロファイル群 2 2, 2 3を記憶している。 プロファイル群 2 2は、 処理 Xについて処理度合いの 異なる処理 X 1と処理 X 2とを実現するための 2つの基本色変換プロファイル 2 2 a , 2 2 bを備えている。 プロファイル群 2 3は、 処理 Yについて処理度合い の異なる処理 Y 1と処理 Υ 2とを実現するための 2つの基本色変換プロファイル 23 a, 23 bを備えている。
ここで、 処理 Xあるいは処理 Yとは、 表示色変換処理、 色域変換処理、 記憶色 補正処理のいずれかの色処理、 あるいは表示色変換処理、 色域変換処理、 記憶色 補正処理を組み合わせた色処理などである。 また、 プロファイル群および基本色 変換プロファイルについては、 第 1実施形態で説明したのと同様である。
(色処理部 61 )
色処理部 61は、 図 2を用いて説明した色処理部 1 3を 2系統備える。 ょリ詳 しくは、 色処理部 61は、 色処理実行部 64と、 プロファイル作成部 65とを有 している。 色処理実行部 64は、 第 1の色処理実行部 66と第 2の色処理実行部 67とを有している。 プロファイル作成部 65は、 プロファイル RAM68とプ 口ファイル作成実行部 69とを有している。 プロファイル R AM68は、 第 1の プロファイル RAM70と第 2のプロファイル RAM71 とを有している。 プロ ファイル作成実行部 69は、 第 1のプロファイル生成部 72と第 2のプロフアイ ル生成部 73とを有している。
第 1のプロファイル生成部 72は、 第 1の選択プロファイルデータ d 53と第 2の選択プロファイルデータ d 54とを入力とし第 1の生成プロファイルデータ d 55を出力とする。 第 1の選択プロファイルデータ d 53とは、 処理 X 1を実 現する基本色変換プロファイル 22 aのデータである。 第 2の選択プロファイル データ d 54とは、 処理 X 2を実現する基本色変換プロファイル 22 bのデータ ι める。
第 1のプロファイル RAM70は、 第 1の生成プロファイルデータ d 55を入 力とし第 1の処理用プロファイルデータ d 56を出力とする。
第 1の色処理実行部 66は、 画像信号 d 2と第 1の処理用プロファイルデータ d 56とを入力とし色処理した画像処理信号 d 51を出力とする。
第 2のプロファイル生成部 73は、 第 3の選択プロファイルデータ d 57と第 4の選択プロファイルデータ d 58とを入力とし第 2の生成プロファイルデータ d 59を出力とする。 第 3の選択プロファイルデータ d 57とは、 処理 Y 1を実 現する基本色変換プロファイル 23 aのデータである。 第 4の選択プロファイル データ d 58とは、 処理 Y 2を実現する基本色変換プロファイル 23 bのデータ v め 。
第 2のプロファイル RAM7 1は、 第 2の生成プロファイルデータ d 59を入 力とし第 2の処理用プロファイルデータ d 60を出力とする。
第 2の色処理実行部 6 7は、 画像処理信号 d 5 1 と第 2の処理用プロファイル データ d 60とを入力とし色処理した出力信号 d 3を出力とする。
〈作用〉
(基本プロファイル群記憶部 1 2)
基本プロファイル群記憶部 1 2には、 制御部 1 4からのカウント信号 c 5 1お よび c 52が入力される。 カウント信号 G 5 1および c 52は、 基本プロフアイ ル群記憶部 1 2のアドレスを一定のカウント周期で指定し、 指定したアドレスに 格納されている画像信号値を読み出させる。 具体的には、 カウント信号 c 5 1に より、 基本色変換プロファイル 22 aと 22 bとにおいて、 同じ画像信号値 (R 0, GO, BO) に関連づけられたデータが同時に読み出される。 また、 カウン 卜信号 c 52により、 基本色変換プロファイル 23 aと 23 bとにおいて、 同じ 画像信号値 (RO, GO, BO) に関連づけられたデータが同時に読み出される
(色処理部 6 1 )
《第 1のプロファイル生成部 72》
第 1のプロファイル生成部 72は、 第 1の選択プロファイルデータ d 53と第 2の選択プロファイルデータ d 54とに対して、 制御信号 c 55が指定する合成 度合いを用いて、 第 1の生成プロファイルデータ d 55を生成する。 詳しくは、 第 1実施形態でプロファイル生成部 30について説明したのと同様である。 これにより、 処理 X i を実現する色変換プロファイルが作成されたこととなる 。 ここで、 [ ί ] は、 制御信号 c 55が指定する合成度の値である。
《第 1のプロファイル RAM 70》
第 1のプロファイル RAM 70は、 第 1の生成プロファイルデータ d 55を取 得し、 制御部 1 4のカウン卜信号 c 53により指定されるアドレスに格納する。 ここで、 第 1の生成プロファイルデータ d 55は、 第 1の生成プロファイルデー タ d 55を作成するのに用いられた第 1の選択プロファイルデータ d 53および 第 2の選択プロファイルデータ d 54と同じ画像信号値 (RO, GO, BO) に 関連づけられる。
以上により、 処理 Xについて任意の処理度合いを実現する新たな色変換プロフ アイルが格納される。
《第 1の色処理実行部 66》
第 1の色処理実行部 66は、 画像信号 d 2の画像信号値 ( R 0, GO, BO) に応じて、 カウント信号 c 57で対応するアドレスを指定することで、 第 1のプ 口ファイル RAM70に格納される色変換プロファイルのデータである第 1の処 理用プロファイルデータ d 56を取得し、 画像信号 d 2の色処理を実行する。 具 体的には、 それぞれが 8ビットで表される画像信号 d 2の画像信号値 (RO, G 0, BO) に対して、 画像信号値 (RO, GO, BO) の上位 5ビットの値に対 応ずる第 1の処理用プロファイルデータ d 56を読み出す。 さらに、 読み出した 第 1の処理用プロファイルデータ d 56を画像信号値 (RO, GO, BO) の下 位 3ビッ卜の値を用いて 3次元補間することにより画像処理信号 d 51が得られ る。
《第 2のプロファイル生成部 73、 第 2のプロファイル RAM71、 第 2の 色処理実行部 67》
上記第 1のプロファイル生成部 72、 第 1のプロファイル RAM70、 第 1の 色処理実行部 66について説明したのと同様にして処理 Y j ( [〗 ] は、 制御信 号 c 56が指定する合成度の値) を実現する色変換プロファイルが作成される。 さらに、 第 2の色処理実行部 67では、 画像処理信号 d 51の画像信号値 (R 0' , GO' , BO' ) に応じて、 カウント信号 c 58で対応するアドレスを指 定することで、 第 2のプロファイル RAM71に格納される色変換プロファイル のデータである第 2の処理用プロファイルデータ d 60を取得し、 画像処理信号 d 51の色処理を実行する。
〈効果〉
第 4実施形態では、 第 1実施形態および第 2実施形態で説明した効果に加え、 以下の効果がさらに得られる。 ( 1 )
画像処理装置 6 0においては、 例えば、 プロファイル群 2 2あるいは 2 3が基 本色変換プロファイルをさらに備える場合であっても、 基本プロファイル群記憶 部 1 2において必要な記憶容量の増加分は、 増えた基本色変換プロファイルのデ ータ量と同じとなる。 すなわち、 プロファイル群 2 2および 2 3がそれぞれ 3つ の異なる処理度合いを有する基本色変換プロファイルを有する場合、 画像処理装 置 6 0では、 基本色変換プロファイル 6個分の記憶容量があれば十分である。 一方、 第 2実施形態で示した画像処理装置 2 6の場合では、 3 * 3 = 9個分の 基本色変換プロフアイルの記憶容量が必要となる。
この点において、 画像処理装置 6 0では、 記憶容量を削減する効果を発揮する といえる。
〈変形例〉
( 1 )
画像処理装置 6 0は、 図 2を用いて説明した色処理部 1 3を 2系統直列的に配 した構造を有すると説明した。 このことは、 必ずしも 2倍のハードウェア構成が 必要とされるという意味ではない。 すなわち、 プロファイル作成実行部 6 9、 プ 口ファイル R A M 6 8、 色処理実行部 6 4は、 それぞれ同一のハードウ;!:ァで構 成されていてもよい。 この場合、 各部におけるデータは順次処理されることとな る。
これにより、 色処理のリアルタイム性は低減するが、 ハードウェアコストは削 減される。
( 2 )
上記実施形態では、 基本プロファイル群記憶部 1 2が 2つのプロファイル群 2 2, 2 3を備える場合について説明した。 ここで、 本発明は、 さらに多くのプロ ファイル群を有する場合にも、 拡張可能である。 例えば、 プロファイル群を 3つ 有する場合には、 図 2を用いて説明した色処理部 1 3を 3系統直列的に配した構 造を有することとなる。
これにより、 さらに多くの色処理を組み合わせた色処理を実現することが可能 となる。 [第 5実施形態]
第 5実施形態に係る画像処理装置 7 5について説明する。 画像処理装置 7 5は 、 画像信号の視覚処理とともに、 画像信号の色処理を行う装置である。 画像処理 装置 7 5は、 例えば、 コンピュータ、 デジタルカメラ、 携帯電話、 P D A、 プリ ンタ、 スキャナ、 デジタルテレビなどの画像を取り扱う機器において備えられる 図 7は、 画像処理装置 7 5における特徴部分を説明するブロック図である。 画 像処理装置 7 5は、 第 2実施形態に係る画像処理装置 2 6と同様に、 色処理部 7 6における色処理が複数の色処理を重畳的に実行するものであり、 かつそれぞれ の色処理についての処理度合いを調整可能な点において特徴を有している。 さらに、 画像処理装置 7 5は、 図 6に示した色処理実行部 6 4に比して、 色処 理実行部 7 8において色処理を並列に実行し、 実行結果の画像信号値を補間する 点において特徴を有している。
以下、 画像処理装置 7 5における特徴部分である色処理部 7 6および基本プロ ファイル群記憶部 1 2が備える基本色変換プロファイルについて説明する。 なお 、 第 1実施形態で説明したのと同様の機能を果たす部分については、 第 1実施形 態と同じ符号を付して説明を省略する。
〈構成〉
(基本プロファイル群記憶部 1 2 )
図 7に示す基本プロファイル群記憶部 1 2は、 基本色変換プロファイル 4 0〜 4 3を記憶している。 詳しくは、 図 4に示す基本プロファイル群記憶部 1 2と同 様であるため、 説明を省略する。
(色処理部 7 6 )
色処理部 7 6は、 図 6を用いて説明した色処理部 6 1と、 色処理実行部 7 8の 構造において相違している。 プロファイル R A M 8 5およびプロファイル作成実 行部 9 0は、 図 6を用いて説明したプロファイル R A M 6 8およびプロファイル 作成実行部 6 9と同様の構造を有しているため、 詳しい説明は省略する。
プロファイル R A M 8 5およびプロファイル作成実行部 9 0と、 図 6を用いて 説明したプロファイル R A M 6 8およびプロファイル作成実行部 6 9との相違点 は、 取り扱うデータである。
具体的には、 以下の点において相違する。 第 1には、 第 1〜第 4の選択プロフ アイルデ一タ d 6 8, d 6 9 , d 7 3 , d 7 4は、 それぞれ基本色変換プロファ ィル 4 0 ~ 4 3のデータである点において相違する。
第 2には、 第 1のプロファイル生成部 9 1および第 2のプロファイル生成部 9 2は、 処理 X i と処理 Y 1 とを実現する第 1の生成プロファイルデータ d 7 0お よび処理 X i と処理 Y 2とを実現する第 2の生成プロファイルデータ d 7 5とを 作成する点において相違する。 すなわち、 第 1のプロファイル生成部 9 1と第 2 のプロフアイル生成部 9 2とに対して、 制御信号 c 6 7により同じ合成度が指定 される。
第 3には、 第 1のプロファイル R A M 8 6および第 2のプロファイル R A M 8 7は、 第 1の生成プロファイルデータ d 7 0および第 2の生成プロファイルデー タ d 7 5を格納し、 それぞれ第 1の処理用プロファイルデータ d 7 1および第 2 の処理用プロファイルデータ d 7 6を出力する点において相違する。
《色処理実行部 7 8》
色処理実行部 7 8は、 第 1の色処理実行部 8 0と、 第 2の色処理実行部 8 1と 、 画素値補間部 8 2とを備えている。
第 1の色処理実行部 8 0は、 画像信号 d 2と第 1の処理用プロファイルデータ d 7 1とを入力とし色処理された第 1の画像処理信号 d 6 5を出力とする。 第 2 の色処理実行部 8 1は、 画像信号 d 2と第 2の処理用プロファイルデータ d 7 6 とを入力とし色処理された第 2の画像処理信号 d 6 6を出力とする。 画素値補間 部 8 2は、 第 1の画像処理信号 d 6 5と第 2の画像処理信号 d 6 6とを入力とし 出力信号 d 3を出力とする。
〈作用〉
以下、 画像処理装置 7 5における特徴部分である色処理実行部 7 8についての 動作を説明する。
(色処理実行部 7 8 )
第 1の色処理実行部 8 0は、 画像信号 d 2の画像信号値 (R O, G O , B O ) に応じて、 カウント信号 c 6 9で対応するアドレスを指定することで、 第 1のプ 口ファイル R A M 8 6に格納される色変換プロファイルのデータである第 1の処 理用プロファイルデータ d 7 1を取得し、 画像信号 d 2の色処理を実行する。 第 1の色処理実行部 8 0は、 図 2に示す色処理実行部 1 6と同様の動作を行うため、 詳細な説明は省略する。
これにより、 画像信号 d 2に対して、 処理 X iと処理 Y 1とが実行された第 1 の画像処理信号 d 6 5が出力される。
第 2の色処理実行部 8 1は、 画像信号 d 2の画像信号値 ( R 0, G O , B O ) に応じて、 カウント信号 c 7 0で対応するアドレスを指定することで、 第 2のプ 口ファイル R A M 8 7に格納される色変換プロファイルのデータである第 2の処 理用プロファイルデータ d 7 6を取得し、 画像信号 d 2の色処理を実行する。 第 2の色処理実行部 8 1は、 図 2に示す色処理実行部 1 6と同様の動作を行うため、 詳細な説明は省略する。
これにより、 画像信号 d 2に対して、 処理 X i と処理 Y 2とが実行された第 2 の画像処理信号 d 6 6が出力される。
画素値補間部 8 2は、 第 1の画像処理信号 d 6 5と第 2の画像処理信号 d 6 6 とを制御信号 c 6 8により指定される合成度合いにより補間する。
これにより、 入力信号 d 2に対して処理 X i と処理 Y jとが実行された出力信 号 d 3が出力される。 ここで、 [ j ] は、 制御信号 c 6 8により指定される合成 度の値である。
〈効果〉
第 5実施形態では、 第 1実施形態および第 2実施形態で説明した効果に加え、 以下の効果がさらに得られる。
( 1 )
画素値補間部 8 2では、 第 1の画像処理信号 d 6 5の画素値と第 2の画像処理 信号 d 6 6の画素値とを制御信号 c 6 8により指定される合成度合いにより補間 する。 このため、 3次元補間により画像信号に対して色処理を行うのに比して、 出力信号 d 3の計算が簡易となる。 すなわち、 制御信号 c 6 8を用いて処理 Yの 処理度合いをリアルタイムに変化させることが可能となる。
( 2 ) 本発明の効果は、 基本プロファイル群記憶部 1 2が備える基本色変換プロファ ィルの個数に限定されるものではない。 すなわち、 図 7に示す基本プロファイル 群記憶部 1 2よりも、 さらに多くの基本色変換プロファイルを備え、 さらに多く の色処理を重畳的に組み合わせた色処理を実現するように拡張することも可能で ある。
[第 6実施形態]
図 8〜図 20を用いて、 本発明の第 6実施形態としての表示装置 720につい て説明する。
図 8に示す表示装置 720は、 PD P、 LCD, CRT, プロジェクタなど、 画像を表示する表示装置である。 表示装置 720は、 上記実施形態で説明した画 像処理装置を含む表示用画像処理装置 723を有する点、 自動あるいは手動によ リ画像処理に用いるプロファイルを切り替えることできる点に特徴を有している 。 なお、 表示装置 720は、 独立した装置であってもよいが、 携帯電話機、 PD A、 P Cなどの携帯情報端末に備えられている装置であってもよい。
〈表示装置 720〉
表示装置 720は、 表示部 721、 駆動制御部 722、 表示用画像処理装置 7 23、 C PU724、 入力部 725、 チューナ 726、 アンテナ 727、 コ一デ ック 728、 メモリコントローラ 729、 メモリ 730、 外部インタフェース ( I /F) 731、 外部装置 740を備えている。
表示部 721は、 駆動制御部 722から読み出された画像情報 d 360を表示 する表示デバイスである。 駆動制御部 722は、 表示用画像処理装置 723から 出力された出力画像信号 d 361を C PU 724からの制御により表示部 721 に読み出すとともに、 表示部 721を駆動するための装置である。 より具体的に は、 駆動制御部 722は、 CPU 724からの制御により、 出力画像信号 d 36 1の値に応じた電圧値を表示部 721に与え画像を表示させる。
表示用画像処理装置 723は、 CPU 724からの制御を受け、 入力画像信号 d 362に含まれる入力信号 d 1 (図 9参照) の画像処理を行い、 出力信号 d 3 (図 9参照) を含む出力画像信号 d 361を出力する装置である。 表示用画像処 理装置 723は、 上記実施形態で説明した画像処理装置を含み、 プロファイルを 用いて画像処理を行う点に特徴を有している。 詳細については、 後述する。
C P U 724は、 表示装置 720の各部のデータ処理に関する演算を行うとと もに、 各部の制御を行うための装置である。 入力部 725は、 表示装置 720へ の操作をユーザに行わせるためのユーザインタフェースであり、 各部の制御をす るためのキー、 つまみ、 リモコンなどで構成される。
チューナ 726は、 無線あるいは有線を介して受信した信号を復調し、 デジタ ルデータとして出力する。 詳しくは、 チューナ 726は、 アンテナ 727あるい はケーブル (図示せず) を介して、 地上波 (デジタル アナログ) 放送、 BS ( デジタル/アナログ) ■ CS放送などを受信する。 コーデック 728は、 チュー ナ 726により復調されたデジタルデータの復号化を行い、 表示用画像処理装置 723に入力される入力画像信号 d 362を出力する。
メモリコントローラ 729は、 D RAMなどで構成される C P Uの作業用メモ リ 730のァドレスやアクセスタイミングなどの制御を行う。
外部 I ZF 731は、 メモリカード 733、 PC735などの外部装置 740 から画像データや、 プロファイル情報などを取得し、 入力画像信号 d 362とし て出力するためのインタフェースである。 プロファイル情報とは、 画像処理を行 うためのプロファイルに関する情報である。 詳しくは、 後述する。 外部 I /F 7 31は、 例えば、 メモリカード I /F 732、 PC I /F 734、 ネットワーク I /F736, 無線 I ZF 737などにより構成される。 なお、 外部 I / F 73 1は、 ここに例示したものの全てを備えている必要は無い。
メモリカード I /F 732は、 画像データやプロファイル情報などを記録した メモリカード 733と表示装置 720とを接続するためのインタフェースである 。 PC I /F734は、 画像データやプロファイル情報などを記録したパーソナ ルコンピュータなどの外部機器である PC 735と表示装置 720とを接続する ためのインタフェースである。 ネッ卜ワーク I ZF 736は、 表示装置 720を ネットワークに接続し、 画像データやプロファイル情報などを取得するためのィ ンタフエースである。 無線 I /F737は、 表示装置 720を無線 LANなどを 介して外部機器と接続し、 画像データやプロファイル情報などを取得するための インタフェースである。 なお、 外部 I ZF 731は、 図示したものに限られず、 例えば、 U S B、 光ファイバ一などと表示装置 7 2 0とを接続するためのインタ フェースであってもよい。
外部 I Z F 7 3 1を介して取得された画像データやプロファイル情報は、 必要 によリコーデック 7 2 8により復号化された後、 入力画像信号 d 3 6 2として表 示用画像処理装置 7 2 3に入力される。
〈表示用画像処理装置 7 2 3〉
( 1 ) 表示用画像処理装置 7 2 3の構成
図 9を用いて、 表示用画像処理装置 7 2 3の構成について説明する。 表示用画 像処理装置 7 2 3は、 図 1を用いて説明した画像処理装置 1 0とほぼ同様の構成 を有する画像処理装置 7 5 0と、 環境検出部 7 5 4とを備えている。
環境検出部 7 5 4は、 手動によりあるいはセンサなどを用いて自動により、 後 述する環境情報の検出を行い、 環境情報 d 1 0 4を出力する。 画像処理装置 7 5 0は、 環境検出部 7 5 4が検出した環境情報 d 1 0 4あるいは C P U 7 2 4から 取得される環境情報 d 1 0 5、 を取得する。 さらに、 取得された環境情報に基づ いて特定されるプロファイルを用いて、 画像処理を行う。 画像処理とは、 入力画 像信号 d 3 6 2 (図 8参照) に含まれる入力信号 d 1に対して行われる視覚処理 および色処理である。 画像処理の結果は、 画像処理された出力信号 d 3を含む出 力画像信号 d 3 6 1 (図 8参照) として出力される。
以下、 環境検出部 7 5 4、 画像処理装置 7 5 0の順にさらに詳しい構成につい て説明を行う。
( 2 ) 環境検出部 7 5 4
環境検出部 7 5 4は、 手動によりあるいはセンサなどを用いて自動により、 環 境情報の検出を行い、 環境情報 d 1 0 4の出力を行う装置である。
環境情報とは、 表示部 7 2 1 (図 8参照) の表示環境、 あるいは表示部 7 2 1 に表示される画像が視覚される視環境、 に関する情報である。 より具体的には、 環境情報とは、 例えば、 表示装置 7 2 0の設置場所における環境光の明るさや色 温度といった環境光情報、 表示部 7 2 1の製品情報 (例えば、 製品番号など) 、 表示部 7 2 1が表示する画像サイズ情報、 表示される画像と画像を視覚するユー ザとの距離に関する位置情報、 ユーザの年齢■性別などユーザに関するユーザ情 報などの情報である。
環境検出部 7 5 4は、 例えば、 環境光の明るさや色温度の検出を行う光センサ や、 表示部 7 2 1に取り付けられた製品情報を無線あるいは有線を介して読み取 る装置 (例えば、 無線タグの読み取り装置、 バーコードの読み取り装置、 表示装 置 7 2 0が備える各部の情報を管理するデータベースから情報を読み取る装置な ど) や、 ユーザとの距離を測定する無線あるいは赤外線などのセンサや、 ユーザ に関する情報を取得するカメラなど、 といった装置により実現され、 環境情報を 自動的に検出する。 あるいは、 環境検出部 7 5 4は、 ユーザによる入力により取 得された環境情報を検出する。 環境検出部 7 5 4は、 検出した環境情報を環境情 報 d 1 0 4として画像処理装置 7 5 0に出力する。
また、 環境検出部 7 5 4には、 〇 リ7 2 4から取得される環境情報 1 0 5 が入力される。 環境検出部 7 5 4では、 入力された環境情報 d l 0 5に応じてュ 一ザに入力させる環境情報の項目を制御する。 例えば、 環境情報 d 1 0 5が含む 項目の環境情報は改めて入力させない、 などといった制御が行われる。
( 3 ) 画像処理装置 7 5 0
《 3— 1》 画像処理装置 7 5 0の概要
画像処理装置 7 5 0は、 画像処理を行う際に用いられるプロファイルを、 環境 検出部 7 5 4が検出した環境情報 d 1 0 4あるいは C P Uから取得される環境情 報 d 1 0 5に基づいて特定する。 さらに、 特定されたプロファイルを用いて、 入 力画像信号 d 3 6 2 (図 8参照) に含まれる入力信号 d 1に対して視覚処理およ び色処理を含む画像処理を行い、 出力信号 d 3を含む出力画像信号 d 3 6 1 (図 8参照) を出力する。
画像処理装置 7 5 0は、 画像処理装置 1 0 (図 1参照) とほぼ同様の構成を有 しているが、 情報設定部 7 5 2を備えている点において相違している。 画像処理 装置 7 5 0のその他の部分であって、 画像処理装置 1 0の各部と同様の機能を果 たす部分については、 同じ符号を付し、 詳しい説明を省略する。
《3— 2》情報設定部 7 5 2とプロファイル情報
情報設定部 7 5 2は、 環境検出部 7 5 4が検出した環境情報 d "I 0 4あるいは C P Uから取得される環境情報 d 1 0 5、 を取得し、 取得した情報に基づいて、 視覚処理部 1 1と制御部 1 4と基本プロファイル群記憶部 1 2とに、 プロフアイ ル情報 cM 0 1, d 1 0 2 , cM 0 3をそれぞれ出力する。
情報設定部 7 5 2の詳しい動作を説明する前に、 まず、 プロファイル情報 d 1 0 1, d 1 0 2 , d 1 O 3の内容について説明する。
プロファイル情報とは、 視覚処理部 1 1と色処理部 1 3とにおける画像処理に 用いられるプロファイルを特定するための情報である。 具体的には、 プロフアイ ル情報は、 プロファイルが格納するデータ、 プロファイルを特定する番号などの タグ情報、 プロファイルの処理の特徴を示すパラメータ情報、 表示部 7 2 1 (図 8参照) の表示環境あるいは表示部 7 2 1に表示される画像が視覚される視環境 に関する環境情報のうちの少なくとも一つを含んでいる。
ここで、 プロファイルとは、 視覚処理部 1 1と色処理部 1 3とにおける画像処 理に用いられるデータであり、 より具体的には、 上記実施形態で説明したプロフ アイル R A Mに記憶される色変換プロファイルなどである。 なお、 本実施形態で は、 プロファイルとは、 上記実施形態で説明した、 テーブルデータとしての色変 換プロファイルだけでなく、 処理される入力信号 d 1に対する変換係数を格納す る係数マトリクスデータなどであってもよい。
タグ情報とは、 プロファイルを他のプロファイルと識別するための識別情報で あり、 例えば、 視覚処理部 1 1あるいは基本プロファイル群記憶部 1 2に登録さ れた複数のプロフアイルのそれぞれに割リ振られた番号などである。
パラメータ情報とは、 プロファイルの処理の特徴を示す情報であり、 例えば、 プロフアイルが実現するコントラスト強調処理、 ダイナミックレンジ圧縮処理、 色変換処理などの処理度合いを数値化した情報である。
環境情報とは、 環境検出部 7 5 4または G P U 7 2 4から取得される環境情報 d 1 0 4または d 1 0 5に含まれる情報である。
なお、 以下では、 プロファイル情報 d 1 0 1が視覚処理部 1 1で用いられるプ 口ファイルのタグ情報を含み、 プロファイル情報 d l 0 3が色処理部 1 3で用い られるプロファイルのタグ情報を含み、 プロファイル情報 d 1 0 2が視覚処理部 1 1と色処理部 1 3とで用いられるそれぞれのプロファイルのパラメータ情報を 含む、 として説明を行う。 情報設定部 7 5 2は、 環境情報 d 1 0 4または環境情報 d 1 0 5を取得し、 プ 口ファイル情報 d 1 0 1, d 1 0 2 , d 1 0 3を出力する。 具体的には、 情報設 定部 7 5 2は、 環境情報 d 1 0 4または環境情報 d 1 0 5から取得される環境情 報に応じて好適なプロファイルを選択し、 そのプロファイル情報を出力する。 よ リ具体的には、 情報設定部 7 5 2は、 プロファイルの候補と環境情報のそれぞれ の値とを関連づけるデータベースを参照することにより、 取得された環境情報に 対して好適なプロファイルを選択する。 プロファイルの選択は、 視覚処理部 1 1 と基本プロフアイル群記憶部 1 2とに対してそれぞれ行われる。
《3— 3》 その他各部の動作
制御部 1 4は、 プロファイル情報 d 1 0 2が含むパラメータ情報に基づいて、 視覚処理部 1 1におけるプロファイルの合成度を指定する制御信号 c 1を出力す る。 また、 制御部 1 4は、 プロファイル情報 d 1 0 2が含むパラメータ情報に基 づいて、 色処理部 1 3におけるプロファイルの合成度を指定する制御信号 c 2を 出力する。 さらに、 制御部 1 4は、 プロファイルを記憶している視覚処理部 1 1 と基本プロファイル群記憶部 1 2とに対して、 プロファイルを読み出すための力 ゥン卜信号を与える。 カウント信号は、 視覚処理部 1 1と基本プロファイル群記 憶部 1 2とに制御信号 G 1と制御信号 c 3として与えられる。
視覚処理部 1 1は、 プロファイル情報 d l 0 1のタグ情報が指定するプロファ ィルを制御信号 c 1が指定する合成度により合成し、 視覚処理に用いる新しいプ 口ファイルを生成する。 さらに、 視覚処理部 1 1は、 生成したプロファイルを用 いて、 入力信号 d 1の視覚処理を行い、 画像信号 d 2を出力する。
基本プロファイル群記憶部 1 2は、 プロファイル情報 d l 0 3のタグ情報が指 定するプロファイルを、 制御信号 c 3が指定するタイミングで読み出す。
色処理部 1 3は、 基本プロファイル群記憶部 1 2から読み出された選択プロフ アイルデータ d 5を取得し、 取得した選択プロファイルデータ d 5と制御信号 c 2が指定する合成度とに基づいて、 色処理に用いる新しいプロファイルを生成す る。 さらに、 色処理部 1 3は、 生成したプロファイルを用いて、 画像信号 d 2の 色処理を行い、 出力信号 d 3を出力する。
なお、 プロファイル情報 d l 0 1 とプロファイル情報 d l 0 3とは、 常に複数 のプロファイルを特定するタグ情報を含む訳ではない。 プロファイル情報 d l 0 1とプロファイル情報 d 1 0 3とがそれぞれ 1つのプロファイルを特定するタグ 情報を含む場合、 視覚処理部 1 1と色処理部 1 3とではプロファイルの生成は行 われないものであってもよい。 この場合、 タグ情報により特定されたプロフアイ ルがそのまま用いられる。
〈表示装置 7 2 0の効果〉
( 1 )
表示装置 7 2 0では、 画像処理装置 1 0とほぼ同様の構成を有する画像処理装 置 7 5 0を備えている。 このため、 上記実施形態で説明した画像処理装置 1 0と 同様の効果が得られる。
特に、 表示装置 7 2 0では、 新たにプロファイルを生成することが可能である 。 このため、 あらかじめ多くのプロファイルを記憶しておく必要が無く、 プロフ アイルの記憶容量を削減することが可能である。 さらに、 プロファイルの生成で は、 合成度を変更することにより、 プロファイルが実現する画像処理の微妙な調 整が可能となる。
また、 表示装置 7 2 0では、 複数のプロファイルを用いて新たにプロファイル を生成する。 このため、 1つのプロファイルを用いる場合に比して、 プロフアイ ル生成の自由度が向上する。 すなわち、 より複雑な画像処理を実現するプロファ ィルを生成することが可能となる。
また、 表示装置 7 2 0では、 生成したプロファイルを用いた画像処理が行われ る。 プロファイルの生成は画像処理の前にあらかじめ行っておくことが可能であ る。 このため、 プロファイルが実現する画像処理が複雑であっても、 画像処理の 処理速度には影響しない。 すなわち、 複雑な処理をより高速に行うことが可能と なる。 このことは、 生成したプロファイルにより実現される画像処理がより多く の画像のパラメータを調整する場合に、 より顕著となる。
( 2 )
表示装置 7 2 0では、 環境検出部 7 5 4により検出された環境情報に応じてプ 口ファイルの選択や合成度の変更などが行われる。 このため、 環境情報に応じて 適切な画像処理が実現され、 視覚効果がよリ向上される。 図 1 0を用いて、 環境情報と色処理部 1 3で用いられるプロファイルとの関係 について説明し、 表示装置 7 2 0のより具体的な効果を説明する。 図 1 0は、 環 境情報に基づいて選択されたプロファイル w lおよびプロファイル w 2と制御信 号 c 2が指定する合成度とに基づいて生成されるプロファイル w kを示している 。 プロファイル w kは、 制御信号 c 2が指定する合成度の値に応じて生成されて いる。
例えば、 表示装置 7 2 0の表示環境の環境光が環境情報として取得される場合 、 環境光の強さ (環境光の明るさ) に応じて、 表示される画像の彩度を変化させ ることが好ましい。 より具体的には、 環境光が強くなるにつれて、 表示される画 像の彩度を上げた方が色表示が適切に行われる。
そこで、 環境光が環境情報として取得される場合、 情報設定部 7 5 2は、 彩度 に関して処理の程度の異なるプロファイルであるプロファイル w 1とプロフアイ ル w 2とを選択する。 ここで、 プロファイル w lは、 彩度を上げない色処理を実 現するプロファイルであり、 プロファイル W 2は、 彩度を強く上げる色処理を実 現するプロファイルである。 さらに、 情報設定部 7 5 2は、 環境光の強さに応じ て適切な色処理を実現するプロファイルのパラメータ情報をプロファイル情報 d 1 0 2として制御部 1 4に出力する。 制御部 1 4は、 取得したパラメータ情報か らプロファイル w lとプロファイル w 2との合成度を指定する制御信号 c 2を出 力する。 色処理部 1 3では、 制御信号 c 2の指定する合成度を用いて、 プロファ ィル w 1とプロファイル w 2とを内分し、 プロファイル w kを生成する。 さらに 、 色処理部 1 3では、 生成したプロファイル w kを用いて色処理を行う。
この表示装置 7 2 0では、 環境光の強さに応じた色処理を実現することが可能 となり、 より視覚的効果の高い表示を行うことが可能となる。
また、 例えば、 表示される画像と画像を視覚するユーザとの距離に関する位置 情報が環境情報として取得される場合、 位置情報に応じて、 表示される画像の色 処理を行うことが望ましい。 より具体的には、 表示される画像とユーザとの距離 が異なるとユーザの視角の大きさが異なり、 表示される色が異なって視覚される 。 このため、 視角に応じて色処理を行うことで、 ユーザとの距離によらず同じ印 象を与える画像を表示することが可能となる。 また、 例えば、 表示部 7 2 1の製品情報 (例えば、 製品番号など) 、 表示部 7 2 1が表示する画像サイズ情報が環境情報として取得される場合、 製品情報や画 像サイズ情報に応じて、 表示される画像の色処理を行うことが望ましい。 製品情 報から判断される表示部 7 2 1のサイズや表示される画像サイズなどが異なると ユーザの視角の大きさが異なり、 表示される色が異なって視覚される。 このため 、 視角に応じて色処理を行うことで、 同じ印象を与える画像を表示することが可 能となる。
( 3 )
情報設定部 7 5 2は、 視覚処理部 1 1と色処理部 1 3とにおいて用いられるプ 口ファイルをそれぞれ指定する。 このため、 視覚処理部 1 1 と色処理部 1 3とに おける画像処理がそれぞれ重複する処理となることや相殺する処理となることを 防止することが可能となる。
( 4 )
表示装置 7 2 0では、 〇 リ 7 2 4から取得される環境情報 1 0 5 (図 9参 照) に応じてプロファイルの選択や合成度の変更などが行われる。 このため、 環 境情報に応じて適切な画像処理が実現され、 視覚効果がより向上される。
選択するプロファイルとして、 表示装置 7 2 0の周囲環境の外光の明るさに応 じたダイナミックレンジ圧縮処理を行う場合について説明する。 より具体的には、 視覚処理部 1 1 (図 9参照) において、 入力信号 d 1のダイナミックレンジ圧縮 処理を行い、 さらに、 色処理部 1 3 (図 9参照) において、 ダイナミックレンジ 圧縮された入力信号 d 1、 すなわち画像信号 d 2に対して、 色処理を行う場合に ついて説明する。
《視覚処理部 1 1の作用》
まず、 視覚処理部 1 1では、 入力信号 d 1の色空間を R G Bから輝度成分丫、 色差成分 C B, C Rに変換する。 さらに、 輝度成分 Yについてダイナミックレン ジ圧縮処理を行う。
輝度成分 Yについてのダイナミックレンジ圧縮は、 ダイナミックレンジ圧縮関 数 F 4に基づいて行われる。
図 1 1は、 入力信号 d 1の輝度成分 Yの値 (横軸) と、 輝度成分 Yにダイナミ ックレンジ圧縮関数 F4を適用した値 (縦軸) との関係を示すグラフである。 こ こで、 ダイナミックレンジ圧縮関数 F 4とは、 輝度成分 Yの値 [A] を用いて、 F4=A rと表される 「べき関数」 である。 なお、 rは、 輝度成分 Yのコント ラス卜 [m] と、 圧縮後のコントラスト [n] とを用いて、 r = I o g (n) / l o g (m) と表される。 ここで 「コントラスト」 とは、 信号の最小値と最大値 との比を意味しており、 最大値を最小値を用いて除算した値を示している。
図 1 1が示すように、 輝度成分 Yのダイナミックレンジは、 ダイナミックレン ジ圧縮関数 F4により圧縮される。 より詳しくは、 ダイナミックレンジ圧縮関数 F 4により、 値 [1 Zm〜1. 0] め範囲の輝度成分 Yは、 値 [1 Zr!〜 1. 0] の範囲に変換される。 この結果、 画像信号 d 2における視覚的なダイナミツ クレンジは、 1 /n (最小値:最大値 =1 : n) へと圧縮される。 ここで 「ダイ ナミックレンジ」 とは、 信号の最小値と最大値との比を意味している。
圧縮後のコントラストの値 [n] は、 表示環境の環境光のもとでの表示画像の 視覚的なコントラスト値として設定されている。 すなわち、 圧縮後のコントラス 卜の値 [n] は、 入力信号 d 1の輝度成分のコントラストの値 [m] を、 表示環 境の環境光の輝度による影響分だけ低下させた値として決定することができる。
《色処理部 1 3の作用》
視覚処理部 1 1では、 入力信号 d 1の色空間を RGBから輝度成分 Y、 色差成 分 CB, CRに変換し、 輝度成分 Υについてダイナミックレンジ圧縮処理を行う。 この結果、 画像信号 d 2では、 ダイナミックレンジ変換された輝度成分の影響に より、 入力信号 d 1の色相とは異なる色相を有することとなる。
色相のずれを簡易に補正する場合は、 視覚処理部 1 1における変換処理前の輝 度成分 Y i nと変換処理後の輝度信号 Y o u tの比を、 入力信号 d 1の色差成分 CB i n, CR i nに乗ずることで対応する事もできる。 しかし、 精度の良い色 再現を行うには、 最終的に出力される信号の色再現域も考慮した色差信号 C Bo u t, C R o u tを得る必要がある。
そこで、 色処理部 1 3は、 GBo u t =F 1 (Y o u t/Y i n, CB i n, C R i n) 、 C R o u t = F 2 ( Y o u t / Y i n , C B i n , C R i n ) の非線形 な関係と色再現域の境界処理とを精度良〈処理するため、 LUTを用いた色処理 を行う。
具体的には、 図 1 0に図示するように、 外光の強さに応じて必要なダイナミツ クレンジ圧縮の比を設定し、 この圧縮の比に基づいてプロファイル w lおよびプ 口ファイル w 2を選択する。 さらに、 これらのプロファイルと制御信号 c 2が指 定する合成度とに基づいて、 色処理に用いられるプロファイル w kが生成される。 ここでプロファイル w kは、 制御信号 c 2が指定する合成度の値に応じて生成さ れることとなる。
プロファイル w lとプロファイル w 2とは、 ダイナミックレンジ圧縮でずれた 色相を元に戻すために必要な色差補正の処理を実現するプロファイルである。 例 えば、 プロファイル w lは、 ダイナミックレンジ圧縮処理の比 R 1による色差ず れを補正する色処理を実現するプロファイルであり、 プロファイル w 2は、 ダイ ナミックレンジ圧縮処理の比 R 2による色差ずれを補正する色処理を実現するプ 口ファイルである。 このように、 それぞれのプロファイルは、 ダイナミックレン ジ圧縮の比に関連づけられている。
外光の強さが異なる環境で表示装置 7 2 0が用いられる場合、 情報設定部 7 5 2は、 色差補正に関して処理の程度の異なるプロファイルであるプロファイル w 1とプロファイル W 2とを選択する。 さらに、 情報設定部 7 5 2は、 環境光の強 さに応じて適切な色差補正処理を実現するプロファイルのパラメータ情報をプロ ファイル情報 d 1 0 2として制御部 1 4に出力する。
制御部 1 4は、 取得したパラメータ情報からプロファイル w 1とプロファイル w 2との合成度を指定する制御信号 c 2を出力する。
色処理部 1 3では、 制御信号 c 2の指定する合成度を用いて、 プロファイル w 1とプロファイル w 2とを内分し、 プロファイル w kを生成する。 さらに、 色処 理部 1 3では、 生成したプロファイル w kを用いて色処理を行う。
視覚処理 1 1と、 色処理 1 3の順番としては、 視覚処理 1 1の明るさの処理に より色再現域が決まるので、 視覚処理 1 1を最初に行い、 その出力について色処 理 1 3を実行するのが望ましい。
この表示装置 7 2 0では、 環境光の強さに応じた色処理を実現することが可能 となり、 色相のずれを抑制し、 より視覚的効果の高い表示を行うことが可能とな る。
〈変形例〉
表示装置 7 2 0における表示用画像処理装置 7 2 3では、 上記実施形態を適宜 適用するような変形を行うことが可能である。 以下、 表示装置 7 2 0に特徴的な 変形例を記載する。
( 1 )
上記実施形態では、 「プロファイル情報 d 1 0 1が視覚処理部 1 1で用いられ るプロファイルのタグ情報を含み、 プロファイル情報 d l 0 3が色処理部 1 3で 用いられるプロファイルのタグ情報を含み、 プロファイル情報 d 1 0 2が視覚処 理部 1 1と色処理部 1 3とで用いられるそれぞれのプロファイルのパラメ一タ情 報を含む」 として説明を行った。
ここで、 それぞれのプロファイル情報 d 1 0 1 〜d 1 0 3は、 その他の情報を 含んでいてもよい。
プロファイル情報 d 1 0 1は、 視覚処理部 1 1で用いられるプロファイルが格 納するデータ、 プロファイルの処理の特徴を示すパラメータ情報、 環境情報のう ちの少なくとも 1つを含み、 視覚処理部 1 1で用いられるプロファイルを特定さ せるものであってもよい。 特に、 プロファイル情報 d l 0 1が環境情報を含む場 合には、 視覚処理部 1 1は、 情報設定部 7 5 2と同様に、 環境情報とプロフアイ ルとを関連づけるデータベースを参照し、 プロファイルを特定するものであって もよい。
プロファイル情報 d 1 0 3は、 色処理部 1 3で用いられるプロファイルが格納 するデータ、 プロファイルの処理の特徴を示すパラメータ情報、 環境情報のうち の少なくとも 1つを含み、 色処理部 1 3で用いられるプロファイルを特定させる ものであってもよい。 特に、 プロファイル情報 d l 0 3が環境情報を含む場合に は、 基本プロファイル群記憶部 1 2は、 情報設定部 7 5 2と同様に、 環境情報と プロファイルとを関連づけるデータベースを参照し、 プロファイルを特定するも のであってもよい。
プロファイル情報 d 1 0 2は、 プロファイルが格納するデータ、 プロファイル を特定する番号などのタグ情報、 環境情報のうちの少なくとも一つを含み、 プロ ファイル情報 d 1 O 1やプロファイル情報 d 1 0 3が特定するそれぞれのプロフ ァィルの合成度を決定させる情報であってもよい。
なお、 プロファイル情報 d 1 0 1 〜 d 1 0 3は、 プロファイルのデータ、 タグ 情報、 パラメータ情報、 環境情報の少なくとも一つを含んでいればよく、 それぞ れが同時に含まれていてもよい。
( 2 )
上記実施形態で説明した表示装置 7 2 0の各部において、 同様の機能を実現す る部分は、 共通のハードウエアで実現されていてもよい。
入力部 7 2 5は、 環境検出部 7 5 4として環境情報を入力させる装置であって もよい。 この場合、 入力部 7 2 5から入力された環境情報は、 C P U 7 2 4を介 して環境情報 d 1 0 5として表示用画像処理装置 7 2 3に入力される。
視覚処理部 1 1においてプロファイルが記憶されている記憶部や基本プロファ ィル群記憶部 1 2は、 表示用画像処理装置 7 2 3の外部に備えられるものであつ てもよく、 例えば、 メモリ 7 3 0や外部装置 7 4 0により実現されていてもよい 。 また、 視覚処理部 1 1においてプロファイルが記憶されている記憶部や基本プ 口ファイル群記憶部 1 2は、 同じ装置により実現されていてもよい。
また、 視覚処理部 1 1においてプロファイルが記憶されている記憶部や基本プ 口ファイル群記憶部 1 2などに記憶されるプロファイルは、 予め各部に記憶され ているものであってもよいし、 外部装置 7 4 0、 あるいはチューナ 7 2 6から取 得されるものであってもよい。
また、 画像処理装置 7 5 0の制御部 1 4や情報設定部 7 5 2の機能は、 C P U 7 2 4により実現されていてもよい。
( 3 )
本発明の効果は、 入力信号 d 1、 画像信号 d 2、 出力信号 d 3の色空間に依存 しない。 例えば、 それぞれの信号は、 R G B色空間、 Y C b C r色空間、 Y U V 色空間、 L a b色空間、 L u V色空間、 Y I Q色空間、 X Y Z色空間、 Y P b P r色空間などのいずれの色空間の信号であってもよい。
( 4 )
表示用画像処理装置 7 2 3では、 環境検出部 7 5 4に変えて、 ユーザに入力を 行わせるユーザ入力部を備えていてもよい。
図 1 2に表示用画像処理装置 7 2 3の変形例としての表示用画像処理装置 7 5 5の構成を示す。 表示用画像処理装置 7 5 5は、 ユーザに入力を行わせるユーザ 入力部 7 5 6を備えている点に特徴を有している。 表示用画像処理装置 7 5 5に おいて、 表示用画像処理装置 7 2 3 (図 9参照) とほぼ同様の機能を果たす部分 には同じ符号を付して説明を省略する。
ユーザ入力部 7 5 6は、 ユーザの嗜好する画像処理を入力させ、 入力された情 報を画像処理装置 7 5 0の情報設定部 7 5 2 (図 9参照) に対して、 入力情報 d 1 0 8として出力する。
ユーザ入力部 7 5 6は、 例えば、 ユーザの嗜好する明るさを入力させる明るさ 入力部と、 ユーザの嗜好する画質を入力させる画質入力部とから構成されている 明るさ入力部は、 例えば、 表示される画像中の光の状態を入力するスィッチ、 画像が表示される環境の光の状態を入力するスィッチなどから構成されている。 表示される画像中の光の状態を入力するスィッチは、 例えば、 画像中の逆光 -順 光や、 撮影時のストロボの有無や、 撮影時に用いられたマクロプログラムの状態 などを入力するためのスィッチである。 ここで、 マクロプログラムとは、 撮影装 置を被写体の状態に応じて制御するためのプログラムである。 画像が表示される 環境の光の状態を入力するスィッチは、 例えば、 環境光の明るさ、 色温度などを 入力するためのスィッチである。
画質入力部は、 ユーザの画質の好みを入力するためのスィッチであり、 例えば 、 デフォルト■ダイナミック 'クラシックなどといつた異なる視覚効果を入力す るスィツチである。
ユーザ入力部 7 5 6は、 明るさ入力部と画質入力部とから入力された情報を入 力情報 d 1 0 8として出力する。
画像処理装置 7 5 0では、 環境情報 d l 0 4 (図 9参照) が入力される場合と ほぼ同様の動作が行われる。 環境情報 d l 0 4が入力される場合との相違点は、 情報設定部 7 5 2が入力情報 d 1 0 8とプロファイルとを関連づけるデータべ一 スを参照し、 プロファイル情報 d 1 0 1 ~ d 1 0 3を出力する点である。 本変形例の表示用画像処理装置 7 5 5では、 ユーザの入力に応じて画像処理に 用いられるプロファイルを選択し、 画像処理を行うことが可能となる。 このため 、 ユーザの嗜好に応じた画像処理を行うことが可能となる。
なお、 入力部 7 2 5 (図 8参照) は、 ユーザ入力部 7 5 6と同様に動作し、 C P U 7 2 4を介してユーザの嗜好する画像処理を入力させるものであってもよい 。 この場合、 環境情報 d 1 0 5は、 入力情報 d 1 0 8と同様の情報を含むことと なる。
( 5 )
表示用画像処理装置 7 2 3は、.入力信号に含まれる属性情報を分離し、 分離し た属性情報に基づいてプロファイルを選択し、 画像処理を行う装置であってもよ い。
《 5— 1》表示用画像処理装置 7 5 9の構成
図 1 3に、 表示用画像処理装置 7 2 3の変形例としての表示用画像処理装置 7 5 9を示す。 表示用画像処理装置 7 5 9は、 入力信号 d 1 1 0に含まれる属性情 報 d 1 1 1を検出する属性検出部 7 6 0を備え、 検出された属性情報 d 1 1 1に 基づいて、 画像処理に用いるプロファイルを切り替える点に特徴を有している。 図 1 3に示す表示用画像処理装置 7 5 9において、 表示用画像処理装置 7 2 3と ほぼ同じ機能を有する部分については、 同じ符号を付し説明を省略する。
属性検出部 7 6 0は、 入力信号 d 1 1 0に含まれる属性情報 d 1 1 1を検出す る。 属性情報 d 1 1 1は、 入力信号 d 1 1 0のヘッダ部分などに配置される情報 であり、 入力信号 d 1 1 0の属性に関する情報である。 属性検出部 7 6 0は、 入 力信号 d 1 1 0を先頭から所定のビット数だけ読みとることにより、 属性情報 d 1 1 1を分離する。 なお、 属性情報 d 1 1 1は、 入力信号 d 1 1 0の後尾に配置 されるものであってもよい。 あるいは、 入力信号 d 1 1 0中にフラグ情報を伴つ て分離可能な状態で配置されていてもよい。
図 1 4に、 属性情報 d 1 1 1が含まれる入力信号 d 1 1 0のフォーマツ卜の一 例を示す。 図 1 4に示す入力信号 d 1 1 0では、 データの先頭部分に属性情報 d 1 1 1としてのコンテンツ情報が配置されているとともに、 それに続いて入力画 像データ d 1 1 2が配置されている。 コンテンツ情報とは、 入力画像データ d l 1 2の全体の内容に関する属性であ リ、 入力画像データ d 1 1 2のタイトル、 制作会社、 監督、 制作年、 種類、 制作 側指定属性などを含んでいる。 ここで、 種類とは、 コンテンツの種類に関する情 報であり、 例えば、 S F、 アクション、 ドラマ、 ホラ一、 などといった情報が含 まれる。 制作側指定属性とは、 コンテンツ制作側が指定する表示特性に関する情 報であり、 例えば、 ダイナミック、 恐怖感、 などといった情報が含まれる。 入力画像データ d 1 1 2は、 上記実施形態で説明した入力信号 d 1と同様のデ —タであり、 例えば、 R G B色空間またはその他の色空間で表現される画像デー タである。
属性検出部 7 6 0は、 検出された属性情報 d 1 1 1を画像処理装置 7 5 8 (図 1 3参照) に出力する。
画像処理装置 7 5 8は、 図 9に示す画像処理装置 7 5 0とほぼ同様の構成を有 している。 構成の詳細は、 画像処理装置 7 5 0と同様であるため省略する。 また、 画像処理装置 7 5 8は、 画像処理装置 7 5 0とほぼ同様に動作する。 以 下、 画像処理装置 7 5 0と相違する点について説明する。
まず第 1に、 画像処理装置 7 5 8では、 属性検出部 7 6 0から属性情報 d 1 1 1が入力される。 画像処理装置 7 5 8の情報設定部は、 属性情報 d 1 1 1 とプロ ファイルとを関連づけるデータベースを参照し、 制御部、 視覚処理部、 基本プロ ファイル群記憶部にプロファイル情報を出力する。 第 2に、 画像処理装置 7 5 8 では、 属性情報 d 1 1 1を含む入力信号 d 1 1 0が入力される。 画像処理装置 7 5 8では、 入力信号 d 1 1 0に含まれる入力画像データ d 1 1 2に対して、 画像 処理装置 7 5 0と同様の視覚処理および色処理が行われる。
《 5— 2》効果
( 1 )
表示用画像処理装置 7 5 9では、 コンテンツ制作時のコンテンツ情報に応じて 適切なプロファイルを用いた画像処理を行うことが可能となる。 このため、 コン テンッ制作側の意図を考慮して画像処理を行うことが可能となる。
より具体的には、 タイトル、 制作会社などにより、 画像全体の明るさ、 色温度 などの傾向を判断し、 画像全体の明るさ、 色温度などを変換する画像処理を行う ことなどが可能となる。 また、 制作側指定属性などにより、 制作側の意図する画 像表示を行わせることが可能となる。
( 2 )
表示用画像処理装置 7 5 9では、 視覚処理部と色処理部とにそれぞれ異なるプ 口ファイル情報を出力することが可能である。 このため、 コンテンツ情報の種類 として 「アクションおよびホラー J などと複数の値が指定されている場合にでも 、 アクションのように動きが多い部分に対しては、 視覚処理部で適切に視覚処理 を行わせ、 ホラーのように色が心理的影響を与える部分に対しては、 色処理部で 適切に色処理を行わせることが可能となる。
また、 視覚処理部と基本プロファイル群記憶部とにそれぞれ異なるプロフアイ ル情報を出力することが可能であるため、 各部で考慮すべきプロファイル情報の 情報量を削減できる。 このため、 視覚処理部および基本プロファイル群記憶部で は、 より簡易にプロファイルの選択を行うことが可能となる。
《5— 3》 変形例
( 1 )
表示用画像処理装置 7 5 9には、 入力部 7 2 5 (図 8参照) から属性情報 d l 1 4が入力されるものであってもよい。 入力部 7 2 5から入力される属性情報 d 1 1 4は、 C P U 7 2 4を介して画像処理装置 7 5 8に入力される。 画像処理装 置 7 5 8の情報設定部では、 入力部 7 2 5から入力された属性情報 d 1 1 4と属 性情報 d 1 1 1とに基づいて、 プロファイル情報を出力する。
これにより、 属性検出部 7 6 0におけるコンテンツ情報の検出に不具合がある 場合でも、 入力部 7 2 5によりコンテンツ情報を適切に入力することが可能とな リ、 適切な画像処理を行うことが可能となる。 さらに、 入力部 7 2 5により、 ュ 一ザ側の好みを画像処理に反映させることも可能となる。 例えば、 アニメはメリ ハリを強くした画像に、 映画は鮮やかな画像に、 というようにユーザ側の好みを 反映させることが可能となる。 さらに、 デジタルリマスター版のように修正され た画像のコンテンツ情報を修正することが可能となる。
なお、 入力部 7 2 5では、 属性検出部 7 6 0で検出された属性情報に応じて、 ユーザが入力可能なコンテンッ情報が制御されるものであってもよい。 例えば、 属性検出部 7 6 0が入力画像データ d 1 1 2の種類は 「アニメ J であると検出し た場合、 入力部 7 2 5では、 アニメに関する項目 (例えば、 アニメ監督、 アニメ タイトルなど) のみを入力させるとしてもよい。
( 2 )
表示用画像処理装置 7 5 9では、 入力信号 d 1 1 0を属性情報 d 1 1 1と入力 画像データ d 1 1 2に分離する分離部を備えていてもよい。 分離部は、 入力信号 d 1 1 0から分離した属性情報 d 1 1 "1を属性検出部 7 6 0に出力し、 入力画像 データ d 1 1 2を画像処理装置 7 5 8に出力する。 これにより、 属性検出部 7 6 0および画像処理装置 7 5 8における処理が削減できる。
( 3 )
一旦取得されたコンテンツ情報は、 繰り返し用いてもよい。 この場合、 再度す ベての情報を取得しなくても記憶されたコンテンツ情報を用いて画像処理を行う プロファイルを特定することが可能となる。
( 4 )
属性情報 d 1 1 1は、 コンテンツ情報以外の情報を含むものであってもよい。 具体的には、 入力画像データの一部に関わる属性であるシーン属性情報、 入力信 号 d 1 1 0が生成された環境に関わる撮影属性情報、 入力信号 d 1 1 0が表示装 置 7 2 0に取得されるまでの媒体に関わる放送属性情報、 入力信号 d l 1 0が記 録される媒体 ·機器に関わる記録属性情報、 画像処理に用いられるプロファイル に関わるプロファイル属性情報などを含んでもかまわない。 以下、 それぞれにつ いて具体的に説明を加える。
なお、 以下の説明では、 属性情報 d 1 1 1がシーン属性情報、 撮影属性情報、 放送属性情報、 記録属性情報、 プロファイル属性情報のそれぞれを含む場合につ いて別々に説明するが、 コンテンツ情報を含めたこれらの情報は、 属性情報 d l 1 1において全て同時に、 あるいは、 いくつかを組み合わせて、 含まれるもので あってもよい。 この場合には、 それぞれの情報による効果をさらに向上させるこ とが可能となる。
( 4 - 1 ) シーン属性情報
( 4一 1一 1 ) 図 1 5に、 属性情報 d 1 1 1としてシーン属性情報が含まれる入力信号 d 1 1 0のフォーマツ卜を示す。 図 1 5に示す入力信号 d 1 1 0では、 入力画像データ d 1 1 2のシーンを単位としてシーン属性情報が配置されている。 シーン属性情 報は、 例えば、 フラグ情報を伴うなどして入力画像データ d 1 1 2と分離可能な 状態で配置されている。
シーン属性情報は、 それに続く入力画像データ d 1 1 2のシーン内容を記述す る情報である。 例えば、 シーン属性情報は、 「明るさ j 、 「対象」 、 「動作」 、 「シーン概要」 などといった項目の組み合わせにより記述されており、 「暗い ' 森■風景 J 、 「明るい '人物 'アップ」 、 「暗い■人物■風景」 などといった内 容が記述されている。 なお、 これらはシーン属性情報の一例であり、 これに限定 される訳ではない。 例えば、 「シーン概要」 として、 ニュース、 スポーツ、 ホー ムドラマ、 アクションなどといった内容が指定がされていてもよい。
シーン属性情報を含む入力信号 d 1 1 0に対して画像処理を行う表示用画像処 理装置は、 表示用画像処理装置 7 5 9 (図 1 3参照) をシーン属性情報に対応さ せたものと同様である。
属性検出部 7 6 0は、 入力信号 d l 1 0に含まれるシーン属性情報を検出し、 属性情報 d l 1 1として画像処理装置 7 5 8に出力する。
画像処理装置 7 5 8の情報設定部は、 属性情報 d 1 1 1を取得し、 制御部、 視 覚処理部、 基本プロファイル群記憶部にプロファイル情報を出力する。 例えば、 情報設定部は、 属性情報 d 1 1 1から取得されるシーン属性情報の各項目とプロ ファイルとの関連付けを記憶するデータベースを参照するなどして、 プロフアイ ル情報を出力する。
プロファイル情報は、 プロファイル情報 d 1 0 1〜d 1 0 3と同様であるため 、 説明を省略する。 なお、 プロファイル情報は、 シーン属性情報を含んでいても よい。 この場合、 視覚処理部と基本プロファイル群記憶部とは、 取得したシーン 属性情報から画像処理に用いるプロファイルを選択する。
その他、 表示用画像処理装置の各部の動作は、 属性情報 d 1 1 1がコンテンツ 情報を含む場合と同様であるため説明を省略する。
( 4 - 1一 2 ) 本発明により、 上記実施形態で記載した効果と同様の効果が得られる。 以下、 本変形例に特徴的な効果を記載する。
シーン属性情報に応じて適切なプロファイルデータを用いた画像処理を行うこ とが可能となる。 このため、 コンテンツ制作側の意図を考慮して画像処理を行う ことが可能となる。
シーン属性情報は、 入力画像データ d 1 1 2のシーン毎に必要に応じて配置さ れている。 このため、 より詳細に画像処理を切り替えることが可能となり、 より 適切に画像処理を行うことが可能となる。
例えば、 属性情報 d 1 1 1によリ、 シーン属性情報が 「暗い '森 '風景」 と取 得された場合、 情報設定部は、 「影の暗部を改善するプロファイル」 を指定する プロファイル情報を視覚処理部に出力するとともに、 「緑色の記憶色補正を行い 、 肌色の記憶色補正を行わないプロファイル」 を指定するプロファイル情報を基 本プロファイル群記憶部に出力する。
また例えば、 属性情報 d 1 1 1により、 シーン属性情報が 「明るい '人物■ァ ップ」 と取得された場合、 情報設定部は、 「コントラスト強調を抑制したプロフ アイル J を指定するプロファイル情報を視覚処理部に出力するとともに、 「肌色 の記憶色補正を行うプロファイル」 を指定するプロフアイル情報を基本プロファ ィル群記憶部に出力する。
また例えば、 属性情報 d 1 1 1により、 シーン属性情報が 「暗い '人物 '風景 」 と取得された場合、 情報設定部は、 「人物の暗部を強調し、 背景の暗部改善を 抑制したプロファイル」 を指定するプロファイル情報を視覚処理部に出力すると ともに、 Γホワイトバランスの調整と肌色の記憶色補正とを行わないプロフアイ ル」 を指定するプロファイル情報を基本プロファイル群記憶部に出力する。 また例えば、 属性情報 d 1 1 1により、 シーン属性情報が 「人物■ ドラマ」 と 取得された場合、 画像内で主たる処理対象は人物となる。 よって、 情報設定部は 、 視覚処理部に対して、 肌色でかつ輝度の低い領域のコントラスト改善を行い、 かつ、 それ以外の輝度の低い領域のコントラスト改善をしないプロファイルを指 定するプロファイル情報を出力する。 また、 情報設定部は、 基本プロファイル群 記憶部に対して、 肌色の記憶補正を行い、 かつ、 それ以外の緑などの記憶色に対 する補正を弱めるプロファイルを指定するプロファイル情報を出力する。
なお、 シーン属性情報は、 上記実施形態と同様に、 入力部 7 2 5から C P U 7 2 4を介して入力されるものであってもよい。 この場合、 ユーザにとっての主観 的な画質をよリ向上させることが可能となる。
また、 人物の移動シーンにおいて背景の太陽光の向きが徐々に変動するような 一連のシーンの場合、 各シーンごとにシーン属性情報を付加することも可能であ るが、 その先頭シーンのみにシーン属性情報を付加することも可能である。 また 、 先頭シーンにまずシーン属性情報を付加して、 続く連続シーンには先頭シーン からの明るさの変動情報や対象の変動情報のみをシーン属性情報として付加する ことも可能である。 こうすることで、 動画像の画像処理におけるちらつきや画質 の急激な変化を抑えることが可能となる。
( 4 - 2 ) 撮影属性情報
( 4 - 2 - 1 )
図 1 6に、 属性情報 d 1 1 1 として撮影属性情報が含まれる入力信号 d 1 1 0 のフォーマツ卜を示す。 図 1 6に示す入力信号 d 1 1 0では、 入力信号 d 1 1 0 のヘッダ部分に撮影属性情報が配置されている。 なお、 撮影属性情報は、 これに 限らず、 例えば、 フラグ情報を伴うなどして入力画像データ d 1 1 2と分離可能 な状態で配置されていてもよい。
撮影属性情報は、 それに続く入力画像データ d 1 1 2の撮影状況を記述する情 報である。 例えば、 撮影属性情報は、 「位置 ·方角」 、 「日付」 、 「時刻」 、 Γ 撮影機器情報」 などといった項目の組み合わせにより記述されている。 「位置 ' 方角」 は、 撮影時に G P Sなどから取得される情報である。 「撮影機器情報」 は 、 撮影時の機器の情報であり、 ストロボ有無、 絞り、 シャッタースピード、 マク 口撮影有無などの情報が格納されている。 なお、 これらは撮影属性情報の一例で あり、 これに限定される訳ではない。 例えば、 撮影時に用いたマクロプログラム (ストロボ有無、 絞り、 シャッタースピードなどの制御を組み合わせて実行する ためのプログラム) を特定するための情報であってもよい。
撮影属性情報を含む入力信号 d 1 1 0に対して画像処理を行う表示用画像処理 装置は、 表示用画像処理装置 7 5 9 (図 1 3参照) を撮影属性情報に対応させた ものと同様である。
属性検出部 7 6 0は、 入力信号 d 1 1 0に含まれる撮影属性情報を検出し、 属 性情報 d 1 1 1 として画像処理装置 7 5 8に出力する。
画像処理装置 7 5 8の情報設定部は、 属性情報 d 1 1 1を取得し、 制御部、 視 覚処理部、 基本プロファイル群記憶部にプロファイル情報を出力する。 例えば、 情報設定部は、 属性情報 d 1 1 1から取得される撮影属性情報の各項目とプロフ アイルとの関連付けを記憶するデータベースを参照するなどして、 プロファイル 情報を出力する。
プロファイル情報は、 プロファイル情報 d 1 0 1 ~ d 1 0 3と同様であるため 、 説明を省略する。 なお、 プロファイル情報は、 撮影属性情報を含んでいてもよ い。 この場合、 視覚処理部と基本プロファイル群記憶部とは、 取得した撮影属性 情報から画像処理に用いるプロフアイルを選択する。
その他、 表示用画像処理装置の各部の動作は、 属性情報 d l 1 1がコンテンツ 情報を含む場合と同様であるため説明を省略する。
( 4 - 2 - 2 )
本発明により、 上記実施形態で記載した効果と同様の効果が得られる。 以下、 本変形例に特徴的な効果を記載する。
撮影属性情報に応じて適切なプロファイルを用いた画像処理を行うことが可能 となる。 このため、 コンテンツ制作側の意図を考慮して画像処理を行うことが可 能となる。
例えば、 「位置'方角」 、 「日付」 、 「時刻」 、 「撮影機器情報」 などといつ た項目から、 入力画像データ d l 1 2が生成された環境における 「太陽の方向」 、 「季節」 、 「天気」 、 「太陽光の色」 、 「ストロボ有無」 などの情報を取得し 、 被写体の撮影状況 (例えば、 順光か逆光かなど) を解析することが可能となる 。 さらに、 解析された撮影状況に対して適切なプロファイルを用いて画像処理を 行うことが可能となる。
なお、 撮影属性情報は、 上記実施形態と同様に、 入力部 7 2 5から C P U 7 2 4を介して入力されるものであってもよい。 この場合、 ユーザにとっての主観的 な画質をよリ向上させることが可能となる。 ( 4 - 3 ) 放送属性情報
( 4 - 3 - 1 )
図 1 7に、 属性情報 d 1 1 1として放送属性情報が含まれる入力信号 d 1 1 0 のフォーマツトを示す。 図 1 7に示す入力信号 d 1 1 0では、 入力信号 d 1 1 0 のヘッダ部分に放送属性情報が配置されている。 なお、 放送属性情報は、 これに 限らず、 例えば、 フラグ情報を伴うなどして入力画像データ d 1 1 2と分離可能 な状態で配置されていてもよい。
放送属性情報は、 入力信号 d 1 1 0が表示装置 7 2 0に取得されるまでの媒体 に関わる情報であって、 特に、 どのような放送形態により入力信号 d 1 1 0が取 得されたかに関わる情報である。 例えば、 放送属性情報には、 「地上波デジタル 放送」 「地上波アナログ放送」 「衛星デジタル放送」 「衛星アナログ放送」 Γィ ンターネット放送」 のいずれかを示す値が格納されている。
放送属性情報を含む入力信号 d 1 1 0に対して画像処理を行う表示用画像処理 装置は、 表示用画像処理装置 7 5 9 (図 1 3参照) を放送属性情報に対応させた ものと同様である。
属性検出部 7 6 0は、 入力信号 d 1 1 0に含まれる放送属性情報を検出し、 属 性情報 d 1 1 1として画像処理装置 7 5 8に出力する。
画像処理装置 7 5 8の情報設定部は、 属性情報 d 1 1 1を取得し、 制御部、 視 覚処理部、 基本プロファイル群記憶部にプロファイル情報を出力する。 例えば、 情報設定部は、 属性情報 d 1 1 1から取得される放送属性情報の各項目とプロフ アイルとの関連付けを記憶するデータベースを参照するなどして、 プロファイル 情報を出力する。
プロファイル情報は、 プロファイル情報 d 1 0 1 ~ d 1 0 3と同様であるため 、 説明を省略する。 なお、 プロファイル情報は、 放送属性情報を含んでいてもよ い。 この場合、 視覚処理部と基本プロファイル群記憶部とは、 取得した放送属性 情報から画像処理に用いるプロフアイルを選択する。
その他、 表示用画像処理装置の各部の動作は、 属性情報 d l 1 1がコンテンツ 情報を含む場合と同様であるため説明を省略する。
( 4 - 3 - 2 ) 本発明により、 上記実施形態で記載した効果と同様の効果が得られる。 以下、 本変形例に特徴的な効果を記載する。
放送属性情報に応じて適切なプロフアイルを用いた画像処理を行うことが可能 となる。 例えば、 放送経路が画像に与える影響を補正し、 放送局側の意図を考慮 して画像処理を行うことが可能となる。
より具体的には、 例えば、 地上波アナログ放送、 衛星アナログ放送などにより 取得された画像に対しては、 伝送時のノイズを過剰に強調しないプロファイルの 選択が行われる。 これにより、 夜景中に被写体が存在する画像に対して、 夜景領 域の輝度を保持しつつ被写体の明瞭化を行うプロファイルを用いて画像処理を行 うことなどが可能となる。
また、 例えば、 アナログ放送とデジタル放送とにおけるノイズ発生の特性の違 い (アナログ放送:フィールド間ノイズ、 デジタル放送:圧縮ノイズ) を考慮し 、 記憶色補正を行う色領域を変えて画像処理を行うことなどが可能となる。 なお、 放送属性情報は、 上記実施形態と同様に、 入力部 7 2 5から C P U 7 2 4を介して入力されるものであってもよい。 この場合、 ユーザにとっての主観的 な画質をより向上させることが可能となる。
( 4 - 4 ) 記録属性情報
( 4 - 4 - 1 )
図 1 8に、 属性情報 d 1 1 1として記録属性情報が含まれる入力信号 d 1 1 0 のフォーマツトを示す。 図 1 8に示す入力信号 d 1 1 0では、 入力信号 d 1 1 0 のヘッダ部分に記録属性情報が配置されている。 なお、 記録属性情報は、 これに 限らず、 例えば、 フラグ情報を伴うなどして入力画像データ d 1 1 2と分離可能 な状態で配置されていてもよい。
記録属性情報は、 入力信号 d 1 1 0が記録された媒体■装置に関わる情報であ る。 例えば、 記録属性情報は、 入力信号 d 1 1 0が記録された 「年代」 、 記録媒 体-装置の 「提供メーカ」 、 記録媒体■装置を特定するための 「製品情報」 など を含んでいる。
記録属性情報を含む入力信号 d 1 1 0に対して画像処理を行う表示用画像処理 装置は、 表示用画像処理装置 7 5 9 (図 1 3参照) を記録属性情報に対応させた ものと同様である。
属性検出部 7 6 0は、 入力信号 d 1 1 0に含まれる記録属性情報を検出し、 属 性情報 d 1 1 1として画像処理装置 7 5 8に出力する。
画像処理装置 7 5 8の情報設定部は、 属性情報 d 1 1 1を取得し、 制御部、 視 覚処理部、 基本プロファイル群記憶部にプロファイル情報を出力する。 例えば、 情報設定部は、 属性情報 d l 1 1から取得される記録属性情報の各項目とプロフ アイルとの関連付けを記憶するデータベースを参照するなどして、 プロファイル 情報を出力する。
プロファイル情報は、 プロファイル情報 d 1 0 "!〜 d 1 0 3と同様であるため 、 説明を省略する。 なお、 プロファイル情報は、 記録属性情報を含んでいてもよ し、。 この場合、 視覚処理部と基本プロファイル群記憶部とは、 取得した記録属性 情報から画像処理に用いるプロフアイルを選択する。
その他、 表示用画像処理装置の各部の動作は、 属性情報 d 1 1 1がコンテンツ 情報を含む場合と同様であるため説明を省略する。
( 4 - 4 - 2 )
本発明により、 上記実施形態で記載した効果と同様の効果が得られる。 以下、 本変形例に特徴的な効果を記載する。
記録属性情報に応じて適切なプロファイルを用いた画像処理を行うことが可能 となる。 例えば、 「提供メーカ」 が色処理を専門的に扱うカメラメーカなどであ る場合、 色処理部が色処理をあまり行わないようにプロファイル情報が出力され る。 また例えばフイルムなどで記録された入力画像データ d 1 1 2に対しては、 フィルムの色表現領域の特性を考慮して色処理を行うようにプロフアイル情報が 出力される。 このように、 記録媒体■記録装置が画像に与える影響を補正し、 制 作側の意図を考慮して画像処理を行うことが可能となる。
なお、 記録属性情報は、 上記実施形態と同様に、 入力部 7 2 5から C P U 7 2 4を介して入力されるものであってもよい。 この場合、 ユーザにとっての主観的 な画質をより向上させることが可能となる。
( 4— 5 ) プロファイル属性情報
( 4 - 5 - 1 ) 図 1 9に、 属性情報 d 1 1 1としてプロファイル属性情報が含まれる入力信号 d 1 1 0のフォーマツトを示す。 図 1 9に示す入力信号 d 1 1 0では、 入力信号 d 1 1 0のヘッダ部分にプロファイル属性情報が配置されている。 なお、 プロフ アイル属性情報は、 これに限らず、 例えば、 フラグ情報を伴うなどして入力画像 データ d 1 1 2と分離可能な状態で配置されていてもよい。
プロファイル属性情報は、 プロファイルを特定するための情報であり、 例えば 、 入力画像データ d 1 1 2を生成する撮影装置などが推奨するプロファイルを特 定するための情報である。 プロファイル属性情報は、 プロファイルが格納するデ ータ、 プロファイルを特定する番号などのタグ情報、 プロファイルの処理の特徴 を示すパラメ一タ情報のうちの少なくとも一つを含んでいる。 プロファイルのデ ータ、 タグ情報、 パラメータ情報は、 上記実施形態においてプロファイル情報 d 1 0 1 〜d 1 O 3の説明の際に記載したのと同様である。
プロファイル属性情報が特定するプロファイルは、 例えば、 次の画像処理 〔a 〕 〜画像処理 〔c〕 のいずれかの画像処理を行うためのプロファイルである。 画 像処理 〔a〕 は、 入力画像データ d 1 1 2を生成する撮影装置などにおいて、 入 力画像データ d 1 1 2に対して好適であると判断された画像処理である。 画像処 理 〔b〕 は、 画像処理 〔a〕 に加えて、 撮影装置の表示部と標準モデルの表示装 置との特性の差異を補正するための画像処理を行うための画像処理である。 画像 処理 〔c〕 は、 画像処理 〔a〕 に加えて、 撮影装置の表示部と表示装置 7 2 0 ( 図 8参照) との特性の差異を補正するための画像処理を行うための画像処理であ る。
さらに、 プロファイル属性情報は、 入力信号 d l 1 0に含まれる入力画像デ一 タ d 1 1 2が既に撮影装置などにおいて画像処理されたデータであるか否かに関 する処理フラグ情報を含んでいる。
プロファイル属性情報を含む入力信号 d 1 1 0に対して画像処理を行う表示用 画像処理装置は、 表示用画像処理装置 7 5 9 (図 1 3参照) をプロファイル属性 情報に対応させたものと同様である。
属性検出部 7 6 0は、 入力信号 d "! 1 0に含まれるプロファイル属性情報を検 出し、 属性情報 d 1 1 1として画像処理装置 7 5 8に出力する。 画像処理装置 7 5 8の情報設定部は、 属性情報 d 1 1 1を取得し、 制御部、 視 覚処理部、 基本プロファイル群記憶部にプロファイル情報を出力する。 プロファ ィル情報は、 プロファイル属性情報の形式 (プロファイルのデータ、 タグ情報、 パラメータ情報のいずれか) に関わらず、 プロファイルのデータ、 タグ情報、 パ ラメ一タ情報のいずれの形式で出力されてもよい。
以下、 情報設定部の動作について詳細に説明を加える。
情報設定部は、 取得したプロファイル属性情報のうち、 プロファイルを特定す る情報をそのままプロファイル情報として出力するか否かを判断する。
例えば、 プロファイル属性情報が画像処理 〔a〕 または画像処理 〔c〕 を行う プロファイルを特定する情報を含んでおり、 処理フラグ情報が 「処理無し」 を示 している場合、 「出力する j と判断する。
それ以外の場合、 「出力しない J と判断する。
例えば、 プロファイル属性情報が画像処理 〔a〕 を行うプロファイルを特定す る情報を含んでおり、 処理フラグ情報が 「処理有り」 を示している場合、 情報設 定部は、 視覚処理部と色処理部とに画像処理を行わせないプロファイルを特定す る情報をプロファイル情報として出力する。
例えば、 プロファイル属性情報が画像処理 〔b〕 を行うプロファイルを特定す る情報を含んでおり、 処理フラグ情報が 「処理無し」 を示している場合、 画像処 理 〔a〕 に加えて、 標準モデルの表示装置と表示装置 7 2 0との特性の差異を補 正するための画像処理を行うプロファイルを特定するための情報をプロファイル 情報として出力する。
例えば、 プロファイル属性情報が画像処理 〔b〕 を行うプロファイルを特定す る情報を含んでおり、 処理フラグ情報が 「処理有り」 を示している場合、 標準モ デルの表示装置と表示装置 7 2 0との特性の差異を補正するための画像処理を行 うプロファイルを特定するための情報をプロファイル情報として出力する。 例えば、 プロファイル属性情報が画像処理 〔c〕 を行うプロファイルを特定す る情報を含んでおり、 処理フラグ情報が 「処理有り」 を示している場合、 情報設 定部は、 視覚処理部と色処理部とに、 撮影装置の表示部と表示装置 7 2 0とのデ バイス特性の差異を補正するための画像処理を行うプロファイルを特定する情報 をプロファイル情報として出力する。
なお、 これらの処理は、 一例であり、 これに限定される訳ではない。 例えば、 画像処理装置 7 5 8では、 属性情報 d l 1 1から取得されるプロファイル属性情 報が特定するプロファイルを常に用いてもよい。
また、 属性情報 d 1 1 1から取得されるプロファイル属性情報が特定するプロ ファイルを視覚処理部または基本プロフアイル群記憶部が有しない場合には、 属 性情報 d l 1 1から特定されるプロファイルを生成するためのプロファイルが選 択され、 そのプロフアイル情報が視覚処理部およぴ基本プロフアイル群記憶部に 出力される。 さらに、 制御部には、 視覚処理部および基本プロファイル群記憶部 に出力されたプロファイル情報により特定されるプロファイルを用いて属性情報 d 1 1 1から特定されるプロファイルを生成するための合成度が出力される。 その他、 表示用画像処理装置の各部の動作は、 属性情報 d 1 1 1がコンテンツ 情報を含む場合と同様であるため説明を省略する。
( 4— 5— 2 )
本発明により、 上記実施形態で記載した効果と同様の効果が得られる。 以下、 本変形例に特徴的な効果を記載する。
プロフアイル属性情報に応じて適切なプロフアイルを用いた画像処理を行うこ とが可能となる。 例えば、 撮影側で推奨されるプロファイルを用いた画像処理を 行うことが可能となる。 さらに、 撮影側の表示部で確認された画像に近い表示を 行うことが可能となる。 このため、 制作側の意図を考慮して画像処理を行うこと が可能となる。
なお、 プロファイル属性情報は、 上記実施形態と同様に、 入力部 7 2 5から C P U 7 2 4を介して入力されるものであってもよい。 この場合、 ユーザにとって の主観的な画質をより向上させることが可能となる。
撮影側での画像処理の内容や画像処理の有無を判断できるため、 撮影側と表示 側で重複した画像処理、 相殺する画像処理を行うことが防止可能となる。 さらに 、 画像処理の有無だけでなく、 画像処理の程度をプロファイル属性情報として含 めることも可能である。 この場合、 撮影側と表示側で同じ処理を分担することが 可能となる。 例えば、 撮影側で 5 0 %の画像処理を行い、 表示側で 5 0 %の画像 処理を行う、 といった処理が可能となる。
撮影側で使用したプロフアイルに関する情報から、 撮影側での画像処理前の画 像を再生することが可能となる。
プロファイル属性情報として、 タグ情報やパラメータ情報を含める場合には、 少ない情報でプロファイルに関する情報を付加することが可能となる。
( 4 - 5 - 3 )
入力信号 d 1 1 0が属性情報 d 1 1 1 としてプロファイル属性情報を含む場合 の変形例について記載する。
図 2 0は、 図 1 3 示す表示用画像処理装置 7 5 9の変形例としての表示用画 像処理装置 7 6 5の構成を示すブロック図である。
図 2 0に示す表示用画像処理装置 7 6 5は、 属性検出部 7 6 0 (図 1 3参照) の変形例としての属性検出部 7 6 1を備える点に特徴を有している。 属性検出部 7 6 1は、 入力信号 d l 1 0が含むプロファイル属性情報 (以下、 入力プロファ ィル属性情報) を検出し、 検出した入力プロファイル属性情報を画像処理装置 7 5 8に適したプロファイル属性情報 (以下、 好適プロファイル属性情報) に変換 することができるものであり、 プロファイル情報検出部 7 6 2と、 プロファイル 情報変換部ァ 6 4とから構成されている。 なお、 表示用画像処理装置 7 6 5にお いて、 表示用画像処理装置 7 5 9と同様の動作を行う部分には、 同じ符号を付し て説明を省略する。
プロファイル情報検出部 7 6 2は、 入力信号 d l 1 0から入力プロファイル属 性情報を検出し、 属性情報 d 1 1 1 として出力する。 詳しい動作は、 属性検出部 7 6 0 (図 1 3参照) と同様であるため、 説明を省略する。
プロファイル情報変換部 7 6 4は、 プロファイル情報検出部 7 6 2から属性情 報 d l 1 1を取得する。 さらに、 属性情報 d 1 1 1が含む入力プロファイル属性 情報を好適プロファイル属性情報に変換し、 プロファイル属性情報 d 1 1 6とし て出力する。 ここで、 変換は、 予め用意された変換テーブルを用いて行われる。 画像処理装置 7 5 8は、 プロファイル属性情報 d 1 1 6を取得し、 上記実施形 態でプロファイル属性情報を含む属性情報 d 1 1 1を取得した場合と同様の動作 により、 入力信号 d 1 1 0が含む入力画像データ d 1 1 2 (図 1 9参照) の画像 処理を行う。
変形例としての表示用画像処理装置 7 6 5では、 入力プロファイル属性情報と 好適プロファイル属性情報とのフォーマツ卜が異なる場合であっても、 入力プロ フアイル属性情報に基づいて画像処理を行うことが可能となる。
なお、 プロファイル情報変換部 7 6 4は、 入力プロファイル属性情報のフォー マツ卜の変換のみを行うものに限定されない。
例えば、 画像処理装置 7 5 8が入力プロファイル属性情報により特定される画 像処理を実現できない場合であっても、 できるだけ近い画像処理を実現する好適 プロファイル属性情報に変換して画像処理を行うことが可能となる。
また、 入力プロファイル属性情報が入力信号 d 1 1 0の入力画像データ d 1 1 2に既に行われている画像処理の処理度合いなどを含む場合には、 その処理度合 いに応じて入力プロファイル属性情報の変換を行い、 画像処理装置 7 5 8におけ る画像処理の処理度合いを変化させることなどが可能となる。 これによれば、 入 力信号 d 1 1 0を作成する撮影側と表示側とで画像処理を分担することが可能と なる。 また、 既に行われている画像処理に重複した画像処理、 あるいは、 既に行 われている画像処理を相殺する画像処理を行うことが防止される。
[第 7実施形態]
図 2 1〜図 3 1を用いて、 本発明の第 7実施形態としての撮影装置 8 2 0につ いて説明する。
図 2 1に示す撮影装置 8 2 0は、 画像の撮影を行うスチ ルカメラ、 ビデオ力 メラなど、 画像を撮影する撮影装置である。 撮影装置 8 2 0は、 上記実施形態で 説明した画像処理装置を含む撮影用画像処理装置 8 3 2を有する点、 自動あるい は手動によリ画像処理に用いるプロファイルを切り替えることができる点に特徴 を有している。 なお、 撮影装置 8 2 0は、 独立した装置であってもよいが、 携帯 電話機、 P D A、 P Cなどの携帯情報端末に備えられている装置であってもよい
〈撮影装置 8 2 0〉
撮影装置 8 2 0は、 撮影部 8 2 1、 撮影用画像処理装置 8 3 2、 表示部 8 3 4 、 C P U 8 4 6、 照明部 8 4 8、 入力部 8 5 0、 セキュリティ判定部 8 5 2、 コ 一デック 840、 メモリコントローラ 842、 メモリ 844、 外部インタフエ一 ス ( I /F) 854、 外部装置 856を備えている。
撮影部 821は、 画像の撮影を行い、 入力画像信号 d 362を出力する部分で あり、 レンズ 822、 絞り ■シャツタ一部 824、 CCD 826, アンプ 828 、 八/り変換部830、 CCD制御部 836、 情報検出部 838から構成されて いる。
レンズ 822は、 CCD 826上に被写体の画像を結像するためのレンズであ る。 絞り 'シャッター部 824は、 レンズ 822を通過した光束の通過範囲や通 過時間を変えて露出を制御するための機構である。 CCD 826は、 被写体の画 像を光電変換して画像信号として出力するためのイメージセンサである。 アンプ 828は、 CCD 826から出力された画像信号を増幅するための装置である。
AZD変換部 830は、 アンプ 828により増幅されたアナログ画像信号をデジ タル画像信号に変換する装置である。 CCD制御部 836は、 CCD826を駆 動するタイミングを制御する装置である。 情報検出部 838は、 デジタル画像信 号からォ一卜フォーカス、 絞り、 露出などの情報を検出し、 CPU 846に出力 する装置である。
撮影用画像処理装置 832は、 [第 6実施形態] で図 9を用いて説明した表示 用画像処理装置 723と同様の装置である。 撮影用画像処理装置 832は、 CP U 846からの制御を受け、 入力画像信号 d 362に含まれる入力信号 d 1 (図 22参照) の画像処理を行い、 出力信号 d 3 (図 22参照) を含む出力画像信号 d 361を出力する装置である。 撮影用画像処理装置 832は、 上記実施形態で 説明した画像処理装置を含み、 プロファイルを用いて画像処理を行う点に特徴を 有している。 詳細については、 後述する。
表示部 834は、 撮影用画像処理装置 832により出力された出力画像信号 d 361を、 例えばサムネイル表示する装置である。 表示部 834は、 LCDで構 成されることが多いが、 PD P、 CRT, プロジェクタなど、 画像を表示する装 置であれば特に限定しない。 なお、 表示部 834は、 撮影装置 820に内蔵され ているものだけでなく、 有線あるいは無線のネッ卜ワークなどを介して接続され ていてもよい。 また、 表示部 834は、 撮影用画像処理装置 832と CPU 84 6を介して接続されていてもよい。
C PU 846は、 撮影用画像処理装置 832、 コーデック 840、 メモリコン トローラ 842、 外部 l /F 854、 とバスラインを介して接続されており、 情 報検出部 838の検出結果、 入力部 850による入力結果、 照明部 848による 発光情報、 セキュリティ判定部 852による判定結果などを受け取るとともに、 レンズ 822、 絞リ ■シャッター部 824、 CCD制御部 836、 撮影用画像処 理装置 832、 照明部 848、 入力部 850、 セキュリティ判定部 852やバス ラインに接続された各部などの制御を実行する装置である。
照明部 848は、 被写体に照射する照明光を発光するストロボなどである。 入力部 850は、 撮影装置 820への操作をユーザに行わせるためのユーザィ ンタフエースであり、 各部の制御をするためのキー、 つまみ、 リモコンなどであ る。
セキュリティ判定部 852は、 外部から取得されるセキュリティ情報を判定し て、 C P U 846を介して撮影用画像処理装置 832の制御を行う部分である。
コーデック 840は、 撮影用画像処理装置 832からの出力画像信号 d 361 を J P EGあるいは MP EGなどによリ圧縮処理する圧縮回路である。
メモリコントローラ 842は、 DRAMなどで構成される CPUのメモリ 84 4のァドレスやアクセスタイミングなどの制御を行う。
メモリ 844は、 DRAMなどで構成され、 画像処理などの際に作業用メモリ として用いられる。
外部 I /F 854は、 メモリカード 859、 P C 861などの外部装置 856 に出力画像信号 d 361、 あるいはコーデック 840で圧縮処理された出力画像 信号 d 361を出力するためのインタフェースである。 また、 外部 I ZF 854 は、 画像処理を行うためのプロファイルに関する情報であるプロファイル情報な どを取得するとともに、 取得したプロファイル情報など含む入力画像信号 d 36 2を撮影用画像処理装置 832に対して出力するためのインタフ: L—スである。 プロファイル情報は、 [第 6実施形態] で説明したのと同様である。 外部 I ZF 854は、 例えば、 メモリカード I / F 858、 P C I F.860、 ネットヮ一 ク l /F862、 無線 I /F 864などにより構成される。 なお、 外部 I Z F 8 5 4は、 ここに例示したものの全てを備えている必要は無い。
メモリカード I Z F 8 5 8は、 画像データやプロファイル情報などを記録する メモリカード 8 5 9と撮影装置 8 2 0とを接続するためのインタフェースである 。 P C I / F 8 6 0は、 画像データやプロファイル情報などを記録するパ一ソナ ルコンピュータなどの外部機器である P C 8 6 1 と撮影装置 8 2 0とを接続する ためのインタフェースである。 ネッ卜ワーク I Z F 8 6 2は、 撮影装置 8 2 0を ネットワークに接続し、 画像データやプロファイル情報などを送受信するための インタフェースである。 無線 I / F 8 6 4は、 撮影装置 8 2 0を無線 L A Nなど を介して外部機器と接続し、 画像データやプロフアイル情報などを送受信するた めのインタフェースである。 なお、 外部 I / F 8 5 4は、 図示したものに限られ ず、 例えば、 U S B、 光ファイバ一などと撮影装置 8 2 0とを接続するためのィ ンタフエースであってもよい。
〈撮影用画像処理装置 8 3 2〉
図 2 2に、 撮影用画像処理装置 8 3 2の構成を示す。 撮影用画像処理装置 8 3 2は、 表示用画像処理装置 7 2 3と同様の構成を有している。 図 2 2では、 表示 用画像処理装置 7 2 3と同じ機能を有する部分に同じ符号を付している。
撮影用画像処理装置 8 3 2は、 図 1を用いて説明した画像処理装置 1 0とほぼ 同様の構成を有する画像処理装置 7 5 0と、 環境検出部 7 5 4とを備えている。 各部の動作は、 [第 6実施形態] で説明したため、 詳しい説明を省略する。 なお、 [第 6実施形態] では、 環境情報 d 1 0 4または環境情報 d 1 0 5が含 む環境情報は、 「画像処理された画像データが表示され、 視覚される環境に関す る情報である」 、 と記載したが、 これは、 撮影が行われる環境に関する情報であ つてもよい。 撮影が行われる環境とは、 例えば、 撮影環境の環境光の色温度、 照 度、 光源の種類、 被写体までの距離などといった情報である。
〈撮影装置 8 2 0の効果〉
撮影装置 8 2 0は、 [第 6実施形態] で説明した表示用画像処理装置 7 2 3 ( 図 9参照) と同様の撮影用画像処理装置 8 3 2を備えている。 このため、 表示用 画像処理装置 7 2 3を備える表示装置 7 2 0 (図 8参照) と同様の効果を奏する ことが可能である。 ( 1 )
撮影装置 8 2 0では、 画像処理装置 1 0 (図 1参照) とほぼ同様の構成を有す る画像処理装置 7 5 0を備えている。 このため、 上記実施形態で説明した画像処 理装置 1 0と同様の効果が得られる。
特に、 撮影装置 8 2 0では、 新たにプロファイルを生成することが可能である 。 このため、 あらかじめ多くのプロファイルを記憶しておく必要が無く、 プロフ アイルの記憶容量を削減することが可能である。 さらに、 プロファイルの生成で は、 合成度を変更することにより、 プロファイルが実現する画像処理の微妙な調 整が可能となる。
また、 撮影装置 8 2 0では、 複数のプロファイルを用いて新たにプロファイル を生成する。 このため、 1つのプロファイルを用いる場合に比して、 プロフアイ ル生成の自由度が向上する。 すなわち、 より複雑な画像処理を実現するプロファ ィルを生成することが可能となる。
また、 撮影装置 8 2 0では、 生成したプロファイルを用いた画像処理が行われ る。 プロファイルの生成は画像処理の前にあらかじめ行っておくことが可能であ る。 このため、 プロファイルが実現する画像処理が複雑であっても、 画像処理の 処理速度には影響しない。 すなわち、 複雑な処理をより高速に行うことが可能と なる。 このことは、 生成したプロファイルにより実現される画像処理がより多く の画像のパラメータを調整する場合に、 より顕著となる。
( 2 )
撮影装置 8 2 0では、 環境検出部 7 5 4により検出された環境情報に応じてプ 口ファイルの選択や合成度の変更などが行われる。 このため、 環境情報に応じて 適切な画像処理が実現され、 視覚効果がよリ向上される。
図 2 3を用いて、 環境情報と色処理部 1 3 (図 1参照) で用いられるプロファ ィルとの関係について説明し、 撮影装置 8 2 0のより具体的な効果を説明する。 図 2 3は、 環境情報に基づいて選択されたプロファイル z 1およびプロファイル z 2と制御信号 G 2が指定する合成度とに基づいて生成されるプロファイル z k を示している。 プロファイル z kは、 制御信号 G 2が指定する合成度の値に応じ て生成されている。 例えば、 撮影装置 8 2 0の撮影環境における環境光の色温度が取得できる場合 、 基本プロファイル群記憶部 1 2では、 低色温度 (3 0 0 0 K ) 用のプロフアイ ル z 1 と高色温度 (5 5 0 0 K ) 用のプロファイル z 2とが選択される。 よリ具 体的には、 色処理として肌色の記憶色補正を行う場合、 低色温度 (3 0 0 0 K ) 用のプロファイル z 1 として選択されるプロファイルは、 高色温度 (5 5 0 0 K ) 用のプロファイル z 2に比べて、 色調整範囲が赤方向に広めに設定され、 かつ 、 無彩色方向へのゲインが大きく設定されたプロファイルである。
さらに、 環境情報から取得される色温度に応じて、 制御部 1 4から制御信号 G 2が出力される。 色処理部 1 3では、 プロファイル z 1とプロファイル z 2と制 御信号 c 2が含む合成度とに基づいて、 新たなプロファイル Z kが生成され、 生 成されたプロファイル z kを用いて色処理が行われる。
この場合、 色温度に基づいて合成度が指定され、 好適なプロファイルが生成さ れる。 このため、 記憶色補正がより適切に行われる。
なお、 図 2 3の説明では、 プロファイルが 2つ選択されると説明したが、 複数 選択されてもよい。 この場合、 さらに画質が向上する。
( 3 )
撮影装置 8 2 0は、 表示部 8 3 4を備え、 画像処理された画像を確認しつつ撮 影を行うことが可能である。 このため、 撮影時の画像の印象と、 撮影された画像 を表示した時の印象とを近づけることが可能となる。
( 4 )
情報設定部 7 5 2は、 視覚処理部 1 1と色処理部 1 3とにおいて用いられるプ 口ファイルをそれぞれ指定する。 このため、 視覚処理部 1 1と色処理部 1 3とに おける画像処理がそれぞれ重複する処理となることや相殺する処理となることを 防止することが可能となる。
〈変形例〉
撮影装置 8 2 0では、 上記実施形態において表示用画像処理装置 7 2 3に関し て記載したのと同様の変形が可能である。 以下、 撮影装置 8 2 0に特徴的な変形 例を記載する。
( 1 ) 上記実施形態で説明した撮影装置 8 2 0の各部において、 同様の機能を実現す る部分は、 共通のハードウエアで実現されていてもよい。
入力部 8 5 0 (図 2 1参照) は、 環境検出部 7 5 4 (図 2 2参照) として環境 情報を入力させる装置であってもよい。 この場合、 入力部 8 5 0から入力された 環境情報は、 C P U 8 4 6 (図 2 1参照) を介して環境情報 d 1 0 5として撮影 用画像処理装置 8 3 2に入力される。
視覚処理部 1 1 (図 9参照) においてプロファイルが記憶されている記憶部や 基本プロファイル群記憶部 1 2 (図 9参照) は、 撮影用画像処理装置 8 3 2の外 部に備えられる物であってもよく、 例えば、 メモリ 8 4 4や外部装置 8 5 6によ リ実現されていてもよい。 また、 視覚処理部 1 1においてプロファイルが記憶さ れている記憶部や基本プロファイル群記憶部 1 2は、 同じ装置により実現されて いてもよい。
また、 視覚処理部 1 1においてプロファイルが記憶されている記憶部や基本プ 口ファイル群記憶部 1 2に記憶されるプロファイルは、 予め各部に記憶されてい るものであってもよいし、 外部装置 8 5 6から取得されるものであってもよい。 また、 画像処理装置 7 5 0の制御部 1 4や情報設定部 7 5 2の機能は、 C P U 8 4 6によリ実現されていてもよい。
( 2 )
撮影用画像処理装置 8 3 2では、 環境検出部 7 5 4に変えて、 ユーザに入力を 行わせるユーザ入力部を備えていてもよい。
図 2 4に撮影用画像処理装置 8 3 2の変形例としての撮影用画像処理装置 8 7 5の構成を示す。 撮影用画像処理装置 8 7 5は、 ユーザに入力を行わせるユーザ 入力部 8 7 7を備えている点に特徴を有している。 撮影用画像処理装置 8 7 5に おいて、 撮影用画像処理装置 8 3 2とほぼ同様の機能を果たす部分には同じ符号 を付して説明を省略する。
ユーザ入力部 8 7 7は、 ユーザの嗜好する画像処理を入力させ、 入力された情 報を画像処理装置 7 5 0の情報設定部 7 5 2 (図 9参照) に対して、 入力情報 d 1 0 8として出力する。
ユーザ入力部 8 7 7は、 例えば、 ユーザの嗜好する明るさを入力させる明るさ 入力部と、 ユーザの嗜好する画質を入力させる画質入力部とから構成されている 明るさ入力部は、 例えば、 撮影される画像中の光の状態を入力するスィッチ、 画像が撮影される環境の光の状態を入力するスィッチなどから構成されている。 撮影される画像中の光の状態を入力するスィッチは、 例えば、 画像中の逆光 '順 光や、 撮影時のストロボの有無や、 撮影時に用いられたマクロプログラムの状態 などを入力するためのスィッチである。 ここで、 マクロプログラムとは、 撮影装 置を被写体の状態に応じて制御するためのプログラムである。 画像が撮影される 環境の光の状態を入力するスィッチは、 例えば、 環境光の明るさ、 色温度などを 入力するためのスィッチである。
画質入力部は、 ユーザの画質の好みを入力するためのスィッチであり、 例えば 、 デフォルト■ダイナミック ·クラシックなどといった異なる視覚効果を入力す るスィツチである。
ユーザ入力部 8 7 7は、 明るさ入力部と画質入力部とから入力された情報を入 力情報 d 1 0 8として出力する。
画像処理装置 7 5 0では、 環境情報 d l 0 4 (図 2 2参照) が入力される場合 とほぼ同様の動作が行われる。 環境情報 d 1 0 4が入力される場合との相違点は 、 情報設定部 7 5 2が入力情報 d 1 0 8とプロファイルとを関連づけるデータべ —スを参照し、 プロファイル情報 d 1 0 1 ~ d 1 0 3を出力する点である。 本変形例の撮影用画像処理装置 8 7 5では、 ユーザの入力に応じて画像処理に 用いられるプロファイルを選択し、 画像処理を行うことが可能となる。 このため 、 ユーザの嗜好に応じた画像処理を行うことが可能となる。
なお、 入力部 8 5 0 (図 2 1参照) は、 ユーザ入力部 8 7 7と同様に動作し、 C P U 8 4 6を介してユーザの嗜好する画像処理を入力させるものであってもよ し、。 この場合、 環境情報 d 1 0 5は、 入力情報 d 1 0 8と同様の情報を含むこと となる。
( 3 )
《3— 1》
撮影装置 8 2 0において、 撮影用画像処理装置 8 3 2は、 セキュリティ情報を 取得し、 セキュリティ情報に応じて画像処理に用いるプロファイルを切り替える 装置であってもよい。 ここで、 セキュリティ情報とは、 撮影装置 8 2 0の撮影環 境において撮影が許可されているか否か、 あるいはその許可の程度を表す情報で ある。
図 2 5に、 撮影用画像処理装置 8 3 2の変形例としての撮影用画像処理装置 8
7 0を示す。 撮影用画像処理装置 8 7 0は、 入力信号 d 1の画像処理を行い、 出 力信号 d 3を出力する点において、 撮影用画像処理装置 8 3 2と同様である。 撮 影用画像処理装置 8 7 0と撮影用画像処理装置 8 3 2との相違点は、 撮影用画像 処理装置 8 7 0が撮影環境におけるセキュリティ情報を取得するセキュリティ情 報入力部 8 7 2を備える点である。 その他、 撮影用画像処理装置 8 3 2と共通す る部分については、 同じ符号を付し、 説明を省略する。
セキュリティ情報入力部 8 7 2は、 例えば、 ユーザに直接セキュリティ情報を 入力させる入力装置、 無線、 赤外線あるいは有線によりセキュリティ情報を取得 する受信装置などにより主に構成されている。 さらに、 セキュリティ情報入力部 8 7 2は、 取得したセキュリティ情報をセキュリティ情報 d 1 3 0として出力す る。
画像処理装置 7 5 0の情報設定部 7 5 2 (図 9参照) では、 セキュリティ情報 d 1 3 0が示す撮影許可の程度が高いほど、 より高画質な撮影が行えるようなプ 口ファイルを特定し、 撮影許可の程度が低いほど、 より低画質な撮影しか行えな いようなプロファイルを特定する。
図 2 6を用いて撮影用画像処理装置 8 7 0の動作についてさらに詳しく説明す る。
図 2 6は、 撮影が制御される撮影制御領域 8 8 0における、 撮影用画像処理装 置 8 7 0を備える撮影装置 8 2 0の動作について説明するための説明図である。 撮影制御領域 8 8 0には、 撮影が禁止される撮影禁止物 8 8 3が配置されてい る。 撮影禁止物 8 8 3とは、 例えば、 人物、 書物など、 肖像権や著作権などの対 象となるものなどである。 撮影制御領域 8 8 0には、 セキュリティ情報発信装置
8 8 1が設置されている。 セキュリティ情報発信装置 8 8 1は、 無線、 赤外線な どによりセキュリティ情報を発信する。 撮影制御領域 8 8 0内の撮影装置 8 2 0は、 セキュリティ情報入力部 8 7 2 ( 図 2 5参照) によりセキュリティ情報を受信する。 セキュリティ情報入力部 8 7 2は、 受信したセキュリティ情報をセキュリティ情報 d 1 3 0として出力する。 画像処理装置 7 5 0の情報設定部 7 5 2 (図 9参照) は、 セキュリティ情報 d l 3 0の値とプロフティルとの関連づけを記憶するデータベースなどを参照し、 撮 影許可の程度の値に応じたプロファイルを特定するためのプロファイル情報 d 1 0 1 ~ d 1 0 3を出力する。 例えば、 データベースでは、 より高い撮影許可の程 度の値に対して、 より高画質な撮影が行えるプロフアイルが関連づけられている より詳しくは、 例えば、 撮影装置 8 2 0がセキュリティ情報発信装置 8 8 1か ら撮影許可の程度が低いセキュリティ情報を受信した場合、 画像処理装置 7 5 0 では、 画像中心付近や画像の主要な領域を平滑化する (あるいは階調を落とす) ようなプロファイルを用いた画像処理が行われる。 また、 画像処理装置 7 5 0で は、 画像を無彩色化するようなプロファイルを用いた画像処理が行われる。 これ により、 適切な画質で撮影を行うことができなくなり、 肖像権や著作権などの権 利を保護することが可能となる。
《3— 2》 その他
( 1 )
セキュリティ情報入力部 8 7 2がセキュリティ情報を受信した場合、 撮影用画 像処理装置 8 7 0は、 セキュリティ情報 d 1 3 0に応じてプロファイルを切リ替 えるだけでなく、 撮影用画像処理装置 8 7 0あるいは撮影装置 8 2 0の一部の機 能を停止させてもよい。
( 2 )
画像処理装置 7 5 0では、 セキュリティ情報入力部 8 7 2からセキュリティ情 報を受信し、 さらに、 撮影装置 8 2 0の入力部 8 5 0などからユーザの認証情報 d 1 3 1を取得した場合、 撮影許可されたユーザであれば、 撮影許可の程度を緩 和するようなプロファイルを用いて画像処理を行ってもよい。
ユーザの認証情報は、 例えば、 ユーザの指紋 '眼紋などによる認証情報である 。 この認証情報を取得した画像処理装置 7 5 0は、 撮影許可されたユーザのデー タベースを参照し、 認証されたユーザが撮影許可されたユーザであるか否かを判 断する。 また、 この際、 ユーザの課金情報などにより撮影許可の程度も判断し、 その程度が高いほど、 よリ高画質な撮影を行えるようにしてもよい。
なお、 セキュリティ情報は、 撮影許可された撮影装置 8 2 0を特定するための 情報を通知するものであってもよい。
( 3 )
セキュリティ情報入力部 8 7 2は、 セキュリティ判定部 8 5 2 (図 2 1参照) と兼用されていてもよい。
( 4 )
上記実施形態では、 「撮影用画像処理装置 8 3 2は、 画像処理した出力信号 d 3を含む出力画像信号 d 3 6 1を出力する J 、 と説明した。
ここで、 撮影用画像処理装置 8 3 2は、 出力画像信号 d 3 6 1 と入力信号 d 1 とを出力することができる装置であってもよい。 例えば、 撮影用画像処理装置 8 3 2は、 表示部 8 3 4には、 出力画像信号 d 3 6 1を出力し、 コーデック 8 4 0 あるいは外部装置 8 5 6 (図 2 1参照) には、 入力信号 d 1を出力する。
この場合、 撮影装置 8 2 0の表示部 8 3 4では、 撮影環境に応じた表示を行う ことが可能となる。 例えば、 環境光の元でコントラストや彩度を高めた画像を表 示することが可能となる。 また、 コーデック 8 4 0や外部装置 8 5 6には、 撮影 した画像そのものを記録したリ送信したりすることが可能となる。
( 5 )
撮影用画像処理装置 8 3 2は、 複数の画像処理装置を備えるものであってもよ い。
図 2 7に 2つの画像処理装置を備える撮影用画像処理装置 8 8 4の構成を示す 撮影用画像処理装置 8 8 4は、 入力信号 d 1の画像処理を行う 2つの画像処理 装置 8 8 5と画像処理装置 8 8 6とを備えている。 さらに、 それぞれの画像処理 装置に対して、 環境情報を出力する環境検出部 8 8 7を備えている。
画像処理装置 8 8 5と画像処理装置 8 8 6とは、 上記実施形態で説明した画像 処理装置 7 5 0 (図 2 2参照) と同様の動作を行う。 環境検出部 8 8 7は、 上記 実施形態で説明した環境検出部 7 5 4 (図 2 2參照) と同様の動作を行う。 環境 検出部 8 8 7は、 それぞれの画像処理装置に対して、 環境情報 d 1 3 4, d 1 3 5を出力する。
画像処理装置 8 8 5は、 環境情報 d 1 3 4を取得し、 入力信号 d 1に画像処理 を行い、 出力信号 d 3を表示部 8 3 4に出力する。 画像処理装置 8 8 6は、 環境 情報 d 1 3 5を取得し、 入力信号 d 1に画像処理を行い、 出力信号 d 1 3 7を出 力する。
これにより、 撮影用画像処理装置 8 8 4では、 表示部 8 3 4と外部装置 8 5 6 などとに対して、 それぞれ異なる画像処理を行った信号を出力することが可能と なる。 このため、 例えば、 表示サイズの小さい表示部 8 3 4に対しては、 コント ラストや彩度を上げた画像を表示させ、 外部装置 8 5 6などに対しては、 大きな 表示サイズの画面で視覚されることを考慮した画像を出力することが可能となる なお、 双方の画像処理装置 8 8 5, 8 8 6および環境検出部 8 8 7に対して、 入力部 8 5 0 (図 2 1参照) から環境情報 d 1 0 5を入力し、 画像処理に用いる プロファイルを選択させてもよい。
( 6 )
撮影用画像処理装置 8 3 2は、 画像処理された出力信号 d 3に対してプロファ ィル情報を付加して出力する装置であってもよい。
図 2 8に撮影用画像処理装置 8 3 2の変形例としての撮影用画像処理装置 8 9 0を示す。
撮影用画像処理装置 8 9 0は、 入力信号 d 1を画像処理し出力信号 d 3を出力 する画像処理装置 8 9 1 と、 出力信号 d 3の画像処理を行う際に推奨されるプロ ファイルの情報である推奨プロファイル情報 d 1 4 0を出力する推奨プロフアイ ル情報生成部 8 9 4と、 出力信号 d 3に推奨プロファイル情報 d 1 4 0を付加し 出力画像信号 d 3 6 1を出力するプロファイル情報付加部 8 9 2とを備えている 画像処理装置 8 9 1は、 上記実施形態で説明した画像処理装置 1 0や画像処理 装置 7 5 0などと同様の構成を有しており、 入力信号 d 1に対して画像処理を行 い出力信号 d 3を出力する装置である。
推奨プロフアイル情報生成部 8 9 4は、 自動あるいは手動により出力信号 d 3 に付加する推奨プロファイル情報 d 1 4 0を生成する。 具体的には、 推奨プロフ アイル情報生成部 8 9 4は、 上記実施形態で説明した環境情報をセンサなどによ リ取得し、 環境情報とプロファイルとを関連付けるデータベースを参照すること によリ環境情報に好適なプロファイルのプロフアイル情報を推奨プロファイル情 報 d 1 4 0として出力する。 ここで、 プロファイル情報とは、 上記実施形態で説 明したのと同様である。 また、 推奨プロファイル情報生成部 8 9 4は、 好適なプ 口ファイルをユーザに入力させ、 入力されたプロファイルのプロファイル情報を 推奨プロファイル情報 d 1 4 0として出力させてもよい。
プロファイル情報付加部 8 9 2は、 出力信号 d 3に対して推奨プロファイル情 報 d 1 4 0を付加し、 出力画像信号 d 3 6 1として出力する。
図 2 9に、 プロファイル情報付加部 8 9 2が推奨プロファイル情報 d 1 4 0を 付加した出力画像信号 d 3 6 1のフォーマツ卜例を示す。
図 2 9 ( a ) では、 出力画像信号 d 3 6 1の先頭部に推奨プロファイル情報 d 1 4 0が配置されており、 それに続いて出力信号 d 3が配置されている。 このよ うなフォーマツトでは、 先頭部の推奨プロファイル情報 d 1 4 0を用いて、 全て の出力信号 d 3の画像処理が行うことが可能となる。 また、 推奨プロファイル情 報 d 1 4 0は、 出力画像信号 d 3 6 1中において一箇所だけ配置されていればよ く、 出力画像信号 d 3 6 1に占める推奨プロファイル情報 d l 4 0の割合を削減 することが可能となる。
図 2 9 ( b ) では、 複数に分割された出力信号 d 3のそれぞれに対して、 推奨 プロファイル情報 d 1 4 0が配置されている。 このようなフォーマツトでは、 分 割された出力信号 d 3のそれぞれの画像処理において、 異なるプロファイルが用 いられる。 このため、 例えば、 出力信号 d 3のシーン毎に異なるプロファイルを 用いた画像処理を行うことが可能となり、 より画像処理を適切に行うことが可能 となる。 また、 連続的に変化するような一連のシーンの場合、 まず先頭シーンに シーン属性情報を付加して、 続く複数のシーンには先頭シーンからの明るさの変 動情報や対象の変動情報のみをシーン属性情報として付加することで、 動画像の 画像処理におけるちらつきや画質の急激な変化を抑えることができる。
なお、 推奨プロファイル情報 d 1 4 0は、 出力信号 d 3の画像処理に用いられ るプロファイルを特定する情報であればどのような形式の情報であってもよく、 例えば、 データベースに管理されたプロファイル情報と出力信号 d 3とを関連づ ける情報であってもよい。
( 7 )
撮影用画像処理装置 8 3 2は、 入力信号 d 1に対してプロファイル情報を付加 して出力する装置であってもよい。
図 3 0に撮影用画像処理装置 8 3 2の変形例としての撮影用画像処理装置 8 9 6を示す。
撮影用画像処理装置 8 9 6は、 画像処理装置 8 9 7と、 ユーザ入力部 8 9 8と 、 推奨プロファイル情報生成部 8 9 9と、 プロファイル情報付加部 9 0 0とを備 えている。
画像処理装置 8 9 7およびユーザ入力部 8 9 8は、 図 2 4を用いて説明した画 像処理装置 7 5 0とユーザ入力部 8 7 7と同様に動作する。 さらに、 ユーザ入力 部 8 9 8は、 ユーザの設定した情報を入力情報 d 1 4 2として推奨プロファイル 情報生成部 8 9 9に出力する。
推奨プロファイル情報生成部 8 9 9は、 入力情報 d 1 4 2とプロファイルとを 関連づけるデータベースを参照し、 推奨プロファイル情報 d l 4 4を出力する。 プロファイル情報付加部 9 0 0は、 入力信号 d 1に対して推奨プロファイル情 報 d 1 4 4を付加し、 出力画像信号 d 3 6 1を出力する。 ここで、 推奨プロファ ィル情報 d 1 4 4は、 図 2 9を用いて説明したのと同様のフォーマツトにより付 加される。 すなわち、 図 2 9において、 推奨プロファイル情報 d l 4 0が配置さ れている位置に推奨プロファイル情報 d 1 4 4が配置され、 出力信号 d 3が配置 されている位置に入力信号 d 1が配置される。
これにより、 表示サイズの小さい表示部 8 3 4では、 コントラストや彩度を上 げた画像を表示して撮影中の画像を確認しつつ、 外部装置 8 5 6などには、 大き な表示サイズの画面で視覚されることを考慮したプロフアイル情報を付加した出 力を行うことが可能となる。 なお、 画像処理装置 8 9 7、 推奨プロファイル情報生成部 8 9 9、 プロフアイ ル情報付加部 9 0 0には、 ユーザ入力部 8 9 8に変えてあるいは加えて、 C P U 8 4 6を介して入力部 8 5 0 (図 2 1参照) から入力が行われてもよい。
( 8 )
出力信号 d 3に付加される推奨プロファイル情報は、 画像処理装置での画像処 理の実施情報に応じて生成されるものであってもよい。
図 3 1に撮影用画像処理装置 8 3 2の変形例としての撮影用画像処理装置 9 0 5を示す。
撮影用画像処理装置 9 0 5は、.画像処理装置 9 0 6と、 推奨プロファイル情報 生成部 9 0 7と、 プロファイル情報付加部 9 0 8とを備えている。
画像処理装置 9 0 6は、 入力信号 d 1に画像処理し出力信号 d 3を出力する装 置であり、 図 1に示す画像処理装置 1 0とほぼ同様の構成を有している。 画像処 理装置 1 0との相違点は、 視覚処理部 1 1、 制御部 1 4、 基本プロファイル群記 憶部 1 2が、 それぞれの動作に応じてプロファイル情報を推奨プロファイル情報 生成部 9 0 7に出力する点である。 例えば、 視覚処理部 1 1は、 視覚処理に用い たプロフアイルに関する情報や視覚処理の処理度合いなどをプロフアイル情報 d
1 4 8として出力する。 制御部 1 4は、 視覚処理部 1 1や色処理部 1 3で用いら れたプロファイルの合成度などをプロファイル情報 d 1 4 9として出力する。 基 本プロファイル群記憶部 1 2は、 色処理部 1 3の色処理で用いられたプロフアイ ルに関する情報や色処理部 1 3の色処理の処理度合いなどをプロファイル情報 d
1 5 0として出力する。
推奨プロファイル情報生成部 9 0 7は、 プロファイル情報 d 1 4 8 ~ d 1 5 0 を取得し、 推奨プロファイル情報 d 1 4 6として出力する。
プロファイル情報付加部 9 0 8は、 出力信号 d 3に対して推奨プロファイル情 報 d 1 4 6を付加し、 出力画像信号 d 3 6 1を出力する。 ここで、 推奨プロファ ィル情報 d 1 4 6は、 図 2 9を用いて説明したのと同様のフォーマツ卜により付 加される。 すなわち、 図 2 9において、 推奨プロファイル情報 d l 4 0が配置さ れている位置に推奨プロファイル情報 d 1 4 6が配置される。
撮影用画像処理装置 9 0 5により、 表示側では、 撮影側での画像処理の内容や 画像処理の有無を判断できる。 このため、 撮影側と表示側で重複した画像処理、 相殺する画像処理を行うことが防止可能となる。
さらに、 画像処理の有無だけでなく、 画像処理の程度を推奨プロファイル情報 d 1 4 6として含めることも可能である。 これにより、 撮影側と表示側で同じ処 理を分担することが可能となる。 例えば、 撮影側で 5 0 %の画像処理を行い、 表 示側で 5 0 %の画像処理を行う、 といった処理が可能となる。
撮影側で使用したプロファイルに関する情報から、 撮影側での画像処理前の画 像を再生することが可能となる。 このため、 表示側においてより高性能な画像処 理が行える場合に、 撮影側で行った画像処理をはずし、 表示側において再度画像 処理を行うことが可能となる。 この結果、 ユーザは、 より高画質の画像を享受す ることが可能となる。
推奨プロファイル情報 d l 4 6として、 タグ情報やパラメータ情報を含める場 合には、 少ない情報でプロファイルに関する情報を付加することが可能となる。
[第 8実施形態]
( 1 )
上記実施形態において、 視覚処理部、 プロファイル作成実行部、 制御部あるい は色処理実行部などは、 ソフトウェアにより実現されていてもハードウェアによ リ実現されていてもよい。 ソフトウェアにより実現されている場合、 そのプログ ラムは、 コンピュータ、 デジタルカメラ、 携帯電話、 P D A、 デジタルテレビな ど、 画像を取り扱う機器に内蔵、 あるいは接続される装置において、 ハードディ スク、 R A M、 R O M, メモリカードなどの記憶装置に記憶され、 画像の色処理 を実行するプログラムであり、 例えば、 C D— R O Mなどの記録媒体を介して、 あるいはネッ卜ワークを介して提供されてもよい。
また、 上記視覚処理部、 プロファイル作成実行部、 制御部あるいは色処理実行 部などを L S Iの内部に持たせてもよい。 L S Iの内部に持たせることで、 異な る処理は基本プロファイルで提供されるため、 異なる処理を実現する毎に L S I 設計する必要がなくなる。
より詳しくは、 上記実施形態の各機能ブロックは、 個別に 1チップ化されても よいし、 一部又は全てを含むように 1チップ化されてもよい。 なお、 ここでは、 LS I としたが、 集積度の違いにより、 I C、 システム LS し スーパー LS I 、 ウルトラ L S 1 と呼称されることもある。
また、 集積回路化の手法は LS Iに限るものではなく、 専用回路又は汎用プロ セサで実現してもよい。 LS I製造後に、 プログラムすることが可能な F PGA (Field Programmable Gate Array) や、 L S I内部の回路セルの接続や設定を 再構成可能なリコンフィギユラブル■プロセッサ一を利用してもよい。
さらには、 半導体技術の進歩又は派生する別技術により LS Iに置き換わる集 積回路化の技術が登場すれば、 当然、 その技術を用いて機能ブロックの集積化を 行ってもよい。 バイオ技術の適応等が可能性としてあり得る。
(2)
上記実施形態において、 入力信号 d 1、 画像信号 d 2は、 静止画であっても動 画であってもかまわない。
(3)
上記実施形態において、 画像信号値は、 R, G, Bの 3原色を用いた色空間の 座標として表されるとしたが、 本発明の効果は、 この色空間のデータを用いた場 合に限定されるものではない。 例えば、 CMY系の色空間であってもよいし、 L a b系の色空間であってもよい。
また、 本発明の効果は、 3次元の色空間を取り扱う色処理以外にも有効である 。 すなわち、 本発明の効果は、 取り扱う色空間の次元に依存しない。
(4)
上記実施形態の全体の効果として、 表示色変換処理、 色域変換処理、 記憶色補 正処理等と呼ばれるそれぞれの処理において、 処理度合いを任意に調整すること が可能となる。 例えば、 色処理された画像信号を出力する出力デバイスの環境に 対応して色処理を行うことが可能となる。 より具体的には、 色処理された画像信 号を周囲の環境光に応じてモニタ表示させること、 あるいは色処理された画像信 号を紙質に応じてプリンタによリプリントアウトさせることなどが可能となる。 また、 表示色変換処理、 記憶色補正処理などにおいては、 観者それぞれの好みに 応じた色処理を行うことが可能となる。
これらの効果に加えて、 上記実施形態では、 色処理の処理度合いを異ならせた 膨大な数のルックァップテーブルを有することは必要とされず、 ルックァップテ 一ブルを記憶するためのメモリなどの記憶容量を削減することが可能となる。
[第 9実施形態]
本発明の第 9実施形態として、 上記で説明した画像処理装置、 画像処理方法、 画像処理プログラムの応用例とそれを用いたシステムを図 32〜図 35を用いて 説明する。
図 32は、 コンテンツ配信サービスを実現するコンテンツ供給システム e X 1 00の全体構成を示すブロック図である。 通信サービスの提供エリアを所望の大 きさに分割し、 各セル内にそれぞれ固定無線局である基地局 e X 1 07〜e X 1 1 0が設置されている。
このコンテンツ供給システム e X 1 00は、 例えば、 インタ一ネット e X 1 0 1にインターネットサービスプロバイダ e X 1 02および電話網 e x 1 04、 お よび基地局 e X 1 07 ~ e X 1 1 0を介して、 コンピュータ e x 1 1 1、 PDA (personal digital assistant J e x 1 1 2、 カメフ e x l 1 3、 携帯電目古 e x 1 1 4、 カメラ付きの携帯電話 e x 1 1 5などの各機器が接続される。
しかし、 コンテンツ供給システム e X 1 00は図 32のような組合せに限定さ れず、 いずれかを組み合わせて接続するようにしてもよい。 また、 固定無線局で ある基地局 e X 1 07~ e x 1 1 0を介さずに、 各機器が電話網 e x 1 04に直 接接続されてもよい。
カメラ e X 1 1 3はデジタルビデオカメラ等の動画撮影が可能な機器である。 また、 携帯電話は、 PDC (Personal Digital Communications) 方式、 CDM A (Code Division Multiple Access) 方式、 W— C DM A (Wideband-Code Div ision Multiple Access) 方式、 若しくは GSM (Global System for Mobile Co mmuni cat ions) 方式の携帯電話機、 または PHS (Personal Handyphone System ) 等であり、 いずれでも構わない。
また、 ス卜リーミングサーバ e x 1 03は、 カメラ e x 1 1 3から基地局 e x 1 09、 電話網 e x 1 04を通じて接続されており、 カメラ e x 1 1 3を用いて ユーザが送信する符号化処理されたデータに基づいたライブ配信等が可能になる 。 撮影したデータの符号化処理はカメラ e X 1 1 3で行っても、 データの送信処 理をするサーバ等で行ってもよい。 また、 カメラ e x 1 1 6で撮影した動画デー タはコンピュータ e X 1 1 1を介してストリーミングサーバ e x 1 03に送信さ れてもよい。 カメラ e x 1 1 6はデジタルカメラ等の静止画、 動画が撮影可能な 機器である。 この場合、 動画データの符号化はカメラ e X 1 1 6で行ってもコン ピュータ e x 1 1 1で行ってもどちらでもよい。 また、 符号化処理はコンビユー タ e x 1 1 1やカメラ e x l 1 6が有する L S I e x 1 1 7において処理するこ とになる。 なお、 画像符号化■復号化用のソフトウェアをコンピュータ e X 1 1 1等で読み取り可能な記録媒体である何らかの蓄積メディア (CD— ROM、 フ レキシブルディスク、 ノ、一ドディスクなど) に組み込んでもよい。 さらに、 カメ ラ付きの携帯電話 e X 1 1 5で動画データを送信してもよい。 このときの動画デ ータは携帯電話 e x 1 1 5が有する LS Iで符号化処理されたデータである。 このコンテンツ供給システム e X 1 00では、 ユーザがカメラ e x 1 1 3、 力 メラ e x 1 1 6等で撮影しているコンテンツ (例えば、 音楽ライブを撮影した映 像等) を符号化処理してストリーミングサーバ e X 1 03に送信する一方で、 ス トリ一ミングサーバ e X 1 03は要求のあったクライアン卜に対して上記コンテ ンッデータをストリーム配信する。 クライアントとしては、 符号化処理されたデ 一タを復号化することが可能な、 コンピュータ e x 1 1 1、 PDAe x 1 1 2、 カメラ e x 1 1 3、 携帯電話 e x 1 1 4等がある。 このようにすることでコンテ ンッ供給システム e X 1 00は、 符号化されたデータをクライアントにおいて受 信して再生することができ、 さらにクライアントにおいてリアルタイムで受信し て復号化し、 再生することにより、 個人放送をも実現可能になるシステムである コンテンツの表示に際して、 上記実施形態で説明したが画像処理装置、 画像処 理方法、 画像処理プログラムを用いてもよい。 例えば、 コンピュータ e x 1 1 1 、 PDAe x 1 1 2、 カメラ e x 1 1 3、 携帯電話 e x 1 1 4等は、 上記実施形 態で示した画像処理装置を備え、 画像処理方法、 画像処理プログラムを実現する ものであってもよい。
また、 ストリーミングサーバ e X 1 03は、 画像処理装置に対して、 インタ一 ネット e X 1 01を介してプロファイルデータを提供するものであってもよい。 さらに、 ストリーミングサーバ e x 1 03は、 複数台存在し、 それぞれ異なるプ 口ファイルデータを提供するものであってもよい。 さらに、 ストリーミンダサ一 バ e x 1 03は、 プロファイルの作成を行うものであってもよい。 このように、 インターネット e X 1 01を介して、 画像処理装置がプロファイルを取得できる 場合、 画像処理装置は、 あらかじめ画像処理に用いるプロファイルを記憶してお く必要が無く、 画像処理装置の記憶容量を削減することも可能となる。 また、 ィ ンタ一ネッ卜 e X 1 01を介して接続される複数のサーバからプロファイルデー タを取得できるため、 異なる画像処理を実現することが可能となる。
—例として携帯電話について説明する。
図 33は、 上記実施形態の画像処理装置を備えた携帯電話 e X 1 1 5を示す図 である。 携帯電話 e X 1 1 5は、 基地局 e x 1 1 0との間で電波を送受信するた めのアンテナ e x 201、 CCDカメラ等の映像、 静止画を撮ることが可能な力 メラ部 e x 203、 カメラ部 e X 203で撮影した映像、 アンテナ e x 201で 受信した映像等が復号化されたデータを表示する液晶ディスプレイ等の表示部 e X 202、 操作キー e x 204群から構成される本体部、 音声出力をするための スピーカ等の音声出力部 e X 208、 音声入力をするためのマイク等の音声入力 部 e x 205、 撮影した動画もしくは静止画のデータ、 受信したメールのデータ 、 動画のデータもしくは静止画のデータ等、 符号化されたデータまたは復号化さ れたデータを保存するための記録メディア e X 207、 携帯電話 e x 1 1 5に記 録メディア e X 207を装着可能とするためのスロッ卜部 e x 206を有してい る。 記録メディア e X 207は SDカード等のプラスチックケース内に電気的に 書換えや消去が可能な不揮発性メモリである E E P ROM (Electrically Erasa ble and Programmable Read Only Memory) の一種であるフラッシュメモリ素子 を格納したものである。
さらに、 携帯電話 e X 1 1 5について図 34を用いて説明する。 携帯電話 e x 1 1 5は表示部 e X 202および操作キー e x 2 O 4を備えた本体部の各部を統 括的に制御するようになされた主制御部 e X 31 1に対して、 電源回路部 e x 3 1 0、 操作入力制御部 e X 304、 画像符号化部 e x 31 2、 カメラインターフ エース部 e X 303、 LCD (Liquid Crystal Display) 制御部 e x 302、 画 像復号化部 e X 3 0 9、 多重分離部 e X 3 0 8、 記録再生部 e x 3 0 7、 変復調 回路部 e X 3 0 6および音声処理部 e x 3 0 5が同期バス e x 3 1 3を介して互 いに接続されている。
電源回路部 e X 3 1 0は、 ユーザの操作により終話および電源キーがオン状態 にされると、 パッテリパックから各部に対して電力を供給することによリカメラ 付ディジタル携帯電話 e X 1 1 5を動作可能な状態に起動する。
携帯電話 e x 1 1 5は、 C P U、 R O Mおよび R A M等でなる主制御部 e X 3 1 1の制御に基づいて、 音声通話モード時に音声入力部 e X 2 0 5で集音した音 声信号を音声処理部 e X 3 0 5によってディジタル音声データに変換し、 これを 変復調回路部 e X 3 0 6でスぺクトラ厶拡散処理し、 送受信回路部 e x 3 0 1で ディジタルアナログ変換処理および周波数変換処理を施した後にアンテナ e X 2 0 1を介して送信する。 また携帯電話 e X 1 1 5は、 音声通話モード時にアンテ ナ e X 2 0 1で受信した受信信号を増幅して周波数変換処理およびアナログディ ジタル変換処理を施し、 変復調回路部 e X 3 0 6でスペク トラム逆拡散処理し、 音声処理部 e X 3 0 5によってアナログ音声信号に変換した後、 これを音声出力 部 e X 2 0 8を介して出力する。
さらに、 データ通信モード時に電子メールを送信する場合、 本体部の操作キー e X 2 0 4の操作によって入力された電子メールのテキストデータは操作入力制 御部 e X 3 0 4を介して主制御部 e x 3 1 1に送出される。 主制御部 e x 3 1 1 は、 テキス卜データを変復調回路部 e X 3 0 6でスペクトラム拡散処理し、 送受 信回路部 e X 3 0 1でディジタルアナログ変換処理および周波数変換処理を施し た後にアンテナ e X 2 0 1を介して基地局 e x 1 1 0へ送信する。
データ通信モード時に画像データを送信する場合、 カメラ部 e X 2 0 3で撮像 された画像データをカメラインターフェース部 e X 3 0 3を介して画像符号化部 e X 3 1 2に供給する。 また、 画像データを送信しない場合には、 カメラ部 e x 2 0 3で撮像した画像データをカメラインタ一フェース部 e X 3 0 3および L C D制御部 e X 3 0 2を介して表示部 e x 2 0 2に直接表示することも可能である 画像符号化部 e x 3 1 2は、 カメラ部 e X 2 0 3から供給された画像データを 圧縮符号化することにより符号化画像データに変換し、 これを多重分離部 e X 3 0 8に送出する。 また、 このとき同時に携帯電話 e X 1 1 5は、 カメラ部 e x 2 0 3で撮像中に音声入力部 e X 2 0 5で集音した音声を音声処理部 e x 3 0 5を 介してディジタルの音声データとして多重分離部 e X 3 0 8に送出する。
多重分離部 e X 3 0 8は、 画像符号化部 e x 3 1 2から供給された符号化画像 データと音声処理部 e X 3 0 5から供給された音声データとを所定の方式で多重 化し、 その結果得られる多重化データを変復調回路部 e X 3 0 6でスぺクトラム 拡散処理し、 送受信回路部 e X 3 0 1でディジタルアナログ変換処理および周波 数変換処理を施した後にアンテナ e X 2 0 1を介して送信する。
データ通信モード時にホームページ等にリンクされた動画像ファイルのデータ を受信する場合、 アンテナ e X 2 0 1を介して基地局 e x 1 1 0から受信した受 信信号を変復調回路部 e X 3 0 6でスぺク卜ラム逆拡散処理し、 その結果得られ る多重化データを多重分離部 e X 3 0 8に送出する。
また、 アンテナ e x 2 0 1を介して受信された多重化データを復号化するには 、 多重分離部 e x 3 0 8は、 多重化データを分離することにより画像データの符 号化ビットストリームと音声データの符号化ピッ卜ストリームとに分け、 同期バ ス e X 3 1 3を介して当該符号化画像データを画像復号化部 e x 3 O 9に供給す ると共に当該音声データを音声処理部 e X 3 0 5に供給する。
次に、 画像復号化部 e X 3 0 9は、 画像データの符号化ビットス卜リームを復 号することによリ再生動画像データを生成し、 これを L C D制御部 e x 3 0 2を 介して表示部 e X 2 0 2に供給し、 これにより、 例えばホームページにリンクさ れた動画像ファイルに含まれる動画データが表示される。 このとき同時に音声処 理部 e x 3 0 5は、 音声データをアナログ音声信号に変換した後、 これを音声出 力部 e x 2 0 8に供給し、 これにより、 例えばホームページにリンクされた動画 像フアイルに含まる音声データが再生される。
以上の構成において、 画像復号化部 e X 3 0 9は、 上記実施形態の画像処理装 置を備えていてもよい。
なお、 上記システムの例に限られず、 最近は衛星、 地上波によるディジタル放 送が話題となっておリ、 図 3 5に示すようにディジタル放送用システムにも上記 実施形態で説明した画像処理装置、 画像処理方法、 画像処理プログラムを組み込 むことができる。 具体的には、 放送局 e X 409では映像情報の符号化ビットス トリームが電波を介して通信または放送衛星 e X 41 0に伝送される。 これを受 けた放送衛星 e x 41 0は、 放送用の電波を発信し、 この電波を衛星放送受信設 備をもつ家庭のアンテナ e X 406で受信し、 テレビ (受信機) e x 401また はセットトップボックス (STB) e X 407などの装置により符号化ビットス 卜リームを復号化してこれを再生する。 ここで、 テレビ (受信機) e x 401ま たはセットトップボックス (S T B) e X 407などの装置が上記実施形態で説 明した画像処理装置を備えていてもよい。 また、 上記実施形態の画像処理方法を 用いるものであってもよい。 さらに、 画像処理プログラムを備えていてもよい。 また、 記録媒体である C Dや DVD等の蓄積メディア e x 402に記録した符号 化ビッ卜ストリームを読み取り、 復号化する再生装置 e X 403にも上記実施形 態で説明した画像処理装置、 画像処理方法、 画像処理プログラムを実装すること が可能である。 この場合、 再生された映像信号はモニタ e X 404に表示される 。 また、 ケーブルテレビ用のケーブル e X 405または衛星/地上波放送のアン テナ e X 406に接続されたセットトップボックス e x 407内に上記実施形態 で説明した画像処理装置、 画像処理方法、 画像処理プログラムを実装し、 これを テレビのモニタ e X 408で再生する構成も考えられる。 このときセットトップ ポックスではなく、 テレビ内に上記実施形態で説明した画像処理装置を組み込ん でもよい。 また、 アンテナ e X 41 1を有する車 e x 41 2で衛星 e x 41 0か らまたは基地局 e X 1 07等から信号を受信し、 車 e x 41 2が有するカーナビ ゲ一シヨン e X 41 3等の表示装置に動画を再生することも可能である。
更に、 画像信号を符号化し、 記録媒体に記録することもできる。 具体例として は、 D VDディスク e X 421に画像信号を記録する D VDレコーダや、 ハード ディスクに記録するディスクレコーダなどのレコーダ e X 420がある。 更に S Dカード e X 422に記録することもできる。 レコーダ e x 420が上記実施形 態の画像処理を備えていれば、 DVDディスク e x 421や S Dカード e x 42 2に記録した画像信号を画像処理し、 モニタ e X 408に表示することができる なお、 カーナビゲ一シヨン e x 4 1 3の構成は例えば図 3 4に示す構成のうち 、 カメラ部 e X 2 0 3とカメラインタ一フェース部 e X 3 0 3、 画像符号化部 e X 3 1 2を除いた構成が考えられ、 同様なことがコンピュータ e X 1 1 1ゃテレ ビ (受信機) e X 4 0 1等でも考えられる。
また、 上記携帯電話 e X 1 1 4等の端末は、 符号化器■復号化器を両方持つ送 受信型の端末の他に、 符号化器のみの送信端末、 復号化器のみの受信端末の 3通 りの実装形式が考えられる。
このように、 上記実施形態で説明した画像処理装置、 画像処理方法、 画像処理 プログラムを上述したいずれの機器'システムに用いることは可能であり、 上記 実施形態で説明した効果を得ることができる。
(産業上の利用可能性)
本発明は、 ルックアップテーブルを記憶するための記憶容量を削減しつつ、 様 々な色処理に対して処理度合いを任意に調整可能な画像処理装置を提供すること が求められる画像処理装置、 特に、 画像信号の色処理を行う画像処理装置などと して有用である。

Claims

1 .
画像信号の色処理を行う画像処理装置であって、
所定の色処理にづいて異なる処理度合いを実現する複数の基本色変換ルックァ ップテーブルに基づいて、 前記所定の色処理について所定の処理度合いを実現す る新たな色変換ルツクアツプテ請ーブルを作成する色変換ルックアツプテーブル作 成部と、
作成された前記新たな色変換ルックアのップテーブルに基づいて、 前記画像信号 の色処理を実行する色処理実行部と、 範
を備える画像処理装置。 囲
2.
前記色変換ルックアップテーブル作成部は、 前記所定の色処理について異なる 処理度合いを実現する複数の基本色変換ルックアップテーブルの合成度合いに基 づいて前記新たな色変換ルックアップテーブルを作成する作成実行部と、 前記作 成実行部が作成した前記新たな色変換ルックアツプテーブルを記憶するルックァ ップテーブル記憶部とを有しており、
前記色処理実行部は、 前記ルックアップテーブル記憶部に記憶された前記新た な色変換ルックアップテーブルに基づいて、 前記画像信号の色処理を実行する、 請求項 1に記載の画像処理装置。
3.
前記複数の基本色変換ルックアツプテーブルは、 前記所定の色処理についてデ フオル卜の処理度合いを実現する基本色変換ルックアップテーブルと、 前記デフ オル卜の処理度合いを高めた、 あるいは低めた処理度合いを実現する基本色変換 ルックアップテーブルとを含んでいる、
請求項 1または 2に記載の画像処理装置。
4.
前記基本色変換ルックアップテーブルのそれぞれは、 複数の異なる色処理を組 み合わせて実現する色変換ルックアップテーブルである、 請求項 1〜 3のいずれかに記載の画像処理装置。
5 .
前記色変換ルックアップテーブル作成部は、 色処理毎に作成される複数の色変 換ルックアップテーブルであって、 それぞれの色処理について異なる処理度合い を実現する複数の基本色変換ルックアツプテーブルに基づいて作成される前記複 数の色変換ルックアツプテーブルを合成することにより新たな色変換ルツクアツ プテーブルを作成する、
請求項 1 ~ 3のいずれかに記載の画像処理装置。
6 .
画像信号の色処理を行う画像処理方法であって、
所定の色処理について異なる処理度合いを実現する複数の基本色変換ルックァ ップテーブルに基づいて、 前記所定の色処理について所定の処理度合いを実現す る新たな色変換ルツクアツプテーブルを作成する色変換ルックアツプテーブル作 成ステップと、
作成された前記新たな色変換ルックアップテーブルに基づいて、 前記画像信号 の色処理を実行する色処理実行ステップと、
を備える画像処理方法。
7 .
コンピュータにより画像信号の色処理を行うための画像処理プログラムであつ て、
前記画像処理プログラムは、
所定の色処理について異なる処理度合いを実現する複数の基本色変換ルックァ ップテーブルに基づいて、 前記所定の色処理について所定の処理度合いを実現す る新たな色変換ルツクアツプテ一ブルを作成する色変換ルックアツプテーブル作 成ステップと、
作成された前記新たな色変換ルックアップテーブルに基づいて、 前記画像信号 の色処理を実行する色処理実行ステップと、
を備える画像処理方法をコンピュータに行わせるものである、
画像処理プログラム。
8 .
請求項 1 ~ 5のいずれかに記載の画像処理装置を含む集積回路。
9 .
請求項 1 〜 5のいずれかに記載の画像処理装置と、
前記画像処理装置から出力される色処理された前記画像信号の表示を行う表示 手段と、
を備える表示装置。
1 0 .
画像の撮影を行う撮影手段と、.
前記撮影手段によリ撮影された画像を前記画像信号として色処理を行う請求項 1 ~ 5のいずれかに記載の画像処理装置と、
を備える撮影装置。 通信あるいは放送された画像データを受信するデータ受信手段と、
受信された前記画像データを前記画像信号として色処理を行う請求項 1 ~ 5の いずれかに記載の画像処理装置と、
前記画像処理装置により色処理された前記画像信号の表示を行う表示手段と、 を備える携帯情報端末。
1 2 .
画像の撮影を行う撮影手段と、
前記撮影手段によリ撮影された画像を前記画像信号として色処理を行う請求項 1 ~ 5のいずれかに記載の画像処理装置と、
前記色処理された前記画像信号を送信するデータ送信手段と、
を備える携帯情報端末。
1 3 .
入力された画像信号の色処理を行う画像処理装置であって、
異なる色処理を行うための複数のプロファイルに基づいて、 色処理に用いられ るプロファイルを作成するプロフアイル作成手段と、
前記プロファイル作成手段により作成された前記プロファイルを用いて、 前記 色処理を行う画像処理実行手段と、
を備える画像処理装置。
1 4 .
入力された画像信号の色処理を行う画像処理装置であって、
前記色処理に用いられるプロファイルを特定するためのプロファイル情報を出 力するプロファイル情報出力手段と、
前記プロファイル情報出力手段から出力された情報に基づいて特定されるプロ フアイルを用いて前記色処理を行う画像処理実行手段と、
を備える画像処理装置。
1 5 .
前記プロファイル情報出力手段は、 前記色処理された画像信号を表示する表示 環境に応じて、 前記プロファイル情報を出力する、
請求項 1 4に記載の画像処理装置。
1 6 .
前記プロファイル情報出力手段は、 前記画像信号に含まれる情報のうちプロフ アイルに関わる情報に応じて、 前記プロファイル情報を出力する、
請求項 1 4に記載の画像処理装置。
1 7 .
前記プロファイル情報出力手段は、 取得された前記色処理の特徴に関わる情報 に応じて、 前記プロファイル情報を出力する、
請求項 1 4に記載の画像処理装置。
1 8 .
前記プロファイル情報出力手段は、 前記画像信号が生成された環境に関わる情 報に応じて、 前記プロファイル情報を出力する、
請求項 1 4に記載の画像処理装置。
1 9 .
前記画像信号は、 画像データと、 前記画像信号の属性情報とを含んでおり、 前記プロファイル情報出力手段は、 前記属性情報に応じて、 前記プロファイル 情報を出力する、 請求項 1 4に記載の画像処理装置。
2 0 .
前記属性情報とは、 前記画像データの全体に関わる全体属性情報を含んでいる、 請求項 1 9に記載の画像処理装置。
2 1 .
前記属性情報とは、 前記画像データの一部に関わる部分属性情報を含んでいる、 請求項 1 9または 2 0に記載の画像処理装置。
2 2 .
前記属性情報とは、 前記画像信号が生成された環境に関わる生成環境属性情報 を含んでいる、
請求項 1 9に記載の画像処理装置。
2 3 .
前記属性情報とは、 前記画像信号が取得された媒体に関わる媒体属性情報を含 んでいる、
請求項 1 9に記載の画像処理装置。
2 4 .
請求項 1 3 ~ 2 3のいずれかに記載の画像処理装置において、
前記プロファイルは、 2次元 L U Tであって、
前記画像処理実行手段は、 請求項 1〜 5のいずれかに記載の画像処理装置を含 む、
ことを特徴とする画像処理装置。
2 5 .
入力された画像信号に色処理を行う画像処理実行手段と、
入力された画像信号に好適な色処理を行うプロファイルを特定するためのプロ ファイル情報を出力するプロファイル情報出力手段と、
前記画像信号あるいは前記画像処理実行手段によリ色処理された前記画像信号 に対して、 前記プロフアイル情報を付加して出力するプロフアイル情報付加手段 と、
を備える画像処理装置。
2 6 .
請求項 1 3 ~ 2 5のいずれかに記載の画像処理装置を含む集積回路。
2 7 .
請求項 1 3 ~ 2 5のいずれかに記載の画像処理装置と、
前記画像処理装置によリ色処理された前記画像信号の表示を行う表示手段と、 を備える表示装置。
2 8 .
画像の撮影を行う撮影手段と、
前記撮影手段によリ撮影された画像を前記画像信号として色処理を行う請求項 1 3〜2 5のいずれかに記載の画像処理装置と、
を備 る撮影装置。
2 9 .
通信あるいは放送された画像データを受信するデータ受信手段と、
受信された前記画像データを前記画像信号として色処理を行う請求項 1 3〜 2 5のいずれかに記載の画像処理装置と、
前記画像処理装置により色処理された前記画像信号の表示を行う表示手段と、 を備える携帯情報端末。
3 0 .
画像の撮影を行う撮影手段と、
前記撮影手段によリ撮影された画像を前記画像信号として色処理を行う請求項 1 3〜2 5のいずれかに記載の画像処理装置と、
前記色処理された前記画像信号を送信するデータ送信手段と、
を備える携帯情報端末。
3 1 .
画像信号の色処理を行う半導体装置であって、
所定の色処理について異なる処理度合いを実現する複数の基本色変換ルックァ ップテーブルに基づいて、 前記所定の色処理について所定の処理度合いを実現す る新たな色変換ルックアップテーブルを作成する色変換ルックアップテーブル作 成部と、 作成された前記新たな色変換ルックアップテーブルに基づいて、 前記画像信号 の色処理を実行する色処理実行部と、
を備える半導体装置。
3 2 .
入力された画像信号の色処理を行う半導体装置であって、
異なる色処理を行うための複数のプロフアイルに基づいて、 色処理に用いられ るプロファイルを作成するプロファイル作成部と、
前記プロファイル作成部により作成された前記プロファイルを用いて、 前記色 処理を行う画像処理実行部と、
を備える半導体装置。
3 3 .
入力された画像信号の色処理を行う半導体装置であって、
前記色処理に用いられるプロファイルを特定するためのプロファイル情報を出 力するプロファイル情報出力部と、
前記プロファイル情報出力部から出力された情報に基づいて特定されるプロフ ァィルを用いて前記色処理を行う画像処理実行部と、
を備える半導体装置。
3 4 .
入力された画像信号に色処理を行う画像処理実行部と、
入力された画像信号に好適な色処理を行うプロファイルを特定するためのプロ ファイル情報を出力するプロファイル情報出力部と、
前記画像信号あるいは前記画像処理実行部によリ色処理された前記画像信号に 対して、 前記プロファイル情報を付加して出力するプロファイル情報付加部と、 を備える半導体装置。
PCT/JP2004/013604 2003-09-11 2004-09-10 画像処理装置、画像処理方法および画像処理プログラム WO2005027040A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US10/571,123 US20070165048A1 (en) 2003-09-11 2004-09-10 Image processing device, image processing method, and image processing program
EP04773248A EP1667063A4 (en) 2003-09-11 2004-09-10 APPARATUS, METHOD AND PROGRAM FOR PROCESSING IMAGES

Applications Claiming Priority (10)

Application Number Priority Date Filing Date Title
JP2003-320061 2003-09-11
JP2003320061 2003-09-11
JP2003-356226 2003-10-16
JP2003356226 2003-10-16
JP2003-433324 2003-12-26
JP2003433324 2003-12-26
JP2004-169693 2004-06-08
JP2004169693 2004-06-08
JP2004183339 2004-06-22
JP2004-183339 2004-06-22

Publications (1)

Publication Number Publication Date
WO2005027040A1 true WO2005027040A1 (ja) 2005-03-24

Family

ID=34317733

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/013604 WO2005027040A1 (ja) 2003-09-11 2004-09-10 画像処理装置、画像処理方法および画像処理プログラム

Country Status (4)

Country Link
US (1) US20070165048A1 (ja)
EP (1) EP1667063A4 (ja)
KR (1) KR20060120643A (ja)
WO (1) WO2005027040A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1729526A3 (en) * 2005-06-01 2007-03-21 Sony Corporation Color adjustment method, and color adjusment system by use of a three-dimensional look-up table

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8000525B2 (en) * 2004-02-25 2011-08-16 Panasonic Corporation Image processing device, image processing system, image processing method, image processing program, and integrated circuit device
CN101427577A (zh) * 2006-04-19 2009-05-06 夏普株式会社 数据发送装置、数据发送方法、视听环境控制装置、视听环境控制系统、以及视听环境控制方法
JP4816569B2 (ja) * 2006-07-06 2011-11-16 セイコーエプソン株式会社 画像表示システム
KR101213205B1 (ko) * 2006-11-23 2012-12-17 삼성전자주식회사 컬러 재현 시스템 및 방법
KR100836432B1 (ko) 2007-02-05 2008-06-09 삼성에스디아이 주식회사 유기 전계 발광표시장치 및 그 구동방법
KR100836425B1 (ko) 2007-02-05 2008-06-09 삼성에스디아이 주식회사 유기 전계 발광표시장치 및 그 구동방법
KR100836423B1 (ko) 2007-02-05 2008-06-09 삼성에스디아이 주식회사 유기 전계 발광표시장치 및 그 구동방법
KR100844781B1 (ko) * 2007-02-23 2008-07-07 삼성에스디아이 주식회사 유기 전계 발광표시장치 및 그 구동방법
KR100844776B1 (ko) * 2007-02-23 2008-07-07 삼성에스디아이 주식회사 유기 전계발광 표시장치 및 그의 구동방법
KR100840102B1 (ko) 2007-02-23 2008-06-19 삼성에스디아이 주식회사 유기 전계발광 표시장치
KR100844774B1 (ko) * 2007-02-23 2008-07-07 삼성에스디아이 주식회사 유기 전계발광 표시장치의 구동방법
KR100844775B1 (ko) * 2007-02-23 2008-07-07 삼성에스디아이 주식회사 유기 전계발광 표시장치
KR100844780B1 (ko) * 2007-02-23 2008-07-07 삼성에스디아이 주식회사 유기 전계 발광표시장치 및 그 구동방법
KR100840097B1 (ko) * 2007-02-23 2008-06-19 삼성에스디아이 주식회사 유기 전계 발광표시장치
KR100857688B1 (ko) * 2007-03-08 2008-09-08 삼성에스디아이 주식회사 유기전계발광표시장치 및 그의 제조방법
KR20090015302A (ko) 2007-08-08 2009-02-12 삼성모바일디스플레이주식회사 유기전계발광표시장치 및 그의 구동방법
JP2009159478A (ja) * 2007-12-27 2009-07-16 Toshiba Corp 動画像処理回路
CN104811685B (zh) * 2008-12-18 2017-04-12 Lg电子株式会社 3d图像信号处理方法和用于实现该方法的图像显示器
EP2472850B1 (en) * 2008-12-22 2013-11-20 Mitsubishi Electric Corporation Image processing apparatus
US8643662B2 (en) * 2009-04-22 2014-02-04 Samsung Electronics Co., Ltd. Video entertainment picture quality adjustment
US8860751B2 (en) 2009-09-01 2014-10-14 Entertainment Experience Llc Method for producing a color image and imaging device employing same
WO2011028626A2 (en) * 2009-09-01 2011-03-10 Entertainment Experience Llc Method for producing a color image and imaging device employing same
TWI501635B (zh) * 2010-06-09 2015-09-21 Hon Hai Prec Ind Co Ltd 具圖像處理功能的相機及相機系統
JP5730634B2 (ja) * 2011-03-24 2015-06-10 オリンパス株式会社 画像処理装置
JP5888873B2 (ja) * 2011-05-12 2016-03-22 オリンパス株式会社 画像送信装置及び撮像表示システム
TWI526706B (zh) * 2011-10-05 2016-03-21 原相科技股份有限公司 影像系統
WO2013056387A1 (zh) * 2011-10-17 2013-04-25 Liu Travis 一种通用的色域映射及色彩管理方法
CN104240674B (zh) * 2013-06-14 2016-10-05 联想(北京)有限公司 一种调节显示单元的方法及一种电子设备
US9800781B2 (en) * 2013-03-15 2017-10-24 Intel Corporation Method, apparatus, system, and computer readable medium for image processing software module configuration
KR20150028374A (ko) * 2013-09-03 2015-03-16 삼성전자주식회사 이미지 변환 방법 및 장치
WO2015073377A1 (en) 2013-11-13 2015-05-21 Dolby Laboratories Licensing Corporation Workflow for content creation and guided display management of edr video
EP3119086A1 (en) * 2015-07-17 2017-01-18 Thomson Licensing Methods and devices for encoding/decoding videos
US10043456B1 (en) * 2015-12-29 2018-08-07 Amazon Technologies, Inc. Controller and methods for adjusting performance properties of an electrowetting display device
US10200571B2 (en) * 2016-05-05 2019-02-05 Nvidia Corporation Displaying an adjusted image according to ambient light conditions
US9602739B1 (en) * 2016-10-23 2017-03-21 Visual Supply Company Lookup table interpolation in a film emulation camera system
CN108306965B (zh) * 2018-01-31 2021-02-02 上海小蚁科技有限公司 摄像头的数据处理方法及装置、存储介质、摄像头
US10921596B2 (en) * 2018-07-24 2021-02-16 Disney Enterprises, Inc. Adaptive luminance/color correction for displays
US11438484B2 (en) * 2021-01-27 2022-09-06 Dell Products L.P. Color temperature adjustment independent of scaler color space

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06259543A (ja) * 1993-03-05 1994-09-16 Hitachi Medical Corp 画像処理装置
JPH09231353A (ja) * 1996-02-23 1997-09-05 Toshiba Corp カラー画像処理システム
JPH10154223A (ja) * 1996-11-25 1998-06-09 Ricoh Co Ltd データ変換装置
JPH1169181A (ja) * 1997-08-21 1999-03-09 Fuji Xerox Co Ltd 画像処理装置
JP2000050097A (ja) * 1998-05-26 2000-02-18 Canon Inc 画像処理方法、装置および記録媒体
JP2001069352A (ja) * 1999-08-27 2001-03-16 Canon Inc 画像処理装置およびその方法
JP2001111858A (ja) * 1999-08-03 2001-04-20 Fuji Photo Film Co Ltd 色修正定義作成方法、色修正定義作成装置、および色修正定義作成プログラム記憶媒体
JP2002044451A (ja) * 2000-07-19 2002-02-08 Canon Inc 画像処理装置およびその方法

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4837722A (en) * 1986-05-14 1989-06-06 Massachusetts Institute Of Technology Digital high speed 3-dimensional interpolation machine
JP2663189B2 (ja) * 1990-01-29 1997-10-15 富士写真フイルム株式会社 画像のダイナミックレンジ圧縮処理方法
JP3196864B2 (ja) * 1993-04-19 2001-08-06 富士写真フイルム株式会社 画像のダイナミックレンジ圧縮処理方法
US5479926A (en) * 1995-03-10 1996-01-02 Acuson Corporation Imaging system display processor
JP3003561B2 (ja) * 1995-09-25 2000-01-31 松下電器産業株式会社 階調変換方法及びその回路と画像表示方法及びその装置と画像信号変換装置
EP1168243B1 (en) * 1995-09-29 2004-06-09 Fuji Photo Film Co., Ltd. Image processing method and apparatus
KR100261214B1 (ko) * 1997-02-27 2000-07-01 윤종용 영상처리 시스템의 콘트라스트 확장장치에서 히스토그램 등화방법 및 장치
JP2951909B2 (ja) * 1997-03-17 1999-09-20 松下電器産業株式会社 撮像装置の階調補正装置及び階調補正方法
JP3585703B2 (ja) * 1997-06-27 2004-11-04 シャープ株式会社 画像処理装置
US6621594B1 (en) * 1997-07-04 2003-09-16 Seiko Epson Corporation Printed data correcting device, printed data correcting method, and software recording medium on which printed data correcting program is recorded
WO1999023637A1 (fr) * 1997-10-31 1999-05-14 Sony Corporation Procede et dispositif de traitement d'images, procede et systeme d'emission/reception d'images et support correspondant
US6643398B2 (en) * 1998-08-05 2003-11-04 Minolta Co., Ltd. Image correction device, image correction method and computer program product in memory for image correction
US6275605B1 (en) * 1999-01-18 2001-08-14 Eastman Kodak Company Method for adjusting the tone scale of a digital image
US6674436B1 (en) * 1999-02-01 2004-01-06 Microsoft Corporation Methods and apparatus for improving the quality of displayed images through the use of display device and display condition information
US6864998B2 (en) * 1999-11-30 2005-03-08 Fuji Photo Film Co., Ltd. Image reading apparatus, image recording medium and image forming apparatus
JP3758452B2 (ja) * 2000-02-28 2006-03-22 コニカミノルタビジネステクノロジーズ株式会社 記録媒体、並びに、画像処理装置および画像処理方法
US6813041B1 (en) * 2000-03-31 2004-11-02 Hewlett-Packard Development Company, L.P. Method and apparatus for performing local color correction
US6822762B2 (en) * 2000-03-31 2004-11-23 Hewlett-Packard Development Company, L.P. Local color correction
JP2001292890A (ja) * 2000-04-11 2001-10-23 Nakahara Sanpodo:Kk 複数供養壇
JP4081219B2 (ja) * 2000-04-17 2008-04-23 富士フイルム株式会社 画像処理方法及び画像処理装置
JP2002090864A (ja) * 2000-09-12 2002-03-27 Canon Inc プリンタ付カメラ
US6856704B1 (en) * 2000-09-13 2005-02-15 Eastman Kodak Company Method for enhancing a digital image based upon pixel color
JP3793987B2 (ja) * 2000-09-13 2006-07-05 セイコーエプソン株式会社 補正カーブ生成方法、画像処理方法、画像表示装置および記録媒体
JP2002204372A (ja) * 2000-12-28 2002-07-19 Canon Inc 画像処理装置およびその方法
JP3705180B2 (ja) * 2001-09-27 2005-10-12 セイコーエプソン株式会社 画像表示システム、プログラム、情報記憶媒体および画像処理方法
JP3752448B2 (ja) * 2001-12-05 2006-03-08 オリンパス株式会社 画像表示システム
US20040208363A1 (en) * 2003-04-21 2004-10-21 Berge Thomas G. White balancing an image

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06259543A (ja) * 1993-03-05 1994-09-16 Hitachi Medical Corp 画像処理装置
JPH09231353A (ja) * 1996-02-23 1997-09-05 Toshiba Corp カラー画像処理システム
JPH10154223A (ja) * 1996-11-25 1998-06-09 Ricoh Co Ltd データ変換装置
JPH1169181A (ja) * 1997-08-21 1999-03-09 Fuji Xerox Co Ltd 画像処理装置
JP2000050097A (ja) * 1998-05-26 2000-02-18 Canon Inc 画像処理方法、装置および記録媒体
JP2001111858A (ja) * 1999-08-03 2001-04-20 Fuji Photo Film Co Ltd 色修正定義作成方法、色修正定義作成装置、および色修正定義作成プログラム記憶媒体
JP2001069352A (ja) * 1999-08-27 2001-03-16 Canon Inc 画像処理装置およびその方法
JP2002044451A (ja) * 2000-07-19 2002-02-08 Canon Inc 画像処理装置およびその方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1667063A4 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1729526A3 (en) * 2005-06-01 2007-03-21 Sony Corporation Color adjustment method, and color adjusment system by use of a three-dimensional look-up table
CN1874410B (zh) * 2005-06-01 2011-08-10 索尼株式会社 成像装置和成像装置中的成像结果处理方法
US8223410B2 (en) 2005-06-01 2012-07-17 Sony Corporation Imaging device and method of processing imaging result in imaging device

Also Published As

Publication number Publication date
KR20060120643A (ko) 2006-11-27
EP1667063A4 (en) 2008-11-19
US20070165048A1 (en) 2007-07-19
EP1667063A1 (en) 2006-06-07

Similar Documents

Publication Publication Date Title
WO2005027040A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP4481333B2 (ja) 視覚処理装置、視覚処理方法、画像表示装置、テレビジョン、情報携帯端末、カメラおよびプロセッサ
JP4209439B2 (ja) 画像処理装置、画像処理システム、画像処理方法、画像処理プログラムおよび集積回路装置
JP5974128B2 (ja) 高ダイナミック・レンジ画像の発生およびレンダリング
US7366350B2 (en) Image processing apparatus and method
JP4304623B2 (ja) 撮像装置及び撮像装置における撮像結果の処理方法
JP2008159069A5 (ja)
KR101089394B1 (ko) 시각 처리 장치, 시각 처리 방법, 시각 처리 프로그램 및 반도체 장치
JPWO2005079056A1 (ja) 画像処理装置、撮影装置、画像処理システム、画像処理方法及びプログラム
JP2005354372A (ja) 画像記録装置、画像記録方法、画像処理装置、画像処理方法、及び画像処理システム
JP4126297B2 (ja) 視覚処理装置、視覚処理方法、視覚処理プログラム、集積回路、表示装置、撮影装置および携帯情報端末
JP2006024176A5 (ja)
JP2006042294A (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN100456801C (zh) 图像处理装置以及图像处理方法
JP2007006158A (ja) 画像処理装置
JP6087720B2 (ja) 撮像装置及びその制御方法
JP2005295294A (ja) 色調整モジュールとこれを用いた画像処理システムおよび撮像装置、ならびに色調整を実現するためのプログラム
JP2019029781A (ja) 画像処理装置
JP2005130280A (ja) 画像処理システム、画像処理方法及びプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200480026257.9

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BW BY BZ CA CH CN CO CR CU CZ DK DM DZ EC EE EG ES FI GB GD GE GM HR HU ID IL IN IS KE KG KP KR LC LK LR LS LT LU LV MA MD MG MN MW MX MZ NA NI NO NZ OM PG PL PT RO RU SC SD SE SG SK SL SY TM TN TR TT TZ UA UG US UZ VC YU ZA ZM

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SZ TZ UG ZM ZW AM AZ BY KG MD RU TJ TM AT BE BG CH CY DE DK EE ES FI FR GB GR HU IE IT MC NL PL PT RO SE SI SK TR BF CF CG CI CM GA GN GQ GW ML MR SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1020067004865

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2004773248

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2004773248

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2007165048

Country of ref document: US

Ref document number: 10571123

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 1020067004865

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 10571123

Country of ref document: US