WO2007043460A1 - 視覚処理装置、表示装置、視覚処理方法、プログラムおよび集積回路 - Google Patents

視覚処理装置、表示装置、視覚処理方法、プログラムおよび集積回路 Download PDF

Info

Publication number
WO2007043460A1
WO2007043460A1 PCT/JP2006/320074 JP2006320074W WO2007043460A1 WO 2007043460 A1 WO2007043460 A1 WO 2007043460A1 JP 2006320074 W JP2006320074 W JP 2006320074W WO 2007043460 A1 WO2007043460 A1 WO 2007043460A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
visual processing
image
effect adjustment
unit
Prior art date
Application number
PCT/JP2006/320074
Other languages
English (en)
French (fr)
Inventor
Haruo Yamashita
Takeshi Ito
Yusuke Monobe
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to EP06811401A priority Critical patent/EP1959390A4/en
Priority to CN2006800381399A priority patent/CN101288099B/zh
Priority to US12/090,222 priority patent/US7881549B2/en
Priority to JP2007539916A priority patent/JP4157592B2/ja
Publication of WO2007043460A1 publication Critical patent/WO2007043460A1/ja
Priority to US12/972,769 priority patent/US8311357B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • H04N1/4092Edge or detail enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • G06T5/75Unsharp masking
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0271Adjustment of the gradation levels within the range of the gradation scale, e.g. by redistribution or clipping

Definitions

  • Visual processing device display device, visual processing method, program, and integrated circuit
  • the present invention relates to a visual processing device, a display device, a photographing device, a portable information device, and an integrated circuit, and in particular, a visual processing device, a display device, a photographing device, and portable information for changing the strength of visual processing of an image.
  • the present invention relates to an apparatus and an integrated circuit.
  • Spatial processing is to perform processing of a pixel of interest using pixels around the pixel of interest to which a filter is applied.
  • a technique for performing contrast enhancement of an original image and dynamic range (hereinafter referred to as “DR”) compression using a spatially processed image signal is known (for example, Patent Document 1).
  • Tone processing is a process of converting pixel values using a look-up table (hereinafter referred to as ⁇ LUT '') for each pixel of interest, regardless of the surrounding pixels of the pixel of interest.
  • ⁇ LUT '' a look-up table
  • pixel values are converted using a LUT that sets the gradation of the appearance level (the size of the area) in the original image.
  • gradation processing gradation processing (histogram equalization method) that uses one LUT for the entire original image, and LUT is determined for each of the image areas obtained by dividing the original image into multiple parts.
  • the gradation processing used local histogram equalization method
  • a conventional visual processing device includes a plurality of profile data having different conversion characteristics, and realizes the above different visual processing by switching the profile data (for example, Patent Document 2).
  • the visual processing device 900 performs spatial processing on the luminance value for each pixel of the original image acquired as the input signal IS, and outputs an unsharp signal US.
  • the original image is visually processed using the input signal IS and the unsharp signal US!
  • It consists of a visual processing unit 902 that outputs an output signal OS.
  • the unsharp signal US is a brightness signal in a local area obtained by processing the luminance signal with a low-pass filter, and is a blur signal.
  • the visual processing unit 902 was composed of a two-dimensional LUT.
  • the visual processing unit 902 performs gamma correction having the gradation conversion characteristics shown in FIG. 48, selects a gradation conversion curve corresponding to the unsharp signal US in the region of interest in the image, and increases the contrast. I was weakening. For example, the dark region in the image is brightened by selecting the curve of the unsharp signal US0, and conversely, the bright region is selecting the unsharp signal USn curve to suppress the brightness and increase the contrast.
  • These curve groups are called profiles, and the profile data registration apparatus 903 has different visual processing profile groups, and registers the profile data optimum for the desired visual processing in the visual processing unit 902.
  • the profile data registration device 903 updates the necessary profile data according to the strength of visual processing.
  • Patent Document 1 US Pat. No. 4,667,304 Specification
  • Patent Document 2 International Publication No. 2005Z027043 Pamphlet
  • the conventional configuration has a problem that the amount of data increases because it is necessary to prepare profile data according to the strength of the effect of visual processing. As the amount of data increases, the memory capacity for storing profile data increases (usually several hundred bytes to several tens of kilobytes).
  • image quality improvement processing close to human vision
  • visual processing for converting the value of the pixel of interest based on the comparison between the value of the pixel of interest and the values of the pixels in the surrounding area.
  • brightness information is extracted from a wide area centering on the position of the pixel of interest in order to enhance the processing effect.
  • the value of the pixel of interest is determined from the comparison between the value of the pixel of interest and the values of the surrounding pixels, if there is a steep edge region in the surrounding region, the influence of the values of the surrounding pixels is affected. As a result, even in a flat region where the pixel value hardly fluctuates, the output of visual processing changes gradually in the vicinity of the edge. When a large luminance change occurs in a flat area, a shadow-like outline occurs in the area adjacent to the edge, resulting in an unnatural image.
  • an image with a small percentage of edge area an image with a small number of gradations, an image in which similar values with a small difference in luminance from adjacent pixels occur continuously, or a block image divided into a plurality of blocks are high.
  • special images
  • the brightness of flat areas The change is noticeable, and a shadow-like outline appears in the area immediately adjacent to the edge, resulting in an unnatural image.
  • the problem to be solved by the present invention is that even if an image having a steep edge region or a special image is input, side effects can be suppressed, and the visual processing of the image can be performed with a simple configuration.
  • a visual processing device that visually processes and outputs an input image signal
  • an effect adjustment unit that performs processing for setting the effect of visual processing according to the effect adjustment signal
  • an image signal And a visual processing unit that performs visual processing thereby, it is possible to easily configure the visual processing effect by the effect adjustment signal. Therefore, the effect of visual processing can be adjusted in real time.
  • a second invention is the first invention, wherein a target level setting unit that sets a predetermined target level, a spatial processing unit that performs predetermined spatial processing on an image signal and outputs a processed signal, are further provided.
  • the effect adjustment unit outputs a synthesized signal obtained by synthesizing a predetermined target level and a processing signal in accordance with an effect adjustment signal for setting the effect of visual processing.
  • the visual processing unit performs gradation conversion on the image signal based on the composite signal and the image signal.
  • the predetermined gradation conversion function need not be changed in accordance with the degree of strength. If the predetermined gradation conversion function is implemented with a single software circuit, it is not necessary to have multiple circuits according to the strength of visual processing! Therefore, the circuit scale can be reduced. If the specified gradation characteristics are implemented with profile data stored in the 2D LUT, it is not necessary to have multiple profile data according to the strength of the visual effect, so the memory capacity can be reduced. In addition, since it is not necessary to update profile data according to the strength of visual processing, the strength of visual processing can be changed even if the visual processing unit is configured with a two-dimensional LUT.
  • a third invention is the first invention, a target level setting unit that sets a predetermined target level, a spatial processing unit that performs predetermined spatial processing on an image signal and outputs a processed signal, and an image A correction unit that corrects the signal.
  • the effect adjustment unit outputs a synthesized signal obtained by synthesizing a predetermined target level and a processing signal in accordance with an effect adjustment signal for setting the effect of visual processing.
  • the visual processing unit outputs a gain signal based on the composite signal and the image signal.
  • the correction unit corrects the image signal based on the gain signal.
  • the strength of the visual processing can be changed by generating different composite signals depending on the effect adjustment signal, so that a predetermined gain function can be fixed. If a predetermined gain function is implemented with a nodware circuit, it is necessary to have multiple circuits according to the strength of visual processing, so the circuit scale can be reduced. If the predetermined gain function is implemented with the profile data stored in the two-dimensional LUT, it is not necessary to have multiple profile data according to the strength of visual processing, so the memory capacity can be reduced. Also, since profile data needs to be updated according to the strength of visual processing, the visual processing strength can be changed in real time even if the visual processing unit is configured with a 2D LUT.
  • a fourth invention is the first invention, wherein predetermined spatial processing is performed on the image signal, and the processing is performed.
  • a spatial processing unit that outputs a logical signal is further provided.
  • the effect adjustment unit outputs a composite signal obtained by combining the image signal and the processing signal in accordance with the effect adjustment signal for setting the effect of the visual processing.
  • the visual processing unit performs tone conversion on the image signal based on the composite signal and the image signal.
  • the effect adjustment unit generates a composite signal in which the image signal and the processing signal are internally divided by the effect adjustment signal.
  • the effect of visual processing can be changed from the characteristic of only gamma conversion for converting a predetermined brightness to the characteristic of local contrast conversion. Even when the effect of visual processing is changed, a predetermined gradation conversion function can be fixed.
  • the fifth invention is the first invention, further comprising a spatial processing unit that performs predetermined spatial processing on the image signal and outputs the processing signal, and a correction unit that corrects the image signal.
  • the effect adjustment unit outputs a synthesized signal obtained by synthesizing the image signal and the processing signal in accordance with the effect adjustment signal for setting the effect of the visual processing.
  • the visual processing unit outputs a gain signal based on the synthesized signal and the image signal.
  • the correction unit corrects the image signal based on the gain signal.
  • a sixth invention is any one of the first to fifth inventions, wherein the visual processing unit has a two-dimensional lookup table.
  • the seventh invention is the first invention, wherein the peripheral image information extracting unit for extracting the peripheral image information of the input image signal and the effect adjustment signal for setting the effect of the visual processing are output. And an adjustment signal generator.
  • the visual processing unit visually processes the image signal based on the image signal and the peripheral image information.
  • the effect adjustment unit responds to the effect adjustment signal. Set the effect of visual processing.
  • the effect of visual processing can be set (differentiated) according to the effect adjustment signal, and the side effect can be suppressed by adjusting the effect in the region where the side effect occurs.
  • the eighth invention is the seventh invention, wherein the effect adjustment signal generator detects an area adjacent to the edge area from the image signal and outputs an effect adjustment signal.
  • the ninth invention is the eighth invention, wherein the effect adjustment signal generator detects a flat region adjacent to the edge region from the image signal and outputs an effect adjustment signal.
  • a tenth aspect of the invention is the eighth or ninth aspect of the invention, in which the effect adjustment signal generator outputs an effect adjustment signal according to the amount of change in the peripheral image information.
  • the eleventh invention is the eighth or ninth invention, wherein the effect adjustment signal generating unit detects a flatness degree of a flat area in which a luminance difference from an adjacent area is a predetermined value or less from an image signal.
  • the effect adjustment signal generator outputs an effect adjustment signal based on outputs from the flatness detection unit and the edge detection unit.
  • the twelfth invention is the invention according to any one of the seventh to eleventh inventions, wherein the effect adjustment unit generates a first synthesized signal obtained by synthesizing the image signal and the peripheral image information in accordance with the effect adjustment signal. Output.
  • the visual processing unit visually processes the image signal based on the first composite signal and the image signal.
  • the visual processing unit further changes the different gradation based on the first composite signal.
  • the conversion process can be selected, and the image signal can be visually processed by the selected gradation conversion process, and the effect of the visual process can be varied.
  • the thirteenth invention is any one of the seventh to eleventh inventions, wherein the effect adjustment unit synthesizes the image signal and the output visually processed by the visual processing unit in accordance with the effect adjustment signal. Output the second composite signal.
  • the fourteenth aspect of the invention is the first aspect of the invention, wherein the peripheral image information extracting unit extracts the peripheral image information of the input image signal, and a special image having a statistical information bias from the image signal! Based on statistical information bias! , And detect the degree detected! And a special image detection unit that outputs as an effect adjustment signal.
  • the visual processing unit is based on image signals and surrounding image information! / Outputs a processed signal obtained by visually processing the image signal.
  • the effect adjustment unit controls the visual processing unit to set the effect of the visual processing in accordance with the effect adjustment signal.
  • the fifteenth aspect of the invention is the fourteenth aspect of the invention, in which the special image detector is based on the ratio of the area where the shading changes in the image of the image signal or the ratio of the area where the shading does not change. Detect statistical information bias.
  • a sixteenth aspect of the invention is the fifteenth aspect of the invention, wherein the special image detection unit is a special image when the ratio of the area where the shading changes is small or when the ratio of the area does not change. Increase a certain degree.
  • the degree of special image can be detected, and an effect adjustment signal suitable for special image processing can be output.
  • the seventeenth invention is the sixteenth invention, wherein the special image detection unit detects a ratio of a region where the density changes by detecting an edge component in the image. According to this, it is possible to detect the ratio of the region where the shading changes from the edge component in the image.
  • the eighteenth aspect of the invention is the sixteenth aspect of the invention, in which the special image detection unit detects the proportion of the area where the shading does not change by detecting the flatness in the image.
  • the special image detecting unit detects the flatness based on the number of gradation levels or the continuous length of similar pixels.
  • the twentieth invention is the seventeenth invention, wherein the special image detecting unit detects an edge detection unit for detecting an edge amount for each pixel from the image signal, and detects an edge pixel having an edge amount equal to or larger than a predetermined value. And an edge density calculator that calculates the ratio of the number of edge pixels to the total number of pixels of the image signal, and a first effect adjustment signal generator that outputs an effect adjustment signal according to the ratio.
  • a special image can also be detected with respect to edge force in the image, and an effect adjustment signal corresponding to the deviation of the ratio of edge pixels in the special image can be generated.
  • a twenty-first invention is the seventeenth invention, wherein the special image detection unit includes a high-frequency block detection unit that detects a high-frequency block including a high-frequency component from the image signal divided into a plurality of blocks, and a plurality of blocks.
  • a high-frequency block density detecting unit for detecting a ratio of the number of high-frequency blocks to the second, and a second effect adjustment signal generating unit for outputting an effect adjustment signal according to the ratio.
  • a special image can be detected by detecting a high-frequency block in the image, and an effect adjustment signal can be generated according to the deviation of the ratio of the high-frequency block in the special image.
  • the twenty-second invention is the nineteenth invention, wherein the special image detecting unit detects a frequency for each gradation level from the image signal, a frequency for each gradation level, and a predetermined threshold.
  • a frequency determination unit for detecting a gradation level having a frequency greater than a predetermined threshold and a frequency determination A gradation number detection unit that detects the number of gradation levels determined to be high by the fixing unit, and a third effect adjustment signal generation unit that outputs an effect adjustment signal according to the number of gradation levels.
  • the special image can also be detected with respect to the number of gradation levels in the image, and an effect adjustment signal corresponding to the deviation of the number of gradation levels in the special image can be generated.
  • a twenty-third invention is the nineteenth invention, wherein the special image detecting unit includes a similar luminance detecting unit, a continuous length detecting unit, an average continuous length calculating unit, a fourth effect adjustment signal generating unit, Have
  • the similar luminance detecting unit detects a similar pixel in which the luminance difference from the adjacent pixel is equal to or less than a predetermined value from the image signal.
  • the continuous length detection unit detects a continuous length in which similar pixels are continuous.
  • the average continuous length calculation unit calculates an average continuous length by averaging a plurality of continuous lengths detected by the continuous length detection unit.
  • the fourth effect adjustment signal generator outputs an effect adjustment signal according to the average continuous length.
  • a special image can be detected from the average continuous length of similar pixels in the image, and an effect adjustment signal corresponding to the bias of the average continuous length in the special image can be generated.
  • the twenty-fourth invention is the invention according to any one of the fourteenth to the twenty-third inventions, wherein the effect adjustment unit is configured to combine the image signal and the peripheral image information by changing a ratio according to the effect adjustment signal.
  • the synthesized signal is output, and the visual processing unit visually processes the image signal based on the first synthesized signal and the image signal.
  • the visual processing unit can select different gradation conversion processing based on the first composite signal, and the effect of visual processing can be made different.
  • a twenty-fifth aspect of the invention is any one of the fourteenth to twenty-third aspects, in which the effect adjustment unit changes the ratio between the image signal and the processing signal in accordance with the effect adjustment signal and performs the second synthesis. Output signal.
  • the twenty-sixth invention is the invention according to any one of the fourteenth force and the twenty-third, wherein the visual processing unit has a two-dimensional lookup table and is based on characteristic data set in the two-dimensional lookup table.
  • Visual processing The effect adjustment unit performs visual processing according to the effect adjustment signal. Characteristic data synthesized by changing the ratio of multiple characteristic data with different effects is set in the visual processing section.
  • the twenty-seventh invention is the invention according to any one of the fourteenth to twenty-sixth inventions, in which the special image detecting unit inputs a reduced image in which the image signal is reduced, and the statistical information such as the reduced image is stored. A special image with bias is detected, and an effect adjustment signal is output based on the statistical information bias.
  • the twenty-eighth invention is the invention according to any one of the fourteenth to the twenty-seventh inventions, wherein the special image detecting unit is configured to detect the frame image from the previous frame image when the image signal is a frame image, or the image signal is a field image. Sometimes, one or more previous field image forces detect statistical information bias.
  • the twenty-ninth invention is the twenty-eighth invention, further comprising a continuous change processing unit for continuously changing the effect adjustment signal.
  • the continuous change processing unit continuously changes the effect adjustment signal between frames when the effect adjustment signal is output in units of frames, and between fields when the effect adjustment signal is output in units of fields.
  • a thirtieth aspect of the invention is a data receiving unit that receives image data transmitted or broadcasted, a decoding unit that decodes the received image data into video data, and the decoded video data.
  • a display device comprising: the visual processing device according to any one of the first to 29th devices that outputs an output signal by performing a visual processing, and a display unit that displays the output signal visually processed by the visual processing device.
  • the intensity of visual processing can be changed in real time by adjusting the brightness of the image and displayed on the display device.
  • a photographing device or a portable information terminal device including a visual processing device can be realized.
  • the imaging device may be configured to include an imaging unit that captures an image and a visual processing device that performs visual processing using an image captured by the imaging unit as an input signal.
  • the portable information device also includes a data receiving unit that receives image data that has been communicated or broadcast, a visual processing device that visually processes the received image data and outputs an output signal, and a display of the visually processed output signal. It may be configured to include display means for performing. With such a configuration, it is possible to obtain the same effect as the visual processing device even in the portable information device.
  • the portable information device includes an imaging unit that captures an image, a visual processing device that performs visual processing using the image captured by the imaging unit as an input signal and outputs an output signal, and an output signal that has undergone visual processing.
  • the structure provided with the data transmission part to transmit may be sufficient.
  • a thirty-first invention is a visual processing method for visually processing and outputting an input image signal, an effect adjustment step for performing processing for setting the effect of visual processing according to the effect adjustment signal, and an image Visual processing steps for performing visual processing on the signal.
  • a thirty-second invention is the thirty-first invention, a target level setting step for setting a predetermined target level, a spatial processing step for performing predetermined spatial processing on the image signal, and outputting a processed signal, It has further.
  • the effect adjustment step depending on the effect adjustment signal A synthesized signal obtained by synthesizing a predetermined target level and the processing signal is output.
  • the visual processing step is based on the synthesized signal and the image signal! The tone of the image signal is converted. As a result, a different composite signal is generated according to the effect adjustment signal and the strength of the visual processing is changed. Therefore, it is not necessary to change the predetermined gradation conversion function according to the strength level. Further, by setting the target level in the target level setting step, it is possible to set to what gradation characteristics the visual processing effect realized by this visual processing method is changed.
  • the thirty-third invention is the thirty-first invention according to the thirty-first invention, wherein the peripheral image information extraction step for extracting the peripheral image information of the input image signal and the effect adjustment signal for setting the effect of the visual processing are output.
  • An adjustment signal generating step In the visual processing step, the image signal is visually processed based on the image signal and the peripheral image information.
  • the effect adjustment step the effect of visual processing is set according to the effect adjustment signal.
  • a thirty-fourth aspect is the thirty-third aspect, wherein in the effect adjustment signal generation step, a flat region adjacent to the edge region is detected from the image signal and an effect adjustment signal is output.
  • a thirty-fifth aspect of the thirty-first aspect is the thirty-first aspect of the invention, wherein a peripheral image information extracting step for extracting peripheral image information of the input image signal and a special image having statistical information bias are detected from the image signal. And a special image detection step of outputting an effect adjustment signal based on the degree of statistical information bias.
  • the visual processing step the image signal is visually processed based on the image signal and the peripheral image information.
  • the effect adjustment step the effect of visual processing is set according to the effect adjustment signal.
  • a control signal for setting an effect of visual processing in accordance with an effect adjustment signal is provided to a computer for performing visual processing for visually processing and outputting an input image signal.
  • This is a program for executing an effect adjustment step for outputting a signal and a visual processing step for performing visual processing on the image signal based on the control signal and the image signal.
  • a thirty-seventh aspect of the invention is the thirty-sixth aspect of the invention, in which a target level setting step for setting a predetermined target level in a computer and a spatial processing for performing a predetermined spatial processing on the image signal and outputting a processing signal And a program for further executing the steps.
  • a synthesized signal obtained by synthesizing a predetermined target level and the processing signal is output in accordance with the effect adjustment signal for setting the effect of visual processing.
  • the image signal is subjected to gradation conversion based on the synthesized signal and the image signal.
  • the thirty-eighth aspect is the thirty-sixth aspect according to the thirty-sixth aspect, wherein a peripheral image information extraction step for extracting peripheral image information of an input image signal to a computer and an effect adjustment signal for setting an effect of visual processing are provided. Is a program for further executing the effect adjustment signal generation step for outputting the.
  • the visual processing step the image signal is visually processed based on the image signal and the peripheral image information.
  • the effect adjustment step adjustment is performed so that the effect of visual processing varies according to the effect adjustment signal.
  • the thirty-ninth aspect is the thirty-eighth aspect, wherein the effect adjustment signal generation step detects a flat region adjacent to the wedge region from the image signal and outputs an effect adjustment signal.
  • the fortieth aspect is the thirty-eighth aspect of the present invention in which the frequency of the image signal input to the computer is Peripheral image information extraction step that extracts edge image information, and special image detection that detects a special image with statistical information bias from the image signal and outputs an effect adjustment signal based on the degree of statistical information bias
  • the frequency of the image signal input to the computer is Peripheral image information extraction step that extracts edge image information, and special image detection that detects a special image with statistical information bias from the image signal and outputs an effect adjustment signal based on the degree of statistical information bias
  • the visual processing step the image signal is visually processed based on the image signal and the peripheral image information.
  • the effect adjustment step the effect of visual processing is set according to the effect adjustment signal.
  • the visual processing effect can be maintained when a normal image is input without a special image, and side effects can be suppressed when a special image is input.
  • the 41st invention is an integrated circuit including the visual processing device according to any one of the 1st to 29th inventions.
  • a visual processing device, a display device, a visual processing method, a program, and an integrated circuit can be realized.
  • FIG. 1 is a block diagram of a visual processing device according to Embodiment 1 of the present invention.
  • FIG. 2 is a characteristic diagram of a target level setting unit in the same embodiment
  • FIG. 3 is an explanatory diagram of an unsharp signal US and an output signal OS in the same embodiment.
  • FIG. 4 is an explanatory diagram of local contrast characteristics in the embodiment
  • FIG. 5 is an explanatory diagram of DR compression characteristics in the same embodiment
  • FIG. 6 is a block diagram of Modification 1 of the visual processing device according to the embodiment.
  • FIG. 7 is an explanatory diagram of gradation characteristics in the embodiment
  • FIG. 8 is an explanatory diagram of gain characteristics in the same embodiment.
  • FIG. 9 is a block diagram showing a configuration of the visual processing device according to the first embodiment of the present invention.
  • ⁇ 10 Explanatory diagram for explaining the 2D gradation characteristics
  • FIG. 13 is an explanatory diagram for explaining the output of the effect adjustment signal
  • FIG. 14 is a flowchart for explaining the operation of the visual processing device.
  • FIG. 19 is a block diagram showing the configuration of the visual processing system in Embodiment 4 of the present invention.
  • ⁇ 20] Explanatory diagram for explaining the two-dimensional gain characteristics
  • FIG. 21 is a block diagram showing a configuration of a visual processing device according to a sixth embodiment of the present invention.
  • FIG. 24 is a block diagram showing the configuration of the special image detection unit.
  • FIG. 26 is an explanatory diagram for explaining the edge pixel.
  • FIG. 29 is a block diagram showing the configuration of the special image detection unit of the first modification.
  • ⁇ 30 Explanatory diagram for explaining the frequency distribution detected by the frequency detector of the first variation.
  • ⁇ 31 Explanatory diagram for explaining the effect adjustment signal of the first variation.
  • FIG. 32 is a block diagram showing a configuration of a special image detection unit according to the second modification.
  • FIG. 35 is a block diagram showing the configuration of the special image detection unit of the third modification.
  • FIG. 37 is an explanatory diagram for explaining an effect adjustment signal of Modification 3
  • FIG. 38 is a block diagram showing a configuration of a visual processing device in Embodiment 7 of the present invention.
  • FIG. 39 is a block diagram showing a configuration of a visual processing device in Embodiment 8 of the present invention.
  • FIG. 40 is a block diagram showing a configuration of a visual processing system in Embodiment 9 of the present invention.
  • FIG. 41 is an explanatory diagram for explaining the two-dimensional gain characteristics.
  • FIG. 42 is an overall configuration diagram of a content supply system in Embodiment 2 of the present invention.
  • FIG. 43 is a front view of a mobile phone equipped with the visual processing device according to the embodiment.
  • FIG. 44 is a block diagram illustrating the overall configuration of the mobile phone according to the embodiment.
  • FIG. 45 is an explanatory diagram showing the overall configuration of the digital broadcasting system in the embodiment.
  • FIG. 46 is a block diagram for explaining an example of a computer system in the embodiment.
  • FIG. 47 Block diagram of a conventional visual processing device.
  • the visual processing performed here is processing that has characteristics close to how the human eye can see, and that determines the output signal by comparing the target pixel value of the input image signal with its surrounding pixel values. is there.
  • Applicable processing includes backlight correction processing, knee processing, DR compression processing, and brightness adjustment (including gradation processing and contrast adjustment).
  • FIG. 1 is a block diagram of visual processing device 1 according to the first embodiment.
  • the visual processing device 1 performs visual processing on the image signal IS and outputs a visually processed output signal OS.
  • the spatial processing unit 2 acquires the pixel values of the target pixel to be subjected to spatial processing and the pixels in the peripheral area of the target pixel (hereinafter referred to as “peripheral pixel”) from the input signal IS. Performs spatial processing on the input value of each pixel of the acquired original image and outputs an unsharp signal US.
  • the unsharp signal US is a blur signal obtained by processing the input signal IS with a low-pass filter.
  • the brightness including the peripheral region of the pixel of interest can be detected by the unsharp signal US.
  • the target level setting unit 4 sets the target level of the effect required for visual processing. For example, set the target of the gradation conversion characteristics to change the required visual processing effects such as local contrast and DR compression.
  • a function for determining the set target level value is set according to the gradation conversion characteristics to be adjusted, and the input signal IS is converted based on a predetermined function.
  • the target level value L is output according to the conversion characteristic of line 1 shown in FIG.
  • line 1 changes the target level according to the input signal IS.
  • target level L input signal IS.
  • the target level setting unit 4 may be omitted.
  • the target level value L may be output by an intermediate conversion characteristic between the straight line 1 and the straight line 2.
  • the target level L (input signal IS + predetermined value T1) / 2 may be set.
  • the target level value L may be output by curve 1 set between straight line 1 and straight line 2.
  • the effect adjustment unit 5 performs an internal division operation on the target level L and the unsharp signal US according to an external signal (effect adjustment signal) MOD (“internal division calculation” is based on internal division, for example, from two physical quantities. This means that one physical quantity is calculated) and a composite signal MUS is output.
  • External signal (effect adjustment signal) The value of MOD is set in the range of “0” to “1”. When MOD is “0”, there is no effect, and when MOD force is “l”, the effect is maximum.
  • the visual processing unit 3 outputs an output signal OS for the input signal IS and the composite signal MUS based on the set two-dimensional gradation conversion characteristics. Various visual effects can be realized by this gradation conversion characteristic.
  • control for enhancing or weakening the local contrast will be described as an effect of visual processing. Control is performed by setting an effect adjustment signal from the outside.
  • the visual processing device 1 is set to have a two-dimensional gradation conversion characteristic as shown in FIG.
  • the horizontal axis is the input signal IS input
  • the vertical axis is the converted output signal OS.
  • the two-dimensional gradation conversion characteristic is an input / output characteristic in gradation conversion for determining an output with respect to two inputs of the composite signal MUS and the input signal IS.
  • it has a predetermined gradation conversion characteristic according to the signal levels of composite signals MUS0 to MUSn in FIG. Therefore, assuming that the pixel value of the input signal IS is an 8-bit value, the pixel value of the output signal OS with respect to the value of the input signal IS divided into 256 levels is determined by a predetermined two-dimensional gradation conversion characteristic.
  • the gradation conversion characteristic is a gradation conversion curve with a predetermined gamma conversion characteristic, and the output monotonously decreases with respect to the subscript of the composite signal MUS.
  • the spatial processing unit 2 obtains the unsharp signal US by, for example, a low-pass spatial filter operation that passes only the low-pass space for the target pixel of the input signal IS.
  • [Wij] is a weighting factor of a pixel located in the i-th row and j-th column in the target pixel and the peripheral pixels
  • [Aij] is a position in the i-th row and j-th column in the target pixel and the peripheral pixels. This is the pixel value of the pixel to be processed.
  • “ ⁇ ” means that the total calculation is performed for each pixel of the target pixel and the surrounding pixels.
  • the weight coefficient [Wij] is 1 and the pixel value [Aij] is expressed as A (i, j).
  • the pixel value of the target pixel is A (l, 1) "128", A (0, 0) "110", A (0, 1) “115”, A (0, 2) "117” A (l, 0) is “123", A (l, 2) is “120", A (2, 0) is “120", A (2, 1) is "127", A (2, 2) Is "125”.
  • the absolute value of the pixel value difference is larger and smaller, and a weighting factor of the value may be given! / ⁇ , or the distance from the target pixel may be smaller and the weighting factor may be given. .
  • the size of the area of the peripheral pixel is set according to the effect. In order to obtain a visual effect, the area of the peripheral pixel is set to a certain size area. It is preferable. For example, when the target image size is XGA (1024 X 768), it is preferable to set the peripheral pixel area to an area of 80 pixels X 80 pixels or more.
  • the low-pass spatial filter a FIR (Finite Impulse Response) type low-pass spatial filter or IIR (Infinite Impulse Response) -type low-pass spatial filter that is usually used for generating an unsharp signal can be used. Yo! ,.
  • target level L input signal IS
  • target level setting unit 4 is not required.
  • the input signal IS may be directly input to the effect adjustment unit 5.
  • the two input signals IS and the composite signal MUS input to the visual processing unit 3 have the same value.
  • the gradation conversion is performed by the gradation conversion characteristic of curve 2 shown.
  • the tone conversion characteristic of curve 2 has only brightness adjustment (gamma conversion) characteristics, and has no effect of increasing local contrast.
  • MOD 0.5
  • the composite signal MUS is an intermediate output between the input signal IS and the unsharp signal US, as shown in FIG.
  • the output is intermediate between the output signal OS (US) visually processed based on Therefore, the visual processing device 1 outputs the output signal OS (US) whose MOD is “1” and the visual effect is “maximum effect”, and the output whose MOD is “0” and the visual processing is “no effect”.
  • the visual processing effect of local contrast can be strengthened or weakened according to the value of the effect adjustment signal MOD.
  • the effect adjustment unit 5 generates a composite signal MUS obtained by internally dividing the input signal IS and the unsharp signal US by the effect adjustment signal MOD.
  • the effect of visual processing can be changed from the characteristic of only the gamma conversion that converts the predetermined brightness to the characteristic of the local contrast conversion.
  • DR compression processing is processing to fit the input range of the CCD that inputs images into the recording range that is recorded by the imaging device.
  • the brightness is set so that the face brightness is about 80% of the output DR. So, for example, a bright sky area in the background of the face needs to be included in the remaining 20% of the output DR. For this reason, “knee processing” is generally performed in which the output DR is compressed and converted when the input range exceeds a certain level as shown by curve 4 in FIG.
  • the visual processing device 1 has gradation curves MUS0 to MUSn for converting a bright region having an input range having a value larger than about “1.0”. These gradation curves Based on the above, the degree of compression is controlled according to the composite signal MUS. As a result, even when a bright region signal is input to the visual processing device 1, it is possible to suppress the occurrence of insufficient gradation in the output signal.
  • the composite signal MUS T1 and the effect adjustment signal MOD is “1”.
  • the composite signal MUS unsharp signal US.
  • DR compression is performed according to the brightness of the local region, so that the effect of visual processing according to the brightness of the local region is enhanced in this DR compression.
  • the visual processing device 1 is configured to output, as an output signal OS, a value obtained by performing gradation conversion on the input signal IS in the visual processing unit 3, but it corresponds to the input signal IS corresponding to the gradation converted value. As a configuration to output the gain value.
  • FIG. 6 shows a block diagram of the visual processing device 20 which is the first modification. In order to avoid duplication, description of the same processing as that of the visual processing device 1 (FIG. 1) is omitted.
  • the visual processing device 20 is set to have a two-dimensional gradation conversion characteristic, for example, as shown in FIG.
  • the horizontal axis is the input signal IS input
  • the vertical axis is the converted output signal OS.
  • tone conversion characteristics different tone conversion curves from MUS0 to MUSn are selected according to the composite signal MUS. Due to this characteristic, the dark area in the image is converted by MUS0 to become brighter and brighter. On the other hand, the bright area in the image is More conversion is suppressed. As a result, it is possible to realize dark part correction effective for a backlight image with a dark human face and a bright background area.
  • the visual processing unit 21 corrects the input signal IS based on the gain characteristics shown in FIG. 8, using the slope of the gradation conversion curve of FIG. 7 as a gain.
  • the horizontal axis is the input signal IS and the vertical axis is the output of the gain signal GAIN.
  • the effect adjustment unit 5 combines the target level L and the unsharp signal US according to the internal division calculation according to the effect adjustment signal MOD, and outputs a combined signal MUS. That is, the strength of the visual processing effect can be adjusted by the effect adjustment signal MOD.
  • the visual processing unit 21 outputs a gain signal GAIN based on the input signal IS and the synthesized signal MUS in order to realize the set gain characteristic.
  • Multiplier 22 multiplies gain signal GAIN and input signal IS, and outputs output signal OS.
  • the visual processing unit 21 is composed of a two-dimensional lookup table (hereinafter referred to as “two-dimensional LUT”) that gives the relationship between the input signal IS, the composite signal MUS, and the gain signal GAIN, and the input signal IS and the composite signal. You may instruct MUS to output the gain signal GAIN with reference to the 2D LUT. As a result, the number of bits of the two input signals can be reduced by storing the gain value rather than storing the gradation conversion value in the two-dimensional LUT, and the memory capacity can be greatly reduced.
  • two-dimensional LUT two-dimensional lookup table
  • the visual processing unit 21 is configured with a two-dimensional LUT, so that a complicated gain characteristic can be created in advance.
  • the visual processing unit 21 can be realized by a read “only” memory (hereinafter referred to as “ROM”) or the like.
  • the two-dimensional LUT may be configured with a rewritable memory, for example, a random “access” memory (hereinafter referred to as “RAM”).
  • the two-dimensional LUT stores gain data having a preset two-dimensional gain characteristic. By changing this 2D gain characteristic, various visual effects such as local contrast processing and DR compression processing can be obtained.
  • the strength of the effect can be flexibly adjusted by setting the value of the effect adjustment signal MOD with respect to the strength of the visual processing.
  • the effect adjustment signal MOD is a signal that can be changed in advance or in real time depending on the setting.
  • the screen menu of the display device may be selected using a remote controller, and the corresponding value may be set as the effect adjustment signal MOD.
  • feature values in the image for example, a predetermined image pattern, image density, and color may be automatically extracted and an optimum value may be automatically set as the effect adjustment signal MOD.
  • the remote control selects, for example, “movie quality” and “news quality” displayed on the screen selection menu of the display device, and the value is automatically set within the adjustment range preset for each selection menu.
  • a semi-automatic function such as setting the effect adjustment signal MOD.
  • the visual processing devices 1 and 20 also have a broadcast content detection unit (not shown), which displays EPG display data separated as program information, genre information of currently received data, and program description information.
  • the effect adjustment signal MOD may be changed based on the detected information.
  • Data genre information and image information are MPEG It may be detected from the stream information.
  • the strength of visual processing can be increased or decreased by the effect adjustment signal MOD, so that tone conversion characteristics and gain characteristic data corresponding to the strength are recreated. I don't need it.
  • the visual processing device of the present embodiment can be configured to change the effect adjustment signal MOD in real time, so that the strength of the visual processing effect can be changed in real time.
  • the strength of visual processing can be changed in units of frames and pixels, and the strength of visual processing can also be changed for local regions in an image.
  • the effect adjustment unit 5 generates a composite signal M US that internally divides the unsharp signal US from the input signal IS or the level signal or a preset value thereof with the effect adjustment signal MOD.
  • the visual processing device it is possible to change the effect of visual processing from the characteristic of only gamma conversion for converting a predetermined brightness to the characteristic of local contrast conversion.
  • a natural image can be sharpened with a high local contrast by performing visual processing on the natural image having a large number of gradations.
  • visual processing On the other hand, if there are steep edges in the image, side effects tend to be noticeable when visual processing is performed. If the visual processing is weakened to suppress this side effect, the natural image will be weakened and the image will not be sharp.
  • the visual processing device outputs an effect adjustment signal for varying the effect of visual processing, and varies the effect of visual processing according to the effect adjustment signal (intensity, correction amount). ) Make adjustments.
  • an effect adjustment signal is generated from the eyelids and adjusted so that the effect of visual processing varies according to the effect adjustment signal.
  • visual processing is processing that has characteristics that are close to how human eyes can see, depending on the comparison between the value of the target pixel of the input image signal and the value of the surrounding pixels (brightness). This process determines the value of the output signal.
  • Visual processing is applied to backlight correction, knee processing, D-range compression processing, color processing, or brightness adjustment (including gradation processing and contrast adjustment).
  • the luminance component Y or lightness component L of the YCbCr color space, YUV color space, Lab color space, Luv color space, YIQ color space, and YPbPr color space is defined as the luminance signal.
  • the luminance signal will be described as an image signal.
  • FIG. 9 is a block diagram showing a configuration of the visual processing device 101 according to Embodiment 2 of the present invention.
  • the visual processing device 101 corresponds to the spatial processing unit 10 that outputs the peripheral image information (unsharp signal) US as the input image signal power and the degree of flatness of the edge vicinity region.
  • a control signal generator 40 that outputs an effect adjustment signal MOD, and an effect adjustment unit 1020 that outputs a composite signal MUS synthesized by changing the ratio between the image signal IS and the peripheral image information US according to the effect adjustment signal MOD.
  • a visual processing unit 30 for visually processing the image signal IS based on the composite signal MUS and the image signal IS.
  • the spatial processing unit 10 extracts the value of the target pixel and the value of the pixel in the peripheral area of the target pixel (hereinafter referred to as “peripheral pixel”) from the image signal IS, and uses the extracted pixel value to output the image signal. I Perform filtering on s.
  • the spatial processing unit 10 generates an unsharp signal us obtained by processing the image signal IS with a low-pass filter.
  • the unsharp signal us is generated by the following calculation.
  • [Wij] is the weighting factor of the pixel located in the i-th row and j-th column in the target pixel and the surrounding pixels
  • [Aij] is located in the i-th row and j-th column in the target pixel and the surrounding pixels.
  • “ ⁇ ” means that the sum of the target pixel and the surrounding pixels is calculated.
  • the absolute value of the difference between the pixel values may be smaller and the weighting coefficient of the value may be given.
  • the smaller the weighting coefficient may be given as the target pixel force is larger.
  • the area size of the peripheral pixels is a size that is preliminarily set according to the effect, and the visual effect can be enhanced by making it larger than a predetermined size. For example, if the size of the target image is 1024 pixels vertically and 768 pixels horizontally, the area is 80 pixels or more in both height and width. By generating an unsharp signal US, each area has a local area of about 3 pixels vertically and horizontally. In comparison, the visual effect can be enhanced.
  • the low-pass spatial filter a FIR (Finite Impulse Response) type low-pass spatial filter or IIR (Infinite Impulse Response) -type low-pass spatial filter that is usually used for generating an unsharp signal can be used.
  • FIR Finite Impulse Response
  • IIR Infinite Impulse Response
  • the effect adjustment unit 1020 combines the image signal IS and the unsharp signal US by interpolation processing in accordance with the effect adjustment signal MOD output from the control signal generation unit 40, and outputs a combined signal MUS.
  • the composite signal MUS is divided internally as shown in (Equation 1) below, for example, according to the effect adjustment signal MOD.
  • the control signal generator 40 will be described later.
  • the value of the effect adjustment signal MOD changes in the range from “0.0” to “1.0”, the value of the effect adjustment signal MOD is “0.0”, no processing is performed, and the effect adjustment signal MOD A value of “1.0” maximizes the processing strength.
  • (Equation 1) can be transformed into (Equation 2), and similarly, a composite signal MUS can be generated.
  • MUS (US-IS) X MOD + IS (Formula 2)
  • the visual processing unit 30 performs gradation conversion of the image signal IS in accordance with the composite signal MUS from the effect adjustment unit 1020.
  • the visual processing unit 30 performs gradation conversion based on, for example, the two-dimensional gradation conversion characteristics shown in FIG.
  • the two-dimensional gradation conversion is gradation conversion in which output values are determined for two inputs of the composite signal MUS and the image signal IS.
  • the visual processing unit 30 outputs a processing signal OS for the image signal IS and the composite signal MUS based on the two-dimensional tone conversion characteristics.
  • Various visual effects can be produced by the gradation conversion characteristics.
  • FIG. 10 is an explanatory diagram for explaining the two-dimensional gradation conversion characteristics.
  • the horizontal axis is the input image signal IS
  • the vertical axis is the output of the converted processing signal OS.
  • the two-dimensional gradation conversion has predetermined gradation conversion characteristics according to the signal levels of the combined signals MUS0 to MUSn. Therefore, if the pixel value of the image signal IS is an 8-bit value, the pixel value of the output signal OS with respect to the value of the image signal IS divided into 256 levels is determined by a predetermined two-dimensional gradation conversion characteristic.
  • the gradation conversion characteristic is a gradation conversion curve having a predetermined gamma conversion characteristic, and the output monotonously decreases with respect to the subscript of the composite signal MUS. Note that even if there is a part of the subscript of the composite signal MUS where the output is not partly monotonically decreasing, it may be substantially monotonically decreasing. Also, as shown in Fig.
  • the visual processing unit 30 selects MUS0 when the input image signal IS has a value “a” and the brightness value of the surrounding area is small.
  • the value of the processing output OS becomes “P”, and conversely, when the brightness value of the surrounding area is large, selecting the MUSn makes the value of the processing output OS “Q”.
  • the processing output OS can be largely changed from the value “P” to the value “Q” by the change in the brightness value of the surrounding area. As a result, the contrast in the dark part can be enhanced according to the composite signal MUS.
  • the gradation conversion characteristic of curve 2 shown in FIG. 10 can be provided.
  • the gradation conversion characteristics of Curve 2 can adjust the brightness of the entire image (gamma conversion), but there is no visual effect such as increasing the contrast only in the local dark area.
  • FIG. 11 is an explanatory diagram for explaining the output of the processing signal OS.
  • the horizontal axis is the pixel position to be processed, and the vertical axis is the output of the composite signal MUS.
  • the composite signal MUS is an intermediate output between the image signal IS and the unsharp signal US.
  • the processing signal OS visually processed based only on the image signal IS is OS (IS, IS), and the visual processing based on the image signal IS and the unsharp signal US is performed.
  • OS OS
  • IS, MUS which is the processing signal OS visually processed according to the image signal IS and the composite signal MUS
  • OS IS, IS
  • Output is intermediate to OS (IS, us).
  • the visual processing unit 30 can increase or decrease the effect of the visual processing of the dark portion contrast according to the composite signal MUS.
  • various effects ranging from the effect of processing that only changes the brightness of the entire image to the effect of processing that changes (changes) the contrast in the local area according to the ambient brightness.
  • a visual effect can be realized by the visual processing device 101.
  • knee processing, DR compression processing, color processing, and the like can be realized by changing the two-dimensional gradation conversion characteristics.
  • the visual processing unit 30 may have a two-dimensional LUT.
  • the visual processing unit 30 performs gradation conversion by setting characteristic data (hereinafter referred to as “profile”) shown in FIG. 10 in the two-dimensional LUT of the visual processing unit 30.
  • profile characteristic data
  • the visual processing unit 30 may perform visual processing using an arithmetic circuit.
  • the 2D LUT table can be eliminated, and the circuit scale of the visual processing unit 101 can be eliminated. Can be reduced.
  • FIG. 12 is a block diagram showing the configuration of the control signal generator 40
  • FIG. 13 is an explanatory diagram for explaining the output of the effect adjustment signal MOD.
  • the control signal generation unit 40 includes an edge detection unit 41 that detects an edge amount that is a luminance difference for each adjacent region from the image signal IS, and an edge vicinity that detects an edge amount force edge region proximity degree.
  • the flatness level of the flat area where the luminance difference between the detection unit 42 and the adjacent area is a predetermined value or less!
  • a flatness detecting unit 43 that detects / ⁇ and an edge adjustment degree ⁇ / ⁇ and a flatness degree! / ⁇ include an effect adjustment signal generating unit 44 that outputs an effect adjustment signal MOD according to the degree of edge vicinity!
  • the edge detection unit 41 detects an edge amount from the image signal IS for each region in a predetermined range.
  • the edge detection unit 41 detects an edge amount EG using an edge detection filter (not shown) such as a primary differential filter such as a Sobel filter or a Prewitt filter, or a secondary differential filter such as a Laplacian filter.
  • an edge detection filter such as a primary differential filter such as a Sobel filter or a Prewitt filter, or a secondary differential filter such as a Laplacian filter.
  • the edge detection unit 41 outputs an edge amount as shown in FIG. 13 (b).
  • the vertical axis of FIG. 13 (a) is the value of the image signal IS
  • the horizontal axis is the pixel position of the pixel being processed.
  • the vertical axis represents the edge amount EG
  • the horizontal axis represents the pixel position of the pixel being processed.
  • the edge vicinity detection unit 42 detects the vicinity area of the edge. For example, the edge vicinity detection unit 42 processes the edge amount detected for each predetermined area with a low-pass filter, and outputs a degree of proximity that becomes a large output when approaching the edge vicinity. For example, Figure 13 (c) As shown in FIG. 6, the edge vicinity detection unit 42 outputs an edge vicinity degree that becomes a larger output as it is closer to the edge.
  • the vertical axis in FIG. 13C is the edge proximity
  • the horizontal axis is the pixel position of the processed pixel.
  • the flatness detection unit 43 detects the flatness degree of the flat area where the luminance difference with the adjacent area is a predetermined value or less. For example, as shown in FIG. 13 (d), the flatness detection unit 43 detects the luminance difference from the adjacent region from the output of the edge amount in FIG.13 (b), and the flatness degree increases as the luminance difference decreases. Is output.
  • the vertical axis in FIG. 13 (d) is the flatness FT indicating the flatness
  • the horizontal axis is the pixel position of the pixel being processed.
  • the effect adjustment signal generator 44 multiplies the proximity in FIG. 13 (c) by the flatness in FIG. 13 (d), and the edge proximity is large and the flatness is high.
  • the effect adjustment signal MOD that weakens the visual effect is output.
  • the vertical axis in FIG. 13 (d) is the output of the effect adjustment signal MOD
  • the horizontal axis is the pixel position of the pixel being processed. In the visual processing device 101, the visual effect becomes stronger as the value of the effect adjustment signal MOD is larger.
  • the effect adjustment signal generation unit 44 performs an output that weakens the visual effect in the vicinity of the edge and visually in the area far from the edge vicinity. It produces output that enhances the effect. Also, the effect adjustment signal generator 44 outputs in an area near the edge according to the flatness level so that the visual effect is weakened as the flatness level is large, and the visual effect is strengthened as the flatness level is small. I do. As a result, the visual processing device 101 can reduce side effects only in the vicinity of the edge, and can realize visual processing having an excellent visual processing effect on a natural image. Will be described with reference to FIG. FIG. 14 is a flowchart for explaining the operation of the visual processing device 101.
  • an image is input to the visual processing device 101 (S101), and the edge detection unit 41 detects an edge amount that is a luminance difference for each adjacent region from the image signal IS (S102).
  • the visual processing device 101 uses the edge vicinity detection unit 42 to process the edge amount with a low-pass filter, and detects the degree of proximity of the edge amount force (S103). Also visual processing In the apparatus 101, the flatness detection unit 43 detects the luminance difference of the edge amount force, and detects the flatness near the edge (S104).
  • the visual processing device 101 uses the effect adjustment signal generating unit 44 to multiply the proximity degree output from the edge vicinity detection unit 42 and the flatness output from the flatness detection unit 43 to obtain the effect adjustment signal MOD. Generate (S105).
  • the visual processing device 101 uses the effect adjustment unit 1020 to generate a synthesized signal MUS that is synthesized by changing the ratio of the image signal IS and the unsharp signal US in accordance with the effect adjustment signal MOD (S106).
  • the visual processing device 101 uses the visual processing unit 30 to select one of the two-dimensional gradation conversion characteristic curves shown in FIG. 10 corresponding to the composite signal MUS and convert the image signal IS (S107). . As a result, the visual processing device 101 executes visual processing adjusted to vary the effect of visual processing in accordance with the composite signal MUS.
  • the visual processing device 101 determines whether or not there is a certain pixel to be processed next (S10 8). Next, when there is no pixel that needs processing, the visual processing is completed. On the other hand, if there is a pixel that needs to be processed next, the process returns to step S101, and the next image (pixel) is input. Thereafter, the steps from S101 to S108 are repeated until there are no more pixels that need to be processed.
  • the visual processing device 101 According to the visual processing device 101 according to the second embodiment of the present invention, it is possible to reduce the side effects only in the vicinity of the edge, and realize visual processing having an excellent visual processing effect on a natural image. be able to.
  • the visual processing device 101 obtains the edge power and the edge proximity and the flatness from the input image signal IS, and generates the effect adjustment signal MOD based on the edge proximity and the flatness.
  • the amount of change in the unsharp signal US may also generate the effect adjustment signal MOD.
  • FIG. 15 is a block diagram showing the configuration of the control signal generator 70.
  • FIG. 15 is a block diagram showing the configuration of the control signal generator 70.
  • control signal generation unit 70 includes a change amount detection unit 71 that detects a change amount of the unsharp signal US, and an effect adjustment signal that outputs an effect adjustment signal MOD according to the detected change amount.
  • generator 72 the control signal generation unit 70 includes a change amount detection unit 71 that detects a change amount of the unsharp signal US, and an effect adjustment signal that outputs an effect adjustment signal MOD according to the detected change amount.
  • the change amount detector 71 detects the change amount of the unsharp signal US.
  • the amount of change is detected using an edge detection filter (not shown) such as a primary differential filter such as a Sobel filter or a Prewitt filter, or a secondary differential filter such as a Laplacian filter.
  • the effect adjustment signal generator 72 adjusts the output according to the amount of change detected by the change amount detector 71. That is, the effect adjustment signal generator 72 outputs the effect adjustment signal MOD so that the signal level (value) of the effect adjustment signal MOD decreases as the change amount increases. For example, as shown in FIG. 16, the signal level of the effect adjustment signal MOD is changed when the detected change amount is greater than or equal to a predetermined value Tha, and the effect adjustment signal MOD is changed within a range up to the predetermined value Thb. Decrease signal level. The signal level of the effect adjustment signal MOD is not changed for the predetermined value Thb or more. This makes it possible to change the signal level of the effect adjustment signal MOD when a steep edge region is input without reacting to the edge component normally included in the natural image.
  • the horizontal axis represents the amount of change
  • the vertical axis represents the output (signal level) of the effect adjustment signal MOD.
  • the range of the signal level of the output effect adjustment signal MOD is changed from “0.0” to “1.0”, but from “0.2” to “1.0” depending on the intensity of visual processing. You may make it adjust.
  • the visual processing device 101 is configured so that the visual processing device 101 has a stronger visual processing effect as the signal level of the effect adjustment signal MOD is larger.
  • control signal generator 70 can detect a flat region near the edge from the amount of change in the unsharp signal US and generate the effect adjustment signal MOD.
  • the image signal is reduced! A flat area near the edge is detected from a reduced image such as a thumbnail image, and the effect adjustment signal MOD is output based on the degree of flatness near the edge or the amount of change in the unsharp signal US.
  • a reduced image such as a thumbnail image
  • a reduction processing unit (not shown) for reducing the image signal is provided between the image signal and the control signal generation unit 40, and the flatness level near the reduced image force edge generated by the reduction processing unit or Sharpness signal Outputs effect adjustment signal MOD based on the amount of change in US You may do it.
  • the reduced image By using a reduced image, it is possible to detect a flat region near the edge while suppressing the influence of noise. In other words, since the noise component of the reduced image generated by the reduction method that thins out after averaging the image signals is reduced, the reduced image is used to detect a flat region near the edge while suppressing the influence of noise. be able to. If a reduced image is used, the number of pixels to be detected can be reduced and the amount of calculation can be reduced.
  • a low-pass filter or the like may be installed in front of the control signal generation unit 40 and the control signal generation unit 70 to limit the band of the image signal and detect a flat region near the edge. As a result, the noise component can be reduced, and a flat region near the edge can be detected while suppressing the influence of noise.
  • the composite signal MUS synthesized by changing the ratio between the image signal IS and the peripheral image information (unsharp signal) US according to the effect adjustment signal MOD is output, and the visual processing unit 30
  • the processing output OS that visually processed the image signal IS in accordance with the composite signal MUS from the effect adjustment unit 1020 is output, but in the third embodiment of the present invention, the processing that has been visually processed by the effect adjustment unit 1021
  • An embodiment in which a combined output OUT obtained by combining an output OS and an image signal IS according to an effect adjustment signal is output will be described with reference to FIG.
  • FIG. 17 is a block diagram showing a configuration of the visual processing device 102 according to Embodiment 3 of the present invention.
  • Embodiment 2 the same parts as those in Embodiment 2 are denoted by the same reference numerals, and detailed description thereof is omitted.
  • the visual processing unit 30 outputs a processing output OS based on the image signal IS and the output US of the spatial processing unit 10.
  • the effect adjusting unit 1021 performs (divides) the image signal IS and the processing output OS in accordance with the effect adjusting signal MOD, thereby changing (changing) the effect of visual processing.
  • the output OUT from the effect adjustment unit 1021 is calculated by internal division as shown in (Equation 3) below.
  • Equation 3 OS X MOD + IS X (1. 0— MOD) (Equation 3) (Equation 3) can also be realized by modifying it as (Equation 4).
  • the synthesized signal OUT synthesized by changing the ratio of the processing signal OS and the image signal IS in accordance with the effect adjustment signal MOD.
  • the effect of can be changed (changed).
  • the control signal generator 40 may be replaced with the control signal generator 70 in the second embodiment of the present invention. According to this, the edge vicinity region can be similarly detected, and the effect adjustment signal MOD corresponding to the change amount of the peripheral information in the vicinity of the edge can be generated.
  • the composite signal MUS synthesized by changing the ratio of the image signal IS and the peripheral image information US according to the effect adjustment signal MOD is output, and the visual processing unit 30 receives the signal from the effect adjustment unit 1020.
  • the processing output OS in which the image signal is visually processed according to the composite signal MUS is output
  • the effect adjustment unit 1022 performs the effect of the visual processing according to the effect adjustment signal MOD.
  • FIG. 18 is a block diagram showing the configuration of the visual processing device 103 according to the fourth embodiment of the present invention.
  • the same parts as those in Embodiment 2 are denoted by the same reference numerals, and detailed description thereof is omitted.
  • the effect adjustment unit 1022 outputs the first OS 60 having a different visual processing intensity according to the effect adjustment signal MOD output from the control signal generation unit 40 and the output OSA of the visual processing unit 31 in which the LUT is set to the LUT.
  • Equation 5 can also be realized by modifying it as (Equation 6).
  • the effect adjustment signal Visual output with different degrees of visual effect is obtained by changing the ratio of the output of the visual processing unit 31 and the output of the visual processing unit 32 with different visual processing effects according to the MOD. Processing can be performed.
  • the control signal generator 40 may be replaced with the control signal generator 70 in the second embodiment of the present invention. According to this, the edge vicinity region can be similarly detected, and the effect adjustment signal MOD corresponding to the change amount of the peripheral information in the vicinity of the edge can be generated.
  • tone conversion values based on the two-dimensional tone conversion characteristics are output.
  • FIG. 5 the case where gradation conversion is performed using a gain signal will be described with reference to FIGS.
  • FIG. 19 is a block diagram showing the configuration of the gain-type visual processing system 104 according to the fifth embodiment of the present invention
  • FIG. 20 is an explanatory diagram for explaining the two-dimensional gain characteristics.
  • the gain-type visual processing system 104 includes a gain-type visual processing device 1905 that outputs a gain signal GAIN obtained by visually processing the image signal IS, and a multiplier 1911 that multiplies the gain signal GAIN and the image signal IS. I have.
  • the gain-type visual processing device 1905 includes a visual processing device 101 that outputs a processed signal OS obtained by visually processing the image signal IS, and a divider 1912 that divides the processed signal OS by the image signal IS.
  • the visual processing device 101 outputs a gradation conversion value obtained by visually processing the output of the image signal IS.
  • the gain-type visual processing device 5 is provided. realizable.
  • the multiplier 1911 multiplies the gain signal GAIN output from the gain-type visual processing device 1905 and the image signal IS, and outputs a gradation conversion value obtained by visually processing the output of the image signal IS.
  • the visual processing unit 30 may directly use a profile having a two-dimensional gain characteristic shown in FIG.
  • the vertical axis of FIG. 20 is the gain output GN
  • the horizontal axis is the image signal IS.
  • the two-dimensional gain characteristic shown in FIG. 20 is equivalent to that obtained by dividing the output of the two-dimensional gradation characteristic profile shown in FIG. 10 by the image signal IS.
  • This secondary A profile having an original gain characteristic may be set in the LUT of the visual processing unit 30 of the visual processing device 101.
  • the gain signal GN and the gain signal GAIN are equivalent, so even if the divider 12 is deleted, the gain-type visual processing device 1905 can be realized.
  • the gain-type visual processing device 1905 since the change in the processing signal is small with respect to the change in the input image signal IS, the number of bits of the input signal can be reduced, and the circuit scale can be reduced. In addition, when the visual processing unit 30 is provided with a two-dimensional LUT, the memory capacity can be reduced. As described above, according to the gain-type visual processing system 104 of the fifth embodiment of the present invention, by controlling the gain signal GAIN, gradation saturation can be easily suppressed and excellent visual processing is realized. can do.
  • the visual processing device 101 according to the second embodiment of the present invention may be replaced with the visual processing device 102 according to the third embodiment of the present invention. This also enables the gain-type visual processing device 1905 to be realized.
  • the visual processing device 101 in the second embodiment of the present invention may be replaced with the visual processing device 103 in the fourth embodiment of the present invention. This also enables the gain-type visual processing device 1905 to be realized.
  • Embodiment 2 to Embodiment 5 of the present invention even when an image having a steep edge region is input, visual processing with reduced side effects is realized. be able to.
  • the visual processing device described in the above embodiment may be incorporated in or connected to a device that handles moving images, and the image adjustment power for each frame or field may be generated for the effect adjustment signal MOD.
  • the control signal generation unit 40 detects edge information from one (1 frame) or more previous frame image, or when the image signal is a field image, the edge information from one (1 field) or more previous field image. And flatness information can be extracted.
  • the visual processing device can use the effect adjustment signal MOD corresponding to the head force edge information and the flatness information of the frame.
  • the visual processing device can extract edge information and flatness information from the previous (one field previous) field image, and the leading force of the field image is also effective according to the edge information and flatness information.
  • the adjustment signal MOD can be used.
  • the control signal generation unit 40 extracts circuit information, edge information and flatness information from one or more previous (one frame) previous frame image, or one (one field) or more previous field image force, thereby reducing circuit delay. It is easy to match, and the circuit scale can be reduced.
  • a natural image can be sharpened with a local contrast ratio enhanced by performing visual processing on the natural image with a large number of gradations.
  • the special image has an extremely small proportion of the area where the shading changes in the image of the image signal, or an extremely large proportion of the area where the shading in the image of the image signal does not change. Information bias.
  • the visual processing device detects a special image having a statistical information bias from the image signal, generates an effect adjustment signal based on the degree of the statistical information bias, and generates the effect adjustment signal.
  • the visual processing effect is adjusted (changed) in accordance with the effect adjustment signal.
  • visual processing is processing that has characteristics that are close to how human eyes can see, depending on the comparison between the value of the target pixel of the input image signal and the value of the surrounding pixels (brightness). This process determines the value of the output signal. Visual processing is applied to backlight correction, knee processing, D-range compression processing, color processing, or brightness adjustment (including gradation processing and contrast adjustment).
  • the luminance component Y or lightness component L of the YCbCr color space, YUV color space, Lab color space, Luv color space, YIQ color space, and YPbPr color space is defined as the luminance signal.
  • the luminance signal will be described as an image signal.
  • FIG. 1 is a block diagram showing a configuration of a visual processing device 1001 according to Embodiment 6 of the present invention.
  • the visual processing device 1001 includes a spatial processing unit 10 that extracts peripheral image information (unsharp signal) US from an input image signal IS, and a statistical processing from the image signal IS.
  • Special image detection unit 2140 that detects special image with information bias and outputs special image effect adjustment signal DS for different visual processing effects based on the degree of statistical information bias.
  • a continuous change processing unit 50 that outputs an effect adjustment signal MOD obtained by continuously changing the image effect adjustment signal DS between frames, and the ratio between the image signal IS and the surrounding image information US according to the effect adjustment signal MOD.
  • An effect adjustment unit 1020 that outputs a synthesized signal MUS synthesized by changing, and a visual processing unit 30 that outputs a processing output OS that visually processes the image signal IS according to the synthesized signal MUS from the effect adjustment unit 1020.
  • the special image detection unit 2140 can output the special image effect adjustment signal DS corresponding to the degree of information bias of the special image.
  • the effect adjustment unit 1020 can generate a composite signal MUS for differentiating the effect of visual processing in the visual processing unit 30 by the effect adjustment signal MOD obtained by continuously changing the special image effect adjustment signal DS.
  • the visual processing unit 30 can perform gradation conversion of the image signal IS in accordance with the composite signal MUS output from the effect adjustment unit 1020.
  • the visual processing device 1001 can detect the special image, and the visual processing unit 30 makes the effect of the visual processing different from the special image and suppresses side effects. Can do.
  • the spatial processing unit 10 extracts the value of the target pixel and the value of the pixel in the peripheral area of the target pixel (hereinafter referred to as “peripheral pixel”) from the image signal IS, and uses the extracted pixel value to generate an image. Filters the signal IS.
  • the image signal IS is processed by a low-pass filter to generate an unsharp signal US from the image signal IS.
  • [Wij] is the weighting factor of the pixel located in the i-th row and j-th column in the target pixel and the surrounding pixels
  • [Aij] is located in the i-th row and j-th column in the target pixel and the surrounding pixels.
  • “ ⁇ ” means that the sum of the target pixel and the surrounding pixels is calculated.
  • the absolute value of the difference between the pixel values may be smaller and the weighting coefficient of the value may be given.
  • the smaller the weighting coefficient may be given as the target pixel force is larger.
  • the area size of the peripheral pixels is a size that is preliminarily set according to the effect, and the visual effect can be enhanced by making it larger than a predetermined size. For example, if the size of the target image is 1024 pixels vertically and 768 pixels horizontally, the area is 80 pixels or more in both height and width. By generating an unsharp signal US, each area has a local area of about 3 pixels vertically and horizontally. In comparison, the visual effect can be enhanced.
  • FIR Finite Impulse Response
  • IIR Intelligent Impulse Response
  • the effect adjustment unit 1020 combines the image signal IS and the unsharp signal US by interpolation processing in accordance with the effect adjustment signal MOD output from the continuous change processing unit 50, and outputs a combined signal MUS.
  • the composite signal MUS is divided internally as in (Equation 7) below, for example, according to the effect adjustment signal MOD.
  • the continuous change processing unit 50 will be described later.
  • the value of the effect adjustment signal MOD changes in the range from ⁇ 0.0 '' to ⁇ 1.0 '', the effect adjustment signal MOD value is ⁇ 0.0 '', there is no visual processing effect, effect adjustment The effect of visual processing is maximized when the value of the signal MOD is “1.0”.
  • Equation 7 can be modified as shown in (Equation 8), and similarly, a composite signal MUS can be generated.
  • the visual processing unit 30 performs gradation conversion of the image signal IS in accordance with the composite signal MUS from the effect adjustment unit 1020.
  • the visual processing unit 30 performs gradation based on the two-dimensional gradation conversion characteristics shown in FIG. Perform conversion.
  • the two-dimensional gradation conversion means gradation conversion in which an output value is determined for two inputs of the composite signal MUS and the image signal IS.
  • the visual processing unit 30 outputs a processing signal OS for the image signal IS and the composite signal MUS based on the two-dimensional gradation conversion characteristics.
  • Various visual effects can be produced by the gradation conversion characteristics.
  • FIG. 22 is an explanatory diagram for explaining the two-dimensional gradation conversion characteristics.
  • the horizontal axis is the input image signal IS
  • the vertical axis is the output of the converted processing signal OS.
  • the two-dimensional gradation conversion has predetermined gradation conversion characteristics according to the signal levels of the composite signals MUS0 to MUSn. Therefore, if the pixel value of the image signal IS is an 8-bit value, the pixel value of the output signal OS with respect to the value of the image signal IS divided into 256 levels is determined by a predetermined two-dimensional gradation conversion characteristic.
  • the gradation conversion characteristic is a gradation conversion curve having a predetermined gamma conversion characteristic, and the output monotonously decreases with respect to the subscript of the composite signal MUS. Note that even if there is a part of the subscript of the composite signal MUS where the output is not partly monotonically decreasing, it may be substantially monotonically decreasing. Also, as shown in Fig.
  • the visual processing unit 30 selects MUS0 when the input image signal IS has a value “a” and the brightness value of the surrounding area is small.
  • the value of the processing output OS becomes “P”, and conversely, when the brightness value of the surrounding area is large, selecting the MUSn makes the value of the processing output OS “Q”.
  • the processing output OS can be largely changed from the value “P” to the value “Q” by the change in the brightness value of the surrounding area. As a result, the contrast in the dark part can be enhanced according to the composite signal MUS.
  • the gradation conversion characteristic of curve 2 shown in FIG. 22 can be provided.
  • the tone conversion characteristics of curve 2 can adjust the brightness of the entire image (gamma conversion), but there are no visual effects such as increasing local contrast.
  • various visual processing effects can be produced, and knee processing, DR compression processing, color processing, or brightness adjustment (gradation processing, contrast) (Including adjustment).
  • FIG. 23 is an explanatory diagram for explaining the output of the processing signal OS.
  • the horizontal axis is the pixel position to be processed, and the vertical axis is the output of the composite signal MUS.
  • the composite signal MUS is an intermediate output between the image signal IS and the unsharp signal US.
  • the processing signal OS visually processed based only on the image signal IS is set to OS (IS, IS), and the visual processing based on the image signal IS and the unsharp signal US is performed.
  • OS OS
  • IS, MUS which is the processing signal OS visually processed according to the image signal IS and the composite signal MUS
  • OS IS, IS
  • Output is intermediate to OS (IS, us).
  • the visual processing unit 30 can increase or decrease the local contrast enhancement effect according to the composite signal MUS.
  • there are various effects ranging from the effect of processing that only changes the brightness of the entire image to the effect of processing that changes (changes) the contrast in the local area according to the ambient brightness.
  • Visual effects can be realized with the visual processing device 1001.
  • knee processing, DR compression processing, color processing, and the like can be realized by changing the two-dimensional gradation conversion characteristics.
  • the visual processing unit 30 may have a two-dimensional LUT.
  • the visual processing unit 30 sets the characteristic data (hereinafter referred to as “profile”) shown in FIG. 22 in the two-dimensional LUT. And tone conversion.
  • the visual processing unit 30 may perform visual processing using an arithmetic circuit.
  • the 2D LUT table can be eliminated, and the circuit scale of the visual processing unit 1 001 can be eliminated. Can be reduced.
  • the special image detection unit 2140 will be described with reference to FIGS. 24, 25, 26, and 27.
  • FIG. Here, a case will be described in which the bias of information in the special image is detected also in the area where the density changes in the image. The change in shading is detected from the edge component.
  • FIG. 24 is a block diagram showing the configuration of the special image detection unit 2140
  • FIG. 25 is an explanatory diagram for explaining the special image
  • FIG. 26 is an explanatory diagram for explaining the edge pixel
  • FIG. 27 is an effect adjustment for the special image.
  • FIG. 6 is an explanatory diagram for explaining output of a signal DS.
  • the special image detection unit 2140 includes an edge detection unit 2141 that detects an edge amount for each pixel from the image signal IS, and an edge amount determination unit that determines an edge pixel whose edge amount is a predetermined value or more. 2142, an edge density calculation unit 2143 that calculates the ratio of the number of edge pixels to the total number of pixels of the image signal IS, and an effect that outputs the special image effect adjustment signal DS according to the ratio calculated by the edge density calculation unit 2143 And an adjustment signal generator 2144.
  • the visual processing device 1001 can detect a special image in which the edge component having an extremely small number of gradation levels is limited to the contour region of the drawn image, and can detect a bias in the information.
  • the special image detection unit 2140 detects a statistical deviation of statistical information from the frame image of one or more frames before the image signal is a frame image, and the field of one or more fields before the image signal force field image. Image power Detects statistical information bias.
  • the visual processing device 1001 can use the special image effect adjustment signal DS corresponding to the bias of the special image information from the head of the frame or field.
  • the special image detection unit 2140 processes the special image 200 shown in FIG. explain about.
  • the special image 200 includes a background region 201, a pattern group 202, a pattern group 203, and a pattern group 204, and the gray value is constant or small in all regions. Each group has a different shape, but has the same gray value.
  • the edge detection unit 2141 detects the edge amount for each pixel from the image signal IS.
  • the edge detection unit 2141 detects the edge amount using an edge detection filter (not shown) such as a first-order differential filter such as a Sobel filter or a Prewitt filter, or a second-order differential filter such as a Laplacian filter.
  • an edge detection filter such as a first-order differential filter such as a Sobel filter or a Prewitt filter, or a second-order differential filter such as a Laplacian filter.
  • the edge amount determination unit 2142 compares the preliminarily set threshold value and the edge amount for each pixel, and determines the edge pixel when the edge amount is equal to or greater than a predetermined threshold value.
  • an output 300 as shown in FIG. 26 is obtained.
  • the edge pixels are the edge pixel 301, the edge pixel 302, and the edge pixel 303, which are generated in the contour region of the graphic pattern of the special image 200.
  • the edge density calculation unit 2143 calculates the edge density, which is the ratio of the number of edge pixels to the total number of pixels of the image signal IS, as follows.
  • Edge density number of edge pixels ⁇ total number of pixels
  • the edge density is the ratio of the number of edge pixels to all the pixels in the frame. If the image signal IS is a field image, the ratio is the ratio of the number of edge pixels to all pixels in the field.
  • the effect adjustment signal generator 2144 adjusts the output according to the edge density. That is, the effect adjustment signal generator 2144 outputs the signal level (value) of the special image effect adjustment signal DS as the edge density increases. For example, as shown in FIG. 27, the signal level of the special image effect adjustment signal DS is increased in a range where the edge density is a predetermined value Tha or more and a predetermined value Thb. By providing the threshold value in this way, it is possible to generate the special image effect adjustment signal DS in which the visual effect is completely eliminated when the special image is included in the threshold value “Tha” or less.
  • a special image effect adjustment signal DS for processing without reducing the visual effect is generated.
  • the horizontal axis is the edge density
  • the vertical axis is the output of the special image effect adjustment signal DS.
  • the signal level range of the special image effect adjustment signal DS to be output is changed from “0.0” to “1.0”, but “0.2” to “1.0” depending on the intensity of visual processing. You may make it adjust to ".”
  • the visual processing device 1001 is configured so that the visual processing effect becomes stronger as the signal level of the special image effect adjustment signal DS increases.
  • the continuous change processing unit 50 continuously outputs the special image effect adjustment signal DS between frames when the frame is output, or between the fields when the special image effect adjustment signal DS is output field by field. It works to change the effect adjustment signal MOD effectively.
  • the continuous change processing unit 50 includes a storage unit (not shown) such as a register for temporarily storing the special image effect adjustment signal DS, and for the special image output from the special image detection unit 2140 in a new frame.
  • An effect adjustment signal MOD is generated by internally dividing the effect adjustment signal DS and the special image effect adjustment signal DS temporarily stored, and the generated effect adjustment signal MOD is stored in the storage unit.
  • the storage unit stores the first detected special image effect adjustment signal DS as an initial value.
  • the continuous change processing unit 50 outputs the effect adjustment signal MOD generated by this internal division calculation. This prevents the effect adjustment signal MOD from changing suddenly between frames.
  • the continuous change processing unit 50 can be realized by an I IR type filter or the like.
  • FIG. 28A is a flowchart for explaining the operation of the visual processing device 1001.
  • FIG. 28 (b) is a diagram showing an example of the configuration of the continuous change processing unit 50.
  • the frame image power of one or more frames before is also detected as a statistical information bias.
  • a plurality of field images are input to the visual processing device 1001 in order to detect a bias of statistical information on the field image power of one or more fields before (S201).
  • the special image detection unit 2140 detects a special image from the image signal IS that is a frame image or a field image to be detected. , Special image according to statistical bias of detected special image
  • the image effect adjustment signal DS is output (S202).
  • the visual processing device 1001 performs an interpolation process so that the effect adjustment signal MOD continuously changes between frames.
  • the visual processing device 1001 reads out the effect adjustment signal MODI of the previous frame temporarily stored in the storage unit 5001 such as a temporary storage by the continuous change processing unit 50 (S203), and detects the special detection detected in step S202.
  • the effect adjustment signal DS for image and the effect adjustment signal MODI read in step S203 are interpolated by internal division etc., and the effect adjustment signal MOD generated by the interpolation processing is output from the continuous change processing unit 50 (S204). ).
  • S204 continuous change processing unit 50
  • the visual processing device 1001 temporarily stores the effect adjustment signal MOD generated by interpolating the special image effect adjustment signal DS and the effect adjustment signal MOD1 in the storage unit 5001 (S205).
  • this interpolation processing is based on internal division calculation, the ratio of the internal division is given in advance.
  • the effect adjustment unit 1020 generates a composite signal MUS that combines the image signal IS and the unsharp signal US from the spatial processing unit 10 in accordance with the effect adjustment signal MOD (S206). .
  • the visual processing unit 30 selects one of the two-dimensional gradation conversion characteristic curves shown in FIG. 22 according to the composite signal MUS, and converts the image signal IS (S207).
  • the visual processing device 1001 determines whether or not there is a frame image to be processed next (S208).
  • the visual processing is completed.
  • the process returns to step S201 to input the next frame image. Thereafter, the steps from S201 force to S208 are repeatedly executed until there is no frame that needs to be processed.
  • the interpolation processing target is not limited to between frames but may be between fields. .
  • the visual processing device 1001 of Embodiment 6 of the present invention even when a special image is input, an edge in the image is detected and the detected edge amount is used. Since the effects of visual processing are adjusted, the side effects can be suppressed in special images while enhancing the visual effects in natural images.
  • the method of detecting the statistical bias is not limited to the method of the special image detection unit 2140 described above.
  • the special image has an extremely small proportion of the area where the shading changes in the image of the image signal IS, or an extremely large proportion of the area where the shading does not change in the image of the image signal IS! , With statistical information bias.
  • the special image detection unit 700 according to the modification 1 detects the bias of the statistical information in the image area IS in which the density of the image signal IS does not change. A region where the shading does not change can be detected by the flatness of the image.
  • a method of detecting the flatness a method of detecting a deviation in the number of gradations from the image signal IS is employed. In an image (an image in which the distribution of the number of gradation levels taken by each pixel is extremely narrow) where the number of gradation levels (number of gradations) that each pixel can make is extremely small, the shading is constant. Since a certain area is wide, the flatness in the image is high. The degree of the special image can be obtained from this information bias.
  • FIG. 29 is a block diagram showing a configuration of the special image detection unit 700 of Modification Example 1.
  • FIG. 30 is an explanatory diagram for explaining the frequency distribution detected by the frequency detection unit 701 of Modification Example 1.
  • FIG. 31 is a modification example.
  • FIG. 6 is an explanatory diagram for explaining a special image effect adjustment signal DS output from the special image detection unit 700 of FIG. 1;
  • the special image detection unit 700 compares the frequency for each gradation level with a predetermined threshold, and the frequency detection unit 701 for detecting the frequency for each gradation level from the image signal.
  • the frequency determination unit 702 that determines a gradation level having a higher frequency
  • the gradation number detection unit 703 that detects the number of gradation levels determined to be higher by the frequency determination unit 702, and the gradation number detection unit 703
  • an effect adjustment signal generator 704 for outputting an effect adjustment signal according to the detected number of gradation levels.
  • the frequency detection unit 701 detects the frequency for each gradation level from the image signal by the histogram method. For example, if the image signal is 256 gradations, each gradation level from "0" to "255" Detect the appearance frequency of
  • the frequency determination unit 702 compares the frequency for each gradation level with a predetermined threshold, and detects a gradation level with a frequency greater than the predetermined threshold.
  • the frequency determination unit 702 determines that the frequency 401 is greater than a predetermined threshold value Th at the gradation level La. Similarly, the frequency determination unit 702 determines that the frequency 402, the frequency 403, and the frequency 400 are each greater than a predetermined threshold Th at the gradation level Lb, the gradation level Lc, and the gradation level Ld.
  • the horizontal axis in FIG. 30 is the gradation level, and the vertical axis is the frequency.
  • the gradation number detection unit 703 counts the number of gradation levels determined by the frequency determination unit 702 as having a high frequency.
  • the effect adjustment signal generator 704 increases the signal level (value) of the special image effect adjustment signal DS as the number of gradations increases in accordance with the counted number of gradation levels. Outputs adjustment signal DS. For example, as shown in FIG. 31, the signal level (value) of the special image effect adjustment signal DS is increased within a range where the counted gradation level number is a predetermined value The or more and a predetermined value Thd. .
  • the effect adjustment signal generation unit 704 can generate the special image effect adjustment signal DS in which the visual effect is completely eliminated when the threshold value is “Thc” or less where the special image is included.
  • the effect adjustment signal generation unit 704 can generate the special image effect adjustment signal DS for processing without degrading the visual effect when the threshold value “Thd” is greater than or equal to a normal image that is not a special image.
  • the horizontal axis represents the number of gradation levels
  • the vertical axis represents the output of the special image effect adjustment signal DS.
  • the range of the value of the special image effect adjustment signal DS to be output was changed from ⁇ 0.0 '' to ⁇ 1.0 '', but from ⁇ 0.2 '' to ⁇ 1. It may be adjusted to “0” or the like. Further, the visual processing device 1001 is configured so that the effect of the visual processing becomes stronger as the value of the special image effect adjustment signal DS increases.
  • the degree of the special image can be detected from the image signal according to the bias of the image information, and the special image detection unit 2140 is replaced with the special image detection unit 700. It can be replaced.
  • the special image detection unit 80 according to the second modification will be described.
  • the special image detection unit 80 according to the modification 2 detects the bias of the statistical information in the image area IS where the density of the image signal IS does not change. A region where the shading does not change can be detected by the flatness of the image.
  • an average of averaging a plurality of detected continuous lengths is detected from the image signal IS by detecting a continuous length in which similar pixels having a luminance difference with an adjacent pixel are equal to or less than a predetermined value.
  • a method of detecting the continuous length is adopted.
  • the degree of the special image can be detected.
  • the degree of the special image can be detected from the statistical information bias.
  • FIG. 32 is a block diagram showing the configuration of the special image detection unit 80 of the second modification
  • FIG. 33 is an explanatory diagram for explaining the continuous length of the second modification
  • FIG. 34 is an effect adjustment signal DS for the special image of the second modification. It is explanatory drawing for demonstrating.
  • the special image detection unit 80 of Modification 2 includes a similar luminance detection unit 81 that detects a similar pixel in which the luminance difference between adjacent pixels is equal to or less than a predetermined value from the image signal IS, and a similar pixel detection unit.
  • an effect adjustment signal generator 84 for outputting a special image effect adjustment signal DS according to the average continuous length.
  • the similar luminance detection unit 81 detects a similar pixel in which the luminance difference between adjacent pixels is equal to or less than a predetermined value from the image signal.
  • the predetermined value is a value that is determined experimentally and is determined by the image quality specifications of the required device.
  • the continuous length detection unit 82 detects a continuous length in which similar pixels are continuous. For example, as shown in FIG. 33, similar pixels are continuous in the vertical direction such as the vertical direction 503, the vertical direction 504, and the vertical direction 505, and in the horizontal direction such as the horizontal direction 500, the horizontal direction 501, and the horizontal direction 502. The number of pixels is detected as a continuous length.
  • the average continuous length calculation unit 83 averages a plurality of continuous lengths detected by the continuous length detection unit 82. The average continuous length is calculated.
  • the effect adjustment signal generation unit 84 outputs the signal level (value) of the special image effect adjustment signal DS so as to decrease as the average continuous length increases in accordance with the average continuous length. For example, as shown in FIG. 34, the signal level (value) of the special image effect adjustment signal DS is decreased within the range where the detected average continuous length is equal to or greater than the predetermined value “The” and the predetermined value “T hfj”.
  • the horizontal axis is the average continuous length
  • the vertical axis is the output of the special image effect adjustment signal DS
  • the effect adjustment signal generator 84 can generate the special image effect adjustment signal DS in which the visual effect is completely eliminated when the threshold value is “13 ⁇ 4” or more including the special image.
  • the range of the value of the special image effect adjustment signal DS to be output is “0.0” to “1.0”. Depending on the intensity of visual processing, “0.2” to “1.0”, etc. You may make it adjust to. Further, the visual processing device 1001 is configured so that the effect of visual processing becomes stronger as the value of the special image effect adjustment signal DS is larger.
  • the degree of the special image having the bias of the image information can be detected from the image signal, and the special image detection unit 2140 can be replaced with the special image detection unit 80. It becomes possible.
  • the special image detection unit 90 according to Modification 3 will be described.
  • the ratio power of the region where the shading changes in the image of the image signal IS is detected.
  • the region where the shading changes can be detected by the edge component in the image.
  • it is a special image by detecting a high-frequency block including a plurality of divided block force high-frequency components as edge components in the image and detecting the ratio of the number of high-frequency blocks to the total number of divided blocks. Detect the degree!
  • FIG. 35 is a block diagram showing the configuration of the special image detection unit 90 of Modification 3.
  • FIG. 36 is an explanatory diagram for explaining the block image of Modification 3.
  • FIG. 37 is the effect adjustment for special image of Modification 3. It is explanatory drawing for demonstrating the signal DS.
  • the special image detection unit 90 of Modification 3 includes a high-frequency block detection unit 91 that detects a high-frequency block including a high-frequency component from the image signal IS divided into a plurality of blocks, and a high-frequency block for all blocks.
  • a high-frequency block density detection unit 92 that detects a ratio of the number of blocks, and an effect adjustment signal generation unit 93 that outputs an effect adjustment signal according to the ratio of the number of blocks detected by the high-frequency block density detection unit 92 are provided.
  • the high frequency block detecting unit 91 can detect a high frequency component for each encoded block. For example, high frequency components can be extracted by detecting the AC coefficient for each code block.
  • the high frequency block detecting unit 91 determines that a block when a high frequency component equal to or greater than a predetermined value is detected is a high frequency block.
  • the high frequency block detection unit 91 detects a high frequency component and determines that it is “a high frequency block”. On the other hand, the high frequency block detection unit 91 cannot detect the high frequency components because the blocks 601 and 602 have substantially constant gray values, and determines that each is not a high frequency block. Hereafter, the same determination is made for all the divided blocks.
  • the high frequency block density detector 92 detects the ratio of the number of high frequency blocks to the total number of blocks divided into a plurality of blocks (hereinafter referred to as “block density”!).
  • the effect adjustment signal generator 93 outputs the special image effect adjustment signal DS by increasing the value of the special image effect adjustment signal DS as the block density increases in accordance with the block density. For example, as shown in FIG. 37, the value of the special image effect adjustment signal DS is increased in a range where the detected block density is greater than or equal to a predetermined value Thg to a predetermined value Thh.
  • the effect adjustment signal generation unit 93 can generate the special image effect adjustment signal DS that completely eliminates the visual effect when the threshold value is “11 ⁇ ” or less including the special image.
  • the effect adjustment signal generation unit 93 when the threshold value “Thh” that includes a normal image that is not a special image is greater than or equal to the threshold value “Thh”, does not weaken the visual effect.
  • the result adjustment signal DS can be generated.
  • the horizontal axis is the block density
  • the vertical axis is the output of the special image effect adjustment signal DS.
  • the range of the value of the special image effect adjustment signal DS to be output is changed from “0.0” to “1.0”, but from “0.2” to “1.0” depending on the intensity of visual processing. You may make it adjust to.
  • the visual processing device 1001 is configured so that the effect of the visual processing becomes stronger as the value of the special image effect adjustment signal DS is larger.
  • the degree of the special image having the bias of the image information can be detected from the image signal IS, and the special image detection unit 2140 is detected by the special image detection unit 90. It becomes possible to replace with.
  • a reduction processing unit (not shown) for reducing the image signal is provided between the image signal and the special image detection unit 2140, 700, 80, or 90, and statistically calculated from the reduced image generated by the reduction processing unit. It is also possible to detect special images with information bias and output an effect adjustment signal based on this statistical information bias.
  • a reduced image By using a reduced image, it is possible to detect a flat region near the edge while suppressing the influence of noise. In other words, since the noise component of the reduced image generated by the reduction method that thins out after averaging the image signals is reduced, it is possible to detect the statistical information bias while suppressing the influence of noise. If a reduced image is used, the number of pixels to be detected can be reduced and the amount of calculation can be reduced.
  • the visual processing device 1001 according to Embodiment 6 of the present invention outputs a composite signal MUS that is synthesized by changing the ratio of the image signal IS and the peripheral image information (unsharp signal) US in accordance with the effect adjustment signal MOD.
  • the visual processing unit 30 outputs the processing output OS obtained by visually processing the image signal in accordance with the composite signal MUS from the effect adjusting unit 1020.
  • the visual processing device 1002 according to the seventh embodiment of the present invention the visual processing device 1002
  • the adjustment unit 2021 outputs a combined output OUT obtained by combining the visually processed processing output OS and the image signal IS according to the effect adjustment signal.
  • About visual processing device 1002 according to Embodiment 7 of the present invention This will be described with reference to FIG.
  • FIG. 38 is a block diagram showing the configuration of the visual processing device 1002 according to the seventh embodiment of the present invention.
  • the same parts as those in Embodiment 6 are denoted by the same reference numerals, and detailed description thereof is omitted.
  • the visual processing unit 30 outputs a processing output OS based on the image signal IS and the output US of the spatial processing unit 10.
  • the effect adjustment unit 2021 performs the internal division operation on the image signal IS and the processing output OS according to the effect adjustment signal MOD, thereby making the visual processing effect different.
  • the output OUT from the effect adjustment unit 2021 is calculated by internal division calculation as shown in (Equation 9) below.
  • Equation 9 can also be realized by modifying it as (Equation 10).
  • the synthesized signal OUT synthesized by changing the ratio of the processed signal OS and the image signal IS in accordance with the effect adjustment signal MOD. It can output, and the effect of visual processing can be made different.
  • the special image detection unit 2140 may be replaced with the special image detection unit 700 according to the sixth embodiment of the present invention. According to this, a special image can be similarly detected, and an effect adjustment signal MOD corresponding to the bias of the image information can be generated.
  • the special image detection unit 2140 may be replaced with the special image detection unit 80 according to the sixth embodiment of the present invention. According to this, a special image can be similarly detected, and an effect adjustment signal MOD corresponding to the bias of the image information can be generated.
  • the special image detection unit 2140 may be replaced with the special image detection unit 90 of the sixth embodiment of the present invention. According to this, a special image can be similarly detected, and an effect adjustment signal MOD corresponding to the bias of the image information can be generated.
  • the visual processing device 1001 according to Embodiment 6 of the present invention outputs a composite signal MUS that is synthesized by changing the ratio of the image signal IS and the peripheral image information (unsharp signal) US in accordance with the effect adjustment signal MOD.
  • the visual processing unit 30 is a composite signal MUS from the effect adjustment unit 1020.
  • the effect adjustment unit 2022 performs visual processing according to the effect adjustment signal MOD.
  • An embodiment in which a profile hereinafter referred to as “composite profile” ⁇ ) is created by changing the ratio of the output from each of the profiles having different effects, and set in the LUT of the visual processing unit 30. This will be described with reference to FIG.
  • FIG. 39 is a block diagram showing the configuration of the visual processing device 1003 according to Embodiment 8 of the present invention.
  • the same parts as those in Embodiment 6 are denoted by the same reference numerals, and detailed description thereof is omitted.
  • the effect adjustment unit 2022 synthesizes the third profile 6000 and the fourth profile 6001 having different visual processing intensities by internal division calculation according to the effect adjustment signal MOD, and creates a composite profile to generate the visual processing unit 30. Set to LUT. You can also generate a synthesis profile by external division calculation.
  • the visual processing unit 30 can perform visual processing with different levels of visual processing and different visual effects according to the composite profile set in the LUT.
  • a plurality of profiles having different visual processing intensities and effects are synthesized in accordance with the effect adjustment signal MOD, and the synthesized profile is combined with the visual processing unit By setting 30 LUTs, the effect of visual processing can be made different.
  • the special image detection unit 2140 may be replaced with the special image detection unit 700 in the sixth embodiment of the present invention. According to this, a special image can be detected in the same manner, and an effect adjustment signal MOD corresponding to the deviation of information can be generated.
  • the special image detection unit 2140 may be replaced with the special image detection unit 80 in the sixth embodiment of the present invention. According to this, a special image can be detected in the same manner, and an effect adjustment signal MOD corresponding to the information bias can be generated.
  • the special image detection unit 2140 may be replaced with the special image detection unit 90 in the sixth embodiment of the present invention. According to this, a special image can be detected in the same manner, and an effect adjustment signal MOD corresponding to the information bias can be generated. (Embodiment 9)
  • gradation conversion values based on the two-dimensional gradation conversion characteristics are output.
  • 9 describes a gain-type visual processing system 1004 that performs tone conversion using a gain output, with reference to FIGS. 40 and 41.
  • FIG. 10 describes a gain-type visual processing system 1004 that performs tone conversion using a gain output, with reference to FIGS. 40 and 41.
  • FIG. 40 is a block diagram showing the configuration of the gain-type visual processing system 1004 according to Embodiment 9 of the present invention
  • FIG. 41 is an explanatory diagram for explaining the two-dimensional gain characteristics.
  • the gain-type visual processing system 1004 displays the gain signal GAIN obtained by visually processing the image signal IS.
  • a gain-type visual processing device 4005 for output and a multiplier 4011 for multiplying the gain signal GAIN and the image signal IS are provided.
  • the gain-type visual processing device 4005 includes a visual processing device 1001 that outputs a processed signal OS obtained by visually processing the image signal IS, and a divider 4012 that divides the processed signal OS by the image signal IS.
  • the visual processing device 1001 outputs a gradation conversion value obtained by visually processing the output of the image signal IS. By dividing the gradation conversion value by the image signal IS, a gain-type visual processing device 4005 is obtained. Can be realized.
  • a multiplier 4011 multiplies the gain signal GAIN output from the gain-type visual processing device 4005 and the image signal IS, and outputs a gradation conversion value obtained by visually processing the image signal IS.
  • the visual processing unit 30 may directly use a profile having a two-dimensional gain characteristic shown in FIG.
  • the vertical axis in FIG. 41 is the gain output GN
  • the horizontal axis is the image signal IS.
  • the two-dimensional gain characteristic shown in FIG. 41 is equivalent to the one obtained by dividing the output of the two-dimensional gradation characteristic profile shown in FIG. 22 by the image signal IS.
  • a profile having this two-dimensional gain characteristic may be set in the LUT of the visual processing unit 30 of the visual processing device 1001. In this way, if the profile of the two-dimensional gain characteristic is set in advance in the LUT of the visual processing unit 30, the gain output GN and the gain signal GAIN are equivalent, so even if the divider 12 is deleted, the gain-type visual processing is performed.
  • Device 4005 can be implemented.
  • the gain-type visual processing system 1004 As described above, in the gain-type visual processing system 1004 according to the ninth embodiment of the present invention.
  • the gain-type visual processing device 4005 since the change in the processed signal visually processed is small with respect to the change in the input image signal IS, the number of bits of the input signal can be reduced and the circuit scale can be reduced.
  • the visual processing unit 30 is equipped with a two-dimensional LUT, the memory capacity can be reduced by IJ.
  • the visual processing device 1001 according to the sixth embodiment of the present invention may be replaced with the visual processing device 1002 according to the seventh embodiment of the present invention. This also makes it possible to realize the gain-type visual processing device 4005.
  • the visual processing device 1001 in the sixth embodiment of the present invention may be replaced with the visual processing device 1003 in the eighth embodiment of the present invention. This also makes it possible to realize the gain-type visual processing device 4005.
  • the sixth embodiment to the ninth embodiment of the present invention it is not a special image!
  • the visual processing effect can be maintained and the special image can be maintained. Side effects can be suppressed when is entered.
  • Various functions such as a spatial processing function, an effect adjustment function, and a visual processing function in the visual processing device or the visual processing system described in the embodiment of the present invention are performed by a nodeware using an integrated circuit or the like. Alternatively, it may be implemented by software that operates using a central processing unit (hereinafter referred to as “CPU”), a digital signal processing unit, or the like. Further, the various functions described above may be realized by a mixed process of software and nodeware. First, when the various functions are implemented using nodeware, each function in the embodiment of the present invention is individually integrated as an integrated circuit. Alternatively, an integrated circuit integrated on one chip so as to include a part or all of them may be used. The integrated circuit here is not limited to LSI, but may be called IC, system LSI, super LSI, or ultra LSI depending on the degree of integration.
  • the integrated circuit may be realized by a dedicated circuit or a general-purpose processor.
  • a dedicated circuit for example, an FPGA (Field Programmable Gate Array) that can be programmed after manufacturing a semiconductor chip, or a reconfigurable processor that can reconfigure the connection and setting of cells inside the integrated circuit may be used.
  • FPGA Field Programmable Gate Array
  • reconfigurable processor that can reconfigure the connection and setting of cells inside the integrated circuit may be used.
  • integrated circuit technology is developed based on the advancement of semiconductor technology or other derivative technology, it is naturally also possible to perform functional block integration using that technology. For example, biocomputers may be applied due to advances in noise technology.
  • FIG. 46 is a block diagram showing a configuration of a computer according to the embodiment of the present invention.
  • a computer 4612 includes a CPU 460 that executes various program instructions.
  • ROM4601 read-only memory 4601
  • RAM4 random access memory 4602
  • an input unit 4603 for inputting an image an output unit 4604 for outputting an image
  • a storage unit 4605 for storing programs and various data.
  • a communication unit 4606 for communicating with the outside, and a drive for appropriately connecting an information storage medium
  • Each functional unit transmits and receives control signals and data via the bus 4610.
  • the CPU 4600 executes various functions according to programs stored in the ROM 4601.
  • the ROM 4601 stores programs, profiles, and the like.
  • the RAM 4602 temporarily stores data necessary for processing various functions by the CPU 100.
  • An image is input to the input unit 4603.
  • a video signal is acquired by receiving radio waves and decoding the received signal. You can also get digital images directly via wire.
  • the output unit 4604 outputs an image. For example, output to a display device such as a liquid crystal display device or a plasma display.
  • the storage unit 4605 is configured with a magnetic memory or the like, and stores various programs and data.
  • the communication unit 4606 is connected to the network 111 and acquires a program via the network 111, or the storage unit 4605 as necessary. It is also possible to install the acquired program. As a result, the computer 6 uses the communication unit 4606 to download the program. Loading is possible.
  • the drive 4607 appropriately connects an information storage medium, and acquires storage information stored in the information storage medium.
  • the information storage medium is, for example, a disk 4608 such as a magnetic disk, a magneto-optical disk, or an optical disk, or a memory card 4609 such as a semiconductor memory. It is also possible to store a program or profile for executing various functions in the disk 4608 or a memory card 4609 such as a semiconductor memory, and give the information to the computer 4612.
  • the program may be preliminarily incorporated into the computer with dedicated hardware, or may be preliminarily incorporated into the ROM 4601 and the storage unit 4605 and provided.
  • the program can be applied to devices that handle images, such as information processing devices, televisions, digital cameras, mobile phones, and PDAs.
  • the program is built in or connected to a device that handles images, and executes visual processing similar to the visual processing realized by the visual processing device or the visual processing system described in the above embodiment.
  • the display mode may be switched when a special image is detected.
  • the data for the referenced two-dimensional LUT is stored in a storage device such as a hard disk or ROM. Referenced as necessary. Furthermore, the data of the 2D LUT is provided from the 2D gain data (profile) providing device for the 2D LUT that is directly connected to the visual processing device or indirectly connected via the network. It may be a thing.
  • the computer 4612 performs an effect adjustment step for performing processing for setting the effect of visual processing according to the effect adjustment signal, and the input image signal is visually displayed.
  • a visual processing step for performing processing, a target level setting step for setting a predetermined target level, and a spatial processing step for performing predetermined spatial processing on the image signal and outputting a processing signal are executed.
  • the computer 4612 outputs a synthesized signal obtained by synthesizing a predetermined target level and the processing signal according to the effect adjustment signal, and in the visual processing step, the synthesized signal and the image signal are synthesized. Based on the above, the image signal is subjected to gradation conversion.
  • the computer 4612 performs an effect adjustment step for performing processing for setting the effect of the visual processing according to the effect adjustment signal, and the input image signal is visually displayed.
  • the computer 4612 is caused to visually process the image signal based on the image signal and the peripheral image information, and in the effect adjustment step, the effect of the visual processing is set according to the effect adjustment signal.
  • the computer 4612 realizes the second visual processing method. Further, in the effect adjustment signal generation step, a flat region adjacent to the edge region is detected from the image signal. Detect and output effect adjustment signal.
  • the computer 4612 performs an effect adjustment step for performing processing for setting the effect of visual processing according to the effect adjustment signal, and the input image signal is visually displayed.
  • a visual processing step for processing, a peripheral image information extraction step for extracting peripheral image information of the input image signal, and a special image having a statistical information bias from the image signal is detected, and statistical information is detected.
  • the computer 4612 is caused to visually process the image signal based on the image signal and the peripheral image information, and in the effect adjustment step, the effect of the visual processing is set according to the effect adjustment signal.
  • FIG. 42 is a block diagram showing the overall configuration of the content supply system exlOO that implements the content self-confidence service.
  • the communication service area is divided into desired sizes, and base stations exl07 to exl10, which are fixed radio stations, are installed in each cell!
  • This content supply system exlOO for example, is connected to the Internet exlOl.
  • Each device such as 15 is connected.
  • the content supply system exlOO is not limited to the combination as shown in FIG. 42, and any combination may be connected.
  • each device may be directly connected to the telephone network exl04 without going through the base stations exl07 to exl10 which are fixed radio stations.
  • the camera exl l3 is a device that can shoot movies such as a digital video camera.
  • Cellular phones are PDC (Personal Digital Communications), CDMA (Code Division Multiple Access), W—CDMA (Wideband—Code Division Multiple Access), or GSM (Global System for Mobile Communications) , Or PHS (Personal Handyphone System), etc.
  • the encoded data may be encoded by the camera ex 113 or by a server that performs data transmission processing.
  • the moving image data shot by the camera ex 116 may be transmitted to the streaming server exl03 via the computer ex 111.
  • the camera exl 16 is a device such as a digital camera that can shoot still images and movies. In this case, the sign of the moving image data may be performed by the camera exl 16 or the computer exl 11.
  • the encoding process is performed in the LSI exl 17 included in the computer exl 11 and the camera exl 16.
  • the software for image encoding / decoding may be incorporated into any storage medium (CD-ROM, flexible disk, hard disk, etc.) that is a recording medium readable by a computer exlll.
  • the video data may be transmitted by the mobile phone exl 15 with camera. The moving image data at this time is data encoded by the LSI of the mobile phone exl 15.
  • the user can use camera exl 13, camera exl 16, etc.
  • the content (eg, video shot of live music) that has been shot with is encoded and sent to the streaming server exl03, while the streaming server exl03 streams the content data to the client that requested it.
  • Examples of the client include a computer exl 11, a PDA exl 12, a camera exl 13, a mobile phone exl 14, and the like that can decode the encoded data.
  • the content supply system exlOO can receive and play back the encoded data at the client, and also receive, decode and play back in real time at the client. This makes it possible to implement personal broadcasting.
  • the visual processing device described in the above embodiment may be used.
  • the computer exl 11, PDA exl 12, camera exl 13, mobile phone exl 14, etc. may be equipped with the visual processing device shown in the above embodiment, and realize the visual processing method and visual processing program. .
  • the streaming server exl03 may provide two-dimensional gain data (profile) to the visual processing device via the Internet exlOl. Furthermore, there may be a plurality of streaming servers exl03, each providing different two-dimensional gain data. Further, the streaming server exl03 may create two-dimensional gain data. As described above, when the visual processing device can acquire the two-dimensional gain data via the Internet exlOl, the visual processing device does not need to store the two-dimensional gain data used for the visual processing in advance. It is also possible to reduce the storage capacity. In addition, since two-dimensional gain data can be acquired from multiple servers connected via the Internet exlOl, different visual processing can be realized. A mobile phone will be described as an example.
  • FIG. 43 is a diagram showing a mobile phone exl5 provided with the visual processing device 1 of the above embodiment.
  • the mobile phone exl 15 is an antenna ex 201 for transmitting and receiving radio waves to and from the base station exl 10, a camera such as a CCD camera, a camera part ex203 capable of taking still images, and a picture taken by the camera part ex 203 , Display unit ex202 such as a liquid crystal display that displays data decoded from the video received by the antenna ex201, etc.
  • Recording media ex207 is a flash memory device that is a kind of EEPROM (Electrically Erasable and Programmable Read Only Memory) that is a nonvolatile memory that can be electrically rewritten and erased in a plastic case such as an SD card. .
  • EEPROM Electrically Erasable and Programmable Read Only Memory
  • the mobile phone exl 15 has a power supply circuit unit ex310, an operation input control unit ex304, and an image code for the main control unit ex311 which is designed to control the main unit with the display unit ex202 and the operation key ex204.
  • Conversion unit ex312, camera interface unit ex303, LCD (Liquid Crystal Display) control unit ex302, image decoding unit ex309, demultiplexing unit ex308, recording / playback unit ex307, modulation / demodulation circuit unit ex306 and audio processing unit ex305 They are connected to each other via ex313.
  • the power supply circuit ex310 starts up the camera-equipped digital mobile phone exl l5 by supplying power to each part from the battery pack. To do.
  • the mobile phone exl 15 is based on the control of the main control unit ex311 consisting of CPU, ROM, RAM, etc., and the voice signal collected by the voice input unit ex205 in the voice call mode is converted into digital voice data by the voice processing unit ex305.
  • the signal is converted, subjected to spectrum spreading processing by the modulation / demodulation circuit unit ex306, digital-analog conversion processing and frequency conversion processing by the transmission / reception circuit unit ex301, and then transmitted through the antenna ex201.
  • the mobile phone exl l5 amplifies the received signal received by the antenna ex201 in the voice call mode, performs frequency conversion processing and analog-digital conversion processing, performs spectrum despread processing by the modulation / demodulation circuit unit ex306, and performs voice processing. After being converted into an analog audio signal by the unit ex305, it is output via the audio output unit ex208.
  • the operation key ex2 on the main unit The text data of the e-mail input by the operation 04 is sent to the main control unit ex311 via the operation input control unit ex304.
  • the main control unit ex311 performs spread spectrum processing on the text data in the modulation / demodulation circuit unit ex306, performs digital analog conversion processing and frequency conversion processing in the transmission / reception circuit unit ex301, and then transmits to the base station e xl 10 via the antenna ex201. Send.
  • the image data captured by the camera unit ex203 is supplied to the image encoding unit ex312 via the camera interface unit ex303.
  • the image data captured by the camera unit ex203 can be directly displayed on the display unit ex202 via the camera interface unit ex303 and the LCD control unit ex302.
  • the image encoding unit ex312 converts the image data supplied from the camera unit ex203 into encoded image data by performing compression encoding, and sends this to the demultiplexing unit ex308.
  • the cellular phone exl 15 sends the sound collected by the audio input unit ex205 during imaging by the camera unit ex203 to the demultiplexing unit ex308 as digital audio data via the audio processing unit ex305.
  • the demultiplexing unit ex308 multiplexes the encoded image data supplied from the image encoding unit ex312 and the audio data supplied from the audio processing unit ex305 by a predetermined method, and the resulting multiplexed data is modulated / demodulated circuit unit Spread spectrum processing is performed at ex306, digital analog conversion processing and frequency conversion processing are performed at transmission / reception circuit section ex301, and then transmitted via antenna ex201.
  • the received signal received from the base station exl 10 via the antenna ex201 is subjected to spectrum despreading processing by the modulation / demodulation circuit unit ex306.
  • the resulting multiplexed data is sent to the multiplex separation unit ex308.
  • the demultiplexing unit ex308 separates the multiplexed data to encode the encoded bit stream of the image data and the encoded code of the audio data. It is divided into bitstreams, and the encoded image data is supplied to the image decoding unit ex309 via the synchronization bus ex313 and the audio data is processed by audio processing. Supply to the science department ex305.
  • the image decoding unit ex309 generates playback moving image data by decoding the encoded bit stream of the image data, and supplies this to the display unit ex 202 via the LCD control unit ex302.
  • moving image data included in a moving image file linked to a home page is displayed.
  • the audio processing unit ex305 converts the audio data into an analog audio signal, and then supplies this to the audio output unit ex 208.
  • the audio data included in the moving image file linked to the homepage is Played.
  • the image decoding unit ex309 may include the visual processing device of the above embodiment.
  • the present invention is not limited to the above-described system, and recently, digital broadcasting using satellites and terrestrial waves has become a topic.
  • the visual processing device described in the above embodiment is also applied to the digital broadcasting system. Can be incorporated.
  • the code I ⁇ bit stream of the video information broadcast station ex409 Ru is sent to a communication or a broadcasting satellite ex 410 via radio waves.
  • the broadcasting satellite ex410 transmits a radio wave for broadcasting, and this radio wave is received by a home antenna ex406 having a satellite broadcasting receiving facility, such as a television (receiver) ex401 or a set top box (STB) ex407.
  • the device decodes the code bitstream and reproduces it.
  • a device such as the television (receiver) ex401 or STBex407 may include the visual processing device described in the above embodiment. Further, the visual processing method of the above embodiment may be used. In addition, a visual processing program may be provided. In addition, the playback apparatus ex403 that reads and decodes the encoded bitstream recorded on the storage medium ex402 such as a CD or DVD that is a recording medium is also applied to the visual processing apparatus, the visual processing method, and the visual processing described in the above embodiment. It is possible to implement a processing program. In this case, the reproduced video signal is displayed on the monitor ex404.
  • the visual processing device, the visual processing method, and the visual processing program described in the above embodiment are mounted in the STB ex407 connected to the cable ex405 for cable television or the antenna ex406 for satellite Z terrestrial broadcasting, and this is installed on the television. It is also possible to use the monitor ex408 for playback. At this time, the visual processing device described in the above embodiment may be incorporated in the television set that STB does. Also, the car with antenna ex411 ex412 from satellite ex410 or base station exl07 It is also possible to receive a signal and play a video on a display device such as car navigation ex413 of the car ex412.
  • an image signal can be encoded and recorded on a recording medium.
  • a recorder ex420 such as a DVD recorder that records image signals on a DVD disk ex421 and a disk recorder that records on a hard disk. It can also be recorded on an SD card ex422. If the recorder ex420 includes the visual processing device of the above embodiment, the image signal recorded on the DVD disc ex421 or the SD card ex422 can be interpolated and reproduced and displayed on the motor ex408.
  • the configuration of the car navigation ex413 may be a configuration excluding the camera unit ex203, the camera interface unit ex303, and the image encoding unit ex312 in the configuration shown in FIG. 44.
  • a TV (receiver) ex401 can also be considered.
  • the mobile phone exl 14 and the like are implemented in three ways: an encoder-only transmission device and a decoder-only reception device. Possible format.
  • the visual processing device the display device, the visual processing method, the program, and the integration circuit according to the present invention, it is possible to suppress side effects even when an image having a steep edge region or a special image is input. It is possible to change the strength of visual processing of images in real time with a simple configuration. Display on color television receivers, portable devices, information processing devices, digital still cameras, game machines, etc. It can be used for output devices such as devices, projectors, and printers.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Circuits (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Picture Signal Circuits (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

 急峻なエッジ領域を有する画像や特殊画像が入力された場合であっても、副作用を抑制することができ、かつ、簡単な構成で、画像の視覚処理の強さをリアルタイムに変更する視覚処理装置、表示装置、撮影装置、携帯情報装置および集積回路を提供する。空間処理部(2)は入力信号ISからアンシャープ信号USを生成する。目標レベル設定部(4)は視覚処理の強さを調整する範囲を設定する目標レベル値Lを設定する。効果調整部(5)は外部より設定される効果調整信号MODにより、目標レベル値Lとアンシャープ信号USとを合成し、合成信号MUSを生成する。視覚処理部(3)は入力信号ISと合成信号MUSに応じて出力信号OSを出力する。これにより、視覚処理の強さを変更可能とする。

Description

視覚処理装置、表示装置、視覚処理方法、プログラムおよび集積回路 技術分野
[0001] 本発明は、視覚処理装置、表示装置、撮影装置、携帯情報装置および集積回路 に関し、特に、画像の視覚処理の強さを変更する視覚処理装置、表示装置、撮影装 置、携帯情報装置および集積回路に関する。
背景技術
[0002] 原画像の画像信号の視覚処理として、空間処理と階調処理とが知られて!/ヽる。
空間処理とは、フィルタ適用の対象となる着目画素の周辺の画素を用い、着目画 素の処理を行うことである。また、空間処理された画像信号を用いて、原画像のコント ラスト強調、ダイナミックレンジ (以下、「DR」と記す)圧縮など行う技術が知られて!/、る (例えば、特許文献 1)。
階調処理とは、着目画素の周辺の画素とは無関係に、着目画素ごとにルックアップ テーブル (以下、「LUT」と記す)を用いて画素値の変換を行う処理であり、ガンマ補 正と呼ばれることもある。例えば、コントラスト強調する場合、原画像での出現頻度の 高 ヽ(面積の大き 、)階調レベルの階調を立てる LUTを用いて画素値の変換が行わ れる。 LUTを用いた階調処理として、原画像全体に 1つの LUTを決定して用いる階 調処理 (ヒストグラム均等化法)と、原画像を複数に分割した画像領域のそれぞれに ついて LUTを決定して用いる階調処理 (局所的ヒストグラム均等化法)とが知られて いる。
従来の視覚処理装置では、変換特性が異なる複数のプロファイルデータを備え、 プロファイルデータを切り替えることにより上記の異なる視覚処理を実現して 、た (例 えば、特許文献 2)。
以下、図 47を用いて従来の視覚処理装置 900について説明する。図 47において 、視覚処理装置 900は、入力信号 ISとして取得した原画像の画素ごとの輝度値に空 間処理を実行しアンシャープ信号 USを出力する空間処理部 901と、同じ画素につ V、ての入力信号 ISとアンシャープ信号 USとを用いて、原画像の視覚処理を行!、、 出力信号 OSを出力する視覚処理部 902より構成されて ヽる。アンシャープ信号 US は輝度信号をローパスフィルタで処理した局所領域の明るさ信号であり、ぼけ信号で ある。また、視覚処理部 902は 2次元 LUTより構成されていた。
視覚処理部 902は図 48に示す階調変換特性を有するガンマ補正を実施し、画像 中の着目領域でのアンシャープ信号 USに対応する階調変換曲線を選択し、コントラ ストを高くしたり、弱くしたりしていた。例えば、画像中の暗い領域はアンシャープ信号 US0の曲線を選択して明るくし、逆に、明るい領域はアンシャープ信号 USn曲線を 選択して明るさを抑えコントラストを強めていた。これらの曲線群をプロファイルと呼ぶ プロファイルデータ登録装置 903は異なる視覚処理のプロファイル群を備え、目的 とする視覚処理に最適なプロフアイデータを視覚処理部 902に登録していた。
また、プロファイルデータ登録装置 903は、視覚処理の強さに応じて必要なプロフ アイデータに更新していた。
例えば、逆光画像でも極端に顔が暗いときと、少し暗いときとで暗部領域のコントラ ストの強調の強さを変更したい場合、最適な階調変換特性を持つプロフアイデータに 更新して明るさを調整していた。
特許文献 1:米国特許第 4667304号明細書
特許文献 2:国際公開第 2005Z027043号パンフレット
発明の開示
(発明が解決しょうとする課題)
し力しながら、上記従来の構成では、視覚処理の効果の強さに応じてプロファイル データを用意する必要があるためデータ量が多くなるという課題があった。データ量 が多くなるとプロファイルデータを格納するメモリ容量が多くなる(通常数 100バイト〜 数 10Kバイト程度)。
また、視覚処理の効果の強さに応じてプロファイルデータを更新する必要があると いう課題があった。プロファイルデータの更新には多くの更新時間が必要となるため 、画像中の局所領域ごとに視覚処理の効果をリアルタイムに変更することができない という課題があった。特に、視覚処理部を 2次元 LUTで構成した場合はデータ量が 多くなり、より多くの更新時間が必要となる。
また、人間の視覚に近い画質改善処理として、着目画素の値とその周辺領域にあ る画素の値との対比にもとづいて着目画素の値を変換する視覚処理がある。このよう な視覚処理では、処理効果をより高めるため、着目画素の位置を中心に広範囲の領 域から明るさ情報を抽出する。
しかし、着目画素の値とその周辺の画素の値との対比から着目画素の値を決定す るため、周辺領域に急峻なエッジ領域があった場合は、その周辺にある画素の値の 影響を受け、画素の値がほとんど変動しない平坦領域でも視覚処理の出力はエッジ 近傍において緩やかに変化する。平坦領域で大きな輝度の変化が発生すると、エツ ジに隣接した領域に影のような輪郭が発生し、不自然な画像となる。また、エッジ領 域の割合が少ない画像、階調数が少ない画像、隣接画素との輝度差が小さぐ類似 した値が連続して多く発生する画像、または、複数に分割されたブロック画像で高周 波成分が含まれるブロック数の割合が少ない画像など(以下、このような画像を「特殊 画像」 ヽぅ)に対して自然画に対するのと同様に視覚処理を行うと、平坦領域の輝 度変化が目につきやすぐエッジに隣接した領域に影のような輪郭が発生し、不自然 な画像になる。
本発明が解決しょうとする課題は、急峻なエッジ領域を有する画像や特殊画像が 入力された場合であっても、副作用を抑制することができ、かつ、簡単な構成で、画 像の視覚処理の強さをリアルタイムに変更することができる視覚処理装置、表示装置 、視覚処理方法、プログラムおよび集積回路を実現することである。
(課題を解決するための手段)
第 1の発明は、入力された画像信号を視覚処理して出力する視覚処理装置におい て、効果調整信号に応じて視覚処理の効果を設定するための処理を行う効果調整 部と、画像信号に視覚処理を行う視覚処理部と、を備える視覚処理装置である。 これにより、視覚処理の効果を効果調整信号により設定することが簡単な構成でで きる。したがって、視覚処理の効果の調整をリアルタイムに行うことができる。
第 2の発明は、第 1の発明であって、所定の目標レベルを設定する目標レベル設定 部と、画像信号に対して所定の空間処理を行い、処理信号を出力する空間処理部と 、をさらに備える。効果調整部は、視覚処理の効果を設定するための効果調整信号 に応じて所定の目標レベルと処理信号とを合成した合成信号を出力する。視覚処理 部は、合成信号と画像信号とに基づ!ヽて画像信号を階調変換する。
このような構成により、効果調整信号により異なる合成信号を生成して視覚処理の 強さを変更するので、所定の階調変換関数を強さの程度に合わせて変更しなくても よい。所定の階調変換関数をノ、一ドウエア回路で実施すれば、視覚処理の強さに応 じた複数の回路を持つ必要がな!、ので回路規模を削減できる。所定の階調特性を 2 次元 LUTに格納するプロファイルデータで実施すれば、視覚効果の強さに応じて複 数のプロファイルデータを持つ必要がないのでメモリ容量を削減できる。また、視覚 処理の強さに応じてプロファイルデータの更新が必要なくなるので、視覚処理部を 2 次元 LUTで構成しても、視覚処理の強さを変更できる。また、目標レベル設定部で 目標レベルを設定することにより、視覚処理装置で実現される視覚処理において、そ の視覚処理効果をどのような階調特性まで変化させるかを設定することができる。 第 3の発明は、第 1の発明であって、所定の目標レベルを設定する目標レベル設定 部と、画像信号に対して所定の空間処理を行い、処理信号を出力する空間処理部と 、画像信号を補正する補正部と、をさらに備える。効果調整部は、視覚処理の効果を 設定するための効果調整信号に応じて所定の目標レベルと処理信号とを合成した合 成信号を出力する。視覚処理部は、合成信号と画像信号とに基づいてゲイン信号を 出力する。補正部は、ゲイン信号に基づいて画像信号を補正する。
このような構成により、効果調整信号により異なる合成信号を生成することで視覚処 理の強さを変更できるので、所定のゲイン関数を固定できる。所定のゲイン関数をノヽ 一ドウエア回路で実施すれば、視覚処理の強さに応じて複数の回路を持つ必要がな Vヽので回路規模を削減できる。所定のゲイン関数を 2次元 LUTに格納するプロファ ィルデータで実施すれば、視覚処理の強さに応じて複数のプロファイルデータを持 つ必要がないのでメモリ容量を削減できる。また、視覚処理の強さに応じてプロフアイ ルデータの更新が必要な 、ため、視覚処理部を 2次元 LUTで構成してもリアルタイ ムに視覚処理の強さを変更できる。
第 4の発明は、第 1の発明であって、画像信号に対して所定の空間処理を行い、処 理信号を出力する空間処理部をさらに備える。効果調整部は、視覚処理の効果を設 定するための効果調整信号に応じて画像信号と処理信号とを合成した合成信号を 出力する。視覚処理部は、合成信号と画像信号とに基づいて画像信号を階調変換 する。
このような構成により、効果調整部は効果調整信号により画像信号と処理信号を内 分した合成信号を生成する。これにより、所定の明るさを変換するガンマ変換のみの 特性から、局所コントラスト変換する特性まで視覚処理の効果を変更することができる 。また、視覚処理の効果を変更する場合でも、所定の階調変換関数を固定できる。 第 5の発明は、第 1の発明であって、画像信号に対して所定の空間処理を行い、処 理信号を出力する空間処理部と、画像信号を補正する補正部と、をさらに備える。効 果調整部は、視覚処理の効果を設定するための効果調整信号に応じて画像信号と 処理信号とを合成した合成信号を出力する。視覚処理部は、合成された合成信号と 画像信号とに基づいてゲイン信号を出力する。補正部は、ゲイン信号に基づいて画 像信号を補正する。
このような構成により、効果調整部は効果調整信号により画像信号と処理信号を内 分した合成信号を生成する。これにより、所定の明るさを変換するガンマ変換のみの 特性から、局所コントラスト変換する特性まで視覚処理の効果を変更することができる 。また、視覚処理の効果を変更する場合でも、所定のゲイン関数を固定できる。 第 6の発明は、第 1から第 5のいずれか 1つの発明であって、視覚処理部は、 2次元 ルックアップテーブルを有する。
このような構成により、 DR圧縮、局所コントラスト、階調処理など異なる視覚効果の プロファイルを登録できる。また、ゲイン特性に基づいたデータを 2次元 LUTに格納 することで、ガンマ変換値をそのままデータとして格納するよりもメモリ容量を小さくで きる。
第 7の発明は、第 1の発明であって、入力された画像信号の周辺画像情報を抽出 する周辺画像情報抽出部と、視覚処理の効果を設定するための効果調整信号を出 力する効果調整信号発生部と、をさらに備える。視覚処理部は、画像信号と周辺画 像情報とにもとづいて画像信号を視覚処理する。効果調整部は、効果調整信号に応 じて視覚処理の効果を設定する。
この構成によれば、効果調整信号に応じて視覚処理の効果を設定する (異ならせる )ことが可能となり、副作用の発生する領域で効果を調整することで副作用を抑えるこ とがでさる。
第 8の発明は、第 7の発明であって、効果調整信号発生部は、画像信号からエッジ 領域に隣接する領域を検出して効果調整信号を出力する。
これによれば、さらに、急峻なエッジ領域を有する画像が入力された場合であって も、エッジ領域近傍の副作用を抑えることができる。
第 9の発明は、第 8の発明であって、効果調整信号発生部は、画像信号からエッジ 領域に隣接する平坦な領域を検出して効果調整信号を出力する。
これによれば、さらに、副作用が目立ちやすいエッジ領域近傍にある平坦領域の副 作用を抑えることができる。
第 10の発明は、第 8または第 9の発明であって、効果調整信号発生部は、周辺画 像情報の変化量に応じて効果調整信号を出力する。
これによれば、さらに、周辺画像情報の変化に伴って発生する副作用を抑えること ができる。
第 11の発明は、第 8または第 9の発明であって、効果調整信号発生部は、画像信 号から隣接領域との輝度差が所定の値以下となる平坦領域の平坦度合いを検出す る平坦検出部と、画像信号から隣接領域との輝度差が所定の値以上となるエッジ領 域のエッジ量を検出するエッジ検出部と、を有する。効果調整信号発生部は、平坦 検出部とエッジ検出部との出力にもとづいて効果調整信号を出力する。
これによれば、さらに、急峻なエッジ領域を有する画像が入力された場合であって も、エッジ領域近傍の平坦領域の副作用を抑えることができる。
第 12の発明は、第 7から第 11のいずれか 1つの発明であって、効果調整部は、効 果調整信号に応じて、画像信号と周辺画像情報とを合成した第 1の合成信号を出力 する。視覚処理部は、第 1の合成信号と画像信号とにもとづいて画像信号を視覚処 理する。
これによれば、さらに、視覚処理部は、第 1の合成信号にもとづいて異なる階調変 換処理を選択することが可能となり、選択した階調変換処理によって画像信号を視 覚処理することができ、視覚処理の効果を異ならせることができる。
第 13の発明は、第 7から第 11のいずれか 1つの発明であって、効果調整部は、効 果調整信号に応じて、画像信号と視覚処理部で視覚処理された出力とを合成した第 2の合成信号を出力する。
これによれば、さらに、効果調整信号に応じて画像信号と処理信号との割合を変え て出力でき、視覚処理の効果を異ならせることができる。
第 14の発明は、第 1の発明であって、入力された画像信号の周辺画像情報を抽出 する周辺画像情報抽出部と、画像信号から統計的な情報の偏りを有する特殊画像で ある度合!、を統計的な情報の偏りにもとづ!、て検出し、検出された度合!、を効果調 整信号として出力する特殊画像検出部と、をさらに備える。視覚処理部は、画像信号 と周辺画像情報とにもとづ!/、て画像信号を視覚処理した処理信号を出力する。効果 調整部は、効果調整信号に応じて視覚処理の効果を設定するように視覚処理部を 制御する。
この構成によれば、特殊画像でな!ヽ通常の画像が入力された場合には視覚処理 効果を維持でき、特殊画像が入力された場合には副作用を抑えることができる。 第 15の発明は、第 14の発明であって、特殊画像検出部は、画像信号の画像中に おける濃淡が変化する領域の割合または濃淡が変化しな 、領域の割合にもとづ 、て 統計的な情報の偏りを検出する。
これによれば、さらに、画像信号の画像中における濃淡が変化する領域の割合また は濃淡が変化しない領域の割合力 統計的な情報の偏りを検出できる。
第 16の発明は、第 15の発明であって、特殊画像検出部は、濃淡が変化する領域 の割合が少な 、とき、または濃淡が変化しな 、領域の割合が多 、ときに特殊画像で ある度合いを高くする。
これによれば、さらに、特殊画像である度合いを検出でき、特殊画像の処理に適し た効果調整信号を出力できる。
第 17の発明は、第 16の発明であって、特殊画像検出部は、画像中のエッジ成分を 検出することで濃淡が変化する領域の割合を検出する。 これによれば、さらに、画像中のエッジ成分から濃淡が変化する領域の割合を検出 できる。
第 18の発明は、第 16の発明であって、特殊画像検出部は、画像中の平坦度合い を検出することで濃淡が変化しない領域の割合を検出する。
これによれば、さらに、画像中の平坦度合いから濃淡が変化しない領域の割合を検 出できる。
第 19の発明は、第 18の発明であって、特殊画像検出部は、階調レベル数または 類似画素の連続長にもとづいて平坦度合いを検出する。
これによれば、さらに、画像中の階調レベル数または類似画素の連続長カゝら平坦 度合いを検出できる。
第 20の発明は、第 17の発明であって、特殊画像検出部は、画像信号から画素ごと にエッジ量を検出するエッジ検出部と、エッジ量が所定の値以上であるエッジ画素を 検出し、画像信号の全画素数に対するエッジ画素数の割合を算出するエッジ密度算 出部と、割合に応じて効果調整信号を出力する第 1の効果調整信号発生部と、を有 する。
これによれば、さらに、画像中のエッジ力も特殊画像を検出でき、特殊画像におけ るエッジ画素の割合の偏りに応じた効果調整信号を生成できる。
第 21の発明は、第 17の発明であって、特殊画像検出部は、複数のブロックに分割 された画像信号から高周波成分を含む高周波ブロックを検出する高周波ブロック検 出部と、複数のブロック数に対する高周波ブロック数の割合を検出する高周波ブロッ ク密度検出部と、 割合に応じて効果調整信号を出力する第 2の効果調整信号発生 部と、を有する。
これによれば、さらに、画像中の高周波ブロックを検出することで特殊画像を検出で き、特殊画像における高周波ブロックの割合の偏りに応じた効果調整信号を生成で きる。
第 22の発明は、第 19の発明であって、特殊画像検出部は、画像信号から階調レ ベルごとの頻度を検出する頻度検出部と、階調レベルごとの頻度と所定の閾値とを 比較し、所定の閾値より頻度が大きい階調レベルを検出する頻度判定部と、頻度判 定部により頻度が大きいと判定された階調レベル数を検出する階調数検出部と、階 調レベル数に応じて効果調整信号を出力する第 3の効果調整信号発生部と、を有す る。
これによれば、さらに、画像中の階調レベル数力も特殊画像を検出でき、特殊画像 における階調レベル数の偏りに応じた効果調整信号を生成できる。
第 23の発明は、第 19の発明であって、特殊画像検出部は、類似輝度検出部と、連 続長検出部と、平均連続長算出部と、第 4の効果調整信号発生部と、を有する。類 似輝度検出部は、画像信号カゝら隣接画素との輝度差が所定の値以下となる類似画 素を検出する。連続長検出部は、類似画素が連続している連続長を検出する。平均 連続長算出部は、連続長検出部で検出された複数の連続長を平均することで平均 連続長を算出する。第 4の効果調整信号発生部は、平均連続長に応じて効果調整 信号を出力する。
これによれば、さらに、画像中の類似画素の平均連続長から特殊画像を検出でき、 特殊画像における平均連続長の偏りに応じた効果調整信号を生成できる。
第 24の発明は、第 14から第 23のいずれか 1つの発明であって、効果調整部は、効 果調整信号に応じて画像信号と周辺画像情報との割合を変えて合成した第 1の合成 信号を出力し、視覚処理部は、第 1の合成信号と画像信号とにもとづいて画像信号 を視覚処理する。
これによれば、さらに、視覚処理部は、第 1の合成信号にもとづいて異なる階調変 換処理を選択することが可能となり、視覚処理の効果を異ならせることができる。 第 25の発明は、第 14から第 23のいずれか 1つの発明であって、効果調整部は、効 果調整信号に応じて画像信号と処理信号との割合を変えて合成した第 2の合成信号 を出力する。
これによれば、さらに、効果調整信号に応じて画像信号と処理信号との割合を変え て出力でき、視覚処理の効果を異ならせることができる。
第 26の発明は、第 14力も第 23のいずれか 1つの発明であって、視覚処理部は、 2 次元ルックアップテーブルを有し、 2次元ルックアップテーブルに設定される特性デ ータにもとづいて視覚処理を行う。効果調整部は、効果調整信号に応じて視覚処理 の効果が異なる複数の特性データの割合を変えて合成した特性データを視覚処理 部に設定する。
これによれば、さらに、効果調整信号に応じて視覚処理の効果が異なる複数の特 性データの割合を変えて合成した特性データを用いて視覚処理でき、視覚処理の効 果を異ならせることができる。
第 27の発明は、第 14から第 26のいずれか 1つの発明であって、特殊画像検出部 は、画像信号が縮小されている縮小画像を入力し、縮小画像カゝら統計的な情報の偏 りを有する特殊画像を検出し、統計的な情報の偏りにもとづ ヽて効果調整信号を出 力する。
これによれば、さらに、特殊画像を検出するときのノイズの影響を抑えられる。また、 処理の演算量を少なくできる。
第 28の発明は、第 14から第 27のいずれか 1つの発明であって、特殊画像検出部 は、画像信号がフレーム画像のときにはひとつ以上前のフレーム画像より、もしくは画 像信号がフィールド画像のときにはひとつ以上前のフィールド画像力 統計的な情 報の偏りを検出する。
これによれば、さらに、ひとつ前のフレーム力も特殊画像を検出でき、フレームの先 頭力もで特殊画像の情報の偏りに応じた効果調整信号を使用することができる。また 、ひとつ前のフィールドから特殊画像を検出でき、フィールドの先頭力もで特殊画像 の情報の偏りに応じた効果調整信号を使用することができる。
第 29の発明は、第 28の発明であって、効果調整信号を連続的に変化させるため の連続変化処理部をさらに備える。連続変化処理部は、効果調整信号がフレーム単 位で出力されるときはフレーム間で、効果調整信号がフィールド単位で出力されると きはフィールド間で、効果調整信号を連続的に変化させる。
これによれば、さらに、フレーム間での効果調整信号の急な変化を抑え、フレーム 間の画像のちらつきを抑えることができる。また、フィールド間での効果調整信号の急 な変化を抑え、フィールド間の画像のちらつきを抑えることができる。
第 30の発明は、通信または放送された画像データを受信するデータ受信部と、受 信された画像データを映像データに復号する復号部と、復号された映像データを視 覚処理して出力信号を出力する第 1から第 29のいずれかの視覚処理装置と、視覚 処理装置により視覚処理された出力信号の表示を行う表示部と、を備える表示装置 である。
このような構成により、画像の明るさ調整で視覚処理の強さをリアルタイムに変更して 表示装置で表示できる。なお、表示装置以外に視覚処理装置を備える撮影装置また は携帯情報端末装置を実現することもできる。
撮影装置は、画像の撮影を行う撮影部と、撮影部により撮影された画像を入力信号 として視覚処理を行う視覚処理装置とを備えた構成であってもよい。
このような構成により、撮影装置でも視覚処理装置と同様の効果を得ることが可能と なる。
また、携帯情報装置は、通信または放送された画像データを受信するデータ受信 部と、受信された画像データを視覚処理して出力信号を出力する視覚処理装置と、 視覚処理された出力信号の表示を行う表示手段とを備えた構成であってもよい。 このような構成により、携帯情報装置でも視覚処理装置と同様の効果を得ることが 可能となる。
また、携帯情報装置は、画像の撮影を行う撮影部と、撮影部により撮影された画像 を入力信号として視覚処理をして出力信号を出力する視覚処理装置と、視覚処理さ れた出力信号を送信するデータ送信部とを備えた構成であってもよい。
このような構成により、携帯情報装置でも視覚処理装置と同様の効果を得ることが 可能となる。
第 31の発明は、入力された画像信号を視覚処理して出力する視覚処理方法であり 、効果調整信号に応じて視覚処理の効果を設定するための処理を行う効果調整ステ ップと、画像信号に視覚処理を行う視覚処理ステップと、を有する。
これにより、視覚処理の効果を効果調整信号により設定することが簡単にできる。し たがって、視覚処理の効果の調整をリアルタイムに行うことができる。
第 32の発明は、第 31の発明であって、所定の目標レベルを設定する目標レベル 設定ステップと、画像信号に対して所定の空間処理を行い、処理信号を出力する空 間処理ステップと、をさらに有する。効果調整ステップでは、効果調整信号に応じて 所定の目標レベルと処理信号とを合成した合成信号を出力する。視覚処理ステップ では、合成された合成信号と画像信号とに基づ!ヽて画像信号を階調変換する。 これにより、効果調整信号により異なる合成信号を生成して視覚処理の強さを変更 するので、所定の階調変換関数を強さの程度に合わせて変更しなくてもよい。また、 目標レベル設定ステップで目標レベルを設定することにより、この視覚処理方法によ り実現される視覚処理効果をどのような階調特性まで変化させるかを設定することが できる。
第 33の発明は、第 31の発明であって、入力された画像信号の周辺画像情報を抽 出する周辺画像情報抽出ステップと、視覚処理の効果を設定するための効果調整 信号を出力する効果調整信号発生ステップと、をさらに有する。視覚処理ステップで は、画像信号と周辺画像情報とにもとづいて画像信号を視覚処理する。効果調整ス テツプでは、効果調整信号に応じて視覚処理の効果を設定する。
この方法によれば、効果調整信号に応じて視覚処理の効果を異ならせることが可 能となる。
第 34の発明は、第 33の発明であって、効果調整信号発生ステップでは、画像信号 からエッジ領域に隣接する平坦な領域を検出して効果調整信号を出力する。
これによれば、さらに、急峻なエッジ領域を有する画像が入力された場合であって も、エッジ領域近傍にある平坦領域の副作用を抑えることができる。
第 35の発明は、第 31の発明であって、入力された画像信号の周辺画像情報を抽 出する周辺画像情報抽出ステップと、画像信号から統計的な情報の偏りを有する特 殊画像を検出し、統計的な情報の偏りの度合いにもとづいて効果調整信号を出力す る特殊画像検出ステップと、をさらに有する。視覚処理ステップでは、画像信号と周 辺画像情報とにもとづいて画像信号を視覚処理する。効果調整ステップでは、効果 調整信号に応じて視覚処理の効果を設定する。
この方法によれば、特殊画像がでな ヽ通常の画像が入力された場合には視覚処理 効果を維持でき、特殊画像が入力された場合には副作用を抑えることができる。 第 36の発明は、入力された画像信号を視覚処理して出力する視覚処理を行うため にコンピュータに、効果調整信号に応じて視覚処理の効果を設定するための制御信 号を出力する効果調整ステップと、制御信号と画像信号とに基づいて画像信号を視 覚処理する視覚処理ステップと、を実行させるプログラムである。
これにより、視覚処理の効果を効果調整信号により設定することが簡単にできる。し たがって、視覚処理の効果の調整をリアルタイムに行うことができる。
第 37の発明は、第 36の発明であって、コンピュータに、所定の目標レベルを設定 する目標レベル設定ステップと、画像信号に対して所定の空間処理を行い、処理信 号を出力する空間処理ステップと、をさらに実行させるためのプログラムである。効果 調整ステップでは、視覚処理の効果を設定するための効果調整信号に応じて所定の 目標レベルと処理信号とを合成した合成信号を出力する。視覚処理ステップでは、 合成された合成信号と画像信号とに基づいて画像信号を階調変換する。
これにより、効果調整信号により異なる合成信号を生成して視覚処理の強さを変更 するので、所定の階調変換関数を強さの程度に合わせて変更しなくてもよい。また、 目標レベル設定ステップで目標レベルを設定することにより、この視覚処理方法によ り実現される視覚処理効果をどのような階調特性まで変化させるかを設定することが できる。
第 38の発明は、第 36の発明であって、コンピュータに、入力された画像信号の周 辺画像情報を抽出する周辺画像情報抽出ステップと、視覚処理の効果を設定するた めの効果調整信号を出力する効果調整信号発生ステップと、をさらに実行させるた めのプログラムである。視覚処理ステップでは、画像信号と周辺画像情報とにもとづ いて画像信号を視覚処理する。効果調整ステップでは、効果調整信号に応じて視覚 処理の効果を異ならせるように調整する。
このプログラムによれば、効果調整信号に応じて視覚処理の効果を異ならせること が可能となる。
第 39の発明は、第 38の発明であって、効果調整信号発生ステップは、画像信号か らェッジ領域に隣接する平坦な領域を検出して効果調整信号を出力する。
これによれば、さらに、急峻なエッジ領域を有する画像が入力された場合であって も、エッジ領域近傍にある平坦領域の副作用を抑えることができる。
第 40の発明は、第 38の発明であって、コンピュータに、入力された画像信号の周 辺画像情報を抽出する周辺画像情報抽出ステップと、画像信号から統計的な情報 の偏りを有する特殊画像を検出し、統計的な情報の偏りの度合いにもとづいて効果 調整信号を出力する特殊画像検出ステップと、をさらに実行させるためのプログラム である。視覚処理ステップでは、画像信号と周辺画像情報とにもとづいて画像信号を 視覚処理する。効果調整ステップでは、効果調整信号に応じて視覚処理の効果を設 定する。
このプログラムによれば、特殊画像がでな 、通常の画像が入力された場合には視 覚処理効果を維持でき、特殊画像が入力された場合には副作用を抑えることができ る。
第 41の発明は、第 1から第 29のいずれか 1つの発明である視覚処理装置を含む集 積回路である。
このような構成により、集積回路でも視覚処理装置と同様の効果を得ることが可能と なる。
(発明の効果)
本発明によれば、急峻なエッジ領域を有する画像や特殊画像が入力された場合で あっても、副作用を抑制することができ、かつ、簡単な構成で、画像の視覚処理の強 さをリアルタイムに変更することができる視覚処理装置、表示装置、視覚処理方法、 プログラムおよび集積回路を実現することができる。
図面の簡単な説明
[図 1]本発明の実施形態 1における視覚処理装置のブロック図
[図 2]同実施形態における目標レベル設定部における特性図
[図 3]同実施形態におけるアンシャープ信号 USおよび出力信号 OSの説明図
[図 4]同実施形態における局所コントラスト特性についての説明図
[図 5]同実施形態における DR圧縮特性の説明図
[図 6]同実施形態における視覚処理装置の変形例 1のブロック図
[図 7]同実施形態における階調特性の説明図
[図 8]同実施形態におけるゲイン特性の説明図
[図 9]本発明の実施の形態 1の視覚処理装置の構成を示すブロック図 圆 10]同 2次元階調特性を説明するための説明図
圆 11]同処理信号 OSの出力を説明するための説明図
圆 12]同制御信号発生部の構成を示すブロック図
[図 13]同効果調整信号の出力を説明するための説明図
[図 14]同視覚処理装置の動作を説明するフローチャート
圆 15]同変形例の制御信号発生部の構成を示すブロック図
圆 16]同変形例の効果調整信号を説明するための説明図
圆 17]本発明の実施の形態 2における視覚処理装置の構成を示すブロック図 圆 18]本発明の実施の形態 3における視覚処理装置の構成を示すブロック図
[図 19]本発明の実施の形態 4における視覚処理システムの構成を示すブロック図 圆 20]同 2次元ゲイン特性を説明するための説明図
[図 21]本発明の実施の形態 6の視覚処理装置の構成を示すブロック図
圆 22]同 2次元階調特性を説明するための説明図
圆 23]同処理信号の出力を説明するための説明図
[図 24]同特殊画像検出部の構成を示すブロック図
圆 25]同特殊画像を説明するための説明図
[図 26]同エッジ画素を説明するための説明図
圆 27]同効果調整信号の出力を説明するための説明図
圆 28]同視覚処理装置の動作を説明するフローチャートおよび連続変化処理部の 構成図
[図 29]同変形例 1の特殊画像検出部の構成を示すブロック図
圆 30]同変形例 1の頻度検出部で検出される頻度分布を説明するための説明図 圆 31]同変形例 1の効果調整信号を説明するための説明図
[図 32]同変形例 2の特殊画像検出部の構成を示すブロック図
圆 33]同変形例 2の連続長を説明するための説明図
圆 34]同変形例 2の効果調整信号を説明するための説明図
[図 35]同変形例 3の特殊画像検出部の構成を示すブロック図
圆 36]同変形例 3のブロック画像を説明するための説明図 [図 37]同変形例 3の効果調整信号を説明するための説明図
[図 38]本発明の実施の形態 7における視覚処理装置の構成を示すブロック図
[図 39]本発明の実施の形態 8における視覚処理装置の構成を示すブロック図
[図 40]本発明の実施の形態 9における視覚処理システムの構成を示すブロック図
[図 41]同 2次元ゲイン特性を説明するための説明図
[図 42]本発明の実施形態 2におけるコンテンツ供給システムの全体構成図
[図 43]同実施形態における視覚処理装置を搭載する携帯電話の正面図
[図 44]同実施形態における携帯電話の全体構成について説明するブロック図
[図 45]同実施形態におけるディジタル放送用システムの全体構成についての説明図
[図 46]同実施形態におけるコンピュータのシステムの例を説明するブロック図
[図 47]従来の視覚処理装置のブロック図
圆 48]同装置における階調変換の特性図
符号の説明
1、 20、 101、 102、 103、 104、 1001、 1002、 1003、 1004 視覚処理装置
2、 10 空間処理部
3、 21、 30、 31、 32 視覚処理部
4 目標レベル設定部
5、 1020、 1021、 1022、 2021、 2022 効果調整部
22 乗算部
40 制御信号発生部
41 エッジ検出部
42 エッジ近傍検出部
43 平坦検出部
44、 2144, 704、 84、 93 効果調整信号発生部
2140、 700、 80、 90 特殊画像検出部
50 連続変化処理部
2141 エッジ検出部
2142 エッジ量判定部 2143 エッジ密度算出部
2144 効果調整信号発生部
701 頻度検出部
702 頻度判定部
703 階調数検出部
81 類似輝度検出部
82 連続長検出部
83 平均連続長算出部
91 高周波ブロック検出部
92 高周波ブロック密度検出部
1905、 4005 ゲイン型視覚処理装置
発明を実施するための最良の形態
以下、本発明の実施の形態における視覚処理装置について図面を参照しながら説 明する。
(実施の形態 1)
まず、実施の形態 1である視覚処理装置について説明する。ここで行う視覚処理と は人間の目の見え方に近い特性を持たせた処理であり、入力された画像信号の対 象画素値とその周辺画素値との対比により出力信号を決定する処理である。適用さ れる処理として、逆光補正処理、ニー処理、 DR圧縮処理、明るさ調整(階調処理、コ ントラスト調整を含む)などがある。
図 1は、実施の形態 1における視覚処理装置 1のブロック図である。
視覚処理装置 1は、画像信号 ISに視覚処理を行い視覚処理した出力信号 OSを出 力する。
空間処理部 2は、空間処理の対象となる対象画素と、対象画素の周辺領域の画素 (以下、「周辺画素」と記す)との画素値を入力信号 ISから取得する。取得した原画像 の画素ごとの入力値に空間処理を実施しアンシャープ信号 USを出力する。アンシャ ープ信号 USは入力信号 ISをローノ スフィルタで処理したぼけ信号である。
アンシャープ信号 USにより着目画素の周辺領域を含む明るさを検出できる。 目標レベル設定部 4は、視覚処理で要求される効果の目標レベルを設定するもの である。例えば、局所コントラストの効果、 DR圧縮などの要求される視覚処理効果を どのような階調変換特性まで変化させるかの目標を設定する。調整する階調変換特 性に応じて、設定された目標レベル値を決定する関数を設定し、所定の関数に基づ いて入力信号 ISを変換する。
具体的には、局所コントラスト処理には図 2に示す直線 1の変換特性に応じて目標 レベル値 Lを出力する。ここで、直線 1は入力信号 ISに応じて目標レベルを変化させ る。例えば、目標レベル L =入力信号 ISとする。なお、この場合、目標レベル設定部 4は無くても良い。
同様に、 DR圧縮処理には図 2に示す直線 2の変換特性に応じて目標レベル値 Lを 出力する。直線 2は入力信号 ISに応じて目標レベルを変化させない。すなわち、目 標レベル L =所定の値 T1 (固定)とする。なお、この場合には目標レベル設定部 4は なくてもよい。
なお、直線 1と直線 2の中間的な変換特性により目標レベル値 Lを出力するようにし てもよい。例えば、目標レベル L= (入力信号 IS +所定の値 T1) ÷ 2としてもよい。ま た、直線 1と直線 2の間で設定される曲線 1により目標レベル値 Lを出力するようにし てもよい。
効果調整部 5は、外部信号 (効果調整信号) MODに応じて目標レベル Lとアンシャ ープ信号 USとを内分演算(「内分演算」とは、内分により、例えば、 2つの物理量から 1つの物理量を算出することをいう)により合成し、合成信号 MUSを出力する。効果 調整部 5は、例えば、 MUS= (US— L) X MOD + Lなる内分演算を実施する。外部 信号 (効果調整信号) MODの値は「0」から「 1」の範囲で設定され、 MODが「0」で効 果なし、 MOD力「l」で効果最大となる。式の変形として、 MUS = US X MOD + L X (1— MOD)としてもよい。
視覚処理部 3は、設定される 2次元階調変換特性に基づいて、入力信号 ISと合成 信号 MUSに対して出力信号 OSを出力する。この階調変換特性よつて様々な視覚 効果を実現することができる。
次に、本発明の実施の形態 1における視覚処理装置 1について、さらに詳しく説明 する。
まず、視覚処理の効果として局所コントラストを強調したり弱めたりする場合の制御 について説明する。制御は、外部より効果調整信号を設定することで行う。
視覚処理装置 1は、図 4に示すように 2次元階調変換特性を持つように設定される。 ここで、横軸は入力された入力信号 IS、縦軸は変換された出力信号 OSである。
2次元階調変換特性とは、合成信号 MUSと入力信号 ISとの 2つの入力に対して、 出力を決定するための階調変換における入出力特性をいう。例えば、図 4の合成信 号 MUS0から MUSnの信号レベルに応じて所定の階調変換特性を持つ。従って、 入力信号 ISの画素値が 8ビットの値とすると、 256段階に分けられた入力信号 ISの値 に対する出力信号 OSの画素値が所定の 2次元階調変換特性により決定される。階 調変換特性は所定のガンマ変換特性を持つ階調変換曲線であり、合成信号 MUS の添え字について、出力が単調減少する関係にある。なお、合成信号 MUSの添え 字について、出力が一部分単調減少でない箇所があつたとしても、実質的に単調減 少であればよい。また、図 4に示しように、 2次元階調変換特性において、全ての入力 信号 ISの画素の明度値に対して、(MUS = MUS0の場合の出力値)≥ (MUS = M US 1の場合の出力値)≥ · · ·≥ (MUS = MUSnの場合の出力値)の関係を満たし ている。この階調変換特性により局所領域のコントラストが強調される。
次に、空間処理部 2は、例えば、入力信号 ISの対象画素に対して低域空間のみを 通過させる低域空間フィルタ演算によりアンシャープ信号 USを得る。フィルタ演算で は、対象画素と周辺画素の画素値を、例えば、 US= (∑[Wij] X [Aij]) / (∑[Wij] )に基づいて計算する。ここで、 [Wij]は、対象画素および周辺画素において、 i行 j列 目に位置する画素の重み係数であり、 [Aij]は、対象画素および周辺画素において 、 i行 j列目〖こ位置する画素の画素値である。また、「∑」は、対象画素および周辺画 素のそれぞれの画素につ 、ての合計の計算を行うことを意味して 、る。
より具体的には、重み係数 [Wij]が 1、画素値 [Aij]を A(i, j)と表現して説明する。 対象画素の画素値は A (l, 1)が「128」、 A(0, 0)が「110」、 A(0, 1)が「115」、 A ( 0, 2)が「117」、 A(l, 0)が「123」、 A(l, 2)が「120」、 A (2, 0)が「120」、 A(2, 1 )が「127」、 A (2, 2)が「125」とする。このとき、 3画素 X 3画素の領域よりアンシヤー プ信号 USを得るには、 US = (128 + 110+ 115 + 117+ 123 + 120 + 120+ 127 + 125) Z9となる演算をすればよい。
なお、画素値の差の絶対値が大き 、ほど小さ 、値の重み係数が与えられてもよ!/ヽ し、対象画素からの距離が大き ヽほど小さ 、重み係数が与えられてもよ 、。
また、周辺画素の領域は、効果に応じて、その領域の大きさが設定されるものであり 、視覚効果を得るためには、周辺画素の領域は、ある程度の大きさの領域に設定す ることが好ましい。例えば、対象とする画像の大きさが XGA(1024 X 768)では、周 辺画素の領域を 80画素 X 80画素以上の大きさの領域に設定するのが好ま 、。 また、低域空間フィルタとしては、アンシャープ信号の生成に通常用いられる FIR ( Finite Impulse Response)型の低域空間フィルタ、あるいは IIR (Infinite Impu lse Response)型の低域空間フィルタなどを用いてもよ!、。
目標レベル設定部 4は、局所コントラスト処理では、図 2に示す直線 1の変換特性を 設定し、目標レベル L=入力信号 ISとする。よって、効果調整信号 MOD = 0のとき、 視覚処理の「効果なし」であるので、合成信号 MUS =入力信号 ISとなる。
(例えば、合成信号 MUSが、
MUS = US X MOD + IS X (1. 0— MOD)
で求められる場合、 MOD = 0をこの数式に代入することで、合成信号 MUS =入力 信号 ISとなる。)
なお、目標レベル L =入力信号 ISとする場合は、目標レベル設定部 4はなくてもよ い。直接、入力信号 ISを効果調整部 5に入力すればよい。
視覚処理部 3は、合成信号 MUS=入力信号 ISのときに、視覚処理部 3に入力され る 2つの入力信号 ISと合成信号 MUSとが同じ値になり、視覚処理装置 1では、図 4 に示す曲線 2の階調変換特性による階調変換が実行される。曲線 2の階調変換特性 は、明るさ調整 (ガンマ変換)のみの特性を持ち、局所コントラストを高める効果はな い。
効果調整部 5は、効果調整信号 MODの設定により必要な視覚処理の効果を調整 する。例えば、 MOD = 0. 5とすれば、合成信号 MUSを MUS = (US— L) X MOD + Lとし、 L = ISとすると、合成信号 MUS = 0. 5 X US + 0. 5 X ISとなる。 このとき合成信号 MUSは、図 3 (a)に示すように、入力信号 ISとアンシャープ信号 USの中間的な出力となる。この合成信号 MUSで視覚処理された出力信号 OS (M US)は、図 3 (b)に示すように、入力信号 ISのみに基づいて視覚処理した出力信号 OS (IS)とアンシャープ信号 USのみに基づいて視覚処理した出力信号 OS (US)と の中間的な出力となる。よって、視覚処理装置 1は、 MODが「1」で視覚処理の「効 果最大」である出力信号 OS (US)を出力し、 MODが「0」で視覚処理の「効果なし」 である出力信号 OS (IS)を出力する。
このように、効果調整信号 MODの値に応じて、局所コントラストの視覚処理効果を 強めたり、弱めたりすることができる。
また、効果調整部 5は、効果調整信号 MODにより入力信号 ISとアンシャープ信号 USを内分した合成信号 MUSを生成する。これにより、所定の明るさを変換するガン マ変換のみの特性から、局所コントラスト変換する特性まで視覚処理の効果を変更 することができる。
次に、 DR圧縮処理について図 5を用いて説明する。カメラなどの撮像装置におい て、 DR圧縮処理は、画像を入力する CCDが持つ入力レンジを撮影装置で記録する 記録レンジに収めるための処理である。通常、撮影装置では、人の顔を基準に明るさ を調整して撮影するため、顔の明るさが出力の DRの 80%程度になるように明るさ設 定がなされる。よって、例えば、顔の背景にある明るい空の領域等は、出力の DRの 残りの 20%に入れる必要がある。このため、図 5に示す曲線 4のように入力レンジが 一定レベル以上となるところから、出力の DRを圧縮して変換する「ニー処理」が一般 的に行われている。
しかし、出力の DRの 20%のレンジに空などの明るい明部領域の信号を圧縮して収 めると、階調不足により、雲などの陰影が飛んでしまったりすることがある。
そこで、視覚処理装置 1は、図 5に示すように、入力レンジが「1. 0」前後より大きい 値をもつ明部領域を変換する階調曲線 MUS0から MUSnを持ち、これらの階調曲 線に基づいて、合成信号 MUSに応じて圧縮程度を制御する。これにより、視覚処理 装置 1に明部領域の信号が入力された場合であっても、出力信号において階調不足 が発生することを抑えることができる。 また、目標レベル設定部 4には図 2に示す直線 2の変換特性を設定し、目標レベル L =所定の値 T1 (固定)とする。
この場合、効果調整信号 MODが「0」のとき、 ^ff -^-MUS = US X MOD + L X (1. 0— MOD)とすると、合成信号 MUS=T1となり、効果調整信号 MODが「1」の とき合成信号 MUS =アンシャープ信号 USとなる。目標レベル Lの設定により、図 5 に示す MUS0から MUSnまでの曲線の中力 所定の曲線を 1つ選択することになる 視覚処理部 3は、合成信号 MUSが =T1 (固定値)のとき、図 5に示す曲線 3の階 調変換曲線で固定した DR圧縮を行う。また、合成信号 MUS =アンシャープ信号 U Sのとき、局所領域の明るさに応じた DR圧縮を行うので、この DR圧縮において、局 所領域の明るさに応じた視覚処理の効果が高くなる。
次に、効果調整部 5で効果調整信号 MODの設定により、必要な視覚処理の効果 を調整する。例えば、 MOD=0. 5とすれば、合成信号 MUS = 0. 5 X US + 0. 5 X T1となる。
このように、効果調整信号 MODを所定の値に設定することで、曲線 3の階調変換 曲線と階調変換曲線 MUSnの内分により定まる変換曲線により、効果の強さが違う D R圧縮処理を実現することができる。
なお、視覚処理装置 1は、視覚処理部 3で入力信号 ISを階調変換した値を出力信 号 OSとして出力する構成となっているが、階調変換した値に相当する、入力信号 IS に対するゲインの値を出力する構成としてもょ 、。
図 6に、変形例 1である視覚処理装置 20のブロック図を示す。重複を避けるため、 視覚処理装置 1 (図 1)と同じ処理の説明は省略する。
図 6において、視覚処理装置 20は、例えば、図 7に示すように 2次元階調変換特性 を持つように設定される。ここで、横軸は入力された入力信号 IS、縦軸は変換された 出力信号 OSである。
また、階調変換特性は、合成信号 MUSにより MUS0〜MUSnまでの異なる階調 変換曲線が選択される。この特性により、画像中の暗部領域は、 MUS0によりコント ラストが高くなり、明るくなるように変換される。一方、画像中の明部領域は MUSnに より変換が抑制されている。これにより、人物の顔が暗く背景領域が明るい逆光画像 等に対して有効な暗部補正を実現できる。
ここで、視覚処理部 21は、図 7の階調変換曲線の傾きをゲインとして、図 8に示すゲ イン特性により入力信号 ISを補正するようにする。横軸は入力された入力信号 IS、縦 軸はゲイン信号 GAINの出力である。
このゲイン信号 GAINを入力信号 ISに乗算することで、図 7に示す出力信号 OSと 等価な出力が得られる。
目標レベル設定部 4は、図 7の階調変換曲線による階調変換処理を実現する場合 、図 2に示す直線 1の変換特性を設定し、目標レベル L=入力信号 ISとする。よって 、効果調整信号 MOD = 0のとき合成信号 MUS =入力信号 ISとなる。
効果調整部 5は、効果調整信号 MODに応じて目標レベル Lとアンシャープ信号 U Sとを内分演算により合成し、合成信号 MUSを出力する。つまり、この効果調整信号 MODにより、視覚処理の効果の強さを調節することができる。
視覚処理部 21は、合成信号 MUS =入力信号 ISのとき、視覚処理部 3に入力され る 2つの入力信号 ISと合成信号 MUSとが同じ値になり、視覚処理装置 20では、図 7 に示す曲線 5の所定のガンマ変換のみの階調変換が実行され、暗部補正の効果を 有する階調変換は実行されな ヽ。
これにより、効果調整信号 MODの値を設定することにより、所定のガンマ変換のみ の特性による階調変換から暗部補正を実現する階調変換まで、階調変換における効 果の調節をすることができる。
視覚処理部 21は、設定されるゲイン特性を実現するために、入力信号 ISと合成信 号 MUSとに基づいて、ゲイン信号 GAINを出力する。
乗算部 22は、ゲイン信号 GAINと入力信号 ISとを乗算し、出力信号 OSを出力する
2次元ゲイン特性の特徴として、階調変換曲線に比べて入力信号 ISに対する曲線 の変化が緩やかである。よって、入力信号 、合成信号 MUSを粗く間引いても十分 に処理精度を確保でき、視覚処理部 21に入力する入力信号 ISのビット精度を落とす ことができる。これにより、ハードウェア 'ロジック設計では回路規模を削減できる。 なお、視覚処理部 21を入力信号 ISおよび合成信号 MUSとゲイン信号 GAINとの 関係を与える 2次元ルックアップテーブル (以下、「2次元 LUT」と記す)で構成し、入 力信号 ISと合成信号 MUSとに対して、 2次元 LUTを参照してゲイン信号 GAINを出 力するよう〖こしてもよい。これにより、 2次元 LUTに階調変換値を格納するよりもゲイ ン値を格納するほうが 2つの入力信号のビット数を削減でき、大幅にメモリ容量を削 減できる。
また、視覚処理部 21は、 2次元 LUTで構成することで、複雑なゲイン特性も予め作 成することができる。視覚処理部 21を 2次元 LUTで構成する場合、リード 'オンリー' メモリ(以下、「ROM」と記す)等により実現することができる。また、ゲイン特性を更新 できるようにするため、 2次元 LUTを、書き換え可能なメモリ、例えば、ランダム'ァク セス 'メモリ(以下、「RAM」と記す)等で構成してもよい。 2次元 LUTには予め設定さ れる 2次元ゲイン特性を有するゲインデータが格納されて ヽる。この 2次元ゲイン特性 を変更することで、局所コントラスト処理、 DR圧縮処理など様々な視覚効果を得るこ とがでさる。
さらに、視覚処理装置 1、 20では、視覚処理の強さに対して効果調整信号 MODの 値を設定することで、効果の強さを柔軟に調節できる。
なお、効果調整信号 MODは、設定によって予め、またはリアルタイムに変更可能 な信号である。例えば、リモコンにより表示装置の画面メニューを選択し、対応する値 を、効果調整信号 MODとして設定するようにしてもよい。
また、画像中の特徴量、例えば、所定の画像パターン、画像濃淡、色を自動的に抽 出して自動的に最適な値を効果調整信号 MODとして設定するようにしてもよい。 また、リモコンにより、例えば、表示装置の画面選択メニューに表示された「映画画 質」、「ニュース画質」など力 選択し、その選択メニューごとに予め設定されている調 整範囲で自動的に値を効果調整信号 MODとして設定するなど半自動としてもょ 、。 また、視覚処理装置 1、 20は、図示しない放送内容検出部を有し、番組情報として 分離された EPG表示用データ、現在、受信されているデータのジャンル情報や番組 記述情報を放送内容検出部で検出し、検出された情報の内容に基づいて効果調整 信号 MODを変更してもよい。なお、データのジャンル情報や画像の情報は、 MPEG のストリーム情報より検出してもよい。
以上のように本実施の形態の視覚処理装置によれば、効果調整信号 MODにより 視覚処理の強さを強めることも弱めることもできるので、強弱に応じた階調変換特性、 ゲイン特性データを作り直す必要がな ヽ。
これにより、いろいろな強さの視覚処理を実現するための専用回路、いろいろな強 さの視覚処理を実現するためのプロファイルデータの LUTを用意しなくて済む。よつ て、視覚処理装置を実現する場合において、ハードウェア回路、テーブル用のメモリ 容量を削減できる。また、視覚処理装置において、 LUTを用いた構成では、 LUTの 内容を入れ替える必要がないため、変更時間をなくすことができ、視覚効果の調整を リアルタイムにできる。
また、本実施形態の視覚処理装置では、効果調整信号 MODをリアルタイムに変更 するように構成することもできるので、視覚処理の効果の強さをリアルタイムに変更す ることができる。具体的には、フレーム単位、画素単位で視覚処理の強さを変更でき 、画像中の局所領域に対しても視覚処理の強さを変更できる。
また、効果調整部 5は、効果調整信号 MODにより、入力信号 ISまたはレベル信号 またはこれらの予め設定された値と、アンシャープ信号 USとを内分した合成信号 M USを生成する。これにより、視覚処理装置において、所定の明るさを変換するガンマ 変換のみの特性から、局所コントラスト変換する特性まで、視覚処理の効果を変更す ることがでさる。
(実施の形態 2)
次に、本発明の実施の形態 2について、図面を用いて詳細に説明する。
一般に、自然画像は階調数が多ぐ自然画像に視覚処理を行うことで局所コントラ ストなどを高めた鮮鋭な画像を得ることができる。一方、画像中に急峻なエッジがある と、視覚処理を施した場合には、副作用が目立ちやすい。この副作用を抑えるため、 視覚処理を弱くすると、自然画像に対しても処理が弱くなり鮮鋭さのない画像となつ てしまう。
よって、エッジ近傍に対してのみ、視覚処理を弱くすることで、自然画像全体に対し て処理効果を維持しながら、エッジ近傍での副作用を抑えることが可能となる。 本発明の実施の形態 2である視覚処理装置は、視覚処理の効果を異ならせるため の効果調整信号を出力し、効果調整信号に応じて視覚処理の効果を異ならせるよう に(強度、補正量)調整を行うものである。
さらに、視覚処理の対象とする画像において、エッジに隣接した領域、またはエッジ に隣接した平坦領域を検出し、エッジ量と平坦度の度合!ヽから効果調整信号を生成 し、効果調整信号に応じて視覚処理の効果を異ならせるように調整するものである。 これにより、視覚処理装置に急峻なエッジ領域を有する画像が入力された場合であ つても、視覚処理の効果を得ながら、エッジ近傍での副作用を抑えることができる。 ここで、視覚処理とは、人間の目の見え方に近い特性を持たせた処理であり、入力 された画像信号の対象画素の値とその周辺画素の値(明るさ)との対比に応じて出力 信号の値を決定する処理である。視覚処理は、逆光補正、ニー処理、 Dレンジ圧縮 処理、色処理、または、明るさ調整(階調処理、コントラスト調整を含む)などに適用さ れる。
また、本発明の実施の形態では、 YCbCr色空間、 YUV色空間、 Lab色空間、 Luv 色空間、 YIQ色空間、 YPbPr色空間の輝度成分 Yまたは明度成分 Lを輝度信号と 定義する。以下、輝度信号を画像信号として説明する。
本発明の実施の形態 2である視覚処理装置について、図 9〜図 16を用いて説明す る。図 9は、本発明の実施の形態 2における視覚処理装置 101の構成を示すブロック 図である。
図 9において、本発明の実施の形態 2による視覚処理装置 101は、入力された画像 信号力も周辺画像情報 (アンシャープ信号) USを出力する空間処理部 10と、エッジ 近傍領域の平坦度合いに応じて効果調整信号 MODを出力する制御信号発生部 4 0と、効果調整信号 MODに応じて画像信号 ISと周辺画像情報 USとの割合を変えて 合成した合成信号 MUSを出力する効果調整部 1020と、合成信号 MUSと画像信 号 ISとにもとづ 、て画像信号 ISを視覚処理する視覚処理部 30とを備えて 、る。 以下、視覚処理装置 101の各機能部について説明する。
空間処理部 10は、画像信号 ISから対象画素の値と対象画素の周辺領域にある画 素(以下、「周辺画素」という)の値とを抽出し、抽出した画素の値を用いて画像信号 I sに対してフィルタ処理を行う。
たとえば、空間処理部 10は、画像信号 ISをローパスフィルタにより処理したアンシ ヤープ信号 usを生成する。アンシャープ信号 usは、以下のような演算により生成す る。
US = (∑ [Wij] X [Aij]) ÷ (∑[Wij])
ここで、 [Wij]は、対象画素および周辺画素において、 i行 j列目に位置する画素の 重み係数であり、 [Aij]は、対象画素および周辺画素において、 i行 j列目に位置する 画素の値である。また、「∑」は、対象画素および周辺画素のそれぞれの画素につい ての合計の計算を行うことを意味して 、る。
なお、画素値の差の絶対値が大き 、ほど小さ 、値の重み係数が与えられてもよ!/ヽ し、対象画素力も距離が大きいほど小さい重み係数を与えるようにしてもよい。また、 周辺画素の領域サイズは効果に応じてあら力じめ設定される大きさであり、所定のサ ィズより大きくすると視覚効果を高めることができる。たとえば、対象とする画像の大き さが縦 1024画素および横 768画素であれば、縦横がそれぞれ 80画素以上の領域 力 アンシャープ信号 USを生成することにより、それぞれ縦横 3画素程度の局所領 域に比較してより視覚効果を高めることができる。
また、低域空間フィルタとしては、アンシャープ信号の生成に通常用いられる FIR ( Finite Impulse Response)型の低域空間フィルタ、あるいは IIR (Infinite Impu lse Response)型の低域空間フィルタなどを用いてもよ!、。
つぎに、効果調整部 1020は、制御信号発生部 40から出力される効果調整信号 M ODに応じて、画像信号 ISとアンシャープ信号 USとを補間処理により合成し、合成 信号 MUSを出力する。合成信号 MUSは、たとえば、効果調整信号 MODに応じて 、以下の(式 1)のように内分演算される。制御信号発生部 40については後述する。
MUS = US X MOD + IS X (1. 0— MOD) (式 1)
ここで、効果調整信号 MODの値は「0. 0」から「1. 0」までの範囲で変化し、効果調 整信号 MODの値が「0. 0」で処理なし、効果調整信号 MODの値が「1. 0」で処理 の強さが最大となる。なお、(式 1)は、(式 2)のように変形させることもでき、同様に、 合成信号 MUSを生成できる。 MUS = (US-IS) X MOD + IS (式 2)
つぎに、視覚処理部 30は、効果調整部 1020からの合成信号 MUSにしたがって、 画像信号 ISを階調変換する。
視覚処理部 30は、たとえば、図 10に示す、 2次元階調変換特性にもとづいて階調 変換を行う。ここで、 2次元階調変換とは、合成信号 MUSと画像信号 ISとの 2つの入 力に対して出力の値が決定される階調変換をいう。視覚処理部 30は、 2次元階調変 換特性にもとづいて画像信号 ISと合成信号 MUSとに対して処理信号 OSを出力す る。この階調変換特性よつて様々な視覚効果を出すことができる。
図 10を用いて、 2次元階調変換特性に説明する。図 10は、 2次元階調変換特性を 説明するための説明図である。ここで、横軸は入力された画像信号 IS、縦軸は変換 された処理信号 OSの出力である。
図 10に示すように、 2次元階調変換は、合成信号 MUS0から MUSnの信号レベル に応じて所定の階調変換特性を持つ。したがって、画像信号 ISの画素値が 8ビットの 値とすると、 256段階に分けられた画像信号 ISの値に対する出力信号 OSの画素値 が所定の 2次元階調変換特性により決定される。階調変換特性は所定のガンマ変換 特性を持つ階調変換曲線であり、合成信号 MUSの添え字について、出力が単調減 少する関係にある。なお、合成信号 MUSの添え字について、出力が一部分単調減 少でない箇所があつたとしても、実質的に単調減少であればよい。また、図 10に示し たように、 2次元階調変換特性において、すべての画像信号 ISの画素の明度値に対 して、(MUS = MUS0の場合の出力値)≥ (MUS = MUS1の場合の出力値)≥ · · •≥ (MUS = MUSnの場合の出力値)の関係を満たしている。
図 10に示す 2次元階調変換特性によれば、視覚処理部 30は、入力された画像信 号 ISが値「a」に対して、周囲領域の明度値が小さいときに MUS0を選択することで 処理出力 OSの値は「P」となり、逆に、周囲領域の明度値が大きいときに MUSnを選 択することで処理出力 OSの値は「Q」となる。このように、入力された画像信号 ISが値 「a」であっても、周囲領域の明度値の変化によって処理出力 OSは値「P」から値「Q」 まで大きく変化させることができる。これにより、暗部のコントラストを合成信号 MUSに 応じて強調することができる。 一方、視覚処理の効果をなくすため、合成信号 MUS =画像信号 ISとなるようにす れば、図 10に示す、曲線 2の階調変換特性を持たせることができる。曲線 2の階調変 換特性では、画像全体の明るさ調整 (ガンマ変換)ができるが、局所の暗部領域だけ コントラストを高めるなどの視覚効果はない。
なお、この 2次元階調変換特性を変更することで、様々な視覚処理の効果を出すこ とができ、ニー処理、 DR圧縮処理、色処理、または、明るさ調整(階調処理、コントラ スト調整を含む)などに適用可能となる。
つぎに、視覚処理部 30において、合成信号 MUSにもとづいて視覚処理の効果を 異ならせたときの処理出力 OSについて図 11を用いて説明する。図 11は、処理信号 OSの出力を説明するための説明図である。
図 11 (a)において、横軸は処理する画素位置、縦軸は合成信号 MUSの出力であ る。
合成信号 MUSは、たとえば、効果調整信号 MODの値を「0. 5」としたときには、画 像信号 ISとアンシャープ信号 USの中間的な出力となる。
このとき、図 11 (b)に示すように、画像信号 ISのみにもとづいて視覚処理した処理 信号 OSを OS (IS, IS)とし、画像信号 ISとアンシャープ信号 USとにもとづいて視覚 処理の処理信号 OSを OS (IS, US)とすれば、画像信号 ISと合成信号 MUSにした がって視覚処理された処理信号 OSである OS (IS, MUS)は、 OS (IS, IS)と OS (IS , us)との中間的な出力となる。
よって、効果調整信号 MODの値が「1. 0」のとき、合成信号 MUS=USとなり、視 覚処理の「効果が最大」である処理信号 OS (IS, US)を出力する。一方、効果調整 信号 MODの値が「0. 0」のとき、合成信号 MUS =ISとなり、視覚処理の「効果なし」 である処理信号 OS (IS, IS)を出力する。
このように、視覚処理部 30は、合成信号 MUSに応じて暗部コントラストの視覚処理 の効果を強めたり、弱めたりすることができる。これにより、画像全体の明るさを変換 するだけの処理の効果から、局所領域でのコントラストを周囲の明るさで異ならせるよ うに (変化させるように)した処理の効果まで、効果が異なる様々な視覚効果を、視覚 処理装置 101にお 、て実現することができる。 なお、視覚処理装置 101において、 2次元階調変換特性を変更することで、ニー処 理、 DR圧縮処理、色処理なども実現することができる。
また、視覚処理部 30は、 2次元 LUTを有してもよい。この場合、視覚処理部 30は、 視覚処理部 30の 2次元 LUTに、図 10に示す、特性データ(以下、「プロファイル」と いう)を設定することで、階調変換する。
また、視覚処理部 30は、演算回路によって視覚処理を行うようにしてもよい。特に、 視覚処理部 30の 2次元 LUTに、簡易な直線によって近似可能な特性であるプロファ ィルが設定される場合、 2次元 LUTのテーブルをなくすことができ、視覚処理装置 1 01の回路規模を削減することができる。
つぎに、図 12、図 13を用いて、制御信号発生部 40について説明する。図 12は、 制御信号発生部 40の構成を示すブロック図、図 13は効果調整信号 MODの出力を 説明するための説明図である。
図 12に示すように、制御信号発生部 40は、画像信号 ISから隣接領域ごとの輝度 差であるエッジ量を検出するエッジ検出部 41と、エッジ量力 エッジ領域の近傍度合 いを検出するエッジ近傍検出部 42と、隣接領域との輝度差が所定の値以下となる平 坦領域の平坦度合!/ヽを検出する平坦検出部 43と、エッジ近傍度合!/ヽと平坦度合!/ヽ に応じて効果調整信号 MODを出力する効果調整信号発生部 44とを備えている。 エッジ検出部 41は、所定の範囲の領域ごとに、画像信号 ISからエッジ量を検出す る。エッジ検出部 41は、 Sobelフィルタや Prewittフィルタなどの 1次微分フィルタ、ラ プラシアンフィルタなどの 2次微分フィルタなどのエッジ検出フィルタ(図示せず)を用 いてエッジ量 EGを検出する。エッジ検出部 41は、たとえば、図 13 (a)に示す、画像 信号 ISが入力されたときに、図 13 (b)に示すようなエッジ量を出力する。ここで、図 1 3 (a)の縦軸は画像信号 ISの値であり、横軸は処理している画素の画素位置である。 また、図 13 (b)の縦軸はエッジ量 EGであり、横軸は処理している画素の画素位置で ある。
エッジ近傍検出部 42は、エッジの近傍領域を検出する。たとえば、エッジ近傍検出 部 42は、所定の領域ごとに検出されるエッジ量をローパスフィルタで処理し、エッジ 近傍に近づいたときに大きな出力となる近傍度合いを出力する。たとえば、図 13 (c) に示すように、エッジ近傍検出部 42は、エッジの近傍に近いほど、大きな出力となる エッジ近傍度を出力する。ここで、また、図 13 (c)の縦軸はエッジ近傍度であり、横軸 は処理して 、る画素の画素位置である。
平坦検出部 43は、隣接領域との輝度差が所定の値以下となる平坦領域の平坦度 合いを検出する。たとえば、図 13 (d)に示すように、平坦検出部 43は、図 13 (b)のェ ッジ量の出力から、隣接領域との輝度差を検出し、輝度差が小さいほど大きな平坦 度合いを出力する。ここで、また、図 13 (d)の縦軸は、平坦度合いを示す平坦度 FT であり、横軸は処理している画素の画素位置である。
効果調整信号発生部 44は、図 13 (e)に示すように、図 13 (c)の近傍度と、図 13 (d )の平坦度を掛け合わせ、エッジ近傍度が大きぐ平坦度が高いほど視覚効果を弱め る効果調整信号 MODを出力する。ここで、図 13 (d)の縦軸は効果調整信号 MOD の出力であり、横軸は処理している画素の画素位置である。また、視覚処理装置 101 において、効果調整信号 MODの値が大きいほど、視覚効果は強くなる。
これにより、効果調整信号発生部 44は、図 13 (e)に示すように、エッジ近傍領域で は、視覚効果を弱めるような出力を行い、エッジ近傍領域よりは離れた領域に対して は視覚効果を強めるような出力を生成している。また、効果調整信号発生部 44は、 平坦度合いに応じて、エッジ近傍領域では、平坦度合いが大きいほど視覚効果を弱 めるような出力を行い、平坦度合いが小さいほど視覚効果を強めるような出力を行う。 これにより、視覚処理装置 101では、エッジ近傍に対してのみ副作用を低減でき、 自然画像に対して優れた視覚処理の効果を有する視覚処理を実現することができる つぎに、視覚処理装置 101の動作について、図 14を用いて説明する。図 14は視 覚処理装置 101の動作を説明するフローチャートである。
図 16に示すように、視覚処理装置 101に、画像が入力され (S101)、エッジ検出部 41により、画像信号 ISから隣接領域ごとの輝度差であるエッジ量を検出する(S102) つぎに、視覚処理装置 101は、エッジ近傍検出部 42により、エッジ量をローパスフ ィルタにより処理し、エッジ量力もの近傍度合いを検出する(S103)。また、視覚処理 装置 101は、平坦検出部 43により、エッジ量力も輝度差を検出し、エッジ近傍の平坦 度合いを検出する(S104)。
つぎに、視覚処理装置 101は、効果調整信号発生部 44により、エッジ近傍検出部 42から出力される近傍度と、平坦検出部 43から出力される平坦度とを掛け合わせ、 効果調整信号 MODを生成する(S105)。
つぎに、視覚処理装置 101は、効果調整部 1020により、効果調整信号 MODに応 じて画像信号 ISとアンシャープ信号 USとの割合を変えて合成した合成信号 MUSを 生成する(S106)。
つぎに、視覚処理装置 101は、視覚処理部 30により、合成信号 MUSに対応して、 図 10に示す 2次元階調変換特性の曲線のひとつを選択し、画像信号 ISを変換する( S107)。これにより、視覚処理装置 101は、合成信号 MUSに応じて、視覚処理の効 果を異ならせるように調整した視覚処理を実行する。
つぎに、視覚処理装置 101は、つぎに処理する画素がある力否かを判断する(S10 8)。つぎに処理が必要な画素がない場合は、視覚処理を完了する。一方、つぎに処 理が必要な画素がある場合は、ステップ S101に戻り、つぎの画像 (画素)が入力され る。以後、処理が必要な画素がなくなるまで、 S 101から S 108までのステップを繰り 返し実行する。
以上のように、本発明の実施の形態 2の視覚処理装置 101によれば、エッジ近傍に 対してのみ副作用を低減でき、自然画像に対して優れた視覚処理の効果を有する 視覚処理を実現することができる。
なお、視覚処理装置 101は、エッジ量力もエッジ近傍度を、入力画像信号 ISから平 坦度を求め、エッジ近傍度と平坦度とにもとづいて効果調整信号 MODを生成したが 、空間処理部 10のアンシャープ信号 USの変化量力も効果調整信号 MODを生成し てもよい。
以下、制御信号発生部 40の変形例によるエッジ近傍の平坦領域を検出する方法 について説明する。
図 15、図 16を用いて、アンシャープ信号 USの変化量力も効果調整信号 MODを 生成する実施形態について説明する。図 15は制御信号発生部 70の構成を示すブ ロック図である。
図 15に示すように、制御信号発生部 70は、アンシャープ信号 USの変化量を検出 する変化量検出部 71と、検出された変化量に応じて効果調整信号 MODを出力す る効果調整信号発生部 72とを備える。
変化量検出部 71は、アンシャープ信号 USの変化量を検出する。たとえば、変化量 を Sobelフィルタや Prewittフィルタなどの 1次微分フィルタ、ラプラシアンフィルタな どの 2次微分フィルタなどのエッジ検出フィルタ(図示せず)を用いて検出する。
効果調整信号発生部 72は、変化量検出部 71で検出された変化量に応じて、出力 を調整する。つまり、効果調整信号発生部 72は、変化量が高いほど効果調整信号 MODの信号レベル (値)を小さくするように出力する。たとえば、図 16に示すように、 検出された変化量が所定の値 Tha以上得られたときに効果調整信号 MODの信号レ ベルを変化させ、所定の値 Thbまでの範囲で効果調整信号 MODの信号レベルを 減少させる。所定の値 Thb以上は効果調整信号 MODの信号レベルを変化させな ヽ 。これにより、自然画像に通常含まれるエッジ成分には反応せず、急峻なエッジ領域 が入力されたときに効果調整信号 MODの信号レベルを変化させることができる。ここ で、横軸は変化量、縦軸は効果調整信号 MODの出力(信号レベル)である。なお、 出力される効果調整信号 MODの信号レベルの範囲を「0. 0」から「1. 0」としたが、 視覚処理の強度に応じて「0. 2」から「1. 0」などに調整するようにしてもよい。また、 効果調整信号 MODの信号レベルが大きいほど、視覚処理装置 101での視覚処理 の効果が強いものになるように、視覚処理装置 101を構成する。
以上のように、制御信号発生部 70によれば、アンシャープ信号 USの変化量から、 エッジ近傍の平坦領域を検出でき、効果調整信号 MODを生成できる。
なお、画像信号が縮小されて!、るサムネイル画像などの縮小画像からエッジ近傍 の平坦領域を検出し、エッジ近傍の平坦度合い、または、アンシャープ信号 USの変 化量にもとづ 、て効果調整信号 MODを出力するようにしてもょ 、。
また、画像信号と制御信号発生部 40との間に画像信号を縮小する縮小処理部(図 示せず)を備え、縮小処理部で生成された縮小画像力 エッジ近傍の平坦度合 、、 または、アンシャープ信号 USの変化量にもとづいて効果調整信号 MODを出力する ようにしてもよい。
縮小画像を用いることにより、ノイズの影響を抑えながらエッジ近傍の平坦領域を検 出できる。つまり、画像信号を平均した後で間引く縮小方法で生成された縮小画像 は、ノイズ成分が低減されているので、縮小画像を用いることで、ノイズの影響を抑え ながらエッジ近傍の平坦領域を検出することができる。また、縮小画像を用いれば、 検出する画素数を削減でき、演算量を削減できる。
また、制御信号発生部 40、制御信号発生部 70の前にローパスフィルタなどを設置 し、画像信号の帯域制限を行い、エッジ近傍の平坦領域を検出してもよい。これによ り、ノイズ成分を低減でき、ノイズの影響を抑えながらエッジ近傍の平坦領域を検出で きる。
(実施の形態 3)
本発明の実施の形態 2では、効果調整信号 MODに応じて画像信号 ISと周辺画像 情報 (アンシャープ信号) USとの割合を変えて合成した合成信号 MUSを出力し、視 覚処理部 30は効果調整部 1020からの合成信号 MUSにしたがって画像信号 ISを 視覚処理した処理出力 OSを出力するようにしたが、本発明の実施の形態 3では、効 果調整部 1021によって、視覚処理された処理出力 OSと画像信号 ISとを効果調整 信号に応じて合成した合成出力 OUTを出力するようにした実施形態について、図 1 7を用いて説明する。
図 17は、本発明の実施の形態 3における視覚処理装置 102の構成を示すブロック 図である。
以下、実施の形態 2と同様の部分については、同一符号を付し、その詳細な説明は 省略する。
図 17において、視覚処理部 30は、画像信号 ISと空間処理部 10の出力 USとにもと づ 、て処理出力 OSを出力する。
効果調整部 1021は、画像信号 ISと処理出力 OSとを、効果調整信号 MODに応じ て内分演算することで、視覚処理の効果を異ならせる (変更する)。たとえば、効果調 整部 1021からの出力 OUTは、以下の(式 3)のように内分演算によって算出される。
OUT=OS X MOD + IS X (1. 0— MOD) (式 3) なお、(式 3)は、(式 4)のように変形しても実現できる。
OUT= (OS-IS) X MOD + IS (式 4)
以上のように、本発明の実施の形態 3によれば、効果調整信号 MODに応じて、処 理信号 OSと画像信号 ISとの割合を変化させて合成した合成信号 OUTを出力でき、 視覚処理の効果を異ならせる (変更する)ことができる。
なお、制御信号発生部 40は、本発明の実施の形態 2における制御信号発生部 70 に置き換えてもよい。これによつても、同様にエッジ近傍領域を検出でき、エッジ近傍 での周辺情報の変化量に応じた効果調整信号 MODを生成できる。
(実施の形態 4)
本発明の実施の形態 2では、効果調整信号 MODに応じて画像信号 ISと周辺画像 情報 USとの割合を変えて合成した合成信号 MUSを出力し、視覚処理部 30は効果 調整部 1020からの合成信号 MUSにしたがって画像信号を視覚処理した処理出力 OSを出力するようにしたが、本発明の実施の形態 4では、効果調整部 1022は、効 果調整信号 MODに応じて、視覚処理の効果の異なる視覚処理部 31と視覚処理部 32との出力の割合を変えて合成した合成出力 OUTを出力する実施形態について、 図 18を用いて説明する。
図 18は本発明の実施の形態 4における視覚処理装置 103の構成を示すブロック図 である。以下、実施の形態 2と同様の部分については、同一符号を付し、その詳細な 説明は省略する。
効果調整部 1022は、制御信号発生部 40から出力される効果調整信号 MODに応 じて、視覚処理の強度が異なる第 1プロファイル 60が LUTに設定された視覚処理部 31の出力 OSAと、第 2プロファイル 61が LUTに設定された視覚処理部 32の出力 O SBとを内分演算により合成し、合成出力 OUTを出力する。なお、外分演算によって 合成出力を生成してもよい。このとき、合成出力 OUTは (式 5)のようになる。
OUT=OSAX MOD + OSB X (1. 0— MOD) (式 5)
なお、(式 5)は、(式 6)のように変形しても実現できる。
OUT= (OSA-OSB) X MOD + OSB (式 6)
以上のように、本発明の実施の形態 4の視覚処理装置 103によれば、効果調整信 号 MODに応じて、視覚処理の効果の異なる視覚処理部 31の出力と視覚処理部 32 の出力との割合を変えて合成した合成出力を得ることで、視覚効果の度合いを異な らせた視覚処理を行うことができる。
なお、制御信号発生部 40は、本発明の実施の形態 2における制御信号発生部 70 に置き換えてもよい。これによつても、同様にエッジ近傍領域を検出でき、エッジ近傍 での周辺情報の変化量に応じた効果調整信号 MODを生成できる。
(実施の形態 5)
本発明の実施の形態 2から本発明の実施の形態 4までの視覚処理装置では、 2次 元階調変換特性にもとづく階調変換値を出力するようにしていたが、本発明の実施 の形態 5では、ゲイン信号を用いて階調変換を行う場合について、図 19、図 20を用 いて説明する。
図 19は本発明の実施の形態 5におけるゲイン型視覚処理システム 104の構成を示 すブロック図、図 20は 2次元ゲイン特性を説明するための説明図である。以下、実施 の形態 2と同様の部分については、同一符号を付し、その詳細な説明は省略する。 図 19において、ゲイン型視覚処理システム 104は、画像信号 ISを視覚処理したゲ イン信号 GAINを出力するゲイン型視覚処理装置 1905と、ゲイン信号 GAINと画像 信号 ISとを乗算する乗算器 1911とを備えている。
また、ゲイン型視覚処理装置 1905は、画像信号 ISを視覚処理した処理信号 OSを 出力する視覚処理装置 101と、処理信号 OSを画像信号 ISで除算する除算器 1912 とを備えている。ここで、視覚処理装置 101は、画像信号 ISの出力を視覚処理した階 調変換値を出力するもので、この階調変換値を画像信号 ISで除算することで、ゲイン 型視覚処理装置 5を実現できる。
乗算器 1911は、ゲイン型視覚処理装置 1905で出力されるゲイン信号 GAINと画 像信号 ISとを乗算し、画像信号 ISの出力を視覚処理した階調変換値を出力する。 なお、視覚処理部 30において、図 20に示す、 2次元ゲイン特性を持つプロファイル を直接に用いて処理するようにしてもよい。ここで、図 20の縦軸はゲイン出力 GN、横 軸は画像信号 ISである。図 20に示す 2次元ゲイン特性は、図 10に示す 2次元階調 特性のプロファイルの出力を画像信号 ISで除算して得たものと等価である。この 2次 元ゲイン特性を持つプロファイルを視覚処理装置 101の視覚処理部 30の LUTに設 定してもよい。このように、 2次元ゲイン特性のプロファイルを視覚処理部 30の LUT にあらかじめ設定すれば、ゲイン信号 GNとゲイン信号 GAINは等価となるため、除 算器 12を削除してもゲイン型視覚処理装置 1905を実現することができる。
ゲイン型視覚処理装置 1905では、入力された画像信号 ISの変化に対して処理信 号の変化が小さいため、入力信号のビット数を削減でき、回路規模を削減できる。ま た、視覚処理部 30に 2次元 LUTが備えられた場合にはメモリ容量を削減できる。 以上のように、本発明の実施の形態 5のゲイン型視覚処理システム 104によれば、 ゲイン信号 GAINを制御することで、容易に階調の飽和を抑えることができ、優れた 視覚処理を実現することができる。
なお、本発明の実施の形態 2における視覚処理装置 101は、本発明の実施の形態 3における視覚処理装置 102に置き換えてもよい。これによつても、同様にゲイン型 視覚処理装置 1905を実現できる。
また、本発明の実施の形態 2における視覚処理装置 101は、本発明の実施の形態 4における視覚処理装置 103に置き換えてもよい。これによつても、同様にゲイン型 視覚処理装置 1905を実現できる。
以上のように、本発明の実施の形態 2から本発明の実施の形態 5によれば、急峻な エッジ領域を有する画像が入力された場合であっても、副作用を抑えた視覚処理を 実現することができる。
なお、上記実施形態で説明した視覚処理装置は、動画像を取り扱う機器に内蔵あ るいは接続し、フレームごと、もしくはフィールドごとの画像力も効果調整信号 MOD を生成するようにしてもよい。制御信号発生部 40は、画像信号がフレーム画像のとき にはひとつ(1フレーム)以上前のフレーム画像より、もしくは画像信号がフィールド画 像のときにはひとつ(1フィールド)以上前のフィールド画像からエッジ情報や平坦度 情報を抽出することができる。これにより、視覚処理装置は、フレームの先頭力 エツ ジ情報や平坦度情報に応じた効果調整信号 MODを使用することができる。また、視 覚処理装置は、ひとつ前(1フィールド前)のフィールド画像からエッジ情報や平坦度 情報を抽出でき、フィールド画像の先頭力もエッジ情報や平坦度情報に応じた効果 調整信号 MODを使用することができる。また、制御信号発生部 40は、ひとつ以上前 (1フレーム前)のフレーム画像より、もしくはひとつ(1フィールド)以上前のフィールド 画像力 エッジ情報や平坦度情報を抽出することで、回路の遅延をあわせることが容 易となり回路規模を削減できる。
(実施の形態 6)
一般に、自然画像は階調数が多ぐ自然画像に視覚処理を行うことで局所的な明 暗比などを強調した鮮鋭な画像を得ることができる。一方、特殊画像は画像信号の 画像中における濃淡が変化する領域の割合が極端に少な 、か、または画像信号の 画像中における濃淡が変化しな 、領域の割合が極端に多 、と 、つた統計的な情報 の偏りをもつ。このような特殊画像では、画像中に平坦な領域が多い。このため、急 峻なエッジがある特殊画像に視覚処理を施した場合には、副作用が目立ちやすい。 この副作用を抑えるため、視覚処理を弱くすると、自然画像に対しても処理が弱くなり 鮮鋭でな ヽ画像となってしまう。
よって、特殊画像に対してのみ副作用を抑えることで、自然画像に対して優れた視 覚処理の効果を実現することができる。
本発明の実施の形態 6における視覚処理装置は、画像信号から統計的な情報の 偏りを有する特殊画像を検出し、この統計的な情報の偏りの度合いにもとづいて効果 調整信号を生成し、生成された効果調整信号に応じて視覚処理の効果を異ならせる (変更する)ように調整するものである。
ここで、視覚処理とは、人間の目の見え方に近い特性を持たせた処理であり、入力 された画像信号の対象画素の値とその周辺画素の値(明るさ)との対比に応じて出力 信号の値を決定する処理である。視覚処理は、逆光補正、ニー処理、 Dレンジ圧縮 処理、色処理、または、明るさ調整(階調処理、コントラスト調整を含む)などに適用さ れる。
また、本発明の実施の形態では、 YCbCr色空間、 YUV色空間、 Lab色空間、 Luv 色空間、 YIQ色空間、 YPbPr色空間の輝度成分 Yまたは明度成分 Lを輝度信号と 定義する。以下、輝度信号を画像信号として説明する。
本発明の実施の形態 6である視覚処理装置について、図 21〜図 28を用いて説明 する。図 1は、本発明の実施の形態 6における視覚処理装置 1001の構成を示すプロ ック図である。
図 21において、本発明の実施の形態 6における視覚処理装置 1001は、入力され た画像信号 ISから周辺画像情報 (アンシャープ信号) USを抽出する空間処理部 10 と、画像信号 ISから統計的な情報の偏りを有する特殊画像を検出し、統計的な情報 の偏りの度合いにもとづいて視覚処理の効果を異ならせるための特殊画像用効果調 整信号 DSを出力する特殊画像検出部 2140と、特殊画像用効果調整信号 DSをフ レーム間で連続的に変化させた効果調整信号 MODを出力する連続変化処理部 50 と、効果調整信号 MODに応じて画像信号 ISと周辺画像情報 USとの割合を変えて 合成した合成信号 MUSを出力する効果調整部 1020と、効果調整部 1020からの合 成信号 MUSにしたがって画像信号 ISを視覚処理した処理出力 OSを出力する視覚 処理部 30とを備えている。
この構成により、特殊画像検出部 2140は、特殊画像が持つ情報の偏り度合いに応 じた特殊画像用効果調整信号 DSを出力できる。また、効果調整部 1020は、特殊画 像用効果調整信号 DSを連続的に変化させた効果調整信号 MODにより、視覚処理 部 30での視覚処理の効果を異ならせるための合成信号 MUSを生成できる。また、 視覚処理部 30は、効果調整部 1020から出力される合成信号 MUSに応じて画像信 号 ISを階調変換できる。
これにより、特殊画像が入力された場合であっても、視覚処理装置 1001は特殊画 像を検出でき、特殊画像に対して視覚処理部 30は視覚処理の効果を異ならせ、副 作用を抑えることができる。
以下、視覚処理装置 1001の各機能部について説明する。
空間処理部 10は、画像信号 ISから対象画素の値と対象画素の周辺領域にある画 素(以下、「周辺画素」という)の値とを抽出し、抽出された画素の値を用いて画像信 号 ISに対してフィルタ処理を行う。
たとえば、画像信号 ISをローノ スフィルタにより処理することで、画像信号 ISからァ ンシャープ信号 USを生成する。アンシャープ信号 usは、以下のような演算により生 成する。 US = (∑ [Wij] X [Aij]) / (∑[Wij])
ここで、 [Wij]は、対象画素および周辺画素において、 i行 j列目に位置する画素の 重み係数であり、 [Aij]は、対象画素および周辺画素において、 i行 j列目に位置する 画素の値である。また、「∑」は、対象画素および周辺画素のそれぞれの画素につい ての合計の計算を行うことを意味して 、る。
なお、画素値の差の絶対値が大き 、ほど小さ 、値の重み係数が与えられてもよ!/ヽ し、対象画素力も距離が大きいほど小さい重み係数を与えるようにしてもよい。また、 周辺画素の領域サイズは効果に応じてあら力じめ設定される大きさであり、所定のサ ィズより大きくすると視覚効果を高めることができる。たとえば、対象とする画像の大き さが縦 1024画素および横 768画素であれば、縦横がそれぞれ 80画素以上の領域 力 アンシャープ信号 USを生成することにより、それぞれ縦横 3画素程度の局所領 域に比較してより視覚効果を高めることができる。
また、ローパスフィルタとしては、 FIR (Finite Impulse Response)型の空間フィ ルタ、あるいは IIR (Infinite Impulse Response)型の空間フィルタなどを用いて ちょい。
つぎに、効果調整部 1020は、連続変化処理部 50から出力される効果調整信号 M ODに応じて画像信号 ISとアンシャープ信号 USとを補間処理により合成し、合成信 号 MUSを出力する。合成信号 MUSは、たとえば、効果調整信号 MODに応じて、 以下の(式 7)のように内分演算される。連続変化処理部 50につ 、ては後述する。
MUS = US X MOD + IS X (1. 0— MOD) (式 7)
ここで、効果調整信号 MODの値は「0. 0」から「1. 0」までの範囲で変化し、効果調 整信号 MODの値が「0. 0」で視覚処理の効果なし、効果調整信号 MODの値が「1 . 0」で視覚処理の効果が最大となる。なお、(式 7)は、(式 8)のように変形させること もでき、同様に、合成信号 MUSを生成できる。
MUS = (US-IS) X MOD + IS (式 8)
つぎに、視覚処理部 30は、効果調整部 1020からの合成信号 MUSにしたがって、 画像信号 ISを階調変換する。
視覚処理部 30は、たとえば、図 22に示す、 2次元階調変換特性にもとづいて階調 変換を行う。ここで、 2次元階調変換とは、合成信号 MUSと画像信号 ISとの 2つの入 力に対して出力の値が決定される階調変換をいう。視覚処理部 30は、 2次元階調変 換特性にもとづいて画像信号 ISと合成信号 MUSとに対して処理信号 OSを出力す る。この階調変換特性よつて様々な視覚効果を出すことができる。
図 22を用いて、 2次元階調変換特性を説明する。図 22は、 2次元階調変換特性を 説明するための説明図である。ここで、横軸は入力された画像信号 IS、縦軸は変換 された処理信号 OSの出力である。
図 22に示すように、 2次元階調変換は、合成信号 MUS0から MUSnの信号レベル に応じて所定の階調変換特性を持つ。したがって、画像信号 ISの画素値が 8ビットの 値とすると、 256段階に分けられた画像信号 ISの値に対する出力信号 OSの画素値 が所定の 2次元階調変換特性により決定される。階調変換特性は所定のガンマ変換 特性を持つ階調変換曲線であり、合成信号 MUSの添え字について、出力が単調減 少する関係にある。なお、合成信号 MUSの添え字について、出力が一部分単調減 少でない箇所があつたとしても、実質的に単調減少であればよい。また、図 22に示し たように、 2次元階調変換特性において、すべての画像信号 ISの明度値に対して、 ( MUS = MUS0の場合の出力値)≥ (MUS = MUS1の場合の出力値)≥ · · ·≥ (M US = MUSnの場合の出力値)の関係を満たして 、る。
図 22に示す 2次元階調変換特性によれば、視覚処理部 30は、入力された画像信 号 ISが値「a」に対して、周囲領域の明度値が小さいときに MUS0を選択することで 処理出力 OSの値は「P」となり、逆に、周囲領域の明度値が大きいときに MUSnを選 択することで処理出力 OSの値は「Q」となる。このように、入力された画像信号 ISが値 「a」であっても、周囲領域の明度値の変化によって処理出力 OSは値「P」から値「Q」 まで大きく変化させることができる。これにより、暗部のコントラストを合成信号 MUSに 応じて強調することができる。
一方、視覚処理の効果をなくすため、合成信号 MUS =画像信号 ISとなるようにす れば、図 22に示す、曲線 2の階調変換特性を持たせることができる。曲線 2の階調変 換特性では、画像全体の明るさ調整 (ガンマ変換)ができるが、局所的なコントラスト を高めるなどの視覚効果はな 、。 なお、この 2次元階調変換特性を変更することで、様々な視覚処理の効果を出すこ とができ、ニー処理、 DR圧縮処理、色処理、または、明るさ調整(階調処理、コントラ スト調整を含む)などに適用可能となる。
つぎに、視覚処理部 30において、合成信号 MUSにもとづいて視覚処理の効果を 異ならせたときの処理出力 OSについて図 23を用いて説明する。図 23は、処理信号 OSの出力を説明するための説明図である。
図 23 (a)において、横軸は処理する画素位置、縦軸は合成信号 MUSの出力であ る。
合成信号 MUSは、たとえば、効果調整信号 MODの値を「0. 5」としたときには、画 像信号 ISとアンシャープ信号 USの中間的な出力となる。
このとき、図 23 (b)に示すように、画像信号 ISのみにもとづいて視覚処理した処理 信号 OSを OS (IS, IS)とし、画像信号 ISとアンシャープ信号 USとにもとづいて視覚 処理の処理信号 OSを OS (IS, US)とすれば、画像信号 ISと合成信号 MUSにした がって視覚処理された処理信号 OSである OS (IS, MUS)は、 OS (IS, IS)と OS (IS , us)との中間的な出力となる。
よって、効果調整信号 MODの値が「1. 0」のとき、合成信号 MUS=USとなり、視 覚処理の「効果が最大」である処理信号 OS (IS, US)を出力する。一方、効果調整 信号 MODの値が「0. 0」のとき、合成信号 MUS =ISとなり、視覚処理の「効果なし」 である処理信号 OS (IS, IS)を出力する。
このように、視覚処理部 30は、合成信号 MUSに応じて局所的なコントラストの強調 効果を強めたり、弱めたりすることができる。これにより、画像全体の明るさを変換する だけの処理の効果から、局所領域でのコントラストを周囲の明るさで異ならせるように (変化させるように)した処理の効果まで、効果が異なる様々な視覚効果を、視覚処 理装置 1001にお 、て実現することができる。
なお、視覚処理装置 1001において、 2次元階調変換特性を変更することで、ニー 処理、 DR圧縮処理、色処理なども実現することができる。
また、視覚処理部 30は、 2次元 LUTを有してもよい。この場合、視覚処理部 30は、 2次元 LUTに、図 22に示す、特性データ(以下、「プロファイル」という)を設定するこ とで、階調変換する。
また、視覚処理部 30は、演算回路によって視覚処理を行うようにしてもよい。特に、 視覚処理部 30の 2次元 LUTに、簡易な直線によって近似可能な特性であるプロファ ィルが設定される場合、 2次元 LUTのテーブルをなくすことができ、視覚処理装置 1 001の回路規模を削減することができる。
つぎに、図 24、図 25、図 26および図 27を用いて、特殊画像検出部 2140について 説明する。ここでは、特殊画像の情報の偏りを、画像中における濃淡が変化する領 域の割合力も検出する場合について説明する。また、濃淡の変化はエッジ成分より 検出する。
図 24は、特殊画像検出部 2140の構成を示すブロック図、図 25は特殊画像を説明 するための説明図、図 26はエッジ画素を説明するための説明図、図 27は特殊画像 用効果調整信号 DSの出力を説明するための説明図である。
図 24に示すように、特殊画像検出部 2140は、画像信号 ISからエッジ量を画素ごと に検出するエッジ検出部 2141と、エッジ量が所定の値以上であるエッジ画素を判定 するエッジ量判定部 2142と、画像信号 ISの全画素数に対するエッジ画素数の割合 を算出するエッジ密度算出部 2143と、エッジ密度算出部 2143で算出された割合に 応じて特殊画像用効果調整信号 DSを出力する効果調整信号発生部 2144とを備え ている。
これにより、視覚処理装置 1001において、階調レベル数が極端に少なぐエッジ成 分が描画画像の輪郭領域に限定される特殊画像を検出でき、その情報の偏りを検出 することができる。
また、特殊画像検出部 2140は、画像信号がフレーム画像のときには、 1フレーム以 上前のフレーム画像より統計的な情報の偏りを検出し、画像信号力フィールド画像の ときには、 1フィールド以上前のフィールド画像力 統計的な情報の偏りを検出するよ うにする。これにより、視覚処理装置 1001は、フレームまたはフィールドの先頭から 特殊画像の情報の偏りに応じた特殊画像用効果調整信号 DSを使用することができ る。
たとえば、特殊画像検出部 2140が、図 25に示す特殊画像 200を処理する場合に ついて、説明する。図 25に示すように、特殊画像 200は、背景領域 201、パターング ループ 202、パターングループ 203およびパターングループ 204を有し、いずれの 領域も濃淡値が一定または変動が小さいものとする。各グループは、形状は異なる が、濃淡値がほぼ同じものとする。
エッジ検出部 2141は、画像信号 ISから画素ごとにエッジ量を検出する。エッジ検 出部 2141は、 Sobelフィルタや Prewittフィルタなどの 1次微分フィルタ、ラプラシァ ンフィルタなどの 2次微分フィルタなどのエッジ検出フィルタ(図示せず)を用いてエツ ジ量を検出する。
エッジ量判定部 2142は、あら力じめ設定された閾値とエッジ量とを画素ごとに比較 し、エッジ量が所定の閾値以上のときにエッジ画素と判定する。
たとえば、エッジ量判定部 2142〖こより、特殊画像 200を処理することで、図 26に示 すような出力 300が得られる。
図 26において、エッジ画素は、エッジ画素 301、エッジ画素 302およびエッジ画素 303であり、特殊画像 200の図形パターンの輪郭領域に発生する。
つぎに、図 24に戻り、エッジ密度算出部 2143は、画像信号 ISの全画素数に対す るエッジ画素数の割合であるエッジ密度を、以下のように算出する。
エッジ密度 =エッジ画素数 ÷全画素数
ここで、エッジ密度は、画像信号 ISがフレーム画像であればフレーム内の全画素に 対するエッジ画素数の割合とする。また、画像信号 ISがフィールド画像であればフィ 一ルド内の全画素に対するエッジ画素数の割合とする。
効果調整信号発生部 2144は、エッジ密度に応じて、出力を調整する。つまり、効 果調整信号発生部 2144は、エッジ密度が大きくなるほど特殊画像用効果調整信号 DSの信号レベル (値)が大きくなるように出力する。たとえば、図 27に示すように、ェ ッジ密度が所定の値 Tha以上カゝら所定の値 Thbまでの範囲で特殊画像用効果調整 信号 DSの信号レベルを増加させる。このように閾値を設けることにより、特殊画像が 含まれる閾値「Tha」以下の場合は視覚効果を完全になくした特殊画像用効果調整 信号 DSを生成できる。一方、特殊画像でない通常の画像が含まれる閾値「¥ 」以 上の場合は視覚効果を弱めずに処理するための特殊画像用効果調整信号 DSを生 成できる。ここで、横軸はエッジ密度、縦軸は特殊画像用効果調整信号 DSの出力で ある。なお、出力される特殊画像用効果調整信号 DSの信号レベルの範囲を「0. 0」 から「1. 0」としたが、視覚処理の強度に応じて「0. 2」から「1. 0」などに調整するよう にしてもよい。また、特殊画像用効果調整信号 DSの信号レベルが大きいほど視覚処 理の効果が強いものになるように、視覚処理装置 1001を構成する。
連続変化処理部 50は、特殊画像用効果調整信号 DSがフレーム単位で出力され るときはフレーム間で、もしくは特殊画像用効果調整信号 DSがフィールド単位で出 力されるときはフィールド間で、連続的に効果調整信号 MODを変化させるように動 作する。たとえば、連続変化処理部 50は、特殊画像用効果調整信号 DSを一時記憶 するレジスタなどの記憶部(図示せず)を備え、新たなフレームで特殊画像検出部 21 40から出力される特殊画像用効果調整信号 DSと一時記憶した特殊画像用効果調 整信号 DSとを内分演算することで、効果調整信号 MODを生成し、その生成した効 果調整信号 MODを記憶部に記憶する。記憶部には、初期値として、最初に検出さ れた特殊画像用効果調整信号 DSを記憶する。連続変化処理部 50は、この内分演 算により生成された効果調整信号 MODを出力する。これにより、効果調整信号 MO Dをフレーム間で急激に変化させないようにしている。また、連続変化処理部 50は、 I IR型のフィルタなどにより実現することができる。
つぎに、視覚処理装置 1001の動作について、図 28を用いて説明する。図 28 (a) は視覚処理装置 1001の動作を説明するフローチャートである。図 28 (b)は、連続変 化処理部 50の構成の一例を示す図である。
図 28 (a)、 (b)に示すように、画像信号 ISがフレーム画像の場合には、 1フレーム以 上前のフレーム画像力も統計的な情報の偏りを検出するため、複数のフレーム画像 が視覚処理装置 1001に入力される。もしくは、画像信号 ISがフィールド画像の場合 には、 1フィールド以上前のフィールド画像力 統計的な情報の偏りを検出するため、 複数のフィールド画像が視覚処理装置 1001に入力される(S201)。視覚処理装置 1 001に、複数のフレーム画像もしくは複数のフィールド画像が入力された後、特殊画 像検出部 2140は、検出対象となるフレーム画像もしくはフィールド画像である画像 信号 ISから特殊画像を検出し、検出された特殊画像の統計的な偏りに応じた特殊画 像用効果調整信号 DSを出力する (S202)。
つぎに、視覚処理装置 1001は、効果調整信号 MODがフレーム間で連続的に変 化するように補間処理を行う。視覚処理装置 1001は、連続変化処理部 50により、一 時記憶するレジスタなどの記憶部 5001に一時記憶した、 1フレーム前の効果調整信 号 MODIを読み出し (S203)、ステップ S 202で検出した特殊画像用効果調整信号 DSと、ステップ S203で読み出した効果調整信号 MODIとを内分演算などにより補 間し、その補間処理により生成された効果調整信号 MODを連続変化処理部 50から 出力する(S204)。これにより、処理されたフレーム画像間で生じる急激な変化を抑 え、視覚効果の違いによって生じる画像のちらつきなどを抑えることができる。
つぎに、視覚処理装置 1001は、特殊画像用効果調整信号 DSと効果調整信号 M OD1とを補間することで生成された効果調整信号 MODを記憶部 5001に一時記憶 する(S205)。この補間処理が内分演算によるものである場合、その内分の比は、あ らかじめ与えられるものである。
つぎに、視覚処理装置 1001は、効果調整部 1020により、効果調整信号 MODに 応じて画像信号 ISと空間処理部 10からのアンシャープ信号 USとを合成した合成信 号 MUSを生成する(S206)。
視覚処理装置 1001は、視覚処理部 30により、合成信号 MUSに応じて図 22に示 す 2次元階調変換特性の曲線のひとつを選択し、画像信号 ISを変換する(S207)。 つぎに、視覚処理装置 1001は、つぎに処理するフレーム画像がある力否かを判断 する(S208)。つぎに処理が必要なフレーム画像がない場合は、視覚処理を完了す る。一方、つぎに処理が必要なフレーム画像がある場合は、ステップ S201に戻り、つ ぎのフレーム画像を入力する。以後、処理が必要なフレームがなくなるまで、 S201力 ら S208までのステップを繰り返し実行する。
なお、以上、効果調整信号 MODがフレーム間で連続的に変化するように補間処 理を行う場合について説明したが、補間処理の対象は、フレーム間に限らず、フィー ルド間であってもよい。
以上のように、本発明の実施の形態 6の視覚処理装置 1001によれば、特殊画像が 入力された場合であっても、画像中のエッジを検出し、検出されたエッジ量にもとづ いて視覚処理の効果を調整するので、自然画像では視覚効果を高めながら、特殊 画像では副作用を抑えることができる。
なお、統計的な偏りを検出する方法は、前述した特殊画像検出部 2140の方法に 限定されない。特殊画像は、画像信号 ISの画像中における濃淡が変化する領域の 割合が極端に少な 、か、または画像信号 ISの画像中における濃淡が変化しな 、領 域の割合が極端に多!、と 、つた統計的な情報の偏りをもつ。
以下、統計的な偏りを検出する方法について、他の変形例について説明する。 まず、変形例 1に係る特殊画像検出部 700について説明する。変形例 1に係る特 殊画像検出部 700では、画像信号 ISの画像中における濃淡が変化しな ヽ領域の割 合力 統計的な情報の偏りを検出する。濃淡が変化しない領域は、画像の平坦度合 いにより検出することができる。この平坦度合いを検出する方法として、画像信号 IS から階調数の偏りを検出する方法を採る。画像を構成する各画素のとりうる階調レべ ル数 (階調数)が極端に少な 、画像 (各画素がとる階調レベル数の分布が極端に狭 い画像)では、濃淡が一定である領域が広いため、画像中における平坦度合いは高 くなる。この情報の偏りから特殊画像の度合いを求めることができる。
図 29、図 30および図 31を用いて、画像信号 ISから階調数の偏りを検出する場合 の変形例 1について説明する。図 29は変形例 1の特殊画像検出部 700の構成を示 すブロック図、図 30は変形例 1の頻度検出部 701で検出される頻度分布を説明する ための説明図、図 31は変形例 1の特殊画像検出部 700から出力される特殊画像用 効果調整信号 DSを説明するための説明図である。
図 29に示すように、特殊画像検出部 700は、画像信号から階調レベルごとの頻度 を検出する頻度検出部 701と、階調レベルごとの頻度と所定の閾値とを比較し、所定 の閾値より頻度が大きい階調レベルを判定する頻度判定部 702と、頻度判定部 702 により頻度が大きいと判定された階調レベル数を検出する階調数検出部 703と、階 調数検出部 703において検出された階調レベル数に応じて効果調整信号を出力す る効果調整信号発生部 704とを備えて 、る。
頻度検出部 701は、ヒストグラム法により、画像信号から階調レベルごとの頻度を検 出する。たとえば、画像信号が 256階調であれば、「0」から「255」までの各階調レべ ルの出現頻度を検出する。
頻度判定部 702は、階調レベルごとの頻度と所定の閾値とを比較し、所定の閾値よ り頻度が大きい階調レベルを検出する。
図 30に示すように、頻度判定部 702は、階調レベル Laにおいて頻度 401が所定の 閾値 Thより大きいことを判定する。同様に、頻度判定部 702は、階調レベル Lb、階 調レベル Lcおよび階調レベル Ldにおいて、頻度 402、頻度 403および頻度 400が それぞれ所定の閾値 Thより大きいことを判定する。ここで、図 30の横軸は階調レべ ル、縦軸は頻度である。
階調数検出部 703は、頻度判定部 702で頻度が大きいと判定された階調レベルの 数を計数する。
効果調整信号発生部 704は、計数された階調レベル数に応じて、階調数が大きく なるほど特殊画像用効果調整信号 DSの信号レベル (値)を大きくするようにして、特 殊画像用効果調整信号 DSを出力する。たとえば、図 31に示すように、計数された階 調レベル数が所定の値 The以上カゝら所定の値 Thdまでの範囲で特殊画像用効果調 整信号 DSの信号レベル (値)を増加させる。
このように閾値を設けることにより、効果調整信号発生部 704は、特殊画像が含ま れる閾値「Thc」以下の場合は視覚効果を完全になくした特殊画像用効果調整信号 DSを生成できる。一方、効果調整信号発生部 704は、特殊画像でない通常の画像 が含まれる閾値「Thd」以上の場合は視覚効果を弱めずに処理するための特殊画像 用効果調整信号 DSを生成できる。図 31において、横軸は階調レベル数、縦軸は特 殊画像用効果調整信号 DSの出力である。なお、出力される特殊画像用効果調整信 号 DSの値の範囲を「0. 0」から「1. 0」としたが、視覚処理の強度に応じて「0. 2」か ら「1. 0」などに調整するようにしてもよい。また、特殊画像用効果調整信号 DSの値 が大き 、ほど視覚処理の効果が強 、ものになるように、視覚処理装置 1001を構成 する。
以上のように、変形例 1の特殊画像検出部 700によれば、画像信号から画像情報 の偏りに応じて特殊画像の度合 、を検出でき、特殊画像検出部 2140を特殊画像検 出部 700に置き換えることが可能となる。 つぎに、変形例 2に係る特殊画像検出部 80について説明する。変形例 2に係る特 殊画像検出部 80では、画像信号 ISの画像中における濃淡が変化しな ヽ領域の割 合力 統計的な情報の偏りを検出する。濃淡が変化しない領域は、画像の平坦度合 いにより検出することができる。この平坦度合いを検出する方法として、画像信号 IS から隣接画素との輝度差が所定の値以下となる類似画素が連続している連続長を検 出し、検出された複数の連続長を平均した平均連続長を検出する方法を採る。これ により、特殊画像の度合いを検出することができる。特殊画像では、濃淡が一定であ る領域が広いため、画像中における平坦度合いは高くなり、類似輝度の画素が多く 連続する。つまり、統計的な情報の偏りから特殊画像の度合いを検出できる。
図 32、図 33および図 34を用いて、画像信号から類似した輝度信号が連続するとき の連続長を検出する変形例 2の場合について説明する。
図 32は変形例 2の特殊画像検出部 80の構成を示すブロック図、図 33は変形例 2 の連続長を説明するための説明図、図 34は変形例 2の特殊画像用効果調整信号 D Sを説明するための説明図である。
図 32に示すように、変形例 2の特殊画像検出部 80は、画像信号 ISから隣接画素と の輝度差が所定の値以下となる類似画素を検出する類似輝度検出部 81と、類似画 素が連続している連続長を検出する連続長検出部 82と、連続長検出部 82で検出さ れた複数の連続長を平均することで平均連続長を算出する平均連続長算出部 83と 、平均連続長に応じて特殊画像用効果調整信号 DSを出力する効果調整信号発生 部 84とを備えている。
類似輝度検出部 81は、画像信号から隣接画素との輝度差が所定の値以下となる 類似画素を検出する。所定の値は、あら力じめ実験的に求められる値であり、求めら れる機器の画質仕様により決定される。
連続長検出部 82は、類似画素が連続している連続長を検出する。たとえば、図 33 に示すように、縦方向 503、縦方向 504および縦方向 505などの縦方向と、横方向 5 00、横方向 501および横方向 502などの横方向とにおいて、類似画素が連続してい る画素数を連続長として検出する。
平均連続長算出部 83は、連続長検出部 82で検出された複数の連続長を平均する ことで平均連続長を算出する。
効果調整信号発生部 84は、平均連続長に応じて、平均連続長が長くなるほど特殊 画像用効果調整信号 DSの信号レベル (値)を小さくするように出力する。たとえば、 図 34に示すように、検出された平均連続長が所定の値「The」以上力 所定の値「T hfjまでの範囲で特殊画像用効果調整信号 DSの信号レベル (値)を減少させる。こ こで、横軸は平均連続長、縦軸は特殊画像用効果調整信号 DSの出力である。 このように閾値を設けることにより、効果調整信号発生部 84は、特殊画像でない通 常の画像が含まれる閾値「The」以下の場合は視覚効果を弱めずに処理するための 特殊画像用効果調整信号 DSを生成できる。一方、効果調整信号発生部 84は、特 殊画像が含まれる閾値「1¾」以上の場合は視覚効果を完全になくした特殊画像用 効果調整信号 DSを生成できる。
なお、出力される特殊画像用効果調整信号 DSの値の範囲を「0. 0」から「1. 0」と した力 視覚処理の強度に応じて「0. 2」から「1. 0」などに調整するようにしてもよい 。また、特殊画像用効果調整信号 DSの値が大きいほど視覚処理の効果が強いもの になるように、視覚処理装置 1001を構成する。
以上のように、変形例 2の特殊画像検出部 80によれば、画像信号から画像情報の 偏りを有する特殊画像の度合いを検出でき、特殊画像検出部 2140を特殊画像検出 部 80に置き換えることが可能となる。
つぎに、変形例 3に係る特殊画像検出部 90について説明する。変形例 3では、画 像信号 ISの画像中における濃淡が変化する領域の割合力 統計的な情報の偏りを 検出する。濃淡が変化する領域は、画像中のエッジ成分により検出することができる 。ここでは、画像中のエッジ成分として、分割された複数のブロック力 高周波成分を 含む高周波ブロックを検出し、分割されたブロックの全数に対する高周波ブロックの 数の割合を検出することで、特殊画像である度合!ヽを検出する。
図 35、図 36および図 37を用いて、高周波ブロックの数の割合を検出する変形例 3 の場合について説明する。図 35は変形例 3の特殊画像検出部 90の構成を示すプロ ック図、図 36は変形例 3のブロック画像を説明するための説明図、図 37は変形例 3 の特殊画像用効果調整信号 DSを説明するための説明図である。 図 35に示すように、変形例 3の特殊画像検出部 90は、複数のブロックに分割され た画像信号 ISから高周波成分を含む高周波ブロックを検出する高周波ブロック検出 部 91と、全ブロック数に対する高周波ブロック数の割合を検出する高周波ブロック密 度検出部 92と、高周波ブロック密度検出部 92で検出されたブロック数の割合に応じ て効果調整信号を出力する効果調整信号発生部 93とを備える。
高周波ブロック検出部 91は、入力された画像信号が MPEGや JPEGなどの符号ィ匕 された圧縮画像である場合、符号ィ匕ブロックごとに高周波成分を検出することができ る。たとえば、符号ィ匕ブロックごとの AC係数を検出することで高周波成分を抽出でき る。
高周波ブロック検出部 91は、所定の値以上の高周波成分が検出されたときのプロ ックを高周波ブロックと判断する。
図 36に示すように、たとえば、特殊画像 200が複数のブロックに分割され、ブロック ごとに高周波成分を検出する場合について説明する。
高周波ブロック検出部 91は、ブロック 600には画像パターンのエッジが含まれるた め、高周波成分を検出し、「高周波ブロックである」と判定する。一方、高周波ブロック 検出部 91は、ブロック 601、ブロック 602はほぼ一定の濃淡値であるため、高周波成 分を検出できず、それぞれを「高周波ブロックでない」と判定する。以下、分割された すべてのブロックに対して、同様に判定を行う。
高周波ブロック密度検出部 92は、複数に分割された全ブロック数に対する高周波 ブロック数の割合 (以下、「ブロック密度」と!、う)を検出する。
効果調整信号発生部 93は、ブロック密度に応じて、ブロック密度が高いほど特殊画 像用効果調整信号 DSの値を大きくするようにして、特殊画像用効果調整信号 DSを 出力する。たとえば、図 37に示すように、検出されたブロック密度が所定の値 Thg以 上から所定の値 Thhまでの範囲で特殊画像用効果調整信号 DSの値を増加させる。 このように閾値を設けることにより、効果調整信号発生部 93は、特殊画像が含まれる 閾値「11^」以下の場合は視覚効果を完全になくした特殊画像用効果調整信号 DS を生成できる。一方、効果調整信号発生部 93は、特殊画像でない通常の画像が含 まれる閾値「Thh」以上の場合は視覚効果を弱めずに処理するための特殊画像用効 果調整信号 DSを生成できる。ここで、横軸はブロック密度、縦軸は特殊画像用効果 調整信号 DSの出力である。なお、出力される特殊画像用効果調整信号 DSの値の 範囲を「0. 0」から「1. 0」としたが、視覚処理の強度に応じて「0. 2」から「1. 0」など に調整するようにしてもよい。また、特殊画像用効果調整信号 DSの値が大きいほど 視覚処理の効果が強いものになるように、視覚処理装置 1001を構成する。
以上のように、変形例 3の特殊画像検出部 90によれば、画像信号 ISから画像情報 の偏りを有する特殊画像の度合!、を検出でき、特殊画像検出部 2140を特殊画像検 出部 90に置き換えることが可能となる。
なお、画像信号が縮小されて!ヽるサムネイル画像などの縮小画像カゝら統計的な情 報の偏りを有する特殊画像を検出し、この統計的な情報の偏りにもとづいて効果調 整信号を出力するようにしてもょ 、。
また、画像信号と特殊画像検出部 2140、 700、 80または 90との間に画像信号を 縮小する縮小処理部(図示せず)を備え、縮小処理部で生成された縮小画像から統 計的な情報の偏りを有する特殊画像を検出し、この統計的な情報の偏りにもとづいて 効果調整信号を出力するようにしてもょ ヽ。
縮小画像を用いることにより、ノイズの影響を抑えながらエッジ近傍の平坦領域を検 出できる。つまり、画像信号を平均した後で間引く縮小方法で生成された縮小画像 は、ノイズ成分が低減されているので、ノイズの影響を抑えながら統計的な情報の偏 りを検出することができる。また、縮小画像を用いれば、検出する画素数を削減でき、 演算量を削減できる。
(実施の形態 7)
本発明の実施の形態 6に係る視覚処理装置 1001では、効果調整信号 MODに応 じて画像信号 ISと周辺画像情報 (アンシャープ信号) USとの割合を変えて合成した 合成信号 MUSを出力し、視覚処理部 30は効果調整部 1020からの合成信号 MUS にしたがって画像信号を視覚処理した処理出力 OSを出力するようにしたが、本発明 の実施の形態 7に係る視覚処理装置 1002では、効果調整部 2021によって、視覚処 理された処理出力 OSと画像信号 ISとを効果調整信号に応じて合成した合成出力 O UTを出力するようにする。本発明の実施の形態 7に係る視覚処理装置 1002につい て、図 38を用いて説明する。
図 38は本発明の実施の形態 7における視覚処理装置 1002の構成を示すブロック 図である。以下、実施の形態 6と同様の部分については、同一符号を付し、その詳細 な説明は省略する。
図 38において、視覚処理部 30は、画像信号 ISと空間処理部 10の出力 USとにもと づ 、て処理出力 OSを出力する。
効果調整部 2021は、画像信号 ISと処理出力 OSとを、効果調整信号 MODに応じ て内分演算することで、視覚処理の効果を異ならせる。たとえば、効果調整部 2021 からの出力 OUTは、以下の(式 9)のように内分演算によって算出される。
OUT=OS X MOD + IS X (1. 0— MOD) (式 9)
なお、(式 9)は、(式 10)のように変形しても実現できる。
OUT= (OS-IS) X MOD + IS (式 10)
以上のように、本発明の実施の形態 7の視覚処理装置 1002によれば、効果調整 信号 MODに応じて、処理信号 OSと画像信号 ISとの割合を変化させて合成した合 成信号 OUTを出力でき、視覚処理の効果を異ならせることができる。
なお、特殊画像検出部 2140を本発明の実施の形態 6の特殊画像検出部 700に置 き換えてもよい。これによつても、同様に特殊画像を検出でき、画像情報の偏りに応じ た効果調整信号 MODを生成できる。
また、特殊画像検出部 2140を本発明の実施の形態 6の特殊画像検出部 80に置き 換えてもよい。これによつても、同様に特殊画像を検出でき、画像情報の偏りに応じ た効果調整信号 MODを生成できる。
また、特殊画像検出部 2140を本発明の実施の形態 6の特殊画像検出部 90に置き 換えてもよい。これによつても、同様に特殊画像を検出でき、画像情報の偏りに応じ た効果調整信号 MODを生成できる。
(実施の形態 8)
本発明の実施の形態 6に係る視覚処理装置 1001では、効果調整信号 MODに応 じて画像信号 ISと周辺画像情報 (アンシャープ信号) USとの割合を変えて合成した 合成信号 MUSを出力し、視覚処理部 30は効果調整部 1020からの合成信号 MUS にしたがって画像信号を視覚処理した処理出力 OSを出力するようにしたが、本発明 の実施の形態 8に係る視覚処理装置 1003では、効果調整部 2022は、効果調整信 号 MODに応じて視覚処理の効果の異なる複数のプロファイルそれぞれからの出力 の割合を変えて合成したプロファイル (以下、「合成プロファイル」と ヽぅ)を作成し、視 覚処理部 30の LUTに設定するようにした実施形態について、図 39を用いて説明す る。
図 39は本発明の実施の形態 8における視覚処理装置 1003の構成を示すブロック 図である。以下、実施の形態 6と同様の部分については、同一符号を付し、その詳細 な説明は省略する。
効果調整部 2022は、視覚処理の強度が異なる第 3プロファイル 6000と第 4プロフ アイル 6001とを効果調整信号 MODに応じて内分演算により合成し、合成プロフアイ ルを作成して視覚処理部 30の LUTに設定する。なお、外分演算によって合成プロ ファイルを生成してもよ 、。
視覚処理部 30は、 LUTに設定された合成プロファイルにより、視覚処理の強弱、 視覚効果の度合いを異ならせた視覚処理を行うことができる。
以上のように、本発明の実施の形態 8の視覚処理装置 1003によれば、効果調整 信号 MODに応じて視覚処理の強度、効果が異なる複数のプロファイルを合成し、合 成プロファイルを視覚処理部 30の LUTに設定することで、視覚処理の効果を異なら せることができる。
なお、特殊画像検出部 2140を本発明の実施の形態 6における特殊画像検出部 7 00に置き換えてもよい。これによつても、同様に特殊画像を検出でき、情報の偏り〖こ 応じた効果調整信号 MODを生成できる。
また、特殊画像検出部 2140を本発明の実施の形態 6における特殊画像検出部 80 に置き換えてもよい。これによつても、同様に特殊画像を検出でき、情報の偏りに応じ た効果調整信号 MODを生成できる。
また、特殊画像検出部 2140を本発明の実施の形態 6における特殊画像検出部 90 に置き換えてもよい。これによつても、同様に特殊画像を検出でき、情報の偏りに応じ た効果調整信号 MODを生成できる。 (実施の形態 9)
本発明の実施の形態 6から本発明の実施の形態 8までの視覚処理装置では、 2次 元階調変換特性にもとづく階調変換値を出力するようにしていたが、本発明の実施 の形態 9では、ゲイン出力を用いて階調変換を行うゲイン型視覚処理システム 1004 について、図 40、図 41を用いて説明する。
図 40は本発明の実施の形態 9におけるゲイン型視覚処理システム 1004の構成を 示すブロック図、図 41は 2次元ゲイン特性を説明するための説明図である。以下、実 施の形態 6と同様の部分については、同一符号を付し、その詳細な説明は省略する 図 40において、ゲイン型視覚処理システム 1004は、画像信号 ISを視覚処理した ゲイン信号 GAINを出力するゲイン型視覚処理装置 4005と、ゲイン信号 GAINと画 像信号 ISとを乗算する乗算器 4011とを備えている。
また、ゲイン型視覚処理装置 4005は、画像信号 ISを視覚処理した処理信号 OSを 出力する視覚処理装置 1001と、処理信号 OSを画像信号 ISで除算する除算器 401 2とを備えている。ここで、視覚処理装置 1001は、画像信号 ISの出力を視覚処理し た階調変換値を出力するもので、この階調変換値を画像信号 ISで除算することで、 ゲイン型視覚処理装置 4005を実現できる。
乗算器 4011は、ゲイン型視覚処理装置 4005で出力されるゲイン信号 GAINと画 像信号 ISとを乗算し、画像信号 ISを視覚処理した階調変換値を出力する。
なお、視覚処理部 30において、図 41に示す、 2次元ゲイン特性を持つプロファイル を直接に用いて処理するようにしてもよい。ここで、図 41の縦軸はゲイン出力 GN、横 軸は画像信号 ISである。図 41に示す 2次元ゲイン特性は、図 22に示す 2次元階調 特性のプロファイルの出力を画像信号 ISで除算して得たものと等価である。この 2次 元ゲイン特性を持つプロファイルを視覚処理装置 1001の視覚処理部 30の LUTに 設定してもよい。このように、 2次元ゲイン特性のプロファイルを視覚処理部 30の LU Tにあらかじめ設定すれば、ゲイン出力 GNとゲイン信号 GAINは等価となるため、除 算器 12を削除してもゲイン型視覚処理装置 4005を実現することができる。
以上のように、本発明の実施の形態 9のゲイン型視覚処理システム 1004において 、ゲイン型視覚処理装置 4005では、入力された画像信号 ISの変化に対して視覚処 理した処理信号の変化が小さいため、入力信号のビット数を削減でき、回路規模を 削減出来る。また、視覚処理部 30に 2次元 LUTが備えられた場合にはメモリ容量を 肖 IJ減することがでさる。
なお、本発明の実施の形態 6の視覚処理装置 1001は、本発明の実施の形態 7に おける視覚処理装置 1002に置き換えてもよい。これによつても、同様にゲイン型視 覚処理装置 4005を実現できる。
また、本発明の実施の形態 6における視覚処理装置 1001は、本発明の実施の形 態 8における視覚処理装置 1003に置き換えてもよい。これによつても、同様にゲイン 型視覚処理装置 4005を実現できる。
以上のように、本発明の実施の形態 6から本発明の実施の形態 9によれば、特殊画 像でな!、通常の画像が入力された場合には視覚処理効果を維持でき、特殊画像が 入力された場合には副作用を抑えることができる。
(実施の形態 10)
上記本発明の実施の形態で説明した視覚処理装置または視覚処理システムにお ける空間処理機能、効果調整機能、視覚処理機能などの各種機能は、集積回路な どを用いたノヽードウエアにより実施してもよいし、中央処理装置(以下、「CPU」という) 、デジタル信号処理装置などを用いて動作するソフトウェアにより実施してもよい。ま た、上記各種機能をソフトウェアおよびノヽードウエアの混在処理により実現しても良い まず、上記各種機能をノヽードウエアで実施する場合は、本発明の実施の形態での 各機能を個別に集積回路としてもよいし、一部またはすベてを含むように 1チップ化さ れた集積回路としてもよい。なお、ここでの集積回路とは、 LSIに限らず、集積度の違 いにより、 IC、システム LSI、スーパー LSI、ウルトラ LSIと呼称されることもある。
また、集積回路は、専用回路または汎用プロセッサーで実現してもよい。たとえば、 半導体チップを製造した後、プログラムすることが可能な FPGA (Field Programm able Gate Array)や、集積回路内部のセルの接続や設定を再構成可能なリコン フィギユラブル'プロセッサーを利用してもよい。 さらには、半導体技術の進歩または派生する別技術による集積回路化の技術が登 場すれば、当然、その技術を用いて機能ブロックの集積ィ匕を行ってもよい。たとえば 、ノィォ技術の進歩により、バイオコンピュータの適用などが考えられる。
つぎに、上記各種機能をソフトウェアで実施する場合について、図 46を用いて説明 する。
図 46は、本発明の実施の形態におけるコンピュータの構成を示すブロック図である。 図 46において、コンピュータ 4612は、各種プログラムの命令を実行する CPU460
0と、プログラムなどが格納されているリードオンリーメモリ 4601 (以下、「ROM4601」 という)と、一時記憶のデータを格納するランダムアクセスメモリ 4602 (以下、「RAM4
602」という)と、画像を入力する入力部 4603と、画像を出力する出力部 4604と、プ ログラムや各種データを記憶する記憶部 4605とを備えている。
さらに、外部との通信を行う通信部 4606と、情報記憶媒体を適宜接続するドライブ
4607とを備えるようにしてもょ ヽ。
また、各機能部はバス 4610を経由して制御信号、データなどの送受信を行う。 CPU4600は、 ROM4601に記憶されているプログラムにしたがって各種機能の 処理を実行する。
ROM4601は、プログラム、プロファイルなどを記憶する。
RAM4602は、 CPU100により各種機能の処理に必要なデータを一時記憶する。 入力部 4603には、画像を入力する。たとえば、電波を受信し、受信した受信信号 を復号ィ匕することで映像信号を取得する。また、直接に有線を経由してデジタル画像 を取得するようにしてもよ 、。
出力部 4604は、画像を出力する。たとえば、液晶表示装置やプラズマディスプレイ などの表示装置に出力する。
記憶部 4605は、磁気メモリなどで構成され、種々のプログラム、データを記憶する 通信部 4606は、ネットワーク 111に接続され、ネットワーク 111を経由してプロダラ ムを取得、または必要に応じて記憶部 4605に取得したプログラムをインストールする ようにしてもよい。これにより、コンピュータ 6は、通信部 4606によりプログラムのダウン ロードが可能となる。
ドライブ 4607は、情報記憶媒体を適宜接続し、情報記憶媒体に記憶されている記 憶情報を取得する。情報記憶媒体は、たとえば、磁気ディスク、光磁気ディスク、光デ イスクなどのディスク 4608、または半導体メモリなどのメモリカード 4609などである。 なお、ディスク 4608、または半導体メモリなどのメモリカード 4609などに各種機能 を実行するためのプログラム、プロファイルなどを記憶し、コンピュータ 4612に、その 情報を与えるようにしてもょ 、。
また、プログラムは、あら力じめコンピュータに専用のハードウェアで組み込んでもよ いし、 ROM4601、記憶部 4605にあら力じめ組み込んで提供してもよい。
また、プログラムは、情報処理装置、テレビ、デジタルカメラ、携帯電話、 PDAなど の画像を取り扱う機器に適用できる。プログラムは、画像を取り扱う機器に内蔵、ある いは接続され、上記実施形態で説明した視覚処理装置または視覚処理システムが 実現する視覚処理と同様の視覚処理を実行する。
なお、視覚処理装置を表示装置などに適用した場合には、特殊画像を検出したと きに表示モードを切り替えるようにしてもよい。
また、上記実施形態で説明した視覚処理装置の視覚処理部等を 2次元 LUTで構 成する場合、参照される 2次元 LUT用のデータは、ハードディスク、 ROMなどの記 憶装置に格納されており、必要に応じて参照される。さらに、 2次元 LUTのデータは 、視覚処理装置に直接的に接続される、あるいはネットワークを介して間接的に接続 される 2次元 LUT用の 2次元ゲインデータ (プロファイル)の提供装置から提供される ものであってもよい。
また、第 1の視覚処理方法を実現する場合、例えば、コンピュータ 4612に、効果調 整信号に応じて視覚処理の効果を設定するための処理を行う効果調整ステップと、 入力された画像信号に視覚処理を行う視覚処理ステップと、所定の目標レベルを設 定する目標レベル設定ステップと、画像信号に対して所定の空間処理を行い、処理 信号を出力する空間処理ステップと、を実行させる。そして、コンピュータ 4612に、効 果調整ステップでは、効果調整信号に応じて所定の目標レベルと処理信号とを合成 した合成信号を出力させ、視覚処理ステップでは、合成された合成信号と画像信号 とに基づ 、て画像信号を階調変換させる。
また、第 2の視覚処理方法を実現する場合、例えば、コンピュータ 4612に、効果調 整信号に応じて視覚処理の効果を設定するための処理を行う効果調整ステップと、 入力された画像信号に視覚処理を行う視覚処理ステップと、入力された画像信号の 周辺画像情報を抽出する周辺画像情報抽出ステップと、視覚処理の効果を設定す るための効果調整信号を出力する効果調整信号発生ステップと、を実行させる。そし て、コンピュータ 4612に、視覚処理ステップでは、画像信号と周辺画像情報とにもと づいて画像信号を視覚処理させ、効果調整ステップでは、効果調整信号に応じて視 覚処理の効果を設定させる。
また、第 3の視覚処理方法を実現する場合、例えば、コンピュータ 4612に、第 2の 視覚処理方法を実現させ、さらに、効果調整信号発生ステップでは、画像信号から エッジ領域に隣接する平坦な領域を検出して効果調整信号を出力させる。
また、第 4の視覚処理方法を実現する場合、例えば、コンピュータ 4612に、効果調 整信号に応じて視覚処理の効果を設定するための処理を行う効果調整ステップと、 入力された画像信号に視覚処理を行う視覚処理ステップと、入力された画像信号の 周辺画像情報を抽出する周辺画像情報抽出ステップと、画像信号から統計的な情 報の偏りを有する特殊画像を検出し、統計的な情報の偏りの度合いにもとづいて効 果調整信号を出力する特殊画像検出ステップと、を実行させる。そして、コンピュータ 4612に、視覚処理ステップでは、画像信号と周辺画像情報とにもとづいて画像信号 を視覚処理させ、効果調整ステップでは、効果調整信号に応じて視覚処理の効果を 設定させる。
(実施の形態 11)
次に、実施の形態 11として、上記実施形態で説明した視覚処理装置の応用例とそ れを用いたシステムを図 42〜図 46を用いて説明する。
図 42は、コンテンツ酉己信サービスを実現するコンテンツ供給システム exlOOの全体 構成を示すブロック図である。通信サービスの提供エリアを所望の大きさに分割し、 各セル内にそれぞれ固定無線局である基地局 exl07〜exl 10が設置されて!、る。 このコンテンツ供給システム exlOOは、例えば、インターネット exlOlにインターネ ットサービスプロバイダ exl02および電話網 exl04、および基地局 exl07〜exl l0 を介して、コンピュータ exl l l、 PDA (Personal Digital Assistant) exl 12、カメ ラ exl l3、携帯電話 exl l4、カメラ付きの携帯電話 exl 15などの各機器が接続され る。
し力し、コンテンツ供給システム exlOOは図 42のような組み合わせに限定されず、 いずれかを組み合わせて接続するようにしてもよい。また、固定無線局である基地局 exl07〜exl 10を介さずに、各機器が電話網 exl04に直接接続されてもょ 、。 カメラ exl l3はデジタルビデオカメラなどの動画撮影が可能な機器である。また、携 帯電話は、 PDC (Personal Digital Communications)方式、 CDMA (Code Division Multiple Access 方式、 W— CDMA (Wideband— Code Division Multiple Access)方式、もしくは GSM (Global System for Mobile Commu nications)方式の携帯電話機、または PHS (Personal Handyphone System) などであり、 、ずれでも構わな 、。
また、ストリーミングサーノ exl03iま、カメラ 6 113カら基地局6 109、電話網 exl 04を通じて接続されており、カメラ exl 13を用いてユーザが送信する符号ィ匕処理さ れたデータに基づ!/、たライブ配信などが可能になる。撮影したデータの符号化処理 はカメラ ex 113で行っても、データの送信処理をするサーバなどで行ってもよい。ま た、カメラ ex 116で撮影した動画データはコンピュータ ex 111を介してストリ一ミング サーバ exl03に送信されてもよい。カメラ exl 16はデジタルカメラなどの静止画、動 画が撮影可能な機器である。この場合、動画データの符号ィ匕はカメラ exl 16で行つ てもコンピュータ exl 11で行ってもどちらでもよい。また、符号化処理はコンピュータ e xl 11やカメラ exl 16が有する LSIexl 17において処理することになる。なお、画像 符号化'復号ィ匕用のソフトウェアをコンピュータ exl l lなどで読み取り可能な記録媒 体である何らかの蓄積メディア(CD— ROM、フレキシブルディスク、ハードディスクな ど)に組み込んでもよい。さらに、カメラ付きの携帯電話 exl 15で動画データを送信し てもよい。このときの動画データは携帯電話 exl 15が有する LSIで符号化処理され たデータである。
このコンテンツ供給システム ex100では、ユーザがカメラ exl 13、カメラ exl 16など で撮影して ヽるコンテンツ (例えば、音楽ライブを撮影した映像など)を符号化処理し てストリーミングサーバ exl03に送信する一方で、ストリーミングサーバ exl03は要求 のあったクライアントに対して上記コンテンツデータをストリーム配信する。クライアント としては、符号化処理されたデータを復号化することが可能な、コンピュータ exl 11、 PDAexl l2、カメラ exl 13、携帯電話 exl 14などがある。このようにすることでコンテ ンッ供給システム exlOOは、符号ィ匕されたデータをクライアントにお 、て受信して再 生することができ、さらにクライアントにおいてリアルタイムで受信して復号ィ匕し、再生 することにより、個人放送をも実現可能になるシステムである。
コンテンツの表示に際して、上記実施形態で説明した視覚処理装置を用いてもよ い。例えば、コンピュータ exl 11、 PDAexl l2、カメラ exl 13、携帯電話 exl 14など は、上記実施形態で示した視覚処理装置を備え、視覚処理方法、視覚処理プロダラ ムを実現するものであってもよ 、。
また、ストリーミングサーバ exl03は、視覚処理装置に対して、インターネット exlOl を介して 2次元ゲインデータ(プロファイル)を提供するものであってもよい。さら〖こ、ス トリーミングサーバ exl03は複数台存在し、それぞれ異なる 2次元ゲインデータを提 供するものであってもよい。さらに、ストリーミングサーバ exl03は 2次元ゲインデータ の作成を行うものであってもよい。このように、インターネット exlOlを介して、視覚処 理装置が 2次元ゲインデータを取得できる場合、視覚処理装置は予め視覚処理に用 いる 2次元ゲインデータを記憶しておく必要がなぐ視覚処理装置の記憶容量を削減 することも可能となる。また、インターネット exlOl介して接続される複数のサーバから 2次元ゲインデータを取得できるため、異なる視覚処理を実現することが可能となる。 一例として携帯電話について説明する。
図 43は、上記実施形態の視覚処理装置 1を備えた携帯電話 exl l5を示す図であ る。携帯電話 exl 15は、基地局 exl 10との間で電波を送受信するためのアンテナ ex 201、 CCDカメラなどの映像、静止画を撮ることが可能なカメラ部 ex203、カメラ部 ex 203で撮影した映像、アンテナ ex201で受信した映像などが復号ィ匕されたデータを 表示する液晶ディスプレイなどの表示部 ex202、操作キー ex204群から構成される 本体部、音声出力をするためのスピーカなどの音声出力部 ex208、音声入力をする ためのマイクなどの音声入力部 ex205、撮影した動画もしくは静止画のデータ、受信 したメールのデータ、動画のデータもしくは静止画のデータなど、符号化されたデー タまたは復号ィ匕されたデータを保存するための記録メディア ex207、携帯電話 exl 1 5に記録メディア ex207を装着可能とするためのスロット部 ex206を有している。記録 メディア ex207は SDカードなどのプラスチックケース内に電気的に書き換えや消去 が可能な不揮発性メモリである EEPROM (Electrically Erasable and Progra mmable Read Only Memory)の一種であるフラッシュメモリ素子を格納したもの である。
さらに、携帯電話 exl 15について図 44を用いて説明する。携帯電話 exl 15は表示 部 ex202および操作キー ex204を備えた本体部の各部を統括的に制御するように なされた主制御部 ex311に対して、電源回路部 ex310、操作入力制御部 ex304、 画像符号化部 ex312、カメラインターフェース部 ex303、 LCD (Liquid Crystal D isplay)制御部 ex302、画像復号ィ匕部 ex309、多重分離部 ex308、記録再生部 ex3 07、変復調回路部 ex306および音声処理部 ex305が同期ノ ス ex313を介して互い に接続されている。
電源回路部 ex310は、ユーザの操作により終話および電源キーがオン状態にされ ると、ノ ッテリパックから各部に対して電力を供給することによりカメラ付デジタル携帯 電話 exl l5を動作可能な状態に起動する。
携帯電話 exl 15は、 CPU, ROM, RAMなどでなる主制御部 ex311の制御に基 づ 、て、音声通話モード時に音声入力部 ex205で集音した音声信号を音声処理部 ex305によってディジタル音声データに変換し、これを変復調回路部 ex306でスぺ クトラム拡散処理し、送受信回路部 ex301でディジタルアナログ変換処理および周 波数変換処理を施した後にアンテナ ex201を介して送信する。また携帯電話 exl l5 は、音声通話モード時にアンテナ ex201で受信した受信信号を増幅して周波数変 換処理およびアナログディジタル変換処理を施し、変復調回路部 ex306でスぺクトラ ム逆拡散処理し、音声処理部 ex305によってアナログ音声信号に変換した後、これ を音声出力部 ex208を介して出力する。
さらに、データ通信モード時に電子メールを送信する場合、本体部の操作キー ex2 04の操作によって入力された電子メールのテキストデータは操作入力制御部 ex304 を介して主制御部 ex311に送出される。主制御部 ex311は、テキストデータを変復 調回路部 ex306でスペクトラム拡散処理し、送受信回路部 ex301でディジタルアナ ログ変換処理および周波数変換処理を施した後にアンテナ ex201を介して基地局 e xl 10へ送信する。
データ通信モード時に画像データを送信する場合、カメラ部 ex203で撮像された 画像データをカメラインターフェース部 ex303を介して画像符号ィ匕部 ex312に供給 する。また、画像データを送信しない場合には、カメラ部 ex203で撮像した画像デー タをカメラインターフェース部 ex303および LCD制御部 ex302を介して表示部 ex20 2に直接表示することも可能である。
画像符号ィ匕部 ex312は、カメラ部 ex203から供給された画像データを圧縮符号ィ匕 することにより符号化画像データに変換し、これを多重分離部 ex308に送出する。ま た、このとき同時に携帯電話 exl 15は、カメラ部 ex203で撮像中に音声入力部 ex20 5で集音した音声を音声処理部 ex305を介してディジタルの音声データとして多重 分離部 ex308に送出する。
多重分離部 ex308は、画像符号化部 ex312から供給された符号化画像データと 音声処理部 ex305から供給された音声データとを所定の方式で多重化し、その結果 得られる多重化データを変復調回路部 ex306でスペクトラム拡散処理し、送受信回 路部 ex301でディジタルアナログ変換処理および周波数変換処理を施した後にアン テナ ex201を介して送信する。
データ通信モード時にホームページなどにリンクされた動画像ファイルのデータを 受信する場合、アンテナ ex201を介して基地局 exl 10から受信した受信信号を変復 調回路部 ex306でスペクトラム逆拡散処理し、その結果得られる多重化データを多 重分離部 ex308に送出する。
また、アンテナ ex201を介して受信された多重化データを復号ィ匕するには、多重分 離部 ex308は、多重化データを分離することにより画像データの符号化ビットストリー ムと音声データの符号ィ匕ビットストリームとに分け、同期バス ex313を介して当該符号 化画像データを画像復号化部 ex309に供給するとともに当該音声データを音声処 理部 ex305に供給する。
次に、画像復号ィ匕部 ex309は、画像データの符号化ビットストリームを復号化する ことにより再生動画像データを生成し、これを LCD制御部 ex302を介して表示部 ex 202に供給し、これにより、例えばホームページにリンクされた動画像ファイルに含ま れる動画データが表示される。このとき同時に音声処理部 ex305は、音声データを アナログ音声信号に変換した後、これを音声出力部 ex208に供給し、これにより、例 えばホームページにリンクされた動画像ファイルに含まる音声データが再生される。 以上の構成において、画像復号ィ匕部 ex309は、上記実施形態の視覚処理装置を 備えていてもよい。
なお、上記システムの例に限らず、最近は衛星、地上波によるディジタル放送が話 題となっており、図 45に示すようにディジタル放送用システムにも上記実施形態で説 明した視覚処理装置を組み込むことができる。具体的には、放送局 ex409では映像 情報の符号ィ匕ビットストリームが電波を介して通信または放送衛星 ex410に伝送され る。これを受けた放送衛星 ex410は、放送用の電波を発信し、この電波を衛星放送 受信設備を持つ家庭のアンテナ ex406で受信し、テレビ (受信機) ex401またはセッ トトップボックス(STB) ex407などの装置により符号ィ匕ビットストリームを復号ィ匕してこ れを再生する。ここで、テレビ (受信機) ex401または STBex407などの装置が上記 実施形態で説明した視覚処理装置を備えていてもよい。また、上記実施形態の視覚 処理方法を用いるものであってもよい。さらに、視覚処理プログラムを備えていてもよ い。また、記録媒体である CDや DVDなどの蓄積メディア ex402に記録した符号ィ匕 ビットストリームを読み取り、復号ィ匕する再生装置 ex403にも上記実施形態で説明し た視覚処理装置、視覚処理方法、視覚処理プログラムを実装することが可能である。 この場合、再生された映像信号はモニタ ex404に表示される。また、ケーブルテレビ 用のケーブル ex405または衛星 Z地上波放送のアンテナ ex406に接続された STB ex407内に上記実施形態で説明した視覚処理装置、視覚処理方法、視覚処理プロ グラムを実装し、これをテレビのモニタ ex408で再生する構成も考えられる。このとき STBではなぐテレビ内に上記実施形態で説明した視覚処理装置を組み込んでもよ い。また、アンテナ ex411を有する車 ex412で衛星 ex410からまたは基地局 exl07 など力も信号を受信し、車 ex412が有するカーナビゲーシヨン ex413などの表示装 置に動画を再生することも可能である。
さらに、画像信号を符号化し、記録媒体に記録することもできる。具体例としては、 DVDディスク ex421に画像信号を記録する DVDレコーダや、ハードディスクに記録 するディスクレコーダなどのレコーダ ex420がある。さらに SDカード ex422に記録す ることもできる。レコーダ ex420が上記実施形態の視覚処理装置を備えていれば、 D VDディスク ex421や SDカード ex422に記録した画像信号を補間して再生し、モ- タ ex408に表示することができる。
なお、カーナビゲーシヨン ex413の構成は、例えば図 44に示す構成のうち、カメラ 部 ex203とカメラインターフェース部 ex303、画像符号ィ匕部 ex312を除いた構成が 考えられ、同様なことがコンピュータ exl 11やテレビ (受信機) ex401などでも考えら れる。
また、上記携帯電話 exl 14などの装置は、符号化器'復号化器を両方持つ送受信 型の装置の他に、符号化器のみの送信装置、復号化器のみの受信装置の 3通りの 実装形式が考えられる。
なお、本発明の具体的な構成は、前述の実施形態に限られるものではなぐ発明の 要旨を逸脱しな 、範囲で種々の変更および修正が可能である。
産業上の利用可能性
本発明に係る視覚処理装置、表示装置、視覚処理方法、プログラムおよび集積回 路によれば、急峻なエッジ領域を有する画像や特殊画像が入力された場合であって も、副作用を抑制することができ、かつ、簡単な構成で、画像の視覚処理の強さをリ アルタイムに変更することができるので、カラーテレビジョン受像機、携帯装置、情報 処理装置、デジタルスチルカメラ、ゲーム機器などの表示装置、プロジェクタ、プリン タなどの出力装置に利用することができる。

Claims

請求の範囲
[1] 入力された画像信号を視覚処理して出力する視覚処理装置において、
効果調整信号に応じて視覚処理の効果を設定するための処理を行う効果調整部と 前記画像信号に視覚処理を行う視覚処理部と、
を備える視覚処理装置。
[2] 所定の目標レベルを設定する目標レベル設定部と、
前記画像信号に対して所定の空間処理を行 、、処理信号を出力する空間処理部 と、
をさらに備え、
前記効果調整部は、視覚処理の効果を設定するための前記効果調整信号に応じ て前記所定の目標レベルと前記処理信号とを合成した合成信号を出力し、
前記視覚処理部は、前記合成信号と前記画像信号とに基づいて前記画像信号を 階調変換する、
請求項 1に記載の視覚処理装置。
[3] 所定の目標レベルを設定する目標レベル設定部と、
前記画像信号に対して所定の空間処理を行 、、処理信号を出力する空間処理部 と、
前記画像信号を補正する補正部と、
をさらに備え、
前記効果調整部は、視覚処理の効果を設定するための前記効果調整信号に応じ て前記所定の目標レベルと前記処理信号とを合成した合成信号を出力し、
前記視覚処理部は、前記合成信号と前記画像信号とに基づいてゲイン信号を出力 し、
前記補正部は、前記ゲイン信号に基づ!ヽて前記画像信号を補正する、 請求項 1に記載の視覚処理装置。
[4] 前記画像信号に対して所定の空間処理を行い、処理信号を出力する空間処理部 をさらに備え、 前記効果調整部は、視覚処理の効果を設定するための前記効果調整信号に応じ て前記画像信号と前記処理信号とを合成した合成信号を出力し、
前記視覚処理部は、前記合成信号と前記画像信号とに基づいて前記画像信号を 階調変換する、
請求項 1に記載の視覚処理装置。
[5] 前記画像信号に対して所定の空間処理を行い、処理信号を出力する空間処理部 と、
前記画像信号を補正する補正部と、
をさらに備え、
前記効果調整部は、視覚処理の効果を設定するための前記効果調整信号に応じ て前記画像信号と前記処理信号とを合成した合成信号を出力し、
前記視覚処理部は、合成された前記合成信号と前記画像信号とに基づ!ヽてゲイン 信号を出力し、
前記補正部は、前記ゲイン信号に基づ!ヽて前記画像信号を補正する、 請求項 1に記載の視覚処理装置。
[6] 前記視覚処理部は、 2次元ルックアップテーブルを有する、
請求項 1から請求項 5のいずれか 1項に記載の視覚処理装置。
[7] 入力された前記画像信号の周辺画像情報を抽出する周辺画像情報抽出部と、 前記視覚処理の効果を設定するための前記効果調整信号を出力する効果調整信 号発生部と、
をさらに備え、
前記視覚処理部は、前記画像信号と前記周辺画像情報とにもとづいて前記画像 信号を視覚処理し、
前記効果調整部は、前記効果調整信号に応じて前記視覚処理の効果を設定する 請求項 1に記載の視覚処理装置。
[8] 前記効果調整信号発生部は、前記画像信号からエッジ領域に隣接する領域を検 出して前記効果調整信号を出力する、 請求項 7に記載の視覚処理装置。
[9] 前記効果調整信号発生部は、前記画像信号カゝらエッジ領域に隣接する平坦な領 域を検出して前記効果調整信号を出力する、
請求項 8に記載の視覚処理装置。
[10] 前記効果調整信号発生部は、前記周辺画像情報の変化量に応じて前記効果調整 信号を出力する、
請求項 8または請求項 9に記載の視覚処理装置。
[11] 前記効果調整信号発生部は、
前記画像信号カゝら隣接領域との輝度差が所定の値以下となる平坦領域の平坦度 合いを検出する平坦検出部と、
前記画像信号力 隣接領域との輝度差が所定の値以上となるエッジ領域のエッジ 量を検出するエッジ検出部と、
を有し、
前記効果調整信号発生部は、前記平坦検出部と前記エッジ検出部との出力にもと づいて前記効果調整信号を出力する、
請求項 8または請求項 9に記載の視覚処理装置。
[12] 前記効果調整部は、前記効果調整信号に応じて、前記画像信号と前記周辺画像 情報とを合成した第 1の合成信号を出力し、
前記視覚処理部は、前記第 1の合成信号と前記画像信号とにもとづいて前記画像 信号を視覚処理する、
請求項 7から請求項 11までの 、ずれか 1項に記載の視覚処理装置。
[13] 前記効果調整部は、前記効果調整信号に応じて、前記画像信号と前記視覚処理 部で視覚処理された出力とを合成した第 2の合成信号を出力する、
請求項 7から請求項 11までの 、ずれか 1項に記載の視覚処理装置。
[14] 入力された前記画像信号の周辺画像情報を抽出する周辺画像情報抽出部と、 前記画像信号力 統計的な情報の偏りを有する特殊画像である度合いを前記統計 的な情報の偏りにもとづいて検出し、検出された度合いを前記効果調整信号として 出力する特殊画像検出部と、 をさらに備え、
前記視覚処理部は、前記画像信号と前記周辺画像情報とにもとづいて前記画像 信号を視覚処理した処理信号を出力し、
前記効果調整部は、前記効果調整信号に応じて前記視覚処理の効果を設定する ように前記視覚処理部を制御する、
請求項 1に記載の視覚処理装置。
[15] 前記特殊画像検出部は、前記画像信号の画像中における濃淡が変化する領域の 割合または濃淡が変化しな 、領域の割合にもとづ 、て前記統計的な情報の偏りを検 出する、
請求項 14に記載の視覚処理装置。
[16] 前記特殊画像検出部は、前記濃淡が変化する領域の割合が少な 、とき、または濃 淡が変化しない領域の割合が多いときに前記特殊画像である度合いを高くする、 請求項 15に記載の視覚処理装置。
[17] 前記特殊画像検出部は、前記画像中のエッジ成分を検出することで前記濃淡が変 化する領域の割合を検出する、
請求項 16に記載の視覚処理装置。
[18] 前記特殊画像検出部は、前記画像中の平坦度合いを検出することで前記濃淡が 変化しない領域の割合を検出する、
請求項 16に記載の視覚処理装置。
[19] 前記特殊画像検出部は、階調レベル数または類似画素の連続長にもとづいて前 記平坦度合いを検出する、
請求項 18に記載の視覚処理装置。
[20] 前記特殊画像検出部は、
前記画像信号力 画素ごとにエッジ量を検出するエッジ検出部と、
前記エッジ量が所定の値以上であるエッジ画素を検出し、前記画像信号の全画素 数に対する前記エッジ画素数の割合を算出するエッジ密度算出部と、
前記割合に応じて前記効果調整信号を出力する第 1の効果調整信号発生部と、 を有する、 請求項 17に記載の視覚処理装置。
[21] 前記特殊画像検出部は、
複数のブロックに分割された前記画像信号から高周波成分を含む高周波ブロック を検出する高周波ブロック検出部と、
前記複数のブロック数に対する前記高周波ブロック数の割合を検出する高周波ブ ロック密度検出部と、
前記割合に応じて前記効果調整信号を出力する第 2の効果調整信号発生部と、 を有する、
請求項 17に記載の視覚処理装置。
[22] 前記特殊画像検出部は、
前記画像信号から階調レベルごとの頻度を検出する頻度検出部と、
前記階調レベルごとの前記頻度と所定の閾値とを比較し、前記所定の閾値より前 記頻度が大きい階調レベルを検出する頻度判定部と、
前記頻度判定部により前記頻度が大きいと判定された前記階調レベル数を検出す る階調数検出部と、
前記階調レベル数に応じて前記効果調整信号を出力する第 3の効果調整信号発 生部と、
を有する、
請求項 19に記載の視覚処理装置。
[23] 前記特殊画像検出部は、
前記画像信号から隣接画素との輝度差が所定の値以下となる類似画素を検出す る類似輝度検出部と、
前記類似画素が連続している連続長を検出する連続長検出部と、
前記連続長検出部で検出された複数の前記連続長を平均することで平均連続長 を算出する平均連続長算出部と、
前記平均連続長に応じて前記効果調整信号を出力する第 4の効果調整信号発生 部と、
を有する、 請求項 19に記載の視覚処理装置。
[24] 前記効果調整部は、前記効果調整信号に応じて前記画像信号と前記周辺画像情 報との割合を変えて合成した第 1の合成信号を出力し、
前記視覚処理部は、前記第 1の合成信号と前記画像信号とにもとづいて前記画像 信号を前記視覚処理する、
請求項 14から請求項 23までのいずれか 1項に記載の視覚処理装置。
[25] 前記効果調整部は、前記効果調整信号に応じて前記画像信号と前記処理信号と の割合を変えて合成した第 2の合成信号を出力する、
請求項 14から請求項 23までのいずれか 1項に記載の視覚処理装置。
[26] 前記視覚処理部は、 2次元ルックアップテーブルを有し、前記 2次元ルックアップテ 一ブルに設定される特性データにもとづ ヽて前記視覚処理を行 ヽ、
前記効果調整部は、前記効果調整信号に応じて前記視覚処理の効果が異なる複 数の前記特性データの割合を変えて合成した特性データを前記視覚処理部に設定 する、
請求項 14から請求項 23までのいずれか 1項に記載の視覚処理装置。
[27] 前記特殊画像検出部は、前記画像信号が縮小されて!ヽる縮小画像を入力し、前記 縮小画像力 前記統計的な情報の偏りを有する前記特殊画像を検出し、前記統計 的な情報の偏りにもとづ!、て前記効果調整信号を出力する、
請求項 14から請求項 26までのいずれか 1項に記載の視覚処理装置。
[28] 前記特殊画像検出部は、前記画像信号がフレーム画像のときにはひとつ以上前の フレーム画像より、もしくは前記画像信号がフィールド画像のときにはひとつ以上前の フィールド画像力 前記統計的な情報の偏りを検出する、
請求項 14から請求項 27までのいずれか 1項に記載の視覚処理装置。
[29] 前記効果調整信号を連続的に変化させるための連続変化処理部をさらに備え、 前記連続変化処理部は、前記効果調整信号がフレーム単位で出力されるときは前 記フレーム間で、前記効果調整信号力 Sフィールド単位で出力されるときは前記フィー ルド間で、前記効果調整信号を連続的に変化させる、
請求項 28に記載の視覚処理装置。
[30] 通信または放送された画像データを受信するデータ受信部と、
受信された前記画像データを映像データに復号する復号部と、
復号された前記映像データを視覚処理して出力信号を出力する請求項 1から請求 項 29の 、ずれか 1項に記載の視覚処理装置と、
前記視覚処理装置により視覚処理された前記出力信号の表示を行う表示部と、 を備える表示装置。
[31] 入力された画像信号を視覚処理して出力する視覚処理方法において、
効果調整信号に応じて視覚処理の効果を設定するための処理を行う効果調整ステ ップと、
前記画像信号に視覚処理を行う視覚処理ステップと、
を有する視覚処理方法。
[32] 所定の目標レベルを設定する目標レベル設定ステップと、
前記画像信号に対して所定の空間処理を行 、、処理信号を出力する空間処理ス テツプと、をさらに有し、
前記効果調整ステップは、効果調整信号に応じて前記所定の目標レベルと前記処 理信号とを合成した合成信号を出力し、
前記視覚処理ステップは、合成された前記合成信号と前記画像信号とに基づ ヽて 前記画像信号を階調変換する、
請求項 31に記載の視覚処理方法。
[33] 入力された画像信号の周辺画像情報を抽出する周辺画像情報抽出ステップと、 前記視覚処理の効果を設定するための前記効果調整信号を出力する効果調整信 号発生ステップと、
をさらに有し、
前記視覚処理ステップは、前記画像信号と前記周辺画像情報とにもとづ!、て前記 画像信号を視覚処理し、
前記効果調整ステップは、前記効果調整信号に応じて前記視覚処理の効果を設 定する、
請求項 31に記載の視覚処理方法。
[34] 前記効果調整信号発生ステップは、前記画像信号カゝらエッジ領域に隣接する平坦 な領域を検出して前記効果調整信号を出力する、
請求項 33に記載の視覚処理方法。
[35] 入力された画像信号の周辺画像情報を抽出する周辺画像情報抽出ステップと、 前記画像信号から統計的な情報の偏りを有する特殊画像を検出し、前記統計的な 情報の偏りの度合いにもとづいて前記効果調整信号を出力する特殊画像検出ステツ プと、
をさらに有し、
前記視覚処理ステップは、前記画像信号と前記周辺画像情報とにもとづ!、て前記 画像信号を視覚処理し、
前記効果調整ステップは、前記効果調整信号に応じて前記視覚処理の効果を設 定する、
請求項 31に記載の視覚処理方法。
[36] 入力された画像信号を視覚処理して出力する視覚処理を行うためにコンピュータに 効果調整信号に応じて視覚処理の効果を設定するための制御信号を出力する効 果調整ステップと、
前記制御信号と前記画像信号とに基づいて前記画像信号を視覚処理する視覚処 理ステップと、
を実行させるプログラム。
[37] コンピュータに、
所定の目標レベルを設定する目標レベル設定ステップと、
前記画像信号に対して所定の空間処理を行 、、処理信号を出力する空間処理ス テツプと、
をさらに実行させるためのプログラムであって、
前記効果調整ステップは、視覚処理の効果を設定するための前記効果調整信号 に応じて前記所定の目標レベルと前記処理信号とを合成した合成信号を出力し、 前記視覚処理ステップは、合成された前記合成信号と前記画像信号とに基づ ヽて 前記画像信号を階調変換する、
請求項 36に記載のプログラム。
[38] コンピュータに、
入力された画像信号の周辺画像情報を抽出する周辺画像情報抽出ステップと、 前記視覚処理の効果を設定するための前記効果調整信号を出力する効果調整信 号発生ステップと、
をさらに実行させるためのプログラムであって、
前記視覚処理ステップは、前記画像信号と前記周辺画像情報とにもとづ!、て前記 画像信号を視覚処理し、
前記効果調整ステップは、前記効果調整信号に応じて前記視覚処理の効果を異 ならせるように調整する、
請求項 36に記載のプログラム。
[39] 前記効果調整信号発生ステップは、前記画像信号カゝらエッジ領域に隣接する平坦 な領域を検出して前記効果調整信号を出力する、
請求項 38に記載のプログラム。
[40] コンピュータに、
入力された画像信号の周辺画像情報を抽出する周辺画像情報抽出ステップと、 前記画像信号から統計的な情報の偏りを有する特殊画像を検出し、前記統計的な 情報の偏りの度合いにもとづいて効果調整信号を出力する特殊画像検出ステップと
をさらに実行させるためのプログラムであって、
前記視覚処理ステップは、前記画像信号と前記周辺画像情報とにもとづ!、て前記 画像信号を視覚処理し、
前記効果調整ステップは、前記効果調整信号に応じて前記視覚処理の効果を設 定する、
請求項 38に記載のプログラム。
[41] 請求項 1から請求項 29のいずれか 1項に記載の視覚処理装置を含む集積回路。
PCT/JP2006/320074 2005-10-12 2006-10-06 視覚処理装置、表示装置、視覚処理方法、プログラムおよび集積回路 WO2007043460A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP06811401A EP1959390A4 (en) 2005-10-12 2006-10-06 VISUAL PROCESSING APPARATUS, DISPLAY APPARATUS, VISUAL PROCESSING METHOD, PROGRAM, AND INTEGRATED CIRCUIT
CN2006800381399A CN101288099B (zh) 2005-10-12 2006-10-06 视觉处理装置及方法
US12/090,222 US7881549B2 (en) 2005-10-12 2006-10-06 Visual processing device, display device, visual processing method, program, and integrated circuit
JP2007539916A JP4157592B2 (ja) 2005-10-12 2006-10-06 視覚処理装置、表示装置、視覚処理方法、プログラムおよび集積回路
US12/972,769 US8311357B2 (en) 2005-10-12 2010-12-20 Visual processing device, display device, visual processing method, program, and integrated circuit

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005297464 2005-10-12
JP2005-297464 2005-10-12

Related Child Applications (3)

Application Number Title Priority Date Filing Date
US12/090,222 A-371-Of-International US7881549B2 (en) 2005-10-12 2006-10-06 Visual processing device, display device, visual processing method, program, and integrated circuit
US12/972,769 Division US8311357B2 (en) 2005-10-12 2010-12-20 Visual processing device, display device, visual processing method, program, and integrated circuit
US12/972,769 Continuation US8311357B2 (en) 2005-10-12 2010-12-20 Visual processing device, display device, visual processing method, program, and integrated circuit

Publications (1)

Publication Number Publication Date
WO2007043460A1 true WO2007043460A1 (ja) 2007-04-19

Family

ID=37942703

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/320074 WO2007043460A1 (ja) 2005-10-12 2006-10-06 視覚処理装置、表示装置、視覚処理方法、プログラムおよび集積回路

Country Status (5)

Country Link
US (2) US7881549B2 (ja)
EP (2) EP2323100A3 (ja)
JP (2) JP4157592B2 (ja)
CN (1) CN101288099B (ja)
WO (1) WO2007043460A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007271653A (ja) * 2006-03-30 2007-10-18 Casio Comput Co Ltd 投影装置、投影方法及びプログラム
JP2009086917A (ja) * 2007-09-28 2009-04-23 Fujitsu Microelectronics Ltd 画像処理フィルタ、画像処理フィルタの画像処理方法及び画像処理フィルタを備える画像処理装置の画像処理回路
EP2193519A1 (en) * 2007-08-27 2010-06-09 Sharp Kabushiki Kaisha Methods for adjusting image characteristics
US8169500B2 (en) 2008-05-30 2012-05-01 Panasonic Corporation Dynamic range compression apparatus, dynamic range compression method, computer-readable recording medium, integrated circuit, and imaging apparatus
JP2012209951A (ja) * 2007-04-18 2012-10-25 Panasonic Corp 撮像装置、撮像方法、集積回路およびプログラム
US8711255B2 (en) 2007-04-18 2014-04-29 Panasonic Corporation Visual processing apparatus and visual processing method
US9240072B2 (en) 2010-09-08 2016-01-19 Panasonic Intellectual Property Management Co., Ltd. Three-dimensional image processing apparatus, three-dimensional image-pickup apparatus, three-dimensional image-pickup method, and program
US9749506B2 (en) 2014-02-05 2017-08-29 Panasonic Intellectual Property Management Co., Ltd. Image processing method and image processing device
JP2018117276A (ja) * 2017-01-19 2018-07-26 ソニー株式会社 映像信号処理装置、映像信号処理方法およびプログラム
JP2019053711A (ja) * 2017-09-15 2019-04-04 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP2020513123A (ja) * 2017-03-30 2020-04-30 スノー コーポレーション イメージに動的エフェクトを適用する方法および装置

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2323100A3 (en) 2005-10-12 2012-03-21 Panasonic Corporation Visual processing apparatus, display apparatus, visual processing method, program and integrated circuit
US7755670B2 (en) * 2005-10-24 2010-07-13 Nikon Corporation Tone-conversion device for image, program, electronic camera, and tone-conversion method
EP2012527B1 (en) 2006-04-19 2017-10-25 Panasonic Intellectual Property Corporation of America Visual processing device, visual processing method, program, display device, and integrated circuit
KR101314390B1 (ko) 2006-04-28 2013-10-04 파나소닉 주식회사 시각 처리 장치, 시각 처리 방법, 프로그램, 기록 매체, 표시 장치 및 집적 회로
US8306348B2 (en) * 2007-04-24 2012-11-06 DigitalOptics Corporation Europe Limited Techniques for adjusting the effect of applying kernels to signals to achieve desired effect on signal
US8411983B2 (en) * 2007-08-31 2013-04-02 Ati Technologies Ulc Method and apparatus for producing a contrast enhanced image
US8031166B2 (en) * 2007-11-06 2011-10-04 Hisense Beijing Electric Co., Ltd. Liquid crystal display method and the appratus thereof
JP4551439B2 (ja) * 2007-12-17 2010-09-29 株式会社沖データ 画像処理装置
US8213741B2 (en) * 2008-12-19 2012-07-03 Texas Instruments Incorporated Method to generate thumbnails for digital images
JP4994355B2 (ja) * 2008-12-22 2012-08-08 三菱電機株式会社 画像処理装置及び方法並びに画像表示装置
US8249379B2 (en) * 2008-12-22 2012-08-21 Mitsubishi Electric Corporation Image processing apparatus and method and image display apparatus
JP4994400B2 (ja) * 2009-01-22 2012-08-08 三菱電機株式会社 画像処理装置及び方法並びに画像表示装置
US8185334B2 (en) 2009-03-05 2012-05-22 Tektronix, Inc. Methods and systems for filtering a digital signal
US8498486B2 (en) * 2009-03-12 2013-07-30 Qualcomm Incorporated Response to detection of blur in an image
JP4947136B2 (ja) * 2009-12-25 2012-06-06 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
CN101961250B (zh) * 2010-08-20 2012-07-25 飞依诺科技(苏州)有限公司 图像显示灰度编码方法
US8737736B2 (en) * 2010-12-31 2014-05-27 Microsoft Corporation Tone mapping of very large aerial image mosaic
EP2661873A1 (en) * 2011-01-07 2013-11-13 TP Vision Holding B.V. Method for converting input image data into output image data, image conversion unit for converting input image data into output image data, image processing apparatus, display device
US8804819B1 (en) 2011-04-19 2014-08-12 Google Inc. Method and apparatus for encoding video using data frequency
US9749638B1 (en) 2011-04-28 2017-08-29 Google Inc. Method and apparatus for encoding video with dynamic quality improvement
US8705620B1 (en) * 2011-04-28 2014-04-22 Google Inc. Method and apparatus for encoding anchor frame by encoding features using layers
US9781447B1 (en) 2012-06-21 2017-10-03 Google Inc. Correlation based inter-plane prediction encoding and decoding
US8512140B1 (en) 2012-07-26 2013-08-20 Zynga Inc. Gaming system for updating a presentation of a virtual game environment
US9167268B1 (en) 2012-08-09 2015-10-20 Google Inc. Second-order orthogonal spatial intra prediction
US9380298B1 (en) 2012-08-10 2016-06-28 Google Inc. Object-based intra-prediction
US9344742B2 (en) 2012-08-10 2016-05-17 Google Inc. Transform-domain intra prediction
US9369732B2 (en) 2012-10-08 2016-06-14 Google Inc. Lossless intra-prediction video coding
US9628790B1 (en) 2013-01-03 2017-04-18 Google Inc. Adaptive composite intra prediction for image and video compression
US9225979B1 (en) 2013-01-30 2015-12-29 Google Inc. Remote access encoding
US9247251B1 (en) 2013-07-26 2016-01-26 Google Inc. Right-edge extension for quad-tree intra-prediction
US20150146981A1 (en) * 2013-09-05 2015-05-28 Tp Vision Holding B.V. Apparatus and method for converting input image data into output image data, image conversion unit for converting input image data into output image data, image processing apparatus, display device
JP2015231086A (ja) * 2014-06-04 2015-12-21 三星ディスプレイ株式會社Samsung Display Co.,Ltd. 制御装置、およびプログラム
US11721414B2 (en) * 2015-03-12 2023-08-08 Walmart Apollo, Llc Importing structured prescription records from a prescription label on a medication package
CN106161875B (zh) * 2015-03-25 2019-02-15 瑞昱半导体股份有限公司 图像处理装置与方法
TWI713365B (zh) * 2019-07-26 2020-12-11 瑞昱半導體股份有限公司 影像處理電路與相關的影像處理方法
CN118033234B (zh) * 2024-04-12 2024-07-19 成都玖锦科技有限公司 一种超大数据量频谱数据实时处理方法

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2170373A (en) 1984-12-28 1986-07-30 Canon Kk Image processing method
EP0377386B1 (en) 1989-01-05 1995-08-23 Eastman Kodak Company An interactive dynamic range adjustment system for printing digital images
US5454044A (en) 1990-01-29 1995-09-26 Fuji Photo Film Co., Ltd. Apparatus for enhancing image data using a monotonously decreasing function
US20020181024A1 (en) 2001-04-12 2002-12-05 Etsuo Morimoto Image processing apparatus and method for improving output image quality
JP2003309763A (ja) * 2002-04-16 2003-10-31 Olympus Optical Co Ltd 動画撮像システム
JP2003337942A (ja) * 2002-05-17 2003-11-28 Canon Inc 画像処理装置
JP2004102903A (ja) * 2002-09-12 2004-04-02 Pentax Corp フィルタ処理
JP2004312387A (ja) * 2003-04-07 2004-11-04 Sharp Corp 画像処理方法、画像処理装置、画像形成装置、撮像装置、及びコンピュータプログラム
JP2004320632A (ja) * 2003-04-18 2004-11-11 Hitachi Ltd 映像信号処理回路、映像表示装置及び映像表示方法
WO2005027043A1 (ja) * 2003-09-11 2005-03-24 Matsushita Electric Industrial Co., Ltd. 視覚処理装置、視覚処理方法、視覚処理プログラム、集積回路、表示装置、撮影装置および携帯情報端末
US20050089239A1 (en) 2003-08-29 2005-04-28 Vladimir Brajovic Method for improving digital images and an image sensor for sensing the same
JP2005130484A (ja) * 2003-10-02 2005-05-19 Nikon Corp 階調補正装置、および階調補正プログラム
JP2005269145A (ja) * 2004-03-18 2005-09-29 Olympus Corp 撮像装置、画像処理装置、及び画像処理システム

Family Cites Families (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4667304A (en) * 1984-11-23 1987-05-19 Digivision, Inc. Real-time, localized enhancement of a video image using separable two-dimensional filters
JPH074003B2 (ja) 1985-12-18 1995-01-18 松下電器産業株式会社 信号圧縮装置
JPS63177662A (ja) 1987-01-19 1988-07-21 Matsushita Electric Ind Co Ltd 輪郭補正器
JPS63182785A (ja) 1987-01-26 1988-07-28 Canon Inc カラ−画像処理装置
JP2575476B2 (ja) 1988-10-20 1997-01-22 富士写真フイルム株式会社 画像信号処理方法およびその装置
US5038388A (en) 1989-05-15 1991-08-06 Polaroid Corporation Method for adaptively sharpening electronic images
JPH0348980A (ja) 1989-07-18 1991-03-01 Fujitsu Ltd 輪郭強調処理方式
US5485534A (en) 1990-03-28 1996-01-16 Fuji Photo Film Co., Ltd. Method and apparatus for emphasizing sharpness of image by detecting the edge portions of the image
JP3003799B2 (ja) 1990-03-28 2000-01-31 富士写真フイルム株式会社 画像の鮮鋭度強調方法及びその装置
JPH04152788A (ja) 1990-10-17 1992-05-26 Olympus Optical Co Ltd コントラスト回路
JPH04157592A (ja) * 1990-10-22 1992-05-29 Nec Corp 自動販売機の状態検知・通知方式
JPH0646295A (ja) 1992-07-27 1994-02-18 Matsushita Electric Ind Co Ltd 輪郭補正装置
BE1007590A3 (nl) * 1993-10-01 1995-08-16 Philips Electronics Nv Videosignaalverwerkingsschakeling.
JPH07135667A (ja) 1993-11-12 1995-05-23 Matsushita Electric Ind Co Ltd 輪郭強調回路
DE69636911T2 (de) 1995-03-29 2007-11-22 Fujifilm Corp. Bildverarbeitungsverfahren und -Vorrichtung
US5880767A (en) 1996-09-11 1999-03-09 Hewlett-Packard Company Perceptual image resolution enhancement system
US6731400B1 (en) * 1996-11-01 2004-05-04 Hitachi, Ltd. Color image processing apparatus which performs different image processings depending on region of color image
JP3639397B2 (ja) 1996-12-24 2005-04-20 株式会社日立製作所 像域別カラー画像処理装置、画像出力装置、画像処理方法および記憶媒体
JPH10208034A (ja) 1997-01-17 1998-08-07 Seiko Epson Corp 画像処理装置および画像処理方法
US6055340A (en) 1997-02-28 2000-04-25 Fuji Photo Film Co., Ltd. Method and apparatus for processing digital images to suppress their noise and enhancing their sharpness
JPH11250246A (ja) 1998-02-27 1999-09-17 Fuji Photo Film Co Ltd 画像処理方法および装置
US6285798B1 (en) 1998-07-06 2001-09-04 Eastman Kodak Company Automatic tone adjustment by contrast gain-control on edges
JP3233114B2 (ja) 1998-11-13 2001-11-26 ソニー株式会社 画像処理装置及び画像処理方法
US7440612B2 (en) * 1998-11-13 2008-10-21 Sony Corporation Image processing apparatus and method capable of correcting gradation of image data
US6323855B1 (en) * 1998-12-10 2001-11-27 Eastman Kodak Company Sharpening edge features in digital image providing high frequency edge enhancement
JP4053185B2 (ja) * 1999-06-22 2008-02-27 富士フイルム株式会社 画像処理方法および装置
JP4556276B2 (ja) 2000-03-23 2010-10-06 ソニー株式会社 画像処理回路及び画像処理方法
US6611627B1 (en) 2000-04-24 2003-08-26 Eastman Kodak Company Digital image processing method for edge shaping
US6633683B1 (en) 2000-06-26 2003-10-14 Miranda Technologies Inc. Apparatus and method for adaptively reducing noise in a noisy input image signal
JP4099936B2 (ja) 2000-09-07 2008-06-11 富士ゼロックス株式会社 画像処理装置、画像処理方法および画像処理プログラムが格納された記録媒体
US6735330B1 (en) 2000-10-17 2004-05-11 Eastman Kodak Company Automatic digital radiographic bright light
US7136538B2 (en) 2000-12-21 2006-11-14 Matsushita Electric Industrial Co., Ltd. Noise reducing apparatus and noise reducing method
US6847377B2 (en) 2001-01-05 2005-01-25 Seiko Epson Corporation System, method and computer program converting pixels to luminance levels and assigning colors associated with luminance levels in printer or display output devices
JP2002281313A (ja) 2001-03-15 2002-09-27 Minolta Co Ltd 画像処理装置及び当該装置を備える画像形成装置
JP4649781B2 (ja) 2001-06-20 2011-03-16 ソニー株式会社 画像処理方法および装置
JP2003060913A (ja) 2001-08-13 2003-02-28 Toyota Central Res & Dev Lab Inc 画像処理方法及び画像処理装置
JP2003110956A (ja) 2001-09-27 2003-04-11 Toshiba Corp デジタルテレビジョン受信装置、プリンタ装置、及び画像プリント出力機能付きデジタルテレビジョン受信装置
US7130483B2 (en) * 2001-12-12 2006-10-31 Samsung Electronics Co., Ltd. Method for enhancing a digital image while suppressing undershoots and overshoots
JP4013699B2 (ja) 2002-08-20 2007-11-28 松下電器産業株式会社 画像処理装置および画像処理方法
JP4021261B2 (ja) 2002-07-08 2007-12-12 松下電器産業株式会社 画像処理装置
EP2280376B1 (en) * 2002-02-12 2015-10-28 Panasonic Intellectual Property Corporation of America Image processing apparatus and image processing method
JP4147456B2 (ja) 2002-03-29 2008-09-10 富士通株式会社 赤外線画像信号処理装置
JP4096613B2 (ja) 2002-05-10 2008-06-04 松下電器産業株式会社 画像処理方法及び画像処理装置
JP4152788B2 (ja) 2003-03-25 2008-09-17 旭化成ケミカルズ株式会社 ゲル状組成物
US7274827B2 (en) * 2002-09-12 2007-09-25 Pentax Corporation Filter process
US7130485B2 (en) 2002-10-02 2006-10-31 Eastman Kodak Company Enhancing the tonal and color characteristics of digital images using expansive and compressive tone scale functions
US7280703B2 (en) 2002-11-14 2007-10-09 Eastman Kodak Company Method of spatially filtering a digital image using chrominance information
JP2004310475A (ja) * 2003-04-08 2004-11-04 Hitachi Ltd 画像処理装置、画像処理を行う携帯電話、および画像処理プログラム
US7276591B2 (en) 2003-05-06 2007-10-02 Fuji Carbon Co., Ltd. Biomass resin composition, process for preparing the same and molding material using the biomass composition
SG115540A1 (en) * 2003-05-17 2005-10-28 St Microelectronics Asia An edge enhancement process and system
JP2007527567A (ja) * 2003-07-02 2007-09-27 セラーテム・テクノロジー・インコーポレイテッド 領域エッジのシャープネス補正を伴う画像シャープニング
CN100525380C (zh) 2003-07-07 2009-08-05 致伸科技股份有限公司 使用模糊屏蔽法进行影像处理的方法
JP4172346B2 (ja) 2003-07-15 2008-10-29 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置及びプログラム
JP3953994B2 (ja) 2003-09-11 2007-08-08 大日本スクリーン製造株式会社 画像処理情報関連付け処理装置、印刷システム、レイアウトデータの出力可能化方法、およびプログラム
JP4126297B2 (ja) 2003-09-11 2008-07-30 松下電器産業株式会社 視覚処理装置、視覚処理方法、視覚処理プログラム、集積回路、表示装置、撮影装置および携帯情報端末
US7274828B2 (en) 2003-09-11 2007-09-25 Samsung Electronics Co., Ltd. Method and apparatus for detecting and processing noisy edges in image detail enhancement
TWI245557B (en) 2003-09-11 2005-12-11 Matsushita Electric Ind Co Ltd Image compensation apparatus and method for the same
US7466868B2 (en) 2003-10-03 2008-12-16 Adobe Systems Incorporated Determining parameters for adjusting images
US7333673B2 (en) 2003-10-30 2008-02-19 Samsung Electronics Co., Ltd. Method and apparatus for image detail enhancement without zigzagged edge artifact
US7880771B2 (en) * 2004-03-16 2011-02-01 Olympus Corporation Imaging apparatus, image processing apparatus, image processing system and image processing method
JP2005295131A (ja) 2004-03-31 2005-10-20 Seiko Epson Corp 画像処理装置、画像処理方法および画像処理プログラム
CN100405400C (zh) 2005-06-27 2008-07-23 同方威视技术股份有限公司 一种辐射成像中图像信息增强的方法
EP2323100A3 (en) 2005-10-12 2012-03-21 Panasonic Corporation Visual processing apparatus, display apparatus, visual processing method, program and integrated circuit
US7602447B2 (en) 2006-01-26 2009-10-13 Vestel Elecktronik Sanayi Ve Method and apparatus for adjusting the contrast of an image
EP2012527B1 (en) * 2006-04-19 2017-10-25 Panasonic Intellectual Property Corporation of America Visual processing device, visual processing method, program, display device, and integrated circuit
KR101314390B1 (ko) * 2006-04-28 2013-10-04 파나소닉 주식회사 시각 처리 장치, 시각 처리 방법, 프로그램, 기록 매체, 표시 장치 및 집적 회로

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2170373A (en) 1984-12-28 1986-07-30 Canon Kk Image processing method
EP0377386B1 (en) 1989-01-05 1995-08-23 Eastman Kodak Company An interactive dynamic range adjustment system for printing digital images
US5454044A (en) 1990-01-29 1995-09-26 Fuji Photo Film Co., Ltd. Apparatus for enhancing image data using a monotonously decreasing function
US20020181024A1 (en) 2001-04-12 2002-12-05 Etsuo Morimoto Image processing apparatus and method for improving output image quality
JP2003309763A (ja) * 2002-04-16 2003-10-31 Olympus Optical Co Ltd 動画撮像システム
JP2003337942A (ja) * 2002-05-17 2003-11-28 Canon Inc 画像処理装置
JP2004102903A (ja) * 2002-09-12 2004-04-02 Pentax Corp フィルタ処理
JP2004312387A (ja) * 2003-04-07 2004-11-04 Sharp Corp 画像処理方法、画像処理装置、画像形成装置、撮像装置、及びコンピュータプログラム
JP2004320632A (ja) * 2003-04-18 2004-11-11 Hitachi Ltd 映像信号処理回路、映像表示装置及び映像表示方法
US20050089239A1 (en) 2003-08-29 2005-04-28 Vladimir Brajovic Method for improving digital images and an image sensor for sensing the same
WO2005027043A1 (ja) * 2003-09-11 2005-03-24 Matsushita Electric Industrial Co., Ltd. 視覚処理装置、視覚処理方法、視覚処理プログラム、集積回路、表示装置、撮影装置および携帯情報端末
JP2005130484A (ja) * 2003-10-02 2005-05-19 Nikon Corp 階調補正装置、および階調補正プログラム
JP2005269145A (ja) * 2004-03-18 2005-09-29 Olympus Corp 撮像装置、画像処理装置、及び画像処理システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1959390A4

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007271653A (ja) * 2006-03-30 2007-10-18 Casio Comput Co Ltd 投影装置、投影方法及びプログラム
JP2012209951A (ja) * 2007-04-18 2012-10-25 Panasonic Corp 撮像装置、撮像方法、集積回路およびプログラム
US8711255B2 (en) 2007-04-18 2014-04-29 Panasonic Corporation Visual processing apparatus and visual processing method
CN101918994B (zh) * 2007-08-27 2013-04-24 夏普株式会社 用于调节图像特征的方法
EP2193519A4 (en) * 2007-08-27 2011-08-24 Sharp Kk IMAGE CHARACTERISTIC ADJUSTMENT METHODS
JP2010535352A (ja) * 2007-08-27 2010-11-18 シャープ株式会社 画像特性を調節するための方法
EP2193519A1 (en) * 2007-08-27 2010-06-09 Sharp Kabushiki Kaisha Methods for adjusting image characteristics
US8320697B2 (en) 2007-09-28 2012-11-27 Fujitsu Semiconductor Limited Image processing filter, image processing method of image processing filter, and image processing circuit of image processing apparatus having image processing filter
JP2009086917A (ja) * 2007-09-28 2009-04-23 Fujitsu Microelectronics Ltd 画像処理フィルタ、画像処理フィルタの画像処理方法及び画像処理フィルタを備える画像処理装置の画像処理回路
US8169500B2 (en) 2008-05-30 2012-05-01 Panasonic Corporation Dynamic range compression apparatus, dynamic range compression method, computer-readable recording medium, integrated circuit, and imaging apparatus
US9240072B2 (en) 2010-09-08 2016-01-19 Panasonic Intellectual Property Management Co., Ltd. Three-dimensional image processing apparatus, three-dimensional image-pickup apparatus, three-dimensional image-pickup method, and program
US9749506B2 (en) 2014-02-05 2017-08-29 Panasonic Intellectual Property Management Co., Ltd. Image processing method and image processing device
JP2018117276A (ja) * 2017-01-19 2018-07-26 ソニー株式会社 映像信号処理装置、映像信号処理方法およびプログラム
US11403741B2 (en) 2017-01-19 2022-08-02 Sony Corporation Video signal processing apparatus, video signal processing method, and program
JP2020513123A (ja) * 2017-03-30 2020-04-30 スノー コーポレーション イメージに動的エフェクトを適用する方法および装置
JP2019053711A (ja) * 2017-09-15 2019-04-04 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP7051536B2 (ja) 2017-09-15 2022-04-11 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム

Also Published As

Publication number Publication date
JP4157592B2 (ja) 2008-10-01
US8311357B2 (en) 2012-11-13
EP1959390A1 (en) 2008-08-20
CN101288099A (zh) 2008-10-15
EP1959390A4 (en) 2010-05-05
EP2323100A2 (en) 2011-05-18
EP2323100A3 (en) 2012-03-21
JP2009277222A (ja) 2009-11-26
US20110085085A1 (en) 2011-04-14
CN101288099B (zh) 2012-11-21
JPWO2007043460A1 (ja) 2009-04-16
US20090232401A1 (en) 2009-09-17
US7881549B2 (en) 2011-02-01

Similar Documents

Publication Publication Date Title
JP4157592B2 (ja) 視覚処理装置、表示装置、視覚処理方法、プログラムおよび集積回路
JP4437150B2 (ja) 視覚処理装置、表示装置、視覚処理方法、プログラムおよび集積回路
JP4857360B2 (ja) 視覚処理装置、視覚処理方法、テレビジョン、携帯情報端末、カメラおよびプロセッサ
WO2007125732A1 (ja) 視覚処理装置、視覚処理方法、プログラム、記録媒体、表示装置および集積回路
JP4440245B2 (ja) 視覚処理装置、表示装置および集積回路
JP4410304B2 (ja) 視覚処理装置、視覚処理方法、画像表示装置、テレビジョン、携帯情報端末、カメラおよびプロセッサ
JP4191241B2 (ja) 視覚処理装置、視覚処理方法、プログラム、表示装置および集積回路
JP2009211708A (ja) 階調変換処理装置、テレビジョン、情報携帯端末、カメラ、階調変換処理方法およびプロセッサ
JP2011172260A (ja) 視覚処理装置
JP2006129105A (ja) 視覚処理装置、視覚処理方法、視覚処理プログラムおよび半導体装置
JP2005312008A (ja) 視覚処理装置、視覚処理方法、視覚処理プログラムおよび半導体装置
JP4094652B2 (ja) 視覚処理装置、視覚処理方法、プログラム、記録媒体、表示装置および集積回路
JP4437149B2 (ja) 視覚処理装置、視覚処理方法、プログラム、記録媒体、表示装置および集積回路
JP4414464B2 (ja) 視覚処理装置、視覚処理方法、視覚処理プログラムおよび半導体装置
JP2005322205A (ja) 視覚処理装置、視覚処理方法、視覚処理プログラムおよび半導体装置
JP2005322205A5 (ja)

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680038139.9

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2007539916

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 12090222

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2006811401

Country of ref document: EP