JP4094652B2 - Visual processing device, visual processing method, program, recording medium, display device, and integrated circuit - Google Patents

Visual processing device, visual processing method, program, recording medium, display device, and integrated circuit Download PDF

Info

Publication number
JP4094652B2
JP4094652B2 JP2007117827A JP2007117827A JP4094652B2 JP 4094652 B2 JP4094652 B2 JP 4094652B2 JP 2007117827 A JP2007117827 A JP 2007117827A JP 2007117827 A JP2007117827 A JP 2007117827A JP 4094652 B2 JP4094652 B2 JP 4094652B2
Authority
JP
Japan
Prior art keywords
visual processing
image
signal
effect
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007117827A
Other languages
Japanese (ja)
Other versions
JP2007316630A (en
Inventor
武志 井東
春生 山下
祐亮 物部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2007117827A priority Critical patent/JP4094652B2/en
Publication of JP2007316630A publication Critical patent/JP2007316630A/en
Application granted granted Critical
Publication of JP4094652B2 publication Critical patent/JP4094652B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、視覚処理装置、視覚処理方法、プログラム、記録媒体、表示装置および集積回路に関する。特に、画像の視覚処理の効果を異ならせるように調整する視覚処理装置、視覚処理方法、プログラム、記録媒体、表示装置および集積回路に関する。   The present invention relates to a visual processing device, a visual processing method, a program, a recording medium, a display device, and an integrated circuit. In particular, the present invention relates to a visual processing device, a visual processing method, a program, a recording medium, a display device, and an integrated circuit that adjust the visual processing effect of an image to be different.

従来、原画像の画像信号の画質改善処理として、階調処理による画像処理装置と、空間処理による画像処理装置が知られている。
階調処理とは、着目画素の周辺の画素とは無関係に、着目画素ごとにルックアップテーブル(以下、「LUT」という)を用いて画素値の変換を行う処理であり、ガンマ補正と呼ばれることもある。たとえば、コントラスト強調するとき、原画像での出現頻度の高い階調レベルを強調するようなLUTを用いて画素値の変換が行われる。LUTを用いた階調処理として、原画像全体にひとつのLUTを決定して用いる階調処理と、原画像を複数に分割した画像領域のそれぞれについてLUTを決定して用いる階調処理とが知られている。
空間処理とは、フィルタ適用の対象となる着目画素の値とその周辺の画素の値とを用い、着目画素の値を変換するものである。この空間処理された画像信号を用いて、原画像のコントラスト強調を行っている(たとえば、特許文献1を参照)。
米国特許第4667304号明細書
Conventionally, an image processing apparatus using gradation processing and an image processing apparatus using spatial processing are known as image quality improvement processing of an image signal of an original image.
The gradation processing is processing for converting pixel values using a lookup table (hereinafter referred to as “LUT”) for each target pixel regardless of the surrounding pixels of the target pixel, and is called gamma correction. There is also. For example, when contrast enhancement is performed, pixel values are converted using an LUT that enhances a gradation level having a high appearance frequency in the original image. As gradation processing using the LUT, gradation processing that determines and uses one LUT for the entire original image, and gradation processing that determines and uses an LUT for each of the image areas obtained by dividing the original image into a plurality of images are known. It has been.
Spatial processing is to convert the value of the pixel of interest using the value of the pixel of interest to which the filter is applied and the values of surrounding pixels. Using this spatially processed image signal, contrast enhancement of the original image is performed (see, for example, Patent Document 1).
US Pat. No. 4,667,304

一方、人間の視覚に近い画質改善処理として、着目画素の値とその周辺領域にある画素の値との対比にもとづいて着目画素の値を変換する視覚処理がある。このような視覚処理では、処理効果をより高めるため、着目画素の位置を中心に広範囲の領域から明るさ情報を抽出する。
しかし、着目画素の値とその周辺の画素の値との対比から着目画素の値を決定するため、周辺領域に急峻なエッジ領域があった場合は、その周辺にある画素の値の影響を受け、画素の値がほとんど変動しない平坦領域でも視覚処理の出力はエッジ近傍において緩やかに変化する。平坦領域で大きな輝度の変化が発生すると、エッジに隣接した領域に影のような輪郭が発生し(以下、「副作用」という)、不自然な画像となる。
本発明は、このような課題を解決するものであり、急峻なエッジ領域を有する画像が入力された場合であっても、副作用を抑えることが可能な視覚処理装置、視覚処理方法、プログラム、記録媒体、表示装置および集積回路を提供することを目的とする。
On the other hand, as an image quality improvement process close to human vision, there is a visual process for converting the value of the pixel of interest based on the comparison between the value of the pixel of interest and the values of the pixels in the surrounding area. In such visual processing, brightness information is extracted from a wide range of areas around the position of the pixel of interest in order to further enhance the processing effect.
However, since the value of the pixel of interest is determined from the comparison between the value of the pixel of interest and the values of the surrounding pixels, if there is a steep edge region in the peripheral region, it is affected by the values of the surrounding pixels. Even in a flat region where the pixel value hardly fluctuates, the output of visual processing changes gently in the vicinity of the edge. When a large luminance change occurs in a flat region, a shadow-like contour is generated in the region adjacent to the edge (hereinafter referred to as “side effect”), resulting in an unnatural image.
The present invention solves such problems, and even when an image having a steep edge region is input, a visual processing device, a visual processing method, a program, and a recording that can suppress side effects An object is to provide a medium, a display device, and an integrated circuit.

第1の発明は、入力された画像信号の周辺画像情報を抽出する周辺画像情報抽出部と、画像信号と周辺画像情報とにもとづいて画像信号に対して視覚処理を行う視覚処理部と、視覚処理の効果を設定するための効果調整信号を出力する制御信号発生部と、効果調整信号に応じて視覚処理の効果を設定する効果調整部と、を備える視覚処理装置である。制御信号発生部は、画像信号により形成される画像の画像領域に含まれるエッジ近傍領域と平坦部領域とを判定し、エッジ近傍領域ではなく、または、平坦領域ではないと判定された画像領域に対して、画像信号と周辺画像情報とにもとづく視覚処理を実現させる効果調整信号を発生させ、エッジ近傍領域であり、かつ、平坦領域であると判定された画像領域に対して、画像信号と周辺画像情報とにもとづく視覚処理の効果よりも弱い効果による視覚処理を実現させる効果調整信号を発生させる。   A first invention includes a peripheral image information extraction unit that extracts peripheral image information of an input image signal, a visual processing unit that performs visual processing on the image signal based on the image signal and the peripheral image information, The visual processing device includes a control signal generation unit that outputs an effect adjustment signal for setting an effect of processing, and an effect adjustment unit that sets the effect of visual processing according to the effect adjustment signal. The control signal generator determines an edge vicinity area and a flat area included in the image area of the image formed by the image signal, and determines that the image area is not the edge vicinity area or is determined not to be a flat area. On the other hand, an effect adjustment signal that realizes visual processing based on the image signal and the peripheral image information is generated, and the image signal and the peripheral are detected for the image region that is the edge vicinity region and is determined to be a flat region. An effect adjustment signal for realizing visual processing with an effect weaker than the effect of visual processing based on image information is generated.

この視覚処理装置では、制御信号発生部により、視覚処理の効果を設定するための効果調整信号を出力し、周辺画像情報抽出部により、入力された画像信号の周辺画像情報を抽出し、効果調整部により、効果調整信号に応じて視覚処理の効果を設定するので、効果調整信号に応じて視覚処理の効果を異ならせることが可能となり、副作用の発生する画像領域で視覚処理の効果を調整することで副作用を抑えることができる。また、この視覚処理装置では、制御信号発生部により、画像信号により形成される画像の画像領域に含まれるエッジ近傍領域と平坦部領域とを判定し、エッジ近傍領域ではなく、または、平坦領域ではないと判定された画像領域に対して、画像信号と周辺画像情報とにもとづく視覚処理を実現させる効果調整信号を発生させ、エッジ近傍領域であり、かつ、平坦領域であると判定された画像領域に対して、画像信号と周辺画像情報とにもとづく視覚処理の効果よりも弱い効果による視覚処理を実現させる効果調整信号を発生させるので、副作用が発生しやすい画像領域に対する視覚処理の効果を弱めることができ、副作用の発生を抑制することができる。特に、画像上に、いわゆるhaloが発生する副作用について効率的に抑制することができる。   In this visual processing device, the control signal generator outputs an effect adjustment signal for setting the effect of visual processing, the peripheral image information extraction unit extracts peripheral image information of the input image signal, and effects adjustment Since the effect of the visual processing is set according to the effect adjustment signal, the effect of the visual processing can be made different according to the effect adjustment signal, and the effect of the visual processing is adjusted in the image area where the side effect occurs. Side effects can be suppressed. Further, in this visual processing device, the control signal generator determines the edge vicinity area and the flat area included in the image area of the image formed by the image signal, and not the edge vicinity area or the flat area. An image area determined to be an edge vicinity area and a flat area by generating an effect adjustment signal for realizing visual processing based on the image signal and peripheral image information for the image area determined to be not On the other hand, since the effect adjustment signal that realizes the visual processing with the effect weaker than the visual processing effect based on the image signal and the peripheral image information is generated, the effect of the visual processing on the image area where the side effect is likely to occur is weakened. And the occurrence of side effects can be suppressed. In particular, it is possible to efficiently suppress a side effect in which a so-called halo occurs on an image.

なお、ここで、「弱い効果による視覚処理」とは、全く視覚処理効果を発生させない、つまり、視覚処理を行わないことを含む概念である。また、「周辺画像情報」とは、注目画素および注目画素周辺の画素から導かれる情報をいい、例えば、周辺画素を中心としたN×N画素の領域の平均の明るさ(階調値)等がこの一例である。なお、周辺画像情報を取得するために、必ずしも画素単位での処理を行う必要はなく、複数の画素からなるブロック単位での処理を行うことで周辺画像情報を取得してもよい。
第2の発明は、第1の発明であって、視覚処理部は、画像信号と周辺画像情報とにもとづいて画像信号に対して局所コントラストを調整する視覚処理を行う。
これにより、局所コントラストの調整を行う視覚処理を実現する視覚処理装置においても副作用を抑制することができる。
Here, “visual processing with weak effects” is a concept including no visual processing effect, that is, no visual processing. The “peripheral image information” refers to information derived from the target pixel and pixels around the target pixel. For example, the average brightness (gradation value) of an N × N pixel region centered on the peripheral pixel, etc. Is an example of this. Note that in order to acquire the peripheral image information, it is not always necessary to perform processing in units of pixels, and peripheral image information may be acquired by performing processing in units of blocks including a plurality of pixels.
2nd invention is 1st invention, Comprising: A visual processing part performs the visual processing which adjusts a local contrast with respect to an image signal based on an image signal and peripheral image information.
Accordingly, side effects can be suppressed even in a visual processing device that realizes visual processing for adjusting local contrast.

なお、ここで、「局所コントラスト」とは、注目画素とその周辺画素との明るさの対比により導かれるコントラストのことをいい、「局所コントラストを調整する視覚処理」とは、例えば、局所的な画像領域において、注目画素とその周辺画素との明るさ対比に基づいて、その局所的な画像領域のコントラストを調整する処理のことをいう。なお、画素単位の処理だけでなく、ブロック単位の処理でもよいことは言うまでもない。また、「局所コントラストを調整する視覚処理」は、明るさ対比以外にも色情報(明度、彩度、色相等)の対比に基づく処理をも含む概念である。
第3の発明は、第1または第2の発明であって、制御信号発生部は、周辺画像情報の変化量に応じて効果調整信号を出力する。
これにより、周辺画像情報の変化に伴って発生する副作用を抑えることができる。
Here, “local contrast” refers to the contrast derived by contrasting the brightness of the target pixel and its surrounding pixels, and “visual processing for adjusting local contrast” refers to, for example, local In the image area, it means a process of adjusting the contrast of the local image area based on the brightness contrast between the pixel of interest and its surrounding pixels. It goes without saying that not only pixel unit processing but also block unit processing may be used. Further, “visual processing for adjusting local contrast” is a concept including processing based on contrast of color information (lightness, saturation, hue, etc.) in addition to brightness contrast.
3rd invention is 1st or 2nd invention, Comprising: A control signal generation part outputs an effect adjustment signal according to the variation | change_quantity of surrounding image information.
Thereby, the side effect which generate | occur | produces with the change of surrounding image information can be suppressed.

第4の発明は、第1または第2の発明であって、制御信号発生部は、周辺画像情報の変化量を検出する変化量検出部と、変化量検出部により検出された変化量に基づいて効果調整信号を発生させる効果調整信号発生部と、を有する。
これにより、周辺画像情報の変化量に伴って発生する副作用を抑えることができる。
第5の発明は、第1または第2の発明であって、制御信号発生部は、画像信号から隣接領域との輝度差が所定の値以下となる平坦領域の平坦度合いを検出する平坦検出部と、画像信号から隣接領域との輝度差が所定の値以上となるエッジ領域のエッジ量を検出するエッジ検出部と、エッジ量により、画像領域のエッジ近傍度合いを示すエッジ近傍度を算出するエッジ近傍検出部と、平坦検出部により検出された平坦度合いとエッジ近傍検出部により算出されたエッジ近傍度とにもとづいて効果調整信号を発生させる効果調整信号発生部と、を有する。
4th invention is 1st or 2nd invention, Comprising: A control signal generation part is based on the variation | change_quantity detected by the variation | change_quantity detection part which detects the variation | change_quantity of surrounding image information, and the variation | change_quantity detection part. And an effect adjustment signal generator for generating an effect adjustment signal.
Thereby, the side effect which generate | occur | produces with the variation | change_quantity of surrounding image information can be suppressed.
5th invention is 1st or 2nd invention, Comprising: The control signal generation | occurrence | production part detects the flatness degree of the flat area from which an intensity difference with an adjacent area becomes below a predetermined value from an image signal An edge detection unit that detects an edge amount of an edge region in which the luminance difference from the adjacent region is equal to or greater than a predetermined value from the image signal, and an edge that calculates an edge proximity degree indicating an edge vicinity degree of the image region based on the edge amount A proximity detector, and an effect adjustment signal generator that generates an effect adjustment signal based on the flatness detected by the flatness detector and the edge proximity calculated by the edge proximity detector.

これによれば、急峻なエッジ領域を有する画像が入力された場合であっても、エッジ領域近傍の平坦領域の副作用を抑えることができる。
第6の発明は、第1から第5のいずれかの発明であって、効果調整部は、効果調整信号に応じて、画像信号と周辺画像情報とを合成した第1の合成信号を出力し、視覚処理部は、第1の合成信号と画像信号とにもとづいて画像信号に対して視覚処理を行う。
これによれば、さらに、視覚処理部は、第1の合成信号にもとづいて異なる階調変換処理を選択することが可能となり、選択した階調変換処理によって画像信号を視覚処理することができ、視覚処理の効果を異ならせる(調整する)ことができる。
第7の発明は、第1から第5のいずれかの発明であって、効果調整部は、効果調整信号に応じて、画像信号と視覚処理部で視覚処理を施された出力とを合成した第2の合成信号を出力する。
According to this, even if an image having a steep edge region is input, side effects of a flat region near the edge region can be suppressed.
A sixth invention is any one of the first to fifth inventions, wherein the effect adjustment unit outputs a first synthesized signal obtained by synthesizing the image signal and the peripheral image information in accordance with the effect adjustment signal. The visual processing unit performs visual processing on the image signal based on the first composite signal and the image signal.
According to this, the visual processing unit can select different gradation conversion processing based on the first composite signal, and can visually process the image signal by the selected gradation conversion processing. The effect of visual processing can be changed (adjusted).
The seventh invention is any one of the first to fifth inventions, wherein the effect adjustment unit synthesizes the image signal and the output subjected to visual processing by the visual processing unit in accordance with the effect adjustment signal. A second synthesized signal is output.

これによれば、さらに、効果調整信号に応じて画像信号と処理信号との割合を変えて出力でき、視覚処理の効果を異ならせる(調整する)ことができる。
第8の発明は、入力された画像信号の周辺画像情報を抽出する周辺画像情報抽出ステップと、画像信号と周辺画像情報とにもとづいて画像信号に対して視覚処理を行う視覚処理ステップと、視覚処理の効果を設定するための効果調整信号を出力する制御信号発生ステップと、効果調整信号に応じて視覚処理の効果を設定する効果調整ステップと、を備える視覚処理方法である。制御信号発生ステップでは、画像信号により形成される画像の画像領域に含まれるエッジ近傍領域と平坦部領域とを判定し、エッジ近傍領域ではなく、または、平坦領域ではないと判定された画像領域に対して、画像信号と周辺画像情報とにもとづく視覚処理を実現させる効果調整信号を発生させ、エッジ近傍領域であり、かつ、平坦領域であると判定された画像領域に対して、画像信号と周辺画像情報とにもとづく視覚処理の効果よりも弱い効果による視覚処理を実現させる効果調整信号を発生させる。
According to this, the ratio between the image signal and the processing signal can be changed according to the effect adjustment signal, and the effect of visual processing can be varied (adjusted).
According to an eighth aspect of the invention, there is provided a peripheral image information extracting step for extracting peripheral image information of the input image signal, a visual processing step for performing visual processing on the image signal based on the image signal and the peripheral image information, A visual processing method comprising: a control signal generation step for outputting an effect adjustment signal for setting an effect of processing; and an effect adjustment step for setting an effect of visual processing according to the effect adjustment signal. In the control signal generation step, the edge vicinity area and the flat area included in the image area of the image formed by the image signal are determined, and the image area determined to be not the edge vicinity area or not the flat area. On the other hand, an effect adjustment signal that realizes visual processing based on the image signal and the peripheral image information is generated, and the image signal and the peripheral are detected for the image region that is the edge vicinity region and is determined to be a flat region. An effect adjustment signal for realizing visual processing with an effect weaker than the effect of visual processing based on image information is generated.

これにより、第1の発明と同様の効果を奏する視覚処理方法を実現することができる。
第9の発明は、コンピュータに、入力された画像信号の周辺画像情報を抽出する周辺画像情報抽出ステップと、画像信号と周辺画像情報とにもとづいて画像信号に対して視覚処理を行う視覚処理ステップと、視覚処理の効果を設定するための効果調整信号を出力する制御信号発生ステップと、効果調整信号に応じて視覚処理の効果を設定する効果調整ステップと、実行させるプログラムである。制御信号発生ステップでは、画像信号により形成される画像の画像領域に含まれるエッジ近傍領域と平坦部領域とを判定し、エッジ近傍領域ではなく、または、平坦領域ではないと判定された画像領域に対して、画像信号と周辺画像情報とにもとづく視覚処理を実現させる効果調整信号を発生させ、エッジ近傍領域であり、かつ、平坦領域であると判定された画像領域に対して、画像信号と周辺画像情報とにもとづく視覚処理の効果よりも弱い効果による視覚処理を実現させる効果調整信号を発生させる。
Thereby, it is possible to realize a visual processing method that exhibits the same effect as that of the first invention.
According to a ninth aspect of the invention, a peripheral image information extracting step for extracting peripheral image information of an input image signal to a computer, and a visual processing step for performing visual processing on the image signal based on the image signal and the peripheral image information And a control signal generation step for outputting an effect adjustment signal for setting the effect of visual processing, an effect adjustment step for setting the effect of visual processing according to the effect adjustment signal, and a program to be executed. In the control signal generation step, the edge vicinity area and the flat area included in the image area of the image formed by the image signal are determined, and the image area determined to be not the edge vicinity area or not the flat area. On the other hand, an effect adjustment signal that realizes visual processing based on the image signal and the peripheral image information is generated, and the image signal and the peripheral are detected for the image region that is the edge vicinity region and is determined to be a flat region. An effect adjustment signal for realizing visual processing with an effect weaker than the effect of visual processing based on image information is generated.

これにより、第1の発明と同様の効果を奏するプログラムを実現することができる。
第10の発明は、コンピュータに、入力された画像信号の周辺画像情報を抽出する周辺画像情報抽出ステップと、画像信号と周辺画像情報とにもとづいて画像信号に対して視覚処理を行う視覚処理ステップと、視覚処理の効果を設定するための効果調整信号を出力する制御信号発生ステップと、効果調整信号に応じて視覚処理の効果を設定する効果調整ステップと、を実行させるプログラムを記録した記録媒体である。制御信号発生ステップでは、画像信号により形成される画像の画像領域に含まれるエッジ近傍領域と平坦部領域とを判定し、エッジ近傍領域ではなく、または、平坦領域ではないと判定された画像領域に対して、画像信号と周辺画像情報とにもとづく視覚処理を実現させる効果調整信号を発生させ、エッジ近傍領域であり、かつ、平坦領域であると判定された画像領域に対して、画像信号と周辺画像情報とにもとづく視覚処理の効果よりも弱い効果による視覚処理を実現させる効果調整信号を発生させる。
As a result, it is possible to realize a program that exhibits the same effects as those of the first invention.
A tenth aspect of the invention is a peripheral image information extracting step for extracting peripheral image information of an input image signal to a computer, and a visual processing step for performing visual processing on the image signal based on the image signal and the peripheral image information And a control signal generation step for outputting an effect adjustment signal for setting the effect of visual processing, and an effect adjustment step for setting the effect of visual processing in accordance with the effect adjustment signal. It is. In the control signal generation step, the edge vicinity area and the flat area included in the image area of the image formed by the image signal are determined, and the image area determined to be not the edge vicinity area or not the flat area. On the other hand, an effect adjustment signal that realizes visual processing based on the image signal and the peripheral image information is generated, and the image signal and the peripheral are detected for the image region that is the edge vicinity region and is determined to be a flat region. An effect adjustment signal for realizing visual processing with an effect weaker than the effect of visual processing based on image information is generated.

これにより、第1の発明と同様の効果を奏する記録媒体を実現することができる。
第11の発明は、入力された画像信号の周辺画像情報を抽出する周辺画像情報抽出部と、画像信号と周辺画像情報とにもとづいて画像信号に対して視覚処理を行う視覚処理部と、視覚処理の効果を設定するための効果調整信号を出力する制御信号発生部と、効果調整信号に応じて視覚処理の効果を設定する効果調整部と、を備える集積回路である。制御信号発生部は、画像信号により形成される画像の画像領域に含まれるエッジ近傍領域と平坦部領域とを判定し、エッジ近傍領域ではなく、または、平坦領域ではないと判定された画像領域に対して、画像信号と周辺画像情報とにもとづく視覚処理を実現させる効果調整信号を発生させ、エッジ近傍領域であり、かつ、平坦領域であると判定された画像領域に対して、画像信号と周辺画像情報とにもとづく視覚処理の効果よりも弱い効果による視覚処理を実現させる効果調整信号を発生させる。
Thereby, it is possible to realize a recording medium having the same effect as that of the first invention.
An eleventh aspect of the invention includes a peripheral image information extraction unit that extracts peripheral image information of an input image signal, a visual processing unit that performs visual processing on the image signal based on the image signal and the peripheral image information, An integrated circuit includes a control signal generation unit that outputs an effect adjustment signal for setting an effect of processing, and an effect adjustment unit that sets an effect of visual processing according to the effect adjustment signal. The control signal generator determines an edge vicinity area and a flat area included in the image area of the image formed by the image signal, and determines that the image area is not the edge vicinity area or is determined not to be a flat area. On the other hand, an effect adjustment signal that realizes visual processing based on the image signal and the peripheral image information is generated, and the image signal and the peripheral are detected for the image region that is the edge vicinity region and is determined to be a flat region. An effect adjustment signal for realizing visual processing with an effect weaker than the effect of visual processing based on image information is generated.

これにより、第1の発明と同様の効果を奏する集積回路を実現することができる。
第12の発明は、通信または放送された画像データを受信するデータ受信部と、受信された画像データを映像データに復号する復号部と、復号された映像データを視覚処理して出力信号を出力する第1から第7のいずれかの発明である視覚処理装置と、視覚処理装置により視覚処理された出力信号の表示を行う表示部と、を備える表示装置である。
これにより、第1から第7の発明と同様の効果を奏する視覚処理を表示装置において実現させることができる。
Thus, an integrated circuit that exhibits the same effect as that of the first invention can be realized.
A twelfth aspect of the invention is a data receiving unit that receives image data transmitted or broadcasted, a decoding unit that decodes the received image data into video data, and outputs an output signal by visually processing the decoded video data A visual processing device according to any one of the first to seventh inventions, and a display unit that displays an output signal visually processed by the visual processing device.
As a result, visual processing that achieves the same effects as those of the first to seventh inventions can be realized in the display device.

本発明によれば、急峻なエッジ領域を有する画像が入力された場合であっても、副作用を抑えることが可能な視覚処理装置、視覚処理方法、プログラム、記録媒体および集積回路を提供することができる。   According to the present invention, it is possible to provide a visual processing device, a visual processing method, a program, a recording medium, and an integrated circuit capable of suppressing side effects even when an image having a steep edge region is input. it can.

以下、本発明の実施の形態について、図面を用いて詳細に説明する。
(実施の形態1)
一般に、自然画像は階調数が多く、自然画像に視覚処理を行うことで局所コントラストなどを高めた鮮鋭な画像を得ることができる。一方、画像中に急峻なエッジがあると、視覚処理を施した場合には、副作用が目立ちやすい。この副作用を抑えるため、視覚処理を弱くすると、自然画像に対しても処理が弱くなり鮮鋭さのない画像となってしまう。
よって、エッジ近傍に対してのみ、視覚処理を弱くすることで、自然画像全体に対して処理効果を維持しながら、エッジ近傍での副作用を抑えることが可能となる。
本発明の実施の形態1である視覚処理装置は、視覚処理の効果を異ならせるための効果調整信号を出力し、効果調整信号に応じて視覚処理の効果を異ならせるように(強度、補正量)調整を行うものである。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(Embodiment 1)
In general, a natural image has a large number of gradations, and by performing visual processing on the natural image, a sharp image with improved local contrast can be obtained. On the other hand, if there are steep edges in the image, side effects tend to be noticeable when visual processing is performed. If the visual processing is weakened to suppress this side effect, the processing is weakened even for a natural image, resulting in an image with no sharpness.
Therefore, by weakening the visual processing only for the vicinity of the edge, it is possible to suppress side effects in the vicinity of the edge while maintaining the processing effect for the entire natural image.
The visual processing device according to the first embodiment of the present invention outputs an effect adjustment signal for varying the effect of visual processing, and varies the effect of visual processing according to the effect adjustment signal (intensity and correction amount). ) Make adjustments.

さらに、視覚処理の対象とする画像において、エッジに隣接した領域、またはエッジに隣接した平坦領域を検出し、エッジ量と平坦度の度合いから効果調整信号を生成し、効果調整信号に応じて視覚処理の効果を異ならせるように調整するものである。
これにより、視覚処理装置に急峻なエッジ領域を有する画像が入力された場合であっても、視覚処理の効果を得ながら、エッジ近傍での副作用を抑えることができる。
ここで、視覚処理とは、人間の目の見え方に近い特性を持たせた処理であり、入力された画像信号の対象画素の値とその周辺画素の値(明るさ)との対比に応じて出力信号の値を決定する処理である。視覚処理は、逆光補正、ニー処理、Dレンジ圧縮処理、色処理、または、明るさ調整(階調処理、コントラスト調整を含む)などに適用される。
また、本発明の実施の形態では、YCbCr色空間、YUV色空間、Lab色空間、Luv色空間、YIQ色空間、YPbPr色空間の輝度成分Yまたは明度成分Lを輝度信号と定義する。以下、輝度信号を画像信号として説明する。
Further, in the image to be subjected to visual processing, an area adjacent to the edge or a flat area adjacent to the edge is detected, and an effect adjustment signal is generated from the amount of edge and the degree of flatness, and the visual adjustment is performed according to the effect adjustment signal. The adjustment is made so that the effect of the treatment is different.
Thereby, even when an image having a steep edge region is input to the visual processing device, side effects in the vicinity of the edge can be suppressed while obtaining the effect of visual processing.
Here, visual processing is processing that has a characteristic close to how the human eye can see, depending on the comparison between the value of the target pixel of the input image signal and the value (brightness) of its surrounding pixels. This process determines the value of the output signal. The visual processing is applied to backlight correction, knee processing, D-range compression processing, color processing, brightness adjustment (including gradation processing and contrast adjustment), and the like.
In the embodiment of the present invention, the luminance component Y or lightness component L of the YCbCr color space, YUV color space, Lab color space, Luv color space, YIQ color space, and YPbPr color space is defined as a luminance signal. Hereinafter, the luminance signal will be described as an image signal.

本発明の実施の形態1である視覚処理装置について、図1〜図8を用いて説明する。図1は、本発明の実施の形態1における視覚処理装置1の構成を示すブロック図である。
図1において、本発明の実施の形態1による視覚処理装置1は、入力された画像信号から周辺画像情報(アンシャープ信号)USを出力する空間処理部10と、エッジ近傍領域の平坦度合いに応じて効果調整信号MODを出力する制御信号発生部40と、効果調整信号MODに応じて画像信号ISと周辺画像情報USとの割合を変えて合成した合成信号MUSを出力する効果調整部20と、合成信号MUSと画像信号ISとにもとづいて画像信号ISを視覚処理する視覚処理部30とを備えている。
以下、視覚処理装置1の各機能部について説明する。
空間処理部10は、画像信号ISから対象画素の値と対象画素の周辺領域にある画素(以下、「周辺画素」という)の値とを抽出し、抽出した画素の値を用いて画像信号ISに対してフィルタ処理を行う。
A visual processing device according to Embodiment 1 of the present invention will be described with reference to FIGS. FIG. 1 is a block diagram showing a configuration of a visual processing device 1 according to Embodiment 1 of the present invention.
In FIG. 1, the visual processing device 1 according to the first embodiment of the present invention responds to a spatial processing unit 10 that outputs peripheral image information (unsharp signal) US from an input image signal, and the flatness of an edge vicinity region. A control signal generator 40 that outputs an effect adjustment signal MOD, an effect adjustment unit 20 that outputs a synthesized signal MUS synthesized by changing the ratio of the image signal IS and the peripheral image information US according to the effect adjustment signal MOD, A visual processing unit 30 that visually processes the image signal IS based on the composite signal MUS and the image signal IS is provided.
Hereinafter, each functional unit of the visual processing device 1 will be described.
The spatial processing unit 10 extracts the value of the target pixel and the value of the pixel in the peripheral area of the target pixel (hereinafter referred to as “peripheral pixel”) from the image signal IS, and uses the extracted pixel value for the image signal IS. Filter processing for.

たとえば、空間処理部10は、画像信号ISをローパスフィルタにより処理したアンシャープ信号USを生成する。アンシャープ信号USは、以下のような演算により生成する。
US=(Σ[Wij]×[Aij])÷(Σ[Wij])
ここで、[Wij]は、対象画素および周辺画素において、i行j列目に位置する画素の重み係数であり、[Aij]は、対象画素および周辺画素において、i行j列目に位置する画素の値である。また、「Σ」は、対象画素および周辺画素のそれぞれの画素についての合計の計算を行うことを意味している。
なお、画素値の差の絶対値が大きいほど小さい値の重み係数が与えられてもよいし、対象画素から距離が大きいほど小さい重み係数を与えるようにしてもよい。また、周辺画素の領域サイズは効果に応じてあらかじめ設定される大きさであり、所定のサイズより大きくすると視覚効果を高めることができる。たとえば、対象とする画像の大きさが縦1024画素および横768画素であれば、縦横がそれぞれ80画素以上の領域からアンシャープ信号USを生成することにより、それぞれ縦横3画素程度の局所領域に比較してより視覚効果を高めることができる。
For example, the spatial processing unit 10 generates an unsharp signal US obtained by processing the image signal IS with a low-pass filter. The unsharp signal US is generated by the following calculation.
US = (Σ [W ij ] × [A ij ]) ÷ (Σ [W ij ])
Here, [W ij ] is a weighting factor of the pixel located in the i-th row and j-th column in the target pixel and the peripheral pixels, and [A ij ] is in the i-th row and j-th column in the target pixel and the peripheral pixels. The value of the pixel located. Further, “Σ” means that the sum of the target pixel and the surrounding pixels is calculated.
Note that a smaller weight coefficient may be given as the absolute value of the pixel value difference is larger, or a smaller weight coefficient may be given as the distance from the target pixel is larger. The area size of the peripheral pixels is a size set in advance according to the effect, and the visual effect can be enhanced by making the size larger than a predetermined size. For example, if the size of the target image is 1024 pixels in length and 768 pixels in width, the unsharp signal US is generated from an area that is 80 pixels or more in length and width, respectively, and compared with a local area of about 3 pixels in length and width. This can enhance the visual effect.

また、低域空間フィルタとしては、アンシャープ信号の生成に通常用いられるFIR(Finite Impulse Response)型の低域空間フィルタ、あるいはIIR(Infinite Impulse Response)型の低域空間フィルタなどを用いてもよい。
つぎに、効果調整部20は、制御信号発生部40から出力される効果調整信号MODに応じて、画像信号ISとアンシャープ信号USとを補間処理により合成し、合成信号MUSを出力する。合成信号MUSは、たとえば、効果調整信号MODに応じて、以下の(式1)のように内分演算される。制御信号発生部40については後述する。
MUS=US×MOD+IS×(1.0−MOD) (式1)
ここで、効果調整信号MODの値は「0.0」から「1.0」までの範囲で変化し、効果調整信号MODの値が「0.0」で処理なし、効果調整信号MODの値が「1.0」で処理の強さが最大となる。なお、(式1)は、(式2)のように変形させることもでき、同様に、合成信号MUSを生成できる。
Further, as the low-pass spatial filter, a FIR (Finite Impulse Response) type low-pass spatial filter or an IIR (Infinite Impulse Response) type low-pass spatial filter that is usually used for generating an unsharp signal may be used. .
Next, the effect adjusting unit 20 combines the image signal IS and the unsharp signal US by interpolation processing according to the effect adjusting signal MOD output from the control signal generating unit 40, and outputs a combined signal MUS. The composite signal MUS is divided internally as shown in (Equation 1) below, for example, according to the effect adjustment signal MOD. The control signal generator 40 will be described later.
MUS = US × MOD + IS × (1.0−MOD) (Formula 1)
Here, the value of the effect adjustment signal MOD varies in the range from “0.0” to “1.0”, the value of the effect adjustment signal MOD is “0.0”, no processing is performed, and the value of the effect adjustment signal MOD. Is “1.0”, the strength of the processing is maximized. Note that (Equation 1) can be modified as in (Equation 2), and similarly, a combined signal MUS can be generated.

MUS=(US−IS)×MOD+IS (式2)
つぎに、視覚処理部30は、効果調整部20からの合成信号MUSにしたがって、画像信号ISを階調変換する。
視覚処理部30は、たとえば、図2に示す、2次元階調変換特性にもとづいて階調変換を行う。ここで、2次元階調変換とは、合成信号MUSと画像信号ISとの2つの入力に対して出力の値が決定される階調変換をいう。視覚処理部30は、2次元階調変換特性にもとづいて画像信号ISと合成信号MUSとに対して処理信号OSを出力する。この階調変換特性よって様々な視覚効果を出すことができる。
図2を用いて、2次元階調変換特性に説明する。図2は、2次元階調変換特性を説明する説明図である。ここで、横軸は入力された画像信号IS、縦軸は変換された処理信号OSの出力である。
MUS = (US-IS) × MOD + IS (Formula 2)
Next, the visual processing unit 30 performs gradation conversion on the image signal IS according to the composite signal MUS from the effect adjustment unit 20.
The visual processing unit 30 performs gradation conversion based on, for example, the two-dimensional gradation conversion characteristic shown in FIG. Here, the two-dimensional gradation conversion refers to gradation conversion in which an output value is determined with respect to two inputs of the composite signal MUS and the image signal IS. The visual processing unit 30 outputs a processing signal OS to the image signal IS and the composite signal MUS based on the two-dimensional gradation conversion characteristics. Various visual effects can be produced by the gradation conversion characteristics.
The two-dimensional gradation conversion characteristics will be described with reference to FIG. FIG. 2 is an explanatory diagram for explaining the two-dimensional gradation conversion characteristics. Here, the horizontal axis represents the input image signal IS, and the vertical axis represents the output of the converted processing signal OS.

図2に示すように、2次元階調変換は、合成信号MUS0からMUSnの信号レベル(階調値)に応じて所定の階調変換特性を持つ。つまり、2次元階調変換は、合成信号MUSの信号レベル(階調値)に応じて、階調変換曲線MUS0〜MUSnの内のいずれかが選択され、その選択された階調変換曲線により、入力信号IS(ISの階調値)が処理信号OS(OSの階調値)に変換されることで実現される。例えば、MUS信号のレベル(階調値)が「1」であるとき、図2の階調変換曲線MUS1が選択され、MUS信号のレベル(階調値)が「120」であるとき、階調変換曲線MUS120が選択される。ただし、階調変換曲線MUS0〜MUSnは、必ずしもMUS信号の階調値数に相当する数だけ用意しておく必要はなく、例えば、階調変換曲線MUS0〜MUSnをMUS信号の階調値数に相当する数より少ない数だけ用意しておき、用意されていない階調変換曲線については、用意された階調変換曲線から補間処理により、MUS信号の階調値に対応する階調変換曲線を算出することで、2次元階調変換を実現するようにしてもよい。   As shown in FIG. 2, the two-dimensional gradation conversion has a predetermined gradation conversion characteristic according to the signal levels (gradation values) of the combined signals MUS0 to MUSn. That is, in the two-dimensional gradation conversion, any one of the gradation conversion curves MUS0 to MUSn is selected according to the signal level (gradation value) of the composite signal MUS, and the selected gradation conversion curve This is realized by converting the input signal IS (IS gradation value) into a processing signal OS (OS gradation value). For example, when the level (gradation value) of the MUS signal is “1”, the gradation conversion curve MUS1 of FIG. 2 is selected, and when the level (gradation value) of the MUS signal is “120”, the gradation A conversion curve MUS120 is selected. However, the gradation conversion curves MUS0 to MUSn do not necessarily have to be prepared in a number corresponding to the number of gradation values of the MUS signal. For example, the gradation conversion curves MUS0 to MUSn are set to the number of gradation values of the MUS signal. A number smaller than the corresponding number is prepared, and for gradation conversion curves that are not prepared, a gradation conversion curve corresponding to the gradation value of the MUS signal is calculated from the prepared gradation conversion curve by interpolation processing. Thus, two-dimensional gradation conversion may be realized.

2次元階調変換において、例えば、画像信号ISの画素値が8ビットの値とすると、256段階に分けられた画像信号ISの値に対する処理信号OSの画素値が所定の2次元階調変換特性により決定される。階調変換特性は所定のガンマ変換特性を持つ階調変換曲線であり、合成信号MUSの添え字について、出力が単調減少する関係にある。なお、合成信号MUSの添え字について、出力が一部分単調減少でない箇所があったとしても、実質的に単調減少であればよい。また、図2に示したように、2次元階調変換特性において、すべての画像信号ISの画素の明度値に対して、(MUS=MUS0の場合の出力値)≧(MUS=MUS1の場合の出力値)≧・・・≧(MUS=MUSnの場合の出力値)の関係を満たしている。
図2に示す2次元階調変換特性によれば、視覚処理部30は、入力された画像信号ISが値「a」に対して、周囲領域の明度値が小さいときにMUS0を選択することで処理信号OSの値は「P」となり、逆に、周囲領域の明度値が大きいときにMUSnを選択することで処理信号OSの値は「Q」となる。このように、入力された画像信号ISが値「a」であっても、周囲領域の明度値の変化によって処理信号OSは値「P」から値「Q」まで大きく変化させることができる。これにより、暗部のコントラストを合成信号MUSに応じて強調することができる。
In the two-dimensional gradation conversion, for example, if the pixel value of the image signal IS is an 8-bit value, the pixel value of the processing signal OS with respect to the value of the image signal IS divided into 256 stages has a predetermined two-dimensional gradation conversion characteristic. Determined by. The gradation conversion characteristic is a gradation conversion curve having a predetermined gamma conversion characteristic, and the output monotonously decreases with respect to the subscript of the composite signal MUS. Note that even if there is a portion where the output is not partly monotonically decreasing, the subscript of the composite signal MUS may be substantially monotonically decreasing. Further, as shown in FIG. 2, in the two-dimensional gradation conversion characteristics, (output value in the case of MUS = MUS0) ≧ (in the case of MUS = MUS1) with respect to the brightness values of the pixels of all the image signals IS. The relationship of output value) ≧... ≧ (output value when MUS = MUSn) is satisfied.
According to the two-dimensional gradation conversion characteristics shown in FIG. 2, the visual processing unit 30 selects MUS0 when the input image signal IS has a value “a” and the brightness value of the surrounding area is small. The value of the processing signal OS is “P”. Conversely, when the brightness value of the surrounding area is large, the value of the processing signal OS becomes “Q” by selecting MUSn. As described above, even if the input image signal IS has the value “a”, the processing signal OS can be largely changed from the value “P” to the value “Q” by the change in the brightness value of the surrounding area. Thereby, the contrast of a dark part can be emphasized according to the synthetic | combination signal MUS.

一方、視覚処理の効果をなくすため、合成信号MUS=画像信号ISとなるようにすれば、図2に示す、曲線2の階調変換特性を持たせることができる。曲線2の階調変換特性では、画像全体の明るさ調整(ガンマ変換)ができるが、局所の暗部領域だけコントラストを高めるなどの視覚効果はない。
なお、この2次元階調変換特性を変更することで、様々な視覚処理の効果を出すことができ、ニー処理、DR圧縮処理、色処理、または、明るさ調整(階調処理、コントラスト調整を含む)などに適用可能となる。
つぎに、視覚処理部30において、合成信号MUSにもとづいて視覚処理の効果を異ならせたときの処理信号OSについて図3を用いて説明する。図3は、処理信号OSの出力を説明する説明図である。
On the other hand, in order to eliminate the effect of visual processing, if the composite signal MUS = image signal IS, the tone conversion characteristic of curve 2 shown in FIG. 2 can be provided. With the tone conversion characteristics of curve 2, the brightness of the entire image can be adjusted (gamma conversion), but there is no visual effect such as increasing the contrast only in the local dark area.
By changing this two-dimensional gradation conversion characteristic, various visual processing effects can be obtained, and knee processing, DR compression processing, color processing, or brightness adjustment (gradation processing, contrast adjustment can be performed). Including).
Next, the processing signal OS when the visual processing unit 30 changes the effect of visual processing based on the composite signal MUS will be described with reference to FIG. FIG. 3 is an explanatory diagram for explaining the output of the processing signal OS.

図3(a)において、横軸は処理する画素位置、縦軸は合成信号MUSの出力である。
合成信号MUSは、たとえば、効果調整信号MODの値を「0.5」としたときには、画像信号ISとアンシャープ信号USの中間的な出力となる。
このとき、図3(b)に示すように、画像信号ISのみにもとづいて視覚処理した処理信号OSをOS(IS,IS)とし、画像信号ISとアンシャープ信号USとにもとづいて視覚処理の処理信号OSをOS(IS,US)とすれば、画像信号ISと合成信号MUSにしたがって視覚処理された処理信号OSであるOS(IS,MUS)は、OS(IS,IS)とOS(IS,US)との中間的な出力となる。
よって、効果調整信号MODの値が「1.0」のとき、合成信号MUS=USとなり、視覚処理の「効果が最大」である処理信号OS(IS,US)を出力する。一方、効果調整信号MODの値が「0.0」のとき、合成信号MUS=ISとなり、視覚処理の「効果なし」である処理信号OS(IS,IS)を出力する。
In FIG. 3A, the horizontal axis represents the pixel position to be processed, and the vertical axis represents the output of the composite signal MUS.
For example, when the value of the effect adjustment signal MOD is “0.5”, the composite signal MUS is an intermediate output between the image signal IS and the unsharp signal US.
At this time, as shown in FIG. 3B, the processing signal OS visually processed based only on the image signal IS is set to OS (IS, IS), and the visual processing based on the image signal IS and the unsharp signal US is performed. If the processing signal OS is OS (IS, US), OS (IS, MUS) which is a processing signal OS visually processed according to the image signal IS and the composite signal MUS is OS (IS, IS) and OS (IS , US).
Therefore, when the value of the effect adjustment signal MOD is “1.0”, the composite signal MUS = US, and the processing signal OS (IS, US) that has the “effect is maximum” of the visual processing is output. On the other hand, when the value of the effect adjustment signal MOD is “0.0”, the composite signal MUS = IS, and the processing signal OS (IS, IS) that is “no effect” of the visual processing is output.

このように、視覚処理部30は、合成信号MUSに応じて暗部コントラストの視覚処理の効果を強めたり、弱めたりすることができる。これにより、画像全体の明るさを変換するだけの処理の効果から、局所領域でのコントラストを周囲の明るさで異ならせるように(変化させるように)した処理の効果まで、効果が異なる様々な視覚効果を、視覚処理装置101において実現することができる。
なお、視覚処理装置1において、2次元階調変換特性を変更することで、ニー処理、DR圧縮処理、色処理なども実現することができる。
また、視覚処理部30は、2次元ルックアップテーブル(以下、「2次元LUT」という)を有してもよい。視覚処理部30の2次元LUTに、図2に示す、特性データ(以下、「プロファイル」という)を設定することで、階調変換する。
As described above, the visual processing unit 30 can increase or decrease the effect of the visual processing of the dark portion contrast according to the composite signal MUS. As a result, there are various effects ranging from the effect of processing that only converts the brightness of the entire image to the effect of processing that changes (changes) the contrast in the local area according to the ambient brightness. A visual effect can be realized in the visual processing device 101.
In the visual processing device 1, knee processing, DR compression processing, color processing, and the like can be realized by changing the two-dimensional gradation conversion characteristics.
The visual processing unit 30 may include a two-dimensional lookup table (hereinafter referred to as “two-dimensional LUT”). Gray scale conversion is performed by setting characteristic data (hereinafter referred to as “profile”) shown in FIG. 2 in the two-dimensional LUT of the visual processing unit 30.

また、視覚処理部30は、演算回路によって視覚処理を行うようにしてもよい。特に、視覚処理部30の2次元LUTに、簡易な直線によって近似可能な特性であるプロファイルが設定される場合、2次元LUTのテーブルをなくすことができ、視覚処理装置1の回路規模を削減することができる。
つぎに、図4、図5を用いて、制御信号発生部40について説明する。図4は制御信号発生部40の構成を示すブロック図、図5は効果調整信号MODの出力を説明するための説明図である。
図4に示すように、制御信号発生部40は、画像信号ISから隣接領域ごとの輝度差であるエッジ量を検出するエッジ検出部41と、エッジ量からエッジ領域の近傍度合いを検出するエッジ近傍検出部42と、隣接領域との輝度差が所定の値以下となる平坦領域の平坦度合いを検出する平坦検出部43と、エッジ近傍度合いと平坦度合いに応じて効果調整信号MODを出力する効果調整信号発生部44とを備えている。
The visual processing unit 30 may perform visual processing using an arithmetic circuit. In particular, when a profile having characteristics that can be approximated by a simple straight line is set in the two-dimensional LUT of the visual processing unit 30, the table of the two-dimensional LUT can be eliminated, and the circuit scale of the visual processing device 1 is reduced. be able to.
Next, the control signal generator 40 will be described with reference to FIGS. FIG. 4 is a block diagram showing the configuration of the control signal generator 40, and FIG. 5 is an explanatory diagram for explaining the output of the effect adjustment signal MOD.
As shown in FIG. 4, the control signal generation unit 40 includes an edge detection unit 41 that detects an edge amount that is a luminance difference for each adjacent region from the image signal IS, and an edge vicinity that detects the degree of proximity of the edge region from the edge amount. A flatness detection unit 43 that detects the flatness of a flat region where the luminance difference between the detection unit 42 and the adjacent region is a predetermined value or less, and an effect adjustment that outputs an effect adjustment signal MOD according to the degree of edge proximity and the flatness And a signal generation unit 44.

エッジ検出部41は、所定の範囲の領域ごとに、画像信号ISからエッジ量を検出する。エッジ検出部41は、SobelフィルタやPrewittフィルタなどの1次微分フィルタ、ラプラシアンフィルタなどの2次微分フィルタなどのエッジ検出フィルタ(図示せず)を用いてエッジ量EGを検出する。エッジ検出部41は、たとえば、図5(a)に示す、画像信号ISが入力されたときに、図5(b)に示すようなエッジ量を出力する。ここで、図5(a)の縦軸は画像信号ISの値であり、横軸は処理している画素の画素位置である。また、図5(b)の縦軸はエッジ量EGであり、横軸は処理している画素の画素位置である。
エッジ近傍検出部42は、エッジの近傍領域を検出する。たとえば、エッジ近傍検出部42は、所定の領域ごとに検出されるエッジ量をローパスフィルタで処理し、エッジ近傍に近づいたときに大きな出力となる近傍度合いを出力する。また、エッジ量EGを空間的に水平垂直にずらして加算したものあるいは平均したものをエッジ近傍度としてもよい。また、エッジ量EGをMAXフィルタで処理したものをエッジ近傍度としてもよい。たとえば、図5(c)に示すように、エッジ近傍検出部42は、エッジの近傍に近いほど、大きな出力となるエッジ近傍度を出力する。ここで、また、図5(c)の縦軸はエッジ近傍度であり、横軸は処理している画素の画素位置である。
The edge detection unit 41 detects an edge amount from the image signal IS for each region in a predetermined range. The edge detection unit 41 detects the edge amount EG using an edge detection filter (not shown) such as a primary differential filter such as a Sobel filter or a Prewitt filter, or a secondary differential filter such as a Laplacian filter. For example, when the image signal IS shown in FIG. 5A is input, the edge detector 41 outputs an edge amount as shown in FIG. Here, the vertical axis of FIG. 5A is the value of the image signal IS, and the horizontal axis is the pixel position of the pixel being processed. Further, the vertical axis of FIG. 5B is the edge amount EG, and the horizontal axis is the pixel position of the pixel being processed.
The edge vicinity detection unit 42 detects the vicinity area of the edge. For example, the edge vicinity detection unit 42 processes the edge amount detected for each predetermined area with a low-pass filter, and outputs a degree of proximity that becomes a large output when approaching the edge vicinity. Further, the edge proximity degree may be obtained by spatially shifting the edge amount EG in the horizontal and vertical directions or adding the averages. Further, the edge proximity degree may be obtained by processing the edge amount EG with the MAX filter. For example, as illustrated in FIG. 5C, the edge vicinity detection unit 42 outputs an edge vicinity degree that becomes a larger output as it is closer to the edge. Here, the vertical axis in FIG. 5C is the edge proximity, and the horizontal axis is the pixel position of the pixel being processed.

平坦検出部43においては、平坦であることを判断するために、エッジ検出部41よりもより広範囲での輝度差を用いて平坦度FTを算出することがより望ましい。これは人間が画像を見たときに、不自然な画像であると感じる等の副作用を認識できるのが、ある程度広い面積を有する平坦領域を見る対象としたときだからである。たとえば、ハイビジョン(HDTV)用ディスプレイ装置を用いて空間処理した画像を、最適視聴距離の3H(Hは画面の高さ)の距離で視聴する場合では、H/20(フルHD(フルスペックハイビジョン)(1920x1080画素)の場合、縦横54画素に相当。)以上の範囲で平坦度FTを検出することが望ましい。ただし、大画面化にともない相対的に視聴距離が縮まってきているため、たとえばH/30(同、縦横36画素に相当。)以上の範囲で平坦度FTを検出してもよい。少なくともH/50(同、縦横22画素に相当。)以上の範囲で平坦度FTを検出することで、ある程度の効果を得ることができる。   In the flatness detection unit 43, it is more desirable to calculate the flatness FT using a luminance difference in a wider range than the edge detection unit 41 in order to determine that the flatness is flat. This is because when a human sees an image, he / she can recognize side effects such as feeling an unnatural image because he / she looks at a flat region having a certain large area. For example, when viewing an image spatially processed using a high-definition (HDTV) display device at a distance of 3H (H is the height of the screen), which is the optimum viewing distance, H / 20 (full HD (full spec high-definition)) (In the case of 1920 × 1080 pixels), it corresponds to 54 pixels vertically and horizontally.) It is desirable to detect the flatness FT in the above range. However, since the viewing distance is relatively shortened as the screen is enlarged, the flatness FT may be detected in a range of, for example, H / 30 or more (corresponding to 36 pixels vertically and horizontally). A certain degree of effect can be obtained by detecting the flatness FT in a range of at least H / 50 (corresponding to 22 pixels in the vertical and horizontal directions).

平坦検出部43は、隣接領域との輝度差が所定の値以下となる平坦領域の平坦度合い(平坦度FT)を検出する。たとえば、隣接領域との輝度差が所定の値以下となる領域の面積をもとめ、面積が大きいほど大きな平坦度合い(平坦度FT)を出力する。
または、図5(d)に示すように、図5(b)のエッジ量の出力から、隣接領域との輝度差を検出し、輝度差が小さいほど大きな平坦度合い(平坦度FT)を出力してもよい。図5(d)において、縦軸は平坦度FTであり、横軸は処理している画素の画素位置である。
効果調整信号発生部44は、図5(e)に示すように、図5(c)の近傍度と、図5(d)の平坦度を掛け合わせ、エッジ近傍度が大きく、平坦度が高いほど視覚効果を弱める効果調整信号MODを出力する。ここで、図5(d)の縦軸は効果調整信号MODの出力であり、横軸は処理している画素の画素位置である。また、視覚処理装置1において、効果調整信号MODの値が大きいほど、は視覚効果は強くなる。
The flatness detection unit 43 detects the flatness (flatness FT) of the flat area where the luminance difference with the adjacent area is a predetermined value or less. For example, the area of a region where the luminance difference from the adjacent region is a predetermined value or less is obtained, and a larger flatness (flatness FT) is output as the area is larger.
Alternatively, as shown in FIG. 5D, the brightness difference from the adjacent area is detected from the output of the edge amount in FIG. 5B, and the larger flatness (flatness FT) is output as the brightness difference is smaller. May be. In FIG. 5D, the vertical axis is the flatness FT, and the horizontal axis is the pixel position of the pixel being processed.
As shown in FIG. 5 (e), the effect adjustment signal generator 44 multiplies the proximity in FIG. 5 (c) and the flatness in FIG. 5 (d) to obtain a large edge proximity and a high flatness. An effect adjustment signal MOD that weakens the visual effect is output. Here, the vertical axis of FIG. 5D is the output of the effect adjustment signal MOD, and the horizontal axis is the pixel position of the pixel being processed. In the visual processing device 1, the visual effect becomes stronger as the value of the effect adjustment signal MOD is larger.

これにより、効果調整信号発生部44は、図5(e)に示すように、エッジ近傍領域では、視覚効果を弱めるような出力を行い、エッジ近傍領域よりは離れた領域に対しては視覚効果を強めるような出力を生成している。また、効果調整信号発生部44は、平坦度合いに応じて、エッジ近傍領域では、平坦度合いが大きいほど視覚効果を弱めるような出力を行い、平坦度合いが小さいほど視覚効果を強めるような出力を行う。
また、図13(a)に画素位置と画像信号ISとの関係を、図13(b)に画素位置とエッジ量EGとの関係を、図13(c)に画素位置とエッジ近傍度との関係を、図13(d)に画素位置と平坦度FTとの関係を、図13(e)に画素位置と効果調整信号MODとの関係を、それぞれ示す。なお、図13(a)に示すような画像信号ISが入力された場合の、エッジ量EGを図13(b)に、エッジ近傍度を図13(c)に、平坦度FTが図13(d)に、効果調整信号MODを図13(e)に、それぞれ示している。ここで、図13のEFで示される領域がエッジ近傍の平坦部分である。エッジ近傍の平坦領域EFでは効果調整信号MODが小さくなっている。
As a result, as shown in FIG. 5E, the effect adjustment signal generating unit 44 performs an output that weakens the visual effect in the edge vicinity region, and the visual effect is applied to a region far from the edge vicinity region. The output which strengthens is generated. Further, the effect adjustment signal generation unit 44 performs an output that weakens the visual effect as the flatness degree increases in the region near the edge according to the flatness degree, and an output that strengthens the visual effect as the flatness degree decreases. .
13A shows the relationship between the pixel position and the image signal IS, FIG. 13B shows the relationship between the pixel position and the edge amount EG, and FIG. 13C shows the relationship between the pixel position and the edge proximity. FIG. 13D shows the relationship between the pixel position and the flatness FT, and FIG. 13E shows the relationship between the pixel position and the effect adjustment signal MOD. When an image signal IS as shown in FIG. 13A is input, the edge amount EG is shown in FIG. 13B, the edge proximity is shown in FIG. 13C, and the flatness FT is shown in FIG. FIG. 13 (e) shows the effect adjustment signal MOD in d). Here, a region indicated by EF in FIG. 13 is a flat portion near the edge. In the flat region EF near the edge, the effect adjustment signal MOD is small.

これにより、視覚処理装置1では、エッジ近傍に対してのみ副作用を低減でき、自然画像に対して優れた視覚処理の効果を有する視覚処理を実現することができる。
つぎに、視覚処理装置1の動作について、図6を用いて説明する。図6は視覚処理装置1の動作を説明するフローチャートである。
図6に示すように、視覚処理装置1に、画像が入力され(S101)、エッジ検出部41により、画像信号ISから隣接領域ごとの輝度差であるエッジ量を検出する(S102)。
つぎに、視覚処理装置1は、エッジ近傍検出部42により、エッジ量をローパスフィルタにより処理し、エッジ量からの近傍度合いを検出する(S103)。また、視覚処理装置1は、平坦検出部43により、エッジ量から輝度差を検出し、エッジ近傍の平坦度合いを検出する(S104)。
As a result, the visual processing device 1 can reduce side effects only in the vicinity of the edge, and can realize visual processing having an excellent visual processing effect on a natural image.
Next, the operation of the visual processing device 1 will be described with reference to FIG. FIG. 6 is a flowchart for explaining the operation of the visual processing device 1.
As shown in FIG. 6, an image is input to the visual processing device 1 (S101), and the edge detection unit 41 detects an edge amount that is a luminance difference for each adjacent region from the image signal IS (S102).
Next, the visual processing device 1 processes the edge amount with the low-pass filter by the edge vicinity detection unit 42, and detects the degree of proximity from the edge amount (S103). Further, the visual processing device 1 detects the luminance difference from the edge amount by the flatness detection unit 43, and detects the flatness degree in the vicinity of the edge (S104).

つぎに、視覚処理装置1は、効果調整信号発生部44により、エッジ近傍検出部42から出力される近傍度と、平坦検出部43から出力される平坦度とを掛け合わせ、効果調整信号MODを生成する(S105)。
つぎに、視覚処理装置1は、効果調整部20により、効果調整信号MODに応じて画像信号ISとアンシャープ信号USとの割合を変えて合成した合成信号MUSを生成する(S106)。
つぎに、視覚処理装置1は、視覚処理部30により、合成信号MUSに対応して、図2に示す2次元階調変換特性の曲線のひとつを選択し、画像信号ISを変換する(S107)。これにより、視覚処理装置1は、合成信号MUSに応じて、視覚処理の効果を異ならせるように調整した視覚処理を実行する。
Next, in the visual processing device 1, the effect adjustment signal generation unit 44 multiplies the proximity level output from the edge vicinity detection unit 42 and the flatness level output from the flatness detection unit 43 to obtain the effect adjustment signal MOD. Generate (S105).
Next, in the visual processing device 1, the effect adjustment unit 20 generates a synthesized signal MUS that is synthesized by changing the ratio of the image signal IS and the unsharp signal US according to the effect adjustment signal MOD (S106).
Next, in the visual processing device 1, the visual processing unit 30 selects one of the curves of the two-dimensional gradation conversion characteristics shown in FIG. 2 corresponding to the composite signal MUS, and converts the image signal IS (S107). . Thereby, the visual processing device 1 executes visual processing adjusted so as to vary the effect of visual processing in accordance with the composite signal MUS.

つぎに、視覚処理装置1は、つぎに処理する画素があるか否かを判断する(S108)。つぎに処理が必要な画素がない場合は、視覚処理を完了する。一方、つぎに処理が必要な画素がある場合は、ステップS101に戻り、つぎの画像(画素)が入力される。以後、処理が必要な画素がなくなるまで、S101からS108までのステップを繰り返し実行する。
以上のように、本発明の実施の形態1の視覚処理装置1によれば、エッジ近傍に対してのみ副作用を低減でき、自然画像に対して優れた視覚処理の効果を有する視覚処理を実現することができる。
なお、視覚処理装置1は、エッジ量からエッジ近傍度を、入力画像信号ISから平坦度を求め、エッジ近傍度と平坦度とにもとづいて効果調整信号MODを生成したが、空間処理部10のアンシャープ信号USの変化量から効果調整信号MODを生成してもよい。
Next, the visual processing device 1 determines whether there is a pixel to be processed next (S108). Next, when there is no pixel that needs processing, the visual processing is completed. On the other hand, if there is a pixel that needs to be processed next, the process returns to step S101, and the next image (pixel) is input. Thereafter, the steps from S101 to S108 are repeated until there are no more pixels that need to be processed.
As described above, according to the visual processing device 1 of Embodiment 1 of the present invention, side effects can be reduced only in the vicinity of edges, and visual processing having an excellent visual processing effect on natural images is realized. be able to.
The visual processing device 1 calculates the edge proximity from the edge amount and the flatness from the input image signal IS, and generates the effect adjustment signal MOD based on the edge proximity and the flatness. The effect adjustment signal MOD may be generated from the change amount of the unsharp signal US.

以下、制御信号発生部40の変形例によるエッジ近傍の平坦領域を検出する方法について、制御信号発生部40の変形例について説明する。
図7および図14を用いて、アンシャープ信号USの変化量から効果調整信号MODを生成する実施形態について説明する。図7(a)は、本実施形態における変形例に係る視覚処理装置1の構成を示すブロック図である。つまり、図1に示した視覚処理装置1の変形例を示している。制御信号発生部70(制御信号発生部40の変形例)の入力を、入力信号ISではなく、アンシャープ信号US信号としている点が、図1の視覚処理装置1と異なる。また、図7(b)は、制御信号発生部40の変形例である制御信号発生部70の構成を示すブロック図である。
図7(b)に示すように、制御信号発生部70は、アンシャープ信号USの変化量を検出する変化量検出部71と、検出された変化量に応じて効果調整信号MODを出力する効果調整信号発生部72とを備える。
Hereinafter, a modified example of the control signal generating unit 40 will be described with respect to a method for detecting a flat region near the edge according to the modified example of the control signal generating unit 40.
An embodiment for generating the effect adjustment signal MOD from the amount of change in the unsharp signal US will be described with reference to FIGS. 7 and 14. FIG. 7A is a block diagram illustrating a configuration of a visual processing device 1 according to a modification example of the present embodiment. That is, a modification of the visual processing device 1 shown in FIG. 1 is shown. 1 differs from the visual processing device 1 of FIG. 1 in that the input of the control signal generator 70 (modified example of the control signal generator 40) is not the input signal IS but the unsharp signal US signal. FIG. 7B is a block diagram showing a configuration of a control signal generator 70 which is a modification of the control signal generator 40.
As shown in FIG. 7B, the control signal generation unit 70 has a change amount detection unit 71 that detects a change amount of the unsharp signal US, and an effect that outputs an effect adjustment signal MOD according to the detected change amount. And an adjustment signal generator 72.

アンシャープ信号USは、自然画像に含まれる高周波の信号成分が削除(低減)されているが、急峻なエッジ成分は残っているような信号になっている。このため、アンシャープ信号USになお残っているエッジ成分に基づき、エッジ周辺領域を抽出することで、概略エッジ近傍の平坦部分を検出することができる。
本実施形態では、制御信号発生部70の入力をアンシャープ信号USとし、その変化量を求めることでエッジ近傍の平坦部分を検出している。このため、広い面積(画像領域)を参照することが望ましい平坦検出において、参照する画像領域を少なくすることができ、平坦部を検出するのに必要となる処理量を削減することができる。
変化量検出部71は、SobelフィルタやPrewittフィルタなどの1次微分フィルタ、ラプラシアンフィルタなどの2次微分フィルタなどのエッジ検出フィルタ(図示せず)を用いて検出する。
The unsharp signal US is a signal in which a high-frequency signal component included in a natural image is deleted (reduced), but a steep edge component remains. For this reason, by extracting the edge peripheral region based on the edge component still remaining in the unsharp signal US, it is possible to detect a flat portion in the vicinity of the approximate edge.
In the present embodiment, the input of the control signal generator 70 is the unsharp signal US, and a flat portion near the edge is detected by obtaining the amount of change. For this reason, in flat detection where it is desirable to refer to a large area (image region), the image region to be referred to can be reduced, and the amount of processing required to detect a flat portion can be reduced.
The change amount detection unit 71 detects using an edge detection filter (not shown) such as a primary differential filter such as a Sobel filter or a Prewitt filter, or a secondary differential filter such as a Laplacian filter.

また、エッジ周辺領域の広さを調整するために、ローパスフィルタやMAXフィルタなどと組み合わせてもよい。
たとえば、図14(a)に示す画像信号ISが入力された場合で、図14(b)に示すようなアンシャープ信号が得られるとき、変化量検出部71は、図14(c)に示すように、アンシャープ信号USが変化するエッジ近傍で大きな信号を出力する。ここで、図14(a)の縦軸は画像信号ISの値であり、横軸は処理している画素位置である。図14(b)の縦軸はアンシャープ信号USの値であり、横軸は処理している画素位置である。図14(c)の縦軸はアンシャープ信号USの変化量の値であり、横軸は処理している画素位置である。
効果調整信号発生部72は、変化量検出部71で検出された変化量に応じて、出力を調整する。つまり、効果調整信号発生部72は、変化量が高いほど効果調整信号MODの信号レベル(値)を小さくするように出力する。たとえば、図8に示すように、検出された変化量が所定の値Tha以上得られたときに効果調整信号MODの信号レベルを変化させ、所定の値Thbまでの範囲で効果調整信号MODの信号レベルを減少させる。所定の値Thb以上は効果調整信号MODの信号レベルを変化させない。これにより、自然画像に通常含まれるエッジ成分には反応せず、急峻なエッジ領域が入力されたときに効果調整信号MODの信号レベルを変化させることができる。ここで、横軸は変化量、縦軸は効果調整信号MODの出力(信号レベル)である。なお、出力される効果調整信号MODの信号レベルの出力する範囲を「0.0」から「1.0」としたが、視覚処理の強度に応じて「0.2」から「1.0」などに調整するようにしてもよい。また、効果調整信号MODの信号レベルが大きいほど、視覚処理装置1での視覚処理の効果が強いものになるように、視覚処理装置1を構成する。
Further, in order to adjust the width of the edge peripheral area, it may be combined with a low-pass filter or a MAX filter.
For example, when the image signal IS shown in FIG. 14 (a) is input and an unsharp signal as shown in FIG. 14 (b) is obtained, the change amount detector 71 is shown in FIG. 14 (c). Thus, a large signal is output near the edge where the unsharp signal US changes. Here, the vertical axis of FIG. 14A is the value of the image signal IS, and the horizontal axis is the pixel position being processed. The vertical axis in FIG. 14B is the value of the unsharp signal US, and the horizontal axis is the pixel position being processed. The vertical axis of FIG. 14C is the value of the change amount of the unsharp signal US, and the horizontal axis is the pixel position being processed.
The effect adjustment signal generation unit 72 adjusts the output according to the change amount detected by the change amount detection unit 71. That is, the effect adjustment signal generator 72 outputs the effect adjustment signal MOD so that the signal level (value) of the effect adjustment signal MOD decreases as the change amount increases. For example, as shown in FIG. 8, the signal level of the effect adjustment signal MOD is changed within a range up to a predetermined value Thb by changing the signal level of the effect adjustment signal MOD when the detected amount of change is equal to or greater than a predetermined value Tha. Decrease level. Above the predetermined value Thb, the signal level of the effect adjustment signal MOD is not changed. Thereby, the signal level of the effect adjustment signal MOD can be changed when a steep edge region is input without reacting to the edge component normally included in the natural image. Here, the horizontal axis represents the amount of change, and the vertical axis represents the output (signal level) of the effect adjustment signal MOD. Note that the output range of the signal level of the output effect adjustment signal MOD is set to “0.0” to “1.0”, but “0.2” to “1.0” depending on the intensity of visual processing. You may make it adjust to. Further, the visual processing device 1 is configured such that the greater the signal level of the effect adjustment signal MOD, the stronger the visual processing effect in the visual processing device 1.

図14(d)に示すように、効果調整信号発生部72は、エッジ近傍の平坦領域EFでは、視覚効果を弱めるような出力を行い、エッジ近傍領域よりは離れた領域に対しては視覚効果を強めるような出力を生成している。この効果調整信号発生部72で生成された効果調整信号MODを用いることで、エッジ近傍の平坦領域EFでは、視覚効果を弱めるような処理を行い、エッジ近傍領域より離れた領域に対しては視覚効果を強める処理を行う視覚処理装置1を実現することができる。なお、図14(d)の縦軸は効果調整信号MODの値であり、横軸は処理している画素位置である。
以上のように、制御信号発生部70によれば、アンシャープ信号USの変化量から、エッジ近傍の平坦領域を検出でき、効果調整信号MODを生成できる。
なお、画像信号が縮小されているサムネイル画像などの縮小画像からエッジ近傍の平坦領域を検出し、エッジ近傍の平坦度合い、または、アンシャープ信号USの変化量にもとづいて効果調整信号MODを出力するようにしてもよい。
As shown in FIG. 14D, the effect adjustment signal generation unit 72 performs an output that weakens the visual effect in the flat region EF near the edge, and the visual effect is applied to a region far from the region near the edge. The output which strengthens is generated. By using the effect adjustment signal MOD generated by the effect adjustment signal generator 72, the flat area EF near the edge performs a process that weakens the visual effect, and the area far from the edge vicinity is visually It is possible to realize the visual processing device 1 that performs processing for enhancing the effect. Note that the vertical axis of FIG. 14D is the value of the effect adjustment signal MOD, and the horizontal axis is the pixel position being processed.
As described above, according to the control signal generator 70, the flat region near the edge can be detected from the amount of change in the unsharp signal US, and the effect adjustment signal MOD can be generated.
Note that a flat region near the edge is detected from a reduced image such as a thumbnail image in which the image signal is reduced, and an effect adjustment signal MOD is output based on the degree of flatness near the edge or the amount of change in the unsharp signal US. You may do it.

また、画像信号と制御信号発生部40との間に画像信号を縮小する縮小処理部(図示せず)を備え、縮小処理部で生成された縮小画像からエッジ近傍の平坦度合い、または、アンシャープ信号USの変化量にもとづいて効果調整信号MODを出力するようにしてもよい。
このように縮小画像を用いることにより、ノイズの影響を抑えながらエッジ近傍の平坦領域を検出できる。つまり、画像信号を平均した後で間引く縮小方法で生成された縮小画像は、ノイズ成分が低減されているので、縮小画像を用いることで、ノイズの影響を抑えながらエッジ近傍の平坦領域を検出することができる。また、縮小画像を用いれば、検出する画素数を削減でき、演算量を削減できる。
また、制御信号発生部40、制御信号発生部70の前にローパスフィルタなどを設置し、画像信号の帯域制限を行い、エッジ近傍の平坦領域を検出してもよい。これにより、ノイズ成分を低減でき、ノイズの影響を抑えながらエッジ近傍の平坦領域を検出できる。
Further, a reduction processing unit (not shown) for reducing the image signal is provided between the image signal and the control signal generation unit 40, and the flatness degree near the edge or unsharpness from the reduced image generated by the reduction processing unit. The effect adjustment signal MOD may be output based on the change amount of the signal US.
By using the reduced image in this way, it is possible to detect a flat region near the edge while suppressing the influence of noise. In other words, the reduced image generated by the reduction method that thins out after averaging the image signal has a reduced noise component, so that the reduced image is used to detect a flat region near the edge while suppressing the influence of noise. be able to. If a reduced image is used, the number of pixels to be detected can be reduced and the amount of calculation can be reduced.
In addition, a low-pass filter or the like may be installed in front of the control signal generation unit 40 and the control signal generation unit 70 to limit the band of the image signal and detect a flat region near the edge. Thereby, the noise component can be reduced, and a flat region near the edge can be detected while suppressing the influence of noise.

(実施の形態2)
本発明の実施の形態1では、効果調整信号MODに応じて画像信号ISと周辺画像情報(アンシャープ信号)USとの割合を変えて合成した合成信号MUSを出力し、視覚処理部30は効果調整部20からの合成信号MUSにしたがって画像信号ISを視覚処理した処理信号OSを出力するようにしたが、本発明の実施の形態2では、効果調整部21によって、視覚処理された処理信号OSと画像信号ISとを効果調整信号に応じて合成した処理信号OSを出力するようにした実施形態について、図9を用いて説明する。
図9は本発明の実施の形態2における視覚処理装置2の構成を示すブロック図である。以下、実施の形態1と同様の部分については、同一符号を付し、その詳細な説明は省略する。
(Embodiment 2)
In the first embodiment of the present invention, the composite signal MUS synthesized by changing the ratio of the image signal IS and the peripheral image information (unsharp signal) US according to the effect adjustment signal MOD is output, and the visual processing unit 30 is effective. Although the processing signal OS obtained by visually processing the image signal IS according to the composite signal MUS from the adjustment unit 20 is output, in the second embodiment of the present invention, the processing signal OS visually processed by the effect adjustment unit 21 is output. An embodiment in which a processing signal OS obtained by combining the image signal IS and the image signal IS according to the effect adjustment signal is output will be described with reference to FIG.
FIG. 9 is a block diagram showing a configuration of the visual processing device 2 according to Embodiment 2 of the present invention. Hereinafter, the same parts as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

図9において、視覚処理部30は、画像信号ISと空間処理部10の出力USとにもとづいて処理信号OSを出力する。
効果調整部21は、画像信号ISと処理信号OSとを、効果調整信号MODに応じて内分演算することで、視覚処理の効果を異ならせる(変更する)。たとえば、効果調整部21からの出力OUTは、以下の(式3)のように内分演算によって算出される。
OUT=OS×MOD+IS×(1.0−MOD) (式3)
なお、(式3)は、(式4)のように変形しても実現できる。
OUT=(OS−IS)×MOD+IS (式4)
以上のように、本発明の実施の形態2によれば、効果調整信号MODに応じて、処理信号OSと画像信号ISとの割合を変化させて合成した合成信号OUTを出力でき、視覚処理の効果を異ならせる(変更する)ことができる。
In FIG. 9, the visual processing unit 30 outputs a processing signal OS based on the image signal IS and the output US of the spatial processing unit 10.
The effect adjustment unit 21 performs an internal calculation on the image signal IS and the processing signal OS according to the effect adjustment signal MOD, thereby changing (changing) the effect of visual processing. For example, the output OUT from the effect adjustment unit 21 is calculated by internal division calculation as shown in the following (Equation 3).
OUT = OS × MOD + IS × (1.0−MOD) (Formula 3)
(Equation 3) can also be realized by modifying it as (Equation 4).
OUT = (OS−IS) × MOD + IS (Formula 4)
As described above, according to the second embodiment of the present invention, the synthesized signal OUT synthesized by changing the ratio of the processing signal OS and the image signal IS in accordance with the effect adjustment signal MOD can be output. The effect can be changed (changed).

なお、制御信号発生部40は、本発明の実施の形態1における制御信号発生部70に置き換えてもよい。これによっても、同様にエッジ近傍領域を検出でき、エッジ近傍での周辺情報の変化量に応じた効果調整信号MODを生成できる。
(実施の形態3)
本発明の実施の形態1では、効果調整信号MODに応じて画像信号ISと周辺画像情報USとの割合を変えて合成した合成信号MUSを出力し、視覚処理部30は効果調整部20からの合成信号MUSにしたがって画像信号を視覚処理した処理信号OSを出力するようにしたが、本発明の実施の形態3では、効果調整部22は、効果調整信号MODに応じて、視覚処理の効果の異なる視覚処理部31と視覚処理部32との出力の割合を変えて合成した処理信号OSを出力する実施形態について、図10を用いて説明する。
Note that the control signal generator 40 may be replaced with the control signal generator 70 in the first embodiment of the present invention. Also in this manner, the edge vicinity region can be detected in the same manner, and the effect adjustment signal MOD corresponding to the amount of change in the peripheral information in the vicinity of the edge can be generated.
(Embodiment 3)
In Embodiment 1 of the present invention, a composite signal MUS synthesized by changing the ratio of the image signal IS and the peripheral image information US according to the effect adjustment signal MOD is output, and the visual processing unit 30 receives the signal from the effect adjustment unit 20. Although the processing signal OS obtained by visually processing the image signal according to the composite signal MUS is output, in the third embodiment of the present invention, the effect adjustment unit 22 determines the effect of the visual processing according to the effect adjustment signal MOD. An embodiment for outputting the processed signal OS synthesized by changing the ratio of the outputs of the different visual processing units 31 and 32 will be described with reference to FIG.

図10は本発明の実施の形態3における視覚処理装置3の構成を示すブロック図である。以下、実施の形態1と同様の部分については、同一符号を付し、その詳細な説明は省略する。
効果調整部22は、制御信号発生部40から出力される効果調整信号MODに応じて、視覚処理の強度が異なる第1プロファイル60がLUTに設定された視覚処理部31の出力OSAと、第2プロファイル61がLUTに設定された視覚処理部32の出力OSBとを内分演算により合成し、処理信号OSを出力する。なお、外分演算によって合成出力を生成してもよい。このとき、処理信号OSは(式5)のようになる。
OUT=OSA×MOD+OSB×(1.0−MOD) (式5)
なお、(式5)は、(式6)のように変形しても実現できる。
FIG. 10 is a block diagram showing the configuration of the visual processing device 3 according to Embodiment 3 of the present invention. Hereinafter, the same parts as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.
The effect adjustment unit 22 outputs the output OSA of the visual processing unit 31 in which the first profile 60 having different visual processing intensity is set in the LUT according to the effect adjustment signal MOD output from the control signal generation unit 40, and the second OSA. The output OSB of the visual processing unit 32 in which the profile 61 is set to LUT is synthesized by internal division calculation, and the processing signal OS is output. Note that a composite output may be generated by external division calculation. At this time, the processing signal OS is as shown in (Equation 5).
OUT = OSA × MOD + OSB × (1.0−MOD) (Formula 5)
Note that (Equation 5) can also be realized by modifying it as (Equation 6).

OUT=(OSA−OSB)×MOD+OSB (式6)
以上のように、本発明の実施の形態3によれば、効果調整信号MODに応じて、視覚処理の効果の異なる視覚処理部31の出力と視覚処理部32の出力との割合を変えて合成した合成出力を得ることで、視覚効果の度合いを異ならせた視覚処理を行うことができる。
なお、制御信号発生部40は、本発明の実施の形態1における制御信号発生部70に置き換えてもよい。これによっても、同様にエッジ近傍領域を検出でき、エッジ近傍での周辺情報の変化量に応じた効果調整信号MODを生成できる。
(実施の形態4)
本発明の実施の形態1から本発明の実施の形態3までの視覚処理装置では、2次元階調変換特性にもとづく階調変換値を出力するようにしていたが、本発明の実施の形態4では、ゲイン信号を用いて階調変換を行う場合について、図11、図12を用いて説明する。
OUT = (OSA−OSB) × MOD + OSB (Formula 6)
As described above, according to the third embodiment of the present invention, synthesis is performed by changing the ratio of the output of the visual processing unit 31 and the output of the visual processing unit 32 having different visual processing effects according to the effect adjustment signal MOD. By obtaining the synthesized output, visual processing with different degrees of visual effect can be performed.
Note that the control signal generator 40 may be replaced with the control signal generator 70 in the first embodiment of the present invention. Also in this manner, the edge vicinity region can be detected in the same manner, and the effect adjustment signal MOD corresponding to the amount of change in the peripheral information in the vicinity of the edge can be generated.
(Embodiment 4)
In the visual processing devices according to the first to third embodiments of the present invention, gradation conversion values based on the two-dimensional gradation conversion characteristics are output, but the fourth embodiment of the present invention. Now, a case where gradation conversion is performed using a gain signal will be described with reference to FIGS.

図11は本発明の実施の形態4におけるゲイン型視覚処理システム4の構成を示すブロック図、図12は2次元ゲイン特性を説明するための説明図である。以下、実施の形態1と同様の部分については、同一符号を付し、その詳細な説明は省略する。
図11において、ゲイン型視覚処理システム4は、画像信号ISを視覚処理したゲイン信号GAINを出力するゲイン型視覚処理装置5と、ゲイン信号GAINと画像信号ISとを乗算する乗算器11とを備えている。
また、ゲイン型視覚処理装置5は、画像信号ISを視覚処理した処理信号OSを出力する視覚処理装置1と、処理信号OSを画像信号ISで除算する除算器12とを備えている。ここで、視覚処理装置1は、画像信号ISの出力を視覚処理した階調変換値を出力するもので、この階調変換値を画像信号ISで除算することで、ゲイン型視覚処理装置5を実現できる。
FIG. 11 is a block diagram showing the configuration of the gain-type visual processing system 4 according to Embodiment 4 of the present invention, and FIG. 12 is an explanatory diagram for explaining the two-dimensional gain characteristics. Hereinafter, the same parts as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.
In FIG. 11, the gain-type visual processing system 4 includes a gain-type visual processing device 5 that outputs a gain signal GAIN obtained by visually processing an image signal IS, and a multiplier 11 that multiplies the gain signal GAIN and the image signal IS. ing.
The gain-type visual processing device 5 includes a visual processing device 1 that outputs a processing signal OS obtained by visually processing the image signal IS, and a divider 12 that divides the processing signal OS by the image signal IS. Here, the visual processing device 1 outputs a gradation conversion value obtained by visually processing the output of the image signal IS, and the gain-type visual processing device 5 is obtained by dividing the gradation conversion value by the image signal IS. realizable.

乗算器11は、ゲイン型視覚処理装置5で出力されるゲイン信号GAINと画像信号ISとを乗算し、画像信号ISの出力を視覚処理した階調変換値を出力する。
なお、視覚処理部30において、図12に示す、2次元ゲイン特性を持つプロファイルを直接に用いて処理するようにしてもよい。ここで、図12の縦軸はゲイン出力GN、横軸は画像信号ISである。図12に示す2次元ゲイン特性は、図2に示す2次元階調特性のプロファイルの出力を画像信号ISで除算して得たものと等価である。この2次元ゲイン特性を持つプロファイルを視覚処理装置1の視覚処理部30のLUTに設定してもよい。このように、2次元ゲイン特性のプロファイルを視覚処理部30のLUTにあらかじめ設定すれば、ゲイン信号GNとゲイン信号GAINは等価となるため、除算器12を削除してもゲイン型視覚処理装置5を実現することができる。
The multiplier 11 multiplies the gain signal GAIN output from the gain-type visual processing device 5 and the image signal IS, and outputs a gradation conversion value obtained by visually processing the output of the image signal IS.
Note that the visual processing unit 30 may directly use a profile having a two-dimensional gain characteristic shown in FIG. Here, the vertical axis in FIG. 12 is the gain output GN, and the horizontal axis is the image signal IS. The two-dimensional gain characteristic shown in FIG. 12 is equivalent to the one obtained by dividing the output of the two-dimensional gradation characteristic profile shown in FIG. 2 by the image signal IS. The profile having the two-dimensional gain characteristic may be set in the LUT of the visual processing unit 30 of the visual processing device 1. As described above, if the profile of the two-dimensional gain characteristic is set in advance in the LUT of the visual processing unit 30, the gain signal GN and the gain signal GAIN are equivalent. Therefore, even if the divider 12 is deleted, the gain-type visual processing device 5 Can be realized.

ゲイン型視覚処理装置5では、入力された画像信号ISの変化に対して処理信号の変化が小さいため、入力信号のビット数を削減でき、回路規模を削減できる。また、視覚処理部30に2次元LUTが備えられた場合にはメモリ容量を削減できる。
以上のように、本発明の実施の形態4のゲイン型視覚処理システム4によれば、ゲイン信号GAINを制御することで、容易に階調の飽和を抑えることができ、優れた視覚処理を実現することができる。
なお、本発明の実施の形態1における視覚処理装置1は、本発明の実施の形態2における視覚処理装置2に置き換えてもよい。これによっても、同様にゲイン型視覚処理装置5を実現できる。
また、本発明の実施の形態1における視覚処理装置1は、本発明の実施の形態3における視覚処理装置3に置き換えてもよい。これによっても、同様にゲイン型視覚処理装置5を実現できる。
In the gain-type visual processing device 5, since the change in the processing signal is small with respect to the change in the input image signal IS, the number of bits of the input signal can be reduced and the circuit scale can be reduced. Further, when the visual processing unit 30 is provided with a two-dimensional LUT, the memory capacity can be reduced.
As described above, according to the gain-type visual processing system 4 of the fourth embodiment of the present invention, by controlling the gain signal GAIN, gradation saturation can be easily suppressed and excellent visual processing is realized. can do.
The visual processing device 1 according to the first embodiment of the present invention may be replaced with the visual processing device 2 according to the second embodiment of the present invention. Also by this, the gain-type visual processing device 5 can be similarly realized.
The visual processing device 1 according to the first embodiment of the present invention may be replaced with the visual processing device 3 according to the third embodiment of the present invention. Also by this, the gain-type visual processing device 5 can be similarly realized.

以上のように、本発明の実施の形態1から本発明の実施の形態4によれば、急峻なエッジ領域を有する画像が入力された場合であっても、副作用を抑えた視覚処理を実現することができる。
なお、上記実施形態で説明した視覚処理装置は、動画像を取り扱う機器に内蔵あるいは接続し、フレームごと、もしくはフィールドごとの画像から効果調整信号MODを生成するようにしてもよい。制御信号発生部40は、画像信号がフレーム画像のときにはひとつ(1フレーム)以上前のフレーム画像より、もしくは画像信号がフィールド画像のときにはひとつ(1フィールド)以上前のフィールド画像からエッジ情報や平坦度情報を抽出することができる。これにより、視覚処理装置は、フレームの先頭からエッジ情報や平坦度情報に応じた効果調整信号MODを使用することができる。また、視覚処理装置は、ひとつ前(1フィールド前)のフィールド画像からエッジ情報や平坦度情報を抽出でき、フィールド画像の先頭からエッジ情報や平坦度情報に応じた効果調整信号MODを使用することができる。また、制御信号発生部40は、ひとつ以上前(1フレーム前)のフレーム画像より、もしくはひとつ(1フィールド)以上前のフィールド画像からエッジ情報や平坦度情報を抽出することで、回路の遅延をあわせることが容易となり回路規模を削減できる。
As described above, according to the first to fourth embodiments of the present invention, even when an image having a steep edge region is input, visual processing with reduced side effects is realized. be able to.
Note that the visual processing device described in the above embodiment may be built in or connected to a device that handles moving images, and the effect adjustment signal MOD may be generated from an image for each frame or field. When the image signal is a frame image, the control signal generation unit 40 detects edge information and flatness from one (1 frame) or more previous frame image, or when the image signal is a field image, from one (1 field) or more previous field image. Information can be extracted. Thereby, the visual processing device can use the effect adjustment signal MOD corresponding to the edge information and the flatness information from the head of the frame. Further, the visual processing device can extract edge information and flatness information from the previous (one field previous) field image, and uses an effect adjustment signal MOD corresponding to the edge information and flatness information from the head of the field image. Can do. Further, the control signal generator 40 extracts the edge information and the flatness information from one or more previous (one frame) previous frame images or one (one field) or more previous field images, thereby reducing the circuit delay. It is easy to match, and the circuit scale can be reduced.

なお、本発明の実施の形態1から本発明の実施の形態4までの視覚処理装置または視覚処理システムにおける空間処理機能、効果調整機能、視覚処理機能などの各種機能は、集積回路などを用いたハードウェアにより実施してもよいし、中央処理装置(以下、「CPU」という)、デジタル信号処理装置などを用いて動作するソフトウェアにより実施してもよい。
まず、各種機能をハードウェアで実施する場合は、本発明の実施の形態での各機能を個別に集積回路としてもよいし、一部またはすべてを含むように1チップ化された集積回路としてもよい。
また、集積回路は、専用回路または汎用プロセッサーで実現してもよい。たとえば、半導体チップを製造した後、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、集積回路内部のセルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用してもよい。
In addition, various functions such as a spatial processing function, an effect adjustment function, and a visual processing function in the visual processing device or the visual processing system according to the first to fourth embodiments of the present invention are integrated circuits. It may be implemented by hardware, or may be implemented by software that operates using a central processing unit (hereinafter referred to as “CPU”), a digital signal processing unit, or the like.
First, when various functions are implemented by hardware, each function in the embodiment of the present invention may be individually integrated circuits, or may be an integrated circuit integrated into one chip so as to include a part or all of them. Good.
The integrated circuit may be realized by a dedicated circuit or a general-purpose processor. For example, an FPGA (Field Programmable Gate Array) that can be programmed after manufacturing a semiconductor chip, or a reconfigurable processor that can reconfigure the connection and setting of cells inside the integrated circuit may be used.

さらには、半導体技術の進歩または派生する別技術による集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。たとえば、バイオ技術の進歩により、バイオコンピュータの適用などが考えられる。
つぎに、各種機能をソフトウェアで実施する場合について、図15を用いて説明する。図15は、本発明の実施の形態におけるコンピュータの構成を示すブロック図である。
図15において、コンピュータ6は、各種プログラムの命令を実行するCPU100と、プログラムなどが格納されているリードオンリーメモリ101(以下、「ROM101」という)と、一時記憶のデータを格納するランダムアクセスメモリ102(以下、「RAM102」という)と、画像を入力する入力部103と、画像を出力する出力部104と、プログラムや各種データを記憶する記憶部105とを備えている。
Further, if integrated circuit technology comes out as a result of advances in semiconductor technology or other derived technology, it is naturally also possible to carry out function block integration using this technology. For example, biocomputers may be applied due to advances in biotechnology.
Next, a case where various functions are implemented by software will be described with reference to FIG. FIG. 15 is a block diagram showing a configuration of a computer according to the embodiment of the present invention.
In FIG. 15, a computer 6 includes a CPU 100 for executing instructions of various programs, a read-only memory 101 (hereinafter referred to as “ROM 101”) in which programs are stored, and a random access memory 102 in which data in temporary storage is stored. (Hereinafter referred to as “RAM 102”), an input unit 103 for inputting an image, an output unit 104 for outputting an image, and a storage unit 105 for storing programs and various data.

さらに、外部との通信を行う通信部106と、情報記憶媒体を適宜接続するドライブ107とを備えるようにしてもよい。
また、各機能部はバス110を経由して制御信号、データなどの送受信を行う。
CPU100は、ROM101に記憶されているプログラムにしたがって各種機能の処理を実行する。
ROM101は、プログラム、プロファイルなどを記憶する。
RAM102は、CPU100により各種機能の処理に必要なデータを一時記憶する。
入力部103は、画像を入力する。たとえば、電波を受信し、受信した受信信号を復号化することで映像信号を取得する。また、直接に有線を経由してデジタル画像を取得するようにしてもよい。
Furthermore, a communication unit 106 that performs communication with the outside and a drive 107 that appropriately connects an information storage medium may be provided.
Each functional unit transmits and receives control signals and data via the bus 110.
The CPU 100 executes various functions according to programs stored in the ROM 101.
The ROM 101 stores programs, profiles, and the like.
The RAM 102 temporarily stores data necessary for processing of various functions by the CPU 100.
The input unit 103 inputs an image. For example, a video signal is acquired by receiving a radio wave and decoding the received signal. Further, a digital image may be acquired directly via a wire.

出力部104は、画像を出力する。たとえば、液晶表示装置やプラズマディスプレイなどの表示装置に出力する。
記憶部105は、磁気メモリなどで構成され、種々のプログラム、データを記憶する。
通信部106は、ネットワーク111に接続され、ネットワーク111を経由してプログラムを取得、または必要に応じて記憶部105に取得したプログラムをインストールするようにしてもよい。これにより、コンピュータ6は、通信部106によりプログラムのダウンロードが可能となる。
ドライブ107は、情報記憶媒体を適宜接続し、情報記憶媒体に記憶されている記憶情報を取得する。情報記憶媒体は、たとえば、磁気ディスク、光磁気ディスク、光ディスクなどのディスク108、または半導体メモリなどのメモリカード109などである。
The output unit 104 outputs an image. For example, the data is output to a display device such as a liquid crystal display device or a plasma display.
The storage unit 105 is configured with a magnetic memory or the like, and stores various programs and data.
The communication unit 106 may be connected to the network 111 and acquire the program via the network 111 or install the acquired program in the storage unit 105 as necessary. As a result, the computer 6 can download the program through the communication unit 106.
The drive 107 connects an information storage medium as appropriate, and acquires storage information stored in the information storage medium. The information storage medium is, for example, a disk 108 such as a magnetic disk, a magneto-optical disk, or an optical disk, or a memory card 109 such as a semiconductor memory.

なお、ディスク108、または半導体メモリなどのメモリカード109などに各種機能を実行するためのプログラム、プロファイルなどを記憶し、コンピュータ6に、その情報を与えるようにしてもよい。
また、プログラムは、あらかじめコンピュータに専用のハードウェアで組み込んでもよいし、ROM101、記憶部105にあらかじめ組み込んで提供してもよい。
また、プログラムは、情報処理装置、テレビ、デジタルカメラ、携帯電話、PDAなどの画像を取り扱う機器に適用できる。プログラムは、画像を取り扱う機器に内蔵、あるいは接続され、エッジ近傍における平坦領域に対して副作用を抑えた視覚処理を実行する。
なお、視覚処理装置は、動画像を取り扱う機器に内蔵あるいは接続し、フレームごと、もしくはフィールドごとの画像から効果調整信号MODを生成するようにしてもよい。制御信号発生部40は、画像信号がフレーム画像のときにはひとつ以上前のフレーム画像より、もしくは画像信号がフィールド画像のときにはひとつ以上前のフィールド画像からエッジ情報や平坦度情報を抽出することができる。これにより、視覚処理装置は、フレームの先頭からエッジ情報や平坦度情報に応じた効果調整信号MODを使用することができる。また、視覚処理装置1は、ひとつ前のフィールド画像からエッジ情報や平坦度情報を抽出でき、フィールド画像の先頭からエッジ情報や平坦度情報に応じた効果調整信号MODを使用することができる。また、制御信号発生部40は、ひとつ以上前のフレーム画像より、もしくはひとつ以上前のフィールド画像からエッジ情報や平坦度情報を抽出することで、回路の遅延をあわせることが容易となり回路規模を削減できる。
A program for executing various functions, a profile, or the like may be stored in the disk 108 or a memory card 109 such as a semiconductor memory, and the information may be given to the computer 6.
The program may be incorporated in advance in a computer with dedicated hardware, or provided in advance in the ROM 101 and the storage unit 105.
The program can be applied to devices that handle images, such as information processing apparatuses, televisions, digital cameras, mobile phones, and PDAs. The program is incorporated in or connected to a device that handles images, and executes visual processing with reduced side effects on a flat region near the edge.
The visual processing device may be built in or connected to a device that handles moving images, and may generate the effect adjustment signal MOD from the image for each frame or field. The control signal generator 40 can extract edge information and flatness information from one or more previous frame images when the image signal is a frame image, or from one or more previous field images when the image signal is a field image. Thereby, the visual processing device can use the effect adjustment signal MOD corresponding to the edge information and the flatness information from the head of the frame. The visual processing device 1 can extract edge information and flatness information from the previous field image, and can use the effect adjustment signal MOD corresponding to the edge information and flatness information from the head of the field image. In addition, the control signal generation unit 40 extracts the edge information and the flatness information from one or more previous frame images or one or more previous field images, thereby easily adjusting the circuit delay and reducing the circuit scale. it can.

(実施の形態5)
次に、実施の形態5として、上記実施形態で説明した視覚処理装置の応用例とそれを用いたシステムを図16〜図19を用いて説明する。
図16は、コンテンツ配信サービスを実現するコンテンツ供給システムex100の全体構成を示すブロック図である。通信サービスの提供エリアを所望の大きさに分割し、各セル内にそれぞれ固定無線局である基地局ex107〜ex110が設置されている。
このコンテンツ供給システムex100は、例えば、インターネットex101にインターネットサービスプロバイダex102および電話網ex104、および基地局ex107〜ex110を介して、コンピュータex111、PDA(Personal Digital Assistant)ex112、カメラex113、携帯電話ex114、カメラ付きの携帯電話ex115などの各機器が接続される。
(Embodiment 5)
Next, as a fifth embodiment, an application example of the visual processing device described in the above embodiment and a system using the same will be described with reference to FIGS.
FIG. 16 is a block diagram showing an overall configuration of a content supply system ex100 that implements a content distribution service. The communication service providing area is divided into desired sizes, and base stations ex107 to ex110, which are fixed wireless stations, are installed in each cell.
This content supply system ex100 includes, for example, a computer ex111, a PDA (Personal Digital Assistant) ex112, a camera ex113, a mobile phone ex114, a camera via the Internet ex101, the Internet service provider ex102, the telephone network ex104, and the base stations ex107 to ex110. Each device such as the attached mobile phone ex115 is connected.

しかし、コンテンツ供給システムex100は図16のような組み合わせに限定されず、いずれかを組み合わせて接続するようにしてもよい。また、固定無線局である基地局ex107〜ex110を介さずに、各機器が電話網ex104に直接接続されてもよい。
カメラex113はデジタルビデオカメラなどの動画撮影が可能な機器である。また、携帯電話は、PDC(Personal Digital Communications)方式、CDMA(Code Division Multiple Access)方式、W−CDMA(Wideband−Code Division Multiple Access)方式、もしくはGSM(Global System for Mobile Communications)方式の携帯電話機、またはPHS(Personal Handyphone System)などであり、いずれでも構わない。
However, the content supply system ex100 is not limited to the combination as shown in FIG. 16, and any of the combinations may be connected. Also, each device may be directly connected to the telephone network ex104 without going through the base stations ex107 to ex110 which are fixed wireless stations.
The camera ex113 is a device capable of shooting a moving image such as a digital video camera. In addition, the mobile phone may be a PDC (Personal Digital Communications) system, a CDMA (Code Division Multiple Access) system, a W-CDMA (Wideband-Code Division Multiple Access) system, or a GSM (Global Mobile System). Alternatively, PHS (Personal Handyphone System) may be used.

また、ストリーミングサーバex103は、カメラex113から基地局ex109、電話網ex104を通じて接続されており、カメラex113を用いてユーザが送信する符号化処理されたデータに基づいたライブ配信などが可能になる。撮影したデータの符号化処理はカメラex113で行っても、データの送信処理をするサーバなどで行ってもよい。また、カメラex116で撮影した動画データはコンピュータex111を介してストリーミングサーバex103に送信されてもよい。カメラex116はデジタルカメラなどの静止画、動画が撮影可能な機器である。この場合、動画データの符号化はカメラex116で行ってもコンピュータex111で行ってもどちらでもよい。また、符号化処理はコンピュータex111やカメラex116が有するLSIex117において処理することになる。なお、画像符号化・復号化用のソフトウェアをコンピュータex111などで読み取り可能な記録媒体である何らかの蓄積メディア(CD−ROM、フレキシブルディスク、ハードディスクなど)に組み込んでもよい。さらに、カメラ付きの携帯電話ex115で動画データを送信してもよい。このときの動画データは携帯電話ex115が有するLSIで符号化処理されたデータである。   Further, the streaming server ex103 is connected from the camera ex113 through the base station ex109 and the telephone network ex104, and live distribution based on the encoded data transmitted by the user using the camera ex113 becomes possible. The encoded processing of the captured data may be performed by the camera ex113 or may be performed by a server or the like that performs data transmission processing. The moving image data shot by the camera ex116 may be transmitted to the streaming server ex103 via the computer ex111. The camera ex116 is a device such as a digital camera that can shoot still images and moving images. In this case, the moving image data may be encoded by the camera ex116 or the computer ex111. The encoding process is performed in the LSI ex117 included in the computer ex111 and the camera ex116. Note that image encoding / decoding software may be incorporated into any storage medium (CD-ROM, flexible disk, hard disk, or the like) that is a recording medium readable by the computer ex111 or the like. Furthermore, you may transmit moving image data with the mobile phone ex115 with a camera. The moving image data at this time is data encoded by the LSI included in the mobile phone ex115.

このコンテンツ供給システムex100では、ユーザがカメラex113、カメラex116などで撮影しているコンテンツ(例えば、音楽ライブを撮影した映像など)を符号化処理してストリーミングサーバex103に送信する一方で、ストリーミングサーバex103は要求のあったクライアントに対して上記コンテンツデータをストリーム配信する。クライアントとしては、符号化処理されたデータを復号化することが可能な、コンピュータex111、PDAex112、カメラex113、携帯電話ex114などがある。このようにすることでコンテンツ供給システムex100は、符号化されたデータをクライアントにおいて受信して再生することができ、さらにクライアントにおいてリアルタイムで受信して復号化し、再生することにより、個人放送をも実現可能になるシステムである。   In the content supply system ex100, the content (for example, video shot of music live) captured by the user with the camera ex113, the camera ex116, and the like is encoded and transmitted to the streaming server ex103, while the streaming server ex103. Distributes the content data to the requested client. Examples of the client include a computer ex111, a PDA ex112, a camera ex113, and a mobile phone ex114 that can decode the encoded data. In this way, the content supply system ex100 can receive and play back the encoded data at the client, and can also receive a private broadcast by receiving, decoding, and playing back at the client in real time. It is a system that becomes possible.

コンテンツの表示に際して、上記実施形態で説明した視覚処理装置を用いてもよい。例えば、コンピュータex111、PDAex112、カメラex113、携帯電話ex114などは、上記実施形態で示した視覚処理装置を備え、視覚処理方法、視覚処理プログラムを実現するものであってもよい。
また、ストリーミングサーバex103は、視覚処理装置に対して、インターネットex101を介して2次元ゲインデータ(プロファイル)を提供するものであってもよい。さらに、ストリーミングサーバex103は複数台存在し、それぞれ異なる2次元ゲインデータを提供するものであってもよい。さらに、ストリーミングサーバex103は2次元ゲインデータの作成を行うものであってもよい。このように、インターネットex101を介して、視覚処理装置が2次元ゲインデータを取得できる場合、視覚処理装置は予め視覚処理に用いる2次元ゲインデータを記憶しておく必要がなく、視覚処理装置の記憶容量を削減することも可能となる。また、インターネットex101介して接続される複数のサーバから2次元ゲインデータを取得できるため、異なる視覚処理を実現することが可能となる。
When displaying content, the visual processing device described in the embodiment may be used. For example, the computer ex111, the PDA ex112, the camera ex113, the mobile phone ex114, and the like may be provided with the visual processing device described in the above-described embodiment, and realize a visual processing method and a visual processing program.
The streaming server ex103 may provide the two-dimensional gain data (profile) to the visual processing device via the Internet ex101. Furthermore, there may be a plurality of streaming servers ex103 that provide different two-dimensional gain data. Furthermore, the streaming server ex103 may create two-dimensional gain data. As described above, when the visual processing device can acquire the two-dimensional gain data via the Internet ex101, the visual processing device does not need to store the two-dimensional gain data used for the visual processing in advance, and stores the visual processing device. It is also possible to reduce the capacity. Further, since two-dimensional gain data can be acquired from a plurality of servers connected via the Internet ex101, different visual processing can be realized.

一例として携帯電話について説明する。
図17は、上記実施形態の視覚処理装置1を備えた携帯電話ex115を示す図である。携帯電話ex115は、基地局ex110との間で電波を送受信するためのアンテナex201、CCDカメラなどの映像、静止画を撮ることが可能なカメラ部ex203、カメラ部ex203で撮影した映像、アンテナex201で受信した映像などが復号化されたデータを表示する液晶ディスプレイなどの表示部ex202、操作キーex204群から構成される本体部、音声出力をするためのスピーカなどの音声出力部ex208、音声入力をするためのマイクなどの音声入力部ex205、撮影した動画もしくは静止画のデータ、受信したメールのデータ、動画のデータもしくは静止画のデータなど、符号化されたデータまたは復号化されたデータを保存するための記録メディアex207、携帯電話ex115に記録メディアex207を装着可能とするためのスロット部ex206を有している。記録メディアex207はSDカードなどのプラスチックケース内に電気的に書き換えや消去が可能な不揮発性メモリであるEEPROM(Electrically Erasable and Programmable Read Only Memory)の一種であるフラッシュメモリ素子を格納したものである。
A mobile phone will be described as an example.
FIG. 17 is a diagram illustrating a mobile phone ex115 including the visual processing device 1 according to the embodiment. The mobile phone ex115 includes an antenna ex201 for transmitting and receiving radio waves to and from the base station ex110, a video from a CCD camera, a camera unit ex203 capable of taking a still image, a video shot by the camera unit ex203, and an antenna ex201. A display unit ex202 such as a liquid crystal display for displaying data obtained by decoding received video and the like, a main body unit composed of a group of operation keys ex204, an audio output unit ex208 such as a speaker for audio output, and audio input To store encoded data or decoded data such as a voice input unit ex205 such as a microphone, captured video or still image data, received mail data, video data or still image data, etc. Recording media ex207, mobile phone ex115 recording media ex And a slot portion ex206 that enables mounting 07. The recording medium ex207 stores a flash memory element, which is a kind of EEPROM (Electrically Erasable and Programmable Read Only Memory), which is a nonvolatile memory that can be electrically rewritten and erased, in a plastic case such as an SD card.

さらに、携帯電話ex115について図18を用いて説明する。携帯電話ex115は表示部ex202および操作キーex204を備えた本体部の各部を統括的に制御するようになされた主制御部ex311に対して、電源回路部ex310、操作入力制御部ex304、画像符号化部ex312、カメラインターフェース部ex303、LCD(Liquid Crystal Display)制御部ex302、画像復号化部ex309、多重分離部ex308、記録再生部ex307、変復調回路部ex306および音声処理部ex305が同期バスex313を介して互いに接続されている。
電源回路部ex310は、ユーザの操作により終話および電源キーがオン状態にされると、バッテリパックから各部に対して電力を供給することによりカメラ付デジタル携帯電話ex115を動作可能な状態に起動する。
Further, the cellular phone ex115 will be described with reference to FIG. The mobile phone ex115 controls the main control unit ex311 which controls the respective units of the main body unit including the display unit ex202 and the operation key ex204. The power supply circuit unit ex310, the operation input control unit ex304, and the image encoding Unit ex312, camera interface unit ex303, LCD (Liquid Crystal Display) control unit ex302, image decoding unit ex309, demultiplexing unit ex308, recording / playback unit ex307, modulation / demodulation circuit unit ex306, and audio processing unit ex305 via a synchronization bus ex313 Are connected to each other.
When the end of call and the power key are turned on by a user operation, the power supply circuit ex310 activates the camera-equipped digital mobile phone ex115 by supplying power from the battery pack to each unit. .

携帯電話ex115は、CPU、ROM、RAMなどでなる主制御部ex311の制御に基づいて、音声通話モード時に音声入力部ex205で集音した音声信号を音声処理部ex305によってディジタル音声データに変換し、これを変復調回路部ex306でスペクトラム拡散処理し、送受信回路部ex301でディジタルアナログ変換処理および周波数変換処理を施した後にアンテナex201を介して送信する。また携帯電話ex115は、音声通話モード時にアンテナex201で受信した受信信号を増幅して周波数変換処理およびアナログディジタル変換処理を施し、変復調回路部ex306でスペクトラム逆拡散処理し、音声処理部ex305によってアナログ音声信号に変換した後、これを音声出力部ex208を介して出力する。
さらに、データ通信モード時に電子メールを送信する場合、本体部の操作キーex204の操作によって入力された電子メールのテキストデータは操作入力制御部ex304を介して主制御部ex311に送出される。主制御部ex311は、テキストデータを変復調回路部ex306でスペクトラム拡散処理し、送受信回路部ex301でディジタルアナログ変換処理および周波数変換処理を施した後にアンテナex201を介して基地局ex110へ送信する。
The mobile phone ex115 converts the voice signal collected by the voice input unit ex205 in the voice call mode into digital voice data by the voice processing unit ex305 based on the control of the main control unit ex311 including a CPU, ROM, RAM, and the like. The modulation / demodulation circuit unit ex306 performs spread spectrum processing, the transmission / reception circuit unit ex301 performs digital analog conversion processing and frequency conversion processing, and then transmits the result via the antenna ex201. In addition, the cellular phone ex115 amplifies the received signal received by the antenna ex201 in the voice call mode, performs frequency conversion processing and analog-digital conversion processing, performs spectrum despreading processing by the modulation / demodulation circuit unit ex306, and analog audio by the voice processing unit ex305. After conversion into a signal, this is output via the audio output unit ex208.
Further, when an e-mail is transmitted in the data communication mode, text data of the e-mail input by operating the operation key ex204 of the main body is sent to the main control unit ex311 via the operation input control unit ex304. The main control unit ex311 performs spread spectrum processing on the text data in the modulation / demodulation circuit unit ex306, performs digital analog conversion processing and frequency conversion processing in the transmission / reception circuit unit ex301, and then transmits the text data to the base station ex110 via the antenna ex201.

データ通信モード時に画像データを送信する場合、カメラ部ex203で撮像された画像データをカメラインターフェース部ex303を介して画像符号化部ex312に供給する。また、画像データを送信しない場合には、カメラ部ex203で撮像した画像データをカメラインターフェース部ex303およびLCD制御部ex302を介して表示部ex202に直接表示することも可能である。
画像符号化部ex312は、カメラ部ex203から供給された画像データを圧縮符号化することにより符号化画像データに変換し、これを多重分離部ex308に送出する。また、このとき同時に携帯電話ex115は、カメラ部ex203で撮像中に音声入力部ex205で集音した音声を音声処理部ex305を介してディジタルの音声データとして多重分離部ex308に送出する。
When transmitting image data in the data communication mode, the image data captured by the camera unit ex203 is supplied to the image encoding unit ex312 via the camera interface unit ex303. When image data is not transmitted, the image data captured by the camera unit ex203 can be directly displayed on the display unit ex202 via the camera interface unit ex303 and the LCD control unit ex302.
The image encoding unit ex312 converts the image data supplied from the camera unit ex203 into encoded image data by compression encoding, and sends the encoded image data to the demultiplexing unit ex308. At the same time, the cellular phone ex115 sends the sound collected by the audio input unit ex205 during imaging by the camera unit ex203 to the demultiplexing unit ex308 as digital audio data via the audio processing unit ex305.

多重分離部ex308は、画像符号化部ex312から供給された符号化画像データと音声処理部ex305から供給された音声データとを所定の方式で多重化し、その結果得られる多重化データを変復調回路部ex306でスペクトラム拡散処理し、送受信回路部ex301でディジタルアナログ変換処理および周波数変換処理を施した後にアンテナex201を介して送信する。
データ通信モード時にホームページなどにリンクされた動画像ファイルのデータを受信する場合、アンテナex201を介して基地局ex110から受信した受信信号を変復調回路部ex306でスペクトラム逆拡散処理し、その結果得られる多重化データを多重分離部ex308に送出する。
また、アンテナex201を介して受信された多重化データを復号化するには、多重分離部ex308は、多重化データを分離することにより画像データの符号化ビットストリームと音声データの符号化ビットストリームとに分け、同期バスex313を介して当該符号化画像データを画像復号化部ex309に供給するとともに当該音声データを音声処理部ex305に供給する。
The demultiplexing unit ex308 multiplexes the encoded image data supplied from the image encoding unit ex312 and the audio data supplied from the audio processing unit ex305 by a predetermined method, and the resulting multiplexed data is a modulation / demodulation circuit unit Spread spectrum processing is performed in ex306, digital analog conversion processing and frequency conversion processing are performed in the transmission / reception circuit unit ex301, and then transmitted through the antenna ex201.
When data of a moving image file linked to a home page or the like is received in the data communication mode, the received signal received from the base station ex110 via the antenna ex201 is subjected to spectrum despreading processing by the modulation / demodulation circuit unit ex306, and the resulting multiplexing is obtained. Data is sent to the demultiplexing unit ex308.
In addition, in order to decode the multiplexed data received via the antenna ex201, the demultiplexing unit ex308 separates the multiplexed data to generate an encoded bitstream of image data and an encoded bitstream of audio data. The encoded image data is supplied to the image decoding unit ex309 via the synchronization bus ex313, and the audio data is supplied to the audio processing unit ex305.

次に、画像復号化部ex309は、画像データの符号化ビットストリームを復号化することにより再生動画像データを生成し、これをLCD制御部ex302を介して表示部ex202に供給し、これにより、例えばホームページにリンクされた動画像ファイルに含まれる動画データが表示される。このとき同時に音声処理部ex305は、音声データをアナログ音声信号に変換した後、これを音声出力部ex208に供給し、これにより、例えばホームページにリンクされた動画像ファイルに含まる音声データが再生される。
以上の構成において、画像復号化部ex309は、上記実施形態の視覚処理装置を備えていてもよい。
なお、上記システムの例に限らず、最近は衛星、地上波によるディジタル放送が話題となっており、図19に示すようにディジタル放送用システムにも上記実施形態で説明した視覚処理装置を組み込むことができる。具体的には、放送局ex409では映像情報の符号化ビットストリームが電波を介して通信または放送衛星ex410に伝送される。これを受けた放送衛星ex410は、放送用の電波を発信し、この電波を衛星放送受信設備を持つ家庭のアンテナex406で受信し、テレビ(受信機)ex401またはセットトップボックス(STB)ex407などの装置により符号化ビットストリームを復号化してこれを再生する。ここで、テレビ(受信機)ex401またはSTBex407などの装置が上記実施形態で説明した視覚処理装置を備えていてもよい。また、上記実施形態の視覚処理方法を用いるものであってもよい。さらに、視覚処理プログラムを備えていてもよい。また、記録媒体であるCDやDVDなどの蓄積メディアex402に記録した符号化ビットストリームを読み取り、復号化する再生装置ex403にも上記実施形態で説明した視覚処理装置、視覚処理方法、視覚処理プログラムを実装することが可能である。この場合、再生された映像信号はモニタex404に表示される。また、ケーブルテレビ用のケーブルex405または衛星/地上波放送のアンテナex406に接続されたSTBex407内に上記実施形態で説明した視覚処理装置、視覚処理方法、視覚処理プログラムを実装し、これをテレビのモニタex408で再生する構成も考えられる。このときSTBではなく、テレビ内に上記実施形態で説明した視覚処理装置を組み込んでもよい。また、アンテナex411を有する車ex412で衛星ex410からまたは基地局ex107などから信号を受信し、車ex412が有するカーナビゲーションex413などの表示装置に動画を再生することも可能である。
Next, the image decoding unit ex309 generates reproduction moving image data by decoding the encoded bit stream of the image data, and supplies this to the display unit ex202 via the LCD control unit ex302, thereby For example, moving image data included in a moving image file linked to a home page is displayed. At the same time, the audio processing unit ex305 converts the audio data into an analog audio signal and then supplies the analog audio signal to the audio output unit ex208. Thus, for example, the audio data included in the moving image file linked to the home page is reproduced. The
In the above configuration, the image decoding unit ex309 may include the visual processing device of the above embodiment.
In addition, the present invention is not limited to the above system, and recently, digital broadcasting by satellite and terrestrial has become a hot topic. As shown in FIG. 19, the visual processing device described in the above embodiment is also incorporated in the digital broadcasting system. Can do. Specifically, in the broadcasting station ex409, a coded bit stream of video information is transmitted to a communication or broadcasting satellite ex410 via radio waves. Receiving this, the broadcasting satellite ex410 transmits a radio wave for broadcasting, and receives the radio wave with a home antenna ex406 having a satellite broadcasting receiving facility, such as a television (receiver) ex401 or a set top box (STB) ex407. The device decodes the encoded bit stream and reproduces it. Here, a device such as the television (receiver) ex401 or STBex407 may include the visual processing device described in the above embodiment. Moreover, you may use the visual processing method of the said embodiment. Furthermore, a visual processing program may be provided. In addition, the visual processing device, the visual processing method, and the visual processing program described in the above embodiment are also applied to a playback device ex403 that reads and decodes an encoded bitstream recorded on a storage medium ex402 such as a CD or DVD that is a recording medium. It is possible to implement. In this case, the reproduced video signal is displayed on the monitor ex404. In addition, the visual processing device, the visual processing method, and the visual processing program described in the above embodiment are installed in the STBex 407 connected to the cable ex405 for cable television or the antenna ex406 for satellite / terrestrial broadcasting. A configuration of reproducing with ex408 is also conceivable. At this time, the visual processing device described in the above embodiment may be incorporated in the television instead of the STB. It is also possible to receive a signal from the satellite ex410 or the base station ex107 by the car ex412 having the antenna ex411 and reproduce a moving image on a display device such as the car navigation ex413 that the car ex412 has.

さらに、画像信号を符号化し、記録媒体に記録することもできる。具体例としては、DVDディスクex421に画像信号を記録するDVDレコーダや、ハードディスクに記録するディスクレコーダなどのレコーダex420がある。さらにSDカードex422に記録することもできる。レコーダex420が上記実施形態の視覚処理装置を備えていれば、DVDディスクex421やSDカードex422に記録した画像信号を補間して再生し、モニタex408に表示することができる。
なお、カーナビゲーションex413の構成は、例えば図18に示す構成のうち、カメラ部ex203とカメラインターフェース部ex303、画像符号化部ex312を除いた構成が考えられ、同様なことがコンピュータex111やテレビ(受信機)ex401などでも考えられる。
Furthermore, an image signal can be encoded and recorded on a recording medium. Specific examples include a recorder ex420 such as a DVD recorder that records image signals on a DVD disk ex421 and a disk recorder that records images on a hard disk. Further, it can be recorded on the SD card ex422. If the recorder ex420 includes the visual processing device of the above embodiment, the image signal recorded on the DVD disc ex421 or the SD card ex422 can be interpolated and reproduced and displayed on the monitor ex408.
The configuration of the car navigation ex413 may be a configuration excluding the camera unit ex203, the camera interface unit ex303, and the image encoding unit ex312 in the configuration illustrated in FIG. 18, for example, and the same applies to the computer ex111 and the television (reception) Machine) Ex401 can also be considered.

また、上記携帯電話ex114などの装置は、符号化器・復号化器を両方持つ送受信型の装置の他に、符号化器のみの送信装置、復号化器のみの受信装置の3通りの実装形式が考えられる。
なお、本発明の具体的な構成は、前述の実施形態に限られるものではなく、発明の要旨を逸脱しない範囲で種々の変更および修正が可能である。
In addition to the transmission / reception type device having both the encoder and the decoder, the mobile phone ex114 and the like are mounted in three mounting formats: a transmitter only with an encoder and a receiver only with a decoder. Can be considered.
The specific configuration of the present invention is not limited to the above-described embodiment, and various changes and modifications can be made without departing from the scope of the invention.

本発明に係る視覚処理装置、視覚処理方法、プログラム、記録媒体、表示装置および集積回路によれば、画像信号を視覚処理することができ、特に、急峻なエッジ領域を有する画像が入力された場合であっても、副作用を抑制することができるので、映像・画像処理装置関連分野において有用であり、本発明に係る視覚処理装置、視覚処理方法、プログラム、記録媒体、表示装置および集積回路は、当該分野において実施することができる。   According to the visual processing device, the visual processing method, the program, the recording medium, the display device, and the integrated circuit according to the present invention, the image signal can be visually processed, particularly when an image having a steep edge region is input. Even so, since side effects can be suppressed, it is useful in the field of video / image processing devices, and the visual processing device, visual processing method, program, recording medium, display device and integrated circuit according to the present invention are: It can be implemented in the field.

本発明の実施の形態1の視覚処理装置の構成を示すブロック図The block diagram which shows the structure of the visual processing apparatus of Embodiment 1 of this invention. 同2次元階調特性を説明する説明図Explanatory drawing explaining the same two-dimensional gradation characteristics 同処理信号OSの出力を説明する説明図Explanatory drawing explaining the output of the processing signal OS 同制御信号発生部の構成を示すブロック図Block diagram showing the configuration of the control signal generator 同効果調整信号の出力を説明する説明図Explanatory drawing explaining the output of the same effect adjustment signal 同視覚処理装置の動作を説明するフローチャートFlow chart for explaining the operation of the visual processing device 同変形例の制御信号発生部の構成を示すブロック図The block diagram which shows the structure of the control signal generation part of the modification 同変形例の効果調整信号を説明する説明図Explanatory drawing explaining the effect adjustment signal of the modification 本発明の実施の形態2における視覚処理装置の構成を示すブロック図The block diagram which shows the structure of the visual processing apparatus in Embodiment 2 of this invention. 本発明の実施の形態3における視覚処理装置の構成を示すブロック図The block diagram which shows the structure of the visual processing apparatus in Embodiment 3 of this invention. 本発明の実施の形態4における視覚処理システムの構成を示すブロック図The block diagram which shows the structure of the visual processing system in Embodiment 4 of this invention. 同2次元ゲイン特性を説明する説明図Explanatory drawing explaining the same two-dimensional gain characteristic 本発明の実施の形態1における視覚処理装置の効果調整信号の出力を説明する説明図Explanatory drawing explaining the output of the effect adjustment signal of the visual processing apparatus in Embodiment 1 of this invention 本発明の実施の形態1における視覚処理装置の効果調整信号の出力を説明する説明図Explanatory drawing explaining the output of the effect adjustment signal of the visual processing apparatus in Embodiment 1 of this invention 本発明の実施の形態におけるコンピュータの構成を示すブロック図The block diagram which shows the structure of the computer in embodiment of this invention 本発明の実施形態5におけるコンテンツ供給システムの全体構成図Overall configuration diagram of a content supply system in Embodiment 5 of the present invention 同実施形態における視覚処理装置を搭載する携帯電話の正面図Front view of a mobile phone equipped with the visual processing device according to the embodiment 同実施形態における携帯電話の全体構成について説明するブロック図A block diagram for explaining the overall configuration of the mobile phone according to the embodiment 同実施形態におけるディジタル放送用システムの全体構成についての説明図Explanatory drawing about the whole structure of the system for digital broadcasting in the same embodiment

符号の説明Explanation of symbols

1,2,3 視覚処理装置
4 ゲイン型視覚処理システム
5 ゲイン型視覚処理装置
10 空間処理部
11 乗算器
12 除算器
20,21,22 効果調整部
30,31,32 視覚処理部
40,70 制御信号発生部
41 エッジ検出部
42 エッジ近傍検出部
43 平坦検出部
44,72 効果調整信号発生部
60 プロファイルA
61 プロファイルB
71 変化量検出部
100 CPU
101 ROM
102 RAM
103 入力部
104 出力部
105 記憶部
106 通信部
107 ドライブ
108 ディスク
109 メモリカード
110 バス
111 ネットワーク
1, 2, 3 Visual processing device 4 Gain-type visual processing system 5 Gain-type visual processing device 10 Spatial processing unit 11 Multiplier 12 Divider 20, 21, 22, Effect adjustment unit 30, 31, 32 Visual processing unit 40, 70 Control Signal generator 41 Edge detector 42 Edge vicinity detector 43 Flatness detector 44, 72 Effect adjustment signal generator 60 Profile A
61 Profile B
71 Change amount detection unit 100 CPU
101 ROM
102 RAM
DESCRIPTION OF SYMBOLS 103 Input part 104 Output part 105 Storage part 106 Communication part 107 Drive 108 Disk 109 Memory card 110 Bus 111 Network

Claims (11)

入力された画像信号と周辺画素との画素値から導出される、周辺画像情報を出力する空間処理部と、
前記画像信号と前記周辺画像情報とにもとづいて前記画像信号に対して視覚処理を行う視覚処理部と、
前記視覚処理の効果を設定するための効果調整信号を出力する制御信号発生部と、
前記効果調整信号に応じて前記視覚処理の効果を設定する効果調整部と、
を備え、
前記視覚処理部は、前記画像信号と前記周辺画像情報とにもとづいて前記画像信号に対して局所コントラストを調整する視覚処理を行い、
前記制御信号発生部は、前記画像信号により形成される画像の画像領域に含まれるエッジ近傍領域と平坦部領域とを判定し、
エッジ近傍領域ではなく、または、平坦領域ではないと判定された前記画像領域に対して、前記画像信号と前記周辺画像情報とにもとづく前記視覚処理を実現させる前記効果調整信号を発生させ、
エッジ近傍領域であり、かつ、平坦領域であると判定された前記画像領域に対して、前記画像信号と前記周辺画像情報とにもとづく前記視覚処理の効果よりも弱い効果による前記視覚処理を実現させる前記効果調整信号を発生させる、
視覚処理装置。
A spatial processing unit that outputs peripheral image information derived from pixel values of an input image signal and peripheral pixels ;
A visual processing unit that performs visual processing on the image signal based on the image signal and the peripheral image information;
A control signal generator for outputting an effect adjustment signal for setting the effect of the visual processing;
An effect adjustment unit that sets the effect of the visual processing according to the effect adjustment signal;
With
The visual processing unit performs visual processing for adjusting a local contrast on the image signal based on the image signal and the peripheral image information,
The control signal generator determines an edge vicinity region and a flat portion region included in an image region of an image formed by the image signal;
Generating the effect adjustment signal that realizes the visual processing based on the image signal and the peripheral image information for the image region that is determined not to be an edge vicinity region or a flat region;
Realizing the visual processing with an effect weaker than the effect of the visual processing based on the image signal and the peripheral image information for the image region determined to be a flat region and an edge vicinity region Generating the effect adjustment signal;
Visual processing device.
前記制御信号発生部は、前記周辺画像情報の変化量に応じて前記効果調整信号を出力する、
請求項1に記載の視覚処理装置。
The control signal generation unit outputs the effect adjustment signal according to a change amount of the peripheral image information.
The visual processing device according to claim 1 .
前記制御信号発生部は、
前記周辺画像情報の変化量を検出する変化量検出部と、
前記変化量検出部により検出された前記変化量に基づいて前記効果調整信号を発生させる効果調整信号発生部と、
を有する、
請求項1に記載の視覚処理装置。
The control signal generator is
A change amount detection unit for detecting a change amount of the peripheral image information;
An effect adjustment signal generation unit that generates the effect adjustment signal based on the change amount detected by the change amount detection unit;
Having
The visual processing device according to claim 1 .
前記制御信号発生部は、
前記画像信号から隣接領域との輝度差が所定の値以下となる平坦領域の平坦度合いを検出する平坦検出部と、
前記画像信号から隣接領域との輝度差が所定の値以上となるエッジ領域のエッジ量を検出するエッジ検出部と、
前記エッジ量により、前記画像領域のエッジ近傍度合いを示すエッジ近傍度を算出するエッジ近傍検出部と、
前記平坦検出部により検出された前記平坦度合いと前記エッジ近傍検出部により算出されたエッジ近傍度とにもとづいて前記効果調整信号を発生させる効果調整信号発生部と、を有する、
請求項1に記載の視覚処理装置。
The control signal generator is
A flatness detecting unit for detecting a flatness degree of a flat area where a luminance difference with an adjacent area is a predetermined value or less from the image signal;
An edge detection unit that detects an edge amount of an edge region in which a luminance difference with an adjacent region is a predetermined value or more from the image signal;
An edge vicinity detection unit that calculates an edge vicinity degree indicating an edge vicinity degree of the image area based on the edge amount;
An effect adjustment signal generating unit that generates the effect adjustment signal based on the flatness detected by the flatness detection unit and the edge proximity calculated by the edge vicinity detection unit,
The visual processing device according to claim 1 .
前記効果調整部は、前記効果調整信号に応じて、前記画像信号と前記周辺画像情報とを合成した第1の合成信号を出力し、
前記視覚処理部は、前記第1の合成信号と前記画像信号とにもとづいて前記画像信号に対して視覚処理を行う、
請求項1から請求項までのいずれか1項に記載の視覚処理装置。
The effect adjustment unit outputs a first synthesized signal obtained by synthesizing the image signal and the peripheral image information according to the effect adjustment signal,
The visual processing unit performs visual processing on the image signal based on the first synthesized signal and the image signal;
The visual processing device according to any one of claims 1 to 4 .
前記効果調整部は、前記効果調整信号に応じて、前記画像信号と前記視覚処理部で視覚処理を施された出力とを合成した第2の合成信号を出力する、
請求項1から請求項までのいずれか1項に記載の視覚処理装置。
The effect adjustment unit outputs a second synthesized signal obtained by synthesizing the image signal and the output subjected to visual processing by the visual processing unit in accordance with the effect adjustment signal.
The visual processing device according to any one of claims 1 to 4 .
入力された画像信号画像信号と周辺画素との画素値から導出される、周辺画像情報を出力する空間処理ステップと、
前記画像信号と前記周辺画像情報とにもとづいて前記画像信号に対して視覚処理を行う視覚処理ステップと、
前記視覚処理の効果を設定するための効果調整信号を出力する制御信号発生ステップと、
前記効果調整信号に応じて前記視覚処理の効果を設定する効果調整ステップと、
を備え、
前記視覚処理ステップでは、前記画像信号と前記周辺画像情報とにもとづいて前記画像信号に対して局所コントラストを調整する視覚処理を行い、
前記制御信号発生ステップでは、前記画像信号により形成される画像の画像領域に含まれるエッジ近傍領域と平坦部領域とを判定し、
エッジ近傍領域ではなく、または、平坦領域ではないと判定された前記画像領域に対して、前記画像信号と前記周辺画像情報とにもとづく前記視覚処理を実現させる前記効果調整信号を発生させ、
エッジ近傍領域であり、かつ、平坦領域であると判定された前記画像領域に対して、前記画像信号と前記周辺画像情報とにもとづく前記視覚処理の効果よりも弱い効果による前記視覚処理を実現させる前記効果調整信号を発生させる、
視覚処理方法。
A spatial processing step for outputting peripheral image information derived from the pixel values of the input image signal image signal and the peripheral pixels ;
A visual processing step of performing visual processing on the image signal based on the image signal and the peripheral image information;
A control signal generation step of outputting an effect adjustment signal for setting the effect of the visual processing;
An effect adjustment step of setting the effect of the visual processing according to the effect adjustment signal;
With
In the visual processing step, visual processing for adjusting a local contrast is performed on the image signal based on the image signal and the peripheral image information,
In the control signal generation step, an edge vicinity region and a flat portion region included in an image region of an image formed by the image signal are determined,
Generating the effect adjustment signal that realizes the visual processing based on the image signal and the peripheral image information for the image region that is determined not to be an edge vicinity region or a flat region;
Realizing the visual processing with an effect weaker than the effect of the visual processing based on the image signal and the peripheral image information for the image region determined to be a flat region and an edge vicinity region Generating the effect adjustment signal;
Visual processing method.
コンピュータに、
入力された画像信号と周辺画素との画素値から導出される周辺画像情報を出力する空間処理ステップと、
前記画像信号と前記周辺画像情報とにもとづいて前記画像信号に対して視覚処理を行う視覚処理ステップと、
前記視覚処理の効果を設定するための効果調整信号を出力する制御信号発生ステップと、
前記効果調整信号に応じて前記視覚処理の効果を設定する効果調整ステップと、
を実行させるプログラムであって、
前記視覚処理ステップでは、前記画像信号と前記周辺画像情報とにもとづいて前記画像信号に対して局所コントラストを調整する視覚処理を行い、
前記制御信号発生ステップでは、前記画像信号により形成される画像の画像領域に含まれるエッジ近傍領域と平坦部領域とを判定し、
エッジ近傍領域ではなく、または、平坦領域ではないと判定された前記画像領域に対して、前記画像信号と前記周辺画像情報とにもとづく前記視覚処理を実現させる前記効果調整信号を発生させ、
エッジ近傍領域であり、かつ、平坦領域であると判定された前記画像領域に対して、前記画像信号と前記周辺画像情報とにもとづく前記視覚処理の効果よりも弱い効果による前記視覚処理を実現させる前記効果調整信号を発生させる、
プログラム。
On the computer,
A spatial processing step of outputting peripheral image information derived from pixel values of an input image signal and peripheral pixels ;
A visual processing step of performing visual processing on the image signal based on the image signal and the peripheral image information;
A control signal generation step of outputting an effect adjustment signal for setting the effect of the visual processing;
An effect adjustment step of setting the effect of the visual processing according to the effect adjustment signal;
A program for executing
In the visual processing step, visual processing for adjusting a local contrast is performed on the image signal based on the image signal and the peripheral image information,
In the control signal generation step, an edge vicinity region and a flat portion region included in an image region of an image formed by the image signal are determined,
Generating the effect adjustment signal that realizes the visual processing based on the image signal and the peripheral image information for the image region that is determined not to be an edge vicinity region or a flat region;
Realizing the visual processing with an effect weaker than the effect of the visual processing based on the image signal and the peripheral image information for the image region determined to be a flat region and an edge vicinity region Generating the effect adjustment signal;
program.
コンピュータに、
入力された画像信号と周辺画素との画素値から導出される周辺画像情報を出力する空間処理ステップと、
前記画像信号と前記周辺画像情報とにもとづいて前記画像信号に対して視覚処理を行う視覚処理ステップと、
前記視覚処理の効果を設定するための効果調整信号を出力する制御信号発生ステップと、
前記効果調整信号に応じて前記視覚処理の効果を設定する効果調整ステップと、
を実行させるプログラムを記録した記録媒体であって、
前記視覚処理ステップでは、前記画像信号と前記周辺画像情報とにもとづいて前記画像信号に対して局所コントラストを調整する視覚処理を行い、
前記制御信号発生ステップでは、前記画像信号により形成される画像の画像領域に含まれるエッジ近傍領域と平坦部領域とを判定し、
エッジ近傍領域ではなく、または、平坦領域ではないと判定された前記画像領域に対して、前記画像信号と前記周辺画像情報とにもとづく前記視覚処理を実現させる前記効果調整信号を発生させ、
エッジ近傍領域であり、かつ、平坦領域であると判定された前記画像領域に対して、前記画像信号と前記周辺画像情報とにもとづく前記視覚処理の効果よりも弱い効果による前記視覚処理を実現させる前記効果調整信号を発生させる、
記録媒体。
On the computer,
A spatial processing step of outputting peripheral image information derived from pixel values of an input image signal and peripheral pixels ;
A visual processing step of performing visual processing on the image signal based on the image signal and the peripheral image information;
A control signal generation step of outputting an effect adjustment signal for setting the effect of the visual processing;
An effect adjustment step of setting the effect of the visual processing according to the effect adjustment signal;
A recording medium recording a program for executing
In the visual processing step, visual processing for adjusting a local contrast is performed on the image signal based on the image signal and the peripheral image information,
In the control signal generation step, an edge vicinity region and a flat portion region included in an image region of an image formed by the image signal are determined,
Generating the effect adjustment signal that realizes the visual processing based on the image signal and the peripheral image information for the image region that is determined not to be an edge vicinity region or a flat region;
Realizing the visual processing with an effect weaker than the effect of the visual processing based on the image signal and the peripheral image information for the image region determined to be a flat region and an edge vicinity region. Generating the effect adjustment signal;
recoding media.
画像処理装置に用いられるプロセッサであって、
前記プロセッサは、記録されたプログラムの命令に従い、
入力された画像信号周辺画素との画素値から導出される周辺画像情報を出力する空間処理ステップと、
前記画像信号と前記周辺画像情報とにもとづいて前記画像信号に対して視覚処理を行う視覚処理ステップと、
前記視覚処理の効果を設定するための効果調整信号を出力する制御信号発生ステップと、
前記効果調整信号に応じて前記視覚処理の効果を設定する効果調整ステップと、
を実行し、
前記視覚処理ステップでは、前記画像信号と前記周辺画像情報とにもとづいて前記画像信号に対して局所コントラストを調整する視覚処理を行い、
前記制御信号発生ステップでは、前記画像信号により形成される画像の画像領域に含まれるエッジ近傍領域と平坦部領域とを判定し、
エッジ近傍領域ではなく、または、平坦領域ではないと判定された前記画像領域に対して、前記画像信号と前記周辺画像情報とにもとづく前記視覚処理を実現させる前記効果調整信号を発生させ、
エッジ近傍領域であり、かつ、平坦領域であると判定された前記画像領域に対して、前記画像信号と前記周辺画像情報とにもとづく前記視覚処理の効果よりも弱い効果による前記視覚処理を実現させる前記効果調整信号を発生させる、
プロセッサ。
A processor used in an image processing apparatus,
The processor follows the instructions of the recorded program,
A spatial processing step of outputting peripheral image information derived from pixel values of input image signal peripheral pixels ;
A visual processing step of performing visual processing on the image signal based on the image signal and the peripheral image information;
A control signal generation step of outputting an effect adjustment signal for setting the effect of the visual processing;
An effect adjustment step of setting the effect of the visual processing according to the effect adjustment signal;
Run
In the visual processing step, visual processing for adjusting a local contrast is performed on the image signal based on the image signal and the peripheral image information,
In the control signal generation step, an edge vicinity region and a flat portion region included in an image region of an image formed by the image signal are determined,
Generating the effect adjustment signal that realizes the visual processing based on the image signal and the peripheral image information for the image region that is determined not to be an edge vicinity region or a flat region;
Realizing the visual processing with an effect weaker than the effect of the visual processing based on the image signal and the peripheral image information for the image region determined to be a flat region and an edge vicinity region. Generating the effect adjustment signal;
Processor.
通信または放送された画像データを受信するデータ受信部と、
受信された前記画像データを映像データに復号する復号部と、
復号された前記映像データを視覚処理して出力信号を出力する請求項1から請求項のいずれか1項に記載の視覚処理装置と、
前記視覚処理装置により視覚処理された前記出力信号の表示を行う表示部と、
を備える表示装置。
A data receiving unit for receiving image data transmitted or broadcast;
A decoding unit for decoding the received image data into video data;
The visual processing device according to any one of claims 1 to 6 , wherein the decoded video data is visually processed to output an output signal;
A display unit for displaying the output signal visually processed by the visual processing device;
A display device comprising:
JP2007117827A 2006-04-28 2007-04-27 Visual processing device, visual processing method, program, recording medium, display device, and integrated circuit Active JP4094652B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007117827A JP4094652B2 (en) 2006-04-28 2007-04-27 Visual processing device, visual processing method, program, recording medium, display device, and integrated circuit

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006125504 2006-04-28
JP2007117827A JP4094652B2 (en) 2006-04-28 2007-04-27 Visual processing device, visual processing method, program, recording medium, display device, and integrated circuit

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007323875A Division JP4437149B2 (en) 2006-04-28 2007-12-14 Visual processing device, visual processing method, program, recording medium, display device, and integrated circuit

Publications (2)

Publication Number Publication Date
JP2007316630A JP2007316630A (en) 2007-12-06
JP4094652B2 true JP4094652B2 (en) 2008-06-04

Family

ID=38850482

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007117827A Active JP4094652B2 (en) 2006-04-28 2007-04-27 Visual processing device, visual processing method, program, recording medium, display device, and integrated circuit

Country Status (1)

Country Link
JP (1) JP4094652B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6135937B2 (en) 2013-08-28 2017-05-31 パナソニックIpマネジメント株式会社 Image processing method and image processing apparatus
JP6184277B2 (en) * 2013-09-27 2017-08-23 オリンパス株式会社 Image processing device
CN110120021B (en) * 2019-05-05 2021-04-09 腾讯科技(深圳)有限公司 Image brightness adjusting method and device, storage medium and electronic device

Also Published As

Publication number Publication date
JP2007316630A (en) 2007-12-06

Similar Documents

Publication Publication Date Title
JP4157592B2 (en) Visual processing device, display device, visual processing method, program, and integrated circuit
KR101314390B1 (en) Visual processing apparatus, visual processing method, program, recording medium, display, and integrated circuit
JP4437150B2 (en) Visual processing device, display device, visual processing method, program, and integrated circuit
JP5259785B2 (en) Visual processing device, visual processing method, television, portable information terminal, camera and processor
JP4745458B2 (en) Visual processing device
JP4440245B2 (en) Visual processing device, display device, and integrated circuit
KR101089394B1 (en) Visual processing device, visual processing method, visual processing program, and semiconductor device
JP4641784B2 (en) Gradation conversion processing device, gradation conversion processing method, image display device, television, portable information terminal, camera, integrated circuit, and image processing program
JP4094652B2 (en) Visual processing device, visual processing method, program, recording medium, display device, and integrated circuit
JP4414307B2 (en) Visual processing device, visual processing method, visual processing program, and semiconductor device
JP4437149B2 (en) Visual processing device, visual processing method, program, recording medium, display device, and integrated circuit
JP4414464B2 (en) Visual processing device, visual processing method, visual processing program, and semiconductor device
JP4126298B2 (en) Visual processing device, visual processing method, visual processing program, and semiconductor device
JP2005322205A5 (en)

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20071127

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20071213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080305

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110314

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4094652

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110314

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120314

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130314

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130314

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140314

Year of fee payment: 6

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350