JP5193089B2 - Signal processing apparatus and signal processing method - Google Patents

Signal processing apparatus and signal processing method Download PDF

Info

Publication number
JP5193089B2
JP5193089B2 JP2009038138A JP2009038138A JP5193089B2 JP 5193089 B2 JP5193089 B2 JP 5193089B2 JP 2009038138 A JP2009038138 A JP 2009038138A JP 2009038138 A JP2009038138 A JP 2009038138A JP 5193089 B2 JP5193089 B2 JP 5193089B2
Authority
JP
Japan
Prior art keywords
signal
image
processing
region
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009038138A
Other languages
Japanese (ja)
Other versions
JP2010193381A (en
Inventor
直幸 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2009038138A priority Critical patent/JP5193089B2/en
Publication of JP2010193381A publication Critical patent/JP2010193381A/en
Application granted granted Critical
Publication of JP5193089B2 publication Critical patent/JP5193089B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

本発明は、画像(映像)信号が形成する画像(映像)に対して、信号処理を行う信号処理装置および信号処理方法に関する。特に、画像中の特定の輝度信号領域や色差信号領域に含まれる部分(特定部分)と当該特定部分以外の部分とにおいて、輪郭補正処理、帯域制限処理、あるいはノイズ削減処理等の効果を変える信号処理を行う信号処理装置および信号処理方法に関する。   The present invention relates to a signal processing apparatus and a signal processing method for performing signal processing on an image (video) formed by an image (video) signal. In particular, a signal that changes the effect of contour correction processing, band limiting processing, noise reduction processing, etc. in a portion (specific portion) included in a specific luminance signal region or color difference signal region in an image and a portion other than the specific portion. The present invention relates to a signal processing apparatus and a signal processing method for performing processing.

従来の撮像装置では、被写体を撮像する場合、撮像された画像の解像感や先鋭度を向上させるため、撮像装置や表示装置の信号処理として、被写体の輪郭や細かな模様のエッジ部分を強調する輪郭補正処理が行われている。さらに近年では、撮像装置に搭載される撮像素子の高画素化により高解像度化が進んでおり、撮像装置により取得される撮像画像上において、被写体のさらに細かな部分まで表現されるようになってきている。
一方、撮像素子の高画素化に伴い、画素サイズが微細化されている。このため、撮像素子により取得される信号に対するノイズ量が増えることになり、その結果、撮像素子により取得される信号のS/N比(Signal to Noise Ratio)が悪くなる。従来の撮像装置では、このS/N比の悪化に対する改善(S/N比改善)のためのノイズ削減処理も行われている。
In conventional imaging devices, when imaging a subject, in order to improve the resolution and sharpness of the captured image, signal processing of the imaging device and display device emphasizes the contours of the subject and the edges of fine patterns. Contour correction processing is performed. In recent years, the resolution has been increased due to the increase in the number of pixels of the image sensor mounted on the imaging apparatus, and even a finer part of the subject has been expressed on the captured image acquired by the imaging apparatus. ing.
On the other hand, the pixel size is miniaturized as the number of pixels of the image sensor increases. For this reason, the amount of noise for the signal acquired by the image sensor increases, and as a result, the S / N ratio (Signal to Noise Ratio) of the signal acquired by the image sensor deteriorates. In a conventional imaging device, noise reduction processing for improving the deterioration of the S / N ratio (S / N ratio improvement) is also performed.

一般的には、撮像装置において、輪郭補正処理により、画像の細部が強調されて解像感の向上した画像(映像)が取得されることが好まれる。しかし、撮像装置で、人物を被写体として撮像する場合、特に、女性の顔などを撮像する場合などには、輪郭補正処理を実行すると、顔の皺、しみ、にきびや肌荒れなども強調されることになり、被写体の女性や撮像装置のユーザが、これを嫌う場合が多い。そのため、従来の撮像装置では、画像の中で、例えば、色差信号が肌色の信号領域となる部分を検出し、その部分は、人物の肌であると判断して輪郭補正処理の効果を抑制する処理、あるいは、ノイズ削減処理の効果を強めてぼかすことにより、他の部分の解像感を保ったまま、望ましくない部分を隠す処理が行われている。
逆に、例えば、木の葉や芝生などは、細部をより詳細に表現するため、従来の撮像装置では、色差信号が緑色の信号領域となる部分を検出し、その部分は輪郭補正処理の効果をさらに強める処理を行い、ノイズ削減処理の効果を弱めるなどの処理が行われる場合もある。
Generally, in an imaging apparatus, it is preferred that an image (video) with improved resolution is acquired by enhancing the details of the image by contour correction processing. However, when imaging an image of a person as a subject, especially when imaging a woman's face, etc., contour correction processing can enhance facial wrinkles, spots, acne, and rough skin. Therefore, there are many cases where the subject woman or the user of the imaging apparatus dislikes this. Therefore, in the conventional imaging device, for example, a portion in which the color difference signal is a skin color signal region is detected in the image, and the portion is determined to be the skin of a person, and the effect of the contour correction processing is suppressed. By enhancing the effect of the processing or the noise reduction processing, the processing of hiding the undesired portion is performed while maintaining the resolution of the other portions.
On the other hand, for example, leaves and lawns represent details in more detail, so the conventional imaging device detects a portion where the color difference signal is a green signal region, and the portion further improves the effect of the contour correction processing. There is a case where processing such as enhancement processing is performed and the effect of noise reduction processing is reduced.

なお、「信号領域」とは、領域を検出する際に使用する信号の信号形式により定義される色空間内(あるいは色平面内)(例えば、RGB色空間、YCbCr色空間、YPbPr色空間、xvYCC色空間、Lab色空間(La*b*色空間)、IQ色平面、PbPr色差平面、CbCr色差平面。Lab色空間のab色平面(La*b*色空間のa*b*色平面))において、映像信号が占める範囲のことをいう。上記の場合は、例えば、Pb軸、Pr軸や、I軸、Q軸で表される色差平面で肌色や緑色に相当する色領域が、「信号領域」に該当する。
また、「色差信号が肌色や緑色の信号領域となる部分」とは、上記色差平面で肌色や緑色に相当する領域に含まれる映像信号が画像空間上すなわち画面内(画像上)で位置する部分のことをいい、例えば、映像信号が形成する画像上において、人物の顔や木の葉といった被写体像を形成している画像領域がこれに該当する。
The “signal region” refers to a color space (or a color plane) defined by the signal format of a signal used when detecting a region (for example, an RGB color space, a YCbCr color space, a YPbPr color space, or xvYCC). Color space, Lab color space (La * b * color space), IQ color plane, PbPr color difference plane, CbCr color difference plane, ab color plane of Lab color space (a * b * color plane of La * b * color space)) The range occupied by the video signal. In the above case, for example, a color area corresponding to skin color or green in the color difference plane represented by the Pb axis, the Pr axis, the I axis, and the Q axis corresponds to the “signal area”.
In addition, the “part where the color difference signal is a skin color or green signal area” means the part where the video signal included in the area corresponding to skin color or green on the color difference plane is located in the image space, that is, in the screen (on the image) For example, an image region in which a subject image such as a human face or a leaf is formed on an image formed by a video signal corresponds to this.

しかしながら、画像の特定の部分と、当該特定の部分に隣接する部分との境界部分、例えば、人物の顔とその背景との境界部分で、上記のような輪郭補正処理やノイズ削減処理の効果を急激に変化させると不自然な画像となる。
これを解消するために、特定の部分と、当該特定の部分に隣接する部分との境界部分で輪郭補正やノイズ削減の効果を滑らかに変化させ、画質に違和感を与えないようにする方法が考えられる。このような従来の信号処理方法として、特許文献1がある。特許文献1に開示されている技術では、注目画素が特定色領域に含まれるか否かを特定色判定フラグにより示し、さらに、画像平面上において、注目画素の周辺の画素(例えば、3×3フィルタを用いる場合、注目画素の周辺の8画素)についても同様に特定色領域に含まれるか否かを特定色判定フラグにより示す。そして、注目画素およびその周辺画素(3×3フィルタを用いる場合、注目画素および周辺の8画素の合計9画素)の特定色判定フラグの値を基に輪郭補正やノイズ除去を行う。これにより、特許文献1に開示の技術では、特定色領域と特定色以外の領域の境界部分で輪郭補正やノイズ除去の効果が急激に変化しないようにしている。
特許第4200745号
However, the boundary correction between the specific part of the image and the part adjacent to the specific part, for example, the boundary part between the face of the person and the background, the effects of the contour correction process and the noise reduction process as described above. An abrupt change will result in an unnatural image.
In order to solve this problem, a method of smoothly changing the effect of contour correction and noise reduction at the boundary between the specific part and the part adjacent to the specific part to prevent the image quality from being uncomfortable. It is done. There exists patent document 1 as such a conventional signal processing method. In the technique disclosed in Patent Document 1, whether or not a pixel of interest is included in a specific color region is indicated by a specific color determination flag, and pixels on the periphery of the pixel of interest (for example, 3 × 3) on the image plane. In the case of using a filter, whether or not 8 pixels around the pixel of interest is also included in the specific color region is similarly indicated by a specific color determination flag. Then, contour correction and noise removal are performed based on the values of the specific color determination flags of the pixel of interest and its surrounding pixels (a total of 9 pixels including the pixel of interest and the surrounding 8 pixels when a 3 × 3 filter is used). Thereby, in the technique disclosed in Patent Document 1, the effect of contour correction and noise removal is prevented from changing abruptly at the boundary portion between the specific color region and the region other than the specific color.
Japanese Patent No. 4200745

しかしながら、上記従来の信号処理方法では、注目画素以外に注目画素の周辺画素についても同時に特定色領域に含まれるか否かの判定が必要となる。周辺画素の中には画像の水平方向だけでなく垂直方向の画素も含まれるため、例えば3×3フィルタを用いる場合には、特定色領域に含まれるか否かを示す特定色判定フラグを9画素同時化(垂直方向の信号を同時化)、すなわち、所定のタイミング(時刻)において、9画素分の特定色判定フラグを同時に取得する必要がある。特定色判定フラグを9画素同時化するために、従来の信号処理方法を実行する信号処理装置は、以下の2つの構成のいずれかを採用する必要がある。
(1)従来の信号処理装置は、特定色判定フラグを生成した後に、映像信号と同じ様に特定色判定フラグ用のディレイラインを2ライン分余分に備える(例えば、ラインメモリ2つを備える)。これにより、9画素同時化する。
(2)従来の信号処理装置は、9画素同時化された色差信号から、当該9画素が、それぞれ、特定色領域に含まれるか否かを同時に判定して特定色判定フラグを生成するために、特定色領域検出回路を注目画素用以外に8個余分(注目画素の周辺画素8画素分)に備える。
However, in the conventional signal processing method described above, it is necessary to determine whether the peripheral pixels of the target pixel in addition to the target pixel are simultaneously included in the specific color region. Since the peripheral pixels include not only horizontal pixels but also vertical pixels, for example, when a 3 × 3 filter is used, a specific color determination flag indicating whether or not a specific color region is included is set to 9 It is necessary to simultaneously acquire specific color determination flags for nine pixels at the same time (synchronization of vertical signals), that is, at a predetermined timing (time). In order to synchronize the specific color determination flag with 9 pixels, a signal processing apparatus that executes a conventional signal processing method needs to employ one of the following two configurations.
(1) The conventional signal processing apparatus includes two extra lines for the specific color determination flag (for example, includes two line memories) in the same manner as the video signal after generating the specific color determination flag. . As a result, 9 pixels are synchronized.
(2) In order to generate a specific color determination flag by simultaneously determining whether or not each of the 9 pixels is included in the specific color area from the color difference signal obtained by synchronizing the 9 pixels, the conventional signal processing device In addition to the pixel for the target pixel, eight extra specific color area detection circuits are provided (for the eight peripheral pixels of the target pixel).

上記2つの構成のいずれを採用する場合であっても、同時化するためのメモリまたは特定色領域検出回路が別途必要になるため、回路規模の増大を招くことになる。
本発明は上記従来の問題点を解決するもので、回路規模の増大を招くことなく、画像内の被写体の特定の部分とその隣接部分との境界部分で処理の効果を急激に変化させることなく、段階的に変化させることにより、違和感のない画像を取得することができる信号処理装置、信号処理方法、プログラムおよび集積回路を実現することを目的とする。
Regardless of which of the above two configurations is employed, a memory or a specific color area detection circuit for synchronization is required separately, which increases the circuit scale.
The present invention solves the above-described conventional problems, without causing an increase in circuit scale, and without abruptly changing the processing effect at the boundary portion between a specific portion of the subject in the image and its adjacent portion. It is an object of the present invention to realize a signal processing device, a signal processing method, a program, and an integrated circuit that can acquire an image without a sense of incongruity by changing in stages.

第1の発明は、空間演算処理部と、領域検出部と、画像処理部と、を備える信号処理装置である。
空間演算処理部は、第1画像信号により形成される画像に含まれ処理対象である注目画素に対して、画像上において注目画素の周辺の画素である周辺画素を用いて所定の演算処理を行うことで、第1画像信号から第2画像信号を生成する。領域検出部は、第2画像信号の注目画素が所定の信号領域に含まれるか否かを判定し、その判定結果を示す領域判定フラグを生成する。画像処理部は、領域検出部により生成された領域判定フラグに基づき、第1画像信号に対して所定の画像処理を行う。
この信号処理装置では、映像信号の注目画素が所定の信号領域に含まれるか否かを判定する前に隣接する画素との演算処理を行うことにより、注目画素に隣接する複数の画素の信号成分の影響が含まれるようになるため、注目画素が所定の信号領域と所定の信号領域以外の境界部分に含まれる画素であっても、領域判定フラグが急激に変化することがなく、所定の画像処理を段階的に(徐々に)行うことができる。
A first invention is a signal processing device including a space calculation processing unit, a region detection unit, and an image processing unit.
The spatial calculation processing unit performs predetermined calculation processing on a target pixel included in an image formed by the first image signal and using a peripheral pixel that is a pixel around the target pixel on the image. Thus, the second image signal is generated from the first image signal. The region detection unit determines whether or not the target pixel of the second image signal is included in the predetermined signal region, and generates a region determination flag indicating the determination result. The image processing unit performs predetermined image processing on the first image signal based on the region determination flag generated by the region detection unit.
In this signal processing device, signal processing of a plurality of pixels adjacent to the target pixel is performed by performing arithmetic processing with the adjacent pixel before determining whether or not the target pixel of the video signal is included in the predetermined signal region. Therefore, even if the target pixel is a pixel included in the boundary portion other than the predetermined signal region and the predetermined signal region, the region determination flag does not change abruptly, and the predetermined image Processing can be performed in stages (gradually).

したがって、この信号処理装置により取得される画像(映像)は、所定の信号領域と、当該所定の信号領域以外の境界部分においても、所定の画像処理の効果が段階的に(徐々に)変化するため、自然な画像(映像)となる。例えば、「所定の信号領域」を「肌色領域」とすることで、女性の顔などを撮像する場合などに、顔の皺、しみ、にきびや肌荒れなどが強調されることを効果的に抑制するともに、「肌色領域」以外の画像領域においては、ディテール感を保持することができるので、被写体の女性やユーザが、好む自然な画像(映像)を、この信号処理装置により取得することができる。
なお、「第1画像信号」および「第2画像信号」は、画像を形成することができる信号(画像信号)だけでなく、映像を形成することができる信号(映像信号)も含む概念である。
Therefore, the image (video) acquired by the signal processing apparatus changes in a stepwise (gradual) manner in the effect of the predetermined image processing even in a predetermined signal region and a boundary portion other than the predetermined signal region. Therefore, it becomes a natural image (video). For example, by setting the “predetermined signal area” as a “skin color area”, it is possible to effectively suppress emphasis on facial wrinkles, stains, acne, rough skin, etc. when imaging a female face or the like. In both cases, a sense of detail can be maintained in an image region other than the “skin color region”, so that a natural image (video) preferred by the woman or user of the subject can be acquired by this signal processing device.
The “first image signal” and the “second image signal” are concepts including not only a signal that can form an image (image signal) but also a signal that can form an image (video signal). .

また、「信号領域」とは、領域を検出する際に使用する信号の信号形式により定義される色空間内(あるいは色平面内)(例えば、RGB色空間、YCbCr色空間、YPbPr色空間、xvYCC色空間、Lab色空間(La*b*色空間)、IQ色平面、PbPr色差平面、CbCr色差平面。Lab色空間のab色平面(La*b*色空間のa*b*色平面))において、画像信号が占める範囲のことをいう。例えば、Pb軸、Pr軸や、I軸、Q軸で表される色差平面で肌色や緑色に相当する色領域が、「信号領域」に該当する。
第2の発明は、第1の発明であって、空間演算処理部は、第1画像信号が形成する画像空間上において、注目画素の水平方向、垂直方向、斜め方向および時間方向の少なくとも一方向に隣接する画素を含む周辺画素を用いて、所定の演算処理を行う。
In addition, the “signal region” refers to a color space (or a color plane) defined by a signal format of a signal used when detecting a region (for example, RGB color space, YCbCr color space, YPbPr color space, xvYCC). Color space, Lab color space (La * b * color space), IQ color plane, PbPr color difference plane, CbCr color difference plane, ab color plane of Lab color space (a * b * color plane of La * b * color space)) The range occupied by the image signal. For example, a color area corresponding to skin color or green on the color difference plane represented by the Pb axis, the Pr axis, the I axis, and the Q axis corresponds to the “signal area”.
2nd invention is 1st invention, Comprising: The space arithmetic processing part is at least one direction of the horizontal direction of the attention pixel, the vertical direction, the diagonal direction, and the time direction on the image space which a 1st image signal forms. Predetermined arithmetic processing is performed using peripheral pixels including pixels adjacent to.

この信号処理装置では、水平方向に隣接する画素間で演算処理をすれば画像の水平方向で、垂直方向に隣接する画素間で演算処理をすれば画像の垂直方向で、斜め方向に隣接する画素間で演算処理をすれば画像の斜め方向で、それぞれ、被写体の境界部分の領域判定フラグが急激に変化することがなく、また、時間方向に隣接する画素間すなわち画像フレーム間で演算処理をすれば、シーンチェンジなどのように被写体が急激に変化しても領域判定フラグは急激に変化することがなく、それぞれ、所定の画像処理が段階的に(徐々に)行われる。
第3の発明は、第1または第2の発明であって、第1画像信号の注目画素と、注目画素の垂直方向の周辺画素と、を同時化するディレイライン部をさらに備える。空間演算処理部は、ディレイライン部により同時化された第1画像信号を用いて、所定の演算処理を行う。画像処理部は、ディレイライン部により同時化された第1画像信号に対して所定の画像処理を行う。
In this signal processing device, pixels that are adjacent in the horizontal direction of the image if arithmetic processing is performed between pixels adjacent in the horizontal direction, and pixels that are adjacent in the oblique direction in the vertical direction of the image if arithmetic processing is performed between pixels adjacent in the vertical direction. If the calculation processing is performed between the pixels, the region determination flag at the boundary portion of the subject does not change abruptly in the oblique direction of the image, and the calculation processing is performed between pixels adjacent in the time direction, that is, between image frames. For example, even if the subject changes suddenly, such as a scene change, the region determination flag does not change rapidly, and predetermined image processing is performed stepwise (gradually).
A third invention is the first or second invention, and further includes a delay line unit that simultaneously synchronizes the target pixel of the first image signal and the peripheral pixels in the vertical direction of the target pixel. The spatial arithmetic processing unit performs predetermined arithmetic processing using the first image signal synchronized by the delay line unit. The image processing unit performs predetermined image processing on the first image signal synchronized by the delay line unit.

この信号処理装置では、画像処理部の処理および空間演算処理部の処理において、ディレイライン部を共用することができるので、ハードにより構成する場合、回路規模を小さくすることができる。
第4の発明は、第1から第3のいずれかの発明であって、空間演算処理部は、注目画素に対して空間フィルタ処理を実行することで、所定の演算処理を行う。
これにより、例えば、空間フィルタ処理をLPF(低域通過フィルタ)処理とすることにより、信号領域を検出する際に用いる画像(映像)信号の境界部分の変化をより滑らかにすることができ、従って、領域判定フラグの変化もより滑らかとなるため、所定の画像処理を段階的に(徐々に)行うことができる。
第5の発明は、第1から第4のいずれかの発明であって、領域判定フラグは、複数ビットで構成され、信号領域を複数のコードで表現し、所定の信号領域である第1信号領域と、第1信号領域以外の信号領域である第2信号領域と、第1信号領域および第2信号領域の境界部分の信号領域である境界部分信号領域と、を各々別のコードで段階的に表すフラグである。
In this signal processing apparatus, since the delay line unit can be shared in the processing of the image processing unit and the processing of the spatial arithmetic processing unit, the circuit scale can be reduced when it is configured by hardware.
The fourth invention is any one of the first to third inventions, and the spatial calculation processing unit performs a predetermined calculation process by executing a spatial filter process on the pixel of interest.
Thereby, for example, by making the spatial filter processing LPF (low-pass filter) processing, the change in the boundary portion of the image (video) signal used when detecting the signal region can be made smoother. Since the change of the region determination flag becomes smoother, predetermined image processing can be performed stepwise (gradually).
A fifth invention is any one of the first to fourth inventions, wherein the region determination flag is composed of a plurality of bits, the signal region is expressed by a plurality of codes, and the first signal is a predetermined signal region. A region, a second signal region that is a signal region other than the first signal region, and a boundary portion signal region that is a signal region at a boundary portion between the first signal region and the second signal region are stepwise with different codes. It is a flag to represent.

これにより、例えば、領域判定フラグを2ビットで構成して、所定の信号領域を「3」というコードで表現し、所定の信号領域以外の信号領域を「0」というコードで表現し、両者の間の信号領域を所定の信号領域に近い方から順に「2」、「1」というコードで表現することにより、領域判定フラグを1ビットで構成する場合に比べて、所定の信号領域の境界部分の変化をより細かく段階的に表現できるため、所定の画像処理もより細かく段階的に行うことができる。
第6の発明は、第1から第5のいずれかの発明であって、画像処理部は、領域判定フラグの示すコードに基づいて第1画像信号に施す輪郭補正の効果を段階的に制御する輪郭補正部、および、領域判定フラグの示すコードに基づいて第1画像信号に施す帯域制限の効果を段階的に制御する帯域制限部、および、領域判定フラグの示すコードに基づいて第1画像信号に施すノイズ削減の効果を段階的に制御するノイズ削減部、の少なくとも1つを含む。
Thus, for example, the area determination flag is composed of 2 bits, a predetermined signal area is expressed by a code “3”, a signal area other than the predetermined signal area is expressed by a code “0”, By expressing the signal area between them in the order of “2” and “1” in order from the closest to the predetermined signal area, the boundary portion of the predetermined signal area is compared with the case where the area determination flag is composed of 1 bit. Therefore, the predetermined image processing can be performed more finely and stepwise.
A sixth invention is any one of the first to fifth inventions, wherein the image processing unit controls in steps the effect of contour correction applied to the first image signal based on the code indicated by the region determination flag. The first image signal based on the contour correction unit, the band limiting unit that controls the band limitation effect applied to the first image signal stepwise based on the code indicated by the region determination flag, and the code indicated by the region determination flag At least one of noise reduction units for controlling the effect of noise reduction applied to the above in a stepwise manner.

これにより、所定の信号領域に含まれる部分とその隣接する部分との境界部分について、画像処理が輪郭補正である場合には、画像(映像)信号に付加する輪郭補正信号の大きさなどを段階的に(徐々に)変化させることができる。また、画像処理が帯域制限である場合には、画像(映像)信号自体の周波数帯域を段階的に(徐々に)変化させることができる。また、画像処理がノイズ削減である場合には、画像(映像)信号に含まれるノイズ成分を段階的に(徐々に)変化させることができる。
第7の発明は、第1から第6のいずれかの発明であって、所定の信号領域は、所定の輝度信号領域および色差信号領域の少なくとも1つである。
これにより、輝度信号領域で検出する場合には、被写体の輝度レベルに応じて画像処理の効果を制御することができ、色差信号領域で検出する場合には、被写体の色に応じて画像処理の効果を制御することができる。
Thus, when the image processing is contour correction for the boundary portion between the portion included in the predetermined signal region and the adjacent portion, the size of the contour correction signal to be added to the image (video) signal is stepped. (Gradually) can be changed. When the image processing is band limited, the frequency band of the image (video) signal itself can be changed stepwise (gradually). When the image processing is noise reduction, the noise component included in the image (video) signal can be changed stepwise (gradually).
A seventh invention is any one of the first to sixth inventions, wherein the predetermined signal region is at least one of a predetermined luminance signal region and a color difference signal region.
As a result, when the detection is performed in the luminance signal area, the effect of the image processing can be controlled according to the luminance level of the subject. When the detection is performed in the color difference signal area, the image processing is performed according to the color of the subject. The effect can be controlled.

第8の発明は、第1から第8のいずれかの発明であって、第1画像信号および第2画像信号は、輝度信号および色差信号から形成される。領域検出部は、第2画像信号の注目画素が所定の信号領域に含まれるか否かの判定を、第2画像信号を形成する輝度信号に基づいて定義される輝度領域および第2画像信号を形成する色差信号に基づいて定義される色差平面領域を用いて行う。
これにより、輝度信号領域で検出する場合には、注目画素の輝度レベルに応じて画像処理の効果を制御することができ、色差信号領域で検出する場合には、注目画素が色差平面上のどの領域に存在するかに応じて、画像処理の効果を制御することができる。
第9の発明は、第1から第7のいずれかの発明であって、第1画像信号および第2画像信号は、R成分信号、G成分信号およびB成分信号から形成される。領域検出部は、第2画像信号の注目画素が所定の信号領域に含まれるか否かの判定を、
(1)第2画像信号を形成するR成分信号、G成分信号およびB成分信号により定義される色空間若しくは色平面、又は、
(2)第2画像信号を形成するR成分信号、G成分信号およびB成分信号により定義される色空間若しくは色平面を変換して取得される色空間若しくは色平面、
を用いて行う。
The eighth invention is any one of the first to eighth inventions, wherein the first image signal and the second image signal are formed from a luminance signal and a color difference signal. The region detection unit determines whether or not the target pixel of the second image signal is included in the predetermined signal region, and determines the luminance region and the second image signal that are defined based on the luminance signal that forms the second image signal. This is performed using a color difference plane region defined based on the color difference signal to be formed.
Thereby, when detecting in the luminance signal area, the effect of the image processing can be controlled according to the luminance level of the target pixel. When detecting in the color difference signal area, the target pixel on the color difference plane can be controlled. The effect of the image processing can be controlled depending on whether it exists in the region.
A ninth invention is any one of the first to seventh inventions, wherein the first image signal and the second image signal are formed from an R component signal, a G component signal and a B component signal. The region detection unit determines whether or not the target pixel of the second image signal is included in the predetermined signal region.
(1) a color space or color plane defined by the R component signal, G component signal and B component signal forming the second image signal, or
(2) a color space or color plane obtained by converting a color space or color plane defined by the R component signal, G component signal and B component signal forming the second image signal;
To do.

これにより、R成分信号、G成分信号およびB成分信号による信号を用いる場合であっても、注目画素が色空間内あるいは色平面上のどの領域に存在するかに応じて、画像処理の効果を制御することができる。
なお、ここで、「R成分信号」とは、赤色成分信号であり、「G成分信号」とは、緑色成分信号であり、「B成分信号」とは、青色成分信号である。
また、第2画像信号の注目画素が所定の信号領域に含まれるか否かの判定を行う「色空間」は、RGB色空間であってもよいし、RGB色空間を他の色空間に変換したもの(例えば、YCbCr色空間、Lab(La*b*)色空間、xvYCC色空間)であってもよい。
また、第2画像信号の注目画素が所定の信号領域に含まれるか否かの判定を行う「色平面」は、RGB色空間を変換することで取得される色平面を含む概念であり、「色平面」としては、RGB色空間から変換されたPbPr色差平面、CbCr色差平面、IQ色平面、Lab(La*b*)色空間で定義されるab色平面(a*b*)色平面等がある。例えば、R成分信号、G成分信号、および、B成分信号により定義されるRGB色空間を、IQ色平面に変換し、変換したIQ色平面上で(RGB色空間をIQ色平面に変換することで取得されるI成分信号およびQ成分信号の信号成分により)、第2画像信号の注目画素が所定の信号領域に含まれるか否かの判定を行うようにしてもよい。
As a result, even when signals based on the R component signal, the G component signal, and the B component signal are used, the effect of the image processing can be reduced depending on the region in the color space or on the color plane. Can be controlled.
Here, the “R component signal” is a red component signal, the “G component signal” is a green component signal, and the “B component signal” is a blue component signal.
In addition, the “color space” for determining whether or not the target pixel of the second image signal is included in the predetermined signal region may be the RGB color space, or the RGB color space is converted into another color space. (For example, YCbCr color space, Lab (La * b *) color space, xvYCC color space).
Further, the “color plane” for determining whether or not the target pixel of the second image signal is included in the predetermined signal region is a concept including a color plane acquired by converting the RGB color space. As the “color plane”, a PbPr color difference plane converted from the RGB color space, a CbCr color difference plane, an IQ color plane, an ab color plane (a * b *) color plane defined by the Lab (La * b *) color space, etc. There is. For example, an RGB color space defined by an R component signal, a G component signal, and a B component signal is converted into an IQ color plane, and the converted IQ color plane is converted (the RGB color space is converted into an IQ color plane). Whether or not the pixel of interest of the second image signal is included in the predetermined signal area may be determined based on the signal components of the I component signal and the Q component signal acquired in step S1.

第10の発明は、空間演算処理ステップと、領域検出ステップと、画像処理ステップと、を備える信号処理方法である。
空間演算処理ステップでは、第1画像信号により形成される画像に含まれ処理対象である注目画素に対して、画像上において注目画素の周辺の画素である周辺画素を用いて所定の演算処理を行うことで、第1画像信号から第2画像信号を生成する。領域検出ステップでは、第2画像信号の注目画素が所定の信号領域に含まれるか否かを判定し、その判定結果を示す領域判定フラグを生成する。画像処理ステップでは、領域検出ステップにより生成された領域判定フラグに基づき、第1画像信号に対して所定の画像処理を行う。
これにより、第1の発明と同様の効果を奏する信号処理方法を実現することができる。
第11の発明は、空間演算処理ステップと、領域検出ステップと、画像処理ステップと、を備える信号処理方法をコンピュータに実行させるプログラムである。
A tenth aspect of the invention is a signal processing method including a space calculation processing step, a region detection step, and an image processing step.
In the spatial calculation processing step, a predetermined calculation process is performed on the target pixel included in the image formed by the first image signal and used as a processing target using peripheral pixels that are pixels around the target pixel on the image. Thus, the second image signal is generated from the first image signal. In the region detection step, it is determined whether or not the target pixel of the second image signal is included in the predetermined signal region, and a region determination flag indicating the determination result is generated. In the image processing step, predetermined image processing is performed on the first image signal based on the region determination flag generated in the region detection step.
Thereby, it is possible to realize a signal processing method having the same effect as that of the first invention.
An eleventh invention is a program for causing a computer to execute a signal processing method including a space calculation processing step, a region detection step, and an image processing step.

空間演算処理ステップでは、第1画像信号により形成される画像に含まれ処理対象である注目画素に対して、画像上において注目画素の周辺の画素である周辺画素を用いて所定の演算処理を行うことで、第1画像信号から第2画像信号を生成する。領域検出ステップでは、第2画像信号の注目画素が所定の信号領域に含まれるか否かを判定し、その判定結果を示す領域判定フラグを生成する。画像処理ステップでは、領域検出ステップにより生成された領域判定フラグに基づき、第1画像信号に対して所定の画像処理を行う。
これにより、第1の発明と同様の効果を奏する信号処理方法をコンピュータに実行させるプログラムを実現することができる。
第12の発明は、空間演算処理部と、領域検出部と、画像処理部と、を備える集積回路である。
In the spatial calculation processing step, a predetermined calculation process is performed on the target pixel included in the image formed by the first image signal and used as a processing target using peripheral pixels that are pixels around the target pixel on the image. Thus, the second image signal is generated from the first image signal. In the region detection step, it is determined whether or not the target pixel of the second image signal is included in the predetermined signal region, and a region determination flag indicating the determination result is generated. In the image processing step, predetermined image processing is performed on the first image signal based on the region determination flag generated in the region detection step.
Thus, it is possible to realize a program that causes a computer to execute a signal processing method that exhibits the same effect as that of the first invention.
A twelfth aspect of the invention is an integrated circuit including a space calculation processing unit, a region detection unit, and an image processing unit.

空間演算処理部は、第1画像信号により形成される画像に含まれ処理対象である注目画素に対して、画像上において注目画素の周辺の画素である周辺画素を用いて所定の演算処理を行うことで、第1画像信号から第2画像信号を生成する。領域検出部は、第2画像信号の注目画素が所定の信号領域に含まれるか否かを判定し、その判定結果を示す領域判定フラグを生成する。画像処理部は、領域検出部により生成された領域判定フラグに基づき、第1画像信号に対して所定の画像処理を行う。
これにより、第1の発明と同様の効果を奏する集積回路を実現することができる。
The spatial calculation processing unit performs predetermined calculation processing on a target pixel included in an image formed by the first image signal and using a peripheral pixel that is a pixel around the target pixel on the image. Thus, the second image signal is generated from the first image signal. The region detection unit determines whether or not the target pixel of the second image signal is included in the predetermined signal region, and generates a region determination flag indicating the determination result. The image processing unit performs predetermined image processing on the first image signal based on the region determination flag generated by the region detection unit.
Thus, an integrated circuit that exhibits the same effect as that of the first invention can be realized.

発明によれば、元の被写体の境界部分で注目画素と隣接画素の信号成分が全く異なる信号領域である場合でも、画像空間上で隣接する画素間で演算を行うことで空間的な境界部分をぼかした後の輝度信号や色差信号などから信号領域を検出することにより、注目画素に隣接画素の信号成分を滲ませることができるため、被写体の種類に応じて輪郭補正や帯域制限およびノイズ削減などの効果を制御するような画像処理を違和感なく行うことができる。   According to the invention, even when the signal component of the pixel of interest and the adjacent pixel are completely different in the boundary portion of the original subject, the spatial boundary portion is obtained by performing the calculation between the adjacent pixels in the image space. By detecting the signal area from the blurred brightness signal, color difference signal, etc., the signal component of the adjacent pixel can be blurred into the target pixel, so contour correction, band limitation, noise reduction, etc. according to the type of subject It is possible to perform image processing for controlling the effect without any sense of incongruity.

以下、本発明の実施形態について、図面を参照しながら説明する。
[第1実施形態]
<1.1:信号処理装置の構成>
図1は、本発明の第1実施形態の信号処理装置100の概略構成を示す図である。
図1に示すように、信号処理装置100は、入力される輝度信号および色差信号を同時化するディレイライン部1と、ディレイライン部1から出力される輝度信号に対して空間フィルタ処理を行う空間フィルタ部21と、空間フィルタ部21の出力から輝度領域判定フラグを生成する特定輝度領域検出部31と、を備える。また、信号処理装置100は、ディレイライン部1から出力される色差信号に対して空間フィルタ処理を行う空間フィルタ部22と、空間フィルタ部22の出力から色領域判定フラグを生成する特定色領域検出部32と、を備える。さらに、信号処理装置100は、ディレイライン部1から出力される輝度信号および色差信号に対して、輝度領域判定フラグおよび色領域判定フラグに基づいて、所定の画像処理を行う画像処理部4を備える。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[First Embodiment]
<1.1: Configuration of Signal Processing Device>
FIG. 1 is a diagram showing a schematic configuration of a signal processing apparatus 100 according to the first embodiment of the present invention.
As shown in FIG. 1, the signal processing apparatus 100 includes a delay line unit 1 that synchronizes an input luminance signal and a color difference signal, and a space that performs spatial filter processing on the luminance signal output from the delay line unit 1. A filter unit 21 and a specific luminance region detection unit 31 that generates a luminance region determination flag from the output of the spatial filter unit 21 are provided. The signal processing apparatus 100 also includes a spatial filter unit 22 that performs spatial filter processing on the color difference signal output from the delay line unit 1, and a specific color region detection that generates a color region determination flag from the output of the spatial filter unit 22. Unit 32. Furthermore, the signal processing apparatus 100 includes an image processing unit 4 that performs predetermined image processing on the luminance signal and the color difference signal output from the delay line unit 1 based on the luminance region determination flag and the color region determination flag. .

ディレイライン部1は、輝度信号および色差信号を入力とし、注目画素(処理対象となっている画素)と、当該注目画素の水平方向、垂直方向および斜め方向の隣接画素を同時化する。ディレイライン部1の構成の一例について、図1Aを用いて説明する。
図1は、説明便宜のため、信号処理の対象としている輝度信号および色差信号をまとめて模式的に図示している。
図1Aは、輝度信号の処理のみの構成の一例について図示したものである。具体的には、図1Aは、ディレイライン部1の輝度信号用の処理部である輝度信号用ディレイライン部1A、空間フィルタ部21、特定輝度領域検出部31および画像処理部4を示す図である。なお、図1Aは、垂直方向3ライン分について同時化する場合の構成の一例である。
図1Aに示すように、輝度信号用ディレイライン部1Aは、第1遅延部11および第2遅延部12を有している。
The delay line unit 1 receives the luminance signal and the color difference signal, and simultaneously synchronizes the target pixel (the pixel to be processed) and the adjacent pixels in the horizontal, vertical, and diagonal directions of the target pixel. An example of the configuration of the delay line unit 1 will be described with reference to FIG. 1A.
For convenience of explanation, FIG. 1 schematically shows a luminance signal and a chrominance signal that are subject to signal processing.
FIG. 1A illustrates an example of a configuration that only processes luminance signals. Specifically, FIG. 1A is a diagram illustrating a luminance signal delay line unit 1A, a spatial filter unit 21, a specific luminance region detection unit 31, and an image processing unit 4 that are luminance signal processing units of the delay line unit 1. is there. Note that FIG. 1A is an example of a configuration in the case of synchronizing three vertical lines.
As illustrated in FIG. 1A, the luminance signal delay line unit 1 </ b> A includes a first delay unit 11 and a second delay unit 12.

第1遅延部11および第2遅延部12は、入力に対して、出力を1H(1ライン分)だけ遅延させる。第1遅延部11および第2遅延部12は、例えば、ラインメモリやFIFO(First In First Out)メモリにより構成される。
図1Aに示すように、輝度信号用ディレイライン部1Aは、入力輝度信号をそのまま出力した信号である輝度信号Y0と、輝度信号Y0に対して1H遅延させた信号である輝度信号Y1と、輝度信号をY0に対して2H遅延させた信号である輝度信号Y2と、3つの輝度信号を出力する。
そして、輝度信号用ディレイライン部1Aから出力された輝度信号Y0、Y1およびY2は、図1Aに示すように、空間フィルタ部21および画像処理部4に入力される。
このように、輝度信号用ディレイライン部1Aにより、垂直方向に信号が同時化される。
The first delay unit 11 and the second delay unit 12 delay the output by 1H (one line) with respect to the input. The first delay unit 11 and the second delay unit 12 are configured by, for example, a line memory or a FIFO (First In First Out) memory.
As shown in FIG. 1A, the luminance signal delay line unit 1A includes a luminance signal Y0 that is a signal obtained by directly outputting an input luminance signal, a luminance signal Y1 that is a signal delayed by 1H with respect to the luminance signal Y0, and luminance A luminance signal Y2 that is a signal obtained by delaying the signal by 2H with respect to Y0 and three luminance signals are output.
The luminance signals Y0, Y1, and Y2 output from the luminance signal delay line unit 1A are input to the spatial filter unit 21 and the image processing unit 4 as shown in FIG. 1A.
In this way, signals are simultaneously synchronized in the vertical direction by the luminance signal delay line section 1A.

なお、色差信号(Pb信号(Cb信号)およびPr信号(Cr信号))についても図1Aと同様の構成とすることができる。
図1は、図1Aに相当する部分については、説明便宜のため、簡略化して図示したものである。なお、図1Aでは、垂直方向に同時化する信号は、3ライン分(垂直3画素分)であるが、これに限定されることはなく、他のライン数(例えば、5ライン等)であっても良いことは言うまでもない。他のライン数を採用する場合は、採用したライン数に対応する数の遅延部(ラインメモリ等)を設ければ良い。
空間フィルタ部21は、ディレイライン部1から出力される輝度信号(同時化された輝度信号)を入力とし、入力された輝度信号に対して、水平方向、垂直方向および斜め方向の少なくとも一方向のフィルタ処理を行う。そして、空間フィルタ部21は、フィルタ処理した輝度信号を特定輝度領域検出部31に出力する。
Note that the color difference signals (Pb signal (Cb signal) and Pr signal (Cr signal)) can also have the same configuration as in FIG. 1A.
In FIG. 1, portions corresponding to FIG. 1A are illustrated in a simplified manner for convenience of explanation. In FIG. 1A, the signals to be synchronized in the vertical direction are for three lines (for three vertical pixels). However, the number of signals is not limited to this, and may be other numbers (for example, five lines). Needless to say. When other numbers of lines are employed, the number of delay units (line memory or the like) corresponding to the number of employed lines may be provided.
The spatial filter unit 21 receives the luminance signal (synchronized luminance signal) output from the delay line unit 1 and inputs at least one of a horizontal direction, a vertical direction, and an oblique direction with respect to the input luminance signal. Perform filtering. Then, the spatial filter unit 21 outputs the filtered luminance signal to the specific luminance region detection unit 31.

なお、空間フィルタ部21で実行される空間フィルタ処理が3×3の2次元フィルタによるものである場合、その構成の一例は、図1Aに示すようなものとすることができる。この場合、図1Aに示すように、空間フィルタ部21は、輝度信号Y0、Y1およびY2を、1画素分遅延させる遅延器(例えば、D−フリップフロップ)と、フィルタ係数を乗じる係数器と、加算器と、を用いて、FIR(Finite Impulse Response)フィルタにより構成することができる。なお、空間フィルタ処理部の構成は、図1Aに示した構成に限定されることはなく、例えば、垂直方向のフィルタと、水平方向のフィルタと、を組み合わせることで実現するようにしてもよい。また、フィルタのタップ数によりFIRフィルタの構成が変わることは言うまでもない。
空間フィルタ部22は、ディレイライン部1から出力される色差信号(同時化された色差信号)を入力とし、入力された色差信号に対して、水平方向、垂直方向および斜め方向の少なくとも一方向のフィルタ処理を行う、そして、空間フィルタ部22は、フィルタ処理した色差信号を特定色領域検出部32に出力する。なお、空間フィルタ部22の構成についても、空間フィルタ部21の場合と同様に、構成することができる(例えば、図1Aと同様の構成により構成することができる)。
In addition, when the spatial filter process performed by the spatial filter unit 21 is based on a 3 × 3 two-dimensional filter, an example of the configuration may be as illustrated in FIG. 1A. In this case, as shown in FIG. 1A, the spatial filter unit 21 includes a delay device (for example, a D-flip flop) that delays the luminance signals Y0, Y1, and Y2 by one pixel, a coefficient device that multiplies the filter coefficient, An adder and a FIR (Finite Impulse Response) filter can be used. Note that the configuration of the spatial filter processing unit is not limited to the configuration shown in FIG. 1A, and may be realized by combining, for example, a vertical filter and a horizontal filter. It goes without saying that the configuration of the FIR filter changes depending on the number of taps of the filter.
The spatial filter unit 22 receives the color difference signal (synchronized color difference signal) output from the delay line unit 1 and inputs at least one of a horizontal direction, a vertical direction, and an oblique direction with respect to the input color difference signal. The filter process is performed, and the spatial filter unit 22 outputs the filtered color difference signal to the specific color region detection unit 32. The configuration of the spatial filter unit 22 can also be configured in the same manner as the spatial filter unit 21 (for example, it can be configured by the same configuration as in FIG. 1A).

特定輝度領域検出部31は、空間フィルタ部21からの出力を入力とし、空間フィルタ部21によりフィルタ処理された輝度信号が、所定の輝度信号領域に含まれるか否かを判定する。そして、その判定結果を示す複数ビットによる輝度領域判定フラグを生成する。そして、特定輝度領域検出部31は、生成した輝度領域判定フラグを画像処理部4に出力する。
特定色領域検出部32は、空間フィルタ部22からの出力を入力とし、空間フィルタ部22によりフィルタ処理された色差信号が、所定の色差信号領域に含まれるか否かを判定する。そして、その判定結果を示す複数ビットによる色領域判定フラグを生成する。そして、特定色領域検出部32は、生成した色領域判定フラグを画像処理部4に出力する。
画像処理部4は、ディレイライン部1からの出力、輝度領域判定フラグおよび色領域判定フラグを入力とする。画像処理部4は、輝度領域判定フラグおよび色領域判定フラグの表すコードに基づいて、ディレイライン部1から出力された輝度信号および色差信号に対して、画像処理を行う。これにより、画面上(画像上)の被写体像ごとに処理の効果を変えることができる。
The specific luminance region detection unit 31 receives the output from the spatial filter unit 21 and determines whether or not the luminance signal filtered by the spatial filter unit 21 is included in a predetermined luminance signal region. Then, a luminance region determination flag with a plurality of bits indicating the determination result is generated. Then, the specific luminance area detection unit 31 outputs the generated luminance area determination flag to the image processing unit 4.
The specific color area detection unit 32 receives an output from the spatial filter unit 22 and determines whether or not the color difference signal filtered by the spatial filter unit 22 is included in a predetermined color difference signal area. Then, a color region determination flag with a plurality of bits indicating the determination result is generated. Then, the specific color region detection unit 32 outputs the generated color region determination flag to the image processing unit 4.
The image processing unit 4 receives the output from the delay line unit 1, the luminance region determination flag, and the color region determination flag. The image processing unit 4 performs image processing on the luminance signal and the color difference signal output from the delay line unit 1 based on the codes represented by the luminance region determination flag and the color region determination flag. Thereby, the processing effect can be changed for each subject image on the screen (on the image).

<1.2:信号処理装置の動作>
以上のように構成される信号処理装置100の動作について、以下、説明する。
本実施形態の信号処理装置100では、入力された輝度信号および色差信号は、ディレイライン部1により同時化される。
例えば、注目画素(処理対象の画素)を中心に3画素×3画素の2次元マトリクス状に隣接する画素を同時化するためには、FIFO(First−In First−Out)メモリなどで構成した2ライン分のディレイラインとすれば良い。この場合の一例の構成は、図1Aに示す構成である。
同時化された輝度信号および色差信号は、空間フィルタ部21および空間フィルタ部22によりフィルタ処理される。
<1.2: Operation of Signal Processing Device>
The operation of the signal processing apparatus 100 configured as described above will be described below.
In the signal processing apparatus 100 of the present embodiment, the input luminance signal and color difference signal are synchronized by the delay line unit 1.
For example, in order to synchronize pixels adjacent to each other in a two-dimensional matrix of 3 pixels × 3 pixels centering on a pixel of interest (processing target pixel), it is configured by a FIFO (First-In First-Out) memory 2 or the like. A delay line for the line may be used. An example of the configuration in this case is the configuration shown in FIG. 1A.
The synchronized luminance signal and color difference signal are filtered by the spatial filter unit 21 and the spatial filter unit 22.

このフィルタ処理は、図2に示すように、同時化された9画素のデータそれぞれに場所に応じたフィルタ係数を乗じて加算しても良いし、例えば、水平方向に隣接した画素のフィルタ処理、垂直方向に隣接した画素のフィルタ処理、および斜め方向に隣接した画素のフィルタ処理を個別に行っても良い。9画素のデータそれぞれに場所に応じたフィルタ係数を乗じて加算する場合の空間フィルタ部21および空間フィルタ部22の構成例(一例)として、図1Aに示す構成がある。また、垂直方向のフィルタ処理を行った後、水平方向のフィルタ処理を行う構成例の一例を、図1Bに示す。なお、垂直方向のフィルタ処理を行った後、水平方向のフィルタ処理を行う構成にすることで、9画素のデータそれぞれに場所に応じたフィルタ係数を乗じて加算する場合に比べて、D−フリップフロップ、フィルタ係数器および加算器の数を少なくすることができる(図1Aおよび図1B参照)。   As shown in FIG. 2, this filtering process may be performed by multiplying each of the synchronized 9-pixel data by a filter coefficient corresponding to the location. For example, the filtering process for pixels adjacent in the horizontal direction, Filter processing for pixels adjacent in the vertical direction and filter processing for pixels adjacent in the oblique direction may be performed separately. A configuration example (example) of the spatial filter unit 21 and the spatial filter unit 22 in the case of multiplying and adding each of the 9-pixel data by a filter coefficient corresponding to the location is the configuration shown in FIG. 1A. FIG. 1B illustrates an example of a configuration example in which the filter processing in the horizontal direction is performed after the filter processing in the vertical direction is performed. In addition, by performing the filter process in the horizontal direction after performing the filter process in the vertical direction, it is possible to multiply each of the 9-pixel data by the filter coefficient corresponding to the location and add the D-flip The number of filters, filter coefficient units and adders can be reduced (see FIGS. 1A and 1B).

また、空間フィルタ部21および空間フィルタ部22により実現されるフィルタ特性は、通常は、低域通過フィルタ(LPF)特性とすれば良いが、特定輝度領域あるいは特定色領域を検出するために十分である信号成分を抽出できるものであれば、それ以外の特性(例えば、BPF特性)であっても良い。
このように、空間フィルタ部21および空間フィルタ部22により実行される空間フィルタ処理により、例えば、注目画素とその隣接画素の信号成分が全く異なる信号領域の成分である場合であっても、注目画素に隣接画素の信号成分が所定の割合で含まれることになり、その境界部分で信号成分が段階的に(徐々に)変化するようになる。言い換えれば、空間フィルタ部21および空間フィルタ部22により実行される空間フィルタ処理により、注目画素とその隣接画素との境界部分で信号成分が急激に変化することを緩和(防止)することができる。
In addition, the filter characteristics realized by the spatial filter unit 21 and the spatial filter unit 22 are usually low-pass filter (LPF) characteristics, but are sufficient for detecting a specific luminance region or a specific color region. Other characteristics (for example, BPF characteristics) may be used as long as a certain signal component can be extracted.
As described above, by the spatial filter processing executed by the spatial filter unit 21 and the spatial filter unit 22, for example, even when the signal component of the target pixel and its adjacent pixels are completely different signal region components, , The signal components of adjacent pixels are included at a predetermined ratio, and the signal components change stepwise (gradually) at the boundary portion. In other words, the spatial filter processing executed by the spatial filter unit 21 and the spatial filter unit 22 can alleviate (prevent) the signal component from changing abruptly at the boundary between the target pixel and its adjacent pixels.

特定輝度領域検出部31では、予め輝度レベルをいくつかの領域、例えば、図3に示すように、4領域(図3の領域0〜領域3)に分割しておく。そして、特定輝度領域検出部31は、フィルタ処理された輝度信号が、4領域の中のどの領域に含まれるかを判定し、その判定結果を2ビットで4種類のコードとして表現する「輝度領域判定フラグ」を生成する。
特定色領域検出部32では、図4に示すように、色差平面上(図4では、Pb軸およびPr軸により定義されるPbPr色差平面)で検出すべき特定色が占める領域を、例えば、「領域3」、特定色ではない領域を「領域0」と設定する。そして、その境界領域を特定色領域に近い方、すなわち、特定色らしさの度合いが高い方から順に「領域2」および「領域1」と設定する。そして、特定色領域検出部32は、フィルタ処理された色差信号が、どの領域に含まれるかを判定し、その判定結果を2ビットで4種類のコードとして表現する色領域判定フラグを生成する。
In the specific luminance area detecting unit 31, the luminance level is divided into several areas in advance, for example, four areas (area 0 to area 3 in FIG. 3) as shown in FIG. Then, the specific luminance area detection unit 31 determines in which area of the four areas the filtered luminance signal is included, and expresses the determination result as four types of codes with two bits “luminance area” A “determination flag” is generated.
As shown in FIG. 4, the specific color area detection unit 32 occupies an area occupied by a specific color to be detected on the color difference plane (in FIG. 4, the PbPr color difference plane defined by the Pb axis and the Pr axis), for example, “ Area 3 ”and an area that is not a specific color are set as“ area 0 ”. Then, the boundary areas are set as “area 2” and “area 1” in order from the one closer to the specific color area, that is, the higher the degree of specific color. Then, the specific color region detection unit 32 determines in which region the filtered color difference signal is included, and generates a color region determination flag that expresses the determination result as two types of codes with 2 bits.

例えば、図4の「領域3」に、「肌色領域」を設定することで、画像上で、人の顔の部分の皺等が強調されることを抑制しつつ、画像上の肌色領域部分の背景とその境界部分に対して、ディテール感を段階的に(徐々に)向上させていくような処理を行うことができる。なお、「肌色領域」は、人の顔の色や人の肌の色を基準にして設定することが好ましい。例えば、図4の「領域3」に、「肌色領域」を設定する場合、PbPr色差平面において、日本人の平均的な顔の色を中心点として、日本人の95%以上の顔の色が含まれる広さの領域を色差平面上において設定することで、図4の「領域3」に「肌色領域」を設定すればよい。なお、これは一例であり、これに限定されることがないのは、言うまでもない。
図4では、色差平面をPb軸およびPr軸で表しているが、I軸およびQ軸で表される色差平面(IQ色平面)でも良いし、他の軸により定義される平面(色情報を判定することができる平面)であっても良い。この「他の軸により定義される平面」としては、例えば、CbCr色差平面。Lab色空間のab色平面(La*b*色空間のa*b*色平面)等がある。また、色平面ではなく、色空間(例えば、RGB色空間、YCbCr色空間、YPbPr色空間、xvYCC色空間、Lab色空間(La*b*色空間))において、領域を分割し、フィルタ処理された信号が、分割した領域の中のどの領域に属するかを判定することで、特定色領域検出処理を行うようにしてもよい。
For example, by setting the “skin color region” in “region 3” in FIG. 4, it is possible to suppress the enhancement of wrinkles and the like of the human face portion on the image, and the skin color region portion on the image. For the background and the boundary portion, it is possible to perform processing that improves the detail feeling step by step (gradually). The “skin color region” is preferably set based on the color of the human face or the color of the human skin. For example, when “skin color region” is set in “region 3” in FIG. 4, 95% or more of the Japanese face color is centered on the average Japanese face color on the PbPr color difference plane. By setting the area of the included area on the color difference plane, the “skin color area” may be set in “area 3” in FIG. Needless to say, this is an example, and the present invention is not limited to this.
In FIG. 4, the color difference plane is represented by the Pb axis and the Pr axis. However, a color difference plane (IQ color plane) represented by the I axis and the Q axis may be used, and a plane defined by another axis (color information is represented by A plane that can be determined). The “plane defined by the other axis” is, for example, a CbCr color difference plane. There is an ab color plane in the Lab color space (a * b * color plane in the La * b * color space). In addition, the color space (for example, RGB color space, YCbCr color space, YPbPr color space, xvYCC color space, Lab color space (La * b * color space)) is divided and filtered. The specific color area detection process may be performed by determining which of the divided areas the signal belongs to.

また、空間フィルタ部22から出力される信号を変換することで、別の色平面(または色空間)を変換し、変換した色平面(または色空間)において、特定色領域検出処理を行うようにしてもよい。例えば、空間フィルタ部22から出力される信号がPb信号およびPr信号である場合、特定色領域検出部において、当該Pb信号およびPr信号に対して、PbPr−IQ変換処理(Pb信号およびPr信号を、I信号およびQ信号に変換する処理)を行い、IQ色平面(I軸およびQ軸により定義される色平面)により、特定色領域検出処理を行うようにしてもよい。なお、特定色を「肌色」とする場合、肌色領域であるか否かの判定を行い易いIQ色平面を用いることが好ましい。
画像処理部4では、輝度領域判定フラグおよび色領域判定フラグが示すコードに基づいて、ディレイライン部1から出力された輝度信号および色差信号に対して信号処理を行う。
Also, by converting the signal output from the spatial filter unit 22, another color plane (or color space) is converted, and the specific color area detection process is performed on the converted color plane (or color space). May be. For example, when the signals output from the spatial filter unit 22 are a Pb signal and a Pr signal, the specific color region detection unit performs PbPr-IQ conversion processing (Pb signal and Pr signal on the Pb signal and Pr signal). , A process of converting into an I signal and a Q signal), and a specific color region detection process may be performed using an IQ color plane (a color plane defined by the I axis and the Q axis). When the specific color is “skin color”, it is preferable to use an IQ color plane that makes it easy to determine whether or not it is a skin color region.
The image processing unit 4 performs signal processing on the luminance signal and the color difference signal output from the delay line unit 1 based on the codes indicated by the luminance region determination flag and the color region determination flag.

輝度領域判定フラグおよび色領域判定フラグは、空間フィルタ部21および空間フィルタ部22により急激に変化する成分(高域成分)が除かれた信号(低域成分信号)に基づいて、段階的な値をとるフラグとして、生成されているので、画像上で急激に変化している部分(例えば、境界部分やエッジ部分)においても緩やかに(輝度領域判定フラグおよび色領域判定フラグのフラグ値に従って段階的に)変化する(急激に変化することがない)。
したがって、輝度領域判定フラグおよび色領域判定フラグにより、ディレイライン部1から出力された輝度信号および色差信号に対する信号処理の効果を制御することで、所定の信号領域に含まれる被写体像とその空間的に隣接する部分との境界部分で画像処理の効果が急激に変化することを効果的に抑制することができる。このため、画像処理部4から出力される信号により形成される画像(映像)は、違和感がなく、画像(映像)全体として自然な画像(映像)となる。
The luminance region determination flag and the color region determination flag are stepwise values based on a signal (low-frequency component signal) from which a component (high-frequency component) that changes rapidly by the spatial filter unit 21 and the spatial filter unit 22 is removed. Is generated as a flag for taking the image, so even in a rapidly changing portion (for example, a boundary portion or an edge portion) on the image, it is gradually increased according to the flag values of the luminance region determination flag and the color region determination flag. To) change (does not change suddenly).
Therefore, by controlling the effect of signal processing on the luminance signal and color difference signal output from the delay line unit 1 by the luminance region determination flag and the color region determination flag, the subject image included in the predetermined signal region and its spatial It is possible to effectively suppress a sudden change in the effect of the image processing at the boundary portion between the portion adjacent to the portion. For this reason, the image (video) formed by the signal output from the image processing unit 4 has no sense of incongruity and becomes a natural image (video) as a whole image (video).

(1.2.1:輪郭補正処理)
次に、画像処理部4で行われる処理について説明する。
まず、画像処理部4で実行される処理が「輪郭補正処理」である場合について、説明する。
図5は、画像処理として、「輪郭補正処理」を行う場合の信号処理装置100Aの概略構成を示す図である。信号処理装置100Aでは、信号処理装置100における画像処理部4が輪郭補正部5に置換されている。それ以外については、信号処理装置100Aは、信号処理装置100と同様である。信号処理装置100Aにおいて、信号処理装置100と同様の部分については、同じ符号を付し、説明を省略する。
輪郭補正部5は、輝度領域判定フラグおよび色領域判定フラグに基づいて、ディレイライン部1から出力される輝度信号および色差信号に対して、被写体像の輪郭部分を強調する信号処理を行う。
(1.2.1: Outline correction processing)
Next, processing performed by the image processing unit 4 will be described.
First, the case where the processing executed by the image processing unit 4 is “contour correction processing” will be described.
FIG. 5 is a diagram illustrating a schematic configuration of the signal processing device 100A when performing “contour correction processing” as image processing. In the signal processing device 100 </ b> A, the image processing unit 4 in the signal processing device 100 is replaced with a contour correction unit 5. Other than that, the signal processing device 100 </ b> A is the same as the signal processing device 100. In the signal processing device 100A, the same parts as those of the signal processing device 100 are denoted by the same reference numerals, and description thereof is omitted.
The contour correcting unit 5 performs signal processing for emphasizing the contour portion of the subject image on the luminance signal and the color difference signal output from the delay line unit 1 based on the luminance region determination flag and the color region determination flag.

図6は、輪郭補正部5の概略構成を示す図である。
図6に示すように、輪郭補正部5は、輪郭補正信号生成部51、コアリング処理部53、ゲイン調整部54、コアリング量/ゲイン量算出部52および加算部55を備える。
輪郭補正信号生成部51は、ディレイライン部1から出力される映像信号(輝度信号および色差信号)を入力とし、入力された映像信号(輝度信号および色差信号)から輪郭補正信号を生成し、コアリング処理部53に出力する、
コアリング量/ゲイン量算出部52は、輝度領域判定フラグおよび色領域判定フラグを入力とし、輝度領域判定フラグおよび色領域判定フラグの示すコードを基に、輪郭補正信号のコアリング量Cおよびゲイン量Gを算出する、そして、コアリング量/ゲイン量算出部52は、算出したコアリング量Cをコアリング処理部53に出力し、また、算出したゲイン量Gをゲイン調整部54に出力する。
FIG. 6 is a diagram illustrating a schematic configuration of the contour correction unit 5.
As illustrated in FIG. 6, the contour correction unit 5 includes a contour correction signal generation unit 51, a coring processing unit 53, a gain adjustment unit 54, a coring amount / gain amount calculation unit 52, and an addition unit 55.
The contour correction signal generation unit 51 receives the video signal (luminance signal and color difference signal) output from the delay line unit 1 and generates a contour correction signal from the input video signal (luminance signal and color difference signal). Output to the ring processing unit 53;
The coring amount / gain amount calculation unit 52 receives the luminance region determination flag and the color region determination flag as input, and based on the codes indicated by the luminance region determination flag and the color region determination flag, the coring amount C and the gain of the contour correction signal. The amount G is calculated, and the coring amount / gain amount calculating unit 52 outputs the calculated coring amount C to the coring processing unit 53 and outputs the calculated gain amount G to the gain adjusting unit 54. .

コアリング処理部53は、輪郭補正信号生成部51から出力される輪郭補正信号と、コアリング量/ゲイン量算出部52から出力されるコアリング量Cと、を入力とする。コアリング処理部53は、コアリング量/ゲイン量算出部52により算出されたコアリング量Cに従って、輪郭補正信号に対して、コアリング処理を実行する、そして、コアリング処理部53は、コアリング処理後の輪郭補正信号をゲイン調整部54に出力する。
ゲイン調整部54は、コアリング処理部53から出力される輪郭補正信号と、コアリング量/ゲイン量算出部52から出力されるゲイン量Gと、を入力とする。ゲイン調整部54は、コアリング量/ゲイン量算出部52により算出されたゲイン量Gに従って、コアリング処理後の輪郭補正信号のゲイン調整をする、そして、ゲイン調整部54は、ゲイン調整後の輪郭補正信号を加算部55に出力する。
The coring processor 53 receives the contour correction signal output from the contour correction signal generator 51 and the coring amount C output from the coring amount / gain amount calculator 52. The coring processing unit 53 performs coring processing on the contour correction signal according to the coring amount C calculated by the coring amount / gain amount calculating unit 52, and the coring processing unit 53 The contour correction signal after the ring processing is output to the gain adjustment unit 54.
The gain adjusting unit 54 receives the contour correction signal output from the coring processing unit 53 and the gain amount G output from the coring amount / gain amount calculating unit 52. The gain adjusting unit 54 adjusts the gain of the contour correction signal after coring processing according to the gain amount G calculated by the coring amount / gain amount calculating unit 52, and the gain adjusting unit 54 adjusts the gain after gain adjustment. The contour correction signal is output to the adder 55.

加算部55は、ディレイライン部1から出力される映像信号(輝度信号および色差信号)と、ゲイン調整部54から出力される輪郭補正信号と、を入力とし、両者を加算することで、輪郭補正した映像信号(輝度信号および色差信号)を生成する。すなわち、加算部55は、コアリング処理およびゲイン調整された輪郭補正信号を映像信号(輝度信号および色差信号)に付加する。
以下、輪郭補正処理について、図6および図6Aを用いて説明する。
輪郭補正信号生成部51では、入力された映像信号に水平方向、垂直方向および斜め方向などの帯域通過フィルタ(BPF)処理を行い、映像信号から所望の周波数成分の信号を輪郭補正信号として抽出する。そして、抽出された輪郭補正信号は、コアリング処理部53に出力される。
The adder 55 receives the video signal (luminance signal and chrominance signal) output from the delay line unit 1 and the contour correction signal output from the gain adjuster 54, and adds both to thereby correct the contour. The generated video signal (luminance signal and color difference signal) is generated. That is, the addition unit 55 adds the contour correction signal that has been subjected to coring processing and gain adjustment to the video signal (luminance signal and color difference signal).
Hereinafter, the contour correction process will be described with reference to FIGS. 6 and 6A.
The contour correction signal generation unit 51 performs a band pass filter (BPF) process on the input video signal in the horizontal direction, the vertical direction, and the diagonal direction, and extracts a signal having a desired frequency component from the video signal as a contour correction signal. . The extracted contour correction signal is output to the coring processing unit 53.

輪郭補正信号生成部51での処理において、ディレイライン部1のディレイライン(例えば、ラインメモリ)を、輪郭補正部5の処理(本線系の処理)と、空間フィルタ処理(空間フィルタ部21、22での処理)と、で共用することができる。これについて、図1A、図1Bおよび図6Aを用いて説明する。
図6Aは、輪郭補正部5において、輝度信号の処理のみの構成の一例である輝度信号用輪郭補正部5Aについて図示したものである。そして、説明便宜のため、輪郭補正信号生成部51において、3ライン分(垂直方向に3画素分)の画素を用いて、映像信号にフィルタ処理を行うものとして、以下、説明する。
図6Aに示すように、輝度信号用輪郭補正部5Aの輪郭補正信号生成部(輝度信号用)51には、輝度信号用ディレイライン部1A(図1A、図1B参照)の3つの出力である輝度信号Y0〜Y2が入力される。この輝度信号Y0〜Y2は、垂直方向に3ライン分同時化されている信号であるので、輪郭補正信号生成部(輝度信号用)51では、この輝度信号Y0〜Y2を用いて、輪郭補正信号生成用のフィルタ処理(例えば、3×3の2次元フィルタによるフィルタ処理)を行うことができる。
In the processing in the contour correction signal generation unit 51, the delay line (for example, line memory) of the delay line unit 1 is processed into processing of the contour correction unit 5 (main line processing) and spatial filter processing (spatial filter units 21, 22). Can be shared with). This will be described with reference to FIGS. 1A, 1B, and 6A.
FIG. 6A shows a luminance signal contour correction unit 5A, which is an example of a configuration of only luminance signal processing in the contour correction unit 5. For convenience of explanation, the following description will be made assuming that the contour correction signal generation unit 51 performs filtering on the video signal using pixels for three lines (three pixels in the vertical direction).
As shown in FIG. 6A, the contour correction signal generation unit (for luminance signal) 51 of the luminance signal contour correction unit 5A has three outputs of the luminance signal delay line unit 1A (see FIGS. 1A and 1B). Luminance signals Y0 to Y2 are input. Since the luminance signals Y0 to Y2 are signals synchronized for three lines in the vertical direction, the contour correction signal generation unit (for luminance signal) 51 uses the luminance signals Y0 to Y2 to generate the contour correction signal. Generation filter processing (for example, filter processing using a 3 × 3 two-dimensional filter) can be performed.

つまり、信号処理装置100Aでは、このような構成により、ディレイライン部1のディレイライン(例えば、ラインメモリ)を、輪郭補正部5の処理(本線系の処理)と、空間フィルタ処理(空間フィルタ部21、22での処理)と、で共用することができる。
なお、上記では、輝度信号について、説明したが、色差信号においても同様である。
また、輪郭補正信号生成部51では、主として、輝度信号に対して処理を行うことが効果的であるため、輪郭補正信号生成部51を、輝度信号処理用の輪郭補正信号生成部のみにより構成するようにしてもよい。
また、輪郭補正信号生成部51を、輝度信号処理用の輪郭補正信号生成部、色差信号処理用の輪郭補正信号生成部を、別々に有する構成としてもよい。
コアリング量/ゲイン量算出部52では、特定輝度領域検出部31から出力される輝度領域判定フラグおよび特定色領域検出部32から出力される色領域判定フラグの示すコードを基に信号領域の判定が行われる。そして、コアリング量/ゲイン量算出部52による信号領域についての判定結果に基づいて、コアリング処理部53において輪郭補正信号に対して実行されるコアリング処理のコアリング量Cと、ゲイン調整部54においてコアリング処理後の輪郭補正信号に対して実行されるゲイン調整処理のゲイン量Gと、が決定される。そして、コアリング量/ゲイン量算出部52により決定されたコアリング量Cおよびゲイン量Gは、それぞれ、コアリング処理部53およびゲイン調整部54に出力される。
That is, in the signal processing device 100A, with such a configuration, the delay line (for example, line memory) of the delay line unit 1 is processed by the contour correction unit 5 (main line processing) and the spatial filter processing (spatial filter unit). 21 and 22).
In the above description, the luminance signal has been described, but the same applies to the color difference signal.
In the contour correction signal generation unit 51, it is mainly effective to perform processing on the luminance signal. Therefore, the contour correction signal generation unit 51 is configured only by the contour correction signal generation unit for luminance signal processing. You may do it.
In addition, the contour correction signal generation unit 51 may have a configuration in which a contour correction signal generation unit for luminance signal processing and a contour correction signal generation unit for color difference signal processing are separately provided.
The coring amount / gain amount calculation unit 52 determines the signal region based on the code indicated by the luminance region determination flag output from the specific luminance region detection unit 31 and the color region determination flag output from the specific color region detection unit 32. Is done. Then, based on the determination result for the signal region by the coring amount / gain amount calculation unit 52, the coring processing unit 53 performs coring processing C to be performed on the contour correction signal, and the gain adjustment unit. In 54, the gain amount G of the gain adjustment process executed on the contour correction signal after the coring process is determined. The coring amount C and the gain amount G determined by the coring amount / gain amount calculating unit 52 are output to the coring processing unit 53 and the gain adjusting unit 54, respectively.

コアリング処理部53では、コアリング量/ゲイン量算出部52により算出されたコアリング量Cに従って、輪郭補正信号生成部51から出力される輪郭補正信号に対してコアリング処理が実行される。具体的には、コアリング処理部53は、輪郭補正信号生成部51から出力される輪郭補正信号をスライスすることにより、コアリング量C以下の微小振幅の輪郭補正信号をノイズとみなして削除する、すなわち、振幅0の信号にする、コアリング処理を行う。なお、コアリング処理部53において、コアリング処理の代わりに、たとえば、コアリング量C以下の信号の振幅を小さくする処理を行うようにしてもよい。
コアリング処理部53によりコアリング処理された輪郭補正信号は、ゲイン調整部54に出力される。
ゲイン調整部54では、コアリング処理された輪郭補正信号に対して、コアリング量/ゲイン量算出部52により算出されたゲイン量Gに従って、ゲイン調整を行う。そして、ゲイン調整された輪郭補正信号は、加算部55に出力される。
In the coring processing unit 53, the coring process is performed on the contour correction signal output from the contour correction signal generation unit 51 according to the coring amount C calculated by the coring amount / gain amount calculation unit 52. Specifically, the coring processing unit 53 slices the contour correction signal output from the contour correction signal generation unit 51, and deletes the contour correction signal having a minute amplitude equal to or less than the coring amount C as noise. That is, a coring process is performed to obtain a signal having an amplitude of 0. Note that the coring processing unit 53 may perform a process of reducing the amplitude of a signal having a coring amount C or less, for example, instead of the coring process.
The contour correction signal subjected to coring processing by the coring processing unit 53 is output to the gain adjustment unit 54.
The gain adjustment unit 54 performs gain adjustment on the contour correction signal subjected to the coring process according to the gain amount G calculated by the coring amount / gain amount calculation unit 52. Then, the gain-adjusted contour correction signal is output to the adder 55.

加算部55では、コアリング処理およびゲイン調整をされた輪郭補正信号を、元の映像信号(ディレイライン部1から出力される信号)に加算した後、必要に応じてオーバーフローやアンダーフローのクリップ処理を施して輪郭補正された映像信号として出力する。
図6に示す輪郭補正部5による輪郭補正処理では、輝度領域判定フラグや色領域判定フラグの示すコードに基づいてコアリング処理やゲイン調整により輪郭補正信号の大きさ(振幅、信号成分)が適切に制御される。つまり、この輪郭補正処理により、画像全体の輪郭補正の効果は保ったまま、例えば、人物の顔に相当する「肌色領域」に対しては、コアリング量の増加およびゲイン量の減少により輪郭補正の効果を抑制し、その背景との境界部分については色領域判定フラグのコードに基づいて段階的にコアリング量を減少およびゲイン量を増加させることで、輪郭補正の効果を段階的に(徐々に)強めていくことができる(肌色領域部分の背景とその境界部分に対しては、ディテール感を段階的に(徐々に)向上させていくことができる)。
The adder 55 adds the contour correction signal subjected to coring processing and gain adjustment to the original video signal (signal output from the delay line unit 1), and then performs overflow or underflow clipping processing as necessary. Is output as a video signal whose contour is corrected.
In the contour correction processing by the contour correction unit 5 shown in FIG. 6, the size (amplitude, signal component) of the contour correction signal is appropriately set by coring processing or gain adjustment based on the code indicated by the luminance region determination flag or the color region determination flag. Controlled. In other words, this contour correction process maintains the effect of the contour correction of the entire image, and for example, for a “skin color region” corresponding to a human face, the contour correction is performed by increasing the coring amount and decreasing the gain amount. By reducing the coring amount and increasing the gain amount step by step based on the code of the color region determination flag for the boundary portion with the background, the effect of contour correction is gradually increased (gradually) (B) The detail feeling can be improved step by step (gradually) for the background of the skin color region and its boundary.

一方、例えば、木の葉に相当する「緑色領域」に対しては、コアリング量の減少およびゲイン量の増加により輪郭補正の効果をより強調し、その背景との境界部分については色領域判定フラグのコードに基づいて段階的にコアリング量を増加およびゲイン量を減少させることで、輪郭補正の効果を段階的に(徐々に)弱めていくことができる(緑色領域部分の背景とその境界部分に対しては、ディテール感を段階的に(徐々に)低下させていくことができる)。
また、輝度レベルの低い領域では信号に対してノイズ量が相対的に増えるため、輪郭補正処理によりノイズ成分も強調されることになる。その場合は、低輝度領域に対してはコアリング量の増加およびゲイン量の減少により輪郭補正の効果を抑制し、低輝度部分と高輝度部分が隣接する境界部分については輝度領域判定フラグの示すコードに基づいて段階的にコアリング量を減少およびゲイン量を増加させることで、輪郭補正の効果を段階的に(徐々に)強めていくことができる。
On the other hand, for example, for a “green region” corresponding to a leaf, the effect of contour correction is further emphasized by reducing the coring amount and increasing the gain amount. By gradually increasing the coring amount and decreasing the gain amount based on the code, the effect of contour correction can be weakened gradually (gradually) (in the background of the green area and its boundary) On the other hand, the detail can be reduced in stages (gradually)).
Further, since the amount of noise is relatively increased with respect to the signal in the low luminance level region, the noise component is also emphasized by the contour correction processing. In that case, the effect of contour correction is suppressed by increasing the coring amount and decreasing the gain amount for the low luminance region, and the luminance region determination flag is indicated for the boundary portion where the low luminance portion and the high luminance portion are adjacent to each other. By reducing the coring amount and increasing the gain amount stepwise based on the code, the effect of contour correction can be increased stepwise (gradually).

これにより、信号処理装置100Aでは、画像空間上の被写体像の境界部分において急激に輪郭補正の効果を変化させることなく違和感のない輪郭補正処理を行うことができる。その結果、信号処理装置100Aにより取得される画像(映像)は、自然なものとなる。
(1.2.2:帯域制限処理)
次に、画像処理部4で実行される処理が「帯域制限処理」である場合について、説明する。
図7は、画像処理として、「帯域制限処理」を行う場合の信号処理装置100Bの概略構成を示す図である。信号処理装置100Bでは、信号処理装置100における画像処理部4が帯域制限部6に置換されており、また、空間フィルタ部21の出力が帯域制限部6に入力される構成となっている。それ以外については、信号処理装置100Bは、信号処理装置100と同様である。信号処理装置100Bにおいて、信号処理装置100、100Aと同様の部分については、同じ符号を付し、説明を省略する。
Thereby, the signal processing apparatus 100A can perform contour correction processing without a sense of incongruity without abruptly changing the effect of contour correction at the boundary portion of the subject image in the image space. As a result, the image (video) acquired by the signal processing device 100A becomes natural.
(1.2.2: Bandwidth limiting process)
Next, a case where the process executed by the image processing unit 4 is a “band limitation process” will be described.
FIG. 7 is a diagram illustrating a schematic configuration of the signal processing device 100B when performing “band limitation processing” as image processing. In the signal processing device 100 </ b> B, the image processing unit 4 in the signal processing device 100 is replaced with the band limiting unit 6, and the output of the spatial filter unit 21 is input to the band limiting unit 6. Other than that, the signal processing device 100B is the same as the signal processing device 100. In the signal processing device 100B, the same parts as those of the signal processing devices 100 and 100A are denoted by the same reference numerals and description thereof is omitted.

帯域制限部6は、ディレイライン部1から出力される映像信号と、空間フィルタ部21から出力される低域輝度信号と、特定輝度領域検出部31から出力される輝度領域判定フラグと、特定色領域検出部32から出力される色領域判定フラグと、を入力とする。帯域制限部6は、輝度領域判定フラグおよび色領域判定フラグに基づいて、ディレイライン部1から出力される映像信号(輝度信号および色差信号)に対して、周波数成分の帯域を制限する処理を行う。
図8は、帯域制限部6の概略構成を示す図である。
図8に示すように、減算部61は、ディレイライン部1から出力される輝度信号と、空間フィルタ部21から出力される低域輝度信号と、を入力とし、ディレイライン部1から出力される輝度信号から低域輝度信号を減算することにより高域輝度信号を生成する。そして、生成した高域輝度信号をコアリング処理部63に出力する。
The band limiting unit 6 includes a video signal output from the delay line unit 1, a low-frequency luminance signal output from the spatial filter unit 21, a luminance region determination flag output from the specific luminance region detection unit 31, and a specific color The color region determination flag output from the region detection unit 32 is input. Based on the luminance region determination flag and the color region determination flag, the band limiting unit 6 performs processing for limiting the frequency component band on the video signal (luminance signal and color difference signal) output from the delay line unit 1. .
FIG. 8 is a diagram showing a schematic configuration of the band limiting unit 6.
As shown in FIG. 8, the subtraction unit 61 receives the luminance signal output from the delay line unit 1 and the low-frequency luminance signal output from the spatial filter unit 21 and outputs from the delay line unit 1. A high-frequency luminance signal is generated by subtracting the low-frequency luminance signal from the luminance signal. Then, the generated high frequency luminance signal is output to the coring processing unit 63.

コアリング量/ゲイン量算出部62は、特定輝度領域検出部31から出力される輝度領域判定フラグと、特定色領域検出部32から出力される色領域判定フラグと、を入力とする。コアリング量/ゲイン量算出部62は、輝度領域判定フラグおよび色領域判定フラグの示すコードを基に高域輝度信号のコアリング量Cおよびゲイン量Gを算出する。そして、コアリング量/ゲイン量算出部62は、算出したコアリング量Cおよびゲイン量Gを、それぞれ、コアリング処理部63およびゲイン調整部64に出力する。
コアリング処理部63は、減算部61から出力される高域輝度信号およびコアリング量/ゲイン量算出部62により算出されたコアリング量Cを入力とし、コアリング量Cに従って高域輝度信号に対してコアリング処理を実行する。そして、コアリング処理部63は、コアリング処理した高域輝度信号をゲイン調整部64に出力する。
The coring amount / gain amount calculation unit 62 receives the luminance region determination flag output from the specific luminance region detection unit 31 and the color region determination flag output from the specific color region detection unit 32 as inputs. The coring amount / gain amount calculating unit 62 calculates the coring amount C and the gain amount G of the high-frequency luminance signal based on the codes indicated by the luminance region determination flag and the color region determination flag. Then, the coring amount / gain amount calculating unit 62 outputs the calculated coring amount C and gain amount G to the coring processing unit 63 and the gain adjusting unit 64, respectively.
The coring processing unit 63 receives the high-frequency luminance signal output from the subtracting unit 61 and the coring amount C calculated by the coring amount / gain amount calculating unit 62 and converts the high-frequency luminance signal according to the coring amount C. The coring process is executed for this. Then, the coring processing unit 63 outputs the high-frequency luminance signal subjected to the coring process to the gain adjustment unit 64.

ゲイン調整部64は、コアリング処理部63から出力されるコアリング処理された高域輝度信号およびコアリング量/ゲイン量算出部62により算出されたゲイン量Gを入力とし、コアリング量/ゲイン量算出部62により算出されたゲイン量Gに従って、コアリング処理された高域輝度信号に対してゲイン調整を行う。そして、ゲイン調整部64は、ゲイン調整後の高域輝度信号を加算部65に出力する。
加算部65は、ゲイン調整部64から出力されるゲイン調整後の高域輝度信号と、空間フィルタ部21から出力される低域輝度信号と、を入力とし、コアリング処理、ゲイン調整された高域輝度信号を、低域輝度信号と加算して輝度信号を生成し、出力する。
以下、帯域制限処理について図8を用いて説明する。
減算部61では、入力された輝度信号から低域輝度信号を減算することにより輝度信号の高周波成分を抽出して高域輝度信号を生成する。減算部61により生成された高域輝度信号は、コアリング処理部63に出力される。
The gain adjusting unit 64 receives the coring-processed high-frequency luminance signal output from the coring processing unit 63 and the gain amount G calculated by the coring amount / gain amount calculating unit 62, and inputs the coring amount / gain. According to the gain amount G calculated by the amount calculation unit 62, the gain adjustment is performed on the coring-processed high-frequency luminance signal. Then, the gain adjustment unit 64 outputs the high-frequency luminance signal after gain adjustment to the addition unit 65.
The addition unit 65 receives the high-frequency luminance signal after gain adjustment output from the gain adjustment unit 64 and the low-frequency luminance signal output from the spatial filter unit 21 as input, and coring processing and gain-adjusted high The luminance signal is added to the low luminance signal to generate a luminance signal and output.
Hereinafter, the band limiting process will be described with reference to FIG.
The subtracting unit 61 extracts a high frequency component of the luminance signal by subtracting the low frequency luminance signal from the input luminance signal to generate a high frequency luminance signal. The high frequency luminance signal generated by the subtracting unit 61 is output to the coring processing unit 63.

コアリング量/ゲイン量算出部62では、特定輝度領域検出部31から出力される輝度領域判定フラグおよび特定色領域検出部32から出力される色領域判定フラグの示すコードを基に信号領域の判定が行われる。そして、コアリング量/ゲイン量算出部62による信号領域についての判定結果に基づいて、コアリング処理部63において高域輝度信号に対して実行されるコアリング処理のコアリング量Cと、ゲイン調整部64においてコアリング処理後の高域輝度信号に対して実行されるゲイン調整処理のゲイン量Gと、が決定される。そして、コアリング量/ゲイン量算出部62により決定されたコアリング量Cおよびゲイン量Gは、それぞれ、コアリング処理部63およびゲイン調整部64に出力される。
コアリング処理部63では、コアリング量/ゲイン量算出部62により算出されたコアリング量Cに従って、減算部61から出力される高域輝度信号に対してコアリング処理が実行される。具体的には、コアリング処理部63は、減算部61から出力される高域輝度信号をスライスすることにより、コアリング量C以下の微小振幅の高域輝度信号をノイズとみなして削除する、すなわち、振幅0の信号にする、コアリング処理を行う。なお、コアリング処理部63において、コアリング処理の代わりに、たとえば、コアリング量C以下の信号の振幅を小さくする処理を行うようにしてもよい。
The coring amount / gain amount calculation unit 62 determines the signal region based on the code indicated by the luminance region determination flag output from the specific luminance region detection unit 31 and the color region determination flag output from the specific color region detection unit 32. Is done. Then, based on the determination result for the signal region by the coring amount / gain amount calculating unit 62, the coring processing unit 63 performs coring processing C to be performed on the high frequency luminance signal, and gain adjustment. The gain amount G of the gain adjustment process executed on the high frequency luminance signal after the coring process is determined in the unit 64. Then, the coring amount C and the gain amount G determined by the coring amount / gain amount calculating unit 62 are output to the coring processing unit 63 and the gain adjusting unit 64, respectively.
In the coring processing unit 63, the coring process is performed on the high frequency luminance signal output from the subtraction unit 61 according to the coring amount C calculated by the coring amount / gain amount calculating unit 62. Specifically, the coring processing unit 63 slices the high-frequency luminance signal output from the subtracting unit 61, and thereby deletes the high-frequency luminance signal having a minute amplitude equal to or smaller than the coring amount C as noise. That is, a coring process is performed to obtain a signal having an amplitude of 0. Note that the coring processing unit 63 may perform, for example, processing for reducing the amplitude of a signal having a coring amount C or less instead of the coring processing.

コアリング処理部63によりコアリング処理された高域輝度信号は、ゲイン調整部64に出力される。
ゲイン調整部64では、コアリング処理された高域輝度信号に対して、コアリング量/ゲイン量算出部62により算出されたゲイン量Gに従って、ゲイン調整が実行される。そして、ゲイン調整後の高域輝度信号は、加算部65に出力される。
加算部65では、コアリング処理およびゲイン調整をされた高域輝度信号は、空間フィルタ部21から出力される低域輝度信号と加算され、帯域制限された輝度信号として出力される。
図8に示す帯域制限部6による帯域制限処理では、輝度領域判定フラグや色領域判定フラグの示すコードに基づいてコアリング処理やゲイン調整により高域輝度信号の大きさ(振幅、信号成分)が適切に制御される。つまり、この帯域制限処理により、画像全体の周波数帯域は保ったまま、例えば、人物の顔に相当する「肌色領域」に対しては、コアリング量の増加およびゲイン量の減少により高域輝度信号の成分を抑制し、その背景との境界部分に対しては、色領域判定フラグのコードに基づいて段階的にコアリング量を減少およびゲイン量を増加させることで、帯域制限の効果を段階的に(徐々に)弱めていくことができる(肌色領域部分の背景とその境界部分に対しては、ディテール感を段階的に(徐々に)向上させていくことができる)。
The high frequency luminance signal subjected to the coring process by the coring processing unit 63 is output to the gain adjusting unit 64.
The gain adjustment unit 64 performs gain adjustment on the high-frequency luminance signal subjected to the coring process according to the gain amount G calculated by the coring amount / gain amount calculation unit 62. Then, the high-frequency luminance signal after gain adjustment is output to the adding unit 65.
In the adding unit 65, the high-frequency luminance signal subjected to the coring process and gain adjustment is added to the low-frequency luminance signal output from the spatial filter unit 21, and is output as a band-limited luminance signal.
In the band limiting process by the band limiting unit 6 shown in FIG. 8, the size (amplitude, signal component) of the high frequency luminance signal is adjusted by coring processing or gain adjustment based on the code indicated by the luminance region determination flag or the color region determination flag. Appropriately controlled. In other words, with this band limiting process, while maintaining the frequency band of the entire image, for example, for a “skin color region” corresponding to a human face, a high-frequency luminance signal is increased by increasing the coring amount and decreasing the gain amount. The band-limiting effect is reduced stepwise by reducing the coring amount and increasing the gain amount step by step based on the color area determination flag code. (Details can be improved gradually (gradually) for the background of the skin color region and its boundary portion).

一方、例えば、木の葉に相当する「緑色領域」に対してはコアリング量の減少およびゲイン量の増加により高域輝度信号の成分をより増大させ、その背景との境界部分については色領域判定フラグのコードに基づいて段階的にコアリング量を増加およびゲイン量を減少させることで、帯域制限の効果を段階的に(徐々に)強めていくことができる(緑色領域部分の背景とその境界部分に対しては、ディテール感を段階的に(徐々に)低下させていくことができる)。
また、この帯域制限処理により、輝度レベルの低い領域では、信号に対してノイズ量が相対的に増えるため、コアリング量をさらに増加およびゲイン量をさらに減少させることにより、ノイズ成分も抑制することができ、一方、低輝度部分と高輝度部分とが隣接する境界部分では、輝度領域判定フラグの示すコードに基づいて段階的にコアリング量を減少およびゲイン量を増大させることができる。
On the other hand, for example, for a “green region” corresponding to a leaf, a high-frequency luminance signal component is further increased by reducing the coring amount and increasing the gain amount, and a color region determination flag for the boundary portion with the background By gradually increasing the coring amount and decreasing the gain amount based on the code, the band-limiting effect can be increased stepwise (gradually) (the background of the green area and its boundary) The detail can be reduced in stages (gradually)).
In addition, this band limiting process increases the amount of noise relative to the signal in regions with low luminance levels, so that the noise component is also suppressed by further increasing the coring amount and further decreasing the gain amount. On the other hand, at the boundary portion where the low luminance portion and the high luminance portion are adjacent to each other, the coring amount can be decreased and the gain amount can be increased step by step based on the code indicated by the luminance region determination flag.

これにより、信号処理装置100Bでは、画像空間上の被写体像の境界部分において急激に帯域制限の効果を変化させることなく違和感のない帯域制限処理を行うことができる。その結果、信号処理装置100Bにより取得される画像(映像)は、自然なものとなる。
≪帯域制限部の変形例≫
次に、帯域制限部6の変形例である帯域制限部6Aについて、説明する。
図9は、帯域制限部6の別の概略構成(変形例)である帯域制限部6Aを示す図である。
図9に示すように、帯域制限部6Aは、混合比算出部66と、ゲイン調整部67、68と、加算部69と、を備える。
As a result, the signal processing apparatus 100B can perform the band limiting process without a sense of incongruity without abruptly changing the band limiting effect at the boundary portion of the subject image in the image space. As a result, the image (video) acquired by the signal processing device 100B becomes natural.
≪Modification of band limiter≫
Next, a band limiting unit 6A that is a modification of the band limiting unit 6 will be described.
FIG. 9 is a diagram illustrating a band limiting unit 6 </ b> A that is another schematic configuration (modified example) of the band limiting unit 6.
As illustrated in FIG. 9, the band limiting unit 6 </ b> A includes a mixing ratio calculation unit 66, gain adjustment units 67 and 68, and an addition unit 69.

混合比算出部66は、特定輝度領域検出部31から出力される輝度領域判定フラグおよび特定色領域検出部32から出力される色領域判定フラグを入力とし、輝度領域判定フラグおよび色領域判定フラグの示すコードを基に、輝度信号と低域輝度信号との混合割合k(0≦k≦1)を算出する、そして、混合比算出部66は、算出した混合割合kをゲイン調整部(係数器)67および68に出力する。
ゲイン調整部67(係数器)は、ディレイライン部1から出力される輝度信号と、混合比算出部66により算出された混合割合kと、を入力とし、ディレイライン部1から出力される輝度信号に対して、混合割合kによるゲイン調整を行う(輝度信号にkを乗じる)。そして、ゲイン調整部67は、ゲイン調整した輝度信号を加算部69に出力する。
ゲイン調整部68(係数器)は、空間フィルタ部21から出力される低域輝度信号と、混合比算出部66により算出された混合割合kと、を入力とし、空間フィルタ部21から出力される低域輝度信号に対して、混合割合(1−k)によるゲイン調整を行う(低域輝度信号に(1−k)を乗じる)。そして、ゲイン調整部68は、ゲイン調整した低域輝度信号を加算部69に出力する。
The mixing ratio calculation unit 66 receives the luminance region determination flag output from the specific luminance region detection unit 31 and the color region determination flag output from the specific color region detection unit 32, and sets the luminance region determination flag and the color region determination flag. The mixing ratio k (0 ≦ k ≦ 1) of the luminance signal and the low frequency luminance signal is calculated based on the code shown, and the mixing ratio calculation unit 66 calculates the calculated mixing ratio k as a gain adjustment unit (coefficient unit). ) Output to 67 and 68.
The gain adjusting unit 67 (coefficient unit) receives the luminance signal output from the delay line unit 1 and the mixing ratio k calculated by the mixing ratio calculating unit 66 and outputs the luminance signal output from the delay line unit 1. Is adjusted with the mixing ratio k (multiply the luminance signal by k). Then, the gain adjusting unit 67 outputs the gain-adjusted luminance signal to the adding unit 69.
The gain adjustment unit 68 (coefficient unit) receives the low-frequency luminance signal output from the spatial filter unit 21 and the mixing ratio k calculated by the mixing ratio calculation unit 66 as an input, and is output from the spatial filter unit 21. The gain adjustment is performed on the low-frequency luminance signal by the mixing ratio (1-k) (the low-frequency luminance signal is multiplied by (1-k)). Then, the gain adjusting unit 68 outputs the gain-adjusted low frequency luminance signal to the adding unit 69.

加算部69は、ゲイン調整部67から出力されるゲイン調整された輝度信号と、ゲイン調整部68から出力されるゲイン調整された低域輝度信号とを加算して輝度信号を生成する。
以下、帯域制限部6Aによる帯域制限処理について、図9を用いて説明する。
混合比算出部66では、輝度領域判定フラグおよび色領域判定フラグの示すコードを基に信号領域の判定が行われる。そして、判定された各信号領域において、入力された輝度信号と低域輝度信号との混合割合k(内分比k)が決定される。帯域制限部6Aによる帯域制限処理では、この混合割合k(内分比k)を小さくする程、低域輝度信号の割合が増え、出力される輝度信号の周波数帯域が制限されることになる。
ゲイン調整部67および68では、混合比算出部66で算出された混合割合kに従ってそれぞれ輝度信号および低域輝度信号のゲイン調整を行う。
The adding unit 69 adds the luminance-adjusted luminance signal output from the gain adjusting unit 67 and the gain-adjusted low-frequency luminance signal output from the gain adjusting unit 68 to generate a luminance signal.
Hereinafter, the band limiting process by the band limiting unit 6A will be described with reference to FIG.
In the mixing ratio calculation unit 66, the signal area is determined based on the codes indicated by the luminance area determination flag and the color area determination flag. Then, in each determined signal area, the mixing ratio k (internal division ratio k) of the input luminance signal and the low-frequency luminance signal is determined. In the band limiting process by the band limiting unit 6A, as the mixing ratio k (internal ratio k) is decreased, the ratio of the low-frequency luminance signal increases and the frequency band of the luminance signal to be output is limited.
The gain adjusting units 67 and 68 adjust the gain of the luminance signal and the low-frequency luminance signal according to the mixing ratio k calculated by the mixing ratio calculating unit 66, respectively.

加算部69では、ゲイン調整された輝度信号と低域輝度信号とを加算して帯域制限された輝度信号として出力する。
すなわち、ゲイン調整部67および68と、加算部69では、輝度信号と低域輝度信号に対して内分処理が実行される。つまり、加算部69から出力される輝度信号をYoutとし、ゲイン調整部67に入力される輝度信号をYinとし、ゲイン調整部68に入力される低域輝度信号をYlowとすると、
Yout=k・Yin+(1−k)・Ylow (0≦k≦1)
という内分処理が実行される。
図9に示す帯域制限部6Aによる帯域制限処理では、輝度領域判定フラグや色領域判定フラグの示すコードに基づいて輝度信号と低域輝度信号との混合割合が制御されるので、画像全体の周波数帯域は保ったまま、例えば、人物の顔に相当する「肌色領域」に対しては低域輝度信号の混合割合を増加させることにより高域輝度信号の成分を抑制し(内分比kの値を小さくする処理に相当。)、その背景との境界部分については、色領域判定フラグのコードに基づいて段階的に低域輝度信号の混合割合を減少させる(内分比kの値を大きくする処理に相当。)ことで、帯域制限の効果を段階的に(徐々に)弱めていくことができる(肌色領域部分の背景とその境界部分に対しては、ディテール感を段階的に(徐々に)向上させていくことができる)。
The adder 69 adds the gain-adjusted luminance signal and the low-frequency luminance signal, and outputs the result as a band-limited luminance signal.
That is, the gain adjustment units 67 and 68 and the addition unit 69 perform internal division processing on the luminance signal and the low-frequency luminance signal. That is, assuming that the luminance signal output from the adding unit 69 is Yout, the luminance signal input to the gain adjusting unit 67 is Yin, and the low frequency luminance signal input to the gain adjusting unit 68 is Ylow,
Yout = k · Yin + (1−k) · Ylow (0 ≦ k ≦ 1)
The internal division process is executed.
In the band limiting process by the band limiting unit 6A shown in FIG. 9, the mixing ratio of the luminance signal and the low-frequency luminance signal is controlled based on the code indicated by the luminance region determination flag and the color region determination flag. While maintaining the band, for example, for the “skin color region” corresponding to the face of a person, the component of the high-frequency luminance signal is suppressed by increasing the mixing ratio of the low-frequency luminance signal (the value of the internal ratio k). For the boundary portion with the background, the mixing ratio of the low-frequency luminance signal is gradually decreased based on the code of the color region determination flag (the value of the internal division ratio k is increased). (This is equivalent to processing.) By doing so, the effect of the band limitation can be gradually reduced (gradually). Can be improved) ).

また、輝度レベルの低い領域では信号に対してノイズ量が相対的に増えるため、低域輝度信号の混合割合をさらに増加させる(内分比kの値を小さくする処理に相当。)ことにより、ノイズ成分も抑制し、低輝度部分と高輝度部分とが隣接する境界部分については、輝度領域判定フラグの示すコードに基づいて段階的に低域輝度信号の混合割合を減少させることができる。
これにより、帯域制限部6Aを備える信号処理装置では、画像空間上の被写体像の境界部分において急激に帯域制限の効果を変えることなく違和感のない帯域制限処理を行うことができる。その結果、帯域制限部6Aを備える信号処理装置により取得される画像(映像)は、自然なものとなる。
(1.2.3:ノイズ削減処理)
次に、画像処理部4で実行される処理が「ノイズ削減処理」である場合について、説明する。
Further, since the amount of noise is relatively increased with respect to the signal in the low luminance level region, the mixing ratio of the low luminance signal is further increased (corresponding to the process of reducing the value of the internal division ratio k). Noise components are also suppressed, and the mixing ratio of the low-frequency luminance signal can be reduced stepwise based on the code indicated by the luminance region determination flag for the boundary portion where the low-luminance portion and the high-luminance portion are adjacent.
As a result, the signal processing apparatus including the band limiting unit 6A can perform the band limiting process without a sense of incongruity without abruptly changing the band limiting effect at the boundary portion of the subject image in the image space. As a result, the image (video) acquired by the signal processing device including the band limiting unit 6A is natural.
(1.2.3: Noise reduction processing)
Next, a case where the processing executed by the image processing unit 4 is “noise reduction processing” will be described.

図10は、画像処理として、「ノイズ削減処理」を行う場合の信号処理装置100Cの概略構成を示す図である。信号処理装置100Cでは、信号処理装置100における画像処理部4がノイズ削減部7に置換されている。それ以外については、信号処理装置100Cは、信号処理装置100と同様である。信号処理装置100Cにおいて、信号処理装置100、100A、100Bと同様の部分については、同じ符号を付し、説明を省略する。
ノイズ削減部7は、輝度領域判定フラグおよび色領域判定フラグに基づいて、ディレイライン部1から出力される映像信号に含まれるノイズ成分を削減する処理を行う。
図11は、ノイズ削減部7の概略構成を示す図である。
図11に示すように、ノイズ削減部7は、比較閾値算出部71と、周辺画素比較部72と、画素置換部73と、を備える。
FIG. 10 is a diagram illustrating a schematic configuration of a signal processing device 100C when performing “noise reduction processing” as image processing. In the signal processing device 100 </ b> C, the image processing unit 4 in the signal processing device 100 is replaced with a noise reduction unit 7. Other than that, the signal processing device 100 </ b> C is the same as the signal processing device 100. In the signal processing device 100C, the same parts as those of the signal processing devices 100, 100A, and 100B are denoted by the same reference numerals and description thereof is omitted.
The noise reduction unit 7 performs a process of reducing noise components included in the video signal output from the delay line unit 1 based on the luminance region determination flag and the color region determination flag.
FIG. 11 is a diagram illustrating a schematic configuration of the noise reduction unit 7.
As shown in FIG. 11, the noise reduction unit 7 includes a comparison threshold value calculation unit 71, a peripheral pixel comparison unit 72, and a pixel replacement unit 73.

比較閾値算出部71は、特定輝度領域検出部31から出力される輝度領域判定フラグと、特定色領域検出部32から出力される色領域判定フラグと、を入力とする。比較閾値算出部71は、輝度領域判定フラグおよび色領域判定フラグの示すコードを基に注目画素と周辺画素との相関性の有無を判断する際の規準となる閾値THを算出する、そして、比較閾値算出部71は、算出した閾値THを周辺画素比較部72に出力する。
なお、閾値THの決定方法は、信号処理装置100Cを有する装置(例えば、カメラシステム)において取得される画像(映像)の周波数特性やS/N比といった、いわゆるカメラ性能に基づいて、決定することが好ましい。また、閾値THの決定方法は、信号処理装置100Cを有する装置の製造時に決定するようにしてもよく、また、信号処理装置100Cを有する装置においてインターフェース部を設け、ユーザにより設定できるようにしてもよい。
The comparison threshold calculation unit 71 receives the luminance region determination flag output from the specific luminance region detection unit 31 and the color region determination flag output from the specific color region detection unit 32. The comparison threshold value calculation unit 71 calculates a threshold value TH that is a criterion for determining whether or not there is a correlation between the pixel of interest and the surrounding pixels based on the codes indicated by the luminance region determination flag and the color region determination flag, and the comparison The threshold calculation unit 71 outputs the calculated threshold TH to the surrounding pixel comparison unit 72.
Note that the threshold TH is determined based on so-called camera performance such as frequency characteristics and S / N ratio of an image (video) acquired in an apparatus (for example, a camera system) having the signal processing apparatus 100C. Is preferred. The threshold TH may be determined at the time of manufacture of the apparatus having the signal processing apparatus 100C, or an interface unit may be provided in the apparatus having the signal processing apparatus 100C so that the user can set the threshold TH. Good.

周辺画素比較部72は、ディレイライン部1から出力される映像信号と、比較閾値算出部71により算出された閾値THと、を入力とし、閾値THを基準に注目画素と周辺画素との相関性の有無を判断し、その判断結果を表現する相関判定フラグFを生成する、そして、周辺画素比較部72は、生成した相関判定フラグFを画素置換部73に出力する。
画素置換部73は、ディレイライン部1から出力される映像信号と、周辺画素比較部72から出力される相関判定フラグFを入力とし、相関判定フラグFに従って注目画素を周辺の相関画素の平均値と置き換える。
以下、ノイズ削減処理について図11を用いて説明する。
比較閾値算出部71では、輝度領域判定フラグおよび色領域判定フラグの示すコードを基に信号領域の判定が行われる。そして、判定された各信号領域において、映像信号(輝度信号および色差信号)の注目画素と周辺画素との相関性の有無を判断するための基準となる閾値THが決定される。
The peripheral pixel comparison unit 72 receives the video signal output from the delay line unit 1 and the threshold TH calculated by the comparison threshold calculation unit 71, and correlates the target pixel and the peripheral pixels with the threshold TH as a reference. The correlation determination flag F expressing the determination result is generated, and the surrounding pixel comparison unit 72 outputs the generated correlation determination flag F to the pixel replacement unit 73.
The pixel replacement unit 73 receives the video signal output from the delay line unit 1 and the correlation determination flag F output from the peripheral pixel comparison unit 72, and determines the target pixel as an average value of the peripheral correlation pixels according to the correlation determination flag F. Replace with
Hereinafter, the noise reduction processing will be described with reference to FIG.
The comparison threshold calculation unit 71 determines the signal area based on the codes indicated by the luminance area determination flag and the color area determination flag. Then, in each determined signal area, a threshold TH serving as a reference for determining whether or not there is a correlation between the target pixel of the video signal (luminance signal and color difference signal) and the peripheral pixel is determined.

周辺画素比較部72では、注目画素と周辺画素とのレベルの差がこの閾値TH以下である場合には、注目画素の周辺画素は、注目画素と「相関が有る」と判断され、相関判定フラグFを立てる(例えば、相関判定フラグFの値を「1」にする)。一方、注目画素と周辺画素とのレベルの差がこの閾値THを超える場合には、注目画素の周辺画素は、注目画素と「相関がない」と判断され、相関判定フラグFを立てない(例えば、相関判定フラグFの値を「0」にする)。
画素置換部73では、相関判定フラグFが注目画素とその周辺画素とが「相関あり」であることを示している場合(例えば、相関判定フラグFの値が「1」である場合)、周辺画素の中で相関判定フラグが立っている周辺画素を加算平均することによりノイズ成分を削減したデータを生成し、注目画素と置き換える。一方、相関判定フラグFが注目画素とその周辺画素とが「相関なし」であることを示している場合(例えば、相関判定フラグFの値が「0」である場合)、注目画素をそのまま画素置換部73から出力する(画素置換部73に入力された映像信号をそのまま出力する)。
In the peripheral pixel comparison unit 72, when the difference in level between the target pixel and the peripheral pixel is equal to or smaller than the threshold TH, the peripheral pixel of the target pixel is determined to be “correlated” with the target pixel, and the correlation determination flag F is set (for example, the value of the correlation determination flag F is set to “1”). On the other hand, when the level difference between the target pixel and the peripheral pixel exceeds the threshold value TH, it is determined that the peripheral pixel of the target pixel is “no correlation” with the target pixel, and the correlation determination flag F is not set (for example, The value of the correlation determination flag F is set to “0”).
In the pixel replacement unit 73, when the correlation determination flag F indicates that the pixel of interest and its surrounding pixels are “correlated” (for example, when the value of the correlation determination flag F is “1”), By averaging the peripheral pixels for which the correlation determination flag is set among the pixels, data with reduced noise components is generated and replaced with the pixel of interest. On the other hand, when the correlation determination flag F indicates that the target pixel and its surrounding pixels are “no correlation” (for example, when the value of the correlation determination flag F is “0”), the target pixel is used as it is. Output from the replacement unit 73 (the video signal input to the pixel replacement unit 73 is output as it is).

なお、画素置換部73の処理において、ディレイライン部1のディレイライン(例えば、ラインメモリ)を、空間フィルタ処理(空間フィルタ部21、22での処理)と、で共用することができるので、画素置換部73を構成する場合に、別途、ディレイライン(例えば、ラインメモリ)が必要になることはないので、ハード規模の増大を抑えることができる。
上記の方法によるノイズ削減処理では、加算平均する画素の数が多ければ多いほどノイズ成分の削減効果が大きくなる。従って、比較閾値算出部71で、決定される閾値THが大きくなれば相関性の有る周辺画素が多くなり、ノイズ成分の削減効果が大きくなることになる。
図11に示すノイズ削減部7によるノイズ削減処理では、輝度領域判定フラグや色領域判定フラグの示すコードに基づいて注目画素と周辺画素との相関性を判断する際に用いる閾値THの大きさが適切に制御される。つまり、このノイズ削減処理により、画像全体のノイズ削減効果は保ったまま、例えば、人物の顔に相当する「肌色領域」に対しては、閾値THを増加させることによりノイズ成分を抑制し、その背景との境界部分に対しては、色領域判定フラグのコードに基づいて段階的に閾値THを減少させることで、ノイズ制限の効果を段階的に(徐々に)変化させることができる。また、輝度レベルの低い領域では、信号に対してノイズ量が相対的に増えるため、閾値THをさらに増加させることによりノイズ成分をさらに抑制することができ、一方、低輝度部分と高輝度部分とが隣接する境界部分では、輝度領域判定フラグの示すコードに基づいて段階的に閾値THを減少させることができる。
In the processing of the pixel replacement unit 73, the delay line (for example, line memory) of the delay line unit 1 can be shared by the spatial filter processing (processing by the spatial filter units 21 and 22). When the replacement unit 73 is configured, a delay line (for example, a line memory) is not required separately, so that an increase in hardware scale can be suppressed.
In the noise reduction processing by the above method, the noise component reduction effect increases as the number of pixels to be averaged increases. Therefore, if the threshold value TH determined by the comparison threshold value calculation unit 71 is increased, the number of surrounding pixels having correlation increases, and the noise component reduction effect increases.
In the noise reduction processing by the noise reduction unit 7 illustrated in FIG. 11, the threshold TH used when determining the correlation between the pixel of interest and the surrounding pixels based on the codes indicated by the luminance region determination flag and the color region determination flag is large. Appropriately controlled. That is, by this noise reduction processing, while maintaining the noise reduction effect of the entire image, for example, for the “skin color region” corresponding to the face of a person, the noise component is suppressed by increasing the threshold TH, For the boundary portion with the background, the noise limiting effect can be changed stepwise (gradually) by gradually reducing the threshold TH based on the code of the color region determination flag. Further, since the amount of noise is relatively increased with respect to the signal in the low luminance level region, the noise component can be further suppressed by further increasing the threshold value TH. On the other hand, the low luminance portion and the high luminance portion In the boundary portion adjacent to each other, the threshold value TH can be decreased stepwise based on the code indicated by the luminance region determination flag.

これにより、信号処理装置100Cでは、画像空間上の被写体像の境界部分において急激にノイズ削減の効果を変化させることなく違和感のないノイズ削減処理を行うことができる。その結果、信号処理装置100Cにより取得される画像(映像)は、自然なものとなる。
以上のように、各種信号処理について説明したが、本実施形態による輪郭補正、帯域制限およびノイズ削減処理は、映像信号を同時化するためのディレイラインを使用しており、このディレイラインを本発明における信号領域検出前の空間フィルタ処理(空間フィルタ部21および22の処理)のための映像信号の同時化に使用するディレイラインと共用することができるため回路規模の増大を招くことなく実現可能である。
なお、輪郭補正、帯域制限およびノイズ削減処理の方法は、本実施形態に限るものではなく、領域判定フラグに基づいて効果の度合いを制御できる方法であれば他の方法でも構わない。
As a result, the signal processing apparatus 100C can perform noise reduction processing without a sense of incongruity without abruptly changing the noise reduction effect at the boundary portion of the subject image in the image space. As a result, the image (video) acquired by the signal processing device 100C is natural.
As described above, various types of signal processing have been described. However, the contour correction, the band limitation, and the noise reduction processing according to the present embodiment use a delay line for synchronizing video signals. Can be shared with the delay line used to synchronize the video signal for the spatial filter processing (processing of the spatial filter units 21 and 22) before the signal area detection in FIG. is there.
Note that the methods of contour correction, band limitation, and noise reduction processing are not limited to the present embodiment, and other methods may be used as long as the degree of effect can be controlled based on the region determination flag.

また、本実施形態では、画像処理として輪郭補正、帯域制限およびノイズ削減を単独で行う例を示したが、信号処理装置において、これらの処理を全て行うようにしてもよいし、本発明の特許請求の範囲を逸脱しない範囲で、信号領域ごとに段階的に処理の効果を制御する他の画像処理を、信号処理装置において実行するようにしてもよい。
また、本実施形態では、輝度信号と色差信号とを、ディレイラインを用いて(ディレイライン部により)同時化して空間フィルタ処理した後に信号領域を検出しているが、異なる形式の信号、例えば、RGB形式の信号(原色信号)であるR信号、G信号、B信号を、ディレイラインを用いて同時化して空間フィルタ処理した後に、特定輝度領域検出部および特定色領域検出部で輝度信号および色差信号に変換して信号領域を検出してもよい。具体的には、例えば、以下により信号領域を検出してもよい。
(1)RGB形式のR信号、G信号およびB信号を、YPbPr形式のY信号、Pb信号およびPr信号に、変換し、Y信号成分およびPbPr色差平面により信号領域を検出する。
(2)RGB形式のR信号、G信号およびB信号を、YIQ形式のY信号、I信号およびQ信号に、変換し、Y信号成分およびIQ色平面により信号領域を検出する。
Further, in the present embodiment, an example in which contour correction, band limitation, and noise reduction are performed independently as image processing has been described. However, in the signal processing device, all of these processes may be performed, or the patent of the present invention. Other image processing that controls the effect of the processing step by step for each signal region may be executed in the signal processing device without departing from the scope of the claims.
In the present embodiment, the luminance signal and the color difference signal are synchronized using the delay line (by the delay line unit) and subjected to the spatial filter processing, and then the signal region is detected. The RGB signal (primary color signal) R signal, G signal, and B signal are synchronized using a delay line and subjected to spatial filter processing, and then the luminance signal and color difference are detected by the specific luminance region detection unit and the specific color region detection unit. The signal region may be detected by converting the signal. Specifically, for example, the signal region may be detected as follows.
(1) The RGB R signal, G signal, and B signal are converted into a YPbPr Y signal, a Pb signal, and a Pr signal, and a signal region is detected by the Y signal component and the PbPr color difference plane.
(2) The RGB R signal, G signal, and B signal are converted into YIQ Y signal, I signal, and Q signal, and a signal region is detected by the Y signal component and IQ color plane.

また、RGB形式の信号(原色信号)であるR信号、G信号およびB信号のまま信号領域を検出するようにしてもよい。
なお、輪郭補正、帯域制限およびノイズ削減処理の各画像処理は、輝度信号および色差信号のいずれか一方または両方に対しても行っても構わないし、原色信号R、G、Bに対して行っても構わない。
また、色領域を判定するために設定する領域は、図4に示したものに限定されることはなく、領域の設定数、領域の形状は、他のものであってもよい。例えば、領域の形状は、円形状の領域や、楕円形状の領域や、扇形の領域としてもよい。
なお、本実施形態では、画像の水平方向、垂直方向および斜め方向の空間フィルタ処理を行った後に信号領域を検出する場合について説明したが、これに限定されることはなく、例えば、ディレイラインをフレームメモリで構成して注目画素の前後のフレームの画素間で時間方向についても空間フィルタ処理を行った後に信号領域を検出するようにしてもよい。このようにすることで、映像のシーンの変わり目などで輪郭補正、帯域制限およびノイズ削減処理などの各画像処理効果の急激な変化を抑制することができる。
Alternatively, the signal area may be detected with the R signal, the G signal, and the B signal being RGB signals (primary color signals).
Note that the image processing such as contour correction, band limitation, and noise reduction processing may be performed on one or both of the luminance signal and the color difference signal, or may be performed on the primary color signals R, G, and B. It doesn't matter.
Further, the area set for determining the color area is not limited to that shown in FIG. 4, and the number of areas set and the shape of the area may be other. For example, the shape of the region may be a circular region, an elliptical region, or a sector region.
In the present embodiment, the case where the signal region is detected after performing the spatial filter processing in the horizontal direction, the vertical direction, and the oblique direction of the image has been described. However, the present invention is not limited to this. A signal area may be detected after the spatial filter processing is performed in the temporal direction between the pixels of the frame before and after the pixel of interest configured by a frame memory. By doing so, it is possible to suppress a rapid change in each image processing effect such as contour correction, band limitation, and noise reduction processing at the transition of a video scene.

以上のように、本実施形態の信号処理装置では、回路規模の増大を招くことなく、画像(映像)上の被写体像の境界部分で処理の効果を段階的に制御して違和感のない輪郭補正、帯域制限およびノイズ削減処理などの画像処理を実現することができる。
[他の実施形態]
なお、上記実施形態で説明した信号処理装置において、各ブロックは、LSIなどの半導体装置により個別に1チップ化されても良いし、一部又は全部を含むように1チップ化されても良い。
なお、ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。
As described above, in the signal processing device according to the present embodiment, contour correction without a sense of incongruity is performed by controlling the processing effect stepwise at the boundary portion of the subject image on the image (video) without increasing the circuit scale. Image processing such as band limitation and noise reduction processing can be realized.
[Other Embodiments]
In the signal processing apparatus described in the above embodiment, each block may be individually made into one chip by a semiconductor device such as an LSI, or may be made into one chip so as to include a part or the whole.
Here, although LSI is used, it may be called IC, system LSI, super LSI, or ultra LSI depending on the degree of integration.
Further, the method of circuit integration is not limited to LSI, and implementation with a dedicated circuit or a general-purpose processor is also possible. An FPGA (Field Programmable Gate Array) that can be programmed after manufacturing the LSI or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.

さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてあり得る。
また、上記実施形態の各処理をハードウェアにより実現してもよいし、ソフトウェアにより実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。なお、上記実施形態に係る信号処理をハードウェアにより実現する場合、各処理を行うためのタイミング調整を行う必要があるのは言うまでもない。上記実施形態においては、説明便宜のため、実際のハードウェア設計で生じる各種信号のタイミング調整の詳細については省略している。
なお、本発明の具体的な構成は、前述の実施形態に限られるものではなく、発明の要旨を逸脱しない範囲で種々の変更および修正が可能である。
Further, if integrated circuit technology comes out to replace LSI's as a result of the advancement of semiconductor technology or a derivative other technology, it is naturally also possible to carry out function block integration using this technology. Biotechnology can be applied as a possibility.
Moreover, each process of the said embodiment may be implement | achieved by hardware, and may be implement | achieved by software. Further, it may be realized by mixed processing of software and hardware. Needless to say, when the signal processing according to the above embodiment is realized by hardware, it is necessary to adjust the timing for performing each processing. In the above embodiment, for convenience of explanation, details of timing adjustment of various signals generated in actual hardware design are omitted.
The specific configuration of the present invention is not limited to the above-described embodiment, and various changes and modifications can be made without departing from the scope of the invention.

本発明にかかる信号処理装置、信号処理方法、プログラムおよび集積回路は、被写体像ごとに画像処理の効果を変えたい場合にも、被写体像の境界部分では滑らかに効果を変えることができる信号処理を実現することができるので、映像機器関連産業分野において、有用であり、本発明は、当該分野において実施することができる。   The signal processing apparatus, signal processing method, program, and integrated circuit according to the present invention perform signal processing that can smoothly change the effect at the boundary portion of the subject image even when the effect of the image processing is desired to be changed for each subject image. Since it can be realized, it is useful in the field of video equipment related industries, and the present invention can be implemented in this field.

本発明の第1実施形態に係る信号処理装置100の概略構成図1 is a schematic configuration diagram of a signal processing device 100 according to a first embodiment of the present invention. 輝度信号用ディレイライン部1A、空間フィルタ部21、特定輝度領域検出部31および画像処理部4の概略構成図Schematic configuration diagram of the luminance signal delay line unit 1A, the spatial filter unit 21, the specific luminance region detection unit 31, and the image processing unit 4 輝度信号用ディレイライン部1A、空間フィルタ部21、特定輝度領域検出部31および画像処理部4の概略構成図Schematic configuration diagram of the luminance signal delay line unit 1A, the spatial filter unit 21, the specific luminance region detection unit 31, and the image processing unit 4 空間フィルタの係数配置を説明する図The figure explaining the coefficient arrangement of the spatial filter 輝度信号領域と輝度領域判定フラグの関係を説明する図The figure explaining the relationship between a luminance signal area and a luminance area determination flag 色信号領域と色領域判定フラグの関係を説明する図The figure explaining the relationship between a color signal area and a color area determination flag 本発明の第1実施形態に係る輪郭補正を行う信号処理装置100Aの概略構成を説明する図The figure explaining schematic structure of 100 A of signal processing apparatuses which perform the outline correction which concerns on 1st Embodiment of this invention. 輪郭補正部5の概略構成図Schematic configuration diagram of the contour correction unit 5 輪郭補正部5Aの概略構成図Schematic configuration diagram of the contour correction unit 5A 本発明の第1実施形態に係る帯域制限を行う信号処理装置100Bの概略構成図Schematic configuration diagram of a signal processing device 100B that performs band limitation according to the first embodiment of the present invention. 帯域制限部6の概略構成図Schematic configuration diagram of the band limiting unit 6 帯域制限部6Aの概略構成図Schematic configuration diagram of the band limiting unit 6A 本発明の第1実施形態に係るノイズ削減を行う信号処理装置100Cの概略構成図Schematic configuration diagram of a signal processing device 100C that performs noise reduction according to the first embodiment of the present invention. ノイズ削減部7の概略構成図Schematic configuration diagram of the noise reduction unit 7

100、100A、100B、100C 信号処理装置
1、1A ディレイライン部
11、12 遅延部(第1遅延部、第2遅延部)
21、22 空間フィルタ部
31 特定輝度領域検出部
32 特定色領域検出部
4 画像処理部
5、5A 輪郭補正部
51 輪郭補正信号生成部
52、62 コアリング量/ゲイン量算出部
53、63 コアリング部
54、64 ゲイン部
55、65、69 加算部
6、6A 帯域制限部
61 減算部
66 混合比算出部
67、68 ゲイン調整部
7 ノイズ削減部
71 比較閾値算出部
72 周辺画素比較部
73 画素置換部
100, 100A, 100B, 100C Signal processing device 1, 1A Delay line unit 11, 12 Delay unit (first delay unit, second delay unit)
21, 22 Spatial filter unit 31 Specific luminance region detection unit 32 Specific color region detection unit 4 Image processing unit 5, 5A Contour correction unit 51 Contour correction signal generation unit 52, 62 Coring amount / gain amount calculation unit 53, 63 Coring Unit 54, 64 gain unit 55, 65, 69 addition unit 6, 6A band limiting unit 61 subtraction unit 66 mixing ratio calculation unit 67, 68 gain adjustment unit 7 noise reduction unit 71 comparison threshold calculation unit 72 peripheral pixel comparison unit 73 pixel replacement Part

Claims (11)

第1画像信号により形成される画像に含まれ処理対象である注目画素に対して空間演算処理を行うことで、前記第1画像信号の注目画素から第2画像信号の注目画素を生成する空間演算処理部と、
前記第2画像信号の注目画素が所定の信号領域に含まれるか否かを判定し、その判定結果を示す領域判定フラグを生成する領域検出部と、
前記領域検出部により生成された前記領域判定フラグに対応する所定の画像処理を前記第1画像信号に対してう画像処理部と、
を備え
前記空間演算処理部は、前記第1画像信号が形成する画像空間上において、前記注目画素の水平方向、垂直方向、斜め方向および時間方向の少なくとも一方向に隣接する画素を用いて前記空間演算処理を行う、
信号処理装置。
By performing the spatial processing on the target pixel included is a processing target image formed by the first image signal, the spatial operation that generates a target pixel of the second image signal from the pixel of interest in the first image signal A processing unit;
An area detection unit that determines whether or not the target pixel of the second image signal is included in a predetermined signal area, and generates an area determination flag indicating the determination result;
And line Cormorant image processing unit to the front Symbol first image signal to predetermined image processing corresponding to the area determining flag generated by the region detecting section,
Equipped with a,
The space calculation processing unit uses the pixels adjacent in at least one of a horizontal direction, a vertical direction, a diagonal direction, and a time direction of the pixel of interest on an image space formed by the first image signal. I do,
Signal processing device.
前記第1画像信号の注目画素と、前記注目画素垂直方向に隣接する画素と、を同時化するディレイライン部をさらに備え、
前記空間演算処理部は、前記ディレイライン部により同時化された前記第1画像信号を用いて、前記空間演算処理を行い、
前記画像処理部は、前記ディレイライン部により同時化された前記第1画像信号に対して前記所定の画像処理を行う、
請求項1記載の信号処理装置。
A delay line unit that simultaneously synchronizes the target pixel of the first image signal and the pixel adjacent to the target pixel in the vertical direction;
The spatial processing unit uses the first image signal synchronized by the delay line section, performs the spatial processing,
The image processing unit performs the predetermined image processing on the first image signal synchronized by the delay line unit;
The signal processing apparatus according to claim 1.
前記空間演算処理部は、前記注目画素に対して空間フィルタ処理を実行することで、前記空間演算処理を行う、
請求項1または2に記載の信号処理装置。
The spatial processing unit, by performing spatial filtering, performs the spatial processing with respect to the pixel of interest,
The signal processing apparatus according to claim 1 or 2 .
前記領域判定フラグは、少なくとも、第1信号領域、境界部分信号領域、第2信号領域に対応するフラグを有し、
前記第1信号領域は、前記所定の信号領域であり、
前記境界部分信号領域は、前記第1信号領域を囲う信号領域であり、
前記第2信号領域は、前記第1信号領域と前記境界部分信号領域以外の信号領域である、
請求項1からのいずれかに記載の信号処理装置。
The region determination flag has flags corresponding to at least a first signal region, a boundary signal region, and a second signal region,
The first signal area is the predetermined signal area;
The boundary partial signal area is a signal area surrounding the first signal area;
The second signal region is a signal region other than the first signal region and the boundary signal region.
The signal processing apparatus according to any one of claims 1 to 3.
前記画像処理部は、
前記領域判定フラグの示すコードの値に従って前記第1画像信号に施す輪郭補正の効果を段階的に調整し
前記領域判定フラグの示すコードの値に従って前記第1画像信号に施す帯域制限の効果を段階的に調整し
前記領域判定フラグの示すコードの値に従って前記第1画像信号に施すノイズ削減の効果を段階的に調整する、
請求項1からのいずれかに記載の信号処理装置。
The image processing unit
In accordance with the code value indicated by the region determination flag, the effect of contour correction to be applied to the first image signal is adjusted in stages,
In accordance with the value of the code indicated by the region determination flag, the effect of band limitation applied to the first image signal is adjusted stepwise.
Adjusting the effect of noise reduction applied to the first image signal stepwise according to the code value indicated by the region determination flag ;
The signal processing apparatus according to any one of claims 1 to 4.
前記所定の信号領域は、所定の輝度信号領域および色差信号領域の少なくとも1つである、
請求項1からのいずれかに記載の信号処理装置。
The predetermined signal area is at least one of a predetermined luminance signal area and a color difference signal area.
The signal processing apparatus according to any one of claims 1 to 5.
前記第1画像信号および前記第2画像信号は、輝度信号および色差信号から形成され、
前記領域検出部は、前記第2画像信号の前記注目画素が前記所定の信号領域に含まれるか否かの判定を、前記第2画像信号を形成する輝度信号に基づいて定義される輝度領域および前記第2画像信号を形成する色差信号に基づいて定義される色差平面領域を用いて行う、
請求項1からのいずれかに記載の信号処理装置。
The first image signal and the second image signal are formed from a luminance signal and a color difference signal,
The region detection unit determines whether or not the target pixel of the second image signal is included in the predetermined signal region based on a luminance region defined based on a luminance signal that forms the second image signal, and Using a color difference plane region defined based on a color difference signal forming the second image signal,
The signal processing apparatus according to any one of claims 1 6.
前記第1画像信号および前記第2画像信号は、R成分信号、G成分信号およびB成分信号から形成され、
前記領域検出部は、
前記第2画像信号の前記注目画素が前記所定の信号領域に含まれるか否かの判定を、前記第2画像信号を形成するR成分信号、G成分信号およびB成分信号により定義される色空間若しくは色平面、又は、前記第2画像信号を形成するR成分信号、G成分信号およびB成分信号により定義される色空間若しくは色平面を変換して取得される色空間若しくは色平面を、用いて行う、
請求項1からのいずれかに記載の信号処理装置。
The first image signal and the second image signal are formed from an R component signal, a G component signal, and a B component signal,
The region detection unit
A color space defined by an R component signal, a G component signal, and a B component signal forming the second image signal is used to determine whether the target pixel of the second image signal is included in the predetermined signal region. Alternatively, using a color plane, or a color space or color plane obtained by converting a color space or color plane defined by the R component signal, G component signal and B component signal forming the second image signal, Do,
The signal processing apparatus according to any one of claims 1 6.
第1画像信号により形成される画像に含まれ処理対象である注目画素に対して空間演算処理を行うことで、前記第1画像信号の注目画素から第2画像信号の注目画素を生成する空間演算処理ステップと、
前記第2画像信号の注目画素が所定の信号領域に含まれるか否かを判定し、その判定結果を示す領域判定フラグを生成する領域検出ステップと、
前記領域検出ステップにより生成された前記領域判定フラグに対応する所定の画像処理を前記第1画像信号に対してう画像処理ステップと、
を備え
前記空間演算処理ステップにおいては、前記第1画像信号が形成する画像空間上において、前記注目画素の水平方向、垂直方向、斜め方向および時間方向の少なくとも一方向に隣接する画素を用いて前記空間演算処理を行う、
信号処理方法。
By performing the spatial processing on the target pixel included is a processing target image formed by the first image signal, the spatial operation that generates a target pixel of the second image signal from the pixel of interest in the first image signal Processing steps;
A region detection step of determining whether or not the target pixel of the second image signal is included in a predetermined signal region, and generating a region determination flag indicating the determination result;
And line Cormorant image processing step to the first image signal to predetermined image processing corresponding to the area determining flag generated by the area detecting step,
Equipped with a,
In the space calculation processing step, the space calculation is performed using pixels adjacent to at least one of a horizontal direction, a vertical direction, a diagonal direction, and a time direction of the pixel of interest on an image space formed by the first image signal. Process,
Signal processing method.
第1画像信号により形成される画像に含まれ処理対象である注目画素に対して空間演算処理を行うことで、前記第1画像信号の注目画素から第2画像信号の注目画素を生成する空間演算処理ステップと、
前記第2画像信号の注目画素が所定の信号領域に含まれるか否かを判定し、その判定結果を示す領域判定フラグを生成する領域検出ステップと、
前記領域検出ステップにより生成された前記領域判定フラグに対応する所定の画像処理を前記第1画像信号に対してう画像処理ステップと、
を備え
前記空間演算処理ステップにおいては、前記第1画像信号が形成する画像空間上において、前記注目画素の水平方向、垂直方向、斜め方向および時間方向の少なくとも一方向に隣接する画素を用いて前記空間演算処理を行う、
信号処理方法をコンピュータに実行させるプログラム。
By performing the spatial processing on the target pixel included is a processing target image formed by the first image signal, the spatial operation that generates a target pixel of the second image signal from the pixel of interest in the first image signal Processing steps;
A region detection step of determining whether or not the target pixel of the second image signal is included in a predetermined signal region, and generating a region determination flag indicating the determination result;
And line Cormorant image processing step to the first image signal to predetermined image processing corresponding to the area determining flag generated by the area detecting step,
Equipped with a,
In the space calculation processing step, the space calculation is performed using pixels adjacent to at least one of a horizontal direction, a vertical direction, a diagonal direction, and a time direction of the pixel of interest on an image space formed by the first image signal. Process,
A program for causing a computer to execute a signal processing method.
第1画像信号により形成される画像に含まれ処理対象である注目画素に対して空間演算処理を行うことで、前記第1画像信号の注目画素から第2画像信号の注目画素を生成する空間演算処理部と、
前記第2画像信号の注目画素が所定の信号領域に含まれるか否かを判定し、その判定結果を示す領域判定フラグを生成する領域検出部と、
前記領域検出部により生成された前記領域判定フラグに対応する所定の画像処理を前記第1画像信号に対してう画像処理部と、
を備え
前記空間演算処理部は、前記第1画像信号が形成する画像空間上において、前記注目画素の水平方向、垂直方向、斜め方向および時間方向の少なくとも一方向に隣接する画素を用いて前記空間演算処理を行う、
る集積回路。
By performing the spatial processing on the target pixel included is a processing target image formed by the first image signal, the spatial operation that generates a target pixel of the second image signal from the pixel of interest in the first image signal A processing unit;
An area detection unit that determines whether or not the target pixel of the second image signal is included in a predetermined signal area, and generates an area determination flag indicating the determination result;
And line Cormorant image processing unit predetermined image processing to the first image signal corresponding to the area determining flag generated by the region detecting section,
Equipped with a,
The space calculation processing unit uses the pixels adjacent in at least one of a horizontal direction, a vertical direction, a diagonal direction, and a time direction of the pixel of interest on an image space formed by the first image signal. I do,
Integrated circuit.
JP2009038138A 2009-02-20 2009-02-20 Signal processing apparatus and signal processing method Active JP5193089B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009038138A JP5193089B2 (en) 2009-02-20 2009-02-20 Signal processing apparatus and signal processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009038138A JP5193089B2 (en) 2009-02-20 2009-02-20 Signal processing apparatus and signal processing method

Publications (2)

Publication Number Publication Date
JP2010193381A JP2010193381A (en) 2010-09-02
JP5193089B2 true JP5193089B2 (en) 2013-05-08

Family

ID=42818908

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009038138A Active JP5193089B2 (en) 2009-02-20 2009-02-20 Signal processing apparatus and signal processing method

Country Status (1)

Country Link
JP (1) JP5193089B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012099013A1 (en) * 2011-01-20 2012-07-26 シャープ株式会社 Image correction device, image correction display device, image correction method, program, and recording medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4105539B2 (en) * 2002-12-27 2008-06-25 シャープ株式会社 Image processing apparatus, image forming apparatus including the same, image processing method, image processing program, and recording medium

Also Published As

Publication number Publication date
JP2010193381A (en) 2010-09-02

Similar Documents

Publication Publication Date Title
US8107123B2 (en) Tone correction apparatus, mobile terminal, image capturing apparatus, mobile phone, tone correction method and program for improve local contrast in bright and dark regions
JP4290193B2 (en) Image processing device
US9137464B2 (en) Image processing apparatus and control method of the same
JP4894595B2 (en) Image processing apparatus and method, and program
TWI407800B (en) Improved processing of mosaic images
JP5094219B2 (en) Image processing apparatus, image processing method, program, recording medium, and integrated circuit
JP5316625B2 (en) Image composition apparatus and program
TWI511559B (en) Image processing method
US8401324B2 (en) Visual processing apparatus, visual processing method, program, recording medium, display device, and integrated circuit
TWI519151B (en) Image processing method and image processing apparatus
JP4869653B2 (en) Image processing device
JP4926499B2 (en) Noise reduction processing apparatus, method, program, and camera apparatus
JP2010056774A (en) Apparatus, method and program for processing image
JP2007110576A (en) Color correction device for subject image data and control method thereof
US8625893B2 (en) Image processing device and image processing method
JP2011018141A (en) Image processing apparatus and program
US8659684B2 (en) Image processing apparatus, program, method and image capturing system
JPH10210323A (en) Gradation correction device and video signal processor using the same
JP5439210B2 (en) Image processing device
JP5193089B2 (en) Signal processing apparatus and signal processing method
JP7437921B2 (en) Image processing device, image processing method, and program
JP7365206B2 (en) Image processing device, image processing method, and program
JP2010277607A (en) Apparatus and method for processing image
Kharitonenko et al. Suppression of noise amplification during colour correction
JP5242750B2 (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130201

R150 Certificate of patent or registration of utility model

Ref document number: 5193089

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160208

Year of fee payment: 3