JPH0760462B2 - Image area dividing device - Google Patents
Image area dividing deviceInfo
- Publication number
- JPH0760462B2 JPH0760462B2 JP3166813A JP16681391A JPH0760462B2 JP H0760462 B2 JPH0760462 B2 JP H0760462B2 JP 3166813 A JP3166813 A JP 3166813A JP 16681391 A JP16681391 A JP 16681391A JP H0760462 B2 JPH0760462 B2 JP H0760462B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- frequency component
- output
- small
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Analysis (AREA)
Description
【0001】[0001]
【産業上の利用分野】この発明は画像領域分割装置に関
し、特に、画像認識,画像理解,画像計測などの分野に
おいて、画像から特徴領域を抽出するような画像領域分
割装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image area dividing device, and more particularly to an image area dividing device for extracting a characteristic region from an image in the fields of image recognition, image understanding, image measurement and the like.
【0002】[0002]
【従来の技術】画像認識や画像理解や画像計測などの分
野において、画像から特徴領域を抽出することが重要で
あり、その特徴抽出の精度が認識精度や計測精度に影響
を及ぼしてしまう。2. Description of the Related Art In the fields of image recognition, image understanding, image measurement, etc., it is important to extract a characteristic region from an image, and the accuracy of the characteristic extraction affects recognition accuracy and measurement accuracy.
【0003】画像の空間周波数を解析し、その解析結果
に基づいて、空間周波数に応じた領域を抽出する従来の
手法として、たとえば、Fumiaki Tomit
a,Saburo Tsujiによって著されている著
書「COMPUTER ANALYSIS OF VI
SUAL TEXTURE」(KLUWERACADE
MIC PUBLISHERS,1990)において紹
介されているテキスチャー解析の手法が考えられてい
る。この文献の中で、画像の高空間周波数領域抽出方法
として、画像を周波数変換し、その周波数成分の分布を
解析し、特定の周波数成分を抽出して逆変換を行なった
後、領域を抽出する手法が考えられている。As a conventional method of analyzing the spatial frequency of an image and extracting a region corresponding to the spatial frequency based on the analysis result, for example, Fumiaki Tomit
a, "COMPUTER ANALYSIS OF VI" written by Saburo Tsuji
SUAL TEXTURE "(KLUWERACADE
The method of texture analysis introduced in MIC PUBLISHERS, 1990) is considered. In this document, as a method for extracting a high spatial frequency region of an image, the image is frequency-transformed, the distribution of its frequency components is analyzed, a specific frequency component is extracted and inverse transformation is performed, and then the region is extracted. A method is being considered.
【0004】[0004]
【発明が解決しようとする課題】上述の手法は、画像全
体に対して領域の抽出が行なわれるため、大まかな抽出
は可能であっても、抽出精度が低いという欠点がある。
また、上述の文献の中で、統計的解析手法として計算対
象とする画素周辺の画像の値を用いて画素単位で同時生
起確率などを計算し、画像の空間周波数に関する特徴領
域を抽出する手法が考えられており、非常に精度よく抽
出可能であるが、膨大な計算量を必要とするため、処理
速度が遅いという欠点がある。特に、たとえばハイビジ
ョンのように分解能が非常に大きい画像、すなわち扱う
データ量が大きくなるほど、上述の欠点は顕著となる。The above-mentioned method has a drawback in that the extraction accuracy is low even though rough extraction is possible because the area is extracted from the entire image.
Further, in the above-mentioned literature, there is a method of calculating a co-occurrence probability etc. in pixel units using a value of an image around a pixel to be calculated as a statistical analysis method and extracting a characteristic region related to the spatial frequency of the image. Although it can be extracted with high accuracy, it has a drawback that the processing speed is slow because it requires a huge amount of calculation. In particular, the above-mentioned drawback becomes more remarkable as an image having a very high resolution, such as high-definition, that is, a larger amount of data to be handled.
【0005】それゆえに、この発明の主たる目的は、処
理過程の短縮を実現しながら精度よく、入力画像の空間
周波数成分が集中している領域および空間周波数成分が
集中していない領域を自動的に抽出できるような画像領
域分割装置を提供することである。Therefore, a main object of the present invention is to accurately and accurately realize a region in which a spatial frequency component of an input image is concentrated and a region in which a spatial frequency component is not concentrated while realizing the shortening of the processing process. An object is to provide an image area dividing device that can be extracted.
【0006】[0006]
【課題を解決するための手段】この発明は画像領域分割
装置であって、画像を撮像する撮像手段と、撮像手段出
力を小さな画像領域の画像に分割する分割手段と、分割
手段の出力を各小領域ごとに周波数成分に変換する周波
数成分変換手段と、周波数成分変換手段の出力を元の画
像の大きさの画像に統合する統合手段と、統合手段出力
から空間周波数成分の分布の広がり抽出する分布抽出手
段と、分布抽出手段出力を空間周波数成分が集中してい
る集中領域候補と空間周波数成分が集中していない分散
領域候補に分離する領域候補分離手段と、領域候補分離
手段の各出力に応じて、空間周波数成分の集中領域およ
び空間周波数成分の分散領域を抽出する領域抽出手段と
を備えて構成される。SUMMARY OF THE INVENTION The present invention is an image area dividing device, wherein an image pickup means for picking up an image, a dividing means for dividing the output of the image pickup means into images of a small image area, and an output of the dividing means are provided. Frequency component conversion means for converting each small region into a frequency component, integration means for integrating the output of the frequency component conversion means into an image of the original image size, and extraction of the spread of the spatial frequency component distribution from the output of the integration means. A distribution extraction unit, a region candidate separation unit that separates the output of the distribution extraction unit into a concentrated region candidate in which the spatial frequency component is concentrated and a distributed region candidate in which the spatial frequency component is not concentrated, and to each output of the region candidate separation unit. Accordingly, it is configured to include a region extraction unit that extracts a spatial frequency component concentration region and a spatial frequency component dispersion region.
【0007】[0007]
【作用】この発明における画像領域分割装置は、撮像さ
れた画像を小さな領域の画像に分割した後、各分割され
た画像領域単位で周波数成分を計算し、元の画像の小領
域を対象とした周波数成分を求め、各分割された小領域
を元の大きさに統合し、統合された画像において小領域
における空間周波数分布の広がりを検出し、領域抽出を
行なうことにより、高速に精度よく空間周波数成分の集
中領域および分散領域を自動的に抽出することができ
る。The image area dividing device according to the present invention divides the picked-up image into images of small areas, calculates the frequency component in each divided image area, and targets the small areas of the original image. By calculating the frequency component, integrating each divided small area to the original size, detecting the spread of the spatial frequency distribution in the small area in the integrated image, and extracting the area, high-speed and accurate spatial frequency It is possible to automatically extract the concentrated area and the dispersed area of the component.
【0008】[0008]
【発明の実施例】図1はこの発明の一実施例の概略ブロ
ック図である。まず、図1を参照して、この発明の構成
について説明する。画像領域分割装置は、対象物を撮像
する撮像手段としてのビデオカメラ1を含む。ビデオカ
メラ1で撮像された映像信号はA/D変換器2に与えら
れ、ディジタル信号画像S1に変換される。A/D変換
器2によって変換されたディジタル信号画像S1は表色
系変換部3に与えられ、知覚表色系を表わす画像S2に
変換される。この画像S2は小領域分割部4に与えら
れ、小領域の画像S3に分割される。分割された各小領
域の画像S3は周波数成分変換部5に与えられ、周波数
成分の画像S4に変換される。小領域ごとの周波数成分
に変換された画像S4は領域統合部6に与えられ、元の
画像の大きさの画像S5に統合される。1 is a schematic block diagram of an embodiment of the present invention. First, the configuration of the present invention will be described with reference to FIG. The image area dividing device includes a video camera 1 as an image pickup means for picking up an image of an object. The video signal picked up by the video camera 1 is given to the A / D converter 2 and converted into a digital signal image S1. The digital signal image S1 converted by the A / D converter 2 is supplied to the color system conversion unit 3 and converted into an image S2 representing the perceptual color system. This image S2 is given to the small area dividing unit 4 and divided into small area images S3. The divided image S3 of each small region is given to the frequency component conversion unit 5 and converted into an image S4 of frequency components. The image S4 converted into the frequency component for each small area is given to the area integration unit 6 and integrated into the image S5 having the size of the original image.
【0009】上述の領域統合部6で統合された元の画像
の大きさの画像S5は分布抽出部7に与えられ、各小領
域ごとの周波数成分の周波数に対する分布の広がりが抽
出される。この抽出された周波数に対する分布の広がり
を表わす画像S6は領域候補分離部8に与えられ、空間
周波数成分が集中している集中領域候補と、空間周波数
成分候補が集中していない分散領域候補に分離される。
分離された画像S7は集中領域抽出部9に与えられ、空
間周波数成分の集中領域が抽出された画像S9が出力さ
れる。領域候補分離部8で分離された画像S8は分散領
域抽出部10に与えられ、空間周波数成分の分散領域が
抽出された画像S10が出力される。The image S5 having the original image size integrated by the above-mentioned area integration section 6 is given to the distribution extraction section 7, and the spread of the distribution of the frequency component of the frequency component for each small area is extracted. The image S6 representing the spread of the distribution with respect to the extracted frequency is given to the region candidate separation unit 8 and separated into a concentrated region candidate in which the spatial frequency component is concentrated and a dispersed region candidate in which the spatial frequency component candidate is not concentrated. To be done.
The separated image S7 is supplied to the concentrated area extraction unit 9, and the image S9 in which the concentrated area of the spatial frequency component is extracted is output. The image S8 separated by the region candidate separation unit 8 is given to the dispersion region extraction unit 10, and the image S10 in which the dispersion region of the spatial frequency component is extracted is output.
【0010】図2は対象物として人物の顔を用いた場合
の一実施例における図1における出力画像S1およびS
2を示す図であり、図3は図1における小領域分割部4
と周波数成分変換部5と領域統合部6を説明するための
図であって、対象物として人物の顔を用いた場合の16
×16画素を小領域に分割した一実施例における図1の
出力画像S3,S4およびS5を示す図であり、図4お
よび図5は周波数成分画像の周波数に対する分布の広が
りの抽出を説明するためのものであって、16×16画
素の小領域に分割された場合の一実施例を示す図であ
る。図6は対象物として人物の顔を用いた場合の4×4
画素の小領域に分割された一実施例における、図1の出
力画像S6,S7およびS8を示す図であり、図7は対
象物として人物の顔を用いた場合の4×4画素の小領域
に分割された一実施例における、図1の出力画像S9お
よびS10を示す図である。FIG. 2 shows output images S1 and S in FIG. 1 in an embodiment in which a human face is used as an object.
2 is a diagram showing the second area, and FIG.
FIG. 16 is a diagram for explaining the frequency component conversion unit 5 and the region integration unit 6, which is used when a human face is used as an object.
FIG. 6 is a diagram showing output images S3, S4, and S5 of FIG. 1 in one embodiment in which × 16 pixels are divided into small regions, and FIGS. 4 and 5 are for explaining extraction of the spread of distribution with respect to frequency of the frequency component image. FIG. 9 is a diagram showing an example in the case of being divided into small regions of 16 × 16 pixels. FIG. 6 shows 4 × 4 when a human face is used as an object.
FIG. 8 is a diagram showing the output images S6, S7, and S8 of FIG. 1 in one embodiment divided into small regions of pixels, and FIG. 7 is a small region of 4 × 4 pixels when a human face is used as an object. FIG. 2 is a diagram showing output images S9 and S10 of FIG. 1 in an example divided into two.
【0011】次に、図1〜図7を参照して、この発明の
一実施例の具体的な動作について説明する。ビデオカメ
ラ1から対象物としている顔画像が撮像される。ビデオ
カメラ1によって撮像された画像信号は、A/D変換器
2によって、512×512画素のRGBディジタル信
号S1に変換される。RGBディジタル信号S1はG成
分の画像と座標軸を示した図2(a)に示すように、対
象物をx−y平面に投影した画像として座標軸が設定さ
れる。RGBディジタル信号S1は表色系変換部3に与
えられ、図2(b)に示すCIE1976L*a*b*
表色系の変換公式を用いた知覚表色系の色相を表わす画
像信号S2に変換される。The specific operation of the embodiment of the present invention will be described below with reference to FIGS. A face image as an object is captured by the video camera 1. The image signal captured by the video camera 1 is converted by the A / D converter 2 into an RGB digital signal S1 of 512 × 512 pixels. As shown in FIG. 2A showing the image of the G component and the coordinate axes of the RGB digital signal S1, the coordinate axes are set as an image obtained by projecting the object on the xy plane. The RGB digital signal S1 is supplied to the color system conversion unit 3, and the CIE1976L * a * b * shown in FIG.
It is converted into an image signal S2 representing the hue of the perceptual color system using the conversion formula of the color system.
【0012】対象物として人物の顔を対象とした場合の
一実施例において、表色系変換を行ない、陰影の影響を
受けにくい色相画像を利用することが効果的である。こ
の発明の一実施例は、表色系変換部3を含んでいる。表
色系変換部3によって変換された画像S2は小領域分割
部4に与えられ、図3(a)に示す各小領域の画像S3
に分割される。図3(a)は画像S2を16×16画素
の小領域で32×32ブロックに分割する様子を示して
おり、x軸およびy軸は画像の座標軸を表わし、z軸は
色相値を表わしている。小領域分割部4で分割された小
領域の各領域での画像S3は周波数成分変換部5に与え
られ、図3(b)に示される光学的フーリエ変換を利用
してパワースペクトルの平方を値とする小領域における
周波数成分を表わす画像S4に変換される。In one embodiment in which a person's face is used as an object, it is effective to perform color system conversion and use a hue image that is not easily affected by shading. One embodiment of the present invention includes a color system conversion unit 3. The image S2 converted by the color system conversion unit 3 is given to the small region dividing unit 4, and the image S3 of each small region shown in FIG.
Is divided into FIG. 3A shows a state in which the image S2 is divided into 32 × 32 blocks in a small region of 16 × 16 pixels, where the x-axis and the y-axis represent the coordinate axes of the image and the z-axis represents the hue value. There is. The image S3 in each of the small regions divided by the small region dividing unit 4 is given to the frequency component converting unit 5, and the square of the power spectrum is calculated using the optical Fourier transform shown in FIG. Is converted into an image S4 representing the frequency component in the small region.
【0013】図3(b)は、小領域分割部4で分割され
た16×16画素の一小領域における周波数成分に変換
された画像を示し、FxおよびFyは小領域におけるx
軸およびy軸方向の周波数軸を表わし、z軸は周波数成
分強度を表わしている。小領域ごとの周波数成分に変換
された周波数成分変換器5の画像S4は領域統合部6に
与えられ、図3(c)に示される元の画像の大きさの画
像S5として統合される。領域統合部6で統合された各
小領域での周波数成分を持つ画像S5は分布抽出部7に
与えられ、しきい値処理および二値化処理を施すことに
より、周波数に対する分布の広がりが抽出される。FIG. 3B shows an image converted into frequency components in one small area of 16 × 16 pixels divided by the small area dividing unit 4, and Fx and Fy are x in the small area.
The z-axis represents the frequency component strength, and the z-axis represents the frequency axis in the y-axis direction. The image S4 of the frequency component converter 5 converted into the frequency component for each small area is given to the area integration unit 6 and integrated as an image S5 having the original image size shown in FIG. The image S5 having the frequency components in each small area integrated by the area integration unit 6 is given to the distribution extraction unit 7, and the spread of the distribution with respect to the frequency is extracted by performing threshold processing and binarization processing. It
【0014】ここで、図4(a),(b)および図5
(a),(b)を参照して、小領域での周波数成分の分
布の広がりの抽出について説明する。図4および図5に
おいて、FxおよびFyは小領域におけるx軸方向およ
びy軸方向の周波数軸を表わしている。図4(a)およ
び図5(a)は、小領域分割部4で分割された16×1
6画素の一小領域における周波数成分の変換された画像
を示し、x軸は周波数成分強度を表わしている。一般
に、画像信号は、その信号電力の大部分が低周波側に集
中することが知られており、図4(a)および図5
(a)は対象物として人物の顔を用いた場合の一例であ
るため、全体的に低周波数側、すなわち図4(a)およ
び図5(a)の中心付近に集中した例となっている。図
4(b)および図5(b)は図4(a)および図5
(a)で示される各画像に対して、しきい値処理および
二値化処理を施した後の結果の一例を示し、z軸は周波
数成分の有無を表わし、ゼロは周波数成分がなく、ゼロ
以外は周波数成分があると検出された結果を表現してい
る。Here, FIGS. 4A, 4B and 5
Extraction of the spread of the distribution of frequency components in a small area will be described with reference to (a) and (b). 4 and 5, Fx and Fy represent frequency axes in the x-axis direction and the y-axis direction in the small region. FIGS. 4A and 5A show 16 × 1 divided by the small area dividing unit 4.
An image obtained by converting frequency components in a small region of 6 pixels is shown, and the x-axis represents frequency component intensity. It is generally known that most of the signal power of the image signal is concentrated on the low frequency side, and FIG.
Since (a) is an example in which a person's face is used as an object, it is an example in which it is concentrated on the low frequency side as a whole, that is, near the center of FIGS. 4 (a) and 5 (a). . 4 (b) and 5 (b) are shown in FIG. 4 (a) and FIG.
An example of the result after performing threshold processing and binarization processing on each image shown in (a) is shown, the z axis represents the presence or absence of a frequency component, zero indicates no frequency component, and zero. Other than the above, the result detected when there is a frequency component is expressed.
【0015】図4(a)は分割された小領域において、
たとえばある特定の周波数成分として低周波成分が集中
している場合の画像の分布の例を示しており、図4
(b)は図4(a)の分布を持つ画像に対して、しきい
値および二値化処理を施した後の結果の一例を示してお
り、小領域のある場所に集中した画像を出力する。図5
(a)は分割された小領域において、たとえばある特定
の周波数成分に集中していない場合の画像の分布の例を
示しており、図5(b)は図5(a)の分布を持つ画像
に対して、しきい値処理および二値化処理を施した後の
結果の一例を示しており、小領域内に広がった画像が出
力される。図4(b)および図5(b)に示すように、
しきい値処理および二値化処理を施すことにより、周波
数成分の分布の広がりを検出できる。FIG. 4A shows that in the divided small area,
For example, FIG. 4 shows an example of image distribution when low frequency components are concentrated as a specific frequency component.
FIG. 4B shows an example of the result after performing thresholding and binarization processing on the image having the distribution of FIG. 4A, and outputs an image concentrated in a place with a small area. To do. Figure 5
FIG. 5A shows an example of image distribution in a case where the image is not concentrated on a certain specific frequency component in the divided small regions, and FIG. 5B shows an image having the distribution shown in FIG. On the other hand, an example of the result after performing threshold processing and binarization processing is shown, and an image spread in a small area is output. As shown in FIG. 4 (b) and FIG. 5 (b),
By performing the threshold processing and the binarization processing, the spread of the distribution of frequency components can be detected.
【0016】分布抽出部7において、領域統合部6で統
合された各小領域での周波数成分を持つ画像S5に対し
て、図4および図5で説明したしきい値処理および二値
化処理を施すことにより、小領域での周波数成分の分布
の広がりが画像全体において検出される。対象物として
人物の顔を用いた場合の4×4画素の小領域に分割され
た一例における図1の出力画像S6を示す図6(a)に
おいて、髪の領域のように低周波成分のみばかりでな
く、高周波成分を含む領域では分布抽出部7の周波数成
分の分布が広がった状態を示す小領域が集まった状態と
なり、顔面領域のように低周波成分が集中している領域
では周波数成分が小領域内で集中している状態を示して
いる。In the distribution extraction unit 7, the threshold value processing and the binarization processing described in FIGS. 4 and 5 are performed on the image S5 having the frequency components in each small area integrated by the area integration unit 6. By doing so, the spread of the distribution of frequency components in the small area is detected in the entire image. In FIG. 6A showing the output image S6 of FIG. 1 in an example in which the face of a person is used as an object and divided into small regions of 4 × 4 pixels, only low-frequency components such as hair regions are shown in FIG. 6A. Instead, in a region including high frequency components, small regions indicating a state in which the distribution of the frequency components of the distribution extracting unit 7 has spread are gathered, and in a region where low frequency components are concentrated such as a face region, the frequency components are It shows a state of concentration in a small area.
【0017】分布抽出部7で抽出された周波数に対する
分布の広がりを示す画像S6は、領域候補分離部8に与
えられ、2×2以下の孤立画素除去,ブリッジ・コネク
ションおよび多数決処理などの二値化画像に対する3×
3画素以下を対象とした空間的な画像処理が施される。
たとえば、人物の顔を対象とした一例として、図6
(b)に示す空間周波数成分が集中している集中領域候
補画像S7および図6(c)に示す空間周波数成分が集
中していない分散領域候補画像S8に容易に分離でき
る。The image S6 showing the spread of the distribution with respect to the frequency extracted by the distribution extracting unit 7 is given to the region candidate separating unit 8 and is a binary value such as 2 × 2 or less isolated pixel removal, bridge connection and majority decision processing. 3 × for digitized image
Spatial image processing is performed for 3 pixels or less.
For example, as an example for a person's face, as shown in FIG.
The concentrated area candidate image S7 in which the spatial frequency components are concentrated as shown in (b) and the dispersed area candidate image S8 in which the spatial frequency components are not concentrated as shown in FIG. 6C can be easily separated.
【0018】領域候補分離部8で分離された画像S7お
よびS8は集中領域抽出部9および分散領域抽出部10
にそれぞれ与えられ、2×2以下の孤立画素除去,ブリ
ッジ・コネクションおよび多数決処理などの二値化画像
に対する3×3画素以下を対象とした空間的な画像処
理,輪郭線抽出および閉領域内の塗りつぶしなどの領域
抽出に関する画像処理を施すことにより、空間周波数成
分集中領域および空間周波数成分分散領域が抽出され
る。一例として、図7(a)に示す空間周波数成分集中
領域出力を示す画像S9および図7(b)に示す空間周
波数成分分散領域出力を示す画像S10を出力する。The images S7 and S8 separated by the area candidate separating unit 8 are concentrated area extracting unit 9 and dispersed area extracting unit 10.
, 2x2 or less isolated pixel removal, bridge connection, and majority image processing for binarized image spatial image processing for 3x3 pixels or less, contour extraction and closed region The spatial frequency component concentrated region and the spatial frequency component dispersed region are extracted by performing image processing related to region extraction such as painting. As an example, the image S9 showing the spatial frequency component concentrated region output shown in FIG. 7A and the image S10 showing the spatial frequency component dispersion region output shown in FIG. 7B are output.
【0019】なお、第1図に示した知覚表色系への変換
を行なう表色系変換部3は、一例として、対象を顔画像
とし、光源による陰影の影響を受けにくい処理を行なう
ようにしている。この表色系の変換式として、CIE1
976L*a*b*表色系の変換公式の他、たとえば日
本色彩学会編による「新編色彩科学ハンドブック」(東
京大学出版、1985)に記載されているCIE197
6L*u*v*表色系の変換式などが利用できる。しか
し、領域分割を行なう対象によっては、表色系変換部3
を必要とせず、図1に示すA/D変換器2によって出力
されるRGBディジタル信号S1を直接利用できる。ま
た、図1に示す周波数成分変換部5における周波数成分
への変換式としては、フーリエ変換の他に、たとえばテ
レビジョン学会編による「テレビジョン画像情報工学ハ
ンドブック」(オーム社、1990)に記載されている
Walsh−Hadamard変換などを利用すること
ができる。The color system conversion unit 3 for converting to the perceptual color system shown in FIG. 1 uses, as an example, a face image as a target and performs processing that is less susceptible to the shadow of the light source. ing. As the conversion formula of this color system, CIE1
In addition to the 976L * a * b * color system conversion formula, for example, CIE197 described in “New Handbook of Color Science” (The University of Tokyo Press, 1985) edited by the Japan Color Society.
6L * u * v * color system conversion formulas and the like can be used. However, depending on the target of the area division, the color system conversion unit 3
, And the RGB digital signal S1 output by the A / D converter 2 shown in FIG. 1 can be directly used. In addition to the Fourier transform, the conversion formula for the frequency component in the frequency component conversion unit 5 shown in FIG. 1 is described in, for example, “Television Image Information Engineering Handbook” (Ohm Co., 1990) edited by the Television Society. The Walsh-Hadamard conversion, etc., can be used.
【0020】上述のごとく、この実施例によれば、図1
に示す小領域分割部4,周波数成分変換部5および領域
統合部6によって画像の小領域に関する局所的な周波数
成分を持つ画像に変換し、従来の周波数成分の抽出のた
めの画像全体に対する変換に比べて、画像の小領域に対
して変換が行なわれるため、抽出精度が低いという欠点
を軽減できる。そして、周波数解析した後の逆変換を行
なわず、周波数成分の変換画像をそのまま利用している
ことも特徴である。また、統計的解析手法として計算対
象とする画素周辺の画像の値を用いて画素単位で同時生
起確率などを計算し、画像の空間周波数に関する特徴領
域を抽出する手法に比べて、小領域単位での変換を行な
うため計算量を軽減でき、処理速度も速くなる。特に、
この発明の一実施例においては、図1に示す表色系変換
部3により光源の陰影の影響を受けにくい知覚表色系に
変換された出力画像を用いて領域抽出を行なっているた
め、安定して抽出できる。As described above, according to this embodiment, FIG.
Is converted into an image having a local frequency component relating to a small region of the image by the small region division unit 4, the frequency component conversion unit 5, and the region integration unit 6, and is converted into the entire image for the conventional extraction of the frequency component. On the other hand, since the conversion is performed on the small area of the image, the disadvantage of low extraction accuracy can be alleviated. Further, the feature is that the converted image of the frequency component is used as it is without performing the inverse conversion after the frequency analysis. In addition, as a statistical analysis method, the value of the image around the pixel to be calculated is used to calculate the co-occurrence probability etc. in pixel units, and in comparison with the method of extracting the characteristic region related to the spatial frequency of the image, in small region units. The conversion amount can be reduced and the processing speed can be increased. In particular,
In one embodiment of the present invention, since the area extraction is performed using the output image converted into the perceptual color system which is not easily influenced by the shadow of the light source by the color system conversion unit 3 shown in FIG. Can be extracted.
【0021】[0021]
【発明の効果】以上のように、この発明によれば、撮像
された画像を元の大きさから小さな領域の画像に分割し
た後、各分割された画像領域単位で周波数成分を計算
し、元の画像の小領域を対象とした周波数成分を求め、
各分割された小領域を元の大きさに統合して、統合され
た画像に対して小領域における空間周波数分布の広がり
を検出し、領域抽出を行なうことにより、高速に精度よ
く空間周波数成分の集中領域および空間周波数成分の分
散領域を自動的に抽出することができる。As described above, according to the present invention, the captured image is divided into images of small areas from the original size, and then the frequency component is calculated for each divided image area to obtain the original image. Find the frequency component for the small area of the image of
Each divided small area is integrated into the original size, the spread of the spatial frequency distribution in the small area is detected for the integrated image, and the area extraction is performed, so that the spatial frequency component of the spatial frequency component is accurately measured at high speed. The concentrated area and the dispersion area of the spatial frequency component can be automatically extracted.
【図1】この発明の一実施例を示す概略ブロック図であ
る。FIG. 1 is a schematic block diagram showing an embodiment of the present invention.
【図2】対象物として人物の顔を用いた一例における図
1の出力画像S1およびS2を示す図である。FIG. 2 is a diagram showing output images S1 and S2 of FIG. 1 in an example in which a human face is used as an object.
【図3】図1における小領域分割部4,周波数成分変換
部5および領域統合部6を説明するための図であり、対
象物として人物の顔を用いた場合の16×16画素の小
領域に分割した場合における図1の出力画像S3,S4
およびS5を示す図である。FIG. 3 is a diagram for explaining a small region dividing unit 4, a frequency component converting unit 5 and a region integrating unit 6 in FIG. 1, and is a 16 × 16 pixel small region when a human face is used as an object. Output images S3 and S4 of FIG. 1 when divided into
It is a figure which shows and S5.
【図4】周波数成分の周波数に対する分布の広がりの抽
出を説明するための16×16画素の小領域に分割され
た場合の一例を示す図である。FIG. 4 is a diagram illustrating an example of division into small regions of 16 × 16 pixels for explaining extraction of spread of distribution of frequency components with respect to frequency.
【図5】周波数成分の周波数に対する分布の広がりの抽
出を説明するための16×16画素の小領域に分割され
た場合の一例を示す図である。FIG. 5 is a diagram showing an example in the case of being divided into small regions of 16 × 16 pixels for explaining extraction of the spread of distribution of frequency components with respect to frequencies.
【図6】対象物として人物の顔を用いた場合の4×4画
素の小領域に分割された一例における図1の出力部S
6,S7およびS8を示す図である。6 is an output unit S of FIG. 1 in an example in which a person's face is used as an object and is divided into small regions of 4 × 4 pixels.
It is a figure which shows 6, S7, and S8.
【図7】対象物として人物の顔を用いた場合の4×4画
素の小領域に分割された一例における図1の出力画像S
9,S10を示す図である。7 is an output image S of FIG. 1 in an example divided into small regions of 4 × 4 pixels when a human face is used as an object.
It is a figure which shows 9 and S10.
1 ビデオカメラ 2 A/D変換器 3 表色系変換部 4 小領域分割部 5 周波数成分変換部 6 領域統合部 7 分布抽出部 8 領域候補分離部 9 集中領域抽出部 10 分散領域抽出部 DESCRIPTION OF SYMBOLS 1 Video camera 2 A / D converter 3 Color system conversion unit 4 Small region division unit 5 Frequency component conversion unit 6 Region integration unit 7 Distribution extraction unit 8 Region candidate separation unit 9 Concentrated region extraction unit 10 Distributed region extraction unit
Claims (1)
に分割する分割手段、 前記分割手段によって分割された各小さな画像領域ごと
の画像を空間周波数成分に変換する周波数成分変換手
段、 前記周波数成分変換手段により変換された周波数成分を
表わす小さな領域ごとの画像を前記撮像手段によって撮
像された画像の大きさに統合する統合手段、 前記統合手段から出力された出力画像から空間周波数成
分の分布の広がりを抽出する分布抽出手段、 前記分布抽出手段から出力された出力画像を空間周波数
成分が集中している集中領域候補と空間周波数成分が集
中していない分散領域候補に分離する領域候補分離手
段、および前記領域候補分離手段の各出力に応じて、空
間周波数成分集中領域および空間周波数成分分散領域を
抽出する領域抽出手段を備えた、画像領域分割装置。1. An image pickup unit for picking up an image, a dividing unit for dividing an output image output from the image pickup unit into small image regions, and an image for each small image region divided by the dividing unit as a spatial frequency component. A frequency component converting means for converting; an integrating means for integrating an image of each small region representing the frequency component converted by the frequency component converting means into a size of an image captured by the image capturing means; and an output from the integrating means. Distribution extraction means for extracting the spread of the distribution of spatial frequency components from the output image; concentrated area candidates in which the spatial frequency components are concentrated and distributed areas in which the spatial frequency components are not concentrated in the output image output from the distribution extraction means A region candidate separating means for separating into candidates, and a spatial frequency component concentrated region according to each output of the region candidate separating means, With a region extracting means for extracting between frequency component dispersion region, the image area dividing device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3166813A JPH0760462B2 (en) | 1991-07-08 | 1991-07-08 | Image area dividing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3166813A JPH0760462B2 (en) | 1991-07-08 | 1991-07-08 | Image area dividing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0512439A JPH0512439A (en) | 1993-01-22 |
JPH0760462B2 true JPH0760462B2 (en) | 1995-06-28 |
Family
ID=15838143
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3166813A Expired - Fee Related JPH0760462B2 (en) | 1991-07-08 | 1991-07-08 | Image area dividing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0760462B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000339460A (en) * | 1999-05-26 | 2000-12-08 | Sharp Corp | Region of interest setting device and region of interest setting method |
JP4067957B2 (en) | 2002-12-20 | 2008-03-26 | 富士通株式会社 | Boundary detection method, program, and image processing apparatus |
JP4629718B2 (en) * | 2007-11-12 | 2011-02-09 | 富士通株式会社 | Boundary detection method, program, and image processing apparatus |
JP2010134958A (en) * | 2010-02-08 | 2010-06-17 | Fujitsu Ltd | Boundary detection method, program and device using the same |
-
1991
- 1991-07-08 JP JP3166813A patent/JPH0760462B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH0512439A (en) | 1993-01-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5142592A (en) | Method and apparatus for detection of parallel edges in image processing | |
US6226399B1 (en) | Method and system for identifying an image feature and method and system for determining an optimal color space for use therein | |
CN110335233B (en) | Highway guardrail plate defect detection system and method based on image processing technology | |
Krishnan et al. | A survey on different edge detection techniques for image segmentation | |
CN115205223B (en) | Visual inspection method and device for transparent object, computer equipment and medium | |
US6766054B1 (en) | Segmentation of an object from a background in digital photography | |
JPH0760462B2 (en) | Image area dividing device | |
KR100488014B1 (en) | YCrCb color based human face location detection method | |
Choudhary et al. | A novel approach for edge detection for blurry images by using digital image processing | |
RU2767281C1 (en) | Method for intelligent processing of array of non-uniform images | |
JP2754937B2 (en) | Schematic image creation method and device | |
RU2440609C1 (en) | Method for segmentation of bitmap images based on growing and merging regions | |
JPH04145309A (en) | Fruition section length measuring method for corn | |
CN105320936B (en) | The recognition methods of barrier and identification device in a kind of satellite photo | |
JPH02228779A (en) | Line segment extractor | |
JP7219413B1 (en) | Angle measuring device, angle measuring method, angle measuring program | |
JP2000339478A (en) | Device and method for processing picture | |
JPH09245166A (en) | Pattern matching device | |
WO2023032177A1 (en) | Object removal system, object removal method, and object removal program | |
Sandhu et al. | Analyzing the image processing methods in order to do face detection | |
JPS6320579A (en) | Extraction processing system for feature amount of image | |
Choksi et al. | Text Extraction from Natural Scene Images using Prewitt Edge Detection Method | |
JPS62297981A (en) | Binarization system for image | |
Wei et al. | Removing shadow in color images using a combined algorithm | |
JPH03224074A (en) | Method and device for image processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 19951219 |
|
LAPS | Cancellation because of no payment of annual fees |