JPS63226785A - Image feature extracting device - Google Patents

Image feature extracting device

Info

Publication number
JPS63226785A
JPS63226785A JP62060800A JP6080087A JPS63226785A JP S63226785 A JPS63226785 A JP S63226785A JP 62060800 A JP62060800 A JP 62060800A JP 6080087 A JP6080087 A JP 6080087A JP S63226785 A JPS63226785 A JP S63226785A
Authority
JP
Japan
Prior art keywords
feature
image
input
value
scanning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP62060800A
Other languages
Japanese (ja)
Other versions
JP2532086B2 (en
Inventor
Mutsuo Sano
睦夫 佐野
Shinichi Meguro
眞一 目黒
Akira Ishii
明 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP62060800A priority Critical patent/JP2532086B2/en
Publication of JPS63226785A publication Critical patent/JPS63226785A/en
Application granted granted Critical
Publication of JP2532086B2 publication Critical patent/JP2532086B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To easily transmit/receive I/O feature images through a feature image memory by connecting a feature extracting part for extracting a feature indicating the property of a boundary with a feature extracting part for extracting various attributes through common video buses and a system bus. CONSTITUTION:The feature extracting part 6 extracts an important feature indicating the property of a boundary such as a boundary curvature feature based on convolutional arithmetic and high-order statistic arithmetic. On the other hand, the feature extracting part 7 extracts various attributes in areas for complexity, expansion or the like. These feature extracting parts 6, 7 are connected with each other through common video buses 9-11 and the system bus 12. The feature extracting parts 6, 7 can access a feature image storing part 5 consisting of a feature image memory having multi-layer structure in common.

Description

【発明の詳細な説明】 (発明の居する技術分野) 本発明は1文字認識および機械部品、工具等の画像認識
に必要となる画像特徴を抽出する装置に関するものであ
る。
DETAILED DESCRIPTION OF THE INVENTION (Technical Field of the Invention) The present invention relates to a device for extracting image features necessary for single character recognition and image recognition of mechanical parts, tools, and the like.

(従来の技術) 本発明者らは、さきに次のような画像特徴抽出方法を提
案した。
(Prior Art) The present inventors previously proposed the following image feature extraction method.

1つは、目黒、佐野9石井による「画像特徴抽出演算方
式」(特許出願中)である。この手法では、画像メモリ
の中から相異なる3枚の画像メモリ甲。
One is "Image feature extraction calculation method" (patent pending) by Meguro, Sano 9 Ishii. In this method, three different image memories A are selected from among the image memories.

乙、丙を指名し1画像メモリ乙上の画素に対し画像メモ
リ中上の近傍領域の画素との差のべき乗の重み付き積和
演算を実行し、結果を画像メモリ丙に格納する。さらに
、新たに画像メモリ丁を付加し、前記画像メモリ丁の画
素値が設定された値を持つ場合のみ画像メモリ6上の画
素に対し画像メモリ中上の近傍領域の画素との差のべき
乗の重み付き積和演算を実行し、結果を画像メモリ丙に
格納する構成もとっている。以下この従来手法を、手法
Aと呼ぶ。
Designate B and C to execute a weighted sum-of-products operation of the power of the difference between the pixel on the first image memory B and the pixel in the neighboring area in the upper part of the image memory, and store the result in the image memory C. Furthermore, a new image memory 6 is added, and only when the pixel value of the image memory 6 has a set value, the power of the difference between the pixel on the image memory 6 and the pixel in the upper neighboring area in the image memory 6 is calculated. A configuration is also adopted in which a weighted product-sum operation is executed and the result is stored in image memory C. This conventional method will be referred to as method A hereinafter.

もう1つは、佐野、目黒2石井による「画像特徴抽出方
法」(特許出願中)である。この手法では。
The other is "Image feature extraction method" (patent pending) by Sano and Meguro 2 Ishii. With this method.

開−画像から算出された2つの特徴画像をそれぞれ画像
特徴抽出演算の入力特徴画像および演算制御用特徴画像
として併用し、かつ演算制御用特徴画像の特徴値につい
て定義される演算停止条件および着目点を中心とする放
射状走査の範囲を与える視野の大きさを設定し、前記両
特徴画像を同一位置の着目点から前記演算停止条件か前
記視野の大きさのいずれかにより決定される停止点まで
放射状に走査することによって走査領域を制御し、各走
査方向別に入力特徴画像の走査線上の特徴値に対して特
徴抽出演算を行う。以下この従来手法を、手法Bと呼ぶ
Two feature images calculated from an open image are used together as an input feature image for image feature extraction calculations and a feature image for calculation control, respectively, and calculation stop conditions and points of interest are defined for the feature values of the feature images for calculation control. Set the size of the field of view that gives a range of radial scanning centered on The scanning area is controlled by scanning, and feature extraction calculations are performed on the feature values on the scanning line of the input feature image in each scanning direction. This conventional method will be referred to as method B hereinafter.

物体を表現するには、物体の領域に関する特徴(領域特
徴)と、それを囲む境界に関する特徴(境界特徴)のど
ちらも重要である。なぜなら、領域特徴は領域単位で大
局的に物体認識を行うとき必要であり、綿界特徴はその
領域の構成要素を決める線セグメント単位で局所的に物
体認識を行うとき必要となる。ここで、領域特徴抽出に
適しているのが手法Bによる抽出法であり、境界特徴抽
出に適しているのが手法Aにより抽出法である。手法B
では領域内の点から境界上の点に衝突するまでの積分量
および距離、さらには衝突点の特徴値が算出できる。こ
の性質により、電子通信学会技術研究報告P RU36
−90.1987 :佐野、目黒2石井著「触手特徴を
集積した参照点によるモデルマツチング」において示さ
れているように、広がり量、複雑度、アスペクト比のよ
うな種々の領域特徴が算出される。一方、手法Aでは制
御用特徴画像として境界か否かの特徴画像とし、境界方
向の2次統計ff1(分散)をとることにより方向のば
らつき量(曲率に相当する量)を算出することができる
In order to represent an object, both features related to the region of the object (region feature) and features related to the boundary surrounding it (boundary feature) are important. This is because region features are necessary when performing global object recognition in region units, and cotton boundary features are necessary when performing local object recognition in line segment units that determine the constituent elements of the region. Here, the extraction method using method B is suitable for region feature extraction, and the extraction method using method A is suitable for boundary feature extraction. Method B
, it is possible to calculate the integral amount and distance from a point within the region to a point on the boundary until the collision occurs, as well as the feature value of the collision point. Due to this property, the Institute of Electronics and Communication Engineers Technical Research Report P RU36
-90.1987: Sano, Meguro 2 As shown in Ishii's "Model matching using reference points that accumulate tentacle features," various area features such as spread, complexity, and aspect ratio are calculated. Ru. On the other hand, in method A, the amount of variation in direction (amount equivalent to curvature) can be calculated by using a feature image indicating whether it is a boundary or not as a control feature image and taking the quadratic statistics ff1 (dispersion) in the direction of the boundary. .

また1手法Aは高次統計量まで含めた各種統計量の算出
が可能であるが、近傍領域内全体の積和演算を行ってい
るため、スカラー量しか算出されない。一方、手法Bは
各走査方向別の多次元量が算出されるが、高次統計量は
算出されない。多次元特徴および高次統計量特徴は、共
に画像認識システムの処理能力を高めるために必要であ
る。
In addition, method A is capable of calculating various statistics including high-order statistics, but only scalar amounts are calculated because the product-sum operation is performed for the entire neighborhood region. On the other hand, in method B, multidimensional quantities are calculated for each scanning direction, but higher-order statistics are not calculated. Both multidimensional features and high-order statistical features are necessary to increase the throughput of image recognition systems.

このように、手法Aと手法Bは互いに相補的な性質を持
っており、単独に適用したのでは画像認識に必要な特徴
量を完全には抽出できない。
In this way, method A and method B have mutually complementary properties, and if applied alone, it is not possible to completely extract the feature amounts necessary for image recognition.

また、手法Bでは、境界が照明条件の影響により部分的
に途切れて不完全に抽出されていた場合、走査方向によ
っては境界での走査停止ができない場合がある。また、
走査途中にノイズ成分があり、その大きさが走査停止条
件を与える閾値を超えた場合には、境界まで到達せずに
ノイズの位置で走査停止が行われることがある。このよ
うに、手法Bではノイズ等に対して不安定であるという
欠点がある。
Furthermore, in method B, if the boundary is partially interrupted and incompletely extracted due to the influence of illumination conditions, it may not be possible to stop scanning at the boundary depending on the scanning direction. Also,
If there is a noise component in the middle of scanning and its magnitude exceeds a threshold value that provides a scanning stop condition, scanning may be stopped at the position of the noise without reaching the boundary. As described above, method B has the drawback of being unstable due to noise and the like.

さらに、手法Aでの重みマスクのサイズおよび手法Bで
の視野のサイズが大きくなった場合、演算コストがO(
n”)のオーダーで増えてしまう問題点もある。
Furthermore, when the size of the weight mask in method A and the size of the field of view in method B become larger, the calculation cost becomes O(
There is also a problem that the number increases on the order of n'').

(発明が解決しようとする問題点) 本発明の目的は、手法Aと手法Bを単独で適用していた
従来手法の特徴抽出能力の限界の問題および手法Bにお
けるノイズ等に対する不安定性の問題および両手法に共
通な重みマスクサイズおよび視野サイズを大きくした際
の演算コストの問題を解決し、両手法を統合することに
より、より安定で記述能力の高い画像特徴を算出し得る
画像特徴抽出装置を提供することにある。
(Problems to be Solved by the Invention) The purpose of the present invention is to solve the problem of the limit of the feature extraction ability of the conventional method in which method A and method B were applied alone, and the problem of instability due to noise etc. in method B. By solving the problem of calculation cost when increasing the weight mask size and field of view size that are common to both methods, and by integrating both methods, we have developed an image feature extraction device that can calculate image features that are more stable and have high descriptive ability. It is about providing.

(問題点を解決するための手段) 本発明は、手法Aにより実現される第1の画像特徴抽出
部の入力特徴画像メモリ甲、乙、参照用特徴画像メモリ
丁および出力特徴画像メモリ丙と、手法Bにより実現さ
れる特徴抽出部Bの入力特徴画像メモ1八制御用特徴画
像メモリおよび出力特徴画像メモリを、第1および第2
の画像特徴抽出部が共通にアクセスできる多層構成の特
徴画像メモリからなる特徴画像記憶部に統一し、これを
単一の制御部の制御の下に置く構成とした点を最も主要
な特徴とするものであり、以下の構成を有する。
(Means for Solving the Problems) The present invention provides input feature image memories A and B, a reference feature image memory D, and an output feature image memory C of a first image feature extraction unit realized by method A; The input feature image memory 18 of the feature extraction unit B realized by method B and the output feature image memory are stored in the first and second
The most important feature is that the feature image storage section consists of a multi-layered feature image memory that can be commonly accessed by the image feature extraction section of the image feature extraction section, and that this is placed under the control of a single control section. It has the following configuration.

本発明は、入力画像データを記憶する入力画像記憶部と
;前記入力画像データに対する特徴抽出処理により得ら
れる特徴画像または得られた特徴画像について、さらに
特徴抽出処理を行って得られる特徴画像を記憶する複数
の特徴画像メモリからなる特徴画像記憶部と;前記特徴
画像記憶部または前記入力画像記憶部に対し甲、乙2枚
の画像記憶領域を指定し、また前記特徴画像記憶部にお
いて丙2丁2枚の特徴画像メモリを指定し、画像記憶領
域乙上の着目点の画素に対して画像記憶領域中上の対応
する近傍領域の画素との画素値の差のべき乗の重み付き
積和演算を、前記近傍領域の画素に対応する特徴画像メ
モリ丁上の画素の値が予め設定された値に等しい場合の
み実行し、結果を特徴画像メモリ丙に格納する第1の画
像特徴抽出部と;前記入力画像記憶部または特徴画像記
憶部に格納されている入力画像または特徴画像の中の2
枚の画像をそれぞれ入力特徴画像および制御用特徴画像
として指定し、放射状走査の範囲を与える視野の大きさ
および制御用特徴画像の特徴値について定義される走査
停止条件を設定して、前記両特徴画像上を同位置の着目
点から前記視野の大きさか走査停止条件のいずれか一方
により決定される停止点まで放射状に走査することによ
って走査領域を制御し、各走査方向別に入力特徴画像の
走査線上の特徴値について特徴抽出演算を実行し、前記
着目点の位置を両特徴画像上で順次移動させることによ
って得られる各着目点における特徴値から構成される特
徴画像を生成し、前記特徴画像記憶部の指定した特徴画
像メモリに格納する第2の画像特徴抽出部と;を備え、
入力画像記憶部および特徴画像記憶部を第1および第2
の特徴抽出部から洪通に使用しうる構成としたことを特
徴とするものである。
The present invention includes an input image storage unit that stores input image data; and stores a feature image obtained by a feature extraction process on the input image data or a feature image obtained by further performing a feature extraction process on the obtained feature image. a characteristic image storage section consisting of a plurality of characteristic image memories; specifying two image storage areas A and B for the characteristic image storage section or the input image storage section; Specify two characteristic image memories, and perform a weighted sum-of-products operation of the power of the difference in pixel value between the pixel at the target point on the image storage area B and the pixel in the corresponding neighboring area on the middle of the image storage area. , a first image feature extraction unit that executes the process only when the value of a pixel in the feature image memory C corresponding to the pixel in the neighboring region is equal to a preset value, and stores the result in the feature image memory C; 2 of the input images or feature images stored in the input image storage unit or feature image storage unit
The two images are respectively designated as the input feature image and the control feature image, and the scan stop conditions defined for the size of the field of view that gives the range of radial scanning and the feature value of the control feature image are set, and the The scanning area is controlled by scanning the image radially from a point of interest at the same position to a stopping point determined by either the field of view size or the scanning stop condition, and the scan area is scanned on the scanning line of the input feature image in each scanning direction. A feature image is generated from the feature values at each point of interest obtained by performing a feature extraction operation on the feature values of and sequentially moving the position of the point of interest on both feature images; a second image feature extraction unit for storing in a feature image memory specified by;
The input image storage unit and the feature image storage unit are connected to the first and second
This feature is characterized in that it has a configuration that can be used for Hongtong from the feature extraction section.

(作用) 従来は、第1の画像特徴抽出部および第2の画像特徴抽
出部がそれぞれ特徴画像記憶部を持ち。
(Operation) Conventionally, the first image feature extraction section and the second image feature extraction section each have a feature image storage section.

当然ながら第1の画像特徴抽出部と第2の画像抽出部の
間のデータのやりとりはない。しかし1本発明による構
成では、第1の画像特徴抽出部および第2の画像特徴抽
出部に対し共通の特徴画像記憶部を設定しているため、
第1の画像特徴抽出部の出力特徴画像を第2の画像特徴
抽出部の入力特徴画像または制御用特徴画像として扱え
、逆に第2の画像特徴抽出部の出力特徴画像を第1の画
像特徴抽出部の入力特徴画像甲、乙または参照用特徴画
像として用いることができる。この構成にしたことによ
る最大のメリットは、このように特徴画像記憶部を介し
て第1の画像特徴抽出部および第2の画像特徴抽出部の
入出力情報をやりとりすることにより、それぞれ単独で
は実現できなかった新しく、かつ物体認識および画像処
理に有効な特徴が算出されることである6例えば、第2
の画像特徴抽出部では各画素点を着目点とし、その着目
点から放射状に走査し、境界までの各走査方向別到達距
離の総和量を各画素点について算出することにより、空
間的な拡がり量の分布を表わす特徴画像が得られるが、
この拡がり量分布の特徴画像を第1の画像特徴抽出部の
入力特徴画像とし。
Naturally, there is no data exchange between the first image feature extraction section and the second image extraction section. However, in the configuration according to the present invention, since a common feature image storage unit is set for the first image feature extraction unit and the second image feature extraction unit,
The output feature image of the first image feature extraction section can be treated as the input feature image or control feature image of the second image feature extraction section, and conversely, the output feature image of the second image feature extraction section can be used as the first image feature It can be used as the input feature images A and B of the extraction unit or as a reference feature image. The biggest advantage of this configuration is that by exchanging input/output information between the first image feature extraction section and the second image feature extraction section via the feature image storage section, each can be realized independently. For example, new features that could not be calculated and are effective for object recognition and image processing6
The image feature extraction unit takes each pixel point as a point of interest, scans radially from the point of interest, and calculates the total amount of distance reached in each scanning direction to the boundary for each pixel point, thereby calculating the amount of spatial expansion. A feature image representing the distribution of is obtained, but
The feature image of this spread amount distribution is used as the input feature image of the first image feature extraction section.

分子ilを算出することにより、空間的拡がり量の不均
一性という新しい特徴が算出される。この特徴は不均一
な模様成分において高い値を示す量であり、異なる模様
の境界を検出するときに有効となる。さらに、新しい特
徴抽出例として第1の画像特徴抽出部では各画素点でエ
ツジ方向の分散量を算出することにより方向の均一性の
分布が得られるが、第2の画像特徴抽出部においてこの
方向の不均一性の分布の特徴画像を入力特徴画像とし、
これを各画素点で放射状に走査し、境界までの各走査方
向別到達積和分値を算出することにより、各走査方向別
のエツジ方向の不均一性量分布が得られる。この特徴は
物体内の模様の分布の方向に関する不均一性量を各画素
点でしかも各走査方向毎に表現した多次元特徴量であり
、画像認識システムにおいて高い能力をもつ認識が実現
できる。
By calculating the molecule il, a new feature of the non-uniformity of the amount of spatial spread is calculated. This feature is a quantity that exhibits a high value in non-uniform pattern components, and is effective when detecting boundaries between different patterns. Furthermore, as a new feature extraction example, the first image feature extraction section calculates the variance amount in the edge direction at each pixel point to obtain a distribution of directional uniformity, but the second image feature extraction section calculates the dispersion amount in the edge direction. Let the feature image of the distribution of heterogeneity of be the input feature image,
By scanning this radially at each pixel point and calculating the reached product sum value for each scanning direction up to the boundary, the edge direction nonuniformity amount distribution for each scanning direction can be obtained. This feature is a multidimensional feature that expresses the amount of nonuniformity in the direction of pattern distribution within an object at each pixel point and in each scanning direction, and can realize highly efficient recognition in an image recognition system.

また1本発明の構成にすることによる付加的な利点は、
第2の画像特徴抽出部におけるノイズ等に対する不安定
性の問題を改善できる点にある。
An additional advantage of the configuration of the present invention is that
The advantage is that the problem of instability due to noise and the like in the second image feature extraction section can be improved.

なぜなら、第1の画像特徴抽出部は平滑化処理を1次統
計量(平均値)算出演算として実現でき、第2の画像特
徴抽出部の制御用特徴画像として第1の画像特徴抽出部
で平滑化した特徴画像を用いることにより、ノイズ等に
対する不安定性の問題を改善することができるからであ
る。
This is because the first image feature extraction section can realize the smoothing process as a first-order statistic (average value) calculation operation, and the first image feature extraction section smooths the smoothing process as a control feature image for the second image feature extraction section. This is because the problem of instability due to noise etc. can be improved by using the transformed feature image.

さらに、本発明において、入力画像又は特徴画像の対し
平滑化処理を行い、その結果を設定されたサンプリング
間隔でサンプリング処理し、データの圧縮を行うデータ
圧縮部を新たに付加した構成をとることにより、特徴画
像記憶部の容量および特徴抽出演算の処理コストを低減
できる。さらに、圧縮された特徴画像は、平滑化の効果
により従来第2の画像特徴抽出部で生じていた照明条件
および走査途中のノイズによる影響を低減できる。
Furthermore, in the present invention, by adopting a configuration in which a data compression unit is newly added that performs smoothing processing on the input image or feature image, samples the result at a set sampling interval, and compresses the data. , the capacity of the feature image storage unit and the processing cost of feature extraction calculations can be reduced. Furthermore, the compressed feature image can reduce the influence of noise caused by illumination conditions and mid-scanning, which conventionally occurred in the second image feature extraction section, due to the smoothing effect.

(実施例) 第1図は本発明の詳細な実施例を説明するブロック構成
図である。
(Embodiment) FIG. 1 is a block diagram illustrating a detailed embodiment of the present invention.

1は画像を入力するためのテレビカメラ、スキャナ等の
撮像装置、2は入力画像をアナログ・ディジタル変換し
、結果を入力画像記憶部の入力画像メモリ(1)〜入力
画像メモリ(M)のいずれかに出力するA/D変換部で
ある。ここで、入力画像記憶部3が複数枚の入力画像メ
モリで構成される理由は、例えば物体の奥行き情報の検
出処理や3次元物体の認識処理を行う場合には、カメラ
位置を変えた複数の入力画像を保存しておく必要がある
からである。
1 is an imaging device such as a television camera or scanner for inputting images; 2 is an input image converting device from analog to digital; This is an A/D converter that outputs data. Here, the reason why the input image storage unit 3 is composed of a plurality of input image memories is that, for example, when performing processing for detecting depth information of an object or processing for recognition of a three-dimensional object, it is necessary to This is because it is necessary to save the input image.

5は以下に示す画像特徴抽出演算結果を格納する特徴画
像記憶部であり、特徴画像メモリ(1)〜特徴画像メモ
リ(N)の複数枚の特徴画像メモリから構成される。特
徴画像メモリは本発明においては少なくとも3枚が必要
であり、各特徴画像メモリは少なくとも3本のビデオバ
ス(9〜11)と動作の制御に使用されるシステムバス
12に結合されている。同様に、各入力画像メモリもこ
のビデオバスおよびシステムバスに結合されている。
Reference numeral 5 denotes a feature image storage unit that stores the image feature extraction calculation results shown below, and is composed of a plurality of feature image memories from feature image memory (1) to feature image memory (N). At least three feature image memories are required in the present invention, and each feature image memory is coupled to at least three video buses (9 to 11) and a system bus 12 used for controlling operations. Similarly, each input image memory is also coupled to the video bus and the system bus.

6は統計量特徴の算出演算を行う第1の画像特徴抽出部
(20〜40は構成要素を示す)゛、7は多次元の形状
および位相特徴の算出を行う第2の画像特徴抽出部(4
1〜59は構成要素を示す)である。
Reference numeral 6 denotes a first image feature extraction unit (20 to 40 indicate constituent elements) which performs statistical feature calculation operations, and 7 a second image feature extraction unit which calculates multidimensional shape and phase features ( 4
1 to 59 indicate constituent elements).

本実施例では、データ圧縮部4を付加した構成をとって
いるが、付加しない場合でも本実施例は実行できる。以
下、まずデータ圧縮部が付加しない構成について本実施
例の動作を示し、最後にデータ圧縮部が付加した場合の
実施例について動作を示す。
Although this embodiment has a configuration in which a data compression section 4 is added, this embodiment can be executed even if the data compression section 4 is not added. Hereinafter, the operation of this embodiment will first be described for a configuration in which a data compression section is not added, and finally the operation will be described for an embodiment in which a data compression section is added.

第1の画像特徴抽出部6および第2の画像特徴抽出部7
は1M枚の入力画像メモリおよびN枚の特徴画像メモリ
の中から任意のメモリを指定し、その出力結果を特徴画
像メモリへ書き込む。8は全体の動作を制御するための
制御部、13は入力画像メモリおよび特徴画像メモリの
内容を閾値を用いて2値化し、結果を特徴画像メモリへ
書き込む閾値処理部、14は異なる2枚の入力画像メモ
リ又は特徴画像メモリ間で加減乗除、論理和および論埋
積の演算を各画素毎に行い、出力を特徴画像メモリへ書
き込む画素間演算部、15は1枚又は2枚の入力画像メ
モリ又は特徴画像メモリの内容を入力としてルックアッ
プテーブルによりデータ変換を行い、結果を特徴画像メ
モリへ書き込むデータ変換部、16は2枚の入力画像メ
モリ又は特徴画像メモリの内容に対し一方を入力特徴画
像、他方を制御画像とし、制御画像の予め定めた設定値
に等しい画素に対応する入力特徴画像の指定領域のヒス
トグラムへの加算処理を行い、求められたヒストグラム
に対し最大頻度値や分散値等の算出演算を行い、結果を
特徴画像メモリへ書き込むヒストグラム処理部である。
First image feature extraction unit 6 and second image feature extraction unit 7
specifies an arbitrary memory from 1M input image memories and N feature image memories, and writes the output result to the feature image memory. 8 is a control unit for controlling the overall operation; 13 is a threshold processing unit that binarizes the contents of the input image memory and feature image memory using a threshold value and writes the results to the feature image memory; An inter-pixel calculation unit performs addition, subtraction, multiplication, division, logical addition, and logical addition for each pixel between the input image memory or the feature image memory, and writes the output to the feature image memory; 15 is one or two input image memories; Alternatively, a data conversion unit converts data using a lookup table using the contents of the characteristic image memory as input, and writes the result to the characteristic image memory. 16 is a data conversion section that converts one of two input image memories or the contents of the characteristic image memory into an input characteristic image. , the other is taken as a control image, and the designated area of the input feature image corresponding to the pixels equal to the predetermined setting value of the control image is added to the histogram, and the maximum frequency value, variance value, etc. are added to the obtained histogram. This is a histogram processing unit that performs calculation operations and writes the results to the feature image memory.

本発明においては、複数の入力画像メモリ又は特徴画像
メモリから少なくとも2枚の画像メモリを入力とし、1
枚を出力として選択使用するため、ビデオパスを少なく
とも3本用意し、特徴抽出部が3枚の画像メモリに対し
同時にアクセス可能である構成としている。
In the present invention, at least two image memories from a plurality of input image memories or feature image memories are input, and one
In order to selectively use the images as output, at least three video paths are prepared, and the feature extraction section is configured to be able to access three image memories simultaneously.

61はマツチング処理部であり、特徴抽出処理に。61 is a matching processing unit, which performs feature extraction processing.

より得られた特徴画像記憶部に格納された特徴画像を入
力として、標準パターンとのマツチング処理および異な
るカメラ位置で得られた特徴画像間の対応相は処理等の
認識処理を行う部分であり。
This section receives the characteristic image stored in the characteristic image storage section obtained from the above as an input, and performs recognition processing such as matching processing with a standard pattern and processing of correspondence between characteristic images obtained at different camera positions.

本発明による出力結果を活用する部分である。This is the part that utilizes the output results according to the present invention.

62はアドレスおよび同期信号発生部であり、A/D変
換部2.入力画像記憶部3.データ圧縮部4、第1の画
像特徴抽出部5.第2の画像特徴抽出部6.I!I値処
理部132画素間演算部14.データ変換部15.ヒス
トグラム処理部16.マツチング処理部61の各部へ動
作に必要なアドレス信号および同期信号を供給する。
62 is an address and synchronization signal generation section, and A/D conversion section 2. Input image storage unit 3. Data compression section 4, first image feature extraction section 5. Second image feature extraction unit6. I! I value processing unit 132 inter-pixel calculation unit 14. Data converter 15. Histogram processing unit 16. The address signal and synchronization signal necessary for operation are supplied to each part of the matching processing section 61.

次に、各特徴抽出部の動作について説明する。Next, the operation of each feature extraction section will be explained.

まず、第1の画像特徴抽出部においては1次式る積和演
算が実行される。
First, in the first image feature extraction section, a linear sum-of-products calculation is performed.

ただし、 F(i、j 、に、Q)=(f’(i+klj+Q)−
〇f”(itj))”(f’(i+に*J+l2)=C
’のとき)または =O(f’(i+に、j+12)≠C′のとき)ここで
、Sは定数、W(k、fl)は従来のコンボリューショ
ン演算の場合と同様な演算の近傍領域を指定するマスク
関係(2次元データテーブル)、f ’(1+ j)と
fq(i、j)は入力画像、f’(x+j)は演算の制
御を行うための制御画像、f″(i、j)は演算結果を
示す出力画像である。また、nは自然数0.1,2.・
・・、Cは演算パラメータでO又は1の値、C′は制御
パラメータで任意の定数値である。本演算方式において
は、入力画像f’(i+jL fq(x+j)+制御画
像f′(iIJL演算パラメータn、Cおよび制御パラ
メータC′を選択することにより、従来のコンボリュー
ション演算およびn次統計量演算を統一的に実行するこ
とができる。
However, F(i, j, ni, Q)=(f'(i+klj+Q)−
〇f''(itj))''(f'(i+to*J+l2)=C
') or = O (when f'(i+, j+12)≠C') where S is a constant and W(k, fl) is the neighborhood area of the operation similar to the conventional convolution operation. A mask relationship (two-dimensional data table) that specifies, f'(1+j) and fq(i, j) are input images, f'(x+j) is a control image for controlling the calculation, f''(i, j) is an output image showing the calculation result. Also, n is a natural number 0.1, 2.
..., C is a calculation parameter with a value of O or 1, and C' is a control parameter with an arbitrary constant value. In this calculation method, by selecting input image f'(i+jL fq(x+j)+control image f'(iIJL calculation parameters n, C and control parameter C'), conventional convolution calculation and n-th statistic calculation are performed. can be executed uniformly.

ここで、第1図における第1の画像特徴抽出部6のブロ
ック構成について説明する。20.21.22はそれぞ
れパスセレクタであり、2本のビデオバスを切換えるこ
とにより、入力となる入力画像メモリ又は特徴画像メモ
リを選択する。24はセレクタであり、前記演算式にお
ける演算パラメータCの値に応じて、C=1の場合パス
セレクタ20で選択された入力画像または特徴画像f″
を出力し。
Here, the block configuration of the first image feature extraction section 6 in FIG. 1 will be explained. Reference numerals 20, 21, and 22 each indicate a path selector, which selects the input image memory or feature image memory as the input by switching between the two video buses. 24 is a selector, which selects the input image or feature image f″ selected by the path selector 20 when C=1, depending on the value of the calculation parameter C in the calculation formula.
Output.

C=0の場合10′を出力し、ラッチ回路25′に保持
する。25は減算器であり、パスセレクタ21で選択さ
れた入力画像又は特徴画像f′からラッチ回路25′の
内容を減算する。セレクタ31は信号線36より指定さ
れた演算パラメータnの値に従って。
When C=0, 10' is output and held in the latch circuit 25'. A subtracter 25 subtracts the contents of the latch circuit 25' from the input image or feature image f' selected by the path selector 21. The selector 31 operates according to the value of the calculation parameter n designated by the signal line 36.

n=oの場合、信号線26より与えられる1を選択し、
N=1の場合は、減算器25での減算結果の値を選択す
る。n=2のとき、2乗テーブル27により減算結果を
2乗した値を求め、セレクタ31によりこれを選択する
。n=3.n=4の場合、それぞれ3乗、4乗値をテー
ブル28.29から求め、セレクタ31により選択する
。ここで、セレクタ31は。
If n=o, select 1 given from the signal line 26,
When N=1, the value of the subtraction result in the subtracter 25 is selected. When n=2, a value obtained by squaring the subtraction result is obtained using the square table 27, and this value is selected using the selector 31. n=3. When n=4, the cube and fourth power values are obtained from tables 28 and 29, respectively, and selected by the selector 31. Here, the selector 31 is.

もしパスセレクタ22によって選択された入力画像又は
特徴画像の画素値f1と定数レジスタ34の値C′を比
較器35で較べ、その結果が等しくなければ、信号線3
0により与えられる′0′を優先して選択する。以上の
動作によって、セレクタ31はF=(f’(i+に、j
+Q) −C:f’(i、j)”(f’(i+に、j+
n)=C’(7)とき)または =O(f’(i+に、j+4)≠C’(7)とき)を出
力する。
If the pixel value f1 of the input image or feature image selected by the path selector 22 and the value C' of the constant register 34 are compared by the comparator 35, and the results are not equal, the signal line 3
'0' given by 0 is selected preferentially. By the above operation, the selector 31 sets F=(f'(i+, j
+Q) -C:f'(i, j)''(f'(i+, j+
outputs n)=C'(7)) or =O(f'(i+, j+4)≠C'(7)).

33はセレクタ31の出力値と、マスク関数テーブル3
2の要素との積和W(k、Q)・Fを計算する積和演算
器である。カウンタ37は比較器35の出力値が1の場
合(判定が一致の場合)の数を累積する。セレクタ39
はカウンタ37の出力値又は予め定数の書き込まれた定
数レジスタ38を選択し、結果Sを出力する。40は割
算器であり、上述の演算結果から(1/S)ΣΣw(k
、42)Fを計算し、結果をシステムバス又はビデオバ
スを通じ、特徴画像メモリに出力する。
33 is the output value of the selector 31 and the mask function table 3
This is a product-sum calculator that calculates the product-sum W(k, Q)·F with two elements. The counter 37 accumulates the number of times when the output value of the comparator 35 is 1 (when the determination is a match). Selector 39
selects the output value of the counter 37 or the constant register 38 in which a constant is written in advance, and outputs the result S. 40 is a divider, which calculates (1/S)ΣΣw(k
, 42) Compute F and output the result to the feature image memory through the system bus or video bus.

次に、第2の画像特徴抽出部7の特徴抽出過程を説明す
る。第2の画像特徴抽出部7は入力として、入力特徴画
像f′と制御特徴画像f’の2枚を用いる。41は入力
特徴画像用のバスセレクタ、42は制御特徴画像用のパ
スセレクタであり、2本のビデオバスを切換えることに
より、特徴画像fP。
Next, the feature extraction process of the second image feature extraction section 7 will be explained. The second image feature extraction unit 7 uses two images, an input feature image f' and a control feature image f', as input. 41 is a bus selector for the input feature image, and 42 is a path selector for the control feature image.By switching between two video buses, the feature image fP is generated.

f’を入力画像メモリ又は特徴画像メモリのいずれか一
方から選択して読取る。このとき、入力特徴画像f’に
ついてはそのまま利用する場合と、画像信号の立上り点
(例えば画素値Oから1に変化する点)の検出処理を行
う立上り点検出器58に入力し、その出力f”を入力特
徴画像として利用する場合があり、面入力特徴画像f’
、f”はセレクタ59により選択される。以下の説明で
は、両者を区別しない。
f' is selected and read from either the input image memory or the feature image memory. At this time, the input feature image f' may be used as is, or may be input to a rising point detector 58 that performs detection processing of the rising point of the image signal (for example, the point where the pixel value changes from O to 1), and its output f ” may be used as the input feature image, and the plane input feature image f'
, f'' are selected by the selector 59. In the following description, no distinction will be made between the two.

本演算部では、入力特徴画像f′を着目点P(IIJ)
から放射状に走査することにより、各走査方向θ毎の着
目点から停止点までの積分値。
In this calculation unit, the input feature image f′ is set to the point of interest P(IIJ)
By scanning radially from θ, the integral value from the point of interest to the stopping point for each scanning direction θ.

距離および停止点における特徴値、計3種類の演算によ
る特徴値fg”(x+j)が算出される。そして、着目
点P(i、j)を画像f′において、左上隅から右下隅
まで移動させることにより、入力特徴画像f’に対する
出力特徴画像fSが算出される。
A feature value fg''(x+j) is calculated by a total of three types of calculations, including the distance and the feature value at the stop point.Then, the point of interest P(i, j) is moved from the upper left corner to the lower right corner in the image f'. As a result, an output feature image fS for the input feature image f' is calculated.

(2)、 (3)、 (4)式に3種類の演算の実施例
を示す。
Examples of three types of calculations are shown in equations (2), (3), and (4).

fs’(Lj)= E w(k)f’(i+xa(k)
、j+ys(k))  (2)L’(iej)= J 
Xs L  +ya L          (3)L
’(i、j)=f’(i +X#(L)? j+ye(
L))       (4)ここで、x、(k)、y、
(k)、に=1,2.・・・。
fs'(Lj)=E w(k)f'(i+xa(k)
, j+ys(k)) (2) L'(iej)=J
Xs L +ya L (3) L
'(i, j)=f'(i +X#(L)? j+ye(
L)) (4) Here, x, (k), y,
(k), to=1,2. ....

Lはθ方向の放射状走査点の2次元アドレスであり、L
は停止点を示す。この2次元アドレスはアドレス・同期
信号発生部62から得られ、放射状走査に際し画像メモ
リ3,5に供給される。(2)式は入力特徴値の重み付
き積分値(到達積分値)を与え、w(kL k=1.2
.−、−1Lは走査点に対する重み系列である。(3)
式は停止点までの到達距離を与え、(4)式は停止点に
おける特徴値(到達特徴値)を与える。ここで、停止点
に=Lは次式により計算される。
L is the two-dimensional address of the radial scanning point in the θ direction, and L
indicates a stopping point. This two-dimensional address is obtained from the address/synchronization signal generation section 62 and supplied to the image memories 3 and 5 during radial scanning. Equation (2) gives the weighted integral value (arrival integral value) of the input feature value, w(kL k=1.2
.. -, -1L are weight sequences for scanning points. (3)
Equation (4) gives the reach distance to the stop point, and Equation (4) gives the feature value (reaching feature value) at the stop point. Here, =L at the stopping point is calculated by the following equation.

k≧n、のとき、  L=ne、。When k≧n, L=ne.

k<n□のとき、(5) L =ain (kl g(fq)≧TH,k = 1
.2 、・・・v n eR)ただし、g(f’)=f
’(i+x*(k)* j+y*(k))      
 (6)または、g(f’)―Σf’b+X#(n)t
 j+ys(12))      (7)1薯1 ここで、naRは視野の大きさを与える演算パラメータ
であり、視野の大きさを半径Rとしたとき与えられるθ
方向に走査したときの走査点の個数である。ここで、R
とn、a+の間には、R” J Xe、(nsJ”+y
s(naR)2の関係がある。
When k<n□, (5) L = ain (kl g(fq)≧TH, k = 1
.. 2 ,...v n eR) However, g(f')=f
'(i+x*(k)*j+y*(k))
(6) Or g(f')-Σf'b+X#(n)t
j+ys(12)) (7) 1 薯1 Here, naR is a calculation parameter that gives the size of the visual field, and is given when the size of the visual field is the radius R.
This is the number of scanning points when scanning in the direction. Here, R
and n, a+, R” J Xe, (nsJ”+y
There is a relationship of s(naR)2.

走査の停止制御は制御特徴画像の走査により、次のよう
に行われる。
Scanning stop control is performed as follows by scanning a control feature image.

すなわち、制御特徴画像上f’でも、入力特徴画像fゝ
と並行して、着目点P(x、j)から放射状に走査が行
われる。ここで、走査点位置kがnai1以内で、かつ
制御特徴値f9の関数値g(f’)が定められた閾値T
Hを越えたとき、その走査点kを停止点りとして決定す
る。また、走査点位置kが進んで1g(f’)が閾値T
Hを越えることなく視野(k=n、ll)の外に出たと
き、k=n、、をもって停止点りとする。停止条件の値
g(fq)は、通常は(6)式のように走査点にでの制
御特徴値f1の値自身であり、閾値THは停止する位置
を与えるための制御パラメータである。この閾値THの
値を十分に大きく設定することにより、実際上、停止の
制御を視野のみの制御に移行することが可能となる。一
方、(7)式のように走査積分値の外、一般にf9の汎
関数の値を停止条件とすることができる。
That is, even on the control feature image f', scanning is performed radially from the point of interest P(x, j) in parallel with the input feature image f'. Here, the scanning point position k is within nai1, and the function value g(f') of the control feature value f9 is a predetermined threshold T
When H is exceeded, that scanning point k is determined as the stopping point. Also, as the scanning point position k advances, 1g(f') becomes the threshold T
When it goes out of the field of view (k=n, ll) without exceeding H, the stopping point is set at k=n, . The value g(fq) of the stopping condition is usually the value of the control feature value f1 at the scanning point itself as shown in equation (6), and the threshold value TH is a control parameter for giving the stopping position. By setting the value of this threshold value TH sufficiently large, it is actually possible to shift the stop control to control only the visual field. On the other hand, as shown in equation (7), in addition to the scanning integral value, the value of the functional of f9 can generally be used as the stopping condition.

第1図の第2の特徴抽出部7の演算の動作を具体的に示
す。まず、走査の停止制御は、次のように行われる。バ
スセレクタ42により選択された制御特徴画像の方向θ
の走査線上の特徴値f’(i+xe(k)、j+ya(
k))は、比較器46の入力となり(この場合、g(f
″’)=f’)、閾値格納用レジスタ45の閾値THと
比較され、閾値THより等しいか大きい場合、比較器4
6に出力を生せしめる。一方、走査半径レジスタ48に
は視野半径Rの値が格納されている。方向θに対する走
査点個数nagを格納している走査点個数テーブル49
は、視野半径Rを入力として走査点個数nilを発生し
、これと走査点の位置kを与える走査アドレスカウンタ
47の値が比較器50において比較され、走査アドレス
kが走査点個数ns++より等しいか大きい場合、比較
器50に出力が生じる。論理和演算器51は比較器46
.50を入力として、走査停止命令信号を積和演算器4
4.ラッチ回路44′および走査距離テーブル54に送
出する。
The calculation operation of the second feature extraction unit 7 in FIG. 1 will be specifically illustrated. First, scanning stop control is performed as follows. Direction θ of the control feature image selected by the bus selector 42
The feature value f'(i+xe(k), j+ya(
k)) becomes the input of the comparator 46 (in this case, g(f
"')=f') is compared with the threshold value TH of the threshold value storage register 45, and if it is equal to or greater than the threshold value TH, the comparator 4
6 to produce an output. On the other hand, the value of the visual field radius R is stored in the scanning radius register 48. Scanning point number table 49 storing the number of scanning points nag for direction θ
generates the number nil of scanning points by inputting the field of view radius R, and compares this with the value of the scanning address counter 47 that gives the position k of the scanning point in the comparator 50, and determines whether the scanning address k is equal to the number of scanning points ns++. If so, there will be an output on comparator 50. The logical OR operator 51 is the comparator 46
.. 50 as input, the scan stop command signal is sent to the product-sum calculator 4.
4. It is sent to latch circuit 44' and scanning distance table 54.

入力特徴画像上の演算には、到達積分値、到達距離およ
び到達特徴値の3種類の演算がある。到達積分値算出演
算では、入力特徴画像上での走査特徴値f ’(x +
 xe(k)+ j + V e(k))を44の積和
演算器の入力として、これと重み系列w(k)を格納し
た重み系列テーブル43の内容との積和演算を、論理和
演算器51から停止命令が来るまで続行する。
There are three types of calculations on the input feature image: reach integral value, reach distance, and reach feature value. In the arrival integral value calculation operation, the scanning feature value f'(x +
xe(k)+j+Ve(k)) is input to the 44 product-sum calculators, and the product-sum operation of this and the contents of the weight series table 43 storing the weight series w(k) is performed by logical ORing. The process continues until a stop command is received from the arithmetic unit 51.

一方、到達特徴値算出演算は停止命令により、停止時に
=Lの入力特徴値 f’(1+xs(kLj+ya(k))を到達特徴値と
してラッチ回路44′に保持する。セレクタ53では。
On the other hand, when the reached feature value calculation operation is stopped by a stop command, the input feature value f'(1+xs(kLj+ya(k)) of =L is held in the latch circuit 44' as the reached feature value. In the selector 53.

停止命令が生じたとき、処理制御部8の指示により2つ
の入力値、到達積分値と到達特徴値のどちらかを選択し
て出力し、その結果を55の走査方向別出力値バッファ
に書き込む。一方、到達距離算出演算では、入力特徴画
像の値に無関係に演算が実行される。走査停止命令が走
査アドレスカウンタ47に送出されると、走査停止時の
走査アドレスカウンタ47の内容k(=L)を読み取り
、走査距離テーブル54に供給する。走査距離テーブル
54には、各走査方向θ毎の各走査ステップkまでの到
達距離J xe2(k)+ys (k)が格納されてお
り、走査停止命令を受けて停止したときの到達距離J 
X6 (L)+ys (L)が走査距離テーブル54か
ら読み出され、この読出し値を走査方向別出力値バッフ
ァ55に書き込む。
When a stop command is issued, one of the two input values, the arrival integral value and the arrival feature value, is selected and outputted according to instructions from the processing control unit 8, and the result is written in the output value buffer 55 for each scanning direction. On the other hand, in the reach distance calculation calculation, the calculation is performed regardless of the value of the input feature image. When the scanning stop command is sent to the scanning address counter 47, the content k (=L) of the scanning address counter 47 at the time of stopping the scanning is read and supplied to the scanning distance table 54. The scanning distance table 54 stores the distance Jxe2(k)+ys(k) reached to each scanning step k in each scanning direction θ, and the distance J xe2(k)+ys(k) reached when stopping in response to a scanning stop command.
X6 (L)+ys (L) is read from the scanning distance table 54, and this read value is written into the output value buffer 55 for each scanning direction.

走査方向別出力値バッファ55の内容は、セレクタ57
を通じて走査方向別に設定された特徴画像メモリにそれ
ぞれ書き込まれる。走査方向量演算器56は走査方向別
出力値バッファ55の内容を入力として、走査方向別特
徴値間で演算を行い、走査方向の間の関係を表わす特徴
値を出力する。出力結果はセレクタ57を通じて特徴画
像メモリに書き込まれる。動作の一実施例を以下に示す
The contents of the output value buffer 55 for each scanning direction are determined by the selector 57.
Each image is written to a characteristic image memory set for each scanning direction. The scanning direction amount calculator 56 inputs the contents of the output value buffer 55 for each scanning direction, performs calculations between the feature values for each scanning direction, and outputs a feature value representing the relationship between the scanning directions. The output result is written into the feature image memory through the selector 57. An example of operation is shown below.

走査方向別出力値をfs’(lej)とし、走査力2π
    2π   2π 「X2.・・・9毛−U、・・・、 、(D −1)と
すると、次に示すような演算が実行される。
The output value for each scanning direction is fs' (lej), and the scanning force is 2π
2π 2π ``X2....9hair-U,..., , (D -1), the following calculation is executed.

f’(i、j)=Σfs’b+j)         
 (8)f″(i、j)=ΣIfs+♂byj)  f
s’(i+jN   (9)ここで、αは定数である。
f'(i, j)=Σfs'b+j)
(8) f″(i, j)=ΣIfs+♂byj) f
s'(i+jN (9) where α is a constant.

(8)式は全方向の総和量であり、(9)式はある間隔
αだけ離れた方向との差分の総和量、(10)式は直交
する方向間の特徴値の比を示す。
Equation (8) represents the total amount in all directions, Equation (9) represents the total amount of differences from directions separated by a certain interval α, and Equation (10) represents the ratio of feature values between orthogonal directions.

以上が、画像特徴抽出部6,7のブロック構成の詳細な
説明であるが1本構成の最大の特徴は。
The above is a detailed explanation of the block configuration of the image feature extraction units 6 and 7, but the biggest feature of the single configuration is as follows.

処理制御部8が共通のシステムバスおよびビデオバスを
通じ1M枚の入力画像メモリおよびN枚の特徴画像メモ
リの中から画像特徴抽出部6,7の演算の入力特徴画像
および制御特徴画像を選択し。
The processing control unit 8 selects input feature images and control feature images for calculation by the image feature extraction units 6 and 7 from 1M input image memories and N feature image memories through a common system bus and video bus.

演算結果を再び指定された特徴画像メモリへ書き込む構
成となっている点である。第1の画像特徴抽出部6の出
力特徴画像を第2の画像特徴抽出部7の入力特徴画像又
は制御特徴画像として、又。
The point is that the calculation result is written back into the specified feature image memory. The output feature image of the first image feature extractor 6 is used as the input feature image or the control feature image of the second image feature extractor 7.

第2の画像特徴抽出部7の出方画像を第1の画像特徴抽
出部6の入力特徴画像又は制御特徴画像として使用でき
る。
The output image of the second image feature extraction section 7 can be used as an input feature image or a control feature image of the first image feature extraction section 6.

次に、この構成により算出される画像特徴について説明
する。説明の順序として、まず第1の画像特徴抽出部6
および第2の画像特徴抽出部7を主体として抽出される
画像特徴例について述べ、次に、第1の特徴抽出部6と
第2の特徴抽出部7の特徴的な点を組合せたことにより
生成される新しい画像特徴抽出部について述べる。さら
に、ヒストグラム処理部と組合せたことによる利点も最
後に述べる。
Next, image features calculated by this configuration will be explained. In order of explanation, first, the first image feature extraction unit 6
Next, we will discuss examples of image features extracted mainly by the second image feature extractor 7, and then describe the image features generated by combining the characteristic points of the first feature extractor 6 and the second feature extractor 7. This paper describes a new image feature extraction unit. Furthermore, the advantages of combining with the histogram processing section will be discussed at the end.

まず、第1の画像特徴抽出部6により算出される特徴値
を述べる。(1)式において、処理制御部8より特徴画
像メモリの1つに全画素について1を存き込み、制御画
像f ’(1y J )の値を全て1とし−f’(ir
j)ミit  H==l、C=’O,C’=1゜5=1
(定数レジスタ38の内容)とすれば、従来のコンボリ
ューション演算となる。この演算で、マスク関数テーブ
ル32の内容、マスク関数w(k、Q)に2例えばエツ
ジ検出用マスク関数(例、5obelのオペレーター)
を用い、積和演算器33の出力として水平、垂直の両方
向の1次微分値を求め、それらの出力値に対し画素間演
算部14において画素間の加算処理を行うことにより、
その出力特徴画像としてエツジ強度特徴画像が算出され
る。さらに。
First, the feature values calculated by the first image feature extraction section 6 will be described. In equation (1), the processing control unit 8 stores 1 for all pixels in one of the feature image memories, sets all the values of the control image f'(1y J ) to 1, and -f'(ir
j) Mit H==l, C='O,C'=1゜5=1
(Contents of constant register 38), it becomes a conventional convolution operation. In this calculation, the contents of the mask function table 32 and the mask function w(k, Q) are set to 2, for example, a mask function for edge detection (for example, an operator of 5 obel).
By using , first-order differential values in both the horizontal and vertical directions are obtained as the output of the product-sum calculator 33, and by performing inter-pixel addition processing on these output values in the inter-pixel calculation unit 14,
An edge strength feature image is calculated as the output feature image. moreover.

水平、垂直両方向の1次微分値特徴画像をデータ変換部
15に入力し、同変換部に格納されている2人力1出力
の逆正接(tan−”)関数テーブルにより。
The first-order differential value feature images in both the horizontal and vertical directions are input to the data converter 15, and the data is calculated using an arctangent (tan-'') function table of two people and one output stored in the data converter 15.

エツジ方向特徴画像を算出することができる。また、エ
ツジ強度特徴画像を入力として、閾値処理部13におい
て適当な閾値を設定して2値化処理することにより、境
界特徴画像(境界で1.境界外で0)を算出することが
できる。この境界特徴画像とエツジ方向特徴画像を画素
間演算部14の入力とすることにより1画素間の乗算処
理の結果として境界方向特徴画像を算出できる。また、
明るさの閾値に依存しない境界点、いわゆる明るさの2
次微分値が零となるゼロクロシング点を得るには、まず
−f ’ CI P j) = 1 t n =19 
C=o rC’=1.S=1、マスク関数テーブル32
に、例えばガウス関数の2次微分関数 1    k”+Q2k”+Q” W(k p fl )=−−コ(1−]?−) e X
 p (]7−)π σ (ただし、σは棚準偏差)を設定して積和演算器33の
積和出力を得る。次に、特徴画像メモリからこの積和出
力を読み出してデータ変換部15に入力し、1人力1出
力のルックアップテーブルを用いて。
An edge direction feature image can be calculated. Further, by inputting the edge strength feature image and performing binarization processing by setting an appropriate threshold value in the threshold processing unit 13, a boundary feature image (1 at the boundary and 0 outside the boundary) can be calculated. By inputting this boundary feature image and edge direction feature image to the inter-pixel calculation section 14, a boundary direction feature image can be calculated as a result of multiplication processing between pixels. Also,
A boundary point that does not depend on the brightness threshold, the so-called brightness 2
To obtain the zero crossing point where the order differential value becomes zero, first -f' CI P j) = 1 t n = 19
C=o rC'=1. S=1, mask function table 32
For example, the second-order differential function of the Gaussian function 1 k"+Q2k"+Q" W(k p fl )=--ko(1-]?-) e X
The product-sum output of the product-sum calculator 33 is obtained by setting p (]7−)π σ (where σ is the shelf standard deviation). Next, this product-sum output is read from the feature image memory and input to the data conversion unit 15, using a lookup table that requires one output per person.

零近傍値、正、負値の3値(0,+1)量子化を行う。Three-value (0, +1) quantization is performed: near-zero values, positive values, and negative values.

さらに、その出力値に対し+1.−1.○の3値の公知
の論理フィルタリングを行い、+1→−1,−1→+1
.+1→O→−1または一1→O→+1に変化する点を
ゼロクロシング点として検出することにより、ゼロクロ
シング点では1、それ以外ではOの境界特徴画像を得る
ことができる。
Furthermore, the output value is +1. -1. Perform well-known logical filtering using three values of ○, +1 → -1, -1 → +1
.. By detecting a point that changes from +1→O→−1 or -1→O→+1 as a zero-crossing point, a boundary feature image of 1 at the zero-crossing point and O at other points can be obtained.

また、(1)式において、” (ir j) = 1 
+n =1 、 C”: O、C’ = 1 、 マス
ク関数W(k 、 Q )=1,5=(2に+1)(2
L+1)とした時、演算出力f’(irj)は入力特徴
画像f ’Cx + j)に対するマスク関数の範囲内
(面積S)での平均値特徴画像μ(i、j)を与える。
Also, in equation (1), “(ir j) = 1
+n = 1, C": O, C' = 1, mask function W (k, Q) = 1, 5 = (2 + 1) (2
L+1), the calculation output f'(irj) gives the average value feature image μ(i, j) within the range (area S) of the mask function for the input feature image f'Cx+j).

そこで。Therefore.

次にμ(i、j)を入力特徴画像f ’(l l j)
とし。
Next, μ(i, j) is input to the feature image f′(l l j)
year.

f’(1+j)ミO,n=2.C=1.C’=1゜W(
k、Q)=1,5=(2に+1)(2L+1)とすると
、f’(i、j)の分散値σ2(xtj)を算出するこ
とが可能である。一般に、n=2.3,4.・・・とす
れば、それぞれの次数に対する特徴画像の高次統計量画
像が算出可能である。
f'(1+j)miO, n=2. C=1. C'=1゜W(
When k, Q)=1,5=(2+1)(2L+1), it is possible to calculate the variance value σ2(xtj) of f'(i, j). In general, n=2.3, 4. ..., it is possible to calculate higher-order statistical images of feature images for each order.

さらに、(1)式において。Furthermore, in equation (1).

f ’(i + k、j + Q)=C’を満たす画素
(irに、j+Q)においてのみ、F(1+J、に+Q
)が出力特徴画像f”(xtj)に寄与するようにでき
るので、制御画像f’(1+j)として演算の対象とな
る3画素のみ値C′をもち、他の画素では値がC′でな
い画像を用いれば、特定の画素のみを選択して演算を実
行することが可能である。例えばf″、f″′を共にエ
ツジ方向特徴画像、f′を境界特徴画像とし、n = 
2 、 C= 1 、 C’ = 1 。
F(1+J,+Q) only at the pixel (ir, j+Q) that satisfies f'(i+k,j+Q)=C'
) can contribute to the output feature image f''(xtj), so that only the three pixels targeted for calculation as the control image f'(1+j) have the value C', and the other pixels have values other than C'. By using , it is possible to select only specific pixels and perform calculations. For example, if f'' and f''' are both edge direction feature images and f' is a boundary feature image, n =
2, C=1, C'=1.

W(kJ)Elとすれば、エツジ方向の変動の大きさと
して曲率特徴画像を算出することができる。
If W(kJ)El is used, a curvature characteristic image can be calculated as the magnitude of variation in the edge direction.

ここで、Sの値は着目点(i、j)の近傍領域Ω内の境
界特徴画像の総和値(境界の頻度値)であり、カウンタ
37の出力に等しく、セレクタ39を介して割算器40
に入力される。
Here, the value of S is the sum total value (boundary frequency value) of the boundary feature images in the neighborhood Ω of the point of interest (i, j), is equal to the output of the counter 37, and is sent to the divider via the selector 39. 40
is input.

なお、本実施例では、2人力1出力の構成になっている
ため、入力特徴値f″’(l l j)を減算器25に
設定後、入力特徴値f ’(i + k、j + Q)
(k=±1.±2.・・・、±k)を順次読み込み、減
算器25に入力するものとする。制御特徴値f’(i+
に、j+k)と並列に読み出される。
In this embodiment, since the configuration is such that two people can output one output, after setting the input feature value f''(l l j) in the subtractor 25, the input feature value f'(i + k, j + Q)
(k=±1.±2. . . , ±k) are sequentially read and input to the subtracter 25. Control feature value f'(i+
, j+k).

さらに、この曲率特徴画像と境界特徴画像とを画素間演
算部14の入力とし、画素間の乗算処理をすることによ
り、境界の曲率成分を表わす境界曲率特徴画像が算出さ
れる。
Further, this curvature feature image and the boundary feature image are input to the pixel-to-pixel calculation section 14, and by performing multiplication processing between pixels, a boundary curvature feature image representing the curvature component of the boundary is calculated.

このように、第1の画像特徴抽出部6はエツジ強度、エ
ツジ方向、境界等の従来のコンボリューション演算を主
体として、算出可能な基本的な画像特徴を算出するだけ
でなく、演算パラメータの指定ニー!J、−従」屹の、
IンJ九1−乞」二」1zヌリ鼾□!− 実現できなかった高次統計量や、境界曲率特徴のような
境界の性質を示す重要な特徴の算出が行える能力を有し
ている。
In this way, the first image feature extraction unit 6 not only calculates basic image features that can be calculated, but also specifies calculation parameters, mainly using conventional convolution calculations such as edge strength, edge direction, and boundary. knee! J.
IinJ91-beg “2”1z Nuri snoring□! − It has the ability to calculate high-order statistics that could not be realized and important features that indicate the properties of boundaries, such as boundary curvature features.

次に、第2の画像特徴抽出部7により算出される特徴値
について述べる。まず、(2)式において。
Next, feature values calculated by the second image feature extraction section 7 will be described. First, in equation (2).

w(k)=1.f’を境界特徴画像の立上り点検出処理
像f”(立上り点検出器59の出力)とし、走査停止条
件は(5)式において、g(f”)=f’=境界特徴画
像、THを十分に大きな値とすることにより1次式(2
′)式に示すように方向別の複雑度特徴S 6’(1+
 J )を算出することができる。
w(k)=1. Let f' be the rising point detection processed image f'' of the boundary feature image (output of the rising point detector 59), and the scanning stop condition is given by equation (5), g(f'')=f'=boundary feature image, TH By setting a sufficiently large value, the linear equation (2
') As shown in the formula, the complexity feature S6'(1+
J) can be calculated.

fs”(1+j)=Σw(k)f”(i+xa(k)+
j+ys(k))  (2’)ここで、f”(i+xs
(k)yj+ya(k))=1(fe’(i+xs(k
)tJ+yバk))=1.かつf、’(i+x、(k−
1)+j+ys(k−1))=Oのとき〕=Oui醇φ
〕 上記演算は、境界を横切る回数をカウントしたものであ
る。
fs”(1+j)=Σw(k)f”(i+xa(k)+
j+ys(k)) (2') Here, f''(i+xs
(k)yj+ya(k))=1(fe'(i+xs(k
)tJ+ybak))=1. and f,'(i+x,(k-
1) When +j+ys(k-1))=O]=Oui 醇φ
] The above calculation counts the number of times the boundary is crossed.

また、上記演算において、W(k)=−7(αは定□1
しI−七L−1−キ亦青白聞浦雪ン17で(B)犬□ を採用することにより、半径R内の視野領域における視
野中d’ts・に近い程、重みを大きく設定した複雑度
を算出することができる。
In addition, in the above calculation, W(k)=-7 (α is a constant □1
By adopting (B) dog □ in I-7L-1-Key Qing White Monura Yukin 17, the closer the visual field to d'ts in the visual field within the radius R, the larger the weight is set. Complexity can be calculated.

次に、表面に模様がある対象物体を取り上げる。Next, pick up a target object that has a pattern on its surface.

模様を表わす特徴として境界特徴画像、物体の輪郭を表
わす特徴として輪郭特徴画像(輪郭画素値1、その他の
画素値O)が与えられているとする。
Assume that a boundary feature image is given as a feature representing a pattern, and a contour feature image (contour pixel value 1, other pixel values O) is given as a feature representing the outline of an object.

この場合、(2′)式において、f’を境界特徴画像w
(k)=1、走査停止条件は(5)式において、g(f
’)=f″=翰郭特徴画像、TH=1とし、Rを十分大
きく設定すれば1着目点から輪郭点までの走査方向別の
複雑度が算出される。ここで、fPとして境界特徴画像
の替わりに、例えば明度(明るさの度合)特徴画像とし
、(2)式の出力値を走査点個数りで割った値とするこ
とにより、着目点から輪郭点までの走査方向より明度平
均特徴が算出される。走査点個数りは論理和演算器51
の停止命令出力により、走査アドレスカウンタ47の内
容を走査方向別出力値バッファ55に読み込むことによ
って得られる。
In this case, in equation (2'), f' is the boundary feature image w
(k)=1, the scan stop condition is g(f
') = f'' = border feature image, TH = 1, and by setting R sufficiently large, the complexity for each scanning direction from the first point of interest to the contour point is calculated. Here, fP is the boundary feature image. Instead, for example, by using a brightness (degree of brightness) feature image and dividing the output value of equation (2) by the number of scanning points, the brightness average feature can be calculated from the scanning direction from the point of interest to the contour point. is calculated.The number of scanning points is calculated by the OR operator 51.
This is obtained by reading the contents of the scanning address counter 47 into the output value buffer 55 for each scanning direction by outputting a stop command.

とし、Rを十分大きく設定すれば、着目点から輪郭点ま
での走査方向別到達距離が算出される。ここで、走査方
向量演算として(10)式を採用すると、着目点のまわ
りに物体表面の一様な領域が拡がっている度合を示す拡
がり量(物体領域の面積に相当するfi)が算出される
。視野サイズRを小さく設定すれば局所的な拡がり量、
大きく設定すれば物体領域全体の大局的な拡がり量が算
出される6次に、(4)式の到達特徴値に着目すれば、
f′を輪郭の方向成分を示す特徴画像(輪郭方向特徴画
像L g (f ’)= f ’=輸郭特徴画像、TH
=1とし、Rを十分大きく設定すれば、着目点を中心と
する輪郭点上の走査方向別輪郭方向特徴値が得られる。
If R is set to a sufficiently large value, the distance traveled in each scanning direction from the point of interest to the contour point can be calculated. Here, when formula (10) is adopted as the scanning direction amount calculation, the amount of spread (fi, which corresponds to the area of the object region) indicating the extent to which a uniform area on the object surface spreads around the point of interest is calculated. Ru. If the field of view size R is set small, the amount of local expansion,
If you set it to a large value, the global spread of the entire object area will be calculated.If we focus on the reached feature value of equation (4), we can obtain the following:
f' is a feature image indicating the direction component of the contour (contour direction feature image L g (f') = f' = contour feature image, TH
= 1 and R is set sufficiently large, contour direction feature values for each scanning direction on contour points centered on the point of interest can be obtained.

この出力値を(9)式の入力とし、D=4゜α=πとす
ることにより、対角走査方向間の輪郭方向特徴値の差分
を総和した値を算出することができる。この出力値をD
で割った値を1例えば平方四辺形らしさとして算出する
ことができる。す方向特徴値を用いて、平行度のような
局所的な特徴を算出することもできる。この場合、Rを
物体の局所的な性質を表わすのに必要で、かつ十分な値
に設定し、D=8又は16.α=πとし、算出された走
査方向別輪郭方向特徴値f a’cir j)に対して
56の走査方向量演算部において、次式で示されるよう
な演算を行うことにより、各画素点での平行度F’(x
yj)が算出される。
By using this output value as an input to equation (9) and setting D=4°α=π, it is possible to calculate a value that is the sum of the differences in contour direction feature values between diagonal scanning directions. This output value is D
The value divided by 1 can be calculated as, for example, the likelihood of a square quadrilateral. Local features such as parallelism can also be calculated using the direction feature values. In this case, R is set to a value necessary and sufficient to express the local properties of the object, and D=8 or 16. By setting α=π and performing the calculation as shown in the following equation in the 56 scanning direction amount calculation units on the calculated contour direction feature value f a'cir j) for each scanning direction, parallelism F'(x
yj) is calculated.

h(lyJtθ)=lf、□’(IIJ)  L’(1
+j) 1(fs”(ltJ)fs+z”(1+j)=
1のとき)”0  (fa”(i、j)fa−z”(i
yj)=Oのとき)ただし、f e”(1+ J )の
値は、予め算出された走査方向別到達輪郭特徴値(1又
はOの値)であり。
h(lyJtθ)=lf, □'(IIJ) L'(1
+j) 1(fs”(ltJ)fs+z”(1+j)=
1) "0 (fa" (i, j) fa-z" (i
yj)=O) However, the value of f e'' (1+J) is a pre-calculated reached contour feature value for each scanning direction (a value of 1 or O).

Nは放射状に走査したときの走査方向別輪郭特徴値の対
角成分が共に1の個数である。出力値f s’(x t
 j)がπに近い程、平行度が高くなる。
N is the number of contour feature values for each scanning direction whose diagonal components are both 1 when scanning radially. Output value f s'(x t
The closer j) is to π, the higher the degree of parallelism.

このように、第2の画像特徴抽出部7では複雑度や拡が
り量等の領域の属性を決定する領域特徴について、走査
方向別の多次元量や視野Rの違いによる大局的又は局所
的な領域の属性に関する種々のスカラー量(視野内複雑
度、視野内拡がり量。
In this way, the second image feature extraction unit 7 extracts regional features that determine the attributes of the region, such as complexity and extent, into global or local regions based on multidimensional quantities for each scanning direction and differences in the field of view R. various scalar quantities related to the attributes (in-field complexity, in-field spread).

視野内平行度等)が算出される。Parallelism within the field of view, etc.) are calculated.

次は、第1の特徴抽出部6と第2の特徴抽出部7の特徴
的な点を組合せることにより、生成される新しい画像特
徴抽出例について述べる。前で述べたように本発明では
、画像特徴抽出部6,7が共通のビデオバス、システム
バスでつながっており、特徴画像メモリを介しての入力
特徴画像および出力特徴画像のやりとりが容易にできる
構成とな?でいる。ここで、第1の画像特徴抽出部6の
出力特徴画像を、第2の画像特徴抽出部7の入力として
用いる場合を考える。第1の画像特徴抽出部6では、高
次統計量および境界曲率特徴のような境界の性質を重要
な特徴の算出が行われる。今、高次統計量として明度特
徴画像に対する分散量。
Next, a new image feature extraction example generated by combining the characteristic points of the first feature extraction section 6 and the second feature extraction section 7 will be described. As mentioned above, in the present invention, the image feature extraction units 6 and 7 are connected by a common video bus and system bus, and input feature images and output feature images can be easily exchanged via the feature image memory. What is the composition? I'm here. Here, a case will be considered in which the output feature image of the first image feature extraction section 6 is used as an input to the second image feature extraction section 7. The first image feature extraction unit 6 calculates important features such as higher-order statistics and boundary properties such as boundary curvature features. Now, the amount of variance for the brightness feature image is used as a higher-order statistic.

すなわち、明度分散特徴画像が出力画像として得られた
とする。明度分散量は、物体表面の濃淡模様の不均一性
を知る上で重要な特徴である。ここで、この出力画像を
第2の画像特徴抽出部7の入力特徴画像f’とし、(2
)式の到達積分値算出演算を適用し、w(k)E:1、
走査停止条件は(5)式において、g(f’)=f’=
輪郭特徴画像、TH=1とし、Rを十分大きく設定し、
(2)式の出力値を走査点個数りで割れば、その出力値
として着目点から輪郭点までの明度分散量に関する領域
内における多次元量、すなわち、走査方向別明度分散量
が算出される。この走査方向別明度分散量は、濃淡模様
の不均一性を多次元化したものであり、2個図形(境界
特徴画像)の模様の不均一性を多次元化した走査方向別
複雑度とは異なる量である。また、第1の画像特徴抽出
部6の出力画像である輪郭曲率特徴を、第2の画像特徴
抽出部7の入力特徴画像f′として用いる場合を考える
。このとき。
That is, it is assumed that a brightness distribution feature image is obtained as an output image. The amount of brightness dispersion is an important feature in understanding the non-uniformity of the shading pattern on the surface of an object. Here, this output image is set as the input feature image f' of the second image feature extraction unit 7, and (2
) by applying the reaching integral value calculation operation, w(k)E:1,
In equation (5), the scan stop condition is g(f')=f'=
Contour feature image, TH = 1, R set sufficiently large,
By dividing the output value of equation (2) by the number of scanning points, the multidimensional amount in the area related to the brightness variance from the point of interest to the contour point, that is, the brightness variance by scanning direction, is calculated as the output value. . This brightness dispersion amount by scanning direction is a multidimensional version of the non-uniformity of the shading pattern, and what is the complexity by scanning direction, which is a multidimensional version of the non-uniformity of the pattern of two figures (boundary feature images). in different amounts. Also, consider a case where the contour curvature feature that is the output image of the first image feature extraction section 6 is used as the input feature image f' of the second image feature extraction section 7. At this time.

(4)式の到達特徴値算出演算を適用し、走査停止条件
は(5)式において、g(f″’)=f’=軸郭特徴画
像、TH=1とし、Rを十分大きく設定することにより
、着目点を中心とする走査方向別輪郭曲率特徴が算出さ
れる。この新しい特徴の利点は、走査方向別輪郭方向特
徴の場合と較べて、物体の輪郭成分を表現するのに走査
方向が少なくて済むという点と、ノイズに強い安定した
特徴が得られるという点である。すなわち、輪郭方向特
徴とそれを集積した輪郭曲率特徴を較べると、輪郭曲率
特徴の方がより広い範囲の情報を取り込んで、かつ積和
演算の効果により、ノイズ成分に対し安定になっている
Apply the reached feature value calculation calculation in equation (4), and set the scanning stop condition in equation (5), g(f″') = f' = axial feature image, TH = 1, and set R sufficiently large. By doing this, a contour curvature feature by scanning direction centered at the point of interest is calculated.The advantage of this new feature is that it is possible to express contour components of an object by using the contour curvature feature by scanning direction. In other words, when comparing the contour direction feature and the contour curvature feature that integrates the contour direction feature, the contour curvature feature has a wider range of information. It is stable against noise components due to the effect of the product-sum operation.

第2図および第3図に示すように、同じひし形を表現す
るのにも、輪郭方向特徴に対して走査方向別特徴値をと
った場合(第2図)と、輪郭曲率特徴に対して走査方向
別特徴値をとった場合(第3図)とを較べると、輪郭曲
率特徴に基づく方がより少ない走査で済み、かつその特
徴値自体もより信頼できる値となっている。一般に、第
1の画像特徴抽出部6でより広範囲の情報を取り込んだ
特徴値を算出し、これを入力とすることによって第2の
画像特徴抽出部7において、よりコンパクトでかつ信頼
できる物体情報を得ることができる。
As shown in Figures 2 and 3, to express the same diamond, there are two cases in which feature values are taken for each scanning direction for contour direction features (Figure 2), and two cases in which feature values are taken for contour curvature features (Figure 2). When compared with the case where feature values for each direction are taken (FIG. 3), less scanning is required based on the contour curvature feature, and the feature value itself is a more reliable value. Generally, the first image feature extraction section 6 calculates feature values that incorporate a wider range of information, and by using this as input, the second image feature extraction section 7 extracts more compact and reliable object information. Obtainable.

次に、第2の画像特徴抽出部7の出力特徴画像を第1の
画像特徴抽出部6の入力として用いる場合を考える。今
、第2の画像特徴抽出部7の出力特徴画像を視野的複雑
度又は視野内拡がり量とした場合を考える。これらの出
力特徴画像に対し、第1の画像特徴抽出部6の高次統計
量算出演算を適用する。従来は明度特徴や方向に関する
高次統計量の算出に止っていたが、第2の画像特徴抽出
部7の出力値として視野的複雑度、視野内拡がり量とい
う新しい次元の特徴値に対して高次統計量を算出するこ
とにより、さらに有効な特徴が生成される。例えば拡が
り量に関して、2次統計量(すなわち分散)をとること
により、空間内拡がり量の不均一性に関する量が算出さ
れる。この特徴値は模様が不均一にばらついている部分
程高い値を示す量であり、模様の解析に重要な量となる
Next, consider a case where the output feature image of the second image feature extractor 7 is used as an input to the first image feature extractor 6. Now, let us consider the case where the output feature image of the second image feature extractor 7 is the visual field complexity or the visual field expansion amount. The higher-order statistics calculation operation of the first image feature extraction unit 6 is applied to these output feature images. Conventionally, the calculation was limited to high-order statistics related to brightness features and directions, but the output values of the second image feature extraction unit 7 are high-order statistics for new dimension feature values such as visual field complexity and intra-field spread amount. More effective features are generated by calculating the next statistic. For example, by taking a second-order statistic (that is, variance) regarding the amount of spread, an amount related to the non-uniformity of the amount of spread in space is calculated. This feature value is a quantity that exhibits a higher value in areas where the pattern is unevenly distributed, and is an important quantity for pattern analysis.

さらに、画像特徴抽出部6,7を組合せた場合、第1の
画像特徴抽出部6が第2の画像特徴抽出部7の欠点を補
うという利点が生じる。例えば第2の画像特徴抽出部7
では第4図に示すように、物体の輪郭が途切れていたり
ノイズがあったりすると、〜郭点上で走査が停止しなく
なり、安定な特徴抽出が行えないという問題があった。
Furthermore, when the image feature extractors 6 and 7 are combined, there is an advantage that the first image feature extractor 6 compensates for the drawbacks of the second image feature extractor 7. For example, the second image feature extraction unit 7
However, as shown in FIG. 4, if the outline of the object is interrupted or there is noise, there is a problem in that scanning does not stop on the contour points and stable feature extraction cannot be performed.

ここで、輪郭特徴を決定するエツジ強度特徴に対し、第
1の画像特徴抽出部6の1次統計量(平均値)の算出を
行い平滑化してやることにより、途切れのない輪郭やノ
イズのない物体領域が得られ、第2の画像特徴抽出部7
において安定した放射状走査演算を得ることができる。
Here, by calculating and smoothing the first-order statistics (average value) of the first image feature extraction unit 6 for the edge strength feature that determines the contour feature, we can create an uninterrupted contour and a noise-free object. The region is obtained, and the second image feature extraction unit 7
A stable radial scan operation can be obtained in .

以上、画像特徴抽出部6,7を組合せたことによるメリ
ットについて説明したが、ヒストグラム処理部16とも
組合せることにより、より強力な特徴抽出演算が実行で
きる。ヒストグラム処理部16では、最大頻度値(モー
ド値)算出演算や中央値(メジアン)算出演算が実行で
きるが、例えば第2の画像特徴抽出部7から得られる視
野内複雑度特徴画像に対し、各画素の選分領域において
最大頻度値を与える視野内複雑度特徴値を出力値とする
ことにより、ばらついている複雑度特徴画像に対し比較
的均一な領域が形成された特徴画像を得ることが可能と
なる。また、同じく中央値を算出することにより、ノイ
ズを含んだ特徴画像を前の情報を失うことなく平滑化で
きる。このように、16のヒストグラム処理部を第1の
画像特徴抽出部6および第2の画像特徴抽出部7の前処
理として適用することにより、より安定した特徴抽出を
行うことが可能となる。
The advantages of combining the image feature extracting units 6 and 7 have been described above, but by also combining the histogram processing unit 16, more powerful feature extraction calculations can be executed. The histogram processing section 16 can perform maximum frequency value (mode value) calculation operations and median value (median) calculation operations. By using the in-field complexity feature value that gives the maximum frequency value in the pixel selection region as the output value, it is possible to obtain a feature image in which a relatively uniform region is formed compared to a variable complexity feature image. becomes. Furthermore, by similarly calculating the median value, a characteristic image containing noise can be smoothed without losing previous information. In this way, by applying the 16 histogram processing sections as pre-processing to the first image feature extraction section 6 and the second image feature extraction section 7, it becomes possible to perform more stable feature extraction.

以上は、データ圧縮部4が本実施例の構成に入っていな
い場合について説明したが、次に示す実施例は、データ
圧縮部が組込まれた場合について示す。
Although the case in which the data compression section 4 is not included in the configuration of this embodiment has been described above, the following embodiment will be described with respect to the case in which the data compression section is incorporated.

データ圧縮部4は、入力画像記憶部3の入力画像メモリ
および特徴画像記憶部5の特徴画像メモリとそれぞれビ
デオバス9,10およびシステムバス11.12で結合
されている。データ圧縮部4は、処理制御部8からの指
令を受け、入力画像記憶部3の入力画像メモリおよび特
徴画像記憶部5の特徴画像メモリの内容をデータ圧縮し
、その出力を特徴画像メモリに書き込む。具体的には、
次に示す動作が行われる。バスセレクタ17で、2本の
ビデオバス9,10を切換えることにより、入力となる
入力画像メモリおよび特徴画像メモリを選択する。18
は積和演算器であり、 次式で示す演算が行われる。
The data compression section 4 is coupled to the input image memory of the input image storage section 3 and the characteristic image memory of the characteristic image storage section 5 via video buses 9, 10 and system buses 11, 12, respectively. The data compression unit 4 receives a command from the processing control unit 8, compresses the contents of the input image memory of the input image storage unit 3 and the feature image memory of the feature image storage unit 5, and writes the output to the feature image memory. . in particular,
The following operations are performed. A bus selector 17 selects an input image memory and a feature image memory to be input by switching between two video buses 9 and 10. 18
is a product-sum calculator, and performs the calculation shown in the following equation.

ここで、mはサンプリング間隔を決める定数、Sは定数
、W(k、12)は18′のマスク関数テーブルから与
えられるマスク関数(2次元データテーブル)、f’(
1#j)は入力となる入力画像メモリおよび特徴画像メ
モリの内容、f”(r、s)は演算結果を示す出力画像
である。通常、W(k、Q)’El。
Here, m is a constant that determines the sampling interval, S is a constant, W (k, 12) is a mask function (two-dimensional data table) given from the mask function table of 18', f' (
1#j) is the content of the input image memory and feature image memory that are input, and f''(r, s) is the output image indicating the calculation result. Usually, W(k, Q)'El.

5=(2に+1)(2L+1)とし、平均値を出力値と
1       k”十込2 するが、W(k、Q)=−−7eXp(−2a  )2
πσ (ただしσは標準偏差)のように、一般的な平滑化関数
をマスク関数として平滑化処理してもよい。
5 = (2 + 1) (2L + 1), and the average value is the output value and 1 k'', but W (k, Q) = -7eXp (-2a) 2
Smoothing processing may be performed using a general smoothing function such as πσ (where σ is the standard deviation) as a mask function.

ここで、この平滑化処理演算は、19のサンプリングア
ドレステーブルにより与えられたアドレス(mr、 m
s)に対してだけ実行され、その出力値がビデオバス1
1を通して特徴画像メモリへ順次書き込まれる。この結
果、1/m”のデータ圧縮効果が得られる。
Here, this smoothing processing operation is performed using the addresses (mr, m
s), and its output value is the video bus 1
1 to the feature image memory. As a result, a data compression effect of 1/m'' can be obtained.

次に、データ圧縮部4を本発明の構成に付加したことに
よる利点について示す。従来は、第1の画像特徴抽出部
6においてはマスク関数のサイズnXnを大きくすると
、演算量が0(n2)のオーダーで増加し、また、第2
の画像特徴抽出部7においても放射状の走査距離が大き
くなるにつれて、演算量が同じオーダーでも増加してし
まうとし)う問題があった。ここで、データ圧縮するこ
とにより、入力となる特徴画像のサイズが小さくなり、
演算量がO(n 2/m2)(m :サンプリング定数
)のオーダーとなり、演算コストが低減できる。さらに
、入力特徴画像が平滑化されているので、第4図のよう
な輪郭の途切れやノイズの影響を軽減でき、安定な特徴
抽出を行えるという相乗効果をも期待できる。
Next, the advantages of adding the data compression section 4 to the configuration of the present invention will be described. Conventionally, in the first image feature extraction section 6, when the size nXn of the mask function is increased, the amount of calculation increases on the order of 0 (n2), and
The image feature extraction unit 7 also had a problem in that as the radial scanning distance increased, the amount of calculation increased even for the same order of magnitude. By compressing the data, the size of the input feature image becomes smaller,
The amount of calculation is on the order of O(n 2 /m 2 ) (m: sampling constant), and the calculation cost can be reduced. Furthermore, since the input feature image is smoothed, it is possible to reduce the effects of contour discontinuities and noise as shown in FIG. 4, and a synergistic effect can be expected in that stable feature extraction can be performed.

一般的な平滑化関数この結果、1/m”のデータ圧縮効
果が得られる。
General Smoothing Function This results in a data compression effect of 1/m''.

次に、データ圧縮部4を本発明の構成に付加したことに
よる利点について示す。従来は、第1の画像特徴抽出部
においてはマスク関数のサイズnXnを太き(すると、
演算量がO(n”)のオーダーで増加し、また、第2の
画像抽出部においても放射状の走査距離が大きくなるに
つれて、演算量が同じオーダーでも増加してしまうとい
う問題があった。ここで、データ圧縮することにより、
入力となる特徴画像のサイズが小さくなり、演算量がO
(n”/m”)(m :サンプリング定数)のオーダー
となり、演算コストが低減できる。さらに、入力特徴画
像が平滑化されているので、第4図のような輪郭の途切
れやノイズの影響を軽減でき、安定な特徴抽出を行える
という相乗効果をも期待できる。
Next, the advantages of adding the data compression section 4 to the configuration of the present invention will be described. Conventionally, in the first image feature extraction section, the size nXn of the mask function is increased (then,
There is a problem in that the amount of calculation increases on the order of O(n''), and also in the second image extraction section, as the radial scanning distance increases, the amount of calculation increases even on the same order. By compressing the data,
The size of the input feature image is small, and the amount of calculation is O
It is on the order of (n''/m'') (m: sampling constant), and the calculation cost can be reduced. Furthermore, since the input feature image is smoothed, it is possible to reduce the effects of contour discontinuities and noise as shown in FIG. 4, and a synergistic effect can be expected in that stable feature extraction can be performed.

(発明の効果) 以上説明したように、本発明は、コンボリューション演
算及び高次統計量演算により、境界曲率特徴のような境
界の性質を示す重要な特徴を抽出する特徴抽出部と、複
一度、拡がり量等の領域の種々の属性を抽出する特徴抽
出部とが、共通のビデオバス及びシステムバスで結合し
、特徴画像メモリを介して入力特徴画像及び出力特徴画
像のやりとりが容易にできり構成となっているため、従
来の各特徴抽出部の単独な適用だけでは実現できなかっ
た物体認識に有効で、かつ重要な画像特徴が安定に抽出
され、汎用性に優れた画像処理及び特徴抽出演算を実現
できるという利点がある。
(Effects of the Invention) As explained above, the present invention includes a feature extraction unit that extracts important features indicating the properties of a boundary such as a boundary curvature feature by a convolution operation and a higher-order statistical calculation, and , and a feature extraction unit that extracts various attributes of a region, such as the amount of spread, are connected via a common video bus and system bus, and input feature images and output feature images can be easily exchanged via a feature image memory. Because of this configuration, image features that are effective and important for object recognition, which could not be achieved by applying each feature extraction unit alone, can be stably extracted, resulting in highly versatile image processing and feature extraction. It has the advantage of being able to perform calculations.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明にかかる画像特徴抽出装置を実現するた
めの詳細なブロック構成図、第2図は従来の放射状走査
型演算例を示す図、第3図は本発明により第1の画像特
徴抽出部と第2の特徴抽出部を組合せたことによる効果
を示す図、第4図は第2の画像抽出部における欠点を示
す図である。 1 ・・・撮像装置、 2・・・A/D変換器、 3 ・・・入力画像記憶部、 4・・・データ圧縮部、 5・・・特徴画像記憶部、 6・・・第1の画像特徴抽出部、 7・・・第2の画像特徴抽出部。 8・・・処理制御部、 9 、10.11・・・ ビデオバス、12・・・シス
テムバス、 13・・・閾値処理部。 14・・・画素間演算部、 15・・・データ変換部、 16・・・ ヒストグラム処理部、 17、20.21.22.41.42・・・バスセレク
タ、23、26.30・・・数値入力信号、24、31
.39.53.57.59・・・セレクタ、25・・・
減算器、 25′ ・・・ラッチ回路、 28・・・ 3乗テーブル、 29・・・4乗テーブル、 34、38・・・定数レジスタ、 35、46.50・・・比較器、 37・・・カウンタ、 40・・・割算器、 43・・・重み系列テーブル、 44′・・・ラッチ回路。 45・・・閾値格納用レジスタ。 47・・・走査アドレスカウンタ、 48・・・走査半径レジスタ、 49・・・走査点個数テーブル、 51・・・論理和演算器、 54・・・走査距離テーブル、 55  ・・走査方向別出力値バッファ、56・・・走
査方向量演算部、 58・・立上り点検出器。 特許出願人 日本型イご電話株式会社 第3図 第4図
FIG. 1 is a detailed block configuration diagram for realizing an image feature extraction device according to the present invention, FIG. 2 is a diagram showing an example of conventional radial scanning type calculation, and FIG. 3 is a diagram showing a first image feature extraction device according to the present invention. FIG. 4 is a diagram showing the effect of combining the extracting section and the second feature extracting section, and FIG. 4 is a diagram showing the drawbacks of the second image extracting section. 1... Imaging device, 2... A/D converter, 3... Input image storage section, 4... Data compression section, 5... Characteristic image storage section, 6... First Image feature extraction section: 7... Second image feature extraction section. 8... Processing control unit, 9, 10.11... Video bus, 12... System bus, 13... Threshold processing unit. 14... Inter-pixel calculation unit, 15... Data conversion unit, 16... Histogram processing unit, 17, 20.21.22.41.42... Bus selector, 23, 26.30... Numerical input signal, 24, 31
.. 39.53.57.59...Selector, 25...
Subtractor, 25'... Latch circuit, 28... Cubic power table, 29... Fourth power table, 34, 38... Constant register, 35, 46.50... Comparator, 37... -Counter, 40...Divider, 43...Weight series table, 44'...Latch circuit. 45...Register for storing threshold value. 47... Scanning address counter, 48... Scanning radius register, 49... Scanning point number table, 51... OR operator, 54... Scanning distance table, 55... Output value by scanning direction Buffer, 56...Scanning direction amount calculation unit, 58...Rising point detector. Patent applicant: Japanese Igo Denwa Co., Ltd. Figure 3 Figure 4

Claims (2)

【特許請求の範囲】[Claims] (1)入力画像データを記憶する入力画像記憶部と、 前記入力画像データに対する特徴抽出処理により得られ
る特徴画像または得られた特徴画像について、さらに特
徴抽出処理を行って得られる特徴画像を記憶する複数の
特徴画像メモリからなる特徴画像記憶部と、 前記特徴画像記憶部または前記入力画像記憶部に対し甲
、乙2枚の画像記憶領域を指定し、また前記特徴画像記
憶部において丙、丁2枚の特徴画像メモリを指定し、画
像記憶領域乙上の着目点の画素に対して画像記憶領域甲
上の対応する近傍領域の画素との画素値の差のべき乗の
重み付き積和演算を、前記近傍領域の画素に対応する特
徴画像メモリ丁上の画素の値が予め設定された値に等し
い場合のみ実行し、結果を特徴画像メモリ丙に格納する
第1の画像特徴抽出部と、 前記入力画像記憶部または特徴画像記憶部に格納されて
いる入力画像または特徴画像の中の2枚の画像をそれぞ
れ入力特徴画像および制御用特徴画像として指定し、放
射状走査の範囲を与える視野の大きさおよび制御用特徴
画像の特徴値について定義される走査停止条件を設定し
て、前記両特徴画像上を同位置の着目点から前記視野の
大きさか走査停止条件のいずれか一方により決定される
停止点まで放射状に走査することによって走査領域を制
御し、各走査方向別に入力特徴画像の走査線上の特徴値
について特徴抽出演算を実行し、前記着目点の位置を両
特徴画像上で順次移動させることによって得られる各着
目点における特徴値から構成される特徴画像を生成し、
前記特徴画像記憶部の指定した特徴画像メモリに格納す
る第2の画像特徴抽出部と、 を備え、入力画像記憶部および特徴画像記憶部を第1お
よび第2の特徴抽出部から共通に使用しうる構成とした
ことを特徴とする画像特徴抽出装置。
(1) An input image storage unit that stores input image data, and stores a feature image obtained by performing feature extraction processing on the input image data or a feature image obtained by further performing feature extraction processing on the obtained feature image. A characteristic image storage section consisting of a plurality of characteristic image memories, two image storage areas A and B specified for the characteristic image storage section or the input image storage section; Specify two feature image memories, and perform a weighted sum-of-products operation of the power of the difference in pixel value between the pixel at the point of interest on image storage area B and the pixel in the corresponding neighboring area on image storage area A. a first image feature extraction unit that executes the extraction only when the value of a pixel in the feature image memory C corresponding to the pixel in the neighboring region is equal to a preset value, and stores the result in the feature image memory C; Two images among the input images or feature images stored in the image storage unit or the feature image storage unit are designated as the input feature image and the control feature image, respectively, and the size of the field of view that gives the range of radial scanning and the A scan stop condition defined for the feature value of the control feature image is set, and the above two feature images are moved from a point of interest at the same position to a stop point determined by either the field of view size or the scan stop condition. The scanning area is controlled by scanning radially, the feature extraction calculation is performed on the feature values on the scanning line of the input feature image in each scanning direction, and the position of the point of interest is sequentially moved on both feature images. generate a feature image composed of feature values at each point of interest,
a second image feature extraction section storing in a feature image memory designated by the feature image storage section; the input image storage section and the feature image storage section are commonly used by the first and second feature extraction sections; An image feature extraction device characterized by having a transparent configuration.
(2)前記入力画像記憶部に格納された入力画像または
特徴画像記憶部に格納された特徴画像に対し平滑化処理
を行い、その結果を設定されたサンプリング間隔に応じ
てサンプリング処理し、その結果得られた画像を特徴画
像記憶部に格納するデータ圧縮部を有することを特徴と
する特許請求の範囲第(1)項記載の画像特徴抽出装置
(2) Perform smoothing processing on the input image stored in the input image storage unit or the feature image stored in the feature image storage unit, perform sampling processing on the result according to the set sampling interval, and An image feature extraction device according to claim (1), further comprising a data compression unit that stores the obtained image in a feature image storage unit.
JP62060800A 1987-03-16 1987-03-16 Image feature extraction device Expired - Fee Related JP2532086B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62060800A JP2532086B2 (en) 1987-03-16 1987-03-16 Image feature extraction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62060800A JP2532086B2 (en) 1987-03-16 1987-03-16 Image feature extraction device

Publications (2)

Publication Number Publication Date
JPS63226785A true JPS63226785A (en) 1988-09-21
JP2532086B2 JP2532086B2 (en) 1996-09-11

Family

ID=13152759

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62060800A Expired - Fee Related JP2532086B2 (en) 1987-03-16 1987-03-16 Image feature extraction device

Country Status (1)

Country Link
JP (1) JP2532086B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19521346A1 (en) * 1994-06-14 1995-12-21 Nippon Telegraph & Telephone Image processing and inspection by extracting identification features
JP2017068608A (en) * 2015-09-30 2017-04-06 株式会社東芝 Arithmetic unit, method and program

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59779A (en) * 1982-06-28 1984-01-05 Nec Corp Data collating system
JPS6044147U (en) * 1983-08-29 1985-03-28 日立電子株式会社 pattern recognition device
JPS6055474A (en) * 1983-09-06 1985-03-30 Toshiba Corp Detector for difference between images
JPS6069783A (en) * 1983-09-26 1985-04-20 Hitachi Ltd Picture collation system
JPS60200374A (en) * 1984-03-26 1985-10-09 Hitachi Ltd Visual recognizing system
JPS6137554U (en) * 1984-08-10 1986-03-08 三菱電機株式会社 Image cutting processing device
JPS61128385A (en) * 1984-11-27 1986-06-16 Oki Electric Ind Co Ltd Picture processor
JPS61138335A (en) * 1984-12-10 1986-06-25 Matsushita Electric Ind Co Ltd Arithmetic circuit of storage element
JPS61237132A (en) * 1985-04-15 1986-10-22 Fanuc Ltd Imate processor
JPS61289478A (en) * 1985-06-17 1986-12-19 Nippon Telegr & Teleph Corp <Ntt> Matching method for pictorial pattern

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59779A (en) * 1982-06-28 1984-01-05 Nec Corp Data collating system
JPS6044147U (en) * 1983-08-29 1985-03-28 日立電子株式会社 pattern recognition device
JPS6055474A (en) * 1983-09-06 1985-03-30 Toshiba Corp Detector for difference between images
JPS6069783A (en) * 1983-09-26 1985-04-20 Hitachi Ltd Picture collation system
JPS60200374A (en) * 1984-03-26 1985-10-09 Hitachi Ltd Visual recognizing system
JPS6137554U (en) * 1984-08-10 1986-03-08 三菱電機株式会社 Image cutting processing device
JPS61128385A (en) * 1984-11-27 1986-06-16 Oki Electric Ind Co Ltd Picture processor
JPS61138335A (en) * 1984-12-10 1986-06-25 Matsushita Electric Ind Co Ltd Arithmetic circuit of storage element
JPS61237132A (en) * 1985-04-15 1986-10-22 Fanuc Ltd Imate processor
JPS61289478A (en) * 1985-06-17 1986-12-19 Nippon Telegr & Teleph Corp <Ntt> Matching method for pictorial pattern

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19521346A1 (en) * 1994-06-14 1995-12-21 Nippon Telegraph & Telephone Image processing and inspection by extracting identification features
JP2017068608A (en) * 2015-09-30 2017-04-06 株式会社東芝 Arithmetic unit, method and program

Also Published As

Publication number Publication date
JP2532086B2 (en) 1996-09-11

Similar Documents

Publication Publication Date Title
KR100381530B1 (en) A New Edge-Detection Based Noise Removal Algorithm
US7321699B2 (en) Signal intensity range transformation apparatus and method
US8290256B2 (en) Image processing apparatus and image processing method
CN104809710B (en) Image de-noising method and the device using this method
Wang et al. Bayer pattern CFA demosaicking based on multi-directional weighted interpolation and guided filter
KR101215666B1 (en) Method, system and computer program product for object color correction
Pandey et al. A novel technique for non-overlapping image mosaicing based on pyramid method
JPS63226785A (en) Image feature extracting device
Peng et al. Detail enhancement for infrared images based on propagated image filter
Scott et al. Laplacian based image fusion
Magnier et al. A recursive edge detector for color filter array image
Hur et al. Edge-adaptive color interpolation algorithm for progressive scan charge-coupled device image sensors
CN111626935B (en) Pixel map scaling method, game content generation method and device
JP3075815B2 (en) Image processing device
JP5092958B2 (en) Image processing apparatus and program
US6760466B2 (en) Automatic image replacement and rebuilding system and method thereof
JP2004153382A (en) Motion vector detecting apparatus
Van Nguyen et al. Highly noise resistant beltrami-based texture maps with window derivative
CN105519110B (en) Template processing method and relevant device
González Aguirre et al. Environmental Visual Object Recognition
Golts et al. Spatial frequency response of Bayer color image formation
Manjarrés Edge-Preserving Image Upscaling
JPH08336115A (en) Frame interpolating method
CN116452448A (en) Image denoising method, device, equipment and storage medium
Steux et al. of Deliverable: Report on Computer Vision Algorithms

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees