JPH0636037A - Holonic visual recognizing device - Google Patents

Holonic visual recognizing device

Info

Publication number
JPH0636037A
JPH0636037A JP4189133A JP18913392A JPH0636037A JP H0636037 A JPH0636037 A JP H0636037A JP 4189133 A JP4189133 A JP 4189133A JP 18913392 A JP18913392 A JP 18913392A JP H0636037 A JPH0636037 A JP H0636037A
Authority
JP
Japan
Prior art keywords
information
meaning
line
unit
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4189133A
Other languages
Japanese (ja)
Inventor
Takahiro Yamada
隆博 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP4189133A priority Critical patent/JPH0636037A/en
Publication of JPH0636037A publication Critical patent/JPH0636037A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To provide the holonic visual recognizing device which uses N holovisions for two-azimuth detection and can set 2N detection azimuths at equal intervals. CONSTITUTION:The N holovisions for two-azimuth detection are used and the angle between corresponding detection azimuths of adjacent holovisions is set to (pi/2N); and meaning storage parts 123 and 132 for the respective holovisions and a meaning integration part 140 have 4N relative positions, a weight function used for information interchanging between information generation parts 122 and 132 for the respective holovisions and the meaning storage parts 123 and 132 is regarded as the gradients of ridges of a regular inverted 4N-angled pyramid having its apexes arranged in 2N detection azimuths, and all pieces of information in the meaning storage parts are integrated by the meaning integration part.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、入力される文字・画像
(静止画、動画)などの図形情報から創出される意味情
報群と記憶されている図形の意味情報群との間のホロニ
ックな関係付け(つまり、意味情報のトップダウンとボ
トムアップからなる情報ループによる関係付け)で図形
認識を行う視覚認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a holonic system between semantic information groups created from input graphic information such as characters / images (still images, moving images) and stored semantic information groups of graphics. The present invention relates to a visual recognition device that performs pattern recognition by associating (that is, associating an information loop including top-down and bottom-up of semantic information).

【0002】[0002]

【従来の技術】人間の視覚系を網膜(および外側膝状
体)、第1次視覚野皮質、記憶機能という三階層で捉
え、非線形振動子の引き込み現象を利用して情報処理を
行うモデルがホロビジョン(参考文献:清水博、山口陽
子:『大脳の情報原理とそのバイオ・コンピュータへの
応用』、生体の科学 Vol.37, No.1, p
p.26〜40, 1986)として知られる視覚認識
モデルである。ホロビジョンの基本モデルを図3に示
す。ホロビジョンの構成は、図3(a) に示すように、情
報入力部301(R平面)・情報生成部302(V層)
・意味記憶部303(S層)の三階層からなり、これら
はそれぞれ人間の視覚系の網膜(および外側膝状体)・
第1次視覚野皮質・記憶機能に対応する。情報入力部3
01は、受像画素が単純正方格子状に配列された受像面
(図では4×4画素の例である)であり、2値の画素情
報(素情報とも呼び、図では黒丸●が信号を示す)30
0で構成される図形情報が画素に入力される。情報生成
部302は、入力された素情報の並びから線の方位(図
中では\、|、/、―で表示される方位)を検出するS
ユニット312群と線端(図中では
2. Description of the Related Art A model that captures the human visual system in three layers, the retina (and the lateral geniculate body), the primary visual cortex, and the memory function, and uses the non-linear oscillator pull-in phenomenon to process information is known. Holovision (Reference: Hiroshi Shimizu, Yoko Yamaguchi: "Cerebrum Information Principle and Its Application to Bio-Computers", Biological Science, Vol.37, No.1, p.
p. 26-40, 1986), which is a visual recognition model. Figure 3 shows the basic model of Holovision. As shown in FIG. 3 (a), the structure of holographic vision is information input unit 301 (R plane) / information generation unit 302 (V layer).
-It consists of three layers of the meaning memory unit 303 (S layer), which are the retina (and lateral geniculate body) of the human visual system, respectively.
Corresponds to the primary visual cortex and memory function. Information input section 3
Reference numeral 01 is an image receiving surface (in the figure, an example of 4 × 4 pixels) in which image receiving pixels are arranged in a simple square lattice, and binary pixel information (also called raw information, black circles ● in the figure represent signals) ) 30
Graphic information composed of 0s is input to the pixel. The information generation unit 302 detects the direction of the line (the direction indicated by \, |, /,-in the figure) from the array of the input elementary information S
Units 312 and line ends (in the figure,

【0003】[0003]

【外1】 [Outer 1]

【0004】で表示される線端)を検出するTユニット
322群の集合体から成る。情報入力部301の1個の
画素に対応する情報生成部302のユニットの集合体3
32(図中の斜線部)をハイパーコラム332と呼称
し、ハイパーコラム332を構成する基本コラムは図3
(b) に示すように線の方位情報を生成するSユニット3
12と矢印方向の線端情報を生成するTL ユニット34
1とTR ユニット342で構成されるTユニット322
からなる。基本コラムを構成する各々のユニットは非線
形振動子である。ハイパーコラム332とは、異なる方
位の基本コラムを積層したものである。意味記憶部30
3は、記憶図形の意味を線端の方向(図中では
It is composed of an assembly of T unit 322 groups for detecting the line end displayed by. An aggregate 3 of units of the information generation unit 302 corresponding to one pixel of the information input unit 301
32 (hatched portion in the figure) is called a hyper column 332, and the basic column forming the hyper column 332 is shown in FIG.
S unit 3 that generates line direction information as shown in (b)
12 and a TL unit 34 for generating line end information in the arrow direction
1 and TR unit 342, which is a T unit 322
Consists of. Each unit forming the basic column is a non-linear oscillator. The hyper column 332 is a stack of basic columns having different orientations. Meaning storage unit 30
3 indicates the meaning of the memory figure in the direction of the line end (in the figure,

【0005】[0005]

【外2】 [Outside 2]

【0006】で表示される方向)と線端の相対位置(図
中ではL1、L2、L3、L4、L5、L6、L7、L8で表示
される相対位置)として記憶するMユニット313の集
合体から成る。Mユニットも非線形振動子である。意味
記憶部303は Li → Lj (i,j=1〜8;i≠j)という
変換を行うことで図形の回転にも対応可能である。な
お、意味記憶部303の1個の相対位置に対応する異な
る線端方向のユニット集合体333を(図中のL6 斜線
部)をメモリコラム333と呼称する。
A collection of M units 313 to be stored as a relative position (direction indicated by) and a relative position of line ends (relative positions indicated by L1, L2, L3, L4, L5, L6, L7, L8 in the figure). Consists of. The M unit is also a nonlinear oscillator. The meaning storage unit 303 can also correspond to the rotation of the figure by performing the conversion Li → Lj (i, j = 1 to 8; i ≠ j). The unit assembly 333 in different line end directions corresponding to one relative position of the meaning storage unit 303 (the hatched portion of L6 in the figure) is referred to as a memory column 333.

【0007】次に、図中のVSリレー304は、情報生
成部302で検出された線端の絶対位置を相対位置に変
換する機能を有する。情報入力部301が4×4画素か
らなるホロビジョンを例に取れば、VSリレーの動作
は、図3(c) に示すような重み関数を情報生成部の信号
に掛け合わせ、同一の配列位置における信号の最大値を
その配列位置の信号とする処理のことである。この場合
の重み関数は頂点が線検出の方位と一致した倒立の正八
角錐の稜線の勾配に相当する。同様に、図中のSVリレ
ー305は、意味記憶部303に記憶されている線端の
相対位置を絶対位置に変換する機能を有する。情報入力
部301が4×4画素のホロビジョンを例に取れば、S
Vリレーの動作は、図3(d) に示すような重み関数を意
味記憶部の信号に掛け合わせ、同一の配列位置における
信号の最大値をその配列位置の信号とする処理のことで
ある。この場合の重み関数も頂点が線検出の方位と一致
した倒立の正八角錐の稜線の勾配に相当するが、稜線と
稜線の間に相当する配列位置は内挿した勾配が用いられ
る。こうした位置に関する変換機能は位置・大きさに依
存しない図形認識を可能にする。これら両リレーが同時
に動作することにより、情報生成部302と意味記憶部
303との間で線端情報に関する同期(非線形振動子の
集合体相互の引き込み作用のこと)・脱同期(非線形振
動子の集合体相互の抑圧作用のこと)が行われ、入力図
形を意味する線端情報群(つまり線端相互の関係を表す
線端情報の集合)と図形の意味として記憶されている線
端情報群(つまり線端相互の関係を表す線端情報の集
合)が対応づけられ、図形認識が成立する。
Next, the VS relay 304 in the figure has a function of converting the absolute position of the line end detected by the information generator 302 into a relative position. If the information input unit 301 is made of a 4x4 pixel horovision as an example, the VS relay operates by multiplying the signal of the information generating unit by a weighting function as shown in FIG. Is the process of setting the maximum value of the signal in the above as the signal at the array position. In this case, the weighting function corresponds to the slope of the ridge of an inverted regular octagonal pyramid whose apex coincides with the direction of line detection. Similarly, the SV relay 305 in the figure has a function of converting the relative position of the line ends stored in the meaning storage unit 303 into an absolute position. If the information input unit 301 is a 4 × 4 pixel holovision as an example, S
The operation of the V-relay is a process of multiplying the signal of the meaning storage unit by a weighting function as shown in FIG. 3 (d) and setting the maximum value of the signal at the same array position as the signal at that array position. The weighting function in this case also corresponds to the gradient of the ridgeline of an inverted regular octagonal pyramid whose apex coincides with the azimuth of line detection, but an interpolated gradient is used for the array position corresponding to the ridgeline. The position conversion function enables graphic recognition independent of position and size. As both of these relays operate at the same time, the information generation unit 302 and the meaning storage unit 303 are synchronized with respect to the line end information (the mutual pulling action of the collection of nonlinear oscillators) and desynchronized (of the nonlinear oscillators). Suppression of mutual aggregation) is performed, and the line end information group that represents the input figure (that is, the set of line end information that represents the relationship between the line ends) and the line edge information group that is stored as the figure meaning (That is, a set of line end information representing the relationship between the line ends) is associated with each other, and graphic recognition is established.

【0008】このように、情報入力部に入力された図形
の線情報から情報生成部で生成される線端情報の集合を
図形の意味情報として意味記憶部にボトムアップ(これ
はVSリレーが行う)し、意味記憶部に記憶されている
図形の意味情報を情報生成部にトップダウン(これはS
Vリレーが行う)することで形成される情報ループの中
で意味情報を担う意味記憶部と情報生成部それぞれの非
線形振動子群が引き込み状態となる、すなわち入力図形
と記憶図形の意味情報レベルでのマッチングを行う構成
・原理により、位置・大きさ・回転に拠らない図形認識
が可能となる。
As described above, the set of line end information generated by the information generation unit from the line information of the graphic input to the information input unit is bottom-up to the semantic storage unit as the semantic information of the graphic (this is performed by the VS relay). ), And top-down the semantic information of the graphic stored in the meaning storage unit to the information generation unit (this is S
In the information loop formed by the V relay), the non-linear oscillator groups of the semantic storage unit and the information generation unit, which carry the semantic information, are in the pull-in state, that is, at the semantic information level of the input figure and the stored figure. With the configuration and principle of matching, it is possible to recognize figures regardless of position, size, or rotation.

【0009】次に、ホロビジョンが四角形を認識する様
子を図3(e) を用いて説明する。 (1)まず、情報入力部301の受像面に一辺が3ドット
の四角形を入力する。
Next, how the holographic vision recognizes a quadrangle will be described with reference to FIG. (1) First, a quadrangle having 3 dots on each side is input to the image receiving surface of the information input unit 301.

【0010】(2)情報生成部302の中では、入力情報
のドットの並びから線の方位を非線形振動子の引き込み
作用で検出するSユニット312が、図に示すように―
と|の方位の線情報を生成する。
(2) In the information generator 302, the S unit 312, which detects the direction of the line from the arrangement of the dots of the input information by the pulling action of the nonlinear oscillator, as shown in FIG.
Line information of the azimuths of and | is generated.

【0011】(3)次に、Sユニット312で生成した線
情報から、Tユニット322(具体的には、線端の向き
に対応したTR ユニット342とTL ユニット341)
が←、→、↓、↑の方向の線端情報を非線形振動子の引
き込み作用で生成する。
(3) Next, from the line information generated by the S unit 312, the T unit 322 (specifically, the TR unit 342 and the TL unit 341 corresponding to the direction of the line end).
Generates line end information in the directions of ←, →, ↓, and ↑ by the pulling action of the nonlinear oscillator.

【0012】水平方向の線情報に対して線端情報を生成
する仕組みを図3(f) に示す。図で実線は相互興奮結合
を表し、点線は相互抑制結合を表す。受像面301に斜
線で示す線情報が存在するとき、斜線を付したSユニッ
ト312が興奮し、斜線を付したTL ユニット351が
興奮して線端情報の生成となる。
FIG. 3 (f) shows a mechanism for generating line end information for horizontal line information. In the figure, the solid line represents mutual excitatory coupling, and the dotted line represents mutual inhibitory coupling. When line information indicated by diagonal lines is present on the image receiving surface 301, the shaded S unit 312 is excited, and the shaded TL unit 351 is excited to generate line end information.

【0013】(4)一方、意味記憶部303のMユニット
313に記憶されている四角形の意味情報は、線端の相
対位置と方向を表現した矢印をL2、L4、L6、L8 の
相対位置に2個づつ配置することで表現している。例え
ば、図の円周上にあるL6 は図3(a) のメモリコラム3
33を表現したもので、矢印がその方位に情報があるこ
と、すなわち非線形振動子が励起していることを意味す
る。情報の強度(すなわち非線形振動子の振幅強度)は
矢印の長さで表現している。これらの情報集合(つまり
8個の矢印で表現される意味情報)は、非線形振動子の
引き込み状態で表現されるため、記憶に関係する振動子
群は全て同一の位相をもって振動する。
(4) On the other hand, the quadrilateral meaning information stored in the M unit 313 of the meaning storage unit 303 is such that the arrows representing the relative position and direction of the line ends are set to the relative positions of L2, L4, L6 and L8. It is expressed by placing two of each. For example, L6 on the circumference of the figure is the memory column 3 of FIG. 3 (a).
33 represents that the arrow has information in its direction, that is, the nonlinear oscillator is excited. The strength of information (that is, the amplitude strength of the nonlinear oscillator) is represented by the length of the arrow. Since this information set (that is, the semantic information represented by the eight arrows) is represented in the retracted state of the nonlinear oscillator, all the oscillator groups related to memory vibrate with the same phase.

【0014】(5)上記の(3) の過程で生成した絶対位置
で定義される線端から生じる意味情報群(つまりボトム
アップの意味情報群)と、上記(4) の過程で生成される
相対位置で定義される線端から生じる意味情報群(つま
りトップダウンの意味情報群)とが、SVリレーとVS
リレーにより情報ループを形成し、非線形振動子の引き
込みによって対応づけられ、図形認識が成立する。
(5) Semantic information group (that is, bottom-up semantic information group) generated from the line end defined by the absolute position generated in the above step (3), and generated in the above step (4) The semantic information group (that is, the top-down semantic information group) generated from the line end defined by the relative position is the SV relay and VS.
An information loop is formed by the relays, which are associated with each other by pulling in the non-linear oscillator, and figure recognition is established.

【0015】[0015]

【発明が解決しようとする課題】しかしながら上記のホ
ロビジョンでは、情報入力部301の単純正方格子配列
の受像面に入力された画素情報の並びから線の方位を検
出するため、検出方位に所属する画素の座標x、y(と
もに自然数)で決まるX軸からの仰角だけが検出方位の
角度θ=tan(y/x)として選択できる。このた
め、検出方位を増加(具体的には、5方位以上に増加)
する時に検出方位間の角度を等しくすることが困難であ
り、約10度間隔で検出方位が設定されているヒトの大
脳一次視覚野のハイパーコラムのような多方位検出機能
をホロビジョンで実現することができない。多方位検出
の際に検出方位間隔が等しくなければ、複雑な図形が回
転した場合などに元の図形とは異なるものとして誤認識
されてしまうし、ヒトの視覚系のように内挿により検出
方位を高精度に求めることも困難になる。
However, in the above-mentioned horovision, since the direction of the line is detected from the arrangement of the pixel information input to the image receiving surface of the simple square lattice array of the information input unit 301, it belongs to the detection direction. Only the elevation angle from the X axis determined by the pixel coordinates x and y (both natural numbers) can be selected as the angle θ of the detection azimuth = tan (y / x). For this reason, the detection direction is increased (specifically, it is increased to 5 or more directions).
It is difficult to equalize the angles between the detection directions when doing, and the multi-direction detection function such as the hypercolumn of the human primary cerebral cortex in which the detection directions are set at intervals of about 10 degrees is realized by holography. I can't. If the detection orientation intervals are not the same during multi-directional detection, a complicated figure may be misrecognized as different from the original figure when it is rotated. It is also difficult to obtain the high precision.

【0016】本発明の目的は、この様な課題に注目し
て、情報入力部301が単純正方格子配列の受像面でも
検出方位間の角度を均等に設定できるホロニック視覚認
識装置を提供することである。
It is an object of the present invention to provide a holonic visual recognition device in which the information input unit 301 can set the angles between the detection directions even on the image receiving surface of a simple square lattice array, paying attention to such problems. is there.

【0017】[0017]

【課題を解決するための手段】本発明は上記目的を達成
するために、単純正方格子に配置された画素で受像面を
構成する情報入力部と、[π/2]異なる2個の検出方
位を有し前記情報入力部の画像入力情報から線情報に対
応した線端情報を生成する情報生成部と、図形の意味を
線端情報の集合として有する意味記憶部の三部で構成さ
れたN(Nは2以上の整数)個のホロビジョン装置から
なり、N個の隣合うホロビジョン装置の対応する検出方
位が[π/2N]の角度をなし、意味記憶部の相対位置
が2N個の方位に配置され、各ホロビジョン装置の情報
生成部と意味記憶部との情報交換で用いる重み関数を2
N個の方位に頂点が配置された倒立正4N角錐の稜線の
勾配とし、前記N個の意味記憶部を統合する意味統合部
を備えたホロニック視覚認識装置を提供する。
In order to achieve the above-mentioned object, the present invention has an information input section which constitutes an image receiving surface with pixels arranged in a simple square lattice, and two [π / 2] different detection directions. And an information generation unit that generates line end information corresponding to line information from the image input information of the information input unit, and a meaning storage unit that has a meaning of a graphic as a set of line end information. (N is an integer greater than or equal to 2) number of holographic devices, the corresponding detection direction of N adjacent holographic devices forms an angle of [π / 2N], and the relative position of the meaning storage unit is 2N. The weighting function, which is arranged in the azimuth direction and is used in information exchange between the information generation unit and the meaning storage unit of each holographic device, is 2
Provided is a holonic visual recognition device having a meaning integration unit that integrates the N meaning storage units, with the gradient of the ridgeline of an inverted regular 4N pyramid having vertices arranged in N orientations.

【0018】[0018]

【作用】本発明は前記した構成により、N個のホロビジ
ョン装置を用いることによりN個の検出方位を等間隔の
角度で設定することが可能になり、またN個のホロビジ
ョン装置は独立に動作するためN個の並列処理システム
として構成することが可能であり、高精度で高速処理の
図形認識装置として実用的価値大なるものがある。
With the above construction, the present invention makes it possible to set N detection azimuths at equidistant angles by using N holographic devices, and the N holographic devices can be independently set. Since it operates, it can be configured as N parallel processing systems, and it has a great practical value as a high-accuracy and high-speed processing pattern recognition apparatus.

【0019】[0019]

【実施例】図1は本発明の実施例である。以下、図を用
いて説明する。
FIG. 1 shows an embodiment of the present invention. Hereinafter, description will be given with reference to the drawings.

【0020】図1は画像を標本化する3種類の単純正方
格子を示すものである。図中101を基準にとれば、1
02の格子は[π/4]だけ傾いており、103は更に
[π/8]だけ傾いている。このような複数の格子が存
在すると、104や105のように3種類の格子で画素
がほぼ一致する場合もあれば、106のように格子10
1の画素1個に格子102や格子103の2個の画素が
同程度に対応している場合もある。一般的に、N種類の
格子(ただし、格子を構成する画素は全て同一の大きさ
とする)を一定の角度(例えば、[π/2N])だけ傾
けて同時に存在させると、ある格子の画素1個に対応す
る他の格子の画素は最大でも最近接周囲の4個である。
N=4の場合は第1図107のような関係になる。従っ
て、異なる格子の画素が完全に1対1対応していなくて
も同一の場所に現れるべき線端情報が2画素以上大きく
離れるような問題は生じない。
FIG. 1 shows three types of simple square lattices for sampling an image. Based on 101 in the figure, 1
The lattice of 02 is inclined by [π / 4], and the lattice of 103 is further inclined by [π / 8]. If there are a plurality of such grids, the pixels may be almost the same in three kinds of grids such as 104 and 105, or in some cases, the grid 10
In some cases, one pixel corresponds to two pixels of the grid 102 or the grid 103 to the same extent. Generally, when N kinds of grids (however, all the pixels forming the grid have the same size) are tilted at a constant angle (for example, [π / 2N]) and exist at the same time, a pixel 1 The pixels of the other grids corresponding to the number of pixels are the four pixels in the closest vicinity.
When N = 4, the relationship is as shown in FIG. Therefore, even if pixels of different grids do not have a one-to-one correspondence, there is no problem that line edge information that should appear in the same place is greatly separated by two or more pixels.

【0021】以下、2方位検出のホロビジョンをN(N
は2以上の整数)個用いるホロニック視覚認識装置の実
施例として、N=2の場合について説明する。図2は、
2方位を検出するホロビジョン2個からなるホロニック
視覚認識装置の構成を示すものであり、第1のホロビジ
ョンは画素が単純正方格子状に配列された受像面(図で
は4×4画素の例である)からなる情報入力部121
と、入力された図形の画素情報の並びから線の方位(図
中では|、―で表示される2方位)を検出するSユニッ
ト126群と線端(図中では↑↓、→←で表示される線
端)を検出するTユニット127群の集合体からなる情
報生成部122と、記憶図形の意味を線端の方向(図中
では↑、→、↓、←で表示される方向)と線端の相対位
置(図中ではL1、L2、L3、L4、L5、L6、L7、L8
で表示される相対位置で4N個)として記憶するMユニ
ット128群の集合体から成る意味記憶部123からな
り、VSリレー124は情報生成部122で生成した線
端情報に対して頂点がシステム全体で検出する方向(す
なわち4N方向)と一致した倒立正八角錐150の稜線
の勾配を重み関数として掛け合わせて意味記憶部123
に送り込む機能を有し、SVリレー125は意味記憶部
123に記憶されている線端情報に対して頂点がシステ
ム全体で検出する方向(すなわち4N方向)と一致した
倒立正八角錐150の稜線の勾配を重み関数として掛け
合わせて情報生成部122に送り込む機能を有する。同
様に、第2のホロビジョンは画素が単純正方格子状に配
列された受像面(図では4×4画素の例である)からな
る情報入力部131(ただし情報入力部121に対し
て、対応する方位が[π/2N=π/4]の角度だけ回
転している)と、入力された図形の画素情報の並びから
線の方位(図中では|、―で表示される2方位)を検出
するSユニット136群と線端(図中では↑↓、→←で
表示される線端)を検出するTユニット137群の集合
体からなる情報生成部132と、記憶図形の意味を線端
の方向(図中では↑、→、↓、←で表示される方向)と
線端の相対位置(図中ではL1、L2、L3、L4、L5、
L6、L7、L8で表示される相対位置で4N個だが、意
味記憶部123のL1、L2、L3、L4、L5、L6、L
7、L8 を[π/2N=π/4]の角度だけ回転した相
対位置となっている)として記憶するMユニット138
群の集合体から成る意味記憶部133とからなり、VS
リレー134は、情報生成部132で生成した線端情報
に対して頂点がシステム全体で検出する方向(すなわち
4N方向)と一致した倒立正八角錐150の稜線の勾配
を重み関数として掛け合わせて意味記憶部133に送り
込む機能を有し、SVリレー135は、意味記憶部13
3に記憶されている線端情報に対して頂点がシステム全
体で検出する方向(すなわち4N方向)と一致した倒立
正八角錐150の稜線の勾配を重み関数として掛け合わ
せて情報生成部132に送り込む機能を有する。さら
に、意味記憶部123および133の意味情報は意味統
合部140で統合(本実施例の場合は意味情報が重畳)
される。意味統合部140の動作は図3に示すように、
格子101(第1のホロビジョンが対応)に対して格子
102(第2のホロビジョンが対応)が[π/2N=π
/4]だけ傾いている場合、線端情報の相対位置が図4
に示すように格子101のL1と格子102のL1 とは
[π/4N]=π/8だけ回転した位置に現れる。この
後、図2の意味統合部140で意味記憶部123および
133の意味情報を統合(本実施例では重畳)すると意
味統合部140のD1 の位置に格子101のL1と格子
102のL8 が表示されることとなり、2方位検出のホ
ロビジョンが2個存在するシステムでも4方位検出のホ
ロビジョン1個で行う場合と同じ情報が表現できる。具
体的に、図5に示す様な直角三角形が画像情報として入
力されると、第1のホロビジョンに生成される意味情報
としての線端情報は図6となり、第2のホロビジョンに
生成される意味情報としての線端情報は図7となる。こ
れらの線端情報が意味統合部140で統合(重畳)され
ると、図8のようになる。これは、従来の4方位検出の
ホロビジョンで得られる意味情報と全く同一である。
In the following, a holovision for two-direction detection will be referred to as N (N
The case where N = 2 will be described as an example of the holonic visual recognition device that uses 2 or more integers. Figure 2
1 shows a configuration of a holonic visual recognition device including two holographic vision detecting two azimuths. The first holographic vision is an image receiving surface in which pixels are arranged in a simple square lattice (in the figure, an example of 4 × 4 pixels). Information input section 121 consisting of
And a group of S units 126 for detecting the direction of the line (two directions indicated by | and-in the figure) from the array of pixel information of the input figure and the end of the line (indicated by ↑ ↓, → ← in the figure) Information generation unit 122 composed of an aggregate of T unit 127 groups for detecting the line ends), and the meaning of the memory figure in the direction of the line ends (directions indicated by ↑, →, ↓, ← in the figure). Relative position of line ends (L1, L2, L3, L4, L5, L6, L7, L8 in the figure)
4N at the relative position displayed by 4)). The VS relay 124 has a meaning storage unit 123 made up of an aggregate of M units 128 groups, and the VS relay 124 has a vertex for the line end information generated by the information generation unit 122. The meaning storage unit 123 multiplies the gradient of the ridgeline of the inverted regular octagonal pyramid 150 that matches the direction detected by the above (that is, the 4N direction) as a weighting function.
The SV relay 125 has a function of sending to the, and the slope of the ridge of the inverted regular octagonal pyramid 150 whose vertex matches the direction detected by the entire system (that is, 4N direction) with respect to the line end information stored in the meaning storage unit 123. Is multiplied as a weighting function and sent to the information generating unit 122. Similarly, the second holography corresponds to the information input unit 131 (however, the information input unit 121 corresponds to the image receiving surface (4 × 4 pixel is an example in the figure) in which pixels are arranged in a simple square lattice pattern. Direction is rotated by an angle of [π / 2N = π / 4]) and the direction of the line (two directions indicated by | and-in the figure) from the arrangement of the pixel information of the input figure. The information generating unit 132 including an aggregate of the T unit 137 group that detects the S unit 136 group and the line end (the line edge displayed by ↑ ↓, → ← in the figure) to be detected, and the meaning of the stored figure is the line end. Direction (the direction indicated by ↑, →, ↓, ← in the figure) and the relative position of the line end (L1, L2, L3, L4, L5 in the figure,
There are 4N relative positions displayed by L6, L7, and L8, but L1, L2, L3, L4, L5, L6, and L of the meaning storage unit 123.
7, L8 is a relative position rotated by an angle of [π / 2N = π / 4])
And a semantic storage unit 133 composed of an aggregate of groups.
The relay 134 multiplies the line edge information generated by the information generation unit 132 by the gradient of the ridgeline of the inverted regular octagonal pyramid 150 whose vertex coincides with the direction detected by the entire system (that is, 4N direction) as a weighting function, and stores the meaning. The SV relay 135 has a function of sending to the unit 133, and the SV relay 135
A function of multiplying the line edge information stored in 3 by the slope of the ridge of the inverted regular octagonal pyramid 150 whose vertex coincides with the direction detected by the entire system (that is, the 4N direction) as a weighting function, and sending it to the information generating unit 132. Have. Further, the semantic information in the semantic storage units 123 and 133 is integrated by the semantic integration unit 140 (in the case of the present embodiment, the semantic information is superimposed).
To be done. The operation of the meaning integration unit 140 is as shown in FIG.
The lattice 102 (corresponding to the first horovision) is [π / 2N = π] for the lattice 102 (corresponding to the second horovision).
/ 4], the relative position of the line end information is shown in FIG.
As shown in, the L1 of the lattice 101 and the L1 of the lattice 102 appear at a position rotated by [π / 4N] = π / 8. After that, when the meaning information of the meaning storage units 123 and 133 is integrated (superposed in this embodiment) by the meaning integration unit 140 of FIG. 2, L1 of the lattice 101 and L8 of the lattice 102 are displayed at the position D1 of the meaning integration unit 140. Therefore, even in a system in which there are two two-direction detecting holovisions, the same information as when one four-direction detecting holovision is used can be expressed. Specifically, when a right-angled triangle as shown in FIG. 5 is input as image information, the line end information as the semantic information generated in the first horovision is shown in FIG. 6 and is generated in the second horovision. FIG. 7 shows the line end information as the meaningful information. When these pieces of line end information are integrated (superposed) by the meaning integration unit 140, the result is as shown in FIG. This is exactly the same as the semantic information obtained in the conventional four-direction detection horovision.

【0022】図9は、2検出方位のホロビジョンを4個
(すなわちN=4)用いた場合のホロニック視覚認識装
置の実施例である。ポイントは、4個ある2方位検出ホ
ロビジョンがシステム全体で検出する方位(この場合2
N=8で8方位)に対応して相対位置が4N=16個の
意味記憶部223〜226を有していること、および意
味統合部240が意味記憶部の意味情報の統合(重畳)
が可能なようにやはり検出方位が2N=8方位に対応し
た相対位置が4N=16個であること、また情報生成部
と意味記憶部の情報交換で用いる重み関数が頂点が検出
方位に一致した倒立正16角錐250の稜線の勾配を用
いることである。
FIG. 9 shows an embodiment of the holonic visual recognition device when four holographic visions with two detection directions (that is, N = 4) are used. The points are the four azimuths detected by the two azimuth detection horovision system (in this case, 2
Corresponding to N = 8 and 8 directions), the relative position has 4N = 16 meaning storage units 223 to 226, and the meaning integration unit 240 integrates (superimposes) the semantic information of the meaning storage unit.
4N = 16 relative positions corresponding to the detected direction of 2N = 8, and the weighting function used in the information exchange between the information generation unit and the meaning storage unit coincides with the detected direction. This is to use the slope of the ridge of the inverted regular 16-sided pyramid 250.

【0023】本発明の実施例として、N=2、4につい
て説明したが、N>4以上についても同様に拡張でき
る。
Although N = 2 and 4 have been described as the embodiments of the present invention, the same can be extended to N> 4 or more.

【0024】[0024]

【発明の効果】以上のように、本発明によれば2方位検
出のホロビジョンをN個用意し隣合うホロビジョンの対
応する検出方位が[π/2N]だけ傾くように設定する
ことで、等間隔の角度で2N方位の検出が可能になり、
しかもN個のホロビジョンは独立に処理できるのでN並
列構成が可能になる結果、内挿が可能な高精度の方位検
出と演算処理の高速化が同時に達成されることになり、
本発明がもたらす実用的な効果は極めて大きい。
As described above, according to the present invention, N pieces of two azimuth detecting holovisions are prepared and the corresponding detection azimuths of the adjacent holovisions are set to be inclined by [π / 2N]. It is possible to detect 2N azimuths at evenly spaced angles,
Moreover, since N holographic visions can be processed independently, N parallel configurations are possible, and as a result, high-accuracy direction detection capable of interpolation and high-speed arithmetic processing are achieved at the same time.
The practical effect of the present invention is extremely large.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の原理を示す、複数の単純正方格子が重
なった場合の画素の対応図
FIG. 1 is a pixel correspondence diagram showing a principle of the present invention when a plurality of simple square lattices overlap each other.

【図2】本発明の第1の実施例における、第1の2方位
検出ホロビジョンと第2の2方位検出ホロビジョンと意
味統合部からなるホロニック視覚認識装置を示す図
FIG. 2 is a diagram showing a holonic visual recognition device including a first two-direction detecting horovision, a second two-direction detecting horovision, and a meaning integrating unit in the first embodiment of the present invention.

【図3】図2で示した第1のホロビジョンと第2のホロ
ビジョンが用いる単純正方格子を重ねた図
FIG. 3 is a diagram in which the simple square lattices used in the first and second horovisions shown in FIG. 2 are overlapped.

【図4】図2で示した第1のホロビジョンと第2のホロ
ビジョンが用いる意味記憶部の意味情報(線端情報を表
現する線端の相対位置とその検出方位)を重ねた図
FIG. 4 is a diagram in which the semantic information (the relative position of the line end expressing the line end information and its detection direction) of the meaning storage unit used by the first holographic and the second holographic shown in FIG. 2 is superimposed.

【図5】第1の実施例に入力した図形を示す図FIG. 5 is a diagram showing a graphic input in the first embodiment.

【図6】図5で示した入力図形に対して、第1のホロビ
ジョンで生成される線端情報を示す図
FIG. 6 is a diagram showing line end information generated by the first holography for the input figure shown in FIG.

【図7】図5で示した入力図形に対して、第2のホロビ
ジョンで生成される線端情報を示す図
FIG. 7 is a diagram showing line end information generated by a second holography for the input figure shown in FIG.

【図8】図5で示した入力図形に対して、第1及び第2
のホロビジョンで生成された線端情報を統合(重畳)す
る意味統合部の線端情報を示す図
FIG. 8 is a diagram showing the first and second input figures shown in FIG.
Showing the line-end information of the meaning integration part that integrates (superimposes) the line-end information generated by the holographic

【図9】本発明の第2の実施例におけるホロニック視覚
認識装置の構成図
FIG. 9 is a configuration diagram of a holonic visual recognition device according to a second embodiment of the present invention.

【図10】従来例におけるホロビジョンの基本構成図FIG. 10 is a basic configuration diagram of holographic vision in a conventional example.

【図11】同従来例における要部を示す図FIG. 11 is a diagram showing a main part of the conventional example.

【図12】同従来例において用いられる重み関数を示す
FIG. 12 is a diagram showing a weighting function used in the conventional example.

【図13】同従来例において用いられる重み関数を示す
FIG. 13 is a diagram showing a weighting function used in the conventional example.

【図14】同従来例のホロビジョンが四角形を認識する
様子を示す図
FIG. 14 is a diagram showing how the conventional holographic vision recognizes a rectangle.

【図15】同従来例のホロビジョンが水平方向の線情報
に対して線端情報を生成する仕組みを示す図
FIG. 15 is a diagram showing a mechanism in which the conventional holographic vision system generates line end information for horizontal line information.

【符号の説明】[Explanation of symbols]

121、131 情報入力部 122、132 情報生成部 123、133 意味記憶部 124、134 VSリレー 125、135 SVリレー 140、240 意味統合部 150、250 重み関数を表す正多角錐の稜線の勾配 121, 131 Information input section 122, 132 Information generation section 123, 133 Meaning storage section 124, 134 VS relay 125, 135 SV relay 140, 240 Meaning integration section 150, 250 Gradient of regular polygonal pyramid ridge representing weighting function

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】画素を2次元に配列した受像面からなる情
報入力部と、前記情報入力部の画像情報から検出方位に
対応した線情報と前記線情報に対応した線端情報を生成
する情報生成部と、図形の意味を線端情報の集合として
有する意味記憶部の三部で構成されたN(Nは2以上の
整数)個のホロビジョン装置と前記ホロビジョンの全て
の意味記憶部を統合する1個の意味統合部とからなるこ
とを特徴とするホロニック視覚認識装置。
1. An information input section comprising an image receiving surface in which pixels are two-dimensionally arranged, and information for generating line information corresponding to a detected azimuth and line edge information corresponding to the line information from image information of the information input section. N (N is an integer of 2 or more) Holovision devices composed of a generation unit and a meaning storage unit that has the meaning of a figure as a set of line end information and all the meaning storage units of the Holovision. A holonic visual recognition device, comprising: one semantic integration unit that integrates.
【請求項2】単純正方格子に配置された画素で受像面を
構成する情報入力部と、[π/2]異なる2個の検出方
位を有し前記情報入力部の画像情報から前記検出方位に
対応した線情報と前記線情報に対応した線端情報を生成
する情報生成部と、図形の意味を線端情報の集合として
有する意味記憶部の三部で構成されたN(Nは2以上の
整数)個のホロビジョン装置と前記ホロビジョンの全て
の意味記憶部を統合する1個の意味統合部とからなり、
前記ホロビジョンを対応する検出方位が[π/2N]の
角度をなすように傾けることを特徴とするホロニック視
覚認識装置。
2. An information input section which constitutes an image receiving surface with pixels arranged in a simple square lattice, and two detection directions [[pi] / 2] different from each other, and from the image information of the information input section to the detection direction. N (N is 2 or more) which is composed of three parts: a corresponding line information and an information generation unit that generates line end information corresponding to the line information, and a meaning storage unit that has the meaning of a graphic as a set of line end information. (Integer) number of holographic devices and one semantic integration unit that integrates all the semantic storage units of said holographic vision,
A holonic visual recognition device, wherein the holographic vision is tilted so that a corresponding detection direction forms an angle of [π / 2N].
【請求項3】単純正方格子に配置された画素で受像面を
構成する情報入力部と、[π/2]異なる2個の検出方
位を有し前記情報入力部の画像情報から前記検出方位に
対応した線情報と前記線情報に対応した線端情報を生成
する情報生成部と、図形の意味を線端情報の集合として
有する意味記憶部の三部で構成されたN(Nは2以上の
整数)個のホロビジョン装置と前記ホロビジョンの全て
の意味記憶部を統合する1個の意味統合部とからなり、
前記ホロビジョンの対応する検出方位が[π/2N]の
角度をなすように傾け、しかも前記意味記憶部は各方位
間の角度が前記[π/2N]に等しい4N個の方向に相
対位置を配置し、前記情報生成部と前記意味記憶部との
情報交換で用いる重み関数を前記4N個の方向に頂点が
配置された倒立正4N角錐の稜線の勾配とすることを特
徴とするホロニック視覚認識装置。
3. An information input section forming an image receiving surface with pixels arranged in a simple square lattice, and two detection azimuths [π / 2] different from each other, and from the image information of the information input section to the detection azimuth. N (N is 2 or more) which is composed of three parts: a corresponding line information and an information generation unit that generates line end information corresponding to the line information, and a meaning storage unit that has the meaning of a graphic as a set of line end information. (Integer) number of holographic devices and one semantic integration unit that integrates all the semantic storage units of said holographic vision,
The detected azimuths corresponding to the holographic vision are tilted so as to form an angle of [π / 2N], and the meaning storage unit sets relative positions in 4N directions in which the angles between the azimuths are equal to the [π / 2N]. Holonic visual recognition, wherein the holonic visual recognition is characterized in that a weighting function used for information exchange between the information generating unit and the meaning storage unit is a ridge of an inverted regular 4N pyramid having vertices arranged in the 4N directions. apparatus.
【請求項4】単純正方格子に配置された画素で受像面を
構成する情報入力部と、[π/2]異なる2個の検出方
位を有し前記情報入力部の画像情報から前記検出方位に
対応した線情報と前記線情報に対応した線端情報を生成
する情報生成部と、図形の意味を線端情報の集合として
有する意味記憶部の三部で構成されたN(Nは2以上の
整数)個のホロビジョン装置と前記ホロビジョンの全て
の意味記憶部を統合する1個の意味統合部とからなり、
前記ホロビジョンの対応する検出方位がそれぞれ異な
り、しかも前記ホロビジョンのそれぞれの受像面の画素
が2画素以上離れていない場合は同一位置の情報とする
ことを特徴とするホロニック視覚認識装置。
4. An information input section that constitutes an image receiving surface with pixels arranged in a simple square lattice, and two detection directions [[pi] / 2] different from each other, and from the image information of the information input section to the detection direction. N (N is 2 or more) which is composed of three parts: a corresponding line information and an information generation unit that generates line end information corresponding to the line information, and a meaning storage unit that has the meaning of a graphic as a set of line end information. (Integer) number of holographic devices and one semantic integration unit that integrates all the semantic storage units of said holographic vision,
A holonic visual recognition device characterized in that if the detection directions corresponding to the holographic vision are different and the pixels on the image receiving surfaces of the holographic vision are not separated by two pixels or more, the information is at the same position.
JP4189133A 1992-07-16 1992-07-16 Holonic visual recognizing device Pending JPH0636037A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4189133A JPH0636037A (en) 1992-07-16 1992-07-16 Holonic visual recognizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4189133A JPH0636037A (en) 1992-07-16 1992-07-16 Holonic visual recognizing device

Publications (1)

Publication Number Publication Date
JPH0636037A true JPH0636037A (en) 1994-02-10

Family

ID=16235963

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4189133A Pending JPH0636037A (en) 1992-07-16 1992-07-16 Holonic visual recognizing device

Country Status (1)

Country Link
JP (1) JPH0636037A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7978297B2 (en) 2005-05-30 2011-07-12 Sony Corporation Electro-optical device having resistor with adjustable resistance value connected to IC and wiring lines
US9166190B2 (en) 2004-12-02 2015-10-20 Semiconductor Energy Laboratory Co., Ltd. Display device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9166190B2 (en) 2004-12-02 2015-10-20 Semiconductor Energy Laboratory Co., Ltd. Display device
US7978297B2 (en) 2005-05-30 2011-07-12 Sony Corporation Electro-optical device having resistor with adjustable resistance value connected to IC and wiring lines

Similar Documents

Publication Publication Date Title
US6671400B1 (en) Panoramic image navigation system using neural network for correction of image distortion
US20170256033A1 (en) Image Upsampling using Global and Local Constraints
KR100402361B1 (en) Visual device
JP6493163B2 (en) Density search method and image processing apparatus
JPH0650539B2 (en) Computer network for character recognition
WO2002073538A1 (en) Visual device, interlocking counter, and image sensor
WO2021155230A1 (en) Teeth segmentation using neural networks
CN109871841A (en) Image processing method, device, terminal and storage medium
Weiman Continuous anti-aliased rotation and zoom of raster images
EP1456817B1 (en) System and method to warp an image
CN113313828A (en) Three-dimensional reconstruction method and system based on single-picture intrinsic image decomposition
CN108334876A (en) Tired expression recognition method based on image pyramid local binary pattern
CN113240584B (en) Multitasking gesture picture super-resolution method based on picture edge information
Shi et al. Sub-pixel layout for super-resolution with images in the octic group
JPH0636037A (en) Holonic visual recognizing device
JP4523104B2 (en) Image detection processing device
JPS63211474A (en) Hierarchization structural template matching method
Truong et al. Depth map inpainting and super-resolution with arbitrary scale factors
CN108366195A (en) A kind of high speed spatial optical modulation method and its imaging system based on LED array
JPH0636036A (en) Holonic visual recognizing device
JPH0644378A (en) Holonic visual recognition device
JPH0676067A (en) Holonic visual recognition device
JP7285479B2 (en) Image recognition device and image recognition program
Duan et al. Channel-spatial attention network for lunar image super-resolution
EP1301027A1 (en) Method and device for improved image resolution or image comparison using high speed parallel processing