JPH08329033A - Method and device for image information processing, and its control method - Google Patents

Method and device for image information processing, and its control method

Info

Publication number
JPH08329033A
JPH08329033A JP8078763A JP7876396A JPH08329033A JP H08329033 A JPH08329033 A JP H08329033A JP 8078763 A JP8078763 A JP 8078763A JP 7876396 A JP7876396 A JP 7876396A JP H08329033 A JPH08329033 A JP H08329033A
Authority
JP
Japan
Prior art keywords
image
feature point
input
information processing
image information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8078763A
Other languages
Japanese (ja)
Other versions
JP3847832B2 (en
Inventor
Teruyoshi Washisawa
輝芳 鷲澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP07876396A priority Critical patent/JP3847832B2/en
Publication of JPH08329033A publication Critical patent/JPH08329033A/en
Application granted granted Critical
Publication of JP3847832B2 publication Critical patent/JP3847832B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Input (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: To obtain necessary image information fast by detecting feature points of an inputted image, calculating a visual information quantity according to the positions of the feature points, and controlling an image input part so that the calculated visual information quantity increases. CONSTITUTION: A two-dimensional image inputted from a lens system 1 is made discrete through the sampling of an array sensor 2 and mapped in a multiple resolution space by a two-dimensional filter 3. The mapped image is converted by a conversion and encoding part 5 into a local pattern regarding the feature points of the input image detected by a feature detection part 4 and quantized by a quantization part 6 into pairs of position coordinates of the feature points and code words of the local patterns, so that they are inputted to respective cells of a probability automaton 7. The probability automaton 7 calculates mutual information quantities between different cells, and the position coordinates and visual information quantity of the feature points, and inputs the calculation results to an input parameter control part 8 to control the optical axis of the lens system 1 so that the visual information quantities become maximum.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、視覚情報を適切に
処理し、例えば、入力装置、画像符号化復号装置、画像
認識装置、画像復元装置、監視装置、自律走行車、ある
いは自律作業ロボットへの応用が考えられる画像情報処
理方法及びその装置、並びのその制御方法に関するもの
である。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention appropriately processes visual information to, for example, an input device, an image encoding / decoding device, an image recognition device, an image restoration device, a monitoring device, an autonomous vehicle, or an autonomous work robot. The present invention relates to an image information processing method and an apparatus therefor, and a control method thereof.

【0002】[0002]

【従来の技術】生物は、自分を取り巻く環境を、有限個
の処理装置で必要なだけ正確に認識し、それに対処する
機能を持っている。環境を認識するために必要とされる
信号のダイナミックレンジは、あらゆる状況を想定する
と非常に広い。例として視覚情報を考えてみると、生物
が有する視覚センサは勿論有限個であるが、環境は全方
位に広がる。従って、移動手段を持たない生物が自分を
取り巻く環境を認識するためには、全方位について必要
なだけの解像度で信号を入力しなければならない。しか
し、生物が移動手段、即ちセンサにおける観測パラメー
タを変更するための手段を有するなら、生物の視覚認識
系への負荷は遥かに軽くなる。何故なら、認識するため
に重要と思われる場所だけを認識に十分な解像度で入力
し、そうでない場合は入力しなくてもいいからである。
2. Description of the Related Art Living organisms have a function of accurately recognizing an environment surrounding them by a finite number of processing devices and coping with it. The dynamic range of the signal required to recognize the environment is very wide assuming all situations. Considering visual information as an example, the number of visual sensors possessed by living organisms is of course limited, but the environment spreads in all directions. Therefore, in order to recognize the environment surrounding a creature without moving means, it is necessary to input a signal with the required resolution in all directions. However, if the organism has means of movement, that is, means for changing the observation parameter in the sensor, the load on the visual recognition system of the organism will be much lighter. This is because only the place that seems to be important for recognition is input with sufficient resolution for recognition, and if not, there is no need to input it.

【0003】従来の画像入力装置は、CCDカメラやス
キャナ等に見られるように、対象とする画像を均一にサ
ンプリングするものであった。このような画像入力装置
から得られるのは、ある解像度で得られた有限な領域の
画像データである。画像を環境の視覚情報の一部と考え
ると、このようにして得られた2次元の画像から3次元
の視覚情報を推定するというのが、視覚情報処理の本質
的問題である。このような問題に対して、以下の2種類
のアプローチが取られている。
A conventional image input device is a device for uniformly sampling a target image as seen in a CCD camera, a scanner or the like. What is obtained from such an image input device is image data of a finite area obtained at a certain resolution. Considering the image as a part of the visual information of the environment, it is an essential problem of visual information processing to estimate the three-dimensional visual information from the thus obtained two-dimensional image. The following two approaches have been taken to address such problems.

【0004】まず、1980年代に盛んに行われた生物
の視覚系に対する研究のうち、数理モデルによる研究の
殆どは、Marrのアイデア(D. Marr: "Vision" W.H.Freem
an and Co.NY(1982)) に端を発するといっても過言では
ない。これらの研究は視覚の計算論と呼ばれ、正則化理
論からMarkov確率場、ライン過程、そして繰り込み変換
群の応用と、統計物理学のアイデアにより研究を発展さ
せてきている。しかし、これらの議論では、視覚情報は
有限個の画像データとして既に与えられるものだけを対
象とし、それら2次元の画像集合から3次元の構造を推
定することを取り扱う。これは、例えば写真や絵を見
て、その3次元世界を推定することに対応する。手持ち
の情報だけで3次元の構造を推定しようとすると、一般
に、問題は解が不定となるという意味で不良設定となっ
てしまうので、彼らは知識を利用することで対処してい
る。
First of all, most of the researches on the visual system of living beings actively conducted in the 1980s, most of the researches by the mathematical model are the ideas of Marr (D. Marr: "Vision" WHFreem
It is no exaggeration to say that it originated in an and Co. NY (1982)). These studies are called visual calculation theory, and they have been developed by applying the theory of Markov random fields, line processes, renormalization transformation groups, and ideas of statistical physics. However, in these discussions, the visual information covers only what is already given as a finite number of image data, and deals with estimating the three-dimensional structure from the two-dimensional image set. This corresponds to, for example, looking at a picture or a picture and estimating its three-dimensional world. If we try to estimate a three-dimensional structure using only the information we have, the problem will generally be a poor setting in the sense that the solution will be indeterminate, so they are dealing with it by using their knowledge.

【0005】一方、視覚入力系そのものを制御すること
によって認識に十分な情報を用意し、そのうえで環境を
認識しようという方法論が、同時期に提案された。Ball
ardによるAnimate Visionである(D.H. Ballard: "Behav
ioural constraints on animate vision",image and vi
sion computing, Vol.7, No.1, pp.3-9 (1989))。この
方法論は、最初に入力された視覚情報に存在する不良設
定性を、別の観測パラメータによる入力データで解消し
ようというものである。観測パラメータとしては、光学
系の光軸方向やズーミング等があるが、この技術で最も
重要なことは、“次に何を探すのか”“次にどこを観測
するのか”を決定すること、即ち観測パラメータの制御
方法である。
On the other hand, at the same time, a method was proposed in which information sufficient for recognition was prepared by controlling the visual input system itself, and then the environment was recognized. Ball
Animate Vision by ard (DH Ballard: "Behav
ioural constraints on animate vision ", image and vi
sion computing, Vol.7, No.1, pp.3-9 (1989)). This methodology is to eliminate the defective setting property existing in the initially inputted visual information by using the input data by another observation parameter. The observation parameters include the optical axis direction of the optical system, zooming, etc., but the most important thing in this technology is to determine "what to look for next" and "where to observe next". This is a method of controlling observation parameters.

【0006】1.Ballard らによる方法(D.H. Ballard
and C.M. Brown: "Principles of Animate Vision",CVG
IP: IMAGE UNDERSTANDING,Vol.156, No.1, pp.3-21 (Au
g.1992)) Ballard らが構築した視覚環境認識システムでは、画像
入力装置は、高解像度で光軸付近の狭い領域をサンプリ
ングする中心窩観察(foveal vision) と、低解像度で光
軸から離れた広い領域をサンプリングする周辺観察(per
ipheral vision) との、2種類の画像入力形態を備えて
いる。物体は、foeval vision で捕えられれば必ず認識
できるとしている。知識データを、IS-A木やpart-of 木
等の木構造で表現し、オブジェクト間の関係に確率構造
を導入した。この木構造と確率構造とに基づいて、ある
動作を遂行したときに得られる情報量とそれに費やされ
るエネルギーとで動作の有効関数(utility function)を
定義し、このutility functionを用いて、次の動作を決
定するという戦略を採用している。このような戦略によ
って、ある環境をより短時間で認識することができる。
1. Method by Ballard et al. (DH Ballard
and CM Brown: "Principles of Animate Vision", CVG
IP: IMAGE UNDERSTANDING, Vol.156, No.1, pp.3-21 (Au
g.1992)) In the visual environment recognition system constructed by Ballard et al., the image input device uses a foveal vision that samples a narrow area near the optical axis at high resolution and a low resolution away from the optical axis. Peripheral observation (per
ipheral vision). It is said that an object can be recognized if it is caught by foeval vision. Knowledge data is represented by a tree structure such as an IS-A tree or a part-of tree, and a probability structure is introduced into the relationship between objects. Based on this tree structure and the probability structure, an effective function (utility function) of the operation is defined by the amount of information obtained when performing a certain operation and the energy consumed for it, and using this utility function, the following It adopts a strategy of determining behavior. With such a strategy, an environment can be recognized in a shorter time.

【0007】2.上記Ballard らのシステムでは、次に
探したい物体を直接探索するという方式を採っていた。
Wixsonらは、目的とする物体を探索するための観測点制
御法として、間接探索法を提案している(L.E. Wixon an
d DH. Ballard: "Using intermediate objects to impr
ove the efficiency of visual search",Int'l. J. Com
puter Vision, 12:2/3 ,pp.209-230(1994)) 。間接探索
法では、観測によって同定した物体と目的とする物体と
の間の空間的位置関係によって探索を行なう。例えば、
目的とする物体がコーヒーカップで、同定した物体が
机,椅子,黒板だとすると、コーヒーカップと最も空間
的位置関係が強い机が存在する位置を、更に高解像度で
観測するように入力系が制御される。
2. In the system of Ballard et al. Mentioned above, a method of directly searching for an object to be searched next was adopted.
Wixson et al. Have proposed an indirect search method as an observation point control method for searching for a target object (LE Wixon an
d DH. Ballard: "Using intermediate objects to impr
ove the efficiency of visual search ", Int'l. J. Com
puter Vision, 12: 2/3, pp.209-230 (1994)). In the indirect search method, the search is performed by the spatial positional relationship between the object identified by observation and the target object. For example,
If the target object is a coffee cup and the identified objects are a desk, a chair, and a blackboard, the input system is controlled so that the position of the desk that has the strongest spatial relationship with the coffee cup is observed with higher resolution. It

【0008】また、Brooks等のシステム(R.A. Brooks:
"New Approaches to Robotics",Science,Vol.25,pp.12
27-1232(1991)) は、センサ入力とアクチュエータ出力
とを結ぶいくつもの基本的処理プログラムを備えてい
る。谷等は、時系列信号ベクトルとしてのセンサ入力に
存在する規則を学習によって獲得し、その規則を行動計
画に利用するシステムを提案している(特開平6−27
4224号)。この方法によれば、未知の環境に適応す
るシステムを構築することができる。また、複数の可能
な行動が存在する場合でも、その中からひとつを選択す
るようなメカニズムを提供している。
In addition, systems such as Brooks (RA Brooks:
"New Approaches to Robotics", Science, Vol.25, pp.12
27-1232 (1991)) has several basic processing programs that connect sensor inputs and actuator outputs. Tani et al. Have proposed a system in which a rule existing in a sensor input as a time-series signal vector is acquired by learning and the rule is used for an action plan (JP-A-6-27).
4224). According to this method, a system adapted to an unknown environment can be constructed. It also provides a mechanism to select one of the possible actions, even if there are multiple possible actions.

【0009】以上、従来の代表的な理論を紹介したが、
その他にも以下のような提案がある。
The conventional representative theory has been introduced above.
Other proposals are as follows.

【0010】R. Rimey and C.M. Brown: "Task-Oriente
d Vision with Multiple Bayes Nets", in "Active Vis
ion", A. Blake and A. Yuille(Eds.) MIT press(1992) S. Geman and D. Geman: "Stochastic Relaxation, Gib
bs Distributions, and the Bayesian Restoration of
Image", IEEE Trans. on Pattern Anal. Machine Intel
l., Vol.6, No.6,pp721-741(Nov.1984) B. Gidas: "A Renormalization Group Approach to Ima
ge Processing Problems", IEEE Trans. on Pattern An
al. Machine Intell., Vol.11, No.2, pp.164-180(Feb.
1989) Kawato and Inui: "Computational Theory of the Visu
al Cortical Areas",IEICE Trans., Vol.J73-D-II, No.
8,pp.1111-1121(Aug.1990) D.V. Lindley: "On a measure of the infomation prov
idedby an experiment", Ann. Math. Stat.,vol.27,pp.
986-1005(1956) K.J. Bradshaw, P.F. McLauchlan, I.D. Reid and D.W.
Murray: "Saccade and pursuit on an active head/ey
e platform", Image and Vision Computing,Vol.12, n
o.3, pp.155-163 (Apr.1994) J.G. Lee and H. Chung: "Global path planning for m
obile robot with grid-type world model", Robotics
and Computer-Integrated Manufacturing, Vol.11,no.
1,pp.13-21(1994)
R. Rimey and CM Brown: "Task-Oriente
d Vision with Multiple Bayes Nets ", in" Active Vis
ion ", A. Blake and A. Yuille (Eds.) MIT press (1992) S. Geman and D. Geman:" Stochastic Relaxation, Gib
bs Distributions, and the Bayesian Restoration of
Image ", IEEE Trans. On Pattern Anal. Machine Intel
l., Vol.6, No.6, pp721-741 (Nov.1984) B. Gidas: "A Renormalization Group Approach to Ima
ge Processing Problems ", IEEE Trans. on Pattern An
al. Machine Intell., Vol.11, No.2, pp.164-180 (Feb.
1989) Kawato and Inui: "Computational Theory of the Visu
al Cortical Areas ", IEICE Trans., Vol.J73-D-II, No.
8, pp.1111-1121 (Aug.1990) DV Lindley: "On a measure of the infomation prov
idedby an experiment ", Ann. Math. Stat., vol.27, pp.
986-1005 (1956) KJ Bradshaw, PF McLauchlan, ID Reid and DW
Murray: "Saccade and pursuit on an active head / ey
e platform ", Image and Vision Computing, Vol.12, n
o.3, pp.155-163 (Apr.1994) JG Lee and H. Chung: "Global path planning for m
obile robot with grid-type world model ", Robotics
and Computer-Integrated Manufacturing, Vol.11, no.
1, pp.13-21 (1994)

【0011】[0011]

【発明が解決しようとしている課題】しかしながら、上
記のような計算理論の多くは、与えられた画像(の組)
だけから得られる情報を議論しているため、得られる結
果はあくまで推定値である。また観測者中心座標系を用
いて世界を記述しているので、移動物体等の扱いが複雑
である。
However, most of the above calculation theories are based on (a set of) given images.
Since we are discussing the information that can only be obtained from the above, the results obtained are estimates only. Since the world is described using the observer-centered coordinate system, handling of moving objects is complicated.

【0012】一方、Animate Visionでは、物体中心座標
系を用いて世界を記述しているので、移動物体等の扱い
は比較的簡単になるが、その際に最も重要となる観測点
制御には、以下のいくつかの問題点が存在する。
On the other hand, in Animate Vision, since the world is described using the object center coordinate system, handling of moving objects and the like becomes relatively simple. At that time, however, the most important observation point control is There are some problems below.

【0013】1.知識を構成する物体の最小単位の認識
方法を議論していない。即ち、これら最小単位の認識は
容易であることを前提として議論を展開している。
1. We have not discussed the method of recognizing the smallest unit of the object that constitutes knowledge. That is, the discussion is developed on the assumption that it is easy to recognize these minimum units.

【0014】2.知識は知識エンジニアによって記述さ
れるとしている。即ち、人間が知らない環境に対する知
識は与えられない。
2. Knowledge is said to be written by knowledge engineers. That is, knowledge about the environment that humans do not know is not given.

【0015】又、特開平6−274224号等のシステ
ムでは、知識は学習によって獲得されるが、入出力デー
タやニューラルネットの構造が一般的であるので、知識
の階層構造が得られるという保証はないし、知識の 階
層構造を獲得する能力がニューラルネットにあったとし
ても、膨大な時間を要することが予想される。
Further, in the system of Japanese Patent Laid-Open No. 6-274224, knowledge is acquired by learning, but since the structure of input / output data and neural network is general, it is not guaranteed that a hierarchical structure of knowledge can be obtained. Or, even if the neural network has the ability to acquire the hierarchical structure of knowledge, it is expected that a huge amount of time will be required.

【0016】そこで、本発明は、高速に必要な画像情報
を獲得できる画像情報処理方法と装置を提供することを
目的とする。
Therefore, it is an object of the present invention to provide an image information processing method and apparatus capable of acquiring necessary image information at high speed.

【0017】また、本発明は、画像情報処理方法及びそ
の装置を有効に適用した各種システムを提供することを
目的とする。
It is another object of the present invention to provide various systems in which the image information processing method and its apparatus are effectively applied.

【0018】[0018]

【課題を解決するための手段】本発明によれば、画像情
報処理装置の制御方法において、画像情報処理装置の画
像入力部より画像を光学的に入力し、入力された画像よ
り特徴点を検出し、検出された特徴点の位置に基づいて
視覚情報量を算出し、前記視覚情報量が増大するよう
に、前記画像入力部を制御する。
According to the present invention, in a method of controlling an image information processing apparatus, an image is optically input from an image input unit of the image information processing apparatus, and feature points are detected from the input image. Then, the visual information amount is calculated based on the positions of the detected feature points, and the image input unit is controlled so that the visual information amount increases.

【0019】また、本発明の他の態様によれば、画像情
報処理方法において、入力画像を監視し、入力画像内の
各特徴点の評価値を算出し、算出された評価値が所定値
を越える特徴点を検出し、光軸の方向を検出された特徴
点に向けて移動し、該検出された特徴点近傍の画像デー
タを獲得し、該獲得された画像データに識別子を割り当
てて、検出された特徴点の位置と、特徴点近傍の画像デ
ータと、検出された時刻と、割り当てられた識別子とを
組として記憶する。
According to another aspect of the present invention, in the image information processing method, the input image is monitored, the evaluation value of each feature point in the input image is calculated, and the calculated evaluation value has a predetermined value. A feature point that exceeds the detected feature point is detected, the direction of the optical axis is moved toward the detected feature point, image data in the vicinity of the detected feature point is acquired, and an identifier is assigned to the acquired image data for detection. The positions of the selected feature points, the image data in the vicinity of the feature points, the detected time, and the assigned identifier are stored as a set.

【0020】また、本発明の他の態様によれば、画像情
報処理装置に、画像を光学的に入力する画像入力手段
と、前記画像入力手段から入力された画像より特徴点を
検出する検出手段と、前記検出手段により検出された特
徴点の位置に基づいて視覚情報量を算出する算出手段
と、前記算出手段により算出された視覚情報量が増大す
るように、前記画像入力手段を制御する制御手段とを備
える。
According to another aspect of the present invention, the image information processing apparatus is provided with image input means for optically inputting an image, and detecting means for detecting feature points from the image input from the image input means. And a calculating means for calculating the amount of visual information based on the position of the feature point detected by the detecting means, and a control for controlling the image input means so that the amount of visual information calculated by the calculating means increases. And means.

【0021】また、本発明の他の態様によれば、画像情
報処理装置に、入力画像を監視する監視手段と、前記監
視手段により監視されている入力画像内の各特徴点の評
価値を算出する算出手段と、算出された評価値が所定値
を越える特徴点を検出する検出手段と、光軸の方向を検
出された特徴点に向けて移動する移動手段と、前記検出
手段により検出された特徴点近傍の画像データを獲得す
る獲得手段と、該獲得された画像データに識別子を割り
当てて、検出された特徴点の位置と、特徴点近傍の画像
データと、検出された時刻と、割り当てられた識別子と
を組として記憶する記憶手段とを備える。
According to another aspect of the present invention, the image information processing apparatus calculates a monitoring means for monitoring the input image, and an evaluation value of each feature point in the input image monitored by the monitoring means. Calculating means, a detecting means for detecting a feature point whose calculated evaluation value exceeds a predetermined value, a moving means for moving the direction of the optical axis toward the detected feature point, and the detecting means for detecting the feature point. Acquisition means for acquiring image data in the vicinity of the feature point, an identifier is allocated to the acquired image data, the position of the detected feature point, the image data in the vicinity of the feature point, and the time of detection are assigned. And a storage unit that stores the identifier as a set.

【0022】また、本発明の他の態様によれば、画像情
報処理装置に、入力パラメータにより制御され、画像を
入力する画像入力手段と、入力された画像を離散化し、
多重解像度空間に写像する写像手段と、入力された画像
から特徴点を検出する特徴点検出手段と、写像された画
像を、検出された特徴点に関する局所パターンに変換す
る変換符号化手段と、変換された局所パターンを量子化
する量子化手段と、前記量子化手段により量子化された
データから、これらデータ間の時間的空間的相関関係を
求める知識獲得手段と、前記量子化データ及び前記相関
関係に基づいて前記入力パラメータを修正する入力パラ
メータ制御手段とを備える。
According to another aspect of the present invention, the image information processing apparatus is controlled by an input parameter, image input means for inputting an image, and the input image are discretized.
Mapping means for mapping into a multi-resolution space, feature point detecting means for detecting feature points from an input image, transform coding means for transforming the mapped image into a local pattern relating to the detected feature points, and transforming Quantizing means for quantizing the generated local pattern, knowledge acquiring means for obtaining a temporal and spatial correlation between the data quantized by the quantizing means, the quantized data and the correlation And input parameter control means for modifying the input parameter based on the above.

【0023】[0023]

【発明の実施の形態】以下、添付図面を参照しながら、
本発明に係る好適な1実施形態を詳細に説明する。
DETAILED DESCRIPTION OF THE INVENTION Referring to the accompanying drawings,
A preferred embodiment according to the present invention will be described in detail.

【0024】〔実施形態1〕図1は、本実施形態の視覚
情報処理装置の構成例を表すブロック図である。以下、
順に構成要素の動作を説明する。
[First Embodiment] FIG. 1 is a block diagram showing a configuration example of a visual information processing apparatus according to the present embodiment. Less than,
The operation of the components will be described in order.

【0025】<レンズ系(lens system) 1>ここで、レ
ンズ系1は、広角レンズ(wide view lens)(魚眼レンズ
(fish eyelens) を含む)を備え、画像を光学的に入力
するためのレンズ系であり、更に通常レンズを設けても
よい。
<Lens system 1> Here, the lens system 1 is a wide view lens (fisheye lens).
(including fish eyelens), and a lens system for optically inputting an image, and a normal lens may be provided.

【0026】図2に、レンズ系1の広角レンズによる座
標変換例を示す。図中、xが入力系の正面に位置する画
像面上での極座標系の動径、tが広角レンズで変換され
た後の極座標系の動径である。本光学系は、この極座標
系の角度(紙面に垂直な面上での極座標系の角度θ)を
保存するので、図2及び以下の説明は全て動径方向に限
って行う。
FIG. 2 shows an example of coordinate conversion by the wide-angle lens of the lens system 1. In the figure, x is the radius vector of the polar coordinate system on the image plane located in front of the input system, and t is the radius vector of the polar coordinate system after being converted by the wide-angle lens. Since this optical system stores the angle of this polar coordinate system (the angle θ of the polar coordinate system on the plane perpendicular to the paper surface), FIG. 2 and the following description will be limited to the radial direction.

【0027】x,tは、光軸に対する入射角度φ,焦点
距離ξを用いて、 t=2ξ tan(φ/2) (1) x=ξ tan(φ) (2) と書ける。これらより、xはtの関数として次式で表わ
せる: x=t/{1−(t/2ξ)2} (3) これが広角レンズにおける座標変換である。
X and t can be written as t = 2ξ tan (φ / 2) (1) x = ξ tan (φ) (2) using the incident angle φ with respect to the optical axis and the focal length ξ. From these, x can be expressed by the following equation as a function of t: x = t / {1- (t / 2ξ) 2 } (3) This is the coordinate conversion in the wide-angle lens.

【0028】画像平面全域に広がる動径方向周波数f
(0)のパターンをレンズ系1によってアレイセンサ2
の平面上に投射したとき、アレイセンサ2の平面上で光
軸10から距離tの位置での局所的な動径方向周波数
は、式(4)で表せる。
Radial frequency f spreading over the entire image plane
The pattern of (0) is applied to the array sensor 2 by the lens system 1.
When projected onto the plane of, the local radial frequency at the position of the distance t from the optical axis 10 on the plane of the array sensor 2 can be expressed by equation (4).

【0029】 f(t)=f(0)・{(1−(t/2ξ)2)2/{1+(t/2ξ )2} (4) 実際には、極座標系(t,θ)を用いて、2次元画像f
(t,θ)が出力される。もちろん、3次元の実空間に
存在する任意の物体を対象とする場合には、入射角度φ
とtとの関係のみを知ればいいから、 t=2ξ tan(φ/2) (5) が座標変換となる。
F (t) = f (0) · {(1- (t / 2ξ) 2 ) 2 / {1+ (t / 2ξ) 2 } (4) In practice, the polar coordinate system (t, θ) is Using the two-dimensional image f
(T, θ) is output. Of course, when an arbitrary object existing in a three-dimensional real space is targeted, the incident angle φ
Since it suffices to know only the relationship between t and t, t = 2ξ tan (φ / 2) (5) is the coordinate transformation.

【0030】なお、広角レンズには、上記以外の座標変
換規則に従うものがいくつかあり、上記広角レンズに代
えて、それらの広角レンズをレンズ系1に使用してもよ
い。
There are some wide-angle lenses that comply with coordinate conversion rules other than the above, and instead of the wide-angle lenses, these wide-angle lenses may be used in the lens system 1.

【0031】<アレイセンサ(array sensor)2>アレイ
センサ2は、レンズ系1によって座標変換を受けた2次
元画像f(t,θ)を、2次元アレイ状に並べられたセ
ンサでサンプリングし、離散2次元画像を得る。アレイ
センサ2の左上のセンサ番号を(1,1)とし、横方向
にm番目、縦方向にn番目のセンサ番号を(m,n)と
記述する。センサ番号(m,n)のセンサの出力gm,n
は、積分核をψm,n (x) として、
<Array sensor 2> The array sensor 2 samples the two-dimensional image f (t, θ) subjected to the coordinate conversion by the lens system 1 by the sensors arranged in a two-dimensional array, Obtain a discrete two-dimensional image. The sensor number at the upper left of the array sensor 2 is (1, 1), the m-th sensor number in the horizontal direction and the n-th sensor number in the vertical direction are described as (m, n). Output g m, n of sensor with sensor number (m, n)
Is the integral kernel ψ m, n (x),

【0032】[0032]

【外1】 となる。これにより、{gm,nm,n が離散2次元画像
を構成する。
[Outside 1] Becomes As a result, {g m, n } m, n constitutes a discrete two-dimensional image.

【0033】<2次元フィルタ(2D filter) 3>2次元
フィルタ3は、アレイセンサ2の出力信号、即ち離散2
次元画像{gm,nm,n を入力として受取り、以下のよ
うなマスク処理を施して、多重解像度展開する。
<Two-dimensional filter (2D filter) 3> The two-dimensional filter 3 is an output signal of the array sensor 2, that is, a discrete 2D filter.
A three-dimensional image {g m, n } m, n is received as an input, the following mask processing is performed, and multi-resolution expansion is performed.

【0034】[0034]

【外2】 このマスクは例えば、▽2Gの作用素:[Outside 2] This mask has, for example, a ▽ 2 G operator:

【0035】[0035]

【外3】 を用いる。[Outside 3] To use.

【0036】また、以下のような作用素集合も有効であ
る。
The following operator sets are also effective.

【0037】(a)空間定数の異なる複数の▽2 G作用
素:等方性バンドパスフィルタの集合を構成することが
できる。
(A) A plurality of ∇ 2 G operators having different spatial constants: A set of isotropic bandpass filters can be constructed.

【0038】(b)空間定数と方向の異なる複数のGabo
r 作用素:方向に依存するバンドパスフィルタの集合を
構成することができる。
(B) A plurality of Gabos having different spatial constants and directions
r operator: A set of bandpass filters that depend on direction can be constructed.

【0039】図3は、レンズ系1,アレイセンサ2,2
次元フィルタ3を組み合わせたシステム(以下、広角レ
ンズ入力装置と呼ぶ)で検出される動径方向周波数帯域
と光軸10からの距離との関係を図式的に表している。
同図は、2次元フィルタ3におけるマスク作用素が▽2
Gで、場所に拠らず一定の場合である。光軸から離れる
に従って高周波成分検出に寄与する積分核を削除してい
くように構成された画像フィルタと近似的に等しい。図
3より、光軸の方向を変えることによって、周波数空間
の全領域を覆うことができることがわかる。
FIG. 3 shows a lens system 1, array sensors 2 and 2.
The relationship between the radial frequency band detected by a system in which the dimensional filter 3 is combined (hereinafter referred to as a wide-angle lens input device) and the distance from the optical axis 10 is schematically shown.
In the figure, the mask operator in the two-dimensional filter 3 is ▽ 2
In G, it is a constant case regardless of location. It is approximately equal to an image filter configured to remove the integral kernel that contributes to the detection of high frequency components as the distance from the optical axis increases. It can be seen from FIG. 3 that the entire area of the frequency space can be covered by changing the direction of the optical axis.

【0040】上記考察は、図4に示すシミュレーション
結果によって検証される。同図から、広角レンズ入力装
置が検出する中心周波数は、光軸からの変位とともに、
単調に減少すること、装置が検出できる最大周波数以下
の成分を全て検出することが確認できる。
The above consideration is verified by the simulation results shown in FIG. From the figure, the center frequency detected by the wide-angle lens input device is, along with the displacement from the optical axis,
It can be confirmed that the signal decreases monotonically and that all components below the maximum frequency that the device can detect are detected.

【0041】<特徴点検出部(feature extractor) 4>
特徴点検出部4では、2次元フィルタ3の出力画像から
極大点を抽出して特徴点とし、それらの座標を出力す
る。これら特徴点の座標は、入力パラメータ制御部8に
送られ、入力パラメータ制御量の決定のために用いられ
る。
<Feature Extractor 4>
The feature point detection unit 4 extracts local maximum points from the output image of the two-dimensional filter 3 as feature points and outputs their coordinates. The coordinates of these feature points are sent to the input parameter control unit 8 and used for determining the input parameter control amount.

【0042】2次元フィルタ3、および特徴点検出部4
は、偏角の原理を応用して次のように構成することもで
きる。2次元フィルタでは、まず画像{gm,nm,n
グラジエント(gradient)▽を作用させてベクトル場{ω
m,nm,n を生成する: ωm,n =▽gm,n ={(gm,n-gm-1,n)/△x}e1+{(gm,n-gm,n-1)/△y} e2 (9) ただし、e1、e2は基底ベクトル、△x、△yは横方
向、および縦方向のグリッド間隔である。次に各点
(m,n)におけるベクトルの方向を求める: arg(ωm,n)=arctan〔{(gm,n-gm,n-1) /△y}/{(gm,n-gm,n-1) /△x}〕 (10) ベクトル場を複素関数で表現すれば、上記方向は複素数
の偏角である。これに、偏角の原理を応用して、零点や
極が検出できる。
Two-dimensional filter 3 and feature point detector 4
Can also be configured as follows by applying the principle of declination. In the two-dimensional filter, the vector {g m, n } m, n is first acted on by a gradient ▽ to generate a vector field {ω
Generate m, n } m, n : ω m, n = ▽ g m, n = {(g m, n -g m-1, n ) / Δx} e1 + {(g m, n -g m , n-1 ) / Δy} e2 (9) where e1 and e2 are basis vectors, and Δx and Δy are horizontal and vertical grid intervals. Next, find the direction of the vector at each point (m, n): arg (ω m, n ) = arctan [{(g m, n -g m, n-1 ) / △ y} / {(g m, n −g m, n−1 ) / Δx}] (10) If the vector field is expressed by a complex function, the above direction is a complex argument. By applying the principle of declination to this, zeros and poles can be detected.

【0043】偏角の原理とは、関数f(z)は単連結領
域Dで有理形、CはD内の正の向きの単純閉曲線で、C
の上にはf(z)の零点も極も存在しないものとする。
Cの内部において、f(z)はaj (j=1,2,…,
m)にそれぞれ位数λj の零点、bk (k=1,2,
…,n)にそれぞれ位数μk の極をもつとする。このと
き、C上の1点z0 から出発してCを一周してz0 へ戻
ったときのf(z)の偏角の増加量△c arg f(z)
は、C内部にある零点及び極の個数(位数も考慮した)
The principle of argument is that the function f (z) is a rational form in the singly connected region D, C is a positive closed simple closed curve in D, and C
It is assumed that there is no zero or pole of f (z) above.
Inside C, f (z) is a j (j = 1, 2, ...,
m) and zeros of order λ j , b k (k = 1, 2,
, N) have poles of order μ k , respectively. At this time, the increase of deflection angle of f (z) when returned to z 0 to around the C starting from a point z 0 on C △ c arg f (z)
Is the number of zeros and poles in C (considering the order)
To

【0044】[0044]

【外4】 と書けば、次式で与えられる: △c arg f(z)=2π(Nz(f)−Np(f)) (11) 上記偏角の原理を用いてベクトル場{ωm,nm,n の特
徴点を検出する方法を以下で説明する。
[Outside 4] Can be given by the following formula: Δ c arg f (z) = 2π (N z (f) −N p (f)) (11) The vector field {ω m, n } A method for detecting the feature points of m, n will be described below.

【0045】Step1 n=1とする。It is assumed that Step1 n = 1.

【0046】Step2 m=1とする。It is assumed that Step2 m = 1.

【0047】Step3 (m,n)を中心に適当な近
傍を考える。例えば8近傍: {(m-1,n-1),(m,n-1),(m+1,n-1),(m-1,n),(m+1,n),(m-1,n+1),(m,n+1), (m+1,n+1)} (12) を選ぶ。
Consider an appropriate neighborhood around Step 3 (m, n). For example, 8 neighborhoods: {(m-1, n-1), (m, n-1), (m + 1, n-1), (m-1, n), (m + 1, n), ( m-1, n + 1), (m, n + 1), (m + 1, n + 1)} (12) is selected.

【0048】Step5 偏角の原理により、上記近傍
に囲まれる領域内に存在する零点及び極の、位数を考慮
した個数が次のように与えられる: Nz (ω)−Np (ω)=(△c arg ωm,n )/2π (13) △cargω m,nは以下のように計算する: △cargω m,n ≒Υ(ωm+1,n+1 ,ωm+1,n)+Υ(ωm,n+1 ,ωm+1,n+1) +Υ(ωm-1,n+1 ,ωm,n+1)+Υ(ωm-1,n ,ωm-1,n+1) +Υ(ωm-1,n-1 ,ωm-1,n)+Υ(ωm,n-1 ,ωm-1,n-1) +Υ(ωm+1,n-1 ,ωm,n-1)+Υ(ωm+1,n ,ωm+1,n-1) (14) ここで、Υ(x,y)=argx−argy if argx−argy≦π argy−argx otherwise (15)
Step 5 By the principle of declination, the number of zeros and poles existing in the region surrounded by the above neighborhood is given as follows: N z (ω) -N p (ω) = (△ c arg ω m, n) / 2π (13) △ c argω m, n is calculated as follows: △ c argω m, n ≒ Υ (ω m + 1, n + 1, ω m + 1, n ) + Υ (ω m, n + 1 , ω m + 1, n + 1 ) + Υ (ω m-1, n + 1 , ω m, n + 1 ) + Υ (ω m-1, n , ω m-1, n + 1 ) + Υ (ω m-1, n-1 , ω m-1, n ) + Υ (ω m, n-1 , ω m-1, n-1 ) + Υ (ω m + 1 , n-1 , ω m, n-1 ) + Υ (ω m + 1, n , ω m + 1, n-1 ) (14) where Υ (x, y) = argx−argy if argx−argy ≤ π argy-argx otherwise (15)

【0049】Step6 m=m+1とする。Step 6 m = m + 1.

【0050】Step7 mが画像の範囲を越えたかど
うかを判断し、越えたらStep8に進み、そうでなけ
れば、Step2からの処理を繰り返す。
It is judged whether or not Step 7 m exceeds the range of the image. If it exceeds the range, the process proceeds to Step 8. If not, the process from Step 2 is repeated.

【0051】Step8 n=n+1とする。Step 8 n = n + 1.

【0052】Step9 nが画像の範囲を越えたかど
うかを判断し、越えたら処理を終了し、そうでなけれ
ば、Step3からの処理を繰り返す。
It is judged whether or not Step 9 n exceeds the range of the image, and if it exceeds the range, the processing is terminated. If not, the processing from Step 3 is repeated.

【0053】特徴検出装置では、上記偏角の原理より得
られた個数Nz(ω)−Np(ω)が負になる点を検出す
る。これにより、零点より極の方が多い領域が検出さ
れ、十分小さな領域では極が存在する点を検出すること
になる。
The feature detection device detects a point at which the number N z (ω) -N p (ω) obtained from the above-mentioned principle of the angle of deviation becomes negative. As a result, a region having more poles than the zero point is detected, and a point having poles is detected in a sufficiently small region.

【0054】<変換符号化部(transform encoder) 5>
変換符号化部5は、2次元フィルタ3によって多重解像
度空間上に写像された画像データを、局所パターン空間
へ変換して出力する機能を有する。
<Transform encoder 5>
The transform coding unit 5 has a function of transforming the image data, which is mapped on the multi-resolution space by the two-dimensional filter 3, into a local pattern space and outputting it.

【0055】まず、多重解像度空間での座標{sf(=2
k),bf}に対する深さdまでの近傍の集合Nd(sf,bf)
というものを、 s=2p ;p={k, k-1, …,Max(0, k-d) } (16) b=bf ±{(m-1/2)2p△x, (n-1/2)2p△y)} ;m,n ={1, …,2k-p} (17) と定義する。ただし、sf ,bf は特徴点検出部4で検
出された特徴点のスケール(空間周波数の逆数と考えて
よい)と座標であり、△x,△yはアレイセンサ2のx
方向,y方向のセンサ間の距離である。
First, the coordinates {s f (= 2
k ), b f }, the set N d (s f , b f ) of the neighborhoods up to the depth d
S = 2 p ; p = {k, k-1,…, Max (0, kd)} (16) b = b f ± {(m-1 / 2) 2 p △ x, (n -1/2) 2 p △ y)}; m, n = {1,…, 2 kp } (17) However, s f and b f are the scale (which may be considered as the reciprocal of the spatial frequency) and coordinates of the feature points detected by the feature point detection unit 4, and Δx and Δy are x of the array sensor 2.
The distance between the sensors in the direction and the y direction.

【0056】図5にはN2(sf ,bf )51が示されて
いる。N2(sf ,bf )51は、多重解像度空間に於け
る位置(sf ,bf )が異なれば、52や53で示すよ
うに、局所パターンが覆う領域、即ち実空間領域(bの
幅)及びスケール領域(sの幅で周波数領域に相当)が
異なることがわかる。すなわち、N2(s53,b53)が覆
う領域は、実空間領域55とスケール領域57となり、
2(s52,b52)が覆う領域は、実空間領域54とスケ
ール領域56となる。特に、深さ“0”の近傍は特徴点
位置の画素そのものを表す。
FIG. 5 shows N 2 (s f , b f ) 51. If the position (s f , b f ) in the multi-resolution space is different, N 2 (s f , b f ) 51 is a region covered by the local pattern, that is, a real space region (b) as indicated by 52 and 53. It can be seen that the width) and the scale area (corresponding to the frequency area in the width of s) are different. That is, the area covered by N 2 (s 53 , b 53 ) becomes the real space area 55 and the scale area 57,
The area covered by N 2 (s 52 , b 52 ) is the real space area 54 and the scale area 56. Particularly, the vicinity of the depth "0" represents the pixel itself at the feature point position.

【0057】このようにNd(sf ,bf )は多重解像度
空間での座標(sf ,bf )をルートとする4分木(図
では2分木)に等しい。多重解像度空間の座標(sf
f)における深さdの局所パターンPd(sf ,bf
とは、Nd(sf ,bf )の各ノードに強度を対応させた
ものをいい、深さdの局所パターン空間とは、上記4分
木の集合に有限次元ベクトルに対する内積を定義するこ
とによって張られる関数空間をいう。多重解像度空間に
おける局所パターンを考えることによって、3次元物体
のある種の運動に対する不変量が得られる。ただし、そ
の深さ(例えばどのくらいのスケールの範囲に亙ってい
るか)は物体によって異なる。
Thus, N d (s f , b f ) is equal to a quadtree (a binary tree in the figure) whose root is the coordinate (s f , b f ) in the multiresolution space. Coordinates in multi-resolution space (s f ,
local pattern P d (s f , b f ) of depth d in b f ).
Means the intensity corresponding to each node of N d (s f , b f ), and the local pattern space of depth d defines an inner product for a finite dimensional vector in the set of quadtrees. It is a function space that is extended by things. By considering local patterns in multi-resolution space, invariants for certain motions of 3D objects are obtained. However, the depth (for example, how large the range is) depends on the object.

【0058】変換符号化部5から出力されるデータ形式
は、例えば深さ2の局所パターンのみを採用した場合
の、s={s0,s1,s2},b={b0,b1… , bj,…, bJ }の離
散多重解像度空間に対しては、 {(b0,(P2(s0,b0), P2(s1,b0), P2(s2,b0))), (b1,(P2(s0,b1), P2(s1,b1), P2(s2,b1))), … (bJ,(P2(s0,bJ), P2(s1,bJ), P2(s2,bJ)))} (18) となる。
The data format output from the transform coding unit 5 is, for example, s = {s 0 , s 1 , s 2 }, b = {b 0 , b when only a local pattern of depth 2 is adopted. For the discrete multiresolution space of 1 …, b j ,…, b J }, {(b 0 , (P 2 (s 0 , b 0 ), P 2 (s 1 , b 0 ), P 2 ( s 2 , b 0 ))), (b 1 , (P 2 (s 0 , b 1 ), P 2 (s 1 , b 1 ), P 2 (s 2 , b 1 ))),… (b J , (P 2 (s 0 , b J ), P 2 (s 1 , b J ), P 2 (s 2 , b J )))} (18).

【0059】<量子化部(quantizer)6>図6に量子化部
6の詳細な構成図を示す。量子化部6は、変換符号化部
5から例えば以下の形式のデータを受ける。
<Quantizer 6> FIG. 6 is a detailed block diagram of the quantizer 6. The quantizer 6 receives, for example, data in the following format from the transform encoder 5.

【0060】 {(b0,(P2(s0,b0), P2(s1,b0), P2(s2,b0))), (b1,(P2(s0,b1), P2(s1,b1), P2(s2,b1))), … (bJ,(P2(s0,bJ), P2(s1,bJ), P2(s2,bJ)))} (19) 量子化部6は、上記データの例えば局所パターンを量子
化して、符号語S2(sf ,bf )∈Zに変換する: {(b0,(S2(s0,b0), S2(s1,b0), S2(s2,b0))), (b1,(S2(s0,b1), S2(s1,b1), S2(s2,b1))), … (bJ,(S2(s0,bJ), S2(s1,bJ), S2(s2,bJ)))} (20) 以下、量子化部6における処理手順を簡単に説明する。
((B 0 , (P 2 (s 0 , b 0 ), P 2 (s 1 , b 0 ), P 2 (s 2 , b 0 ))), (b 1 , (P 2 (s 0 , b 1 ), P2 (s 1 , b 1 ), P 2 (s 2 , b 1 ))),… (b J , (P 2 (s 0 , b J ), P 2 (s 1 , b J ), P 2 (s 2 , b J )))) (19) The quantizing unit 6 quantizes, for example, a local pattern of the above data and converts it into a code word S 2 (s f , b f ) εZ. Yes: ((b 0 , (S 2 (s 0 , b 0 ), S 2 (s 1 , b 0 ), S 2 (s 2 , b 0 ))), (b 1 , (S 2 (s 0 , b 1 ), S 2 (s 1 , b 1 ), S 2 (s 2 , b 1 ))),… (b J , (S 2 (s 0 , b J ), S 2 (s 1 , b J ), S 2 (s 2 , b J )))} (20) Hereinafter, the processing procedure in the quantization unit 6 will be briefly described.

【0061】(a)j=0とする。(A) Let j = 0.

【0062】(b)量子化部6に特徴点bj に関する
データ、最初の場合、 (b0,(P2(s0,b0), P2(s1,b0), P2(s2,b0))) (21) が入力される。
(B) Data relating to the feature point bj in the quantizing unit 6, in the first case, (b 0 , (P 2 (s 0 , b 0 ), P 2 (s 1 , b 0 ), P 2 (s 2 , b 0 ))) (21) is input.

【0063】(c)P2(s0,b0), P2(s1,b0), P2(s2,b0)
のそれぞれが量子化器61,62,63に入力され、対
応する符号語S2(s0,b0), S2(s1,b0), S2(s2,b0) が出力
される。このとき、量子化器61,62,63ともコー
ドブック64を用いる。
(C) P 2 (s 0 , b 0 ), P 2 (s 1 , b 0 ), P 2 (s 2 , b 0 )
Is input to the quantizers 61, 62 and 63, and the corresponding codewords S 2 (s 0 , b 0 ), S 2 (s 1 , b 0 ), S 2 (s 2 , b 0 ) are output. To be done. At this time, the codebook 64 is used for the quantizers 61, 62, and 63.

【0064】(d)(b0,(S2(s0,b0), S2(s1,b0), S
2(s2,b0)))を出力する。
(D) (b 0 , (S 2 (s 0 , b 0 ), S 2 (s 1 , b 0 ), S
2 (s 2 , b 0 ))) is output.

【0065】(e)j←j+1として(b)に戻る。(E) Return to (b) by setting j ← j + 1.

【0066】量子化部6には、代表ベクトルを獲得する
ための学習モードと、入力信号を符号化するための実行
モードがあるが、これらは通常のベクトル量子化技術で
実現できる。
The quantizer 6 has a learning mode for obtaining a representative vector and an execution mode for encoding an input signal, which can be realized by a normal vector quantization technique.

【0067】ここで、コードブック64は、各ノード位
置における成分強度の組として表現された上記局所パタ
ーンに番号(符号語)付けを行うものであり、例えば、
以下の実施例2で説明するような学習ベクトル量子化で
作成されてもよい。又、出現する全ての局所パターンに
順番に番号を割り付けてもよい。
Here, the code book 64 assigns numbers (code words) to the local patterns expressed as a set of component intensities at each node position.
It may be created by learning vector quantization as described in Example 2 below. Also, numbers may be sequentially assigned to all the local patterns that appear.

【0068】すなわち、与えられた画像は、特徴点の位
置座標と局所パターンの符号語との組として符号化され
る。しかし、このような符号化は、空間的に隣接する局
所パターン間に強い相関が存在するという意味でかなり
冗長性を含んでいる。量子化部6の代表ベクトルには、
このような冗長性が含まれていていないことが望まし
い。これら冗長性は、それぞれの代表ベクトル間の同時
出現確率を用いて削減することができる。
That is, the given image is encoded as a set of the position coordinates of the feature points and the code word of the local pattern. However, such coding involves considerable redundancy in the sense that there is a strong correlation between spatially adjacent local patterns. In the representative vector of the quantizer 6,
It is desirable not to include such redundancy. These redundancies can be reduced by using the simultaneous appearance probability between the respective representative vectors.

【0069】<確率オートマトン(stochastic automato
n)7>上記量子化部6から出力された特徴点の位置座標と
局所パターンの符号語との組が、確率オートマトン7の
各セルに入力される。
<Stochastic automato
n) 7> The set of the position coordinates of the feature points and the code word of the local pattern output from the quantizer 6 is input to each cell of the probability automaton 7.

【0070】図7に確率オートマトン7の構成例を示
す。図中、71は、画像入力データの幾何学的特徴及び
時間的相関に基づいて構築されるパターンオートマトン
であり、72は、上記パターンネットの結果と他の入力
信号、例えば人間によるキーボードからの知識データや
他のセンサ信号等とによって構築されるシンボルオート
マトンである。73はセルであり、有限個の状態を取る
ことができる。状態値の集合上に確率構造が定義されて
いる。確率オートマトン7は形式的に階層構造をしてい
るが、一般的にはブロック化されているという。q層に
属するr番目のセルの状態の集合をΩr (q)、その上の確
率分布を{p(ωu)};ωu ∈Ωr (q)、(q+1)層に
属するv番目のセルの状態の集合をΩv (q+1)、その上の
確率分布を{p(ωz)};ωz ∈Ωv (q+1)と書く。この
とき、これら確率分布は、以下のように条件付き確率に
よって関係付けられているとする。
FIG. 7 shows a configuration example of the probability automaton 7. In the figure, 71 is a pattern automaton constructed based on the geometrical characteristics and temporal correlation of image input data, and 72 is the result of the above pattern net and other input signals, for example, knowledge from a human keyboard. It is a symbolic automaton constructed from data and other sensor signals. 73 is a cell, which can take a finite number of states. A probability structure is defined on the set of state values. The stochastic automaton 7 has a hierarchical structure formally, but is generally said to be a block. The set of states of the r-th cell belonging to the q-th layer is Ω r (q) , the probability distribution on it is {p (ω u )}; ω u ∈ Ω r (q) , the v-th belonging to the (q + 1) -th layer of the set of states of the cell Ω v (q + 1), the probability distribution on the {p (ω z)}; written as ω z ∈Ω v (q + 1 ). At this time, it is assumed that these probability distributions are related by conditional probabilities as follows.

【0071】[0071]

【外5】 ここで、p(ωu )はq層に属するr番目のセルがωu
である確率を表現し、p(ωzu)は、q層に属するr番
目のあるセルがωu であった時に、(q+1)層に属す
るv番目のセルがωz である確率(条件付き確率)を表
している。
[Outside 5] Here, p (ω u) is the r-th cell belonging to the q layer ω u
P (ω z | ω u ) is the probability that the v th cell belonging to the (q + 1) layer is ω z when the r th cell belonging to the q layer is ω u. (Conditional probability).

【0072】パターンオートマトン71に属するセル
は、多重解像度空間を分割したときの各々の部分領域に
対して1対1に割当てている。従って、セルの状態値
は、多重解像度空間の部分領域における符号語に当た
る。条件付き確率を要素とする状態遷移行列は、量子化
器6のコードブック64を学習するときに、同時に計算
する。
The cells belonging to the pattern automaton 71 are assigned one-to-one to each partial area when the multi-resolution space is divided. Therefore, the state value of the cell corresponds to the code word in the sub-region of the multi-resolution space. The state transition matrix having conditional probabilities as elements is calculated at the same time when the codebook 64 of the quantizer 6 is learned.

【0073】一方、シンボルオートマトン72に属する
セルは、物体或いは事象と1対1に対応する。これらの
間の条件付き確率は、知識エンジニアによって与えられ
てもいいし、画像入力データの時間的空間的相関によっ
て計算してもよい。
On the other hand, the cells belonging to the symbol automaton 72 have a one-to-one correspondence with objects or events. The conditional probabilities between them may be given by a knowledge engineer or calculated by the temporal and spatial correlation of the image input data.

【0074】例えば、変換符号化部5による多重解像度
表現をしない場合の3レベルの階層表現の例を、図8に
示す。それぞれのレベルにおける配位空間は、1つ下の
レベルの配位空間の(3×3)の空間的配置により構成
される。つまり、Ω(0) は実数値を取る画素を(3×
3)に並べてできるパターンの全体、Ω(1) はΩ(0)
パターンに付けられた番号の全体を整数としたときに、
この整数を(3×3)に並べてできるパターンの全体、
…という具合である。従って、各層間の条件付き確率が
モデルとして存在し、Ω(0) に属する18個のパターン
に対する事前確率が与えられれば、Ω(1) ,Ω(2) に属
するパターンの確率分布が計算できる。
For example, FIG. 8 shows an example of a three-level hierarchical representation in the case where multi-resolution representation is not performed by the transform coding unit 5. The coordination space at each level is composed of the (3 × 3) spatial arrangement of the coordination space at the next lower level. In other words, Ω (0) is the pixel that takes a real value (3 ×
The whole pattern formed by arranging in 3), Ω (1) is an integer when the whole number attached to the pattern of Ω (0) is an integer,
The whole pattern made by arranging these integers in (3 × 3),
… And so on. Therefore, if there is a conditional probability between each layer as a model and the prior probability for 18 patterns belonging to Ω (0) is given, the probability distribution of the patterns belonging to Ω (1) and Ω (2) can be calculated. .

【0075】尚、実施例1の確率オートマトン7及び実
施例2の相互結合型ニューラルネット207等を、まと
めて知識獲得部とも総称する。
The stochastic automaton 7 of the first embodiment and the mutual connection type neural network 207 of the second embodiment are collectively referred to as a knowledge acquisition unit.

【0076】<入力パラメータ制御部(input parameter
controller)8>上記特徴点検出部4からの特徴点の座
標及び確率オートマトン7からのパターンの確率分布に
基づいて、レンズの光軸方向やズーミング等の入力パラ
メータ制御信号を上記広角レンズ入力装置に出力する構
成要素であり、例えば光軸方向に関しては、以下のよう
な処理を行う。
<Input parameter control unit (input parameter
controller) 8> Based on the coordinates of the feature points from the feature point detection unit 4 and the probability distribution of the pattern from the probability automaton 7, input parameter control signals such as the optical axis direction of the lens and zooming to the wide-angle lens input device. It is an output component, and performs the following processing in the optical axis direction, for example.

【0077】光軸制御法は、特徴点検出部4で検出され
た特徴点の集合のうちのどの特徴点を選択するかで決ま
る。例えば、この選択の評価基準を次式で定義する。
The optical axis control method depends on which feature point is selected from the set of feature points detected by the feature point detecting section 4. For example, the evaluation criterion for this selection is defined by the following formula.

【0078】 Lbr=L(wbr,T(brv (q+1)),ρ(br)) (23) ここで、wbrは特徴点br における正規化された2次元
フィルタ3の出力値、右辺第2項はΩv (q+1)に対する特
徴点br の相互情報量、ρ(br)は現在の光軸からbr
までの距離である。Lbrの最も簡単な例としては、それ
ぞれの変数の線形結合が考えられる。
[0078] L br = L (w br, T (b r, Ω v (q + 1)), ρ (b r)) (23) Here, w br were normalized in the feature point b r 2 The output value of the dimensional filter 3, the second term on the right side is the mutual information of the feature point b r with respect to Ω v (q + 1) , and ρ (b r ) is b r from the current optical axis.
Is the distance to A simplest example of L br is a linear combination of the variables.

【0079】 Lbr=α0br+α1 T(brv (q+1))+α2 ρ(br) (24) 先ずΩv (q+1)に対するΩr (q)の相互情報量T(Ωr (q)
Ωv (q+1))を次式(25)で定義し、これを用いて、T(b
rv (q+1))=T(Ωr (0),Ωv (q+1))を計算する。
[0079] L br = α 0 w br + α 1 T (b r, Ω v (q + 1)) of + α 2 ρ (b r) (24) First Ω v Ω r for the (q + 1) (q) Mutual information T (Ω r (q) ,
Ω v (q + 1) ) is defined by the following equation (25), and using this, T (b
Calculate r , Ω v (q + 1) ) = T (Ω r (0) , Ω v (q + 1) ).

【0080】[0080]

【外6】 [Outside 6]

【0081】上式(23)あるいは(24)を最大にす
る空間座標に光軸を一致させるように、光軸の修正量を
決定する。パターンオートマトン71の各セルは、実空
間座標とスケール座標との両方をもっている。従って、
相互情報量が最大の(観測)位置に光軸を一致させると
いうことは、相互情報量が最大のセルを見つけることと
同じである。各セルは符号語とそれに対する出現確率を
記憶しており、さらに各セル間の関係は条件付き確率で
結び付いているので、これらを用いて、ある特性のセル
の状態を決定する(これはその特定のセルの符号語の出
現確率に対するエントロピを下げることと同じ)ため
に、最も有効なセル、即ち相互情報量が最大となるセル
を決定することができる。これを、式(23)から式
(25)を使って計算する。
The correction amount of the optical axis is determined so that the optical axis coincides with the spatial coordinate that maximizes the above equation (23) or (24). Each cell of the pattern automaton 71 has both real space coordinates and scale coordinates. Therefore,
Matching the optical axis to the (observation) position with the maximum mutual information is the same as finding the cell with the maximum mutual information. Each cell stores the codeword and the occurrence probability for it, and since the relation between each cell is connected by the conditional probability, these are used to determine the state of the cell of a certain characteristic (this It is possible to determine the most effective cell, that is, the cell having the maximum mutual information, in order to lower the entropy with respect to the occurrence probability of the codeword of a specific cell. This is calculated using equations (23) through (25).

【0082】尚、上記式(23)から式(25)は、多
重解像度空間あるいはその局所パターンに適用すれば、
ズーム制御の評価値ともなる。本発明の評価値の計算及
び評価は式(23)から式(25)に限定されない。
If the above equations (23) to (25) are applied to the multi-resolution space or its local pattern,
It also serves as an evaluation value for zoom control. The calculation and evaluation of the evaluation value of the present invention are not limited to Expression (23) to Expression (25).

【0083】<本実施例の具体例>以下では、上記本理
論を簡単な例に適用することによって、その有効性を示
す。尚、本具体例では説明を簡単にするために、(3×
3)のアレイセンサを使用し、広角レンズや変換符号化
部の作用による多重解像度表現をしない例で説明する。
本例で式(24)の第1項は画素データの変化量(黒/
白)と考えられる。
<Specific Example of the Present Embodiment> The effectiveness of the present theory will be shown below by applying the present theory to a simple example. In this specific example, in order to simplify the explanation, (3 ×
An example will be described in which the array sensor of 3) is used and multi-resolution expression is not performed by the action of the wide-angle lens or the transform encoding unit.
In this example, the first term of the equation (24) is the change amount of pixel data (black /
It is considered to be white).

【0084】入力装置は一度に(3×3)画素の範囲が
見えるものとし、図8のようなモデルを知識として持っ
ているものとする。ここでは、パターンオートマトンの
みを利用して、2次元パターンを認識する例を示す。図
よりレベル(0)パターンの台は3×3画素、レベル
(1)パターンの台は9×9画素、レベル(2)パター
ンの台は27×27画素であることがわかる。従って、
システムは一度の観測でレベル(0)のパターンを認識
することができる。また、レベル(1)及びレベル
(2)のパターン中に現れる数字は、それぞれレベル
(0)及びレベル(1)パターンの符号語である。ま
た、それぞれのレベルのパターンに対する出現確率は等
しいとする。以下、レベル(1)パターンを認識する操
作を、レベル(1)観測と書くことにする。
It is assumed that the input device can see a range of (3 × 3) pixels at a time and has a model as shown in FIG. 8 as knowledge. Here, an example of recognizing a two-dimensional pattern using only the pattern automaton will be shown. From the figure, it can be seen that the table of the level (0) pattern has 3 × 3 pixels, the table of the level (1) pattern has 9 × 9 pixels, and the table of the level (2) pattern has 27 × 27 pixels. Therefore,
The system can recognize the level (0) pattern with one observation. Also, the numbers appearing in the level (1) and level (2) patterns are the code words of the level (0) and level (1) patterns, respectively. Further, it is assumed that the appearance probabilities for the patterns of each level are equal. Hereinafter, the operation of recognizing the level (1) pattern will be referred to as level (1) observation.

【0085】視覚環境として図9に示すパターンが与え
られたとして、レベル(2)パターンを認識する問題を
考える。ただし、図中、左上を原点(0,0)、右にi
番目、下にj番目の画素の座標を(i,j)と記す。シ
ステムは2つのレベル(2)パターンしか知らないの
で、与えられた画像中のパターンがこのどちらかを特定
すればいい。
Consider the problem of recognizing the level (2) pattern, given the pattern shown in FIG. 9 as the visual environment. However, in the figure, the upper left is the origin (0, 0) and the right is i
The coordinates of the j-th pixel below and below are denoted by (i, j). The system only knows two level (2) patterns, so the pattern in a given image need only identify this.

【0086】図9は本装置に入力される入力画像で、こ
の画像が、変換符号化部5及び量子化部6を経て、式
(13)の形式になる(ただし冗長な部分は削除され
る)。
FIG. 9 shows an input image which is input to the present apparatus, and this image passes through the transform coding section 5 and the quantizing section 6 and becomes the format of the equation (13) (however, the redundant part is deleted). ).

【0087】図7のパターンオートマトン71の一番上
のそのセルには、図8のΩ(0) に含まれる18個の符号
語に対する出現確率を記憶するバッファがあり、パター
ンオートマトン71の上から1層目の各セルは、自分が
受け持つ空間領域にある部分画像(入力画像の部分画
像)(本例では3×3の部分画像)と図8のΩ(0) に含
まれる18個の局所パターンとのマッチングを取り、そ
れに対応する符号語とそれぞれの出現確率を記憶する。
1層目のあるセルに対応する部分画像が得られていない
時には、1層目のセルは、全ての符号語に対して同じ出
現確率“1/18”を割り当てる。また、部分画像が局
所パターンの“1”か“2”であることがわかったとき
は、符号語1と符号語2の出現確率として“1/2”
を、その他の符号語の出現確率として“0”を記憶す
る。
In the cell at the top of the pattern automaton 71 of FIG. 7, there is a buffer for storing the appearance probabilities for the 18 codewords included in Ω (0) of FIG. Each cell in the first layer is a partial image (partial image of the input image) (3 × 3 partial image in this example) in the spatial area that it is responsible for, and 18 local areas included in Ω (0) in FIG. The pattern is matched and the corresponding codeword and the respective occurrence probabilities are stored.
When a partial image corresponding to a cell in the first layer is not obtained, the cell in the first layer assigns the same appearance probability “1/18” to all codewords. When it is found that the partial image has the local pattern “1” or “2”, the appearance probability of the code word 1 and the code word 2 is “1/2”.
, And “0” are stored as the appearance probabilities of other code words.

【0088】パターンオートマトン71の各セルは、図
8のΩ(1) に含まれる4つのパターンに対する符号語と
その出現確率を記憶する。ここでいうパターンとは、1
層目のセルの符号語の空間的配置を言う。即ち、1層目
のセルの符号語の局所的配置を、“1”から“4”まで
の数字で代表させる。2層目のセルの受け持つ部分空間
で1層目の符号語が“1”から“4”までのどの配置を
しているかは、式(22)を用いて計算される。式(2
2)の乗算は、本例では3×3個のパターンについて行
う。3層目のセルについても同様に、2つの符号語に対
する出現確率を式(22)を用いて計算する。
Each cell of the pattern automaton 71 stores code words and their appearance probabilities for the four patterns included in Ω (1) in FIG. The pattern here is 1
This is the spatial arrangement of the codewords of the cells in the layer. That is, the local arrangement of the code words of the cells in the first layer is represented by the numbers "1" to "4". Which of the arrangements of the code words of the first layer from “1” to “4” in the subspace which the cell of the second layer has is calculated by using Expression (22). Formula (2
The multiplication of 2) is performed for 3 × 3 patterns in this example. Similarly, with respect to the cells of the third layer, the appearance probabilities for the two codewords are calculated using the equation (22).

【0089】さて、初期のレベル(0)観測が座標(1
0,10)の位置で行われたとし、引き続く処理を順を
追って説明する。座標(10,10)は特徴点検出部に
より検出されたものとしてもよい。
Now, the initial level (0) observation is the coordinate (1
It is assumed that the processing is performed at the position of 0, 10), and the subsequent processing will be described step by step. The coordinates (10, 10) may be detected by the feature point detection unit.

【0090】(ステップS1)座標(10,10)のレ
ベル(0)観測によって得られた情報は、レベル(0)
パターンが“18”であるということであり、この情報
が“0”であることは容易にわかる。システムは現在自
分が観測している位置とレベル(2)パターンの相対的
位置との対応を付けるために、先ず現在の観測点付近で
のレベル(1)パターンを特定する必要がある。
(Step S1) The information obtained by the level (0) observation of the coordinates (10, 10) is the level (0).
It means that the pattern is "18", and it is easily understood that this information is "0". The system must first identify the level (1) pattern near the current observation point in order to associate the position currently observed by the system with the relative position of the level (2) pattern.

【0091】レベル(2)の観測を終了させるために
は、Ω(2) でのエントロピーを最小にしなければならな
い。即ち、T(Ω(i,j) (1),Ω(10,10) (2))を最大にす
るような観測点(i,j)を選択する。観測点の候補と
しては、{(16,10),(13,13),(10,
16),(16,16)}の4点が選ばれる。それぞれ
の点を観測したときの情報量の期待値は、 T(Ω(16,10) (1),Ω(10,10) (2))=0. 219, T(Ω(13,13) (1),Ω(10,10) (2))=0. 354, T(Ω(10,16) (1),Ω(10,10) (2))=0. 219, T(Ω(16,16) (1),Ω(10,10) (2))=0. 354. (26) となる。これより、距離の近い観測点を選ぶものとすれ
ば、次の観測点として(13,13)を選択する。距離
に関する条件はこれに限定はされない。
To end the observation of level (2), the entropy at Ω (2) must be minimized. That is, the observation point (i, j) that maximizes T (Ω (i, j) (1) , Ω (10,10) (2) ) is selected. The observation point candidates are {(16,10), (13,13), (10,
16), (16, 16)} are selected. The expected value of the amount of information when observing each point is T (Ω (16,10) (1) , Ω (10,10) (2) ) = 0.219 , T (Ω (13,13) (1) , Ω (10,10) (2) ) = 0.354 , T (Ω (10,16) (1) , Ω (10,10) (2) ) = 0.219, T (Ω ( 16,16) (1) , Ω (10,10) (2) ) = 0.354. (26) From this, if an observation point with a short distance is selected, (13, 13) is selected as the next observation point. The condition regarding the distance is not limited to this.

【0092】(ステップS2)座標(13,13)での
レベル(0)観測を行う。その結果レベル(0)パター
ン“14”を得る。これではまだ座標(13,13)を
中心とするレベル(1)パターンは特定されない。そこ
で、ステップS1と同様にして、座標(16,16)で
のレベル(0) 観測を行う。その結果レベル(0)パ
ターン“10”を得、これより、座標(13,13)を
中心とするレベル(1)パターンは“1”に特定され
る。再びレベル(2)のそれぞれの観測点における情報
量を計算する。観測点の候補はレベル(1)の座標(2
2,22)の1点である。即ち座標(22,22)での
レベル(2)パターンが“2”か“3”かを特定する。
そのための、レベル(0)の観測点候補の点を観測した
ときの情報量の期待値は、 T(Ω(19,19) (1),Ω(16,16) (2))=0. 171, T(Ω(25,19) (1),Ω(16,16) (2))=0. 171, T(Ω(22,22) (1),Ω(16,16) (2))=0. 585, T(Ω(19,25) (1),Ω(16,16) (2))=0. 171, T(Ω(25,25) (1),Ω(16,16) (2))=0. 585, これより次の観測点として距離の近い(22,22)を
選択する。
(Step S2) Level (0) observation is performed at coordinates (13, 13). As a result, the level (0) pattern “14” is obtained. This does not yet specify the level (1) pattern centered on the coordinate (13, 13). Therefore, similarly to step S1, level (0) observation at the coordinates (16, 16) is performed. As a result, the level (0) pattern "10" is obtained, and from this, the level (1) pattern centered on the coordinate (13, 13) is specified as "1". The amount of information at each observation point of level (2) is calculated again. Candidates for the observation points are the coordinates (2
2, 22). That is, it is specified whether the level (2) pattern at the coordinates (22, 22) is "2" or "3".
Therefore, the expected value of the amount of information when observing the level (0) candidate point is T (Ω (19,19) (1) , Ω (16,16) (2) ) = 0. 171, T (Ω (25,19) (1), Ω (16,16) (2)) = 0. 171, T (Ω (22,22) (1), Ω (16,16) (2) ) = 0.585, T (Ω (19,25) (1) , Ω (16,16) (2) ) = 0.171 , T (Ω (25,25) (1) , Ω (16,16 ) ) (2) ) = 0.585, from which the next observation point (22,22) is selected.

【0093】(ステップS3)座標(22,22)の観
測によって、レベル(0)パターン“17”が得られ
る。これより、この位置でのレベル(1)パターンが
“3”か“4”かであることがわかり、結局、与えられ
た入力信号は、レベル(2)パターンの“2”であるこ
とが認識できる。
(Step S3) The level (0) pattern "17" is obtained by observing the coordinates (22, 22). From this, it can be seen that the level (1) pattern at this position is "3" or "4", and in the end, it is recognized that the given input signal is "2" of the level (2) pattern. it can.

【0094】尚、上記具体例では、簡略化のために多重
解像度空間やその局所パターンを考慮していないが、多
重解像度空間やその局所パターンを考慮に入れても、処
理が複雑になるのみで同様の処理が可能である。多重解
像度空間やその局所パターンを考慮に入れることによ
り、光軸の制御に他にズーム制御等も可能となる。
In the above specific example, the multi-resolution space and its local pattern are not taken into consideration for simplification, but even if the multi-resolution space and its local pattern are taken into consideration, the processing becomes complicated. Similar processing is possible. By taking into consideration the multi-resolution space and its local pattern, zoom control and the like can be performed in addition to the control of the optical axis.

【0095】〔実施形態2〕実施形態2では、実施形態
1の確率オートマトン7を相互結合型ニューラルネット
(Hopfield-type NN)で実現した例を示す。これによ
って、入力パラメータ制御部208における処理も変わ
る。
[Second Embodiment] In the second embodiment, an example in which the stochastic automaton 7 of the first embodiment is realized by a mutual connection type neural network (Hopfield-type NN) will be described. As a result, the processing in the input parameter control unit 208 also changes.

【0096】図10は、本実施形態の視覚情報処理装置
の構成例を表すブロック図であり、レンズ系201,ア
レイセンサ202,2次元フィルタ203,特徴点検出
部204,変換符号化部205は、それぞれ、実施形態
1のレンズ系1,アレイセンサ2,2次元フィルタ3,
特徴点検出部4,変換符号化部5と同様である。
FIG. 10 is a block diagram showing an example of the configuration of the visual information processing apparatus according to this embodiment. The lens system 201, array sensor 202, two-dimensional filter 203, feature point detection unit 204, and transform coding unit 205 are , The lens system 1, the array sensor 2, the two-dimensional filter 3 of the first embodiment, respectively.
This is the same as the feature point detection unit 4 and the transform coding unit 5.

【0097】<量子化部206>図11に量子化部20
6の構成を示す。量子化部206には、代表ベクトルを
獲得するための学習モードと、入力信号を符号化するた
めの実行モードとがある。学習モードでの代表ベクトル
の獲得には、相関行列を用いる方法と、Kohonenによっ
て提案されている学習ベクトル量子化器を用いる方法が
ある。以下では、Kohonen の学習ベクトル量子化器によ
って、深さmの量子化器を構成する方法を説明する。
<Quantization Unit 206> The quantization unit 20 shown in FIG.
6 shows the configuration of No. 6. The quantizer 206 has a learning mode for acquiring a representative vector and an execution mode for encoding an input signal. There are two methods for obtaining the representative vector in the learning mode: a method using a correlation matrix and a method proposed by Kohonen using a learning vector quantizer. In the following, a method of constructing a quantizer of depth m by the Kohonen learning vector quantizer will be described.

【0098】(a)代表ベクトルの個数分のウェイトベ
クトルWn mを用意し、それぞれを小さい乱数によって初
期化する。
(A) Prepare weight vectors W n m for the number of representative vectors, and initialize each with a small random number.

【0099】(b)局所パターンXm とWn mとの内積を
出力する、ウェイトベクトルWn mと同数の演算素子(pr
ocessing element)PEn mを用意する。各PE間には2
次元距離が導入されており、PEの近傍半径Rを適当に
設定する。
(B) The same number of arithmetic elements (pr) as the weight vector W n m , which outputs the inner product of the local patterns X m and W n m.
ocessing element) PE n m is prepared. 2 between each PE
The dimension distance is introduced, and the neighborhood radius R of PE is set appropriately.

【0100】(c)入力される局所パターンXm に対し
て、最大値を出力するPEn m MAX を見つけ出し、PEn m
MAX との距離がRより小さいPEに対するウェイトベク
トルWn mを次式で修正する。
(C) For the input local pattern X m , PE n m MAX that outputs the maximum value is found, and PE n m is found.
The distance between the MAX modifies the weight vector W n m for R less than PE by the following equation.

【0101】Wn m←Wn m+ηW ( Xm −Wn m MAX ) ここでηW は定数である。ウェイトベクトルの修正とと
もにPE近傍半径Rを徐々に小さくしていく。
[0101] W n m ← W n m + η W (X m -W n m MAX) here η W is a constant. The radius R near the PE is gradually reduced as the weight vector is corrected.

【0102】このようにして、出現確率の高い局所パタ
ーンは、ウェイトベクトルとして学習ベクトル量子化器
に記憶される。局所パターンの符号化は、最大値を出力
するPEのインデックスとして与えられる。
In this way, the local pattern having a high appearance probability is stored in the learning vector quantizer as a weight vector. The coding of the local pattern is given as the index of the PE that outputs the maximum value.

【0103】量子化部206の実行モードでは、各特徴
点近傍の特徴ベクトルを、上記学習ベクトル量子化器に
入力し、そのときの{PEn mn のうち、出力が最大と
なる演算素子のインデックスを符号語とする。この処理
によって、全ての特徴点に適当な符号語の組が対応づけ
られる。
In the execution mode of the quantizing unit 206, the feature vector in the vicinity of each feature point is input to the above-mentioned learning vector quantizer, and among the {PE n m } n at that time, the arithmetic element with the maximum output The index of is the codeword. By this processing, all the feature points are associated with appropriate code word sets.

【0104】このようにして、与えられた画像は、特徴
点の位置座標と局所パターンの符号語との組として符号
化される。しかし、このような符号化は、空間的に隣接
する局所パターン間に強い相関が存在するという意味で
かなりの冗長性を含んでいる。量子化部206の代表ベ
クトルには、このような冗長性が含まれていないことが
望ましい。これら冗長性は、それぞれの代表ベクトル間
の同時出現確率を用いて削減することができる。
In this way, the given image is coded as a set of the position coordinates of the feature points and the code word of the local pattern. However, such coding involves considerable redundancy in the sense that there is a strong correlation between spatially adjacent local patterns. It is desirable that the representative vector of the quantizer 206 does not include such redundancy. These redundancies can be reduced by using the simultaneous appearance probability between the respective representative vectors.

【0105】<相互結合型ニューラルネット(Hopfield
-type neural network)207>図12に相互結合型ニ
ューラルネット207の構成を示す。図12中、パター
ンネット121は、画像入力データの幾何学的特徴及び
時間的相関に基づいて構築されるネットワークであり、
概念ネット122は、上記パターンネットの結果と他の
入力信号、例えば人間によるキーボードからの知識デー
タや他のセンサ信号等によって構築されるネットワーク
である。
<Mutually Connected Neural Net (Hopfield
-type neural network) 207> FIG. 12 shows the configuration of the mutual connection type neural network 207. In FIG. 12, a pattern net 121 is a network constructed on the basis of geometrical characteristics and temporal correlation of image input data,
The concept net 122 is a network constructed by the result of the pattern net and other input signals, for example, knowledge data from a keyboard by a human or other sensor signals.

【0106】ニューロン123は、多入力1出力の演算
素子であり、入力ベクトルxと出力値yとは、ウェイト
ベクトルwを用いて、 y=sgm(wT x) (28) という関係で結び付けられる。ただし、sgm(・)は
シグモイド関数である。ニューロンの出力値は、ニュー
ロンに対応するパターン或いは概念の出現確率を表して
いる。
The neuron 123 is a multi-input / single-output arithmetic element, and the input vector x and the output value y are connected using the weight vector w in the relation of y = sgm (w T x) (28). . However, sgm (•) is a sigmoid function. The output value of the neuron represents the appearance probability of the pattern or concept corresponding to the neuron.

【0107】124は互いに競合するニューロンの集合
としてのニューロン群であり、125はニューロンjと
ニューロンkとを結ぶウエイトWj,k である。ニューロ
ン群は形式的に階層構造をしており、更に各階層で複数
のブロックを形成している。(q)層rブロックのニュ
ーロン群をΩ(q):r 、(q+1)層vブロックのニュー
ロン群をΩ(q+1):v と書く。パターンネット121に属
するニューロン群は、多重解像度空間の対応する座標に
於ける局所パターン空間を表現している。パターンネッ
ト121には、初期状態として量子化部206からのデ
ータが設定される。
Reference numeral 124 is a neuron group as a set of neurons competing with each other, and 125 is a weight W j, k connecting the neuron j and the neuron k. The neuron group formally has a hierarchical structure, and each hierarchy forms a plurality of blocks. The neuron group of the (q) layer r block is written as Ω (q): r , and the neuron group of the (q + 1) layer v block is written as Ω (q + 1): v . The group of neurons belonging to the pattern net 121 expresses a local pattern space at corresponding coordinates in the multi-resolution space. Data from the quantization unit 206 is set in the pattern net 121 as an initial state.

【0108】上記構成のニューラルネット207の運動
は、次式で定義されるエネルギ関数に支配される。即
ち、各ブロックに属するニューロンの出力値をVm ∈Ω
(q):r,Vn ∈Ω(q+1):v と書けば、以下のように定義
できる:
The motion of the neural network 207 having the above structure is governed by the energy function defined by the following equation. That is, the output value of the neuron belonging to each block is V m εΩ
If we write (q): r , V n ∈Ω (q + 1): v, we can define as follows:

【0109】[0109]

【外7】 [Outside 7]

【0110】パターンネット121のウエイトは、学習
ベクトル量子化器に於けるウエイトと対応するので、学
習ベクトル量子化によるウエイトの値を利用することが
できるが、以下の方法でも獲得できる。
Since the weight of the pattern net 121 corresponds to the weight in the learning vector quantizer, the weight value obtained by the learning vector quantization can be used, but it can also be obtained by the following method.

【0111】パターンネット121及び概念ネット12
2のウエイトは以下のように獲得することができる。即
ち、式(29)を学習ポテンシャル関数と見做すことに
よって、ウエイトの修正量は、
The pattern net 121 and the concept net 12
The 2 weights can be obtained as follows. That is, by considering equation (29) as a learning potential function, the weight correction amount is

【0112】[0112]

【外8】 となる。[Outside 8] Becomes

【0113】<入力パラメータ制御部208>実施形態
1で説明した相互情報量は、相互結合型ニューラルネッ
トに対応させて、以下のように算出する。
<Input Parameter Control Unit 208> The mutual information amount described in the first embodiment is calculated as follows in correspondence with the mutual connection type neural network.

【0114】(a)相互結合型ニューラルネットの
(q)層rブロックのニューロンの集合Vm ∈Ω(q):r
と(q+1)層vブロックのニューロンの集合Vn ∈Ω
(q+1):vとを結ぶコネクションの集合Wm nに関するエン
トロピーε(q):r (q+1):vを、
(A) A set of neurons in the (q) layer r block of the mutual connection type neural network V m ∈Ω (q): r
And the set of neurons in the (q + 1) -layer v block V n ∈Ω
The entropy ε (q): r (q + 1): v of the set W m n of connections connecting (q + 1): v with

【0115】[0115]

【外9】 により計算する。ここで、[Outside 9] Calculate by here,

【0116】[0116]

【外10】 は、学習モードで計算される値なので、入力パラメータ
算出過程では既知として扱ってよい。
[Outside 10] Is a value calculated in the learning mode, and may be treated as a known value in the input parameter calculation process.

【0117】(b)相互結合型ニューラルネットの、
(q)層rブロックのニューロンの集合Vm ∈Ω(q):r
に対して、エントロピーε(q):r を、
(B) Mutually connected neural network
(Q) Layer r block neuron set V m ∈Ω (q): r
For entropy ε (q): r ,

【0118】[0118]

【外10】 により計算する。[Outside 10] Calculate by

【0119】(c)ε(q):r (q+1):vとε(q):r より、以
下のように式(25)と同様の値を得る。
(C) From ε (q): r (q + 1): v and ε (q): r , the same value as in the equation (25) is obtained as follows.

【0120】 T(ε(q),T+1,p(ω;AT (q+1)))=−ε(q):r (q+1):v+ε(q):r (33)T (ε (q), T + 1 , p (ω; A T (q + 1) )) = − ε (q): r (q + 1): v + ε (q): r (33 )

【0121】〔実施形態3〕実施形態3では、本実施形
態の視覚情報処理装置の監視装置への応用例を示す。
[Third Embodiment] In the third embodiment, an example of application of the visual information processing device of the present embodiment to a monitoring device will be described.

【0122】図13は、本実施形態の監視装置の構成例
を表すブロック図であり、レンズ系301,アレイセン
サ302,2次元フィルタ303は、実施形態1のレン
ズ系1,アレイセンサ2,2次元フィルタ3と同様であ
る。
FIG. 13 is a block diagram showing a configuration example of the monitoring apparatus of this embodiment. The lens system 301, the array sensor 302, and the two-dimensional filter 303 are the lens system 1, the array sensor 2, and the array sensor 2 of the first embodiment. It is similar to the dimensional filter 3.

【0123】<特徴点検出部304>特徴点検出部30
4では、2次元フィルタ303による空間的配置に関す
る特徴点のみならず、画像データの時間的変化の極値も
特徴点として検出する。監視装置は、店内やオフィス内
等のように、通常動くものが殆ど存在しない場所に設置
される。異変が無ければ画像データは変化しないので、
変化する場所だけを詳しく観測すればよい。これによっ
て、監視情報の録画時間が大幅に長くできる。
<Characteristic point detection unit 304> Characteristic point detection unit 30
In No. 4, not only the feature points related to the spatial arrangement by the two-dimensional filter 303 but also the extreme value of the temporal change of the image data are detected as the feature points. The monitoring device is installed in a place where there is almost nothing that normally moves, such as in a store or office. If there is no change, the image data will not change, so
Only the changing places need to be observed in detail. This can significantly lengthen the recording time of the monitoring information.

【0124】このような意味から、画像データの時間変
化は重要な特徴である。運動する物体を捕捉するために
は、フィードバック制御の時間遅れをできるだけ小さく
したい。特徴点検出部304には、検出した特徴点位置
に光軸を向ける光軸制御量を計算し、入力パラメータ制
御部308に送る機能も有する。このような機能によっ
て、運動物体のセンサ上での像は静止画像として処理で
きる。
From such a meaning, the temporal change of image data is an important feature. In order to capture a moving object, we want to minimize the time delay of feedback control. The feature point detection unit 304 also has a function of calculating the optical axis control amount for directing the optical axis to the detected feature point position and sending it to the input parameter control unit 308. With such a function, the image of the moving object on the sensor can be processed as a still image.

【0125】<変換符号化部305>捕捉した運動物体
に関する画像データを符号化する。この符号化データ
は、通信回線或いはバスライン等を通じて、外部記憶装
置309に記憶される。
<Transform Encoding Unit 305> Encodes image data relating to the captured moving object. This encoded data is stored in the external storage device 309 via a communication line, a bus line, or the like.

【0126】<量子化部306>捕捉した物体の符号化
データは、即座に適当な符号語に割り当てられる。従っ
て、以後これらの物体が画像上に現れたときには、それ
らは位置と、対応する符号語とで表現される。
<Quantizer 306> The coded data of the captured object is immediately assigned to an appropriate codeword. Therefore, when these objects subsequently appear on the image, they are represented by a position and a corresponding codeword.

【0127】<確率オートマトン307>捕捉した物体
の符号化データは、即座に確率オートマトン307の状
態遷移確率行列に反映される。ある限定された周波数領
域の強度を知ることによって、その周波数強度関数を含
む物体を推定することができる。これによって、一度捕
捉した物体の位置は、光軸を合わせた高解像度のデータ
は必要なく広角レンズの任意の部分で観測すればよい。
即ち光軸を制御する必要がない。監視領域に複数の物体
が現れた場合でも、それらを1度だけ順々に観測すれば
良い。
<Probability Automata 307> The coded data of the captured object is immediately reflected in the state transition probability matrix of the probability automaton 307. By knowing the strength of a limited frequency domain, an object containing that frequency strength function can be estimated. As a result, the position of the object once captured does not need high-resolution data with the optical axis aligned, and may be observed with any part of the wide-angle lens.
That is, there is no need to control the optical axis. Even if a plurality of objects appear in the monitoring area, they may be observed only once in order.

【0128】<入力パラメータ制御部308>特徴点選
択の評価基準としては、特徴点における2次元フィルタ
出力値と、時間変化量、そして、相互情報量の線型結合
を採用する。
<Input Parameter Control Unit 308> As an evaluation criterion for selecting a feature point, a linear combination of a two-dimensional filter output value at a feature point, a time change amount, and a mutual information amount is adopted.

【0129】運動する物体に対しては、それが現れた時
刻に光軸中心で観測することとし、あとはその物体を光
軸中心で捕捉することはしないという基準を設ければ、
より効率的な監視装置が可能になる。
With respect to a moving object, if the standard is set such that it is observed at the center of the optical axis at the time when it appears and that the object is not captured at the center of the optical axis thereafter,
A more efficient monitoring device is possible.

【0130】<外部記憶部309>各種データを記憶す
る。監視装置は、最初に正常な状態の画像データを記憶
する。以後は、時間的に変化した部分だけを記憶する。
記憶されるデータは、捕捉した物体の符号化データと捕
捉した時刻、それらの位置の時間変化(軌跡)である。
このような記憶形態によって、記憶するデータ量を大幅
に減少させられるため、長時間の録画が可能となる。
<External Storage 309> Stores various data. The monitoring device first stores the image data in a normal state. After that, only the part that changes with time is stored.
The stored data is the coded data of the captured object, the captured time, and the temporal changes (trajectory) of their positions.
With such a storage form, the amount of data to be stored can be greatly reduced, and thus recording for a long time becomes possible.

【0131】<監視装置の動作例>上記のように構成さ
れる監視装置の実際の動きを、図14のフローチャート
に従って説明する。
<Operation Example of Monitoring Device> The actual operation of the monitoring device configured as described above will be described with reference to the flowchart of FIG.

【0132】まず、ステップS11で、設置された場所
の初期画像を記憶部309に記憶する。
First, in step S11, the initial image of the installed place is stored in the storage unit 309.

【0133】次に、ステップS12で、式(24)によ
って特徴点の評価を行う。式(24)から明らかなよう
に、評価値が大きくなる特徴点とは、その近傍の画素値
の時間変化量が大きいか、得られる情報が大きいかであ
る。上記2つの項目の評価値が等しい特徴点が複数存在
した場合でも、それらのうち、光軸に最も近いものが選
ばれるように、式(24)は定義されている。
Next, in step S12, the characteristic points are evaluated by the equation (24). As is clear from the equation (24), the feature point having a large evaluation value is whether the temporal change amount of the pixel values in the vicinity thereof is large or the obtained information is large. Even when there are a plurality of feature points having the same evaluation value of the above two items, the equation (24) is defined so that the one closest to the optical axis is selected from them.

【0134】ステップS13では、特徴点のうち、評価
値があるしきい値αより大きいものが存在する場合は、
ステップS16へ行く。
In step S13, if there is a feature point whose evaluation value is larger than a certain threshold value α,
Go to step S16.

【0135】ステップS14で、全ての特徴点の時間変
化量があるしきい値βより小さい場合には、ステップS
12へ戻る。
If it is determined in step S14 that the amount of change over time of all feature points is smaller than a certain threshold β, step S14.
Return to 12.

【0136】ステップS15では、特徴点のうち、時間
変化量があるしきい値βを越えるものは、その特徴点に
対応する符号語ベクトル(不完全でよい)をもとに、後
述の物体に関する完全な記述を用いてそこに存在する物
体を同定し、現在の時刻と特徴点の座標と物体に対応す
る符号語とを組にして、記憶部309に記憶し、ステッ
プS12へ戻る。
In step S15, among the feature points, those whose amount of change over time exceeds a certain threshold value β are related to an object described later based on the codeword vector (which may be incomplete) corresponding to the feature point. The object existing there is identified using the complete description, the current time, the coordinates of the feature point, and the code word corresponding to the object are paired and stored in the storage unit 309, and the process returns to step S12.

【0137】ステップS16では、選択された特徴点に
光軸を一致させる。
In step S16, the optical axis is made to coincide with the selected feature point.

【0138】ステップS17において、特徴点近傍に存
在する物体の完全な記述(符号語の組)を獲得し、適当
な番号を割当てる。物体に割り立てられた番号と、符号
語の組と、時刻と、特徴点座標とを組にして記憶部30
9に記憶する。ステップS12に戻る。
In step S17, a complete description (codeword set) of the object existing in the vicinity of the feature point is obtained, and an appropriate number is assigned. The storage unit 30 combines the number assigned to the object, the set of code words, the time, and the feature point coordinates as a set.
Store in 9. It returns to step S12.

【0139】前記ステップS15への移行は、特徴点付
近の測定データをもとに、それが高い信頼性をもって以
前に観測し詳細なデータを記憶したデータであると推定
できる場合に相当する。従って、本実施形態の監視装置
は、誰かが店内に入ってきた時だけ詳細な観測を行ない
(S16,S17)、それ以降はその人の位置情報のみ
を記憶するという処理を行う(S15)。
The shift to step S15 corresponds to the case where, based on the measurement data in the vicinity of the feature point, it can be estimated with high reliability that the data was previously observed and stored as detailed data. Therefore, the monitoring device of the present embodiment performs detailed observation only when someone enters the store (S16, S17) and thereafter stores only the position information of that person (S15).

【0140】このような監視装置を用いれば、動画像を
そのまま記憶するよりはるかに少ない容量の記憶装置
で、長時間の監視が可能となる。例えば1枚の画像が2
60Kバイト(512×512画素で1画素が1バイ
ト)のとき、108,000枚の画像列(30枚/秒で
1時間)を記憶するためには、28Gバイトが必要にな
る。本実施形態によれば、例えば運動物体(店内であれ
ば客)が常時100個あったとして、それぞれの物体の
完全な記述に1画面分(260Kバイト)を要したとし
ても、1時間の記憶に必要な容量は、初期画像の記憶に
0. 26Mバイト、物体の記述に26Mバイト、物体
の軌跡に1. 728Mバイト(ただし特徴点の位置を
倍精度の2次元座標で記述して)の和、即ち28Mバイ
トで済む。実際には、店内に常時100人もいるような
状況は考えにくいし、物体の記述で使う容量も画像全体
を記憶する容量よりは小さい。例えば店内にいる物体が
10個に減っただけでも、1時間の記憶に要する容量は
3Mバイトまで激減する。
By using such a monitoring device, it is possible to monitor for a long time with a storage device having a capacity much smaller than that of storing a moving image as it is. For example, one image is 2
In the case of 60 Kbytes (512 × 512 pixels, 1 pixel is 1 byte), 28 Gbytes are required to store 108,000 image columns (30 images / sec for 1 hour). According to the present embodiment, for example, assuming that there are always 100 moving objects (customers in a store), even if one screen (260 Kbytes) is required to completely describe each object, one hour of storage is required. The required capacity is 0. 26 MB, 26 MB for the description of the object, 1. The sum is 728 Mbytes (however, the position of the feature point is described in double-precision two-dimensional coordinates), that is, 28 Mbytes. In reality, it is unlikely that there will be 100 people in the store all the time, and the capacity used to describe an object is smaller than the capacity that stores the entire image. For example, even if the number of objects in the store is reduced to 10, the capacity required for storing one hour is drastically reduced to 3 Mbytes.

【0141】〔実施形態4〕実施形態4では、実施形態
1の量子化部6を学習局所ベクトル量子化器で、確率オ
ートマトン7を対称結合型ニューラルネット群で、それ
ぞれ実現するとともに、外部から信号を入力する信号入
力部と、外部へ信号を出力する信号出力部とを設けた例
を示す。これによって、入力パラメータ制御部における
処理も変わる。
[Fourth Embodiment] In the fourth embodiment, the quantizing unit 6 of the first embodiment is realized by a learning local vector quantizer, the probability automaton 7 is realized by a symmetric connection type neural network group, and a signal from the outside is realized. An example in which a signal input unit for inputting a signal and a signal output unit for outputting a signal to the outside are provided is shown. This also changes the processing in the input parameter control unit.

【0142】図15は、本実施形態の視覚情報処理装置
の構成例を表すブロック図であり、画像入力部401
は、実施形態1のレンズ系1及びアレイセンサ2と同様
のレンズ系及びアレイセンサを備えている。2次元フィ
ルタ403,特徴点検出部404,変換符号化部405
は、それぞれ、実施形態1の2次元フィルタ3,特徴点
検出部4,変換符号化部5と同様である。
FIG. 15 is a block diagram showing an example of the arrangement of the visual information processing apparatus according to this embodiment, which is an image input section 401.
Includes a lens system and an array sensor similar to the lens system 1 and the array sensor 2 of the first embodiment. Two-dimensional filter 403, feature point detection unit 404, transform coding unit 405
Are the same as the two-dimensional filter 3, the feature point detection unit 4, and the transform coding unit 5 of the first embodiment, respectively.

【0143】<量子化部406>図16に、量子化部4
06となる学習局所ベクトル量子化器(LLVQ)の構
成を示す。LLVQには、代表ベクトルを獲得するため
の学習モードと、入力信号を符号化するための実行モー
ドとがある。学習モードでの代表ベクトルの獲得には、
相関行列を用いる方法と、Kohonen によって提案されて
いる学習ベクトル量子化器を用いる方法がある。以下で
は、Kohonen の学習ベクトル量子化器によって、深さm
の量子化器を構成する方法を説明する。
<Quantization Unit 406> FIG. 16 shows the quantization unit 4
The configuration of the learning local vector quantizer (LLVQ) that becomes 06 is shown. LLVQ has a learning mode for obtaining a representative vector and an execution mode for encoding an input signal. To acquire the representative vector in learning mode,
There are a method using a correlation matrix and a method using a learning vector quantizer proposed by Kohonen. In the following, with the learning vector quantizer of Kohonen, the depth m
The method of constructing the quantizer of is described.

【0144】(a)ウェイト記憶部162は予め定めら
れた個数だけ用意されており、あるカテゴリnに属する
代表ベクトルWn を記憶する。図16は、代表ベクトル
が2個の場合を示している。
(A) The weight storage units 162 are prepared in a predetermined number and store representative vectors W n belonging to a certain category n. FIG. 16 shows a case where there are two representative vectors.

【0145】(b)ウェイト更新部163は、ウェイト
記憶部162毎に設けられており、2値化部164から
送信される信号が1の時に限り、ウェイト記憶部162
に記憶されたウェイトの値を次式(34)に従って更新す
る。
(B) The weight updating unit 163 is provided for each weight storage unit 162, and the weight storage unit 162 is provided only when the signal transmitted from the binarization unit 164 is 1.
The weight value stored in is updated according to the following equation (34).

【0146】 Wn m←Wn m+ηW(Wn m−Xm) (34)[0146] W n m ← W n m + η W (W n m -X m) (34)

【0147】(c)内積計算部161は、入力信号Xと
との内積を計算して2値化部164に送信する。
(C) The inner product calculation unit 161 calculates the inner product of the input signals X and W n and sends it to the binarization unit 164.

【0148】(d)2値化部164は、複数の内積計算
部161の出力信号を受け取り、それらの内で最大値を
取る出力値を1に、他を0に変換する。変換された信号
(2値信号)は、それぞれ対応するウェイト記憶更新部
163に送信される。また、これらの2値信号の組が対
称結合型ニューラルネット群406に送信される。
(D) The binarization unit 164 receives the output signals of the plurality of inner product calculation units 161, and converts the output value having the maximum value into 1 and the others into 0. The converted signals (binary signals) are transmitted to the corresponding weight storage update units 163. In addition, a set of these binary signals is transmitted to the symmetrical connection type neural network group 406.

【0149】このようにして、与えられた画像は、特徴
点の位置座標と局所パターンの符号語との組として符号
化される。しかし、このような符号化は、空間的に隣接
する局所パターン間に強い相関が存在するという意味で
かなりの冗長性を含んでいる。量子化部405の代表ベ
クトルには、このような冗長性が含まれていないことが
望ましい。これら冗長性は、それぞれの代表ベクトル間
の同時出現確率を用いて削減することができる。
In this way, the given image is encoded as a set of the position coordinates of the feature points and the code word of the local pattern. However, such coding involves considerable redundancy in the sense that there is a strong correlation between spatially adjacent local patterns. It is desirable that the representative vector of the quantizer 405 does not include such redundancy. These redundancies can be reduced by using the simultaneous appearance probability between the respective representative vectors.

【0150】<対称結合型ニューラルネット群406>
図17に対称結合型ニューラルネット群406の構成を
示す。対称結合型ニューラルネット群406は、互いに
信号を送信し合う複数の対称結合型ニューラルネットに
より構成され、各対称結合型ニューラルネットは、他の
対称結合型ニューラルネット、量子化部405、あるい
は信号入力部408から信号を受け取り、他の対称結合
型ニューラルネット、入力パラメータ制御部407、あ
るいは信号出力部409へ入力信号の処理結果を出力す
る。
<Symmetrically Connected Neural Net Group 406>
FIG. 17 shows the configuration of the symmetrical connection type neural network group 406. The symmetric connection type neural net group 406 is configured by a plurality of symmetric connection type neural nets that transmit signals to each other, and each symmetric connection type neural network is another symmetric connection type neural network, the quantizing unit 405, or a signal input. The signal is received from the unit 408, and the processing result of the input signal is output to another symmetrical connection type neural network, the input parameter control unit 407, or the signal output unit 409.

【0151】図18に1つの対称結合型ニューラルネッ
トの構成を示す。図18中、対象結合型ニューラルネッ
ト状態更新部171は、多入力1出力で非線形入出力関
数としてシグモイド関数を持つニューロンが、ウェイト
を介して互いに対象に結合している。ニューロンは少な
くとも2つのブロックを形成しており、そのうちの1つ
は出力ブロック、残りはすべて入力ブロックである。出
力ブロックのニューロンの出力値の組は出力信号(ベク
トル)となり、入力ブロックに属するニューロンは、他
の対称結合型ニューラルネット、量子化部405、ある
いは信号入力部408から信号を受け取る。
FIG. 18 shows the structure of one symmetric connection type neural network. In FIG. 18, in the target connection type neural network state updating unit 171, neurons having multiple inputs and one output and having a sigmoid function as a nonlinear input / output function are connected to each other via weights. A neuron forms at least two blocks, one of which is an output block and the rest are all input blocks. The set of output values of the neurons of the output block becomes an output signal (vector), and the neuron belonging to the input block receives a signal from another symmetric connection type neural network, the quantization unit 405, or the signal input unit 408.

【0152】上記構成のニューラルネット207の運動
は、次式で定義されるエネルギ関数に支配される。即
ち、各出力ブロックに属するニューロンの出力値をV
n 、任意の1つの入力ブロックに属するニューロンの出
力値をVm 、入力値をIm 、これらのニューロン間のウ
ェイトをWm,n と書けば、これらに対するエネルギー関
数Hを次式(35)のように定義できる:
The motion of the neural network 207 having the above structure is governed by the energy function defined by the following equation. That is, the output value of the neuron belonging to each output block is V
n, an output value V m of neurons belonging to any one of the input block, an input value I m, to write the weight between these neurons W m, and n, the following equation energy function H to these (35) Can be defined as:

【0153】[0153]

【外12】 [Outside 12]

【0154】ウエイト更新部172は、例えば、次式(3
0)のウエイト更新規則に基づいて、ニューラルネットの
ウェイトを更新する。
The weight updating unit 172 uses, for example, the following equation (3
The weight of the neural network is updated based on the weight update rule of 0).

【0155】[0155]

【外13】 ウェイト記憶部173は、ウエイト更新部172で更新
されたウェイトを記憶する。
[Outside 13] The weight storage unit 173 stores the weight updated by the weight update unit 172.

【0156】第1情報量計算部174は、出力ブロック
に属するニューロンの出力値Vn に基づく第1情報量ε
1 を以下のように計算する。
The first information amount calculation unit 174 calculates the first information amount ε based on the output value V n of the neuron belonging to the output block.
Calculate 1 as follows:

【0157】[0157]

【外14】 第2情報量計算部175は、出力ブロックに属するニュ
ーロンの出力値Vn 、入力ブロックに属するニューロン
の出力値Vm 、これらのニューロン間のウェイトをW
m,n に基づく第2情報量ε2 を以下のように計算する。
[Outside 14] The second information amount calculation unit 175 sets the output value V n of the neuron belonging to the output block, the output value V m of the neuron belonging to the input block, and the weight between these neurons to W.
The second information amount ε 2 based on m, n is calculated as follows.

【0158】[0158]

【外15】 ここで、[Outside 15] here,

【0159】[0159]

【外16】 は学習モードで計算される値なので、入力パラメータ算
出過程では、既知の値として扱ってよい。
[Outside 16] Since is a value calculated in the learning mode, it may be treated as a known value in the input parameter calculation process.

【0160】第3情報量計算部176は、第1情報量ε
1 及び第2情報量ε2 から第3情報量Tを以下のように
計算する。
The third information amount calculation unit 176 calculates the first information amount ε.
The third information amount T is calculated from 1 and the second information amount ε 2 as follows.

【0161】 T=−ε2 +ε1 (39)T = −ε 2 + ε 1 (39)

【0162】<入力パラメータ制御部407>入力パラ
メータ制御部407は、特徴点検出部403からの特徴
点の座標及び対称結合型ニューラルネット群406の状
態値に基づいて、画像入力部401に対して、レンズの
光軸方向やズーミング等のための入力パラメータ制御信
号を出力する。
<Input Parameter Control Unit 407> The input parameter control unit 407 instructs the image input unit 401 based on the coordinates of the feature points from the feature point detection unit 403 and the state value of the symmetric connection type neural network group 406. , Outputs an input parameter control signal for the optical axis direction of the lens, zooming, and the like.

【0163】例えば、光軸方向の制御は、特徴点検出部
403で検出された特徴点の集合のうちのどの特徴点を
選択するかで決まる。この選択基準を、例えば次式(40)
で定義する。
For example, the control of the optical axis direction is determined by which feature point is selected from the set of feature points detected by the feature point detecting section 403. This selection criterion is, for example, the following formula (40)
Defined by

【0164】 Lj =L(ωj,Tjj) (40) ここで、ωj はj番目の特徴点近傍における正規化され
た2次元フィルタの出力値、Tj はj番目の特徴点近傍
の第3情報量、ρj は現在の光軸からj番目の特徴点ま
での距離である。
L j = L (ω j , T j , ρ j ) (40) where ω j is the output value of the normalized two-dimensional filter near the j-th feature point, and T j is the j-th The third amount of information near the feature point, ρ j, is the distance from the current optical axis to the j-th feature point.

【0165】また、信号入力部408は、他の装置など
からの入力信号、例えば人間によるキーボードからの知
識データや他のセンサ信号等を入力する。信号出力部4
09は、対称結合型ニューラルネット群406の出力信
号を、視覚情報処理装置の入力パラメータ制御部407
以外の他のユニット、あるいは他の装置に出力する。
Further, the signal input unit 408 inputs an input signal from another device or the like, for example, knowledge data by a human from a keyboard or another sensor signal. Signal output unit 4
Reference numeral 09 designates an output signal of the symmetric connection type neural network group 406 as an input parameter control unit 407 of the visual information processing device.
Other unit other than, or output to other devices.

【0166】このように、更に他の装置と組み合わせる
ことによって、上記本実施形態の視覚情報処理装置は、
種々の特徴ある使用が可能である。
As described above, by combining with another device, the visual information processing device of the present embodiment is
Various characteristic uses are possible.

【0167】例えば、無線信号装置や有線信号装置と組
み合わせて、人間の顔を観測しているときに、有線信号
あるいは無線信号によってその人の名前を入力すれば、
顔の画像データと名前とを関連付けて記憶することがで
きる。これは、画像にタグをつけるという意味では、人
間の顔に限らない。さらに、音声信号入力装置と組み合
わせて、音声信号と関連づけることによって、画像の認
識精度が向上する。
For example, in combination with a wireless signal device or a wired signal device, when observing a human face, if the person's name is input by a wired signal or a wireless signal,
Face image data and a name can be stored in association with each other. This is not limited to human faces in the sense of tagging images. Furthermore, by associating with a voice signal in combination with a voice signal input device, the recognition accuracy of an image is improved.

【0168】音声信号入力装置や音声信号処理装置は、
特に人間の音声に限るものではなく超音波であっても構
わない。この場合には、超音波センサによって周囲の物
体までの距離情報が得られるので、視覚情報と距離情報
とを用いて自律走行ロボットを構成することができる。
The audio signal input device and the audio signal processing device are
In particular, it is not limited to human voice, and ultrasonic waves may be used. In this case, since the ultrasonic sensor can obtain the distance information to the surrounding object, the autonomous traveling robot can be configured using the visual information and the distance information.

【0169】無線信号装置や無線信号処理装置は、複数
の自律走行ロボット、あるいは複数の監視装置間の通信
に利用することができる。例えば、建物の内部が1台の
監視装置では監視できないような場合を考える。監視装
置jが移動物体を検出し、その詳細な観測を行ったとす
る。この移動物体が、監視装置jの観測可能領域を出て
今まさに監視装置kの観測可能領域に進入しようとして
いる時、監視装置jが監視装置kに、“今、監視装置j
の観測可能領域から監視装置kの観測可能領域に進入し
た移動物体の詳細なデータは、監視装置jが獲得してい
る”という情報を監視装置kに送信すれば、監視装置k
では、この移動物体の詳細な観測を行わなくて済む。こ
れは、記憶データ量及び監視装置の仕事量の軽減に有効
である。
The wireless signal device and the wireless signal processing device can be used for communication between a plurality of autonomous traveling robots or a plurality of monitoring devices. For example, consider a case where the inside of a building cannot be monitored by a single monitoring device. It is assumed that the monitoring device j detects a moving object and makes a detailed observation thereof. When this moving object leaves the observable region of the monitoring device j and is about to enter the observable region of the monitoring device k, the monitoring device j tells the monitoring device k, “Now, the monitoring device j.
Detailed data of a moving object that has entered the observable region of the monitoring device k from the observing region of the monitoring device k is acquired by the monitoring device j.
Then, it is not necessary to perform detailed observation of this moving object. This is effective in reducing the amount of stored data and the work of the monitoring device.

【0170】更に、例えば工場内で部品などを運搬する
走行ロボットと組み合わせれば、環境に柔軟に対応する
走行ロボットが実現できる。又、音声信号出力装置との
組み合わせもできる。
Furthermore, when combined with a traveling robot for transporting parts and the like in a factory, for example, a traveling robot flexibly adapting to the environment can be realized. It can also be combined with an audio signal output device.

【0171】以上説明した実施形態によれば、高速に最
適な視覚情報を獲得できる画像情報処理方法及びその装
置、並びにその制御方法を提供でき、その装置を有効に
適用した各種装置をも提供できる。
According to the embodiments described above, it is possible to provide an image information processing method and an apparatus therefor capable of acquiring optimal visual information at high speed, and a control method therefor, and it is also possible to provide various apparatuses to which the apparatus is effectively applied. .

【0172】更に詳細には、 1.何らかの原因で、引き続く画像入力が困難になった
場合でも、もっとも出現確率の高い結果を得ることがで
きる。更にこれらを並列処理で行なうことができるた
め、処理時間が大幅に短縮できる。更に、相互結合型ニ
ューラルネットワークによって実現しているため、状態
遷移規則が単純になり、処理時間の更なる向上が見込め
る。
More specifically, 1. Even if the subsequent image input becomes difficult for some reason, the result with the highest appearance probability can be obtained. Furthermore, since these can be performed in parallel, the processing time can be greatly reduced. Furthermore, since it is realized by the mutual connection type neural network, the state transition rule is simplified and the processing time can be expected to be further improved.

【0173】2.画像の特徴点集合は有限個の点の集合
であることが望ましい。しかし、従来の技術で特徴量と
して広く用いられているエッジは連続的であり、これを
もとに有限個の点集合を得るためには、何らかの後処
理、例えばエッジの強度に対する2値化処理が必要とな
る。本発明によれば、孤立点として特異点を得ることが
できる。また、変換符号化部と量子化部と知識獲得部と
によって、センサ入力と知識データとを統一的に取り扱
うことができ、これによって、複雑な視覚パターンで構
成される環境の認識に応用することができる。
2. The feature point set of the image is preferably a finite set of points. However, edges that are widely used as feature quantities in the conventional technique are continuous, and in order to obtain a finite number of point sets based on this, some kind of post-processing, such as binarization processing for edge strength, is performed. Is required. According to the present invention, a singular point can be obtained as an isolated point. Further, the transform coding unit, the quantization unit, and the knowledge acquisition unit can handle the sensor input and the knowledge data in a unified manner, and thus can be applied to the recognition of an environment composed of complicated visual patterns. You can

【0174】3.2次元フィルタとしてLaplaci
an−Gussian フィルタを用いることによっ
て、環境の視覚情報を、多重解像度空間の部分領域上の
変換が近似的に実現できる。光軸の方向を適当に制御す
れば、画像、或いは環境の部分領域に対する多重解像度
空間での記述を近似的に得ることができる。2次元フィ
ルタとして単なる平均化処理を用いれば、画像或いは環
境の部分領域に対する多重解像度近似での記述を得るこ
とができる。このように、2次元フィルタの核として多
重解像度空間で用いられるものを利用すれば、それに対
応した多重解像空間が得られる。これは、環境の視覚情
報が多重解像度空間の部分領域を覆うような場合に、有
効なセンシング方法である。
Laplaci as a two-dimensional filter
By using the an-Gussian filter, the visual information of the environment can be approximately converted on the partial region of the multi-resolution space. By appropriately controlling the direction of the optical axis, a description in a multi-resolution space for an image or a partial region of the environment can be approximately obtained. If a simple averaging process is used as the two-dimensional filter, it is possible to obtain a description in a multi-resolution approximation for a partial region of an image or environment. In this way, by using the one used in the multi-resolution space as the core of the two-dimensional filter, a multi-resolution space corresponding to it can be obtained. This is an effective sensing method when the visual information of the environment covers a partial area of the multi-resolution space.

【0175】4.フィードフォワード型ニューラルネッ
トによって、相互結合型ニューラルネットより高速なフ
ィードフォワード制御が可能となる。
4. The feedforward type neural network enables faster feedforward control than the mutual connection type neural network.

【0176】5.特徴量空間として多重解像度空間を採
用し、そこでの局所パターンに着目することによって、
環境内に存在する物体の特定の運動に対する不変量を得
ることができる。例えば、光軸に沿う運動は、物体の特
徴量をスケール軸に沿って平行移動させるだけである。
5. By adopting a multi-resolution space as a feature space and focusing on the local pattern there,
It is possible to obtain an invariant for a specific movement of an object existing in the environment. For example, movement along the optical axis only translates the feature quantity of the object along the scale axis.

【0177】6.音声信号入力装置と音声信号処理装置
と組み合せることによって、音声による人間からのコマ
ンドの送信、或いは音による障害物の同定等が可能にな
り、無線信号通信装置と無線信号処理装置、或いは有線
信号通信装置と有線信号処理装置と組み合せることによ
って、他のコンピュータとのコマンドの送受信、或いは
他の視覚情報処理装置との情報の送受信が可能となり、
知識獲得部によって、該音声信号,該無線信号及び該有
線信号をもとに入力パラメータ制御を行うことができ、
単一の信号だけでは認識できなかった物体が認識できる
ようになる。また、他の視覚情報処理装置の知識データ
を受信することによって、学習モードに要する時間を短
縮することができる。
6. By combining a voice signal input device and a voice signal processing device, it becomes possible to send commands from humans by voice, or to identify obstacles by sound, etc., and to use a wireless signal communication device and a wireless signal processing device, or a wired signal. By combining the communication device and the wired signal processing device, it becomes possible to send and receive commands with other computers, or send and receive information with other visual information processing devices,
The knowledge acquisition unit can perform input parameter control based on the voice signal, the wireless signal, and the wired signal,
Objects that could not be recognized with only a single signal can be recognized. Further, by receiving the knowledge data of another visual information processing device, the time required for the learning mode can be shortened.

【0178】7.作業用工具と該作業用工具制御装置と
組み合せることによって、外界の状態に適応した作業を
行うことができ、作業の遂行の仕方が環境に大きく依存
するような場合に有効に動作する自律作業ロボットによ
る共同作業が可能となる。
7. By combining a work tool and the work tool control device, it is possible to perform a work that is adapted to the external environment, and an autonomous work that effectively operates when the way of performing the work largely depends on the environment. Allows for collaborative work by robots.

【0179】8.音声信号出力装置と組み合せることに
よって、周囲の人間に自分の状態を知らせることがで
き、人間との共同作業にも対応するような自律作業ロボ
ットを構成できる。
8. By combining with an audio signal output device, it is possible to configure an autonomous work robot that can inform surrounding people of its own state and can also work in collaboration with humans.

【0180】以上説明した本発明は、複数の機器から構
成されるシステムに適用しても、システム内の特定の機
器に適用しても良い。また、本発明は、この機器がプロ
グラムを実行することによって達成される場合に適用で
き、このプログラムは外部の記憶媒体から供給してもよ
く、このプログラムを記憶する記憶媒体も、本発明の範
囲にある。
The present invention described above may be applied to a system composed of a plurality of devices or to a specific device within the system. Further, the present invention can be applied when this device is achieved by executing a program, and the program may be supplied from an external storage medium, and the storage medium storing the program is also within the scope of the present invention. It is in.

【0181】[0181]

【発明の効果】以上説明したように、本発明によれば、
高速に最適な視覚情報を獲得できる画像情報処理方法及
びその装置、並びにその制御方法を提供できる。
As described above, according to the present invention,
It is possible to provide an image information processing method and apparatus that can obtain optimal visual information at high speed, and a control method thereof.

【図面の簡単な説明】[Brief description of drawings]

【図1】実施形態1の視覚情報処理装置のブロック構成
を示す図である。
FIG. 1 is a diagram showing a block configuration of a visual information processing device according to a first embodiment.

【図2】広角レンズによる座標変換を説明するための図
である。
FIG. 2 is a diagram for explaining coordinate conversion by a wide-angle lens.

【図3】広角レンズの周波数特性を説明するための図で
ある。
FIG. 3 is a diagram for explaining frequency characteristics of a wide-angle lens.

【図4】センサの検出する空間周波数を説明するための
図である。
FIG. 4 is a diagram for explaining a spatial frequency detected by a sensor.

【図5】多重解像度空間上の局所パターンの例を説明す
るための図である。
FIG. 5 is a diagram for explaining an example of a local pattern on a multi-resolution space.

【図6】実施形態1で使用される量子化部の構成例を説
明する図である。
FIG. 6 is a diagram illustrating a configuration example of a quantization unit used in the first embodiment.

【図7】実施形態1の確率オートマトンの例を説明する
図である。
FIG. 7 is a diagram illustrating an example of a probability automaton according to the first embodiment.

【図8】具体例で使用される階層表現の例を示す図であ
る。
FIG. 8 is a diagram showing an example of a hierarchical representation used in a specific example.

【図9】具体例で使用される視覚環境の例を示す図であ
る。
FIG. 9 is a diagram showing an example of a visual environment used in a specific example.

【図10】実施形態2の視覚情報処理装置の構成例を示
すブロック図である。
FIG. 10 is a block diagram showing a configuration example of a visual information processing device according to a second embodiment.

【図11】実施形態2の量子化部の構成例を説明する図
である。
FIG. 11 is a diagram illustrating a configuration example of a quantization unit according to the second embodiment.

【図12】相互結合型ニューラルネットワークの例を説
明する図である。
FIG. 12 is a diagram illustrating an example of a mutual connection type neural network.

【図13】実施形態3の監視装置の構成例を示すブロッ
ク図である。
FIG. 13 is a block diagram illustrating a configuration example of a monitoring device according to a third embodiment.

【図14】実施形態3の監視装置の動作例を示すフロー
チャートである。
FIG. 14 is a flowchart illustrating an operation example of the monitoring device according to the third exemplary embodiment.

【図15】実施形態4の視覚情報処理装置の構成例を示
すブロック図である。
FIG. 15 is a block diagram showing a configuration example of a visual information processing device according to a fourth embodiment.

【図16】実施形態4の量子化部の構成例を説明する図
である。
FIG. 16 is a diagram illustrating a configuration example of a quantization unit according to the fourth embodiment.

【図17】対称結合型ニューラルネットワーク群の構成
例を示す図である。
FIG. 17 is a diagram showing a configuration example of a symmetrical connection type neural network group.

【図18】対称結合型ニューラルネットワークの構成例
を示す図である。
FIG. 18 is a diagram showing a configuration example of a symmetrical connection type neural network.

【符号の説明】[Explanation of symbols]

1、201、301 レンズ系 2、202、302 アレイセンサ 3、203、303、402 2次元フィルタ 4、204、304、403 特徴点検出部 5、205、305、404 変換符号化部 6、206、306 量子化部 7、307 確率オートマトン 8、208、308、407 入力パラメータ制御部 10 光軸 61、62、63 量子化器 64 コードブック 71 パターンオートマトン 72 シンボルオートマトン 73 セル 121 パターンネットワーク 122 概念ネット 123 ニューロン 124 ニューロン群 125 ウェイト 161 内積計算部 162、173 ウェイト記憶部 163、172 ウェイト更新部 164 2値化部 171 対称結合型ニューラルネット更新部 174 第1情報量計算部 175 第2情報量計算部 176 第3情報量計算部 207 相互結合型ニューラルネット 309 記憶部 401 画像入力部 406 対称結合型ニューラルネット群 408 信号入力部 1, 201, 301 Lens system 2, 202, 302 Array sensor 3, 203, 303, 402 Two-dimensional filter 4, 204, 304, 403 Feature point detection unit 5, 205, 305, 404 Transform coding unit 6, 206, 306 Quantizer 7, 307 Probability automaton 8, 208, 308, 407 Input parameter controller 10 Optical axis 61, 62, 63 Quantizer 64 Codebook 71 Pattern automaton 72 Symbol automaton 73 Cell 121 Pattern network 122 Concept net 123 Neuron 124 neuron group 125 weight 161 inner product calculation unit 162, 173 weight storage unit 163, 172 weight update unit 164 binarization unit 171 symmetric connection type neural network update unit 174 first information amount calculation unit 175 second information amount calculation unit 176 Third information amount calculation unit 207 Mutual connection type neural network 309 Storage unit 401 Image input unit 406 Symmetric connection type neural network group 408 Signal input unit

Claims (50)

【特許請求の範囲】[Claims] 【請求項1】 画像情報処理装置の画像入力部より画像
を光学的に入力し、 入力された画像より特徴点を検出し、 検出された特徴点の位置に基づいて視覚情報量を算出
し、 前記視覚情報量が増大するように、前記画像入力部を制
御することを特徴とする画像情報処理装置の制御方法。
1. An image is optically input from an image input unit of an image information processing apparatus, a feature point is detected from the input image, and a visual information amount is calculated based on the position of the detected feature point. A method for controlling an image information processing apparatus, comprising controlling the image input unit so that the amount of visual information increases.
【請求項2】 前記特徴点近傍の画像情報を抽出し、前
記視覚情報量を、前記特徴点の位置と抽出された前記特
徴点近傍の画像情報とに基づいて算出することを特徴と
する請求項1に記載の制御方法。
2. The image information in the vicinity of the feature point is extracted, and the visual information amount is calculated based on the position of the feature point and the extracted image information in the vicinity of the feature point. Item 2. The control method according to Item 1.
【請求項3】 前記画像入力部を制御するために、画像
入力部の光軸を移動する特徴とする請求項1に記載の制
御方法。
3. The control method according to claim 1, wherein an optical axis of the image input unit is moved to control the image input unit.
【請求項4】 前記特徴点の位置と、前記特徴点近傍の
画像情報と、前記特徴点と光軸との距離とに基づいて視
覚情報量を算出する特徴とする請求項3に記載の制御方
法。
4. The control according to claim 3, wherein the visual information amount is calculated based on the position of the feature point, image information in the vicinity of the feature point, and the distance between the feature point and the optical axis. Method.
【請求項5】 前記画像入力部を制御するために、画像
入力部のズームを行なう特徴とする請求項1に記載の制
御方法。
5. The control method according to claim 1, wherein zooming of the image input unit is performed to control the image input unit.
【請求項6】 前記視覚情報量は、複数のセルを含む確
率オートマンにおいて、異なるセル間の相互情報量に基
づいて算出される特徴とする請求項1に記載の制御方
法。
6. The control method according to claim 1, wherein the visual information amount is calculated based on a mutual information amount between different cells in a probability automan including a plurality of cells.
【請求項7】 前記視覚情報量は、相互結合型ニューラ
ルネットワークにおいて、エントロピーに基づいて算出
される特徴とする請求項1に記載の制御方法。
7. The control method according to claim 1, wherein the visual information amount is calculated based on entropy in the mutual connection type neural network.
【請求項8】 前記特徴点近傍の画像情報として、多重
解像度空間における特徴点に対する所定深さまでの近傍
の画像情報を抽出する特徴とする請求項2に記載の制御
方法。
8. The control method according to claim 2, wherein image information in the vicinity of the feature point in the multi-resolution space up to a predetermined depth is extracted as the image information in the vicinity of the feature point.
【請求項9】 前記所定深さまでの近傍の画像情報を抽
出するステップは、入力された画像を離散化するステッ
プと、離散化された2次元画像にマスクを施すステップ
とを含む特徴とする請求項8に記載の制御方法。
9. The step of extracting image information in the vicinity of the predetermined depth includes a step of discretizing an input image and a step of masking the discretized two-dimensional image. Item 9. The control method according to Item 8.
【請求項10】 前記画像を入力するステップは、広角
レンズを用いて、入力された画像を該広角レンズと垂直
な方向について座標変換するステップを含む特徴とする
請求項1に記載の制御方法。
10. The control method according to claim 1, wherein the step of inputting the image includes the step of transforming the coordinate of the input image in a direction perpendicular to the wide-angle lens using a wide-angle lens.
【請求項11】 前記特徴点を検出するステップは、入
力画像を表す関数からベクトル場を生成するステップ
と、該ベクトル場を複素関数で表現し、偏角の原理を用
いて、特異点として特徴点を検出するステップを備える
特徴とする請求項1に記載の制御方法。
11. The step of detecting the feature points includes the step of generating a vector field from a function representing an input image, the vector field being expressed by a complex function, and using the argument principle as a singular point. The control method according to claim 1, further comprising the step of detecting a point.
【請求項12】 前記視覚情報量を、互いに信号を送受
信する複数の対称結合型ニューラルネットワークにより
算出する特徴とする請求項1に記載の制御方法。
12. The control method according to claim 1, wherein the visual information amount is calculated by a plurality of symmetrically coupled neural networks that transmit and receive signals to and from each other.
【請求項13】 前記対称結合型ニューラルネットワー
クは、1つの出力用ニューロンブロックと、少なくとも
1つの入力用ニューロンブロックとを含み、前記視覚情
報量を算出するステップは、 出力用ニューロンブロックの出力値に基づいて第1の情
報量を算出するステップと、 入力用ニューロンブロックの出力値と、入力用ニューロ
ンブロックと出力用ニューロンブロックとの結合のウェ
イトとに基づいて第2の情報量を算出するステップと、 前記第1の情報量と第2の情報量とに基づいて前記視覚
情報量を算出するステップとを含む特徴とする請求項1
2に記載の制御方法。
13. The symmetric connection type neural network includes one output neuron block and at least one input neuron block, and the step of calculating the visual information amount is performed by using an output value of the output neuron block. Calculating a first amount of information based on the output value of the input neuron block, and calculating a second amount of information based on the weight of the connection between the input neuron block and the output neuron block. And a step of calculating the visual information amount based on the first information amount and the second information amount.
2. The control method described in 2.
【請求項14】 入力画像を監視し、 入力画像内の各特徴点の評価値を算出し、 算出された評価値が所定値を越える特徴点を検出し、 光軸の方向を検出された特徴点に向けて移動し、 該検出された特徴点近傍の画像データを獲得し、 該獲得された画像データに識別子を割り当てて、検出さ
れた特徴点の位置と、特徴点近傍の画像データと、検出
された時刻と、割り当てられた識別子とを組として記憶
する特徴とする画像情報処理方法。
14. A feature in which an input image is monitored, an evaluation value of each feature point in the input image is calculated, a feature point whose calculated evaluation value exceeds a predetermined value is detected, and a direction of an optical axis is detected. Moving toward a point, acquiring image data in the vicinity of the detected feature point, assigning an identifier to the acquired image data, detecting the position of the detected feature point, and image data in the vicinity of the feature point; An image information processing method characterized by storing a detected time and an assigned identifier as a set.
【請求項15】 算出された評価値が第2の所定値を越
える特徴点を検出し、 該検出された特徴点の位置から、該特徴点近傍の画像デ
ータに割り当てられた識別子を同定し、 検出された特徴点の位置と、検出された時刻と、同定さ
れた識別子とを組として記憶することを特徴とする請求
項14に記載の画像情報処理方法。
15. A feature point having a calculated evaluation value exceeding a second predetermined value is detected, and an identifier assigned to image data in the vicinity of the feature point is identified from the position of the detected feature point, The image information processing method according to claim 14, wherein the position of the detected feature point, the detected time, and the identified identifier are stored as a set.
【請求項16】 前記評価値を、特徴点の位置と特徴点
近傍の画像データとに基づいて算出することを特徴とす
る請求項14に記載の画像情報処理方法。
16. The image information processing method according to claim 14, wherein the evaluation value is calculated based on the position of the feature point and the image data in the vicinity of the feature point.
【請求項17】 前記特徴点を検出するステップにおい
て検出された特徴点が複数ある場合には、前記光軸の方
向を移動するステップにおいては、現在の光軸に最も近
い特徴点に向けて光軸を移動することを特徴とする請求
項14に記載の画像情報処理方法。
17. When there are a plurality of feature points detected in the step of detecting the feature points, in the step of moving in the direction of the optical axis, the light is moved toward the feature point closest to the current optical axis. The image information processing method according to claim 14, wherein the axis is moved.
【請求項18】 前記評価値を算出するステップにおい
て、前記評価値を、特徴点の位置と、特徴点近傍の画像
情報と、特徴点の位置と光軸との距離とに基づいて算出
することを特徴とする請求項14に記載の画像情報処理
方法。
18. In the step of calculating the evaluation value, the evaluation value is calculated based on the position of the feature point, image information in the vicinity of the feature point, and the distance between the position of the feature point and the optical axis. 15. The image information processing method according to claim 14.
【請求項19】 画像を光学的に入力する画像入力手段
と、 前記画像入力手段から入力された画像より特徴点を検出
する検出手段と、 前記検出手段により検出された特徴点の位置に基づいて
視覚情報量を算出する算出手段と、 前記算出手段により算出された視覚情報量が増大するよ
うに、前記画像入力手段を制御する制御手段とを具えた
ことを特徴とする画像情報処理装置。
19. An image inputting means for optically inputting an image, a detecting means for detecting a characteristic point from the image input from the image inputting means, and a position of the characteristic point detected by the detecting means. An image information processing apparatus comprising: a calculation unit that calculates the amount of visual information; and a control unit that controls the image input unit so that the amount of visual information calculated by the calculation unit increases.
【請求項20】 前記特徴点近傍の画像情報を抽出する
抽出手段を備え、前記算出手段は、前記特徴点の位置と
前記特徴点近傍の画像情報とに基づいて視覚情報量を算
出することを特徴とする請求項19に記載の画像情報処
理装置。
20. An extracting means for extracting image information in the vicinity of the feature point, wherein the calculating means calculates the visual information amount based on the position of the feature point and the image information in the vicinity of the feature point. The image information processing apparatus according to claim 19, wherein the image information processing apparatus is provided.
【請求項21】 前記制御手段は、前記画像入力手段の
光軸を移動することを特徴とする請求項19に記載の画
像情報処理装置。
21. The image information processing apparatus according to claim 19, wherein the control unit moves the optical axis of the image input unit.
【請求項22】 前記算出手段は、前記特徴点の位置
と、前記特徴点近傍の画像情報と、前記特徴点と光軸と
の距離とに基づいて視覚情報量を算出することを特徴と
する請求項21に記載の画像情報処理装置。
22. The calculation means calculates the amount of visual information based on the position of the feature point, image information in the vicinity of the feature point, and the distance between the feature point and the optical axis. The image information processing apparatus according to claim 21.
【請求項23】 前記制御手段は、前記画像入力手段の
ズームを行なうことを特徴とする請求項19に記載の画
像情報処理装置。
23. The image information processing apparatus according to claim 19, wherein the control unit zooms the image input unit.
【請求項24】 前記算出手段は、複数のセルを含む確
率オートマンを備え、異なるセル間の相互情報量に基づ
いて前記視覚情報量を算出することを特徴とする請求項
19に記載の画像情報処理装置。
24. The image according to claim 19, wherein the calculating means includes a probability automan including a plurality of cells, and calculates the visual information amount based on mutual information amount between different cells. Information processing equipment.
【請求項25】 前記算出手段は、相互結合型ニューラ
ルネットワークを備え、ネットワークのエントロピーに
基づいて、前記視覚情報量を算出することを特徴とする
請求項19に記載の画像情報処理装置。
25. The image information processing apparatus according to claim 19, wherein the calculation means includes an interconnected neural network, and calculates the visual information amount based on the entropy of the network.
【請求項26】 前記抽出手段は、特徴点近傍の画像デ
ータとして、多重解像度空間における特徴点に対する所
定深さまでの近傍の画像データを抽出することを特徴と
する請求項19に記載の画像情報処理装置。
26. The image information processing according to claim 19, wherein the extraction means extracts image data in the vicinity of the feature point in the multi-resolution space up to a predetermined depth as the image data in the vicinity of the feature point. apparatus.
【請求項27】 前記抽出手段は、入力された画像を離
散化する離散化手段と、離散化された2次元画像にマス
クを施すフィルタとを含むことを特徴とする請求項26
に記載の画像情報処理装置。
27. The extracting means includes discretizing means for discretizing an input image, and a filter for masking the discretized two-dimensional image.
The image information processing apparatus described in 1.
【請求項28】 前記入力手段は、広角レンズを有し、
入力された画像を該広角レンズと垂直な方向について座
標変換することを特徴とする請求項19に記載の画像情
報処理装置。
28. The input means includes a wide-angle lens,
20. The image information processing apparatus according to claim 19, wherein the input image is subjected to coordinate conversion in a direction perpendicular to the wide-angle lens.
【請求項29】 前記検出手段は、入力画像を表す関数
からベクトル場を生成する生成手段と、該ベクトル場を
複素関数で表現し、偏角の原理を用いて、特異点として
特徴点を検出する特異点検出手段とを備えることを特徴
とする請求項19に記載の画像情報処理装置。
29. The detecting means detects a characteristic point as a singular point by using a generating means for generating a vector field from a function representing an input image, expressing the vector field by a complex function, and using the principle of argument. 20. The image information processing apparatus according to claim 19, further comprising:
【請求項30】 前記算出手段は、互いに信号を送受信
する複数の対称結合型ニューラルネットワークを備える
ことを特徴とする請求項19に記載の画像情報処理装
置。
30. The image information processing apparatus according to claim 19, wherein the calculation unit includes a plurality of symmetrically coupled neural networks that transmit and receive signals to and from each other.
【請求項31】 前記対称結合型ニューラルネットワー
クは、1つの出力用ニューロンブロックと、少なくとも
1つの入力用ニューロンブロックとを含み、前記算出手
段は、 出力用ニューロンブロックの出力値に基づいて第1の情
報量を算出する第1算出手段と、 入力用ニューロンブロックの出力値と、入力用ニューロ
ンブロックと出力用ニューロンブロックとの結合のウェ
イトとに基づいて第2の情報量を算出する第2算出手段
と、 前記第1の情報量と第2の情報量とに基づいて前記視覚
情報量を算出する第3算出手段とを含むことを特徴とす
る請求項31に記載の画像情報処理装置。
31. The symmetrical connection type neural network includes one output neuron block and at least one input neuron block, and the calculating means outputs a first output neuron block based on an output value of the output neuron block. First calculation means for calculating the information amount, second calculation means for calculating the second information amount based on the output value of the input neuron block and the weight of the connection between the input neuron block and the output neuron block 32. The image information processing apparatus according to claim 31, further comprising: a third calculation unit that calculates the visual information amount based on the first information amount and the second information amount.
【請求項32】 入力画像を監視する監視手段と、 前記監視手段により監視されている入力画像内の各特徴
点の評価値を算出する算出手段と、 算出された評価値が所定値を越える特徴点を検出する検
出手段と、 光軸の方向を検出された特徴点に向けて移動する移動手
段と、 前記検出手段により検出された特徴点近傍の画像データ
を獲得する獲得手段と、 該獲得された画像データに識別子を割り当てて、検出さ
れた特徴点の位置と、特徴点近傍の画像データと、検出
された時刻と、割り当てられた識別子とを組として記憶
する記憶手段ことを特徴とする画像情報処理装置。
32. A monitoring means for monitoring the input image, a calculating means for calculating an evaluation value of each feature point in the input image monitored by the monitoring means, and a characteristic for which the calculated evaluation value exceeds a predetermined value. Detecting means for detecting a point, moving means for moving the direction of the optical axis toward the detected characteristic point, acquiring means for acquiring image data in the vicinity of the characteristic point detected by the detecting means, An image characterized by a storage means for assigning an identifier to the image data, and storing the position of the detected feature point, image data in the vicinity of the feature point, the time of detection, and the assigned identifier as a set. Information processing equipment.
【請求項33】 前記算出手段により算出された評価値
が第2の所定値を越える特徴点を検出する第2検出手段
と、 該第2検出手段により検出された特徴点の位置から、該
特徴点近傍の画像データに割り当てられた識別子を同定
する同定手段と、 検出された特徴点の位置と、検出された時刻と、同定さ
れた識別子とを組として記憶する第2記憶手段ことを特
徴とする請求項32に記載の画像情報処理装置。
33. The second detecting means for detecting a feature point whose evaluation value calculated by the calculating means exceeds a second predetermined value, and the feature from the position of the feature point detected by the second detecting means. The identification means for identifying the identifier assigned to the image data near the point, the second storage means for storing the position of the detected feature point, the detection time, and the identified identifier as a set, The image information processing apparatus according to claim 32,
【請求項34】 前記算出手段は、前記評価値を、特徴
点の位置と特徴点近傍の画像データとに基づいて算出す
ることを特徴とする請求項32に記載の画像情報処理装
置。
34. The image information processing apparatus according to claim 32, wherein the calculating means calculates the evaluation value based on a position of a feature point and image data in the vicinity of the feature point.
【請求項35】 前記検出手段により検出された特徴点
が複数ある場合には、前記移動する手段は、現在の光軸
に最も近い特徴点に向けて光軸を移動することを特徴と
する請求項32に記載の画像情報処理装置。
35. When there are a plurality of characteristic points detected by the detecting means, the moving means moves the optical axis toward the characteristic point closest to the current optical axis. Item 32. The image information processing device.
【請求項36】 前記算出手段は、前記評価値を、特徴
点の位置と、特徴点近傍の画像データと、特徴点の位置
と光軸との距離とに基づいて算出することを特徴とする
請求項32に記載の画像情報処理装置。
36. The calculating means calculates the evaluation value based on a position of a characteristic point, image data in the vicinity of the characteristic point, and a distance between the position of the characteristic point and the optical axis. The image information processing apparatus according to claim 32.
【請求項37】 入力パラメータにより制御され、画像
を入力する画像入力手段と、 入力された画像を離散化し、多重解像度空間に写像する
写像手段と、 入力された画像から特徴点を検出する特徴点検出手段
と、 写像された画像を、検出された特徴点に関する局所パタ
ーンに変換する変換符号化手段と、 変換された局所パターンを量子化する量子化手段と、 前記量子化手段により量子化されたデータから、これら
データ間の時間的空間的相関関係を求める知識獲得手段
と、 前記量子化データ及び前記相関関係に基づいて前記入力
パラメータを修正する入力パラメータ制御手段ことを特
徴とする画像情報処理装置。
37. Image input means controlled by an input parameter, for inputting an image, mapping means for discretizing the input image and mapping it in a multi-resolution space, and feature inspection for detecting feature points from the input image. Output means, transform coding means for transforming the mapped image into a local pattern relating to the detected feature points, quantizing means for quantizing the transformed local pattern, and quantizing means by the quantizing means. An image information processing apparatus comprising: knowledge acquisition means for obtaining a temporal / spatial correlation between these data, and input parameter control means for correcting the input parameter based on the quantized data and the correlation. .
【請求項38】 前記知識獲得手段は、更に、外部から
の知識データを用いることを特徴とする請求項37に記
載の画像情報処理装置。
38. The image information processing apparatus according to claim 37, wherein the knowledge acquisition means further uses knowledge data from the outside.
【請求項39】 前記知識獲得手段は、前記量子化手段
により量子化されたデータが入力されるセルを有する確
率オートマトンを備え、前記相関関係を前記確率オート
マトンのセルの状態値として記憶することを特徴とする
請求項37に記載の画像情報処理装置。
39. The knowledge acquisition means comprises a probability automaton having a cell to which the data quantized by the quantization means is input, and stores the correlation as a state value of a cell of the probability automaton. The image information processing apparatus according to claim 37, wherein
【請求項40】 前記入力パラメータ制御手段は、特徴
点の画像データと、特徴点に関するセルの状態値と、特
徴点と光軸との距離とに基づいて、前記入力パラメータ
の修正量を算出することを特徴とする請求項39に記載
の画像情報処理装置。
40. The input parameter control means calculates the correction amount of the input parameter based on the image data of the feature point, the state value of the cell relating to the feature point, and the distance between the feature point and the optical axis. 40. The image information processing device according to claim 39, wherein:
【請求項41】 前記確率オートマトンを、相互結合型
ニューラルネットワークを用いて構成したことを特徴と
する請求項39に記載の画像情報処理装置。
41. The image information processing apparatus according to claim 39, wherein the probabilistic automaton is configured by using an interconnected neural network.
【請求項42】 前記特徴点検出手段が、入力信号のベ
クトル場を生成するベクトル場生成手段と、該ベクトル
場から偏角の原理を用いて特異点を検出する特異点検出
手段とを備えることを特徴とする請求項39に記載の画
像情報処理装置。
42. The feature point detecting means includes a vector field generating means for generating a vector field of an input signal, and a singular point detecting means for detecting a singular point from the vector field using a principle of declination. 40. The image information processing device according to claim 39.
【請求項43】 前記画像入力手段は、広角レンズ或い
は魚眼レンズと、該レンズを通した像を離散2次元画像
とするアレイセンサと該離散2次元画像にマスクを施す
2次元フィルタとを備えることを特徴とする請求項37
に記載の画像情報処理装置。
43. The image input means comprises a wide-angle lens or a fish-eye lens, an array sensor for converting an image passing through the lens into a discrete two-dimensional image, and a two-dimensional filter for masking the discrete two-dimensional image. 37. The method according to claim 37,
The image information processing apparatus described in 1.
【請求項44】 前記変換符号化手段は、検出された特
徴点近傍の異なるスケールの局所パターンを抽出する局
所パターン抽出手段を備え、 前記量子化手段は、各スケールの局所パターンに対して
それぞれベクトル量子化を行って、各スケールの代表局
所パターンベクトルによって構成される各スケールのコ
ードブックを作成するコードブック作成手段と、該コー
ドブック群に基づいて、入力信号を特徴点位置とそれに
対応する代表局所パターンベクトル番号とで符号化する
符号化手段とを備えることを特徴とする請求項37に記
載の画像情報処理装置。
44. The transform coding means comprises local pattern extracting means for extracting local patterns of different scales in the vicinity of the detected feature points, and the quantizing means is a vector for each local pattern of each scale. Codebook creating means for creating a codebook of each scale that is quantized to form a representative local pattern vector of each scale, and based on the codebook group, the input signal is represented by a feature point position and a representative point corresponding thereto. 38. The image information processing apparatus according to claim 37, further comprising: a coding unit that codes the local pattern vector number.
【請求項45】 前記ニューラルネットワークは、量子
化データを入力信号とし、入力パラメータの修正量を出
力とすることを特徴とする請求項41に記載の画像情報
処理装置。
45. The image information processing apparatus according to claim 41, wherein the neural network receives quantized data as an input signal and outputs a correction amount of an input parameter.
【請求項46】 前記知識獲得手段は、音声信号入力手
段と、外部からの知識データとして入力された音声信号
の時間的相関関係を計算する手段とを備えることを特徴
とする請求項38に記載の画像情報処理装置。
46. The knowledge acquisition means comprises: a voice signal input means; and means for calculating a temporal correlation of a voice signal input as knowledge data from the outside. Image information processing device.
【請求項47】 前記知識獲得手段は、無線信号受信手
段と、外部からの知識データとして受信された無線信号
の時間的相関関係を計算する手段とを備えることを特徴
とする請求項38に記載の画像情報処理装置。
47. The knowledge acquiring means comprises: a wireless signal receiving means; and means for calculating a temporal correlation of a wireless signal received as external knowledge data. Image information processing device.
【請求項48】 前記知識獲得手段は、有線信号受信手
段と、外部からの知識データとして受信された有線信号
の時間的相関関係を計算する手段とを備えることを特徴
とする請求項38に記載の画像情報処理装置。
48. The knowledge acquisition means comprises: a wired signal receiving means; and means for calculating a temporal correlation of a wired signal received as external knowledge data. Image information processing device.
【請求項49】 作業を実行する工具手段と、 前記量子化データ及び前記相関関係に基づいて前記工具
手段を制御する工具制御手段ことを特徴とする請求項3
7に記載の画像情報処理装置。
49. Tool means for performing work, and tool control means for controlling the tool means based on the quantized data and the correlation.
7. The image information processing device according to 7.
【請求項50】 音声信号を出力する音声出力手段と、 前記量子化データ及び前記相関関係に基づいて前記音声
出力手段を制御する音声出力制御手段ことを特徴とする
請求項37に記載の画像情報処理装置。
50. The image information according to claim 37, further comprising audio output means for outputting an audio signal, and audio output control means for controlling the audio output means based on the quantized data and the correlation. Processing equipment.
JP07876396A 1995-03-31 1996-04-01 Image information processing method and apparatus, and control method therefor Expired - Fee Related JP3847832B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP07876396A JP3847832B2 (en) 1995-03-31 1996-04-01 Image information processing method and apparatus, and control method therefor

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP7-76583 1995-03-31
JP7658395 1995-03-31
JP07876396A JP3847832B2 (en) 1995-03-31 1996-04-01 Image information processing method and apparatus, and control method therefor

Publications (2)

Publication Number Publication Date
JPH08329033A true JPH08329033A (en) 1996-12-13
JP3847832B2 JP3847832B2 (en) 2006-11-22

Family

ID=26417720

Family Applications (1)

Application Number Title Priority Date Filing Date
JP07876396A Expired - Fee Related JP3847832B2 (en) 1995-03-31 1996-04-01 Image information processing method and apparatus, and control method therefor

Country Status (1)

Country Link
JP (1) JP3847832B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101335877B1 (en) * 2009-03-13 2013-12-02 닛본 덴끼 가부시끼가이샤 Image identifier extraction device
KR101335902B1 (en) * 2009-03-13 2013-12-02 닛본 덴끼 가부시끼가이샤 Image identifier extraction device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101335877B1 (en) * 2009-03-13 2013-12-02 닛본 덴끼 가부시끼가이샤 Image identifier extraction device
KR101335902B1 (en) * 2009-03-13 2013-12-02 닛본 덴끼 가부시끼가이샤 Image identifier extraction device
US8744193B2 (en) 2009-03-13 2014-06-03 Nec Corporation Image signature extraction device
US10133956B2 (en) 2009-03-13 2018-11-20 Nec Corporation Image signature extraction device

Also Published As

Publication number Publication date
JP3847832B2 (en) 2006-11-22

Similar Documents

Publication Publication Date Title
EP0737938B1 (en) Method and apparatus for processing visual information
CN110782483B (en) Multi-view multi-target tracking method and system based on distributed camera network
CN108764107B (en) Behavior and identity combined identification method and device based on human body skeleton sequence
US20220324107A1 (en) Performance recreation system
KR20180004898A (en) Image processing technology and method based on deep learning
Ma et al. Multi-objective diverse human motion prediction with knowledge distillation
Tayarani-Najaran et al. Event-based sensing and signal processing in the visual, auditory, and olfactory domain: a review
CN113781519A (en) Target tracking method and target tracking device
Liu et al. Online human action recognition with spatial and temporal skeleton features using a distributed camera network
von Hartz et al. The treachery of images: Bayesian scene keypoints for deep policy learning in robotic manipulation
Jacobson et al. Leveraging variable sensor spatial acuity with a homogeneous, multi-scale place recognition framework
Heitzinger et al. A Foundation for 3D Human Behavior Detection in Privacy-Sensitive Domains.
Macesanu et al. A time-delay control approach for a stereo vision based human-machine interaction system
JP3847832B2 (en) Image information processing method and apparatus, and control method therefor
Ershadi-Nasab et al. Uncalibrated multi-view multiple humans association and 3D pose estimation by adversarial learning
Jaiswal et al. Deep learning approaches for object detection
KR102331803B1 (en) Vision and language navigation system
Kavitha et al. An extreme learning machine and action recognition algorithm for generalized maximum clique problem in video event recognition
WO2024014199A1 (en) Image identification method, image identification program, and image identification device
CN116206332B (en) Pedestrian re-recognition method, system and storage medium based on attitude estimation
CN113111721B (en) Human behavior intelligent identification method based on multi-unmanned aerial vehicle visual angle image data driving
Hu et al. Learning discriminative representation for skeletal action recognition using LSTM networks
Rangrej et al. Visual attention in imaginative agents
WO2023119968A1 (en) Method for calculating three-dimensional coordinates and device for calculating three-dimensional coordinates
WO2023243398A1 (en) Unusual behavior discrimination method, unusual behavior discrimination program, and unusual behavior discrimination device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060824

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees