JPS624588A - Centroid and main axial angle detector - Google Patents

Centroid and main axial angle detector

Info

Publication number
JPS624588A
JPS624588A JP60143061A JP14306185A JPS624588A JP S624588 A JPS624588 A JP S624588A JP 60143061 A JP60143061 A JP 60143061A JP 14306185 A JP14306185 A JP 14306185A JP S624588 A JPS624588 A JP S624588A
Authority
JP
Japan
Prior art keywords
horizontal
image
gravity
video signal
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP60143061A
Other languages
Japanese (ja)
Inventor
和夫 三上
稲垣 耕作
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Tateisi Electronics Co filed Critical Omron Tateisi Electronics Co
Priority to JP60143061A priority Critical patent/JPS624588A/en
Publication of JPS624588A publication Critical patent/JPS624588A/en
Pending legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 〈発明の技術分野〉 この発明は、例えばロボットの視覚装置に適用実施され
るものであって、被認識物体の画像を求めて、その画像
の基準位置に対する位置ずれや回転ずれを検出する技術
に関連し、殊にこの発明は、物体画像の重心および主軸
角をリアルタイムで算出する重心および主軸角検出装置
に関する。
[Detailed Description of the Invention] <Technical Field of the Invention> The present invention is applied to, for example, a visual system of a robot, and obtains an image of an object to be recognized, and detects the positional deviation of the image with respect to a reference position. The present invention relates to a technique for detecting rotational deviation, and particularly relates to a center of gravity and principal axis angle detection device that calculates the center of gravity and principal axis angle of an object image in real time.

〈発明の概要〉 この発明は、2値画像につき水平走査ライン毎に各種モ
ーメントを求め且つそれぞれの累積加算値を演算するこ
とによって、画像の重心および主軸角をリアルタイムで
検出できるようにした。
<Summary of the Invention> The present invention makes it possible to detect the center of gravity and principal axis angle of an image in real time by determining various moments for each horizontal scanning line of a binary image and calculating the respective cumulative sum values.

〈発明の背景〉 一般に物体画像の位置ずれや回転ずれを検出する場合、
まずテレビカメラで基準モデルの画像1 (第10図(
1)に示す)を得た後、XY座棟上でのその画像1の重
心G0の座標(Xao。
<Background of the invention> Generally, when detecting positional or rotational deviations of object images,
First, image 1 of the reference model (Fig. 10 (
1)), the coordinates of the center of gravity G0 of the image 1 on the XY seat ridge (Xao.

Y c o )および主軸角θ。を求める。つぎにテレ
ビカメラで被認識物体の画像2(第10図(2)に示す
)を得、同様にその重心Gの座標(XG。
Y co ) and principal axis angle θ. seek. Next, an image 2 (shown in FIG. 10 (2)) of the object to be recognized is obtained using a television camera, and the coordinates of its center of gravity G (XG) are similarly obtained.

YG )および主軸角θを求めた後、その位置ずれ量Δ
X、ΔYや回転ずれ量Δθを次式で算出する。
YG) and the main axis angle θ, the positional deviation amount Δ
X, ΔY, and rotational deviation amount Δθ are calculated using the following equations.

ΔX ” X G。−XG・・・・■ ΔY=YGo  Ya ・・・・■ Δθ=θ。−θ ・・・・■ ところで画像ノ(での多い物体画像につき、その位置ず
れや回転ずれを検出するのに、画像のモーメントを利用
してその重心の座標や主軸角を算出する方式が採用され
ている。
ΔX ” For detection, a method is used that uses the moment of the image to calculate the coordinates of the center of gravity and the principal axis angle.

第11図は、この方式による重心および主軸角の検出理
論を説明するための図であり、図中、升目は縦横各25
6ビツトより成る各画素を示し、物体画像3を構成する
各画素の位置はXY座標によって規定されるようになっ
ている。
Figure 11 is a diagram for explaining the theory of detecting the center of gravity and principal axis angle using this method.
Each pixel is made up of 6 bits, and the position of each pixel constituting the object image 3 is defined by XY coordinates.

同図において、任意の画素4の座標を(Xi。In the figure, the coordinates of an arbitrary pixel 4 are (Xi.

Yj)(ただしL+  J =In  L ・・・・、
 256)、その画素4の濃度の重み関数をf (Xz
、Yj)とすると、画像3のモーメントMpqCただし
p。
Yj) (However, L+ J = In L...,
256), and the density weighting function of that pixel 4 is f (Xz
, Yj), the moment MpqC of image 3 is p.

q=0.1.2.  ・・・・)はつぎの0式で与えら
れ、また画像3の重心Gの座標(Xa、Ya)および主
軸各θは、前記モーメントを利用して、つぎの0〜0式
で与えられる。
q=0.1.2. .

2         Mzo  Metかくして上記0
〜0式の演算を実行すれば、画像3の重心G°の座標(
XG、Ya)や主軸角θが検出できる。ところが上記各
式は、二重積分。
2 Mzo Met thus the above 0
By executing the calculation of formula ~0, the coordinates of the center of gravity G° of image 3 (
XG, Ya) and principal axis angle θ can be detected. However, each of the above equations is a double integral.

乗除算、逆三角関数を含んでおり、これらの演算をソフ
ト的に実施すると、大幅な時間(秒オーダ)がかかり、
特に1画面分のビデオ信号出力期間以内に演算を終了さ
せる等、到底不可能であり、またこれをハード的に実施
すれば、コストやスペースの点で問題があった。
It includes multiplication, division, and inverse trigonometric functions, and if these operations were performed using software, it would take a significant amount of time (on the order of seconds).
In particular, it is completely impossible to complete the calculation within the video signal output period for one screen, and if this was implemented using hardware, there would be problems in terms of cost and space.

〈発明の目的〉 この発明は、上記問題を一挙に解消するためのものであ
って、物体画像の重心の座標や主軸角をリアルタイムで
検出できる重心および主軸角検出装置を提供することを
目的とする。
<Objective of the Invention> The present invention is intended to solve the above problems all at once, and aims to provide a center of gravity and principal axis angle detection device that can detect the coordinates and principal axis angle of the center of gravity of an object image in real time. do.

〈発明の構成および効果〉 上記目的を達成するため、この発明では、物体を揚傷し
て濃淡画像を構成するビデオ信号を出力する揚傷手段と
、このビデオ信号を2値化処理して縦横複数の画素より
成る2値画像を生成する2値処理手段と、角画素を構成
する2値データおよびその画素の座標に基づき物体の重
心および主軸角を算出する演算処理手段とで重心および
主軸角検出装置を構成し、前記演算処理手段には、前記
ビデオ信号の角水平走査ライン毎に2値画像の水平座標
アドレスに関する0次モーメント、1次モーメントおよ
び、2次モーメントを演算する手段、前記ビデオ信号の
各水平走査ライン毎に2値画像の垂直座標アドレスに関
する1次モーメントおよび2次モーメントを演算する手
段、前記ビデオ信号の各水平走査ライン毎に2値画像の
水平・垂直座標アドレスに関する相関モーメントを演算
する手段、前記各モーメントのそれぞれにつき垂直走査
期間にわたる累積加算値を演算する手段、この累積加算
結果に基づき2値画像の重心および主軸角を算出する手
段を具備させることにした。
<Configuration and Effects of the Invention> In order to achieve the above object, the present invention includes a lifting means for lifting an object and outputting a video signal constituting a grayscale image, and a lifting means for outputting a video signal constituting a grayscale image, and a binarizing process for the video signal to convert the video signal vertically and horizontally. A binary processing means that generates a binary image consisting of a plurality of pixels, and an arithmetic processing means that calculates the center of gravity and principal axis angle of an object based on the binary data constituting the corner pixels and the coordinates of the pixels, calculate the center of gravity and principal axis angle. A detecting device is configured, and the arithmetic processing means includes means for calculating a zeroth moment, a first moment, and a second moment regarding a horizontal coordinate address of a binary image for each angular horizontal scanning line of the video signal; means for calculating first and second moments with respect to the vertical coordinate address of the binary image for each horizontal scanning line of the signal, and correlated moments with respect to the horizontal and vertical coordinate addresses of the binary image for each horizontal scanning line of the video signal; , a means for calculating the cumulative addition value over the vertical scanning period for each of the moments, and a means for calculating the center of gravity and principal axis angle of the binary image based on the results of the cumulative addition.

この発明によれば、ビデオ信号の1水平走査期間毎に1
水平走査ライン分の0次、1次、2次の各モーメントを
求め、各ラインの総和を有効垂直走査期間にわたり演算
し、次の帰線消去期間に重心および主軸角を演算するこ
とにより、ビデオ信号期間を無駄なくフルに利用して、
物体画像の重心位置やその傾きをリアルタイムで検出で
きる。従って物体位置や角度の情報が高速に得られ、ロ
ボット等の高速制御を実現できる。
According to this invention, one
Video Make full use of the signal period without wasting it,
The center of gravity position and inclination of an object image can be detected in real time. Therefore, information on object positions and angles can be obtained at high speed, and high-speed control of robots and the like can be realized.

また上記重心の座標や主軸角の検出は、ソフトと簡単な
ハード構成をもって可能であり、コストの低減や回路構
成の簡易化を実現できる等、発明目的を達成した顕著な
効果を奏する。
Furthermore, the coordinates of the center of gravity and the angle of the main axis can be detected using software and a simple hardware configuration, and the invention achieves remarkable effects such as cost reduction and simplification of the circuit configuration.

〈実施例の説明〉 第1図はこの発明の一実施例にかかる重心および主軸角
検出装置の回路構成例を示し、第2図はこの装置につい
ての理論を説明するための図である。
<Description of Embodiments> FIG. 1 shows an example of the circuit configuration of a gravity center and main axis angle detecting device according to an embodiment of the present invention, and FIG. 2 is a diagram for explaining the theory of this device.

第2図において、縦横の各升目は画素を示し、各画素に
は水平座標アドレスX+、Xz・・・・。
In FIG. 2, each vertical and horizontal square represents a pixel, and each pixel has a horizontal coordinate address X+, Xz, . . . .

X 、s、および、垂直座標アドレスY、、Y!。X, s, and vertical coordinate address Y,, Y! .

・・・・+ YtSkが割り当てられる。画像5は、物
体を撮像して得たビデオ信号を2値化処理して求めた2
値画像であって、例えば物体部分が黒画素、背景部分が
白画素より構成される。図中、Gは画像5の重心を示し
、その座標(XG、YG)や主軸角θは、つぎの■〜[
相]式で示す如く、Σの関数式として表される。
...+YtSk is allocated. Image 5 is obtained by binarizing the video signal obtained by imaging the object.
It is a value image, and for example, the object part is made up of black pixels and the background part is made up of white pixels. In the figure, G indicates the center of gravity of image 5, and its coordinates (XG, YG) and principal axis angle θ are as follows:
It is expressed as a function equation of Σ, as shown in the following equation.

ΣXiΣf  (Xi Yj) !      J ΣYjΣf(XL、Yj)  ZYj −Nj!   
   j なお画像5は2値画像であるから、前記した濃度の重み
関数f (Xi、Yj)は、次式で示す如く、rOJ 
 rlJのいずれか値をとる。
ΣXiΣf (Xi Yj)! J ΣYjΣf(XL, Yj) ZYj −Nj!
j Since image 5 is a binary image, the density weighting function f (Xi, Yj) described above is determined by rOJ as shown in the following equation.
It takes any value of rlJ.

かくして上記■〜[相]式において、ZYj −Njお
よびΣY、” NJは垂直座標アドレスに関する1次モ
ーメントおよび2次モーメント、Σ・Nj。
Thus, in the above equations (1) to [phase], ZYj -Nj and ΣY, "NJ are the first and second moments with respect to the vertical coordinate address, Σ·Nj.

関する0次モーメント、1次モーメントおよび2アドレ
スに関する相関モーメントであり、第2図に示す実施例
において、それぞれモーメントの具体例が図の左右両側
にあられしである。
In the embodiment shown in FIG. 2, specific examples of each moment are shown on both the left and right sides of the figure.

この実施例の場合、ビデオ信号の各水平走査ライン毎に
2値画像5の水平座標アドレスに関する0次モーメント
Nj、1次モーメントΣX!および、2次モーメントΣ
X、2をハード的に求め、つぎの水平走査ラインで垂直
座標アドレスに関する1次モーメントyjN、および2
次モーメントY” N、 、さらに水平・垂直座標アド
レスに関する相関モーメントY+ 苓Xtをソフト的に
算出すす ると共に、各水平走査ライン毎に有効垂直走査期間にわ
たる累積加算値ΣNj、ΣY、NJ 。
In this embodiment, for each horizontal scanning line of the video signal, the zero-order moment Nj, the first-order moment ΣX! with respect to the horizontal coordinate address of the binary image 5! and second moment Σ
Find X, 2 in hardware, and calculate the first moment yjN and 2 with respect to the vertical coordinate address in the next horizontal scanning line.
The next moment Y''N, and the correlated moment Y+Xt regarding the horizontal and vertical coordinate addresses are calculated by software, and the cumulative addition values ΣNj, ΣY, NJ over the effective vertical scanning period are calculated for each horizontal scanning line.

をそれぞれ求め、つぎの垂直帰線消去期間に前記累積加
算値に基づき■〜[相]式の演算を実行して、重心Gの
座標(XG、YG)および主軸θをソフト的に算出する
are calculated respectively, and in the next vertical blanking period, the calculations of equations 1 to [phase] are executed based on the cumulative addition value, and the coordinates (XG, YG) of the center of gravity G and the principal axis θ are calculated by software.

第3図は、この実施例におけるビデオ信号VD!のタイ
ムチャートを示す。同図において、上半分の図は、垂直
走査期間にかかるビデオ信号V D tを、下半分の図
は水平走査期間にかかるビデオ信号VD!を、それぞれ
示している。
FIG. 3 shows the video signal VD! in this embodiment. The time chart is shown below. In the figure, the upper half of the diagram shows the video signal VDt during the vertical scanning period, and the lower half of the diagram shows the video signal VD! during the horizontal scanning period. are shown respectively.

図中、VDは垂直同期信号、HDは水平同期信号を示し
、1垂直走査期間(16,6ミリ秒)は20H(ただし
IHは1水平走査期間を意味し63.5マイクロ秒であ
る)の垂直帰線消去期間と、残りの有効垂直走査期間と
から構成されている。この有効垂直走査期間には、24
2本の水平走査ラインを含み、また各水平走査ラインに
は、256個の画素データを含んでいる。
In the figure, VD indicates a vertical synchronization signal, HD indicates a horizontal synchronization signal, and one vertical scanning period (16.6 milliseconds) is 20H (however, IH means one horizontal scanning period, which is 63.5 microseconds). It consists of a vertical blanking period and the remaining valid vertical scanning period. During this effective vertical scanning period, 24
It includes two horizontal scanning lines, and each horizontal scanning line includes 256 pixel data.

なお図中、Y+ 、Yz、Yx 、  ・・・・、Yz
azは前記第2図における垂直座標アドレスに、またX
11XzIX3%””+  Xzsbは水平座標アドレ
スにそれぞれ対応する。
In the figure, Y+, Yz, Yx, ..., Yz
az is the vertical coordinate address in FIG. 2, and
11XzIX3%""+Xzsb correspond to horizontal coordinate addresses, respectively.

つぎに第1図の回路構成を説明するに、図中、テレビカ
メラ6は、静止または移動中の物体7を例えば上方より
撮像し、濃淡画像を構成するところのビデオ信号VD、
を出力する。同期分離回路8は、ビデオ信号VD!より
水平同期信号HD、垂直同期信号VD、クロック信号C
K等を分離して、これを2値化回路9へ出力する。
Next, to explain the circuit configuration of FIG. 1, in the figure, a television camera 6 images a stationary or moving object 7, for example, from above, and receives a video signal VD that forms a grayscale image.
Output. The synchronization separation circuit 8 receives the video signal VD! Horizontal synchronization signal HD, vertical synchronization signal VD, clock signal C
K, etc. are separated and outputted to the binarization circuit 9.

2値化回路9は、ビデオ信号V D 、に対し一定のス
レシュホールドレベルを設定することにより、ビデオ信
号VD、を白黒2値化して2値化画像を生成する。画素
カウンタ10は、ビデオ信号V D +の1水平走査ラ
イン毎に、物体部分を構成する画素(この実施例では黒
画素)の数を計数するためのもので、その計数値N、は
1 / O(Inputloutput)ポート11を
介してCP U (central Processi
ng Unit)  12に取り込まれるようになって
いる。
The binarization circuit 9 sets a certain threshold level for the video signal VD, thereby converting the video signal VD into black and white binarization to generate a binarized image. The pixel counter 10 is for counting the number of pixels (black pixels in this embodiment) constituting the object portion for each horizontal scanning line of the video signal V D +, and the count value N is 1/ CPU (central process) is connected via O (input output) port 11.
ng Unit) 12.

水平カウンタ13は、前記の水平座標アドレスを割り当
てるためのもので、水平同期信号HDの立下がりから例
えば10画素分に相当する時間経過後よりクロック信号
GKの計数を開始する。加算器14およびバッファ15
は、黒画素が存在位置する水平座標アドレスにつき、そ
の累積加算値ΣX!を求めてCPU12へ出五 力するためのもので、水平カウンター3の内容Xiとバ
ッファー5の内容とが加算器14に入力されて累積加算
処理される。
The horizontal counter 13 is for allocating the above-mentioned horizontal coordinate address, and starts counting the clock signal GK after a time corresponding to, for example, 10 pixels has elapsed since the fall of the horizontal synchronizing signal HD. Adder 14 and buffer 15
is the cumulative addition value ΣX! for the horizontal coordinate address where the black pixel is located. The contents Xi of the horizontal counter 3 and the contents of the buffer 5 are input to the adder 14 and subjected to cumulative addition processing.

テーブル変換ROM16は、水平カウンター3の内容X
直を、その2乗値x!2に変換するためのテーブルTI
 (第4図に示す)が格納されたものであり、水平カウ
ンター3の内容X!でテーブル変換ROM16のアドレ
スがアクセスされて、その2乗値Xi”が加算器17へ
出力される。この加算器17およびバッファ18は、黒
画素が存在位置する水平座標アドレスにつき、その2乗
値XL!の累積加算(11!苓Xt2を求めてCPU1
2へ出力するためのもので、テーブル変換ROM16の
出力x盈2とバッフ718の内容とが加算器17に入力
されて累積加算処理される。
The table conversion ROM 16 contains the contents of the horizontal counter 3
Direct, its square value x! Table TI for converting to 2
(shown in Figure 4) is stored, and the content of horizontal counter 3 is X! The address of the table conversion ROM 16 is accessed, and its square value Xi'' is output to the adder 17. Cumulative addition of XL! (11! Find Xt2 and CPU1
The output x2 of the table conversion ROM 16 and the contents of the buffer 718 are input to the adder 17 and subjected to cumulative addition processing.

°上記カウンター0の計数値Njや各バッファ金銀にI
10ポート11を介してCPU12に取り込まれ、CP
U12はこれらのデータに基づき所定の演算処理を実行
して、画像の重心Gの座標(xe 、 YG )および
主軸角θを求める。
° I to the count value Nj of the counter 0 and each buffer gold and silver
10 is taken into the CPU 12 via port 11, and the CPU
U12 executes predetermined arithmetic processing based on these data to determine the coordinates (xe, YG) of the center of gravity G of the image and the principal axis angle θ.

なお図中、F ROM (Program+wable
  ReadOnly Mea+ory)  19は位
置ずれ検出等の一連のプログラムを格納し、またR A
 M (Randon+Access  Me+5or
y)は各種データを格納する他、処理実行のためのワー
クエリアを有する。また通信制御部21は、CPU12
の演算結果を、上位の制御機へ送信する。
In addition, in the figure, F ROM (Program+wable
ReadOnly Mea + ory) 19 stores a series of programs such as positional deviation detection, and RA
M (Randon+Access Me+5or
y) has a work area for storing various data and for executing processing. Further, the communication control unit 21 includes a CPU 12
The calculation results are sent to the higher-level controller.

第5図はこの発明の他の実施例を示し、上記算器22と
2個のマルチプレクサ23.24とを用いて時分割処理
するようにしたものである。
FIG. 5 shows another embodiment of the present invention, in which the calculator 22 and two multiplexers 23 and 24 are used to perform time-sharing processing.

なおこの実施例における他の構成は、第1図の実施例で
あり、対応する各構成に同一符号を付してここではその
説明を省略する。
Note that the other configurations in this embodiment are the same as those in the embodiment shown in FIG. 1, and the corresponding components are given the same reference numerals and their explanations will be omitted here.

しかして第1図の回路において、モードを学習モードに
設定した上で、テレビカメラ6で基準モデルを損傷する
と、同期分離回路8で同期信号等が分離され、さらに2
値化回路9でビデオ信号VD、の2値化処理が実行され
て、2値画像が生成される。この2値画像出力は、画素
カウンタ10および各加算器14.17へ送られるもの
で、この画素カウンタ10や各加算器14.17におい
ては、前記した所定の計数ないしは演算が実行される。
However, in the circuit shown in FIG. 1, if the mode is set to learning mode and the reference model is damaged with the television camera 6, the synchronization signal etc. will be separated in the synchronization separation circuit 8, and the
The digitization circuit 9 performs binarization processing on the video signal VD to generate a binary image. This binary image output is sent to the pixel counter 10 and each adder 14.17, and in this pixel counter 10 and each adder 14.17, the above-described predetermined counting or calculation is executed.

そして各水平走査期間毎に、CPU12に対し水平同期
信号HDによる割込みINTが発生せられ、その都度、
画素カウンタ10の内容や、各加算器14.17による
加算結果がCPU12取り込まれる。
Then, for each horizontal scanning period, an interrupt INT is generated to the CPU 12 by the horizontal synchronizing signal HD, and each time,
The contents of the pixel counter 10 and the addition results by each adder 14, 17 are taken into the CPU 12.

第6図はCPU12における割込み制御動作を示す。FIG. 6 shows the interrupt control operation in the CPU 12.

なお同図中、Y、はCPU12が内部に有する垂直カウ
ンタの計数値(前記垂直座標アドレスに相当する)を示
しており、この垂直カウンタは前記割込みINTの発生
がある毎に歩進されるものであって、垂直同期信号VD
の立下がりより29.Hに相当する時間経過後より計数
を開始する。
In the figure, Y indicates the count value of a vertical counter (corresponding to the vertical coordinate address) that the CPU 12 has internally, and this vertical counter is incremented every time the interrupt INT occurs. and the vertical synchronization signal VD
29. Counting starts after the time corresponding to H has elapsed.

今、Yj番目の水平走査ラインにつき、画素カウンター
0による黒画素計数動作が完了した時点を想定すると、
まずCPU12はステップ1 (図中rsTIJ“で示
す)で画素カウンタ、10の内容N、を読み取った後、
つぎのステップ2でその累積加算値N(前記ΣNJに対
応する)を演算して、RAM20へ格納する。さらにス
テップ3では、CPU12内の垂直カウンタの内容Yj
が読み取られ、つぎのステップ4でCPU12はその累
積加算値NT、(前記ΣN、y、に対応する)を演算し
て、演算結果をRAM20へ格納する。続くステップ5
では、垂直カウンタの内容Yjをその2乗値Yjzに変
換するため、FROM19に格納された変換テーブル(
図示せず)が参照されて2乗値YJ′が求められる。そ
してつぎのステップ6では、Y、” Njの累積加算値
NY (前記ΣYj” N。
Now, assuming that the black pixel counting operation by pixel counter 0 is completed for the Yj-th horizontal scanning line,
First, the CPU 12 reads the content N of the pixel counter 10 in step 1 (indicated by "rsTIJ" in the figure), and then
In the next step 2, the cumulative addition value N (corresponding to ΣNJ) is calculated and stored in the RAM 20. Furthermore, in step 3, the content Yj of the vertical counter in the CPU 12
is read, and in the next step 4, the CPU 12 calculates the cumulative addition value NT, (corresponding to the aforementioned ΣN,y), and stores the calculation result in the RAM 20. Next step 5
Now, in order to convert the content Yj of the vertical counter to its square value Yjz, we will use the conversion table (
(not shown) is referred to to obtain the square value YJ'. In the next step 6, the cumulative addition value NY of Y, "Nj" (the above-mentioned ΣYj"N) is calculated.

に対応する)が演算されて、その演算結果がRAM20
へ格納される。さらにステップ7では、バッファ15の
内容ΣX直がCPU12に盈 取り込まれて、つぎのステップ8で、その累積算される
と共に、つぎのステップ9で、に対応する)が演算され
て、それぞれ演算結果がRAM20へ格納される。さら
にステップ10では、バッファ18の内容写Xi2がC
PU12診 に取り込まれ、続くステップ11で、CPU12はその
累積加算値N、(前記εεXi ”対応すl る)を演算して、その結果をRAM20へ格納する。つ
ぎのステップ12は、前記垂直カウンタの内容Yjがr
242Jに達したか否か、すなわち最終242番目の水
平走査ラインについてのステップ1〜11の処理が完了
したか否かを判定しており、もしその判定が“No”の
とき、つぎの割込みINTに待機し、以下の水平走査ラ
インについての上記各処理が繰返し実行される。
) is calculated, and the calculation result is stored in the RAM 20.
is stored in Further, in step 7, the content ΣX of the buffer 15 is taken into the CPU 12, and in the next step 8, it is cumulatively calculated, and in the next step 9, the corresponding ΣX is calculated, and the respective calculation results are is stored in the RAM 20. Furthermore, in step 10, the content copy Xi2 of the buffer 18 is
In the following step 11, the CPU 12 calculates the cumulative addition value N, (corresponding to the εεXi'') and stores the result in the RAM 20. The content Yj is r
242J, that is, whether the processing of steps 1 to 11 for the final 242nd horizontal scanning line has been completed, and if the determination is "No", the next interrupt INT The process waits until the next horizontal scanning line is reached, and the above-mentioned processes are repeatedly executed for the following horizontal scanning lines.

かくして最終の水平走査ラインについてのステップ1〜
11の処理が終了すると、ステップ12の判定が“YE
S”となり、っぎのステップ13.14において、前記
累積加算値N。
Thus, steps 1~ for the final horizontal scan line.
When the process in step 11 is completed, the determination in step 12 is “YE”.
At step 13.14, the cumulative addition value N is calculated.

N T l、 N T tを用いて、重心G0の座標(
xe。。
Using N T l and N T t, the coordinates of the center of gravity G0 (
xe. .

Yr、。χが算出され、その結果がRAM20の所定エ
リアに格納される。またっぎのステップ15.16にお
いて、前記累積加算値N X + N yy +NX、
を用いて、主軸角θ。が算出され、その結果がRAM2
0の所定エリアに格納される(ステップ17)。この場
合この実施例では、まずつぎの0式を換算してZの値を
求め、このZを10倍または1/10倍した値でFRO
M19に格納された変換テーブル(第8図および第9図
)のアドレスをアクセスして、主軸角θ0の算出を行っ
ている。
Yr. χ is calculated and the result is stored in a predetermined area of the RAM 20. In Step 15.16 of Matagi, the cumulative addition value N X + N yy + NX,
Using , the principal axis angle θ. is calculated and the result is stored in RAM2
0 in a predetermined area (step 17). In this case, in this embodiment, first calculate the value of Z by converting the following 0 formula, and then calculate FRO by multiplying this Z by 10 or 1/10.
The principal axis angle θ0 is calculated by accessing the address of the conversion table (FIGS. 8 and 9) stored in M19.

なお第8図は主軸角θ。が0〜22.5”である場合の
変換テーブルT2およびtanθ。の変換曲線を、また
第9図は主軸角θ。が22.5〜45°である場合の変
換テーブルT3およびcotθ。の変換曲線をそれぞれ
示し、この変換テーブルT2.T3は主軸角θ。の大き
さに応じて用いわけられる。
In addition, Fig. 8 shows the principal axis angle θ. FIG. 9 shows the conversion table T2 and the conversion curve of tan θ when the angle is 0 to 22.5", and the conversion table T3 and the conversion curve of cot θ when the principal axis angle θ is 22.5 to 45 degrees. The conversion tables T2 and T3 are used depending on the magnitude of the principal axis angle θ.

上記重心G0の座標(Xco、 Yco)および主軸角
θ。の算出が終わると、最後にステップ18でRAM2
0より各累積加算値N、NT、。
Coordinates (Xco, Yco) of the center of gravity G0 and principal axis angle θ. When the calculation of is completed, the RAM2 is finally
Each cumulative addition value N, NT, from 0.

NTz 、Nx 、Nv 、Nxvがクリアされ、基準
パターンについての一連の処理を終了する。
NTz, Nx, Nv, and Nxv are cleared, and the series of processing for the reference pattern ends.

つぎにモードを計測モードに設定した上で、テレビカメ
ラ6で被認識物体を損傷する。この場合も、上記基準モ
デルの場合と同様の画像処理、さらには画素カウンタ1
0および各加算器14.17の計数ないしは演算が実行
される。
Next, the mode is set to measurement mode, and the object to be recognized is damaged using the television camera 6. In this case as well, the same image processing as in the case of the above reference model is performed, and furthermore, the pixel counter 1
0 and each adder 14, 17 counts or operations are performed.

そして各水平走査毎に、CPUI 2に対し水平同期信
号HDによる割込みrNTが発生せられ、画素カウンタ
10の内容や各加算器14.17による加算結果がその
都度読み込まれる。
Then, for each horizontal scan, an interrupt rNT is generated by the horizontal synchronizing signal HD to the CPU 2, and the contents of the pixel counter 10 and the addition results by the adders 14 and 17 are read each time.

第7図はこの場合のCPU12における割込み制御動作
を示す。同図において、ステップ21〜31は累積加算
値N、NT+、Nv 、NTz 。
FIG. 7 shows the interrupt control operation in the CPU 12 in this case. In the figure, steps 21 to 31 are cumulative addition values N, NT+, Nv, and NTz.

Nxv、Nxを算出するステップであって、これは第6
図のステップ1〜11と全(同様である。
This is the step of calculating Nxv, Nx, which is the sixth step.
All steps 1 to 11 in the figure are similar.

そして最終の水平走査ラインについてのステップ21〜
31の処理が済むと、ステップ32の判定が“YES″
となり、ステップ33〜37において、重心Gの座標(
xe 、 Ye )および主軸角θが算出される。しか
る後、CPUI 2は、これらデータおよび学習モード
で得た基準モデルについてのデータを用いて前記0〜0
式の演算が実行され、画像の位置ずれ量ΔX。
and step 21 for the final horizontal scan line
After the processing in step 31 is completed, the determination in step 32 is “YES”.
Then, in steps 33 to 37, the coordinates of the center of gravity G (
xe, Ye) and the principal axis angle θ are calculated. Thereafter, the CPU 2 uses these data and the data about the reference model obtained in the learning mode to
The calculation of the formula is executed, and the image position shift amount ΔX is calculated.

ΔY、および回転ずれ量Δθが算出される。ΔY and rotational deviation amount Δθ are calculated.

(ステップ38〜40)。そしてつぎのステップ41で
この算出結果が通信制御部21より上位制御機へ出力さ
れた後、ステップ42において、 RAM20より各累
積加算値N、NT、。
(Steps 38-40). Then, in the next step 41, this calculation result is output from the communication control unit 21 to the higher-level controller, and then in step 42, the cumulative addition values N, NT, are stored in the RAM 20.

NTz、Nx 、Nv 、Nxvがクリアされて、一連
の処理を全て終了する。
NTz, Nx, Nv, and Nxv are cleared, and the entire series of processing ends.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の一実施例にかかる重心および主軸角
検出装置の回路構成例を示すブロック図、第2図はこの
発明の装置の動作理論を説明するための図、第3図はビ
デオ信号のタイムチャート、第4図は変換テーブルの内
容を示す図、第5図は他の実施例の回路構成を示すブロ
ック図、第6図は学習モードでの割込み制御動作を示す
フローチャート、第7図は計測モードでの割込み制御動
作を示すフローチャート、第8図および第9図は変換テ
ーブルおよび変換曲線を示す図、第10図は画像の位置
ずれ量や回転ずれ量を説明するための図、第11図は重
心および主軸角の検出理論を説明するための図である。 6・・・・・・テレビカメラ  9・・・・・・2値化
回路10・・・・・・画素カウンタ  12・・・・・
・CPU13・・・・・・水平カウンタ  14.17
・・・・・・加算器15、18・・・・・・バッファ G、 G、・・・・・・重心 (II                 t22斗3
図   ビデ″オrf3 句ノイ4チャート”lrl 
図 f’iz−ドでの*r、樋、l・1ず卿啼りイシ*
r、−Hyo−4v−h廿I口 動h−グルhJ〆動芥
・0h〒T口う+9 図  ★4寿y−7”ILHz区
゛支士史島41汁、オシリ手続補正書く1訃 昭和60°年7月16日 1、事件の表示  昭和60年6月28日提出の特許願
(2)事件との関係 特許出願人 住所〒616京都市右京区花園土堂町10番地名称(2
94)立方電機 株式会社 代表者立石孝雄 外1名 4、代理人 を別紙のとおり補正。 明    細    書 1、発明の名称 重心および主軸角検出装置 2、特許請求の範囲 ■ 物体を撮像して濃淡画像を構成するビデオ信号を出
力する撮像手段と、このビデオ信号を2値化処理して縦
横複数の画素より成る2値画像を生成する2値処理手段
と、各画素を構成する2値データおよびその画素の座標
に基づき2値画像の重心および主軸角を算出する演算処
理手段とから成り、 前記演算処理手段は、 前記ビデオ信号の各水平走査ライン毎に2値画像の水平
座標アドレスに関する0次モーメント、1次モーメント
および、2次モーメントを演算する手段、 前記ビデオ信号の各水平走査ライン毎に2値画像の垂直
座標アドレスに関する1次モーメントおよび2次モーメ
ントを演算する手段、前記ビデオ信号の各水平走査ライ
ン毎に2値画像の水平・垂直圧アドレスに関する相関モ
ーメントを演算する手段、 上記各モーメントのそれぞれにつき垂直走査期間にわた
る累積加算値を演算する手段および、この累積加算結果
に基づき2値画像の重心および主軸角を算出する手段と
を具備して成る重心および主軸角検出装置。 3、発明の詳細な説明 〈発明の技術分野〉 この発明は、例えばロボットの視覚装置に適用実施され
るものであって、被認識物体、の画像を求めて、その画
像の基準位置に対する位置ずれや回転ずれを検出する技
術に関連し、殊にこの発明は、物体画像の重心および主
軸角をリアルタイムで算出する重心および主軸角検出装
置に関する。 〈発明の概要〉 この発明は、2値画像につき水平走査ライン毎に各種モ
ーメントを求め且つそれぞれの累積加算値を演算するこ
とによって、画像の重心および主軸角をリアルタイムで
検出できるようにした。 、〈発明の背景〉 一般に物体画像の位置ずれや回転ずれを検出する場合、
まずテレビカメラで基準モデルの画像1 (第10図(
1)に示す)を得た後、XY座標上でのその画像1の重
心G0の座標(XG。。 Y、。)および主軸角θ。を求める。つぎにテレビカメ
ラで被認識物体の画像2(第10図(2)に示す)を得
、同様にその重心Gの座標(X、。 yc)および主軸角θを求めた後、その位置ずれ量ΔX
、ΔYや回転ずれ量Δθを次式で算出する。 ΔX ” X a。−XG・・・・■ ΔY=YGII−Ya ・・・・■ Δθ=θ。−θ ・・・・■ ところで画像ノイズの多い物体画像につき、その位置ず
れや回転ずれを検出するのに、画像のモーメントを利用
してその重心の座標や主軸角を算出する方式が採用され
ている。 第11図は、この方式による重心および主軸角の検出理
論を説明するための図であり、図中、升目は縦横各25
6ビツトより成る各画素を示し、物体画像3を構成する
各画素の位置はXY座標によって規定されるようになっ
ている。 同図において、任意の画素4の座標を(Xi。 Y、)(ただしit  j”l+  2+ ・・・・、
 256)、その画素4の濃度の重み関数をf (Xi
、Yj)とすると、画像3のモーメントMp、I(ただ
しp。 q=Q、1.2. ・・・・)はつぎの0式で与えられ
、また画像3の重心Gの座標(Xa、Ye)および主軸
各θは、前記モーメントを利用して、つぎの0〜0式で
与えられる。 2     Mgo  Mow  2     NX 
  Nyただし、M’06.は被測定パターンの面積。 X、、Ycは被測定パターンの重心のX座標。 Y座標である。 かくして上記0〜0式の演算を実行すれば、画像3の重
心Gの座標(Xc Ye )や主軸角θが検出できる。 ところが上記各式は、二重積分。 乗除算、逆三角関数を含んでおり、これらの演算をソフ
ト的に実施すると、大幅な時間(秒オーダ)がかかり、
特に1画面分のビデオ信号出力期間以内に演算を終了さ
せる等、到底不可能であり、またこれをハード的に実施
すれば、コストやスペースの点で問題があった。 〈発明の目的〉 この発明は、上記問題を一挙に解消するためのものであ
って、物体画像の重心の座標や主軸角をリアルタイムで
検出できる重心および主軸角検出装置を提供することを
目的とする。 〈発明の構成および効果〉 上記目的を達成するため、この発明では、物体を撮像し
て濃淡画像を構成するビデオ信号を出力する撮像手段と
、このビデオ信号を2値化処理して縦横複数の画素より
成る2値画像を生成する2値処理手段と、角画素を構成
する2値データおよびその画素の座標に基づき物体の重
心および主軸角を算出する演算処理手段とで重心および
主軸角検出装置を構成し、前記演算処理手段には、前記
ビデオ信号の角水平走査ライン毎に2値画像の水平座標
アドレスに関する0次モーメント、1次モーメントおよ
び、2次モーメントを演算する手段、前記ビデオ信号の
各水平走査ライン毎に2値画像の垂直座標アドレスに関
する1次モーメントおよび2次モーメントを演算する手
段、前記ビデオ信号の各水平走査ライン毎に2値画像の
水平・垂直座標アドレスに関する相関モーメントを演算
する手段、前記各モーメントのそれぞれにつき垂直走査
期間にわたる累積加算値を演算する手段、この累積加算
結果に基づき2値画像の重心および主軸角を算出する手
段を具備させることにした。 この発明によれば、ビデオ信号の1水平走査期間毎に1
水平走査ライン分の0次、1次、2次の各モーメントを
求め、各ラインの総和を有効垂直走査期間にわたり演算
し、次の帰線消去期間に重心および主軸角を演算するこ
とにより、ビデオ信号期間を無駄なくフルに利用して、
物体画像の重心位置やその傾きをリアルタイムで検出で
きる。従って物体位置や角度の情報が高速に得られ、ロ
ボット等の高速制御を実現できる。 また上記重心の座標や主軸角の検出は、ソフトと簡単な
ハード構成をもって可能であり、コストの低減や回路構
成の簡易化を実現できる等、発明目的を達成した顕著な
効果を奏する。 〈実施例の説明〉 第1図はこの発明の一実施例にかかる重心および主軸角
検出装置の回路構成例を示し、第2図はこの装置につい
ての理論を説明するための図である。 第2図において、縦横の各升目は画素を示し、各画素に
は水平座標アドレスX、、X、・・・・。 XtS&および、垂直座標アドレスYl 、Y、。 ・・・・+ yzsiが割り当てられる。画像5は、物
体を描像して得たビデオ信号を2値化処理して求めた2
値画像であって、例えば物体部分が黒画素、背景部分が
白画素より構成される0図中、Gは画像5の重心を示し
、その座標(XG Y@ )や主軸角θは、っぎの■〜
[相]式で示す如く、Σの関数式として表される。 ΣXi 玉f  (X直、Yj ) 盈 なお画像5は2値画像であるから、前記した濃度の重み
関数f  (xi、yj)は、次式で示す如く、r、0
JrlJのいずれか値をとる。 か(して上記■〜[相]式において、ΣY、−N。 およびΣYj” N、は垂直座標アドレスに関する1次
モーメントおよび2次モーメント、Σ・Njドレスに関
する0次モーメント 1次モーメント垂直座標アドレス
に関する相関モーメントであり、第2図に示す実施例に
おいて、それぞれモーメントの具体例が図の左右両側に
あられしである。 この実施例の場合、ビデオ信号の各水平走査ライン毎に
2値画像5の水平座標アドレスに関する0次モーメント
NJ +  1次モーメントΣX正およム び、2次モーメントΣX!をハード的に求め、つぎの水
平走査ラインで垂直座標アドレスに関する1次モーメン
トYjN、および2次モーメントY” N、 、さらに
水平・垂直座標アドレスに関する相関モーメントY、Σ
Xiをソフト的に算出すす ると共に、各水平走査ライン毎に有効垂直走査期をそれ
ぞれ求め、つぎの垂直帰線消去期間に前記累積加算値に
基づき■〜[相]式の演算を実行して、重心Gの座標(
xGyye)および主軸θをソフト的に算出する。 第3図は、この実施例におけるビデオ信号VD、のタイ
ムチャートを示す、同図において、上半分の図は、垂直
走査期間にかかるビデオ信号VD、を、下半分の図は水
平走査期間にかかるビデオ信号VD、を、それぞれ示し
ている。 図中、VDは垂直同期信号、)(Dは水平同期信号を示
し、1垂直走査期間(16,6ミリ秒)は20H(ただ
しIHは1水平走査期間を意味し63.5マイクロ秒で
ある)の垂直帰線消去期間と、残りの有効垂直走査期間
とから構成されている。この有効垂直走査期間には、2
42本の水平走査ラインを含み、また各水平走査ライン
には、2S6個の画素データを含んでいる。 なお図中、Yr 、Yr、Yコ、・・・・* Yz*x
は前記第2図における垂直座標アドレスに、またX 1
1 X 2.X !+・・・・、X□轟は水平座標アド
レスにそれぞれ対応する。 つぎに第1図の回路構成を説明するに、図中、テレビカ
メラ6は、静止または移動中の物体7を例えば上方より
撮像し、濃淡画像を構成するところのビデオ信号VD、
を出力する。同期分離回路8は、ビデオ信号VD!より
水平同期信号HD、垂直同期信号VD、クロック信号G
K等を分離して、これを2値化回路9へ出力する。 2値化回路9は、ビデオ信号VDiに対し一定のスレシ
ュホールドレベルを設定することにより、ビデオ信号V
D、を白黒2硫化して2値化画像を生成する。画素カウ
ンタlOは、ビデオ信号VD、の1水平走査ライン毎に
、物体部分を構成する画素(この実施例では黒画素)の
数を計数するためのもので、その計数値N、はI / 
O(Inputloutput)ボート11を介してC
P U(Central Processing Un
it)  12に取り込まれるようになっている。 水平カウンタ13は、前記の水平座標アドレスを割り当
てるためのもので、水平同期信号HDの立下がりから例
えば10画素分に相当する時間経過後よりクロック信号
GKの計数を開始する。加算器工4およびバッファエ5
は、黒画素が存在位置する水平座標アドレスにつき、そ
の累積加算値4x、を求めてCPU12へ出力するため
のもので、水平カウンタ13の内容X!とバッファ15
の内容とが加算器14に入力されて累積加算処理される
。 テーブル変換ROM16は、水平カウンタ13の内容X
Jを、その2乗値X(”に変換するためのテーブルTI
(第4図に示す)が格納されたものであり、水平カウン
タ13の内容X!でテーブル変換ROM16のアドレス
がアクセスされて、その2乗値X、2が加算器17へ出
力される。この加算器17およびバッファ18は、黒画
素が存在位置する水平座標アドレスにつき、その2乗値
X五zの累積加算値ΣX、z五 を求めてCPU12へ出力するためのもので、テーブル
変換ROM16の出力X!2とバッファ18の内容とが
加算器17に入力されて累積加算処理される。 上記カウンター0の計数値N、や各バッファ金銀にI1
0ボート11を介してCPU12に取り込まれ、CPU
12はこれらのデータに基づき所定の演算処理を実行し
て、画像の重心Gの座標(XG、Yfi)および主軸角
θを求める。 なお図中、F ROM (Pr6grammable 
 ReadOnly )’Ie+wory)  19は
位置ずれ検出等の一連のプログラムを格納し、またR 
A M (RandosAccess  Me+5or
y)は各種データを格納する他、処理実行のためのワー
クエリアを有する。また通信制御部21は、CPU12
の演算結果を、上位の制御機へ送信する。 第5図はこの発明の他の実施例を示し、上記算器22と
2個のマルチプレクサ23.24とを用いて時分割処理
するようにしたものである。 なおこの実施例における他の構成は、第1図の実施例で
あり、対応する各構成に同一符号を付してここではその
説明を省略する。 しかして第1図の回路において、モードを学習モードに
設定した上で、テレビカメラ6で基準モデルを損傷する
と、同期分離回路8で同期信号等が分離され、さらに2
値化回路9でビデオ信号VD、の2値化処理が実行され
て、2値画像が生成される。この2値画像出力は、画素
カウンタlOおよび各加算器14.17へ送られるもの
で、この画素カウンタ10や各加算器14.17におい
ては、前記した所定の計数ないしは演算が実行される。 そして各水平走査期間毎に、CPU12に対し水平同期
信号HDによる割込みINTが発生せられ、その都度、
画素カウンタ10の内容や、各加算器14.17による
加算結果がCPU12取り込まれる。 第6図はCPU12における割込み制御動作を示す。 なお同図中、YlはCPU12が内部に有する垂直カウ
ンタの計数値(前記垂直座標アドレスに相当する)を示
しており、この垂直カウンタは前記割込みINTの発生
がある毎に歩進されるものであって、垂直同期信号VD
の立下がりより20Hに相当する時間経過後より計数を
開始する。 今、Yj番目の水平走査ラインにつき、画素カウンター
Oによる黒画素計数動作が完了した時点を想定すると、
まずCPU12はステップ、1 (図中rsTIJで示
す)で画素カウンター0の内容N、を読み取った後、つ
ぎのステップ2でその累積加算値N(前記ΣN、に対応
する)を演算して、RAM20へ格納する。さらにステ
ップ3では、CPUI Z内の垂直カウンタの内容Y、
が読み取られ、つぎのステップ4でCPU12はその累
積加算値NT、(前記ΣN、Y、に対応する)を演算し
て、演算結果をRAM20へ格納する。続くステップ5
では、垂直カウンタの内容Y、をその2乗値Yj”に変
換するため、FROM19に格納された変換テーブル(
図示せず)が参照されて2乗値Yjtが求められる。そ
してつぎのステップ6では、Yj” N、の累積加算値
NY(前記ΣYj” Njに対応する)が演算されて、
その演算結果がRAM20へ格納される。さらにステッ
プ7では、バッファ15の内容ΣXiがCPU12にム 取り込まれて、つぎのステップ8で、その累積加算値N
Tt (前記8戸Xiに対応する)が演j  工 算されると共に、つぎのステップ9で、に対応する)が
演算されて、それぞれ演算結果がRAM20へ格納され
る。さらにステップlOでは、バッファ18の内容Σx
i2がCPU12に取り込まれ、続くステップ11で、
CPU12はその累積加算値N、(前記ΣΣX、z対応
する)を演算して、その結果をRAM20へ格納する。 つぎのステップ12は、前記垂直カウンタの内容Y、が
r242Jに達したか否か、すなわち最終242番目の
水平走査ラインについてのステップ1〜11の処理が完
了したか否かを判定しており、もしその判定が“No”
のとき、つぎの割込みINTに待機し、以下の水平走査
ラインについての上記各処理が繰返し実行される。 かくして最終の水平走査ラインについてのステップ1〜
11の処理が終了すると、ステップ12の判定が“YE
S”となり、つぎのステップ13.14において、前記
累積加算値N。 NT、、NTtを用いて、重心G0の座標(XG。。 Y r、 o )が算出され、その結果がRAM20の
所定エリアに格納される。またつぎのステップ15.1
6.17において、前記累積加算値Nx 、Nv 、N
xvを用いて、それぞれN、=Nv  NYco”・N
xv= Nxv  N XGOYG@・N X = N
 X  N X c oを演算して主軸角θ。が算出さ
れ、その結果がRAM20の所定エリアに格納される(
ステップ20)。この場合この実施例では、まずつぎの
0式を換算してZの値を求め、このZを10倍または1
/10倍した値でPROM19に格納された変換テーブ
ル(第8図および第9図)のアドレスをアクセスして、
主軸角θ。の算出を行っている。 N yt −N y なお第8図は主軸角θ0がO〜22.5”である場合の
変換テーブルT2およびtanθ。の変換曲線を、また
第9図は主軸角θ。が22.5〜45″である場合の変
換テーブルT3およびcotθ。の変換曲線をそれぞれ
示し、この変換テーブルT2.T3は主軸角θ。の大き
さに応じて用いわけられる。 上記重心G0の座標(XGO,Ye。)および主軸角θ
。の算出が終わると、最後にステップ21でRAM20
より各累積加算値N、NT、:NTz 、NX 、Nv
 、Nxvがクリアされ、基準パターンについての一連
の処理を終了する。 つぎにモードを計測モードに設定した上で、テレビカメ
ラ6で被認識物体を撮像する。この場合も、上記基準モ
デルの場合と同様の画像処理、さらには画素カウンタ1
0および各加算器14.17の計数ないしは演算が実行
される。 そして各水平走査毎に、CPU12に対し水平同期信号
HDによる割込みINTが発生せられ、画素カウンタ1
0の内容や各加算器14.17による加算結果がその都
度読み込まれる。 第7図はこの場合のCPU12における割込み制御動作
を示す。同図において、ステップ21〜31は累積加算
値N、NT+、Nv 、NTt 。 N、v、N、を算出するステップであって、これは第6
図のステップ1〜11と全く同様である。 そして最終の水平走査ラインについてのステップ21〜
31の処理が済むと、ステップ32の判定がYES”と
なり、ステップ33〜40において、重心Gの°座標(
XG 、 Ye )および主軸角θが算出される。しか
る後、CPU12は、これらデータおよび学習モードで
得た基準モデルについてのデータを用いて前記0〜0式
の演算が実行され、画像の位置ずれ量ΔX。 ΔY、および回転ずれ量へ〇が算出される。 (ステップ41〜43)。そしてつぎのステップ44で
この算出結果が通信制御部21より上位制御機へ出力さ
れた後、ステップ45において、 RAM20より各累
積加算値N、NT、。 NTz、Nx 、Nv 、Novがクリアされて、一連
の処理を全て終了する。 4、図面の簡単な説明 第1図はこの発明の一実施例にかかる重心および主軸角
検出装置の回路構成例を示すブロック図、第2図はこの
発明の装置の動作理論を説明するための図、第3図はビ
デオ信号のタイムチャート、第4図は変換テーブルの内
容を示す図、第5図は他の実施例の回路構成を示すブロ
ック図、第6図は学習モードでの割込み制御動作を示す
フローチャート、第7図は計測モードでの割込み制御動
作を示すフローチャート、第8図および第9図は変換テ
ーブルおよび変換曲線を示す図、第10図は画像の位置
ずれ量や回転ずれ量を説明するための図、第11図は重
心および主軸角の検出理論を説明するための図である。 6・・・・・・テレビカメラ  9・・・・・・2値化
回路10・・・・・・画素カウンタ  12・・・・・
・CPU13・・・・・・水平カウンタ  14.17
・・・・・・加算器15、18・・・・・・バッファ G、 G、・・・・・・重心
Fig. 1 is a block diagram showing an example of the circuit configuration of a center of gravity and main axis angle detecting device according to an embodiment of the present invention, Fig. 2 is a diagram for explaining the theory of operation of the device of the present invention, and Fig. 3 is a video FIG. 4 is a diagram showing the contents of the conversion table; FIG. 5 is a block diagram showing the circuit configuration of another embodiment; FIG. 6 is a flowchart showing interrupt control operation in learning mode; FIG. The figure is a flowchart showing the interrupt control operation in the measurement mode, FIGS. 8 and 9 are diagrams showing a conversion table and a conversion curve, and FIG. 10 is a diagram for explaining the amount of positional deviation and rotational deviation of the image. FIG. 11 is a diagram for explaining the theory of detecting the center of gravity and principal axis angle. 6...TV camera 9...Binarization circuit 10...Pixel counter 12...
・CPU13...Horizontal counter 14.17
......Adders 15, 18...Buffer G, G, ...... Center of gravity (II t22 doo3
Figure ``Video RF3 Phrasal Noi 4 Chart''lrl
Diagram *r, gutter, l・1zu kiribishi* in f'iz-do*
r, -Hyo-4v-h廿I口 运h-GURU hJ〆芥芥・0h〒T口う+9Figure ★4年y-7"ILHz ward゛Branch Shijima 41 juice, Oshiri procedure correction writing 1 death July 16, 1985 1. Indication of the case Patent application filed on June 28, 1985 (2) Relationship to the case Patent applicant address 10 Hanazono Tsuchido-cho, Ukyo-ku, Kyoto-shi, 616 Name (2)
94) Cubic Electric Co., Ltd. Representative Takao Tateishi and one other person4, the agent has been amended as shown in the attached sheet. Description 1, Title of the invention: Center of gravity and main axis angle detection device 2, Claims ■ Imaging means for capturing an image of an object and outputting a video signal constituting a grayscale image, and a method for binarizing the video signal. It consists of a binary processing means that generates a binary image consisting of a plurality of vertical and horizontal pixels, and an arithmetic processing means that calculates the center of gravity and principal axis angle of the binary image based on the binary data that constitutes each pixel and the coordinates of that pixel. , the arithmetic processing means: means for calculating a zero-order moment, a first-order moment, and a second-order moment regarding a horizontal coordinate address of a binary image for each horizontal scanning line of the video signal; and for each horizontal scanning line of the video signal. means for calculating the first and second moments with respect to the vertical coordinate address of the binary image for each horizontal scan line of the video signal; means for calculating the correlation moment with respect to the horizontal and vertical pressure addresses of the binary image for each horizontal scanning line of the video signal; A centroid and principal axis angle detecting device comprising means for calculating a cumulative addition value over a vertical scanning period for each moment, and means for calculating a centroid and principal axis angle of a binary image based on the cumulative addition result. 3. Detailed Description of the Invention (Technical Field of the Invention) The present invention is applied to, for example, a visual device of a robot, which obtains an image of an object to be recognized, and determines the positional deviation of the image with respect to a reference position. The present invention relates to techniques for detecting rotational deviations and rotational deviations, and particularly relates to a center of gravity and principal axis angle detection device that calculates the center of gravity and principal axis angle of an object image in real time. <Summary of the Invention> The present invention makes it possible to detect the center of gravity and principal axis angle of an image in real time by determining various moments for each horizontal scanning line of a binary image and calculating the respective cumulative sum values. , <Background of the Invention> Generally, when detecting positional deviation or rotational deviation of an object image,
First, image 1 of the reference model (Fig. 10 (
1)), the coordinates of the center of gravity G0 of the image 1 on the XY coordinates (XG..Y,.) and the principal axis angle θ. seek. Next, image 2 (shown in Figure 10 (2)) of the object to be recognized is obtained with a television camera, and the coordinates (X, yc) of its center of gravity G and principal axis angle θ are determined in the same manner, and the amount of positional deviation is calculated. ΔX
, ΔY and rotational deviation amount Δθ are calculated using the following equations. ΔX ” A method is used to calculate the coordinates of the center of gravity and principal axis angle using the moment of the image. Figure 11 is a diagram to explain the theory of detecting the center of gravity and principal axis angle using this method. Yes, there are 25 squares in the vertical and horizontal directions in the figure.
Each pixel is made up of 6 bits, and the position of each pixel constituting the object image 3 is defined by XY coordinates. In the figure, the coordinates of any pixel 4 are (Xi. Y,) (where it j”l+ 2+ . . .
256), the density weighting function of that pixel 4 is f (X
, Yj), the moments Mp, I (where p, q=Q, 1.2...) of image 3 are given by the following equation 0, and the coordinates of the center of gravity G of image 3 (Xa, Ye ) and each principal axis θ are given by the following 0 to 0 equations using the above moment. 2 Mgo Mow 2 NX
NyHowever, M'06. is the area of the pattern to be measured. X, , Yc are the X coordinates of the center of gravity of the pattern to be measured. This is the Y coordinate. In this way, by executing the calculation of the above equations 0 to 0, the coordinates (Xc Ye ) of the center of gravity G of the image 3 and the principal axis angle θ can be detected. However, each of the above equations is a double integral. It includes multiplication, division, and inverse trigonometric functions, and if these operations were performed using software, it would take a significant amount of time (on the order of seconds).
In particular, it is completely impossible to complete the calculation within the video signal output period for one screen, and if this was implemented using hardware, there would be problems in terms of cost and space. <Objective of the Invention> The present invention is intended to solve the above problems all at once, and aims to provide a center of gravity and principal axis angle detection device that can detect the coordinates and principal axis angle of the center of gravity of an object image in real time. do. <Structure and Effects of the Invention> In order to achieve the above object, the present invention includes an imaging means for capturing an image of an object and outputting a video signal constituting a grayscale image, and a binarization process for this video signal to generate a plurality of horizontal and vertical images. A center of gravity and principal axis angle detection device includes a binary processing means that generates a binary image consisting of pixels, and an arithmetic processing means that calculates the center of gravity and principal axis angle of an object based on the binary data constituting the corner pixels and the coordinates of the pixels. The arithmetic processing means includes means for calculating a zero-order moment, a first-order moment, and a second-order moment regarding a horizontal coordinate address of a binary image for each angular horizontal scanning line of the video signal; Means for calculating a first moment and a second moment with respect to a vertical coordinate address of a binary image for each horizontal scanning line; calculating a correlation moment with respect to a horizontal and vertical coordinate address of a binary image for each horizontal scanning line of the video signal; The image forming apparatus is provided with means for calculating the cumulative addition value over the vertical scanning period for each of the moments, and means for calculating the center of gravity and principal axis angle of the binary image based on the results of the cumulative addition. According to this invention, one
Video Make full use of the signal period without wasting it,
The center of gravity position and inclination of an object image can be detected in real time. Therefore, information on object positions and angles can be obtained at high speed, and high-speed control of robots and the like can be realized. Furthermore, the coordinates of the center of gravity and the angle of the main axis can be detected using software and a simple hardware configuration, and the invention achieves remarkable effects such as cost reduction and simplification of the circuit configuration. <Description of Embodiments> FIG. 1 shows an example of the circuit configuration of a gravity center and main axis angle detecting device according to an embodiment of the present invention, and FIG. 2 is a diagram for explaining the theory of this device. In FIG. 2, each vertical and horizontal square represents a pixel, and each pixel has a horizontal coordinate address X,,X,... XtS& and vertical coordinate addresses Yl, Y,. ...+yzsi is assigned. Image 5 is obtained by binarizing the video signal obtained by imaging the object.
In figure 0, which is a value image, for example, the object part is composed of black pixels and the background part is white pixels, G indicates the center of gravity of image 5, and its coordinates (XG Y@) and principal axis angle θ are ■〜
[Phase] As shown in the equation, it is expressed as a function equation of Σ. ΣXi ball f (X direct, Yj) Since the image 5 is a binary image, the density weighting function f (xi, yj) described above is expressed as r, 0 as shown in the following equation.
Takes any value of JrlJ. (In the above ■ ~ [phase] formula, ΣY, -N. and ΣYj'' In the embodiment shown in Figure 2, examples of the moments are shown on both the left and right sides of the figure.In this embodiment, a binary image 5 is generated for each horizontal scan line of the video signal. The 0th moment NJ + 1st moment ΣX and the 2nd moment ΣX! with respect to the horizontal coordinate address are determined by hardware, and the 1st moment YjN and the 2nd moment with respect to the vertical coordinate address are calculated in the next horizontal scanning line. Y”N, , and the correlation moment Y, Σ regarding the horizontal and vertical coordinate addresses
At the same time as calculating Xi using software, the effective vertical scanning period is determined for each horizontal scanning line, and in the next vertical blanking period, the calculations of formulas 1 to 2 are executed based on the cumulative addition value. , the coordinates of the center of gravity G (
xGyye) and the principal axis θ are calculated using software. FIG. 3 shows a time chart of the video signal VD in this embodiment. In the figure, the upper half diagram shows the video signal VD during the vertical scanning period, and the lower half diagram shows the video signal VD during the horizontal scanning period. A video signal VD is shown, respectively. In the figure, VD is a vertical synchronization signal, ) (D is a horizontal synchronization signal, and one vertical scanning period (16.6 milliseconds) is 20H (however, IH means one horizontal scanning period, which is 63.5 microseconds). ) and the remaining effective vertical scanning period.This effective vertical scanning period includes 2 vertical blanking periods.
It includes 42 horizontal scanning lines, and each horizontal scanning line includes 2S6 pixel data. In the figure, Yr, Yr, Yko, ...* Yz*x
is the vertical coordinate address in FIG. 2, and X 1
1 x 2. X! +..., X□Todoroki correspond to horizontal coordinate addresses, respectively. Next, to explain the circuit configuration of FIG. 1, in the figure, a television camera 6 images a stationary or moving object 7, for example, from above, and receives a video signal VD that forms a grayscale image.
Output. The synchronization separation circuit 8 receives the video signal VD! Horizontal synchronization signal HD, vertical synchronization signal VD, clock signal G
K, etc. are separated and outputted to the binarization circuit 9. The binarization circuit 9 converts the video signal VDi by setting a certain threshold level to the video signal VDi.
D, is black-and-white disulfurized to generate a binarized image. The pixel counter lO is for counting the number of pixels (black pixels in this embodiment) constituting the object portion for each horizontal scanning line of the video signal VD, and its count value N is I/
C via O (Input Output) boat 11
P U (Central Processing Un
it) is designed to be incorporated into 12. The horizontal counter 13 is for allocating the above-mentioned horizontal coordinate address, and starts counting the clock signal GK after a time corresponding to, for example, 10 pixels has elapsed since the fall of the horizontal synchronizing signal HD. Adder 4 and Buffer 5
is for calculating the cumulative addition value 4x for the horizontal coordinate address where a black pixel is located and outputting it to the CPU 12, and the content of the horizontal counter 13 X! and buffer 15
The contents are input to the adder 14 and subjected to cumulative addition processing. The table conversion ROM 16 stores the contents of the horizontal counter 13
Table TI for converting J to its square value X(''
(shown in FIG. 4) is stored, and the content of the horizontal counter 13 is X! The address of the table conversion ROM 16 is accessed, and its square value X,2 is output to the adder 17. The adder 17 and the buffer 18 are for calculating the cumulative addition value ΣX,z5 of the square value X5z for the horizontal coordinate address where the black pixel is located, and outputting it to the CPU 12. The output of X! 2 and the contents of the buffer 18 are input to the adder 17 and subjected to cumulative addition processing. The count value N of the counter 0 above, and I1 for each buffer gold and silver
0 port 11 to the CPU 12, and the CPU
12 executes predetermined arithmetic processing based on these data to determine the coordinates (XG, Yfi) of the center of gravity G of the image and the principal axis angle θ. In the figure, F ROM (Pr6grammable
ReadOnly)'Ie+wory) 19 stores a series of programs such as positional deviation detection, and R
A M (Randos Access Me+5or
y) has a work area for storing various data and for executing processing. Further, the communication control unit 21 includes a CPU 12
The calculation results are sent to the higher-level controller. FIG. 5 shows another embodiment of the present invention, in which the calculator 22 and two multiplexers 23 and 24 are used to perform time-sharing processing. Note that the other configurations in this embodiment are the same as those in the embodiment shown in FIG. 1, and the corresponding components are given the same reference numerals and their explanations will be omitted here. However, in the circuit shown in FIG. 1, if the mode is set to learning mode and the reference model is damaged with the television camera 6, the synchronization signal etc. will be separated in the synchronization separation circuit 8, and the
The digitization circuit 9 performs binarization processing on the video signal VD to generate a binary image. This binary image output is sent to the pixel counter 10 and each adder 14.17, and in this pixel counter 10 and each adder 14.17, the above-described predetermined counting or calculation is executed. Then, for each horizontal scanning period, an interrupt INT is generated to the CPU 12 by the horizontal synchronizing signal HD, and each time,
The contents of the pixel counter 10 and the addition results by each adder 14, 17 are taken into the CPU 12. FIG. 6 shows the interrupt control operation in the CPU 12. In the figure, Yl indicates the count value of a vertical counter (corresponding to the vertical coordinate address) that the CPU 12 has internally, and this vertical counter is incremented every time the interrupt INT occurs. Yes, vertical synchronization signal VD
Counting starts after a time corresponding to 20H has elapsed since the fall of . Now, assuming that the pixel counter O has completed the black pixel counting operation for the Yj-th horizontal scanning line,
First, the CPU 12 reads the content N of the pixel counter 0 in step 1 (indicated by rsTIJ in the figure), and then calculates the cumulative addition value N (corresponding to the aforementioned ΣN) in the next step 2, and stores it in the RAM 20. Store it in Furthermore, in step 3, the content Y of the vertical counter in CPUI Z,
is read, and in the next step 4, the CPU 12 calculates the cumulative addition value NT, (corresponding to the above-mentioned ΣN, Y), and stores the calculation result in the RAM 20. Next step 5
Now, in order to convert the content Y of the vertical counter into its square value Yj'', we will use the conversion table (
(not shown) is referred to to obtain the square value Yjt. Then, in the next step 6, the cumulative addition value NY of Yj''N (corresponding to the aforementioned ΣYj''Nj) is calculated,
The calculation result is stored in the RAM 20. Furthermore, in step 7, the content ΣXi of the buffer 15 is loaded into the CPU 12, and in the next step 8, the cumulative addition value N
Tt (corresponding to the 8 houses Xi) is calculated, and in the next step 9, Tt (corresponding to 8 houses Xi) is calculated, and the respective calculation results are stored in the RAM 20. Furthermore, in step lO, the content Σx of the buffer 18
i2 is taken into the CPU 12, and in the following step 11,
The CPU 12 calculates the cumulative addition value N, (corresponding to the aforementioned ΣΣX, z) and stores the result in the RAM 20. In the next step 12, it is determined whether the content Y of the vertical counter has reached r242J, that is, whether the processing of steps 1 to 11 for the final 242nd horizontal scanning line has been completed. If the judgment is “No”
At this time, the process waits for the next interrupt INT, and the above-mentioned processes for the following horizontal scanning lines are repeatedly executed. Thus, steps 1~ for the final horizontal scan line.
When the process in step 11 is completed, the determination in step 12 is “YE”.
In the next step 13.14, the coordinates of the center of gravity G0 (XG...Yr,o) are calculated using the cumulative addition values N.NT, NTt, and the results are stored in a predetermined area of the RAM 20 The next step 15.1
6.17, the cumulative addition values Nx, Nv, N
xv, respectively N, =Nv NYco”・N
xv= Nxv N XGOYG@・N
Calculate X N X co to find the principal axis angle θ. is calculated, and the result is stored in a predetermined area of the RAM 20 (
Step 20). In this case, in this embodiment, first convert the following 0 formula to find the value of Z, and then multiply this Z by 10 or 1.
Access the address of the conversion table (Figures 8 and 9) stored in PROM 19 with the value multiplied by /10,
Principal axis angle θ. is being calculated. N yt −N y Fig. 8 shows the conversion table T2 and the conversion curve of tan θ when the main axis angle θ0 is 0 to 22.5”, and Fig. 9 shows the conversion curve of tan θ when the main axis angle θ is 22.5 to 45”. '', the conversion table T3 and cotθ. , respectively, and this conversion table T2. T3 is the principal axis angle θ. It is used depending on the size of the Coordinates of the center of gravity G0 (XGO, Ye.) and principal axis angle θ
. When the calculation is completed, the RAM 20 is finally
Each cumulative addition value N, NT, : NTz , NX , Nv
, Nxv are cleared, and the series of processing for the reference pattern ends. Next, after setting the mode to measurement mode, the television camera 6 images the object to be recognized. In this case as well, the same image processing as in the case of the above reference model is performed, and furthermore, the pixel counter 1
0 and each adder 14, 17 counts or operations are performed. Then, for each horizontal scan, an interrupt INT is generated by the horizontal synchronization signal HD to the CPU 12, and the pixel counter 1
The contents of 0 and the addition results by each adder 14, 17 are read each time. FIG. 7 shows the interrupt control operation in the CPU 12 in this case. In the figure, steps 21 to 31 are cumulative addition values N, NT+, Nv, and NTt. a step of calculating N,v,N,, which is the sixth
This is exactly the same as steps 1 to 11 in the figure. and step 21 for the final horizontal scan line
When the process in step 31 is completed, the determination in step 32 becomes ``YES'', and in steps 33 to 40, the ° coordinates of the center of gravity G (
XG, Ye) and the principal axis angle θ are calculated. Thereafter, the CPU 12 uses these data and the data regarding the reference model obtained in the learning mode to execute the calculation of the formula 0 to 0, and calculates the positional deviation amount ΔX of the image. ΔY and the amount of rotational deviation are calculated. (Steps 41-43). Then, in the next step 44, this calculation result is output from the communication control unit 21 to the higher-level controller, and then in step 45, the cumulative addition values N, NT, are stored in the RAM 20. NTz, Nx, Nv, and Nov are cleared, and the entire series of processing ends. 4. Brief Description of the Drawings Fig. 1 is a block diagram showing an example of the circuit configuration of a center of gravity and main axis angle detecting device according to an embodiment of the present invention, and Fig. 2 is a block diagram for explaining the operating theory of the device of the present invention. Figure 3 is a time chart of the video signal, Figure 4 is a diagram showing the contents of the conversion table, Figure 5 is a block diagram showing the circuit configuration of another embodiment, and Figure 6 is interrupt control in learning mode. Flowchart showing the operation, Figure 7 is a flowchart showing the interrupt control operation in measurement mode, Figures 8 and 9 are diagrams showing the conversion table and conversion curve, and Figure 10 is the amount of positional deviation and rotational deviation of the image. FIG. 11 is a diagram for explaining the theory of detecting the center of gravity and principal axis angle. 6...TV camera 9...Binarization circuit 10...Pixel counter 12...
・CPU13...Horizontal counter 14.17
... Adders 15, 18 ... Buffer G, G, ... Center of gravity

Claims (1)

【特許請求の範囲】[Claims] (1)物体を撮像して濃淡画像を構成するビデオ信号を
出力する撮像手段と、このビデオ信号を2値化処理して
縦横複数の画素より成る2値画像を生成する2値処理手
段と、各画素を構成する2値データおよびその画素の座
標に基づき2値画像の重心および主軸角を算出する演算
処理手段とから成り、 前記演算処理手段は、 前記ビデオ信号の各水平走査ライン毎に2値画像の水平
座標アドレスに関する0次モーメント、1次モーメント
および、2次モーメントを演算する手段、 前記ビデオ信号の各水平走査ライン毎に2値画像の垂直
座標アドレスに関する1次モーメントおよび2次モーメ
ントを演算する手段、 前記ビデオ信号の各水平走査ライン毎に2値画像の水平
・垂直座アドレスに関する相関モーメントを演算する手
段、 上記各モーメントのそれぞれにつき垂直走査期間にわた
る累積加算値を演算する手段および、この累積加算結果
に基づき2値画像の重心および主軸角を算出する手段と
を具備して成る重心および主軸角検出装置。
(1) an imaging means for capturing an image of an object and outputting a video signal constituting a grayscale image; a binary processing means for binarizing the video signal to generate a binary image consisting of a plurality of vertical and horizontal pixels; It consists of an arithmetic processing means for calculating the center of gravity and principal axis angle of the binary image based on the binary data constituting each pixel and the coordinates of the pixel, and the arithmetic processing means is configured to perform two steps for each horizontal scanning line of the video signal. means for calculating a zero-order moment, a first-order moment, and a second-order moment with respect to a horizontal coordinate address of a value image; means for calculating a first-order moment and a second-order moment with respect to a vertical coordinate address of a binary image for each horizontal scanning line of the video signal; means for calculating, for each horizontal scanning line of the video signal, a correlation moment regarding the horizontal and vertical addresses of the binary image; means for calculating a cumulative sum over a vertical scanning period for each of the moments; A center of gravity and principal axis angle detection device comprising means for calculating the center of gravity and principal axis angle of a binary image based on the cumulative addition result.
JP60143061A 1985-06-28 1985-06-28 Centroid and main axial angle detector Pending JPS624588A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP60143061A JPS624588A (en) 1985-06-28 1985-06-28 Centroid and main axial angle detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60143061A JPS624588A (en) 1985-06-28 1985-06-28 Centroid and main axial angle detector

Publications (1)

Publication Number Publication Date
JPS624588A true JPS624588A (en) 1987-01-10

Family

ID=15330001

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60143061A Pending JPS624588A (en) 1985-06-28 1985-06-28 Centroid and main axial angle detector

Country Status (1)

Country Link
JP (1) JPS624588A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02308380A (en) * 1989-05-24 1990-12-21 Juki Corp Picture processor device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4948262A (en) * 1972-09-14 1974-05-10
JPS51120754A (en) * 1975-04-16 1976-10-22 Hitachi Ltd Center of gravity position deteator
JPS5587283A (en) * 1978-12-25 1980-07-01 Kawasaki Heavy Ind Ltd Recognizing method and servo unit with recognizing function
JPS5697177A (en) * 1979-12-29 1981-08-05 Fuji Electric Co Ltd Matching type pattern inspection device using normalization method
JPS60107115A (en) * 1983-11-16 1985-06-12 Amada Co Ltd Control method of work feed device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4948262A (en) * 1972-09-14 1974-05-10
JPS51120754A (en) * 1975-04-16 1976-10-22 Hitachi Ltd Center of gravity position deteator
JPS5587283A (en) * 1978-12-25 1980-07-01 Kawasaki Heavy Ind Ltd Recognizing method and servo unit with recognizing function
JPS5697177A (en) * 1979-12-29 1981-08-05 Fuji Electric Co Ltd Matching type pattern inspection device using normalization method
JPS60107115A (en) * 1983-11-16 1985-06-12 Amada Co Ltd Control method of work feed device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02308380A (en) * 1989-05-24 1990-12-21 Juki Corp Picture processor device

Similar Documents

Publication Publication Date Title
JPH10232940A (en) Device and method for corner detection
JPS6042990B2 (en) Pattern recognition method
JP2023000083A (en) Image display method and display system
JPH07118784B2 (en) Method for detecting motion of television signals
JPH10145674A (en) Video signal processing unit and video signal processing method
JPS628072B2 (en)
CN103793879A (en) Digital image anti-distortion processing method
JPH06249615A (en) Position detecting method
JPS624588A (en) Centroid and main axial angle detector
CN114155288A (en) AR space visual three-dimensional reconstruction method controlled through gestures
JP3109580B2 (en) IMAGE INPUT DEVICE AND COMPUTER-READABLE RECORDING MEDIUM RECORDING IMAGE PROCESSING PROGRAM FOR IMAGE INPUT DEVICE
CN112637587A (en) Dead pixel detection method and device
JP2003036142A (en) System and method for presentation
JPH10145673A (en) Video signal processing unit and video signal processing method
Jia et al. A miniature stereo vision machine for real-time dense depth mapping
Andersson A low-latency 60 Hz stereo vision system for real-time visual control
JPS62111368A (en) Main axial angle detector
CN111766947A (en) Display method, display device, wearable device and medium
JPH1091790A (en) Three-dimensional shape extraction method and device and storage medium
JPH07120416B2 (en) High speed visual recognition device
JPS623309A (en) Spindle angle detector
CN109767390A (en) A kind of digital picture of block parallel disappears image rotation method
JPS603060A (en) Collecting device for image contour
JPS62285108A (en) Programmable controller
JP3327961B2 (en) Image processing device