JPH03241470A - Posture detecting method - Google Patents

Posture detecting method

Info

Publication number
JPH03241470A
JPH03241470A JP2039275A JP3927590A JPH03241470A JP H03241470 A JPH03241470 A JP H03241470A JP 2039275 A JP2039275 A JP 2039275A JP 3927590 A JP3927590 A JP 3927590A JP H03241470 A JPH03241470 A JP H03241470A
Authority
JP
Japan
Prior art keywords
image
posture
line sensors
pickup means
image pickup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2039275A
Other languages
Japanese (ja)
Other versions
JPH07101454B2 (en
Inventor
Michiya Yokota
道也 横田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seikosha KK
Original Assignee
Seikosha KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seikosha KK filed Critical Seikosha KK
Priority to JP2039275A priority Critical patent/JPH07101454B2/en
Publication of JPH03241470A publication Critical patent/JPH03241470A/en
Publication of JPH07101454B2 publication Critical patent/JPH07101454B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Automatic Assembly (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To miniaturize an image pickup means for the detection of the posture of a recognition object and a memory circuit and to shorten detecting time by using the image pickup means having two line sensors, and installing the image pickup means at a position where the recognition object is crossed with the two line sensors and is image-formed. CONSTITUTION:The image pickup means 1 having the two line sensors outputs data by converting an image signal in accordance with luminance to image data from the two line sensors. Furthermore, a driving mean 2 which rotates the image pickup means 1, an illumination 4, a robot 5 to move the recognition object 3, and a control part 6 which performs the control of the robot 5, etc., based on the image data from the image pickup means 1 are provided. Therefore, the image pickup means 1 is installed at the position where the recognition object 3 is crossed with the two line sensors and is image-formed, and the posture of the recognition object 3 can be detected based on each image signal generated from the two line sensors. Thereby, it is possible to miniaturize a posture detector and to shorten a time required for the detection of the posture.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、姿勢検出方法に関するものである。[Detailed description of the invention] [Industrial application field] The present invention relates to a posture detection method.

[従来の技術] 例えば、任意に置かれた棒状の部品等を工業用ロボット
によって把持し、製品を組み立てる場合等には、部品等
の姿勢を検出する必要があり、その1つの方法として、
例えば、500X500画素で1画面を構成するビデオ
カメラ等の撮像手段によって上記棒状の部品等を撮像し
、各画素において出力される画像信号を画像データに変
換して記憶回路に記憶し、この画像データに基づいて上
記棒状の部品等の姿勢を検出するという方法がある。
[Prior Art] For example, when an industrial robot grips arbitrarily placed rod-shaped parts and assembles a product, it is necessary to detect the posture of the parts.
For example, an image of the above-mentioned rod-shaped part is captured by an imaging means such as a video camera having one screen composed of 500 x 500 pixels, and the image signal output from each pixel is converted into image data and stored in a storage circuit. There is a method of detecting the posture of the above-mentioned rod-shaped parts based on the following.

[解決しようとする課題] 上記従来の方法は1画面分の画像データを得るため、多
くのセンサと大容量の記憶回路を必要とする。このため
装置が大型化するとともにデータ処理に時間がかかる。
[Problems to be Solved] The conventional method described above requires many sensors and a large-capacity storage circuit in order to obtain image data for one screen. For this reason, the device becomes large and data processing takes time.

すなわち、1画面上の画像データのうち、棒状の認識対
象およびその周辺部の占める割合はごく1部分のみであ
り、1画面分もの画像データは必要なく、多くの画像デ
ータは不必要なものである。
In other words, of the image data on one screen, the bar-shaped recognition target and its surroundings occupy only a small portion, so there is no need for one screen's worth of image data, and much of the image data is unnecessary. be.

本発明は、姿勢検出装置の小型化、姿勢検出に要する時
間短縮を実現する姿勢検出方法を提供することを目的と
している。
An object of the present invention is to provide an attitude detection method that realizes downsizing of an attitude detection device and shortens the time required for attitude detection.

[課題を解決するための手段] 本発明は、棒状の認識対象を撮像し、その画像信号を出
力し、これに基づいて上記認識対象の姿勢を検出する姿
勢検出方法において、2本のラインセンサを有する撮像
手段を用い、上記認識対象が上記2本のラインセンサと
交差して結像する位置に上記撮像手段を設置し、上記2
本のラインセンサから発生する各画像信号に基づいて、
上記認識対象の姿勢を検出するようにして上記1題を解
決するものである。
[Means for Solving the Problems] The present invention provides a posture detection method that images a rod-shaped recognition target, outputs the image signal, and detects the posture of the recognition target based on the image signal. The imaging means is installed at a position where the recognition target intersects with the two line sensors to form an image,
Based on each image signal generated from the book line sensor,
The above problem is solved by detecting the posture of the recognition target.

[実施例] 以下、本発明の一実施例を図面に基づいて説明する。[Example] Hereinafter, one embodiment of the present invention will be described based on the drawings.

第1図において、1は2本のラインセンサを有する撮像
手段であり、撮像したときに2本のラインセンサから輝
度に応じた画像信号を画像データに変換して出力する。
In FIG. 1, reference numeral 1 denotes an imaging means having two line sensors, and when an image is captured, image signals corresponding to brightness from the two line sensors are converted into image data and output.

2は撮像手段1を回転させる駆動手段、3は棒状の認識
対象、4は照明、5は認識対象3を移動させるためのロ
ボット、6は撮像手段1からの画像データに基づいたロ
ボット5の制御等を行なう制御部である。
2 is a driving means for rotating the imaging means 1; 3 is a rod-shaped recognition object; 4 is an illumination; 5 is a robot for moving the recognition object 3; 6 is control of the robot 5 based on image data from the imaging means 1. This is a control unit that performs such operations.

第2図において、第1図と同じ番号のものは同一のもの
を示す。1aは画像信号を出力する撮像回路、1bは撮
像回路1aからの画像信号を画像データに変換して出力
する画像データ出力回路であり、これらによって撮像手
段1が構成される。
In FIG. 2, the same numbers as in FIG. 1 indicate the same components. 1a is an imaging circuit that outputs an image signal; 1b is an image data output circuit that converts the image signal from the imaging circuit 1a into image data and outputs the image data; these constitute the imaging means 1.

6aは画像データ出力回路1bの各ラインセンサからの
画像データをそれぞれ記憶するラインメモリからなる記
憶回路、6bは記憶回路6aの画像データに基づいて撮
像手段1の各ラインセンサからの画像信号のピーク値を
それぞれ算出する位置検出回路、6cは位置検出回路6
bで算出された各ピーク値に基づいて認識対象の姿勢を
算出する姿勢検出回路、6dは姿勢検出回路6cによっ
て算出された認識対象3の姿勢に基づいて駆動手段2お
よびロボット5の制御等を行なう制御回路であり、これ
らによって制御部6が構成される。8は位置検出回路6
bでピーク値が算出されないときにエラーを報知する報
知手段である。
Reference numeral 6a denotes a storage circuit consisting of a line memory that stores image data from each line sensor of the image data output circuit 1b, and 6b detects the peak of the image signal from each line sensor of the imaging means 1 based on the image data of the storage circuit 6a. A position detection circuit that calculates each value, 6c is a position detection circuit 6
A posture detection circuit 6d calculates the posture of the recognition target based on each peak value calculated in step b, and 6d controls the driving means 2 and the robot 5 based on the posture of the recognition target 3 calculated by the posture detection circuit 6c. These control circuits constitute the control unit 6. 8 is the position detection circuit 6
This is a notification means for notifying an error when the peak value is not calculated in step b.

第3図は撮像手段1の内部構成および認識対象3を示し
たもので、1cおよび1dはラインセンサ、1eはレン
ズ系である。ラインセンサ1cと1dとは平行であり、
レンズ系1eのレンズの中心を通過する光線がラインセ
ンサ1cの中心に到達する位置に設置しである。
FIG. 3 shows the internal configuration of the imaging means 1 and the recognition target 3, in which 1c and 1d are line sensors, and 1e is a lens system. Line sensors 1c and 1d are parallel,
It is installed at a position where the light beam passing through the center of the lens of the lens system 1e reaches the center of the line sensor 1c.

つぎに、第4図のフローチャートに沿って、姿勢検出動
作について説明する。
Next, the posture detection operation will be explained along the flowchart of FIG.

認識対象3の幅等はキーボード等の入力手段(図示せず
。)で予め入力しておく。つぎに、認識スイッチ(図示
せず。)を操作すると、撮像手段1で撮像が行なわれ、
ラインセンサ1cおよび1dから画像信号が出力され、
画像データ出力回路1bで画像データに変換され、これ
が記憶回路6aに記憶される(ステップ■)。
The width and the like of the recognition target 3 are input in advance using an input means (not shown) such as a keyboard. Next, when a recognition switch (not shown) is operated, imaging is performed by the imaging means 1,
Image signals are output from line sensors 1c and 1d,
The image data output circuit 1b converts the image data into image data, which is stored in the storage circuit 6a (step 2).

つぎに、記憶回路6aに記憶された画像データに基づい
て位置検出回路6bにおいて、ランイセンサ1cおよび
1dからの画像信号の各ピーク値の検出動作が行なわれ
る(ステップ■)。
Next, the position detection circuit 6b detects each peak value of the image signals from the run sensors 1c and 1d based on the image data stored in the storage circuit 6a (step 2).

例えば、ラインセンサ1cおよび1dと認識対象3の結
像が第5図(a)のように交差している場合には、ライ
ンセンサ1cからは第5図(b)のような波形、ライン
センサーdからは第5図(c)のような波形の画像信号
が出力される。nはラインセンサ内の受光素子の番号、
■ は受光素子からの出力電圧値である。
For example, if the images of the line sensors 1c and 1d and the recognition target 3 intersect as shown in FIG. 5(a), the waveform from the line sensor 1c as shown in FIG. 5(b), An image signal having a waveform as shown in FIG. 5(c) is output from d. n is the number of the light receiving element in the line sensor,
■ is the output voltage value from the light receiving element.

位置検出回路6bによって各ピーク値が検出されると、
これに基づいて姿勢検出回路6Cによって認識対象3の
姿勢すなわちラインセンサーCのピーク値が検出された
位置の撮像画面上での座標および認識対象3の傾きが算
出される。
When each peak value is detected by the position detection circuit 6b,
Based on this, the posture detection circuit 6C calculates the posture of the recognition object 3, that is, the coordinates on the imaging screen of the position where the peak value of the line sensor C is detected and the inclination of the recognition object 3.

撮像画面上の座標系は第6図に示すものである。The coordinate system on the imaging screen is shown in FIG.

X軸はラインセンサーcと平行であり、ラインセンサI
Cの中心に原点Oをとる。ランイセンサーdはラインセ
ンサーCに対してy軸方向に距離Pだけ平行移動した位
置に置かれる。ラインセンサ1cの画像信号のピーク値
をσ 、ラインセンサ1dの画像信号のピーク値をσ 
、画素距離係数す をβ、X軸オフセットをX 1y軸オフセツトをyo、
レンズ倍率をαとすると、ピーク値σ の検出された位
置の座標は、 X−βσ CO5eo +X。
The X axis is parallel to line sensor c, and line sensor I
Set the origin O at the center of C. The run sensor d is placed at a position parallel to the line sensor C by a distance P in the y-axis direction. The peak value of the image signal of the line sensor 1c is σ, and the peak value of the image signal of the line sensor 1d is σ
, the pixel distance coefficient is β, the X-axis offset is X, the y-axis offset is yo,
When the lens magnification is α, the coordinates of the position where the peak value σ is detected are: X−βσ CO5eo +X.

a y−βσ sjn  θo+y。a y−βσ sjn θo+y.

となる。θ。は撮像手段1を回転させた場合の角度であ
る。また、ラインセンサーCおよび1dと認識対象3の
結像とのなす角度θは、 σ 〉σbの場合は、 θ−180+θ −tan”(aP/a  −a  )
Oa      b σb〉σ3の場合は、 θ電θ +jan’(αP/ab−a8)となる(ステ
ップ■)。
becomes. θ. is the angle when the imaging means 1 is rotated. In addition, the angle θ between the line sensors C and 1d and the image of the recognition target 3 is, if σ > σb, θ−180+θ −tan”(aP/a −a )
When Oa b σb>σ3, θ electric θ + jan'(αP/ab−a8) is obtained (step ■).

つぎに、姿勢検出回路6cで算出された姿勢に基づいて
、制御回路6dにより、ロボット5のハンド部の中心を
座標(x、y)の位置へ移動し、つづいてハンド部を0
0度向回転せてハンドを開き、認識対象3の位置までハ
ンド部を下降し、ハントで認識対象3をつかんで所定の
場所へ移動し、ハンドを開放する(ステップ■)。
Next, based on the posture calculated by the posture detection circuit 6c, the control circuit 6d moves the center of the hand portion of the robot 5 to the coordinate (x, y) position, and then moves the hand portion to zero.
Rotate in the 0 degree direction to open the hand, lower the hand section to the position of the recognition object 3, grab the recognition object 3 with the hunt, move it to a predetermined place, and release the hand (step 2).

以上の動作により、2本のラインセンサーCおよび1d
からの画像信号に基づいて認識対象3の姿勢が検出され
、ロボット5によって自動的に移動される。
By the above operation, the two line sensors C and 1d
The posture of the recognition target 3 is detected based on the image signal from the robot 5, and the robot 5 automatically moves it.

ところで、1回目の撮像でピーク値が検出されないと、
駆動手段2によって撮像手段1がθθ度回転され、再び
認識対象3が撮像される(ステップ■)。
By the way, if the peak value is not detected in the first imaging,
The imaging means 1 is rotated by θθ degrees by the driving means 2, and the recognition object 3 is imaged again (step 2).

ピーク値が検出されない場合として、例えば、第7図(
a)のようにラインセンサ1cおよび1dと認識対象3
の結像が交差している状態がある。
For example, when the peak value is not detected, see Figure 7 (
As shown in a), line sensors 1c and 1d and recognition target 3
There is a state in which the images of the two images intersect.

このときラインセンサ1cからの画像信号の波形は第7
図(b)のように、ラインセンサ1dからの画像信号の
波形は第7図(C)のようになる。
At this time, the waveform of the image signal from the line sensor 1c is
As shown in FIG. 7(b), the waveform of the image signal from the line sensor 1d is as shown in FIG. 7(c).

これではピーク値を特定することかできない。このため
、撮像手段1をθ。反回転させることにより、第7図(
d)のようにラインセンサ1cおよび1dと認識対象3
の結像との交差角度θを大きくすることができ、ライン
センサ1cおよび1dの各出力信号の波形にピーク値が
明確に現れるようになる。
This makes it impossible to identify the peak value. For this reason, the imaging means 1 is set at θ. By counter-rotating, Fig. 7 (
As shown in d), line sensors 1c and 1d and recognition target 3
The intersection angle θ with the image formation can be increased, and peak values clearly appear in the waveforms of the output signals of the line sensors 1c and 1d.

ところで、2回目の撮像時にもピーク値が検出されない
場合は、制御回路6dによって撮像手段1の視野内に認
識対象3が存在していないとみなされ、報知手段8によ
ってエラー報知が行なわれる(ステップ■)。
By the way, if the peak value is not detected during the second imaging, the control circuit 6d determines that the recognition target 3 does not exist within the field of view of the imaging means 1, and the notification means 8 issues an error notification (step ■).

なお、上記実施例においては、ラインセンサーCおよび
1dを平行に配置したが、これに限らず、第8図(a)
および第9図(a)のように配置してもよい。
In the above embodiment, the line sensors C and 1d are arranged in parallel, but the arrangement is not limited to this, and as shown in FIG. 8(a)
Alternatively, the arrangement may be as shown in FIG. 9(a).

第8図(a)は、ラインセンサーCとラインセンサ1d
との角度φを、φ≠09 90°に設定した場合である
。その座標系は第8図(b)に示したように、ラインセ
ンサーcとラインセンサーdの延長線の交点を原点とし
、X軸はラインセンサICと平行である。ラインセンサ
ーCと認識対象3の結像とのなす角度θは、 ピーク値がσ 〈σbの場合は、 o ”” tan−l(ασb+[3o )SINφ(
ασb+13o )CO3−−(ασユ+^0)ピーク
値がσ 〉σbの場合は、 o −11110tan−’ ((X (7b ”Bo
 )SINφ(ασ +A )−(ασb十Bo)CO
8φO となる。Aoはラインセンサーcの原点からのオフセッ
ト、Boはラインセンサーdの原点からのオフセットで
ある。
Figure 8(a) shows line sensor C and line sensor 1d.
This is a case where the angle φ with respect to φ is set to φ≠0990°. As shown in FIG. 8(b), the coordinate system has its origin at the intersection of the extended lines of line sensor c and line sensor d, and the X axis is parallel to line sensor IC. The angle θ between the line sensor C and the image of the recognition target 3 is: When the peak value is σ 〈σb, o ”” tan-l (ασb + [3o) SINφ (
ασb+13o ) CO3−−(ασyu+^0) If the peak value is σ 〉σb, o −11110tan−′ ((X (7b ”Bo
) SINφ (ασ + A ) − (ασb + Bo) CO
It becomes 8φO. Ao is the offset from the origin of line sensor c, and Bo is the offset from the origin of line sensor d.

第9図(a)は、ラインセンサーcとラインセンサ1d
との角度φを、φ−90’に設定した場合である。この
場合、ラインセンサーcおよび1dを第9図(b)のよ
うに配置し、ビームスプリッタ9により、ラインセンサ
ーCおよび1d上に認識対象3の像が結ばれるようにし
である。その座標系は第9図(C)に示したように、ラ
インセンサICとラインセンサーdの交点を原点とし、
X軸はラインセンサーcと平行である。ラインセンサI
Cと認識対象3の結像とのなす角度θは、ピーク値がσ
 ×σbく0の場合は、 θ−t a n’ (σ /σ ) a ピーク値がσ ×σb>Oの場合は、 e−180−tan−7(σ/ a  )b     
 a となる。
Figure 9(a) shows line sensor c and line sensor 1d.
This is a case where the angle φ with respect to φ is set to φ−90′. In this case, the line sensors c and 1d are arranged as shown in FIG. 9(b), and the image of the recognition target 3 is formed on the line sensors C and 1d by the beam splitter 9. As shown in FIG. 9(C), the coordinate system has the origin at the intersection of line sensor IC and line sensor d,
The X axis is parallel to line sensor c. Line sensor I
The angle θ between C and the image of recognition target 3 has a peak value of σ
If ×σb is 0, then θ−tan’ (σ /σ ) a If the peak value is σ ×σb>O, then e−180−tan−7 (σ/a ) b
It becomes a.

[効果] 本発明によれば、ラインセンサを2本だけ有する撮像手
段によって棒状の認識対象の姿勢を検出することができ
るので、撮像手段および画像データの記憶回路の小型化
および姿勢検出時間の短縮が実現でき、大変に便利であ
る。
[Effects] According to the present invention, the posture of the rod-shaped recognition target can be detected by the imaging means having only two line sensors, so that the imaging means and the image data storage circuit can be miniaturized and the posture detection time can be shortened. can be achieved and is very convenient.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の一実施例を示した構成図、第2図は本
発明の一実施例を示したブロフク図、第3図は撮像手段
1の内部構成および認識対象3の一例を示した説明図、
第4図は第2図の動作を説明するためのフローチャート
、第5図、第6図および第7図は第2図の動作を説明す
るための説明図、第8図および第9図は本発明による他
の実施例を示した説明図である。 1・・・撮像手段 lc、ld・・・ラインセンサ 3・・・認識対象 以  上 第3 図 第5 図 第2図 第4 5イン覧コ守 第 図 (d) 第7 図 (a) 第 8図
FIG. 1 is a block diagram showing an embodiment of the present invention, FIG. 2 is a block diagram showing an embodiment of the present invention, and FIG. 3 is an example of the internal structure of the imaging means 1 and the recognition target 3. An explanatory diagram,
Figure 4 is a flowchart for explaining the operation in Figure 2, Figures 5, 6 and 7 are explanatory diagrams for explaining the operation in Figure 2, and Figures 8 and 9 are in the main text. FIG. 7 is an explanatory diagram showing another embodiment according to the invention. 1...Imaging means lc, ld...Line sensor 3...Recognition target and above Figure 3 Figure 5 Figure 2 Figure 4 Figure 8

Claims (1)

【特許請求の範囲】 棒状の認識対象を撮像し、その画像信号を出力し、これ
に基づいて上記認識対象の姿勢を検出する姿勢検出方法
において、 2本のラインセンサを有する撮像手段を用い、上記認識
対象が上記2本のラインセンサと交差して結像する位置
に上記撮像手段を設置し、上記2本のラインセンサから
発生する各画像信号に基づいて、上記認識対象の姿勢を
検出することを特徴とする姿勢検出方法。
[Claims] A posture detection method for capturing an image of a rod-shaped recognition target, outputting an image signal thereof, and detecting the posture of the recognition target based on the image signal, using an imaging means having two line sensors, The imaging means is installed at a position where the recognition target intersects with the two line sensors to form an image, and the posture of the recognition target is detected based on each image signal generated from the two line sensors. A posture detection method characterized by the following.
JP2039275A 1990-02-20 1990-02-20 Attitude detection method Expired - Fee Related JPH07101454B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2039275A JPH07101454B2 (en) 1990-02-20 1990-02-20 Attitude detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2039275A JPH07101454B2 (en) 1990-02-20 1990-02-20 Attitude detection method

Publications (2)

Publication Number Publication Date
JPH03241470A true JPH03241470A (en) 1991-10-28
JPH07101454B2 JPH07101454B2 (en) 1995-11-01

Family

ID=12548614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2039275A Expired - Fee Related JPH07101454B2 (en) 1990-02-20 1990-02-20 Attitude detection method

Country Status (1)

Country Link
JP (1) JPH07101454B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6375979A (en) * 1986-09-19 1988-04-06 Fujitsu Ltd Visually recognizing device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6375979A (en) * 1986-09-19 1988-04-06 Fujitsu Ltd Visually recognizing device

Also Published As

Publication number Publication date
JPH07101454B2 (en) 1995-11-01

Similar Documents

Publication Publication Date Title
JP4912117B2 (en) Imaging device with tracking function
JPH05145818A (en) Image pickup device
JP2008098968A (en) Defect inspection device
KR20090062881A (en) A moving robot and a moving object detecting method thereof
JPH10200836A (en) Image projection device
JPH0275284A (en) Image pickup device
GB2347575A (en) Synthesizing a zoomed out image using several overlapping images
JP3723282B2 (en) Ranging omnidirectional vision sensor
JP3796356B2 (en) Camera control apparatus, method, and computer-readable storage medium
JPH03241470A (en) Posture detecting method
KR20060133265A (en) Method and apparatus for controlling privacy mask display
JP4920178B2 (en) Strain detection system and strain detection method
US20020044701A1 (en) Image input apparatus
JPH1198395A (en) Picture processor
JP2004215228A (en) Photographing device
JPH09322047A (en) Video camera control method, video camera control system, video camera controller and video camera
JP3311071B2 (en) Imaging device
JPH03184183A (en) Image recognizing method
JPH05187826A (en) Detecting method of position
JPH08289284A (en) Monitoring system
JP2005308961A (en) Imaging optical system
JP2004171344A (en) Image reading apparatus
JPH0323781A (en) Picture input device
CN117641127A (en) Control apparatus, image pickup apparatus, system, control method, and storage medium
JPH02107904A (en) Abnormal access detector

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees