JPS6375979A - Visually recognizing device - Google Patents

Visually recognizing device

Info

Publication number
JPS6375979A
JPS6375979A JP61221011A JP22101186A JPS6375979A JP S6375979 A JPS6375979 A JP S6375979A JP 61221011 A JP61221011 A JP 61221011A JP 22101186 A JP22101186 A JP 22101186A JP S6375979 A JPS6375979 A JP S6375979A
Authority
JP
Japan
Prior art keywords
dimensional
image
dimensional line
line sensor
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP61221011A
Other languages
Japanese (ja)
Inventor
Kazuhito Ueno
上野 和仁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP61221011A priority Critical patent/JPS6375979A/en
Publication of JPS6375979A publication Critical patent/JPS6375979A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To recognize a picture in a visual field at a high speed, by recognizing the picture by one-dimensionally processing the output of each one-dimensional line sensor which receives the optical images each different in rotating angle to the optical axis of the visual field. CONSTITUTION:Each one-dimensional line sensor 3a-3c is set in such a relation that they can receive the optical image of each different rotating angle to the optical axis X and Y of a visual field 1a. For example, the sensor 3a is set at 0 deg. (X axis) and the sensor 3b is set at 90 deg. (Y axis), and then, the sensor 3c is set at 135 deg.. By using the image picking-up outputs of the one-dimensional sensors 3a-3c the position, etc., of a two-dimensional picture are recognized. Since the picture in a two-dimensional visual field is received by the three or more one-dimensional line sensors 3a-3c by changing the rotating angle in such a way, locations of an object in three or more directions in a two-dimensional visual field can be detected. Therefore, locations of the object in three or more directions can be detected by the one-dimensional processing of the one-dimensional line sensors and, as a result, inexpensive high-speed recognition is made possible.

Description

【発明の詳細な説明】 〔目 次〕 概要 産業上の利用分野 従来の技術(第8図) 発明が解決しようとする問題点 問題点を解決するための手段(第1図)作用 実施例 (a)  一実施例の構成の説明 (第2図、第3図、第4図) (′b)一実施例の動作の説明 (第5図、第6図、第7図) (C)  他の実施例の説明 発明の効果 〔概 要〕 視野内の二次元画像から対象物の位置又は形状等を認識
する視覚認識装置において、該二次元画像を光学的に少
なくとも3つの画像に分割する画像作成部と2分割画像
の各々に対応した一次元ラインセンサとを設け、視野の
光軸に対し一次元ラインセンサが回転角度の異なる光像
を受光するようにすることによって、一次元処理で対象
物の位置等を認識するものである。
[Detailed description of the invention] [Table of contents] Overview Industrial field of application Prior art (Fig. 8) Problems to be solved by the invention Means for solving the problems (Fig. 1) Working examples ( a) Explanation of the configuration of one embodiment (Fig. 2, Fig. 3, Fig. 4) ('b) Explanation of the operation of one embodiment (Fig. 5, Fig. 6, Fig. 7) (C) Others Description of embodiments of the invention Effects of the invention [Summary] In a visual recognition device that recognizes the position or shape of an object from a two-dimensional image within the field of view, an image in which the two-dimensional image is optically divided into at least three images. A creation unit and a one-dimensional line sensor corresponding to each of the two divided images are provided, and the one-dimensional line sensor receives light images with different rotation angles with respect to the optical axis of the field of view. It is used to recognize the position of objects.

〔産業上の利用分野〕[Industrial application field]

本発明は、視野内に取込んだ二次元画像から対象物の位
置又は形状等を認識する視覚認識装置に関し2%に一次
元処理によって対象物の位置、形状等を認識することの
できる視覚認識装置に関する。
The present invention relates to a visual recognition device that recognizes the position or shape of an object from a two-dimensional image captured within the field of view. Regarding equipment.

近年、入間の視覚と同様の機能を機械によって実現する
視覚認識装置の開発が盛んに行なわれておシ、視野内の
物体2部材等の位置、形状等の認識が可能となっている
In recent years, there has been active development of visual recognition devices that mechanically realize functions similar to Iruma's vision, and it has become possible to recognize the position, shape, etc. of objects 2 members within the visual field.

このような視覚認識装置は、対象物の検査、認識のため
広く利用されておシ2例えば、プリント基板上の角形パ
ッドはIC等を搭載する自動組立てロボットにおける角
形パッドの位置認識のためや、角形のICやICチップ
をハンドリングする際のIC,ICチップの位1m認識
のため等に用いられている。
Such visual recognition devices are widely used for inspecting and recognizing objects.2For example, a square pad on a printed circuit board is used to recognize the position of a square pad in an automatic assembly robot equipped with an IC, etc. It is used to recognize ICs and IC chips at 1m when handling square ICs and IC chips.

このような視覚認識装置では、高速で認識できること及
び視覚認識装置が安価であること等が求められている。
Such visual recognition devices are required to be capable of high-speed recognition and to be inexpensive.

〔従来の技術〕[Conventional technology]

従来の視覚認識装置は、第8図(5)に示すテレビカメ
ラ等の撮像手段10で対象部材(例えばI C。
A conventional visual recognition device uses an imaging means 10 such as a television camera as shown in FIG.

ICチップ)17を撮像し、対象部材17を撮像した二
次元画像を電気信号に変換した後A/D(アナログ/デ
ジタル)コンバータ11でデジタル値に変換し、これを
画像メモリ12に格納する。
IC chip) 17 is imaged, and the two-dimensional image of the target member 17 is converted into an electrical signal, then converted into a digital value by an A/D (analog/digital) converter 11, and stored in the image memory 12.

そしてマイクロプロセッサ等のCPU13はバス16を
介し画像メモリ12の二次元画像情報を読出し、認識処
理し、第8図(Qの如く対象部材17の寸法1m、1.
、中心G、傾きα等の位置情報を得ていた。
Then, the CPU 13 such as a microprocessor reads out the two-dimensional image information from the image memory 12 via the bus 16, performs recognition processing, and as shown in FIG.
, center G, inclination α, etc. were obtained.

尚2画像メモリ12の内容はビデオRA M (ランダ
ムアクセスメモリ)14にもバス16を介し与えられ、
モニタテレビ15で撮像内容が表示され、オペレータの
確認に供される。
The contents of the second image memory 12 are also provided to a video RAM (random access memory) 14 via a bus 16.
The imaged content is displayed on the monitor television 15 for confirmation by the operator.

このような視覚認識装置は2例えば1組み立てロボット
等の自動機に取付けられ、自動機の対象部材17の把持
に際し2把持部の位置と対象部材17の位置とのずれを
自己補正するために用いられ2把持を円滑に実行する。
Such a visual recognition device is attached to an automatic machine such as an assembly robot 2, and is used to self-correct the deviation between the position of the gripping part 2 and the position of the target member 17 when the automatic machine grips the target member 17. 2. Grasp smoothly.

この対象部材の位置を求めるための視覚処理は第8図(
B)フロー図に示す如く、撮像手段10の視野内の画像
を取込んで電気信号に変換し、 A/Dコンバータ11
でA/D変換後シェーディング補正(背景補正)シ、更
に2値化する。そして、平滑化処理後画像メモリ12へ
取込み(展開し)。
Visual processing for determining the position of this target member is shown in Figure 8 (
B) As shown in the flow diagram, an image within the field of view of the imaging means 10 is captured and converted into an electrical signal, and the A/D converter 11
After A/D conversion, shading correction (background correction) is performed and further binarization is performed. Then, after smoothing processing, the image is captured (developed) into the image memory 12.

格納する。次KCPU13は画像メモリ12の画像情報
を読出し、特徴抽出して1位置情報(11゜t、、G、
α)を算出する。
Store. Next, the KCPU 13 reads out the image information in the image memory 12, extracts features, and obtains one position information (11°t, , G,
α) is calculated.

このような従来の視覚認識技術は、撮像した結果自体の
二次元画像をメモリに格納し、CPU13が二次元の特
徴抽出を行って位置を得るようにしていた。
In such conventional visual recognition technology, a two-dimensional image of the captured image itself is stored in a memory, and the CPU 13 extracts two-dimensional features to obtain the position.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

しかしながら、係る従来の視覚認識技術は、二次元画像
をそのまま利用するという思想に基いているため、撮像
手段2画像メモリに二次元のものを要し且つ、CPUも
二次元処理するため、高速処理が困難であるという問題
があシ、対象部材が方形等の複雑な形状となる程この傾
向は大となる。
However, since such conventional visual recognition technology is based on the idea of using two-dimensional images as they are, they require two-dimensional image memory for the imaging means and two-dimensional image memory, and the CPU also performs two-dimensional processing, so high-speed processing is required. This problem becomes more difficult as the target member becomes more complex in shape, such as a rectangle.

又、二次元構成の取扱いのため、装置自体が高価となる
という問題もあった。
Furthermore, there is also the problem that the device itself becomes expensive because it handles a two-dimensional configuration.

本発明は、二次元画像を一次元処理して、高速に且つ安
価に対象物の位置情報をとり出すことのできる視覚認識
装置を提供することを目的とする。
SUMMARY OF THE INVENTION An object of the present invention is to provide a visual recognition device that can perform one-dimensional processing on a two-dimensional image and extract position information of an object at high speed and at low cost.

〔問題点を解決するための手段〕[Means for solving problems]

第1図は本発明の原理説明図である。 FIG. 1 is a diagram explaining the principle of the present invention.

第1図(5)中、1は画像導入部でおシ、視野la内の
画像を光学的に取り込むだめのものであり。
In FIG. 1 (5), numeral 1 is an image introducing section for optically capturing the image within the field of view la.

例えば光ファイバで構成されるもの、2は画像作酸部で
あシ、視野la内に取り込んだ二次元画像を光学的に少
なくとも3つの画像に分割するもの。
For example, it is composed of an optical fiber, and 2 is an image forming unit that optically divides a two-dimensional image captured within the field of view la into at least three images.

3は一次元ラインセンサ群であυ2分割された画像の各
々に対応して少なくとも3つの一次元ラインセンサ3a
、3b、3Cを有し2例えば、−ライン分の複数の受光
エレメントを有するCCD(Charge Coupl
ed Device )で構成されるものである。
3 is a one-dimensional line sensor group, and there are at least three one-dimensional line sensors 3a corresponding to each of the images divided into υ2.
, 3b, 3C and a plurality of light-receiving elements for 2, for example, - lines (Charge Couple
ed Device).

第1図(2)に示す如く、各一次元ラインセンサ3a、
3b、3cは、視野1aの光軸(x、y)に対し各々異
なる回転角度の光像を受光するような関係を持たせてあ
シ2例えば図の例では、一次元ラインセンサ3aが00
(X軸)、一次元ラインセンサ3bが90°(Y軸)、
一次元ラインセンサ3Cが135°の関係にある。
As shown in FIG. 1 (2), each one-dimensional line sensor 3a,
3b and 3c are arranged in a relationship such that they each receive light images at different rotation angles with respect to the optical axis (x, y) of the field of view 1a.For example, in the example shown in the figure, the one-dimensional line sensor 3a is
(X axis), one-dimensional line sensor 3b is 90° (Y axis),
The one-dimensional line sensor 3C has an angle of 135°.

この関係を得るには、一次元ラインセンサ3 a。To obtain this relationship, one-dimensional line sensor 3a.

3b、3cを図の如くの角度で配置してもよく。3b and 3c may be arranged at an angle as shown in the figure.

又画像作成部2で分割された画像を回転させるようにし
てもよい。
Alternatively, the divided images may be rotated by the image creation section 2.

この一次元ラインセンサ3a、3b、3cの撮像出力に
よって、二次元画像の位置等の認識を行なうものである
The position of the two-dimensional image, etc. is recognized by the imaging outputs of the one-dimensional line sensors 3a, 3b, and 3c.

〔作 用〕[For production]

本発明では、二次元視野内の画像を回転角度を変えて、
3つ以上の一次元ラインセンナに受光しているため、二
次元視野における3方向以上の対象物の位置を検出でき
る。従って、一次元ラインセンサの一次元処理によって
対象物の3方向以上の位置を検出でき、高速で且つ安価
な認識が可能となる。
In the present invention, by changing the rotation angle of an image within a two-dimensional field of view,
Since the light is received by three or more one-dimensional line sensors, the position of the object in three or more directions in the two-dimensional field of view can be detected. Therefore, the position of an object in three or more directions can be detected by one-dimensional processing using a one-dimensional line sensor, and recognition can be performed at high speed and at low cost.

〔実施例〕〔Example〕

(a)  一実施例の構成の説明 第2図は本発明の一実施例全体構成図である。  。 (a) Description of the configuration of one embodiment FIG. 2 is an overall configuration diagram of an embodiment of the present invention.  .

図中、第1図で示したものと同一のものは同一の記号で
示してあシ、4は画像処理回路であシ。
In the figure, the same components as those shown in FIG. 1 are indicated by the same symbols, and 4 is an image processing circuit.

一次元ラインセンサ群3を読出し、対象部材17の位置
を算出するものであシ、後述する第4図にて詳述するも
の、5は制御部であυ1例えば、バーンナルコンピュー
タで構成され2画像処理回路4からの検出位置に基いて
位置情報を求めるものでるる。
It reads out the one-dimensional line sensor group 3 and calculates the position of the target member 17, which will be explained in detail later in FIG. Position information is obtained based on the detected position from the image processing circuit 4.

この例では、対象部材17がICであシ2画像導入部(
以下光ファイバという)1の先端をロボットのハンドに
取付け、ロボットのアーム等の位置制御を制御部5と図
示しないロボット制御部とが行なう例を示している。そ
して、光ファイバ1からの導入画像によってIC17の
位置を求め。
In this example, the target member 17 is an IC and the image introduction part (
An example is shown in which the tip of an optical fiber (hereinafter referred to as optical fiber) 1 is attached to the hand of a robot, and the control section 5 and a robot control section (not shown) control the position of the arm of the robot. Then, the position of the IC 17 is determined based on the image introduced from the optical fiber 1.

これによってロボットのハンド位置を自己補正して、I
C17をハンドが正確に把持できるようにしたものであ
る。
This allows the robot's hand position to self-correct and I
This allows the C17 to be held accurately by the hand.

光ファイバ1は光像を曲げて伝送できるので。The optical fiber 1 can bend and transmit a light image.

ロボットのハンドへの取付けが自由にでき2画像作成部
2等を基台上に設けられるから、ロボットに対する負荷
が最小限で済み、ロボットの動作の支障とならないし、
又、光伝送のためノイズに強く2作業環境が悪い所でも
使用できる。
Since it can be freely attached to the robot's hand and the image creation unit 2 etc. can be installed on the base, the load on the robot can be minimized and it will not interfere with the robot's operation.
In addition, because it is optically transmitted, it is resistant to noise and can be used even in harsh work environments.

第3図は、第2図構成の画像作成部2及び撮像部(一次
元ラインセンナ群)3の構成図である。
FIG. 3 is a block diagram of the image creation section 2 and the imaging section (one-dimensional line sensor group) 3 configured in FIG. 2.

図中、第1図及び第2図で示したものと同一のものは同
一の記号で示して!J)、20は光束拡大レンズであり
、光ファイバlからの光像を拡大するもの、21はコリ
メートレンズでアシ、光束拡大レンズ20で拡大された
光像を平行像に戻すもの、22はハーフプリズムでオ夛
、コリメートレ/ズ21からの光像を分割して同一の2
つの光像を得るためのもの、23はハーフプリズムであ
シ。
In the figures, the same parts as shown in Figures 1 and 2 are indicated by the same symbols! J), 20 is a beam magnifying lens that magnifies the light image from the optical fiber l, 21 is a collimating lens that returns the light image expanded by the beam magnifying lens 20 to a parallel image, and 22 is a half lens. The prism divides the light image from the collimator lens 21 into two identical
23 is a half prism to obtain two optical images.

ハーフプリズム22からの光像を分割して2つの光像を
得るもの、24はオーラストンプリズムであυ、入射光
像を一90°光軸回転するもの、25゜26.27は各
々コリメートレンズであシ、各々光像を一次元ラインセ
ンサ3a、3b、3Cに導くものである。
24 is an aurastone prism that divides the light image from the half prism 22 to obtain two light images, 24 is an aurastone prism that rotates the incident light image by 190°, and 25° and 26.27 are collimating lenses, respectively. The optical images are guided to one-dimensional line sensors 3a, 3b, and 3C, respectively.

3′は一次元ラインセンサであり、一次元ラインセンサ
3a、3bが一体になったものであシ、多数の受光エレ
メントが一列又は千鳥状に配列されたCOD素子で構成
され2例えば2048個の受光エレメントが一列に配置
され2図の上半分の1024個の領域がオーラストンプ
リズム24によつて−90″回転された光像の受光用一
次元ラインセンサ3bに2図の下半分の1024個の領
域がハーフプリズム23からの回転されない光像の受光
用一次元ラインセンサ3aに用いられる。
3' is a one-dimensional line sensor, which is a combination of one-dimensional line sensors 3a and 3b, and is composed of a large number of light-receiving elements arranged in a row or in a staggered manner. The light-receiving elements are arranged in a row, and the 1024 areas in the upper half of Figure 2 are rotated by -90'' by the Aurastone prism 24 to the one-dimensional line sensor 3b for receiving the light image. This area is used for the one-dimensional line sensor 3a for receiving the unrotated optical image from the half prism 23.

又、一次元ラインセンサ3c4CCD素子で構成され、
  1024個の受光エレメントが一列に配置され、コ
リメートレンズ27の光軸に対し45゜(視野の光軸に
対しては135°)傾けて配置されている。
In addition, it is composed of one-dimensional line sensor 3c4CCD elements,
1024 light-receiving elements are arranged in a row, and are arranged at an angle of 45 degrees with respect to the optical axis of the collimating lens 27 (135 degrees with respect to the optical axis of the field of view).

従って、光ファイバ1の視野1aの光像は、ノ)−7プ
リズム22.23によって3分割され、オーラストンプ
リズム24で90″回転された光像は一次元2インセン
サ3′の3bに9回転されない光像は一次元ラインセン
ナ3′の3aに入射し、更にハーフプリズム23の光像
は45°傾けて配置された一次元ラインセンサ3Cに入
射する。
Therefore, the optical image in the field of view 1a of the optical fiber 1 is divided into three parts by the -7 prisms 22 and 23, and the optical image rotated by 90'' by the Aurastone prism 24 is rotated nine times by the one-dimensional two-in sensor 3' 3b. The optical image that is not detected is incident on 3a of the one-dimensional line sensor 3', and furthermore, the optical image of the half prism 23 is incident on the one-dimensional line sensor 3C arranged at an angle of 45 degrees.

このため、一次元ライ/センサ3aは視野1aのX軸方
向のO″の光像を、一次元ラインセンサ3bは視野1a
のY軸方向の90″の光像を、一次元ラインセンサ3C
は視野1aの135@の光像を受光することになる。
Therefore, the one-dimensional line/sensor 3a captures the optical image of O'' in the X-axis direction of the visual field 1a, and the one-dimensional line sensor 3b captures the optical image of the visual field 1a.
A 90″ optical image in the Y-axis direction is captured by a one-dimensional line sensor 3C.
will receive a light image of 135@ in the field of view 1a.

第4図は、第2図構成の画像処理回路4の構成図である
FIG. 4 is a block diagram of the image processing circuit 4 configured in FIG. 2.

図中、第1図乃至第3図で示したものと同一のものは同
一の記号で示してあり、40はクロック発生回路でアシ
、一次元ラインセンサ3’、3Cの読出しクロックを発
生するもの、41はアドレスカウンタであυ、クロック
発生回路40のクロックを計数し、一次元ラインセンサ
3’、3Cの読出しアドレスを算出するも0.42a、
42bは各々アンプでアシ、各々一次元ラインセンサ3
′、3Cの読出された出力(受光エレメントの直列信号
)を増幅するもの、43a、43bは各々サンプルホー
ルド回路でアシ、各々アン7’42a、42bの出力を
サンプルホールドして、ノイズ成分をカットするも(Z
)、44a、44bは各々2値化回路テアシ、各々サン
プルホールド回路43a、43bの出力を2値化するも
の、45a、45bは微分回路で、sb、各々2値化回
路44a、44bの2値化出力を微分するもの、46a
、46bは各々ゲート回路でアシ、各々微分回路45a
、45bの微分出力をクロック発生回路40のクロック
に同期して後述するマイクロプロセッサに出力するもの
、47はマイクロプロセッサ(以下MPUと称す)であ
シ、一次元ラインセンナ3′、3の読出し許可信号Ml
、M2を与えて、一次元ラインセンナ3′、3にクロッ
クによる読出し動作を行なわしめ、アドレスカウンタ4
1をリセットし、ゲート回路46a、46bの微分出力
でアドレスカウンタ41のアドレスaを読み込み、アド
レスaから後述する対象物の基準座標を算出して、制御
部5へ与えるものである。
In the figure, the same components as those shown in FIGS. 1 to 3 are indicated by the same symbols, and 40 is a clock generation circuit that generates a read clock for the one-dimensional line sensors 3' and 3C. , 41 is an address counter υ, which counts the clock of the clock generation circuit 40 and calculates the read address of the one-dimensional line sensors 3', 3C.
42b each has an amplifier, and each one-dimensional line sensor 3
', 3C amplify the readout output (serial signal of the light-receiving element), 43a, 43b are each sample-and-hold circuits, A7', 42a, 42b outputs are sampled and held, and noise components are cut. Surumo (Z
), 44a and 44b are respectively binarization circuits that binarize the outputs of the sample and hold circuits 43a and 43b, and 45a and 45b are differentiating circuits; Differentiating the output, 46a
, 46b are each a gate circuit, and each is a differential circuit 45a.
, 45b is synchronized with the clock of the clock generating circuit 40 and outputs to a microprocessor (described later). 47 is a microprocessor (hereinafter referred to as MPU). Read permission for the one-dimensional line sensors 3' and 3 is provided. Signal Ml
, M2 to cause the one-dimensional line sensors 3', 3 to perform a read operation using a clock, and to
1, reads the address a of the address counter 41 using the differential outputs of the gate circuits 46a and 46b, calculates the reference coordinates of the object to be described later from the address a, and provides the result to the control unit 5.

(b)  一実施例の動作の説明 第5図は本発明の一実施例受光動作説明図、第6図は本
発明の一実施例基準座標算出説明図、第7図は本発明の
一実施例位置情報算出説明図である0 ■ 先づ、光ファイバ1の視野la内に部材17を導く
。これには、予じめ部材17の概略位置がわかっている
ので、その位置に光7アイパ1を導けばよく、具体的に
は光ファイバ1の設けられたロボットのハンドを移動す
ればよい。これによって、光ファイバ1の視野1a内に
第5囚人の如く。
(b) Description of operation of one embodiment FIG. 5 is an illustration of light receiving operation of one embodiment of the present invention, FIG. 6 is an illustration of reference coordinate calculation of one embodiment of the present invention, and FIG. 7 is an illustration of one embodiment of the present invention. FIG. 0 is an explanatory diagram of example position information calculation. First, the member 17 is guided into the field of view la of the optical fiber 1. To do this, since the approximate position of the member 17 is known in advance, it is sufficient to guide the optical 7-eyeper 1 to that position, and specifically, it is sufficient to move the hand of the robot provided with the optical fiber 1. As a result, a fifth prisoner appears within the field of view 1a of the optical fiber 1.

部材17が入シ2画像(光像)の取込みが行なわれる。When the member 17 enters, a second image (light image) is captured.

■ 導入された光像は、第3図の画像作成部2の拡大し
yズ20. コリメートレンズ21を介し。
■ The introduced light image is enlarged at y-z 20. Via the collimating lens 21.

ハーフプリズム22.23により3つの画像に分割され
る。従って第5図の)に示す如く、左から順にハーフプ
リズム23からコリメートレンズ27に向う光像、ハー
フプリズム23からコリメートレンズ26に向う光像、
ハーフプリズム22からオーラストンプリズム24に向
う光像の3つが得られる。
It is divided into three images by half prisms 22,23. Therefore, as shown in FIG.
Three optical images are obtained from the half prism 22 toward the Aurastone prism 24.

■ オーラストンプリズム24に向う光像は。■ The light image toward the Aurastone prism 24.

オーラストンプリズム24によって一90″光軸回転さ
れ、第5図(Qの如く、視野1aの横軸がY軸。
The optical axis is rotated by 190'' by the Aurastone prism 24, and the horizontal axis of the field of view 1a is the Y axis as shown in FIG. 5 (Q).

縦軸がY軸となるように回転される。The image is rotated so that the vertical axis becomes the Y axis.

■ これら3つの光像は各々コリメートレンズ25.2
6.27を介し、一次元ラインセンサ3′の3b、3a
、一次元ラインセンサ3Cに入射する。これによって、
一次元ラインセンナ3′の3bには視野1aのY軸、3
aには視野1aのX@。
■ These three light images are each collimated lens 25.2
6. 3b and 3a of the one-dimensional line sensor 3' through 27
, enters the one-dimensional line sensor 3C. by this,
3b of the one-dimensional line sensor 3' includes the Y axis of the field of view 1a, 3
In a, there is an X@ in field of view 1a.

一次元ラインセンサ3Cには視野1aの135°の線上
の一次元画像が受光される。
The one-dimensional line sensor 3C receives a one-dimensional image on a 135° line in the field of view 1a.

■ この部材17のn1〜n6の6つの絶対座標を得る
ために、第4図の画像処理回路が動作する。
(2) In order to obtain the six absolute coordinates n1 to n6 of this member 17, the image processing circuit shown in FIG. 4 operates.

即ち、MPU47は、先づ制御部5からのスタート指令
に応じ読出し許可信号M1を有効にし、アドレスカウン
タ41をリセットする。これによってクロック発生回路
40の読出しクロックによって一次元ラインセンサ3′
が動作し、各受光エレメントの受光量に応じたアナログ
信号を直列的にアンプ42aに出力する。アンプ42a
はこれを増幅し、サンプルホールド回路431でサンプ
ルホールドされ、更に2値化回路441で2値化される
と、第6図の2値化出力が得られる。この2値化出力は
、微分回路45aで微分され第6図の微分出力が得られ
る。微分出力の微分パルスの位置は第6図に示す如く2
部材17のエツジ位置(座標点) Nl−N4に対応し
ている。
That is, the MPU 47 first enables the read permission signal M1 in response to a start command from the control unit 5, and resets the address counter 41. As a result, the readout clock of the clock generation circuit 40 causes the one-dimensional line sensor 3'
operates and serially outputs an analog signal corresponding to the amount of light received by each light receiving element to the amplifier 42a. Amplifier 42a
is amplified, sampled and held in a sample and hold circuit 431, and further binarized in a binarization circuit 441 to obtain the binarized output shown in FIG. This binarized output is differentiated by a differentiating circuit 45a to obtain the differentiated output shown in FIG. The position of the differential pulse of the differential output is 2 as shown in Figure 6.
This corresponds to the edge position (coordinate point) of the member 17 Nl-N4.

この微分パルスはゲート回路46aでクロックに同期さ
れ、MPU47に与えられる。アドレスカウンタ41は
前述の如くクロック発生回路40のクロックを計数し、
読出しアドレスを算出しているので、MPU47はゲー
ト回路46Hの微分パルスの受信毎にアドレスカウンタ
41の読出しアドレスaを取り込む。従って、MPU4
7は微分パルスによって第6図の如く2部材17の一次
元ラインセンサ3′上でのエツジアドレスa1.  a
、。
This differential pulse is synchronized with the clock by the gate circuit 46a and is given to the MPU 47. The address counter 41 counts the clocks of the clock generation circuit 40 as described above,
Since the read address is calculated, the MPU 47 takes in the read address a of the address counter 41 every time the differential pulse of the gate circuit 46H is received. Therefore, MPU4
7 is the edge address a1.7 on the one-dimensional line sensor 3' of the two members 17 as shown in FIG. a
,.

al、  a4を得る。al, obtain a4.

MPU47はアドレスカウンタ41が一次元ラインセン
ナ3′の受光エレメント数(2048)計数すると、許
可信号M1を落とし、一次元ラインセンサ3′の読出し
動作を停止する。
When the address counter 41 counts the number of light receiving elements (2048) of the one-dimensional line sensor 3', the MPU 47 drops the permission signal M1 and stops the reading operation of the one-dimensional line sensor 3'.

次に、M::u47は許可信号M2を有効とし。Next, M::u47 enables the permission signal M2.

アドレスカウンタ41をリセットする。これによって、
今度は、一次元ラインセンサ3Cがクロック発生回路4
0の読出しクロックによって動作し。
Address counter 41 is reset. by this,
This time, the one-dimensional line sensor 3C is connected to the clock generation circuit 4.
It operates with a read clock of 0.

各受光エレメントの受光量に応じたアナログ信号を出力
する。
Outputs an analog signal according to the amount of light received by each light receiving element.

前述と同様に、一次元ラインセンナ3Cの出力はアンプ
42bで増幅され、サンプルホールド回路43bでサン
プルホールドされ、更に2値化回路44bで2値化され
、微分回路45bで微分され、ゲート回路46bを介し
微分パルスがMPU47に与えられる。MPU47は前
述と同様に微分パルスによってアドレスカウンタ41の
読出しアドレスaを取り込み2部材17の一次元ライン
センサ3C上でのエツジアドレス”I#  alを得る
Similarly to the above, the output of the one-dimensional line sensor 3C is amplified by the amplifier 42b, sampled and held by the sample-and-hold circuit 43b, further binarized by the binarization circuit 44b, differentiated by the differentiation circuit 45b, and output by the gate circuit 46b. A differential pulse is given to the MPU 47 via. The MPU 47 takes in the read address a of the address counter 41 using a differential pulse as described above, and obtains the edge address "I#al" on the one-dimensional line sensor 3C of the second member 17.

更に、MPU47は、アドレスカウンタ41が一次元ラ
インセンナ3Cの受光エレメント数(1024)計数す
ると、許可信号M2を落とし、一次元ラインセンサ3C
の読出し動作を停止する。
Furthermore, when the address counter 41 counts the number of light-receiving elements (1024) of the one-dimensional line sensor 3C, the MPU 47 drops the permission signal M2.
The read operation is stopped.

■ このようにして、MPU47は、各一次元ラインセ
ンサ3’、3Cから3つの光像における部材17のエツ
ジアドレスa、〜a6を得ると、座標点N1〜N@の視
野1aの座標軸の中心からの寸法nl〜n6を演算する
In this way, the MPU 47 obtains the edge addresses a, ~a6 of the member 17 in the three optical images from each one-dimensional line sensor 3', 3C, and then determines the center of the coordinate axis of the field of view 1a of the coordinate points N1~N@. Calculate dimensions nl to n6 from .

これには、予じめ一次元ラインセンサ3’、3C上の視
野1aの座標軸中心のアドレスが第6図のAs 、 A
x 、 Asの如く判っているので2次式によって寸法
n1〜n@を得る。
For this purpose, the addresses of the coordinate axis centers of the field of view 1a on the one-dimensional line sensors 3' and 3C are set in advance as As and A in FIG.
Since x and As are known, the dimensions n1 to n@ are obtained using the quadratic equation.

この寸法n1〜n6をMPU47は制御部5へ出力する
The MPU 47 outputs these dimensions n1 to n6 to the control section 5.

■ 次に、制御部5は、座標軸中心からの寸法rl1%
n4によシ部材17の中心位置G、傾きα、各辺の寸法
’ip”tを演算する。
■Next, the control unit 5 determines the dimension rl1% from the center of the coordinate axis.
In n4, the center position G, inclination α, and dimension 'ip't of each side of the support member 17 are calculated.

これを第7図を用いて説明する。This will be explained using FIG. 7.

以下の算出式は1部材17の視野la内の位置が第5図
(a)のようにn、、n6が一つの辺にかかシ。
The calculation formula below is based on the assumption that the position of one member 17 in the field of view la is n, and n6 is on one side as shown in FIG. 5(a).

n4.n@を通る辺の対辺であわ、nl、ri、が残シ
の2つの辺にかかつているときのものでアシ、条件が異
なる場合には別の算出式により求める。
n4. The opposite side of the side passing through n@, nl, ri, is the one when it touches the remaining two sides.If the conditions are different, a different calculation formula is used.

座標点NI−N、O基準座標(視野1aの中心を座標軸
とする)を中心からの寸法n1yn、によって求める。
The coordinate points NI-N, O reference coordinates (with the center of the visual field 1a as the coordinate axis) are determined by the dimension n1yn from the center.

ここで、 N、%N、の基準座標を(xl、yl)、(
xl。
Here, the reference coordinates of N, %N, are (xl, yl), (
xl.

I2)・・・(X・pya)とすると、以下の式で求ま
る。
I2)... (X・pya), it can be found by the following formula.

x、=n電=)’1=0・・・・・・・・・・・・・・
・(4)xx = nz p  Yz = 0    
    ・・・・・・・・・・・・・・・(5)xs 
” O#  )’s = ns        ・・・
・・・・・・・・・・・・(6)I4 = Oe  ’
Ja = ”4        ・・・・・・・・・・
・・・・・(7)次に2部材17の各辺の直線式を座標
点N1〜N。
x,=nden=)'1=0・・・・・・・・・・・・・・・
・(4) xx = nz p Yz = 0
・・・・・・・・・・・・・・・(5)xs
"O#)'s = ns...
・・・・・・・・・・・・(6) I4 = Oe'
Ja = ”4 ・・・・・・・・・・・・
...(7) Next, the linear equation of each side of the two members 17 is expressed as coordinate points N1 to N.

の基準座標よシ求める。Find the reference coordinates of.

部材17の直線A−Bについては。Regarding the straight line A-B of member 17.

)’ : rnl・x −1−bl        ・
・・・・・・・・・・・・・・α〔但し、  (xs−
xs)→0なら。
)' : rnl・x −1−bl ・
・・・・・・・・・・・・・・・α [However, (xs−
xs) → 0.

ITh=(’5h−Ys ) / (Xl−Xs) 。ITh=('5h-Ys)/(Xl-Xs).

(xg−x、)=0なら、  m+ :O。If (xg-x,)=0, m+:O.

bl  = 3’m  −mx  拳  XI直線C−
Dについては。
bl = 3'm -mx fist XI straight line C-
Regarding D.

y = ml * x −4−bl−−−−−−−1−
−−−−−・(11)但し、  b4= ya −m、
 a Xa直線B−Cについては。
y = ml * x −4−bl−−−−−−1−
-------・(11) However, b4= ya -m,
a Regarding the Xa straight line B-C.

y = ml @ X + b3        ・・
・・・・・・・・・・・・・(Yz但し2m1←0なら
2m5=−1im□。
y = ml @X + b3...
・・・・・・・・・・・・(YzHowever, if 2m1←0, 2m5=-1im□.

m1=0なら、  rn3 = Q 。If m1=0, rn3=Q.

b、 = y、 −ms @ Xt 直線A−Dについては。b, = y, -ms @Xt Regarding straight line A-D.

y = mz・X + ba        ・・・・
・・・・・・・・・・・(1階但し、  b4 = 3
’* −m4・X。
y = mz・X + ba...
・・・・・・・・・・・・(1st floor, however, b4 = 3
'*-m4・X.

このようにして1部材17の各辺の直線式を求めると2
部材17の角の点A−Dの基準座標を求める。
In this way, the linear equation for each side of one member 17 is found as 2
The reference coordinates of the corner point A-D of the member 17 are determined.

例えば、角の点Aの基準座標(x−a、ya)は直線A
−Bと直線A−Dの直線式筒el1式及び第(13式を
連立方程式とし。
For example, the reference coordinates (x-a, ya) of corner point A are straight line A
-B and the straight line A-D, the linear cylinder el1 equation and the 13th equation are simultaneous equations.

y、 = ml・X@+bx y、=m、 e X、+ b4 よシp  (xat ym)を求める。y, = ml・X@+bx y, = m, e X, + b4 Find yoshi p (xat ym).

同様に角の点B−Dの基準座標(”b、yb) p(x
c p )’c ) r  (Xd* yd )も各々
交わる直線の連立方程式を解くことによって得られる。
Similarly, the reference coordinates of the corner point B-D ("b, yb) p(x
c p )'c ) r (Xd*yd) can also be obtained by solving simultaneous equations of intersecting lines.

次に部材17の傾きα2辺の寸法11,1.を求める。Next, the dimension 11, 1 of the inclination α2 side of the member 17. seek.

傾きαは。The slope α is.

α= t=−” (m、 )          曲、
曲、、、、、、 a、aによって。
α= t=-” (m, ) song,
song,,,,,, by a,a.

直@C−Dの長さKt 直線B−Cの長さt、は各々。The length of the straight line C-D is Kt, and the length of the straight line B-C is t, respectively.

t+=v’(Xe−Xd)”+0’c−yd)”  =
−−曲・・α9i、=y’(Xb−Xc)”+yb−y
c)”  +・・曲・・曲・・(1eによって得られる
t+=v'(Xe-Xd)"+0'c-yd)"=
--Song...α9i,=y'(Xb-Xc)"+yb-y
c)” +...song...song...(obtained by 1e.

更に1部材17の中心座標G(x、、 yヨ)を第7図
の)の如く求める。
Furthermore, the center coordinates G (x, y) of one member 17 are determined as shown in Fig. 7).

直線C−DをY軸、直線B−CをY軸とする部材座標系
における部材17の中心の極座標(r。
Polar coordinates (r.

θ)は。θ) is.

γ−v’ (’I/2 )” + (t2/2 )” 
   ・曲・曲・曲(17)θ=tal−”(tt/l
l ’)        ・−曲四聞−(18よシ求め
る。
γ-v'('I/2)" + (t2/2)"
・Song/Song/Song (17) θ=tal-”(tt/l
l') ・-Four songs-(I'm looking for 18.

これによシ基準座標系での中心座標G(xg、7g)は
Accordingly, the center coordinates G (xg, 7g) in the reference coordinate system are:

Kよシ求まる。K, please.

この数字の単位は一次元ラインセンサ3’p3cの1画
素であるが、視野1aと一次元うインセンサの分解能(
画素数)によ)定まる一画素当シの寸法を乗じれば、実
際の寸法が求められる。
The unit of this number is one pixel of the one-dimensional line sensor 3'p3c, but the resolution of the field of view 1a and the one-dimensional inner sensor (
The actual size can be obtained by multiplying by the size per pixel determined by the number of pixels).

従って、前述のハンドの制御では、第(I4)式のαと
、第α優式の中心座標をロボット制御部に与えて。
Therefore, in controlling the hand described above, α of the equation (I4) and the center coordinates of the α-th dominant equation are given to the robot control unit.

ハンドを部材17に合わせて位置決めすれば、ハンドが
部材17を把持できる。
By positioning the hand to match the member 17, the hand can grip the member 17.

(C)  他の実施例の説明 上述の実施例では2画像作成部2によってY軸の光軸回
転をオーラストンプリズム24で行っているが、一次元
ラインセンサ3′を32,3bに分割し、一次元ライン
センサ3bをY軸の位置に配置すれば、オーラストンプ
リズム24は不要となる。この場合一次元2インセンサ
3bの読出し回路を第4図に加え、もう1つ必要となる
(C) Description of other embodiments In the embodiment described above, the optical axis rotation of the Y-axis is performed by the Aurastone prism 24 by the two-image creation section 2, but the one-dimensional line sensor 3' is divided into 32 and 3b. , if the one-dimensional line sensor 3b is placed at the Y-axis position, the Aurastone prism 24 becomes unnecessary. In this case, in addition to the readout circuit for the one-dimensional two-in sensor 3b shown in FIG. 4, one more is required.

同様に、135’の1次元データの入手に一次元ライン
センサ3Cを光軸に対しその角度に配置して得ているが
1画像作成部2に更にオーラストンプリズム等を設け、
光学的に画像を135°回転させるようにしてもよい。
Similarly, the one-dimensional data of 135' is obtained by arranging the one-dimensional line sensor 3C at that angle with respect to the optical axis;
The image may be optically rotated by 135 degrees.

この場合一次元ラインセンサ3a〜3Cは一つの一次元
ラインセンナでよい。更に、一次元ラインセンサ3′を
2つの一次元ラインセンサ3a、3bとしてもよく、光
学系の構成やラインセンサの構成によって糧々のものを
採用できる。
In this case, the one-dimensional line sensors 3a to 3C may be one one-dimensional line sensor. Furthermore, the one-dimensional line sensor 3' may be replaced by two one-dimensional line sensors 3a and 3b, and any suitable configuration can be adopted depending on the configuration of the optical system and the configuration of the line sensor.

又1画像導入部1も光ファイバに限られず、他の周知の
ものであってもよく、一次元ラインセンサもCCDに限
らず、受光ダイオードアレー等の他の受光素子であって
もよい。
Furthermore, the one-image introducing section 1 is not limited to an optical fiber, but may be of any other well-known type, and the one-dimensional line sensor is not limited to a CCD, but may be another light-receiving element such as a light-receiving diode array.

更に、上述の実施例においては、1次元データを放射線
上に3つ得ることによシ限定された位置にある四角形の
認識を行っているが2例えば、Y軸と135’のデータ
をY軸と並行な中心からある一定距離離れた2本のデー
タを得るようKしてもよく、1次元データを3つ以上得
るようにしてもよい。このように視野1aのどのデータ
をとるかは、認識しようとする対象物の形状、大きさ、
置かれている位置などによシ、最低限のデータ数と処理
時間で認識するために条件にあった種々の取り方を採用
しうる。
Furthermore, in the above embodiment, rectangles in limited positions are recognized by obtaining three one-dimensional data on the radiation line. It is also possible to obtain two pieces of data parallel to each other and separated from the center by a certain distance, or three or more pieces of one-dimensional data may be obtained. In this way, which data of the visual field 1a to collect depends on the shape and size of the object to be recognized,
Depending on the location, etc., various methods can be adopted that suit the conditions in order to perform recognition with the minimum amount of data and processing time.

しかも、四角形の位置ずれ1回転の認識のみならず、他
の形状の認識であってもよく2寸法を寡。
Moreover, it is not only possible to recognize the displacement of a rectangle by one rotation, but also to recognize other shapes with less than two dimensions.

1R等によって寸法に合った対象物の選出、検査等に用
いてもよく、対象物の把持のためのものにも限られず2
種々の用途に利用することができる。
It may be used for selecting and inspecting objects that match the dimensions using 1R, etc., and is not limited to gripping objects.
It can be used for various purposes.

以上本発明を実施例によシ説明したが2本発明は本発明
の主旨に従い種々の変形が可能であり。
Although the present invention has been described above with reference to embodiments, the present invention can be modified in various ways according to the gist of the present invention.

本発明からこれらを排除するものではない。These are not excluded from the present invention.

〔発明の効果〕〔Effect of the invention〕

以上説明した様に2本発明によれば、二次元画像の認識
を一次元処理によって実行できるので。
As explained above, according to the present invention, two-dimensional image recognition can be performed by one-dimensional processing.

高速に認識ができるという効果を奏し、特にロボット等
の自動機の機能を向上させることができる。
This has the effect of enabling high-speed recognition, and can particularly improve the functionality of automatic machines such as robots.

又、複雑な二次元処理が不要であるため、安価に構成で
きるという効果も奏し、係る視覚認識装置の普及に寄与
するところが大きい。特に組立て等へ適用することによ
って低価格な視覚機能付き自動機を提供できる。
Further, since complicated two-dimensional processing is not required, it can be constructed at low cost, which greatly contributes to the spread of such visual recognition devices. In particular, by applying it to assembly, etc., it is possible to provide a low-cost automatic machine with a visual function.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の原理説明図。 第2図は本発明の一実施例全体構成図。 第3図は第2図構成の画像作成部及び撮像部の構成図。 第4図は第2図構成の画像処理回路の構成図。 第5図は第2図構成による受光動作説明図。 第6図は第2図構成による基準座標算出動作説明図。 第7図は第2図構成による位置情報算出説明図。 第8図は従来技術の説明図である。 図中、l・・・画像導入部。 1a・・・視野。 2・・・画像作成部。 3 、3’、 3a 、 3b 、 3C−・一次元r
fン*ンサ。 4・・・画像処理回路。 17・・・対象物。
FIG. 1 is a diagram explaining the principle of the present invention. FIG. 2 is an overall configuration diagram of an embodiment of the present invention. FIG. 3 is a configuration diagram of the image creation section and the imaging section configured in FIG. 2. FIG. 4 is a block diagram of the image processing circuit configured in FIG. 2. FIG. 5 is an explanatory diagram of the light receiving operation according to the configuration shown in FIG. FIG. 6 is an explanatory diagram of the reference coordinate calculation operation according to the configuration shown in FIG. FIG. 7 is an explanatory diagram of position information calculation using the configuration shown in FIG. FIG. 8 is an explanatory diagram of the prior art. In the figure, l...image introduction part. 1a...Visual field. 2... Image creation department. 3, 3', 3a, 3b, 3C-・One-dimensional r
fn*nsa. 4... Image processing circuit. 17...Object.

Claims (1)

【特許請求の範囲】 視野(1a)内に取り込んだ二次元画像を光学的に少な
くとも3つの画像に分割する画像作成部(2)と、 該分割された画像の各々に対応して設けられた少なくと
も3つの一次元ラインセンサ(3a〜3c)とを含み、 該視野(1a)の光軸に対し該一次元ラインセンサ(3
a〜3c)が各々異なる回転角度の光像を受光する関係
を持たせ、 該各一次元ラインセンサ(3a〜3c)の出力の一次元
処理によつて該視野(1a)内の画像の認識を行なうこ
とを 特徴とする視覚認識装置。
[Claims] An image creation unit (2) that optically divides a two-dimensional image taken into the field of view (1a) into at least three images, and an image creation unit (2) that is provided corresponding to each of the divided images. at least three one-dimensional line sensors (3a to 3c), the one-dimensional line sensor (3
a to 3c) have a relationship in which they each receive light images at different rotation angles, and the image within the field of view (1a) is recognized by one-dimensional processing of the output of each of the one-dimensional line sensors (3a to 3c). A visual recognition device characterized by performing.
JP61221011A 1986-09-19 1986-09-19 Visually recognizing device Pending JPS6375979A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61221011A JPS6375979A (en) 1986-09-19 1986-09-19 Visually recognizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61221011A JPS6375979A (en) 1986-09-19 1986-09-19 Visually recognizing device

Publications (1)

Publication Number Publication Date
JPS6375979A true JPS6375979A (en) 1988-04-06

Family

ID=16760077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61221011A Pending JPS6375979A (en) 1986-09-19 1986-09-19 Visually recognizing device

Country Status (1)

Country Link
JP (1) JPS6375979A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03241470A (en) * 1990-02-20 1991-10-28 Seikosha Co Ltd Posture detecting method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03241470A (en) * 1990-02-20 1991-10-28 Seikosha Co Ltd Posture detecting method

Similar Documents

Publication Publication Date Title
US6031941A (en) Three-dimensional model data forming apparatus
US4402053A (en) Estimating workpiece pose using the feature points method
US5640241A (en) Light spot position measuring method of detecting one-dimensional position by two-dimensional sensor
JP2669223B2 (en) Optical sensor device for rendezvous docking
JPH0625653B2 (en) Shape measuring method and device
US4973156A (en) Linear direction sensor cameras for position measurement
JPH03213251A (en) Workpiece position detecting device
US6730926B2 (en) Sensing head and apparatus for determining the position and orientation of a target object
JP2611173B2 (en) Positioning method and device using fisheye lens
JPH06186025A (en) Three dimensional measuring device
JP4044454B2 (en) Position measurement using zoom
JPS6375979A (en) Visually recognizing device
JPH09145318A (en) Three-dimensional measuring equipment
Araki et al. High speed and continuous rangefinding system
JPH024843B2 (en)
JPH0617795B2 (en) Three-dimensional position measuring device
JPH07120416B2 (en) High speed visual recognition device
KR920010548B1 (en) Shape measuring method and system of three dimensional curved surface
JP2731681B2 (en) 3D measurement system
JPH0697162B2 (en) Distance measurement method for three-dimensional objects
JP2626780B2 (en) 3D image measurement method by segment correspondence
JPH0622720B2 (en) Automatic coating device using teaching robot
JPH0371043B2 (en)
JP3110482B2 (en) Image monitoring device
JPH0444201B2 (en)