JPH08118273A - Judgment of placement direction of objective substance and device therefor - Google Patents

Judgment of placement direction of objective substance and device therefor

Info

Publication number
JPH08118273A
JPH08118273A JP6256572A JP25657294A JPH08118273A JP H08118273 A JPH08118273 A JP H08118273A JP 6256572 A JP6256572 A JP 6256572A JP 25657294 A JP25657294 A JP 25657294A JP H08118273 A JPH08118273 A JP H08118273A
Authority
JP
Japan
Prior art keywords
image
reference data
rough material
data
placement direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6256572A
Other languages
Japanese (ja)
Other versions
JP3277723B2 (en
Inventor
Norihiko Akao
憲彦 赤尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP25657294A priority Critical patent/JP3277723B2/en
Publication of JPH08118273A publication Critical patent/JPH08118273A/en
Application granted granted Critical
Publication of JP3277723B2 publication Critical patent/JP3277723B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE: To improve the reliability in the judgment of the placement direction of an objective substance, by selecting the standard data set in the region of the standard position on the objective substance and carrying out comparison and collation, in the collation of the standard data and the density data in the specific region of the objective substance which is image picked-up. CONSTITUTION: The image pick-up viewfield 30 is divided to three areas 30a-30c. A material is image-picked-up, and the position of a valve lifter hole 10 is extracted from the obtained image, and the type of the material is recognized through collation and specification. Then, the placement direction is judged. At first, the position 11 of the center of gravity of the valve lifter hole 10 is calculated, and then the tilt angle of the material on a pallet is calculated. Then, each area 30a-30c where the position 11 of the center of gravity exists is inspected, and the correlation model corresponding to the area is loaded. Then, the load of the density data at the first point 12, comparison and collation with the thresh level are carried out. At the second point, comparison and collation are carried out similarly.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明はパレット上に可動状態に
載置された対象物の向きを正確に判別しうる対象物載置
方向判別方法及びその装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object placement direction determining method and apparatus for accurately determining the orientation of an object placed movably on a pallet.

【0002】[0002]

【従来の技術】自動車部品の一部であるエンジンを製造
するために、加工ラインの前工程で作成されたエンジン
のヘッド部分である粗材をパレットに複数個載せて加工
ラインの入口に配置されたトラバーサまで搬入し、加工
ラインに順次投入する工程が設けられている。トラバー
サには複数の型式のエンジンのヘッドが搬入されてくる
ので、加工ラインに投入する前に各粗材が使用されるエ
ンジンの型式を判別する必要がある。更に、粗材は、縦
横混在した状態でパレット上に載置されているので、各
エンジンの型式の全ての粗材を同じ方向に整えてから加
工ラインに投入される。このようなパレット上の粗材の
型式の判別並びにパレット上の載置方向の判別は、エン
ジン製造の自動化を図るうえにおいても重要な役割を果
たしている。
2. Description of the Related Art In order to manufacture an engine which is a part of an automobile part, a plurality of rough materials, which are the head parts of the engine prepared in the preceding step of the processing line, are placed on a pallet and placed at the entrance of the processing line. There is also a process for loading the material to the traverser and sequentially loading it into the processing line. Since multiple types of engine heads are loaded into the traverser, it is necessary to determine the type of engine in which each rough material is used before it is put into the processing line. Further, since the rough materials are placed on the pallet in a mixed state in the vertical and horizontal directions, all the rough materials of the types of the respective engines are arranged in the same direction and then put into the processing line. The determination of the type of the rough material on the pallet and the determination of the mounting direction on the pallet also play an important role in automating the engine manufacturing.

【0003】このパレット上に載せられた粗材の型式並
びに載置方向を判別する方法として濃淡パターンマッチ
ングによる方法が用いられている。これは、対象物とな
る粗材を撮像することで得られた画像データの濃淡パタ
ーンを検出し、それをモデルとなる画像データの濃淡パ
ターンと照合することで型式並びに方向を判別する方法
である。
As a method for discriminating the type and placement direction of the rough material placed on the pallet, a method based on the light and shade pattern matching is used. This is a method of detecting a grayscale pattern of image data obtained by capturing an image of a rough material as an object and comparing the grayscale pattern of the image data with a grayscale pattern of the image data serving as a model to determine the model and direction. .

【0004】図6は、濃淡パターンマッチングを用いて
パレット上に載せられた粗材の型式並びに載置方向を判
別し加工ラインに粗材を順次投入する直交ロボットを示
した図である。この直交ロボットは、X、Y、Z方向及
びθ方向の4軸のロボットであり、フォークリフトでト
ラバーサに搬入されたパレット上の粗材を取り出し、所
定の向きに揃えてから加工ラインに順次投入する。図6
においてはパレットは4段に重ねられており、それぞれ
に10個の粗材が載せられているが、1パレット内に粗
材を各層10個ずつ並べ,それを4層に積み重ねたもの
としても良い。粗材が取り出され空になったパレットは
排出される。直交ロボットの先端部には、パレットの上
から爪で引っかけて粗材を取り出す粗材取出部2と粗材
に向けて光を照射するリング照明4とが配設され、更に
粗材を撮像するCCDカメラ6及び光源ユニット8が設
けられている。これらの構成を用いて、画像を入力する
ことになる。
FIG. 6 is a diagram showing an orthogonal robot which sequentially determines the type and placement direction of the rough material placed on the pallet by using the light and shade pattern matching, and sequentially inputs the rough material to the processing line. This orthogonal robot is a four-axis robot in the X, Y, Z, and θ directions, and takes out the rough material on the pallet carried into the traverser by the forklift, aligns it in a predetermined direction, and then sequentially inserts it into the processing line. . Figure 6
In the above, the pallets are stacked in four stages, and ten rough materials are placed on each pallet, but it is also possible to arrange ten rough materials for each layer in one pallet and stack them in four layers. . The pallets that have been emptied of the rough material and are emptied are discharged. At the tip of the orthogonal robot, a rough material take-out section 2 for picking up the rough material by hooking it from the top of the pallet and a ring illumination 4 for irradiating light to the rough material are arranged, and further the rough material is imaged. A CCD camera 6 and a light source unit 8 are provided. An image will be input using these configurations.

【0005】図7は、直交ロボットで取り扱う対象物で
あるエンジンのヘッド部分を上から見たときの概略図で
ある。図7から明らかなように、エンジンの型式によっ
て特有の位置又は個数のバルブリフタ穴10が設けられ
ている。このバルブリフタ穴10は、設計上変更される
ことが少ない。また、円錐形状をしているので濃淡パタ
ーンが出やすい。従って、対象物がエンジンのヘッド部
分の場合、バルブリフタ穴10の位置関係を認識するこ
とで粗材の型式を判別することができる。
FIG. 7 is a schematic view of a head portion of an engine, which is an object handled by an orthogonal robot, as viewed from above. As is apparent from FIG. 7, the valve lifter holes 10 are provided in a specific position or number depending on the type of engine. The valve lifter hole 10 is rarely changed in design. Moreover, since it has a conical shape, a light and shade pattern is likely to appear. Therefore, when the object is the head portion of the engine, it is possible to determine the type of rough material by recognizing the positional relationship of the valve lifter hole 10.

【0006】図8は、パレット上に載置された粗材の型
式並びに載置方向を判別する処理を示したフローチャー
トであり、以下、この図に基づいて粗材の載置方向を判
別する方法について説明する。
FIG. 8 is a flow chart showing a process for discriminating the type and placing direction of the rough material placed on the pallet. The method for discriminating the placing direction of the rough material will be described below based on this figure. Will be described.

【0007】リング照明4からの光を粗材に照らしてC
CDカメラ6で撮像することで粗材の画像を入力し図示
しない画像処理装置に送る(ステップ101)。撮像さ
れた画像は、黒白のパターンのデータとなるが、この黒
白パターンの輪郭線を抽出しその輪郭線から各エンジン
の型式の特徴となるバルブリフタ穴10の部位を抽出す
る(ステップ102)。これは、輪郭線の中から特定の
大きさの円周長、面積である閉包図形を形成する線のみ
を抽出することで可能となる。この抽出されたバルブリ
フタ穴10の部位のデータと各エンジンの型式のモデル
となるデータとを照合する、いわゆるモデルマッチング
を行うことにより、対象物である粗材がいずれかのエン
ジンの型式に該当するかを認識する(ステップ10
3)。
The light from the ring illuminator 4 is illuminated on the rough material to obtain C
An image of the rough material is input by being imaged by the CD camera 6 and sent to an image processing device (not shown) (step 101). The picked-up image becomes black-and-white pattern data, and the contour line of the black-and-white pattern is extracted, and the site of the valve lifter hole 10 which is the characteristic of the model of each engine is extracted from the contour line (step 102). This can be achieved by extracting from the contour line only the line forming the closed figure having the circumference length and area of a specific size. By performing so-called model matching, in which the extracted data of the portion of the valve lifter hole 10 is compared with the data that is the model of each engine model, the rough material as the object corresponds to any engine model. Recognize whether (step 10
3).

【0008】このように、モデルとなる閉包図形と撮像
画像から得られた輪郭線から抽出された特定の輪郭線
(閉包図形)とを照合することで、撮像画像から余計な
輪郭線が抽出されていたとしてもパレット上に載置され
た粗材の型式を判別することができる。これは、粗材が
パレット上に載置された方向が一定でなくても判別可能
である。輪郭線を抽出し照合する方法は、従来の2値化
処理を用いたモデルマッチング処理と異なり対象物にお
ける輪郭線を強調して抽出するため外乱光に強くまた照
度変化にも強い。従って、対象物がエンジンのヘッドの
ように凹凸のある場合に適していると言えよう。
As described above, by comparing the closed figure serving as the model with the specific contour line (closed figure) extracted from the contour line obtained from the picked-up image, an extra contour line is extracted from the picked-up image. Even if it is, the type of the rough material placed on the pallet can be discriminated. This can be determined even if the direction in which the rough material is placed on the pallet is not constant. Unlike the conventional model matching process using the binarization process, the method of extracting and collating a contour line is strong against ambient light and strong against illuminance change because the contour line of the object is emphasized and extracted. Therefore, it can be said that it is suitable when the object has irregularities such as an engine head.

【0009】型式が判別されると、次に粗材の載置方向
を判別する(ステップ104)。バルブリフタ穴の配置
及び個数は、各型式により異なるため型式の判別として
利用するには有効であるが、各粗材における各バルブリ
フタ穴には他のバルブリフタ穴と識別できるような特徴
がないため、バルブリフタ穴の形状、配置のみで載置方
向を識別することは困難である。従って、バルブリフタ
穴ではなく粗材上の他の位置で濃淡パターンマッチング
を行うことで載置方向を判別することになる。従来で
は、図7に示したようにバルブリフタ穴10の重心位置
11から特定のオフセットを持たせた位置(特定領域)
において、濃淡パターンマッチング処理を行う。この特
定領域には、各型式において特有の形状を有する部位で
あるはずなので、この位置のモデルとなる濃淡データと
撮像された画像から得られた濃淡データを比較すること
で方向判別をすることができる。図7(a)、(b)に
示した第1のポイント12及び第2のポイント14がそ
れぞれ前記特定領域となる。第2のポイント14は、第
1のポイント12に対して前記重心位置11を中心とし
た点対称な位置となる。なお、モデルとなる濃淡データ
を相関モデルという。
When the model is determined, the placement direction of the rough material is determined (step 104). The arrangement and number of valve lifter holes differ depending on each model, so it is effective to use as a model identification, but since each valve lifter hole in each rough material does not have a feature that distinguishes it from other valve lifter holes, the valve lifter hole is not available. It is difficult to identify the mounting direction only by the shape and arrangement of the holes. Therefore, the mounting direction is determined by performing the light and shade pattern matching at another position on the rough material instead of the valve lifter hole. Conventionally, as shown in FIG. 7, a position (specific region) where a specific offset is provided from the center of gravity position 11 of the valve lifter hole 10.
In, the gradation pattern matching process is performed. Since this specific region should have a unique shape in each model, it is possible to determine the direction by comparing the grayscale data that is the model at this position with the grayscale data obtained from the captured image. it can. The first point 12 and the second point 14 shown in FIGS. 7A and 7B are the specific areas. The second point 14 is a point-symmetrical position with respect to the first point 12 with the center of gravity 11 as the center. Note that the grayscale data that serves as a model is called a correlation model.

【0010】図9は、図8に示した方向判別処理の詳細
を示したフローチャートであり、この図を用いて方向判
別処理について説明する。
FIG. 9 is a flow chart showing the details of the direction discriminating process shown in FIG. 8, and the direction discriminating process will be described with reference to this figure.

【0011】まず、画像処理装置に予め型式毎に決めら
れた前記相関モデルをロードする。すでにいずれかの型
式であるかは判別されているので、対応する型式の相関
モデルのみがロードされる(ステップ201)。次に、
第1のポイント12の撮像画像から得られた濃淡データ
をロードし(ステップ202)、相関モデルと比較・照
合することで第1のポイント12における相関値(一致
度)を算出する(ステップ203)。相関値と所定のス
レッシュレベルとを比較し(ステップ204)、相関値
がそのスレッシュレベルより大きければ正規方向と判断
する(ステップ205)。図10は、各粗材に対する型
式毎の相関値を示した図であり、通常、正常な場合の相
関値は、図10のように安定してスレッシュレベルを越
える。図11は、各粗材に対する相関値を示した図であ
り、スレッシュレベル0.72との関係を示している。
図11における粗材Aのように相関値が所定のスレッシ
ュレベル以下であれば、第2のポイント14の撮像した
画像から得られた濃淡データをロードし(ステップ20
6)、相関モデルと比較・照合することで第2のポイン
ト14における相関値(一致度)を算出する(ステップ
207)。なお、全ての粗材が正規な方向と逆に載置さ
れていれば図12のようになる。相関値と所定のスレッ
シュレベルとを比較し(ステップ208)、相関値が所
定のスレッシュレベルより大きければ、粗材は反転され
た向きに載置されていたと判断する(ステップ20
9)。相関値が所定のスレッシュレベル以下であれば、
方向の判別不可能と判断する(ステップ210)。
First, the correlation model previously determined for each model is loaded into the image processing apparatus. Since it has already been determined which type is the type, only the correlation model of the corresponding type is loaded (step 201). next,
The grayscale data obtained from the captured image of the first point 12 is loaded (step 202), and the correlation value (degree of coincidence) at the first point 12 is calculated by comparing and collating with the correlation model (step 203). . The correlation value is compared with a predetermined threshold level (step 204), and if the correlation value is larger than the threshold level, it is judged to be in the normal direction (step 205). FIG. 10 is a diagram showing the correlation value for each type for each rough material, and normally, the correlation value in the normal case stably exceeds the threshold level as shown in FIG. FIG. 11 is a diagram showing the correlation value for each rough material, and shows the relationship with the threshold level 0.72.
If the correlation value is equal to or lower than the predetermined threshold level as in the case of the rough material A in FIG. 11, the grayscale data obtained from the imaged image of the second point 14 is loaded (step 20).
6) Then, the correlation value (degree of coincidence) at the second point 14 is calculated by comparing and collating with the correlation model (step 207). Note that if all the rough materials are placed in the opposite direction to the normal direction, the result is as shown in FIG. The correlation value is compared with a predetermined threshold level (step 208), and if the correlation value is larger than the predetermined threshold level, it is determined that the rough material is placed in the inverted direction (step 20).
9). If the correlation value is below a predetermined threshold level,
It is determined that the direction cannot be determined (step 210).

【0012】このように、まずは第1のポイント12の
相関値を算出しスレッシュレベルと比較することで正規
方向か否かを判別し、正規方向でなければ点対称の位置
にある第2のポイント14の相関値を算出し、相関値が
スレッシュレベルより大きければ粗材は反転していると
判別する。このようにして、粗材の載置方向が判別され
ると、画像処理装置は、粗材の位置を算出し(ステップ
105)、その位置を図示しないロボット制御装置に伝
えると、ロボット制御装置は、直交ロボットの粗材取出
部を動作させて、パレット上の粗材を取り出し、所定の
向きに揃えてから加工ラインに順次投入することにな
る。
As described above, first, the correlation value of the first point 12 is calculated and compared with the threshold level to determine whether it is in the normal direction. If it is not the normal direction, the second point at the point symmetry position is located. The correlation value of 14 is calculated, and if the correlation value is larger than the threshold level, it is determined that the rough material is inverted. In this way, when the placement direction of the rough material is determined, the image processing device calculates the position of the rough material (step 105), and when the position is transmitted to the robot control device (not shown), the robot control device The rough material take-out section of the orthogonal robot is operated to take out the rough materials on the pallet, align them in a predetermined direction, and sequentially feed them into the processing line.

【0013】[0013]

【発明が解決しようとする課題】ところで、同じ位置を
CCDカメラで撮像したとしても、撮像視野における位
置により多少見え方が異なるため濃淡データが異なって
くる。例えば、図7(b)の第1のポイント12の特徴
部分を取り出した図が図13(a)であり、図13
(a)のA−A’断面図が図13(b)とすると、CC
Dカメラがp1、p2、p3の位置にある場合、同じ部
位の長さdが異なって見えてしまう。また、粗材自体の
載置のばらつき、影の影響等によっても濃淡データは異
なってくる。このように、同じ形状の部位であってもC
CDカメラと粗材との位置関係により撮像される画像の
濃淡データが異なることは明らかである。
By the way, even if the same position is imaged by the CCD camera, the light and shade data is different because the appearance is slightly different depending on the position in the imaging visual field. For example, FIG. 13A is a diagram in which the characteristic part of the first point 12 in FIG. 7B is extracted.
Assuming that the cross-sectional view taken along the line AA ′ of FIG.
When the D camera is located at the positions p1, p2, and p3, the length d of the same portion looks different. In addition, the grayscale data also varies depending on the placement of the rough material itself, the influence of shadows, and the like. Thus, even if the parts have the same shape, C
It is obvious that the grayscale data of the image captured differs depending on the positional relationship between the CD camera and the rough material.

【0014】しかしながら、従来の方法においては、相
関モデルは各型式に各1つしか用意されていないので、
前述した方法で算出した相関値は、撮像視野内における
各ポイント12、14の位置により異なってくる。従っ
て、同じ部位であったとしても撮像視野内の各ポイント
12、14の位置によって相関値はスレッシュレベル以
下になる場合もあり得る。すなわち、粗材が正規なある
いは逆の方向に載置されていたのにもかかわらず、正常
に方向判別できない場合が起こってしまう。正常に判別
できなければ判別不可能な粗材として取り扱われるため
直交ロボットを一旦停止しその粗材を取り除かなくては
ならなくなる。
However, in the conventional method, since only one correlation model is prepared for each model,
The correlation value calculated by the above-mentioned method differs depending on the positions of the points 12 and 14 within the imaging visual field. Therefore, the correlation value may be equal to or lower than the threshold level depending on the positions of the points 12 and 14 in the imaging visual field even if they are the same part. That is, although the rough material is placed in the normal or reverse direction, the case where the direction cannot be normally determined occurs. If it cannot be discriminated normally, it is treated as a rough material that cannot be discriminated. Therefore, it is necessary to stop the Cartesian robot once and remove the rough material.

【0015】仮に、スレッシュレベルを低く(例えば図
11のように0.55に)した場合は、許容範囲を大き
く持たせることにより正規なあるいは逆の方向であると
確実に認識させることができる一方で、逆の方向に載置
されていたり不良品であるのにもかかわらず誤って正規
な方向と判別してしまうおそれが生じてしまう。従っ
て、スレッシュレベルは、あまり低く設定することはで
きない。
If the threshold level is set low (for example, to 0.55 as shown in FIG. 11), it is possible to surely recognize the normal or reverse direction by giving a large allowable range. Therefore, there is a possibility that the direction is erroneously determined to be correct even if the product is placed in the opposite direction or is a defective product. Therefore, the threshold level cannot be set too low.

【0016】本発明は以上のような問題を解決するため
になされたものであり、その目的は、対象物の載置方向
の判別処理を対象物の視野内の位置に応じて行うことに
より、その信頼性を向上させる対象物載置方向判別方法
及びその装置を提供することにある。
The present invention has been made to solve the above problems, and an object thereof is to perform a discrimination process of a mounting direction of an object according to a position within a visual field of the object. An object of the present invention is to provide a method and apparatus for discriminating a placement direction of an object for improving its reliability.

【0017】[0017]

【課題を解決するための手段】以上のような目的を達成
するために、本発明に係る対象物載置方向判別方法は、
対象物を撮像し得られた画像の特定領域の濃淡データと
基準データとを照合することで対象物の置かれた向きを
判別する対象物載置方向判別方法において、撮像視野内
における対象物上の基準位置を検出するステップと、撮
像視野を複数に分割した領域毎に設定された基準データ
の中から前記基準位置に応じた基準データを選択するス
テップと、を有することを特徴とする。
In order to achieve the above-mentioned object, the method for discriminating the object placement direction according to the present invention is
An object placement direction determining method for determining the orientation of an object by comparing the grayscale data of a specific area of an image obtained by capturing the object with the reference data. Of detecting the reference position, and selecting the reference data corresponding to the reference position from the reference data set for each of the areas obtained by dividing the imaging visual field into a plurality of areas.

【0018】また、本発明に係る対象物載置方向判別装
置は、対象物を撮像し得られた画像の特定領域の濃淡デ
ータと基準データとを照合することで対象物の置かれた
向きを判別する対象物載置方向判別装置において、対象
物を撮像する撮像手段と、撮像視野内における対象物上
の基準位置を検出する基準位置検出手段と、撮像視野を
複数に分割した領域毎に設定された基準データを記憶す
る基準データ記憶手段と、前記基準データ記憶手段に記
憶された基準データの中から前記基準位置検出手段で検
出された基準位置に応じた基準データを選択する基準デ
ータ選択手段と、前記特定領域の濃淡データと前記基準
データ選択手段により選択された基準データとを照合・
判定する濃淡データ照合手段と、を有することを特徴と
する。
Further, the object placement direction discriminating apparatus according to the present invention determines the direction in which the object is placed by collating the grayscale data of the specific area of the image obtained by imaging the object with the reference data. In an object placement direction discriminating apparatus for discriminating, an image pickup means for picking up an object, a reference position detection means for detecting a reference position on the object within the image pickup field of view, and setting for each area obtained by dividing the image pickup viewfield Reference data storing means for storing the selected reference data, and reference data selecting means for selecting the reference data corresponding to the reference position detected by the reference position detecting means from the reference data stored in the reference data storing means. And comparing the grayscale data of the specific area with the reference data selected by the reference data selecting means.
And a grayscale data collating means for judging.

【0019】[0019]

【作用】従って、本発明に係る対象物載置方向判別方法
においては、撮像され得られた対象物の特定領域の濃淡
データと基準データとを照合する際、対象物上の基準位
置のある領域に設定された基準データを選択し当該濃淡
データと比較・照合するようにしたので、撮像手段と対
象物との位置関係により同じ部位の見え方が変わる場合
があったとしても対象物の載置された方向を確実に判別
することができる。
Therefore, in the object placement direction determining method according to the present invention, when the grayscale data of the specific region of the object obtained by imaging is compared with the reference data, the region having the reference position on the object is detected. Since the reference data set in the above is selected and compared and compared with the grayscale data, even if the appearance of the same part may change depending on the positional relationship between the imaging means and the target, the placement of the target It is possible to reliably discriminate the performed direction.

【0020】また、本発明に係る対象物載置方向判別装
置によれば、基準位置検出手段は、撮像手段の撮像視野
内における対象物上の基準位置を検出する。基準データ
選択手段は、基準データ記憶手段に記憶された基準デー
タの中から当該検出した基準位置のある領域に設定され
た基準データを選択する。濃淡データ照合手段は、対象
物の撮像された画像の特定領域の濃淡データと当該選択
された基準データとを照合・判定するようにしたので、
撮像手段と対象物との位置関係により同じ部位の見え方
が変わる場合があったとしても対象物の載置された方向
を確実に判別することができる。
Further, according to the object placement direction discriminating apparatus of the present invention, the reference position detecting means detects the reference position on the object within the imaging visual field of the imaging means. The reference data selection means selects the reference data set in the area having the detected reference position from the reference data stored in the reference data storage means. Since the grayscale data collating means collates and determines the grayscale data of the specific region of the imaged image of the object and the selected reference data,
Even if the appearance of the same part may change depending on the positional relationship between the imaging unit and the object, the direction in which the object is placed can be reliably determined.

【0021】[0021]

【実施例】以下、図面に基づいて、本発明の好適な実施
例を説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT A preferred embodiment of the present invention will be described below with reference to the drawings.

【0022】図1は、本発明に係る対象物載置方向判別
装置の一実施例を示したブロック構成図である。本装置
は、対象物である粗材を撮像する撮像手段としての撮像
部20と、撮像視野内における粗材上の基準位置を検出
する基準位置検出手段としての基準位置検出部22と、
撮像視野を複数に分割した領域毎に設定された相関モデ
ルを記憶する基準データ記憶手段としてのメモリ24
と、メモリ24に記憶された相関モデルの中から基準位
置検出部22で検出された基準位置に応じた相関モデル
を選択する基準データ選択手段としての相関モデル選択
部26と、詳細は後述するが撮像画像上の特定領域の濃
淡データと相関モデル選択部26により選択された相関
モデルとを照合・判定する濃淡データ照合手段としての
濃淡データ照合部28と、で構成される。撮像部20
は、図6におけるCCDカメラ6に相当する。また、基
準位置検出部22、メモリ24、相関モデル選択部26
及び濃淡データ照合部28は、通常の画像処理装置内に
構成される。
FIG. 1 is a block diagram showing an embodiment of an object placement direction discriminating apparatus according to the present invention. The present apparatus includes an image pickup unit 20 as an image pickup unit that picks up an image of a rough material that is an object, a reference position detection unit 22 that serves as a reference position detection unit that detects a reference position on the rough material within the imaging field of view,
Memory 24 as reference data storage means for storing the correlation model set for each of the regions obtained by dividing the imaging field of view.
And a correlation model selection unit 26 as reference data selection means for selecting a correlation model corresponding to the reference position detected by the reference position detection unit 22 from the correlation models stored in the memory 24, and details will be described later. A grayscale data collating unit 28 as a grayscale data collating unit that collates / determines the grayscale data of a specific area on the captured image with the correlation model selected by the correlation model selecting unit 26. Imaging unit 20
Corresponds to the CCD camera 6 in FIG. In addition, the reference position detection unit 22, the memory 24, the correlation model selection unit 26
The grayscale data collating unit 28 is configured in a normal image processing apparatus.

【0023】本装置においてパレット上に載置された粗
材の向きを判別する際、従来と同様に撮像画像上の特定
領域の濃淡データと基準データとを照合するわけである
が、本実施例において特徴的なことは、粗材上の基準位
置の存在する領域(エリア)に設定された相関モデルを
選択し、その選択した相関モデルと濃淡データとを比較
・照合するようにしたので、撮像部20と対象物との位
置関係により同じ部位、すなわち特定領域の見え方が影
等の影響により変わる場合があったとしても粗材の載置
された方向を確実に判別することができる。
When determining the direction of the rough material placed on the pallet in this apparatus, the grayscale data of the specific area on the captured image and the reference data are collated as in the conventional case. What is characteristic of is that the correlation model set in the area (reference area) where the reference position exists on the rough material is selected, and the selected correlation model and the grayscale data are compared and collated. Even if the appearance of the same portion, that is, the specific region may change due to the influence of the shadow or the like depending on the positional relationship between the portion 20 and the object, the direction in which the rough material is placed can be reliably determined.

【0024】まず、本実施例における相関モデルについ
て説明する。従来では、各型式に1つの相関モデルを用
意していた。そして、撮像画像から輪郭線を抽出して得
られた濃淡データのうち特定領域、すなわち図6におけ
る第1及び第2のポイント12、14の濃淡データと相
関モデルとを照合することで粗材の載置方向を判別して
いた。本実施例では、撮像視野内における粗材の位置に
より特定部位の長さが変わって見えることや影の影響等
で同じ粗材を撮像したとしてもその粗材の濃淡データが
変わることに注目し、撮像視野を複数の領域に分割し、
各領域毎に相関モデルを設定したことを特徴としてい
る。つまり、1つの型式に対して撮像視野内の領域に応
じた複数の相関モデルを設定することになる。図2は、
撮像視野を3分割にした場合の例を示した図である。図
2においては、撮像視野30をエリア30a、30b、
30cに分割する。また、この図2(a)、(b)、
(c)には、図7に示した粗材上のバルブリフタ穴1
0、重心位置11、第1のポイント12及び図13
(a)にも示した粗材の輪郭線の一部も同時に示されて
いるが、撮像視野内における第1のポイント12の位置
により見え方が変わることは明らかである。従って、本
実施例においては各領域毎に設定されたいずれかの相関
モデルを選択し、第1あるいは第2のポイント12、1
4の濃淡データと比較・照合するようにした。
First, the correlation model in this embodiment will be described. Conventionally, one correlation model was prepared for each model. Then, in the grayscale data obtained by extracting the contour line from the captured image, by comparing the grayscale data of the specific region, that is, the first and second points 12 and 14 in FIG. The placement direction was determined. In the present embodiment, attention is paid to the fact that the length of a specific part appears to change depending on the position of the rough material in the imaging field of view, and that the grayscale data of the rough material changes even if the same rough material is imaged due to the influence of shadows and the like. , The field of view is divided into multiple areas,
The feature is that a correlation model is set for each area. That is, a plurality of correlation models corresponding to the area within the imaging visual field are set for one model. Figure 2
It is the figure which showed the example at the time of dividing an imaging visual field into three. In FIG. 2, the imaging visual field 30 is divided into areas 30a, 30b,
Divide into 30c. In addition, this FIG. 2 (a), (b),
(C) shows the valve lifter hole 1 on the rough material shown in FIG.
0, center of gravity position 11, first point 12 and FIG.
Although part of the outline of the rough material shown in (a) is also shown at the same time, it is clear that the appearance changes depending on the position of the first point 12 in the imaging visual field. Therefore, in the present embodiment, one of the correlation models set for each region is selected, and the first or second points 12, 1 are selected.
It was made to compare and collate with the grayscale data of 4.

【0025】図3は、本実施例における対象物載置方向
判別方法の処理を示したフローチャートであり、以下、
この図に基づいて処理を説明する。なお、本実施例にお
ける判別処理の処理概要は従来と同様なので図8をその
まま用い、図9に示した従来と同様の処理には同じ符号
を付ける。
FIG. 3 is a flow chart showing the processing of the object placement direction determining method in this embodiment.
The processing will be described based on this figure. Since the outline of the discrimination processing in the present embodiment is the same as the conventional one, FIG. 8 is used as it is, and the same reference numerals are given to the same processing as the conventional one shown in FIG.

【0026】粗材を撮像し得られた画像からバルブリフ
タ穴10の部位を抽出し照合、特定することで粗材の型
式を認識する(ステップ101〜103)。型式が判別
されると、次に粗材の載置方向を判別するわけであるが
(ステップ104)、本実施例においては、最初に基準
位置としてバルブリフタ穴10の重心位置11を算出す
る(ステップ301)。各バルブリフタ穴10の位置
は、粗材の型式を判別したときに検出されているので、
重心位置11は容易に求めることができる。
The type of the rough material is recognized by extracting the part of the valve lifter hole 10 from the image obtained by picking up the image of the rough material, collating and specifying it (steps 101 to 103). When the model is determined, the placement direction of the rough material is determined next (step 104), but in the present embodiment, the center of gravity position 11 of the valve lifter hole 10 is first calculated as the reference position (step). 301). Since the position of each valve lifter hole 10 is detected when the type of the rough material is determined,
The center of gravity position 11 can be easily obtained.

【0027】次に、重心位置11が求められるとパレッ
ト上における粗材の傾き角度を算出する(ステップ30
2)。つまり、フォークリフトがパレットの搬送する際
の震動等でパレット上の粗材が載置されたときの位置か
らずれる場合がある。この場合、元の位置から大きくず
れてCCDカメラ6の撮像視野から粗材が外れた場合
は、CCDカメラ6をX、Y方向に移動させて見つけ出
すことができる。ただし、粗材を撮像するとき、図4
(a)、(b)のように各粗材がバルブリフタ穴10の
並びと正規な方向とが一致している等粗材がパレット上
の基準となる位置のままであれば理想的であるが、図4
(c)、(d)のように方向判別の基準となる方向から
ずれている場合が多い。各ポイント12、14を正しく
得るためにその傾き角度を得なければならない。この傾
き角度は、バルブリフタ穴10の並びと正規な方向との
ずれ量を算出すれば容易に求めることができる。傾き角
度が求まれば、その分画像処理装置内の座標系において
回転座標変換を行うことにより正規な方向又は逆の方向
に調整することができるので、後の処理において第1及
び第2のポイント12、14の濃淡データを正しく得る
ことができる。
Next, when the gravity center position 11 is obtained, the inclination angle of the coarse material on the pallet is calculated (step 30).
2). That is, the forklift may be displaced from the position when the rough material is placed on the pallet due to a vibration or the like when the pallet is transported. In this case, when the rough material is displaced from the original position and largely deviates from the imaging field of view of the CCD camera 6, the CCD camera 6 can be moved in the X and Y directions to find it. However, when imaging the rough material,
It is ideal if the rough material is in a reference position on the pallet, such as the arrangement of the valve lifter holes 10 and the normal direction of the rough material as shown in (a) and (b). , Fig. 4
In many cases, it is deviated from the direction which is the reference for the direction determination as in (c) and (d). In order to get each point 12, 14 correctly, its tilt angle must be obtained. This inclination angle can be easily obtained by calculating the deviation amount between the alignment of the valve lifter holes 10 and the normal direction. Once the tilt angle is obtained, the coordinate direction in the image processing apparatus can be adjusted by that amount to perform adjustment in the normal direction or the opposite direction. Therefore, in the subsequent processing, the first and second points can be adjusted. The grayscale data of 12 and 14 can be obtained correctly.

【0028】次に、粗材の重心位置11が撮像視野内に
おけるどのエリアに存在するかを調べる(ステップ30
3)。これは、撮像視野内における重心位置11がわか
っているので容易にわかる。重心位置11がどのエリア
に含まれるかわかると、該当するエリアの相関モデルを
ロードする。この相関モデルに関しては既に述べた。こ
の後の第1のポイント12の濃淡データのロード、スレ
ッシュレベルとの比較・照合(ステップ202〜20
5)、第2のポイント14の濃淡データのロード、スレ
ッシュレベルとの比較・照合(ステップ206〜21
0)等は従来と同様なので省略する。本実施例では、前
述したように同じ見え方のする相関モデルを選択するよ
うにしたので、より正確な相関値を得ることができ、そ
の結果、信頼性の高い方向判別を行うことができる。
Next, it is checked in which area in the visual field of view the barycentric position 11 of the rough material exists (step 30).
3). This is easily understood because the position of the center of gravity 11 in the imaging visual field is known. When it is known which area the center of gravity 11 is included in, the correlation model of the corresponding area is loaded. The correlation model has already been described. After that, the grayscale data of the first point 12 is loaded and compared with the threshold level (steps 202 to 20).
5), loading the grayscale data of the second point 14 and comparing / verifying with the threshold level (steps 206 to 21)
0) and the like are the same as conventional ones, and therefore omitted. In the present embodiment, as described above, the correlation model having the same appearance is selected, so that a more accurate correlation value can be obtained, and as a result, highly reliable direction determination can be performed.

【0029】図5は、正規な方向に粗材が載置され各エ
リア30a、30b、30cに重心位置11が存在した
ときの従来例と本実施例における判別結果を示した図で
ある。この内容から明らかなように、本実施例によれば
いずれのエリアにおいても確実に正規方向に粗材が載置
されていることを判別できることが理解できる。
FIG. 5 is a diagram showing discrimination results in the conventional example and the present example when the rough material is placed in the normal direction and the center of gravity position 11 exists in each of the areas 30a, 30b, 30c. As is clear from this content, it can be understood that according to the present embodiment, it is possible to reliably determine that the rough material is placed in the normal direction in any area.

【0030】以上のように、本実施例によれば、3分割
したエリア30a、30b、30c毎に相関モデルを設
定し、その相関モデルの中から撮像画像におけるバルブ
リフタ穴10の重心位置11の存在するエリアに対応し
た相関モデルをロードし相関値を算出するようにしたの
で、CCDカメラ6と粗材との位置関係、影等の影響を
受けることなく確実にパレット上の粗材の載置方向を判
別することができる。従って、スレッシュレベルを低く
設定する必要がなく判別処理の信頼性を向上することが
できる。
As described above, according to the present embodiment, a correlation model is set for each of the three divided areas 30a, 30b, 30c, and the center of gravity position 11 of the valve lifter hole 10 in the captured image is present in the correlation model. Since the correlation model corresponding to the area to be loaded is calculated to calculate the correlation value, the placement direction of the rough material on the pallet can be reliably performed without being affected by the positional relationship between the CCD camera 6 and the rough material, shadow, and the like. Can be determined. Therefore, it is not necessary to set the threshold level low, and the reliability of the determination process can be improved.

【0031】なお、本発明は、撮像視野を複数の領域に
分割して、各領域毎に相関モデルを設定したことを特徴
とするので、上記実施例のように撮像視野を正規な方向
に沿って3分割した場合に限られるわけではないが、本
実施例のように対象物がパレット上のエンジンのヘッド
部分であり長方形に近い形状の場合は、正規な方向に沿
った3分割で正常に載置方向を判別可能である。分割方
法は、対処物の形状、特徴部位等により決めることにな
る。
Since the present invention is characterized in that the imaging field of view is divided into a plurality of areas and the correlation model is set for each area, the imaging field of view is along the normal direction as in the above embodiment. However, when the object is the head portion of the engine on the pallet and has a shape close to a rectangle as in the present embodiment, normal division by three divisions along the normal direction is performed normally. The mounting direction can be determined. The division method will be determined by the shape of the object to be treated, the characteristic portion, and the like.

【0032】また、上記実施例では、基準位置をバルブ
リフタ穴の重心位置とし特定領域を重心位置から点対称
の位置としたが、これらも対象物の形状、特徴部位等に
より任意に設定すればよい。従って、上記実施例では重
心位置と特定領域とが異なる領域に分かれる可能性はあ
るが、これは、基準位置又は特定領域の設定を変更すれ
ばよい。本実施例においては、スレッシュレベルの範囲
内である。
Further, in the above embodiment, the reference position is the center of gravity of the valve lifter hole and the specific region is the point-symmetrical position from the center of gravity. However, these may be arbitrarily set depending on the shape of the target object, the characteristic portion, etc. . Therefore, in the above-mentioned embodiment, the center of gravity position and the specific region may be divided into different regions, but this can be done by changing the setting of the reference position or the specific region. In this embodiment, it is within the threshold level range.

【0033】[0033]

【発明の効果】本発明によれば、撮像視野を複数の領域
に分割し、1つの対象物に対しても各領域毎に基準デー
タを設定し、対象物の特定領域の濃淡データと基準デー
タとを照合する際、対象物上の基準位置のある領域に設
定された基準データを選択し当該濃淡データと比較・照
合するようにしたので、撮像手段と対象物との位置関
係、影等の影響により同じ特定領域の見え方が変わる場
合があったとしてもそれらの影響を受けることなく対象
物の載置された方向を確実に判別することが可能とな
る。
According to the present invention, the imaging field of view is divided into a plurality of areas, reference data is set for each object even for one object, and the grayscale data and the reference data of a specific area of the object are set. Since the reference data set in the area having the reference position on the object is selected and compared and compared with the grayscale data, the positional relationship between the image pickup means and the object, the shadow, etc. Even if the appearance of the same specific area may change due to the influence, it is possible to reliably determine the direction in which the target object is placed without being affected by them.

【0034】従って、向きを判別する際に用いるスレッ
シュレベルを低く設定する必要がなく判別処理の信頼性
を向上することが可能となる。
Therefore, it is not necessary to set the threshold level used for discriminating the orientation low, and the reliability of the discrimination processing can be improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る対象物載置方向判別装置の一実施
例を示したブロック構成図である。
FIG. 1 is a block configuration diagram showing an embodiment of an object placement direction determination device according to the present invention.

【図2】本実施例において、撮像視野内を3分割し、そ
れぞれのエリアに粗材が撮像されたときの例を示した図
である。
FIG. 2 is a diagram showing an example when a rough material is imaged in each area by dividing the imaging visual field into three in the present embodiment.

【図3】本実施例における対象物載置方向判別方法の処
理を示したフローチャートである。
FIG. 3 is a flowchart showing a process of a method for determining an object placement direction in the present embodiment.

【図4】本実施例において、撮像視野内の粗材の載置方
向を示した図である。
FIG. 4 is a diagram showing a mounting direction of a rough material in an imaging visual field in the present embodiment.

【図5】本実施例において、正規な方向に粗材が載置さ
れ各エリアに重心位置が存在したときの従来例と本実施
例における判別結果を示した図である。
FIG. 5 is a diagram showing a discrimination result in a conventional example and a present example when a rough material is placed in a normal direction and a barycentric position exists in each area in the present example.

【図6】直交ロボットを示した図である。FIG. 6 is a diagram showing an orthogonal robot.

【図7】対象物である各エンジンのヘッド部分を上から
見たときの概略図である。
FIG. 7 is a schematic view of a head portion of each engine, which is an object, as viewed from above.

【図8】パレット上に載置された粗材の型式並びに載置
方向を判別する処理を示したフローチャートである。
FIG. 8 is a flowchart showing a process of determining the type and placement direction of a rough material placed on a pallet.

【図9】従来の対象物載置方向判別方法の処理を示した
フローチャートである。
FIG. 9 is a flowchart showing a process of a conventional object placement direction determination method.

【図10】各粗材に対する型式毎の相関値を示した図で
ある。
FIG. 10 is a diagram showing a correlation value for each model for each rough material.

【図11】各粗材の相関値とスレッシュレベルとの関係
を示した図である。
FIG. 11 is a diagram showing a relationship between a correlation value of each rough material and a threshold level.

【図12】各粗材の相関値とスレッシュレベルとの関係
を示した図である。
FIG. 12 is a diagram showing a relationship between a correlation value of each rough material and a threshold level.

【図13】(a)は図7(b)に示した第1のポイント
の特徴部分の概略図、(b)は(a)のA−A’線で切
断したときの断面図である。
13A is a schematic view of a characteristic portion of the first point shown in FIG. 7B, and FIG. 13B is a sectional view taken along the line AA ′ of FIG.

【符号の説明】[Explanation of symbols]

6 CCDカメラ 10 バルブリフタ穴 11 重心位置 12 第1のポイント 14 第2のポイント 20 撮像部 22 基準位置検出部 24 メモリ 26 相関モデル選択部 28 濃淡データ照合部28 30 撮像視野 30a、30b、30c エリア 6 CCD Camera 10 Valve Lifter Hole 11 Center of Gravity Position 12 First Point 14 Second Point 20 Imaging Section 22 Reference Position Detection Section 24 Memory 26 Correlation Model Selection Section 28 Grayscale Data Collating Section 28 30 Imaging Field of View 30a, 30b, 30c Area

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06T 1/00 7/60 9061−5H G06F 15/70 370 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G06T 1/00 7/60 9061-5H G06F 15/70 370

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 対象物を撮像し得られた画像の特定領域
の濃淡データと基準データとを照合することで対象物の
置かれた向きを判別する対象物載置方向判別方法におい
て、 撮像視野内における対象物上の基準位置を検出するステ
ップと、 撮像視野を複数に分割した領域毎に設定された基準デー
タの中から前記基準位置に応じた基準データを選択する
ステップと、 を有することを特徴とする対象物載置方向判別方法。
1. An object placement direction determining method for determining a direction in which an object is placed by comparing grayscale data of a specific region of an image obtained by picking up an image of an object and reference data, Detecting a reference position on the object in the image, and selecting reference data corresponding to the reference position from reference data set for each of the areas obtained by dividing the imaging visual field into a plurality of areas. A method for distinguishing a target object placement direction.
【請求項2】 対象物を撮像し得られた画像の特定領域
の濃淡データと基準データとを照合することで対象物の
置かれた向きを判別する対象物載置方向判別装置におい
て、 対象物を撮像する撮像手段と、 撮像視野内における対象物上の基準位置を検出する基準
位置検出手段と、 撮像視野を複数に分割した領域毎に設定された基準デー
タを記憶する基準データ記憶手段と、 前記基準データ記憶手段に記憶された基準データの中か
ら前記基準位置検出手段で検出された基準位置に応じた
基準データを選択する基準データ選択手段と、 前記特定領域の濃淡データと前記基準データ選択手段に
より選択された基準データとを照合・判定する濃淡デー
タ照合手段と、 を有することを特徴とする対象物載置方向判別装置。
2. An object placement direction discriminating apparatus for discriminating a direction in which an object is placed by comparing grayscale data of a specific region of an image obtained by picking up an image of the object with reference data. An image pickup means for picking up an image, a reference position detection means for detecting a reference position on an object in the image pickup field of view, and a reference data storage means for storing reference data set for each of the regions obtained by dividing the image pickup field of view, Reference data selection means for selecting reference data corresponding to the reference position detected by the reference position detection means from the reference data stored in the reference data storage means, grayscale data of the specific area, and the reference data selection An object placement direction discriminating apparatus comprising: a grayscale data collating unit that collates and determines the reference data selected by the unit.
JP25657294A 1994-10-21 1994-10-21 Object placement direction discrimination method and apparatus Expired - Fee Related JP3277723B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25657294A JP3277723B2 (en) 1994-10-21 1994-10-21 Object placement direction discrimination method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25657294A JP3277723B2 (en) 1994-10-21 1994-10-21 Object placement direction discrimination method and apparatus

Publications (2)

Publication Number Publication Date
JPH08118273A true JPH08118273A (en) 1996-05-14
JP3277723B2 JP3277723B2 (en) 2002-04-22

Family

ID=17294506

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25657294A Expired - Fee Related JP3277723B2 (en) 1994-10-21 1994-10-21 Object placement direction discrimination method and apparatus

Country Status (1)

Country Link
JP (1) JP3277723B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1094991A (en) * 1996-09-24 1998-04-14 Mazda Motor Corp Article location detecting method and device thereof
WO2010052830A1 (en) * 2008-11-06 2010-05-14 日本電気株式会社 Image orientation determination device, image orientation determination method, and image orientation determination program
JP2010253176A (en) * 2009-04-28 2010-11-11 Ge Medical Systems Global Technology Co Llc Modeling device, magnetic resonance imaging apparatus, modeling method, and program
JP2013010155A (en) * 2011-06-28 2013-01-17 Canon Inc Target object gripping apparatus, method of controlling the same, and program
JP2020192090A (en) * 2019-05-28 2020-12-03 株式会社島津製作所 X-ray machine

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1094991A (en) * 1996-09-24 1998-04-14 Mazda Motor Corp Article location detecting method and device thereof
WO2010052830A1 (en) * 2008-11-06 2010-05-14 日本電気株式会社 Image orientation determination device, image orientation determination method, and image orientation determination program
US8442351B2 (en) 2008-11-06 2013-05-14 Nec Corporation Image orientation determination device, image orientation determination method, and image orientation determination program
JP5527213B2 (en) * 2008-11-06 2014-06-18 日本電気株式会社 Image orientation determination apparatus, image orientation determination method, and image orientation determination program
JP2010253176A (en) * 2009-04-28 2010-11-11 Ge Medical Systems Global Technology Co Llc Modeling device, magnetic resonance imaging apparatus, modeling method, and program
JP2013010155A (en) * 2011-06-28 2013-01-17 Canon Inc Target object gripping apparatus, method of controlling the same, and program
US9044858B2 (en) 2011-06-28 2015-06-02 Canon Kabushiki Kaisha Target object gripping apparatus, method for controlling the same and storage medium
JP2020192090A (en) * 2019-05-28 2020-12-03 株式会社島津製作所 X-ray machine

Also Published As

Publication number Publication date
JP3277723B2 (en) 2002-04-22

Similar Documents

Publication Publication Date Title
EP1600883A2 (en) Object recognition system
JP3051279B2 (en) Bump appearance inspection method and bump appearance inspection device
US7545972B2 (en) Test tube type discrimination apparatus
US20020168097A1 (en) System and method for recognizing markers on printed circuit boards
JPH08118273A (en) Judgment of placement direction of objective substance and device therefor
JP5572450B2 (en) Deformed coin discrimination method and coin processing apparatus
CN112985515B (en) Method and system for detecting assembly qualification of product fastener and storage medium
WO2003032261A1 (en) Coin authenticity judging apparatus and coin authenticity judging method
JP2001277167A (en) Three-dimensional attitude recognizing method
JP2003233851A (en) Method for judging authenticity/soundness of coin from picture and its device
CN116128853A (en) Production line assembly detection method, system, computer and readable storage medium
CN111460198A (en) Method and device for auditing picture timestamp
JP3109620B2 (en) Object identification device
CN115020286A (en) Method and system for sorting and picking crystal grains
CN108352065B (en) Printing apparatus, method and storage medium
JP6751521B2 (en) Data acquisition device, printing device, authenticity judgment device and program
JP3718613B2 (en) Method and apparatus for determining coin authenticity based on image
JPH06294633A (en) Method and equipment for automatically inspecting fastener
JP2562047B2 (en) Position and orientation recognition method of target object
CN115131539B (en) Aluminum template automatic identification and classification system based on machine vision
JPH0739827A (en) Method for identifying many kinds of articles
CN108492447B (en) Dollar-oriented identification method, electronic device and computer-readable storage medium
JP2008153255A (en) Model registration method for inspection of mounted component, inspection method of mounted component, and board inspection device using that method
JP3919207B2 (en) Appearance inspection device
JP2022129667A (en) Legume selection system and legume selection device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080215

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090215

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100215

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110215

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees