JPH01283677A - 視覚認識装置 - Google Patents

視覚認識装置

Info

Publication number
JPH01283677A
JPH01283677A JP11421988A JP11421988A JPH01283677A JP H01283677 A JPH01283677 A JP H01283677A JP 11421988 A JP11421988 A JP 11421988A JP 11421988 A JP11421988 A JP 11421988A JP H01283677 A JPH01283677 A JP H01283677A
Authority
JP
Japan
Prior art keywords
inertia
principal axis
gravity
center
equation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11421988A
Other languages
English (en)
Inventor
Hidetoshi Nogo
野吾 英俊
Nobuhiko Onda
信彦 恩田
Hitoshi Komorida
小森田 均
Fumiaki Akitani
秋谷 文明
Yasuki Yamamoto
山本 泰機
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP11421988A priority Critical patent/JPH01283677A/ja
Publication of JPH01283677A publication Critical patent/JPH01283677A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 [概要] ロボットによる組み立て作業の際に対象物体の認識を行
う視覚認識装置、特に、対象物体の表、裏を判定する視
覚認識装置に関し、 組み立ての際に表と裏を区別しなければならない物体に
おいても、その表、裏の整列を行うことなく自由な姿勢
でロボットに供給することができる、視覚認識装置を提
供することを目的とし、物体の画像が入力する画像入力
部と、入力した画像から物体の輪郭を抽出する画像前処
理部と、物体の特徴量を記録しておくデータベースと、
物体の輪郭座標値により物体の特徴量を計算する特徴量
計算部と、該計算部で計算した特徴量とデータベースの
特徴量とを比較するデータ比較部と、を有する視覚認識
装置において、前記物体の外輪郭の重心、その慣性主軸
の方向および内輪郭の重心により求めた“慣性主軸の方
程式の正負および慣性主軸の方向の範囲により物体の左
右を判定する左右判定部と、該左右判定部の判定結果と
、前記データベースの所定の特徴量とを比較して物体の
表、裏を判定する表裏判定部と、で構成した。
[産業上の利用分野] 本発明は、ロボットによる組み立て作業の際に対象物体
の認識を行う視覚認識装置、特に、対象物体の表、裏を
判定する視覚認識装置に関する。
一般に、ロボットを用いて組み立て作業を行うときは、
対象物体を認識するために、視覚認識装置か用いられる
。この視覚認識装置により対象物体の輪郭を抽出し、そ
の輪郭の座標値をもとに物体の重心の位置や面積、図表
などの特徴パラメータを計算して物体を認識する。
この場合、非対称な表裏のある物体は、表と裏の区別が
できないため、表と裏を判別することが必要となる。
[従来の技術] 従来の視覚装置は、カメラにより取り込んだ物体の画像
から輪郭を抽出し、抽出した物体の輪郭座標から物体の
特徴パラメータを求め、この特徴パラメータと予め物体
の特徴量を記録しであるデータベースからのデータとを
比較して、物体の判別や位置の修正などを行っていた。
[発明が解決しようとする課題] しかしながら、このような従来の視覚認識装置にあって
は、物体を特徴パラメータにより判別することができる
ものの、これらの特徴パラメータとして物体の左右を区
別する値がないため、非対称な表裏のある物体は表と裏
の区別ができず、物体をロボットで組み立てるには、物
体を表または裏に区別して整列しておかねばならなかっ
た。
その結果、ロボットに物体を自由な姿勢で供給すること
ができず、整列に手間がかかるという問題点があった。
本発明は、このような従来の問題点に鑑みてなされたも
のであって、組み立ての際に表と裏を区別しなければな
らない物体においても、予め表裏の整列を行うことなく
自由な姿勢でロボットに供給することができる視覚認識
装置を提供することを目的としている。
[課題を解決するための手段] 第1図は本発明の基本構成図である。
第1図に(a)、(b)において、 6は物体1の画像が入力する画像入力部、7は入力した
画像から物体1の輪郭21.23を抽出して処理する画
像前処理部、9は物体1の特徴間を記録しておくデータ
ベース、8は物体の輪郭座標値により物体1の特徴量を
計算する特徴量計算部、10は該耐算部8で計算した特
!!!墨とデータベース9の特徴量とを比較するデータ
比較部、11は前記物体1の外輪郭21の重心22、そ
の慣性主軸の方向25および内輪郭23の重心24によ
り求めた慣性主軸の方程式の正負および慣性主軸の方向
により物体の左右を判定する左右判定部、12は該左右
判定部11の判定結果と、前記データベース9の所定の
特徴量とを比較して物体の表、裏を判定する表裏判定部
である。
[作用コ 本発明においては、まず、カメラで取り込んだ物体1の
画像から物体1の輪郭21.23を抽出して前処理を行
い、物体1の輪郭座標から物体1の特徴間を計算し、こ
の特徴量とデータベース9に予め記録しである特@最と
比較して、物体1の名前を判別する。
次に、物体1の外輪郭21の重心22、その慣性主軸の
方向25、および内輪郭23の重心24により慣性主軸
の方程式を求め、この方程式に内輪郭23の重心24を
代入して方程式の正負を判別し、方程式の正負に基づい
て慣性主軸の方向により物体1の左右位置を判別し、こ
の判別結果と、ベータベース9の所定のデータとを比較
して物体1の表、裏を判別する(第1図(b)、参照)
したがって、ロボットによる物体1の組み立ての際に表
と裏を区別しなければならない物体1においても、予め
表、裏に区別して整列しておく必要がなく、物体1を自
由な姿勢でロボットに供給することができる。
その結果、ロボットによる物体1の組み立て作業の効率
を向上させることができる。
[実施例] 以下、本発明の実施例を図面に基づいて説明する。
第2〜第10図は本発明の一実施例を示す図である。
第2図において、1はロボット2が組み立て作業を行な
う対象物体であり、物体1の画像はカメラ3により取り
込まれる。カメラ3で取り込まれた物体1の画像は視覚
認識装置4で前処理され、物体1の位置や姿勢方向につ
いてのデータが計算される。視覚認識装置4で計算され
たデータはロボット制御装置5に送られ、ロボット制御
装置5から出力される制御信号によりロボット2は物体
1の組み立て作業を行なう。
視覚認識装置4は、第3図に示すように、画像入力部6
、画像前処理部7、特徴間計算部8、データベース9、
データ比較部10、左右判定部11、表裏判定部12、
およびデータ出力部13で構成されている。
画像入力部6にはカメラ3で取り込んだ物体1の画像が
入力する。画像前処理部7は取り込んだ物体1の画像か
ら輪郭を抽出し、前処理を行なう。
特徴間計算部8は抽出した輪郭の輪郭座標から特徴間を
計算する。
データベース9は、実際の物体1の特徴間を予め記録す
る。具体的には、第4図に示すように、外輪部の周長、
面積、断面モーメント、動径標準偏差、内輪郭の数、ま
た内輪郭1〜nの周長、面積、断面モーメント、動径標
準偏差、その位置などを記録する。なお、物体1の重心
や主軸の方向θは場所により変化するので、これらのデ
ータは記録しない。
データ比較部10は特徴間計算部8で計算した特徴間と
データベース9に記録しである特@量とを比較する。左
右判定部11は、外輪部の重心、その慣性主軸の方向、
および内輪郭の重心により慣性主軸の方程式を求め、こ
の方程式に内輪郭の重心を代入して、方程式の正負およ
び慣性主軸の方向の範囲により物体1の左右を判定する
物体の表裏判定部12は、左右判定部11の判定結果と
前記データベース9の位置データと比較して物体1の表
裏を判定する。
データ出力部13は、物体1の位置、姿勢方向、表裏な
どのデータをロボット制御装置5に送る。
次に、動作を説明する。
第5図は全体のフローチャートを示す。第5図において
、まず、ステップ$1でカメラ3により画像入力部6に
物体1の画像を入力する。次に、ステップS2で画像前
処理部7により入力した物体1の画像の輪郭を抽出し、
ステップS3で特徴間計算部8により抽出した輪郭の輪
郭座標から物体1の特y1間を計算する。
次に、ステップS4でデータ比較部10により特徴間計
算部8で計算した特徴間とデータベース9に記録しであ
る特!S!Iを比較し、ステップS5で物体1の名前を
判別する。
次に、物体1の名前が判別したときは、ステップS6で
物体1の左右を判別する。この物体1の左右判別のフロ
ーチャー1〜は第6図に示される。
ここで、左右判別のパラメータとして、第7図に示すよ
うに、外輪郭21の重心22、内輪郭23の重心24、
および外輪郭の慣性主軸の方向25を考える。内輪郭2
3が非対称な位置に存在する場合には、その重心24の
位置が外輪郭21の慣性主軸の方向25の左右どちら側
にあるかを判別することができるからである。
第6図のステップ321では外輪郭21の重心22を(
XGo、 YGo) 、内輪郭23の重心24を(XG
I、 YGl) 、慣性主軸の方向25をθ(−180
<θ≦180°〉とオイテ、(XGo、 YG5)、(
XG1. YGI) 、およびθをそれぞれ入力する。
次に、ステップS22で慣性主軸の方程式f (x、y
)を求める。慣性主軸の方程式f (x。
y)は、次式■で表わせる。
y= (x−XG5) xtanO+YG5(X−XG
O) tanθ−y+YGσ=0 * * *■次に、
ステップS23では方程式f (x、y)に内輪郭23
の重心(XG1. YGl)を代入し、ステップS24
で方程式f (x、y)の符号を調べる。方程式f (
XG1. YGI) <0のときは、第8図(a)に示
すように、内輪郭23の重心(XGI、 YGI)が慣
性主軸の上側にあり、方程式f(XGl、 YGl) 
>0のときは、第8図(b)に示すように、内輪郭23
の重心(XGI、 YGI)が慣性主軸の下側におるこ
とがわかる(ステップS25、ステップS26、参照)
ここで、慣性主軸の方向θは、−180’<θ≦180
°の範囲で求めているが、tanθは±90°の周期関
数であるから、θの値により、内輪郭23の重心(XG
1. YGl)が外輪郭21の慣性主軸の方向に向って
左右どちら側にあるかを判別することができる。
すなわち、θが一90°くθく90°の範囲にある場合
に、第9図(a)に示すように、慣性主軸の上を左側、
第9図(b)で示すように、・面性主軸の下を左側とし
、一方、θが一180°くθ≦−90’ 、90’ <
θ≦180°の範囲にある場合には、第10図(a)に
示すように、慣性主軸の上を左側、また第10図(a>
示すように、慣性主軸の下を左とすると、ステップS2
5で内輪郭23の重心(XGI、 YGI)が慣性主軸
の上にあり、かつステップS27でθが一90°〈θ≦
90”のときは、ステップS29で内輪郭23は左側に
あることを判別することができ、θが一9Q’ <θ≦
90’の範囲外のときは、ステップS30で内輪郭23
は右側にあると判別することができる。一方、ステップ
826で内輪郭23の重心(XGI、 YG2)が慣性
主軸の下にあり、かつステップS28でθが一90°<
θ≦90’のときは、ステップS30で内輪郭23は右
側にあことを判別することができ、θが一90°くθ≦
90°の範囲外にあるときは、ステップS29で内輪郭
23は左側にあることを判別することがで・きる。
次に、再び第5図のフローチャートに戻り、ステップS
6で物体1の左右を判定したら、ステップS7でその物
体1の名前が記録しである内輪郭23の位置を調べ、こ
の位置データで左右判定結果を比較する。
次に、ステップS8で物体1の左右位置とデータベース
9の位置が同じであるときは、ステップS9で物体1は
表、同じでなければステップS10で物体1は裏である
とし、ステップS10で物体1の表、裏データをデータ
出力部13からロボット制御装置5に出力する。
したがって、ロボット2により物体1の組み立ての際に
、表と裏を区別しなければならない物体1においても、
あらかじめ物体1を表、裏に区別して整列する必要がな
いため、物体1を自由な姿勢でロボット2に供給するこ
とができる。
[発明の効果] 以上説明してきたように、本発明によれば、非対称な表
裏のある物体の表と裏を区別することができるため、物
体をロボットで組み立てる際に物体を予め表、裏に区別
して整列しておく必要がないので、ロボットの組み立て
作業の効率を向上さけることができる。
【図面の簡単な説明】
第1図は本発明の基本構成図、 第2図は全体構成図、 第3図は本発明の一実施例を示すブロック図、第4図は
データベースの構成図、 第5図は全体のフローチャート、 第6図は物体の左右判別のフローチャート、第7図は物
体の特徴パラメータを示す図、第8図(a)、(b)は
慣性主軸と内輪郭の関係を示す図、 第9図(a)、(b)および第10図(a)。 (b)は慣性主軸の方向の範囲による物体の左右判別を
説明する各説明図である。 図中、 1・・・物体、 2・・・ロボット、 3・・・カメラ、 4・・・視覚認識装置、 5・・・ロボット制御装置、 6・・・画像入力部、 7・・・画像前処理部、 8・・・特徴量計算部、 9・・・データベース、 10・・・データ比較部、 1]・・・左右判定部、 12・・・表裏判定部、 13・・・データ出力部、 21・・・外輪郭、 22・・・外輪郭の重心、 23・・・内輪郭、 24・・・内輪郭の重心。 (a) 巷本4kFA図 第1図 全体構成図 第2図 !□ 本完明の一実施例を示すフ゛ロック図 第3図 データベースの構成図 第4図 ○コID 第5図 物体の右右判別のフローチャート 第6図

Claims (1)

    【特許請求の範囲】
  1. 物体(1)の画像が入力する画像入力部(6)と、入力
    した画像から物体(1)の輪郭(21)、(23)を抽
    出して処理する画像前処理部(7)と、物体(1)の特
    徴量を記録しておくデータベース(9)と、物体(1)
    の輪郭座標値により物体(1)の特徴量を計算する特徴
    量計算部(8)と、該計算部(8)で計算した特徴量と
    データベース(9)の特徴量とを比較するデータ比較部
    (10)と、を有する視覚認識装置において、前記物体
    の外輪部(21)の重心(22)、その慣性主軸の方向
    (25)および内輪郭(23)の重心(24)により求
    めた慣性主軸の方程式の正負および慣性主軸の方向(θ
    )により物体(1)の左右を判定する左右判定部(11
    )と、該左右判定部(11)の判定結果と、前記データ
    ベース(9)の所定の特徴量とを比較して物体(1)の
    表、裏を判定する表裏判定部(12)と、を備えたこと
    を特徴とする視覚認識装置。
JP11421988A 1988-05-11 1988-05-11 視覚認識装置 Pending JPH01283677A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11421988A JPH01283677A (ja) 1988-05-11 1988-05-11 視覚認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11421988A JPH01283677A (ja) 1988-05-11 1988-05-11 視覚認識装置

Publications (1)

Publication Number Publication Date
JPH01283677A true JPH01283677A (ja) 1989-11-15

Family

ID=14632207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11421988A Pending JPH01283677A (ja) 1988-05-11 1988-05-11 視覚認識装置

Country Status (1)

Country Link
JP (1) JPH01283677A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002073538A1 (fr) * 2001-03-13 2002-09-19 Ecchandes Inc. Dispositif visuel, compteur asservi et capteur d'images
CN100338598C (zh) * 2001-03-13 2007-09-19 伊强德斯股份有限公司 视觉装置、联动式计数器及图象检测器
JP2012163451A (ja) * 2011-02-07 2012-08-30 Ihi Corp 形状認識装置、形状認識方法、および、そのプログラム
EP3120108A4 (en) * 2014-03-20 2017-11-01 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002073538A1 (fr) * 2001-03-13 2002-09-19 Ecchandes Inc. Dispositif visuel, compteur asservi et capteur d'images
CN100338598C (zh) * 2001-03-13 2007-09-19 伊强德斯股份有限公司 视觉装置、联动式计数器及图象检测器
JP2012163451A (ja) * 2011-02-07 2012-08-30 Ihi Corp 形状認識装置、形状認識方法、および、そのプログラム
EP3120108A4 (en) * 2014-03-20 2017-11-01 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program
US10456918B2 (en) 2014-03-20 2019-10-29 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program

Similar Documents

Publication Publication Date Title
US6845296B2 (en) Object taking out apparatus
JP6823502B2 (ja) ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
Tan et al. Model-based localisation and recognition of road vehicles
EP1742169B1 (en) Tracking apparatus
WO2023142229A1 (zh) 焊缝参数识别方法、装置、电子设备及存储介质
US20150294483A1 (en) Vision-based multi-camera factory monitoring with dynamic integrity scoring
US20150294496A1 (en) Probabilistic person-tracking using multi-view fusion
JP7036400B2 (ja) 自車位置推定装置、自車位置推定方法、及び自車位置推定プログラム
CN108907526A (zh) 一种具有高鲁棒性的焊缝图像特征识别方法
Papanikolopoulos Selection of features and evaluation of visual measurements during robotic visual servoing tasks
Hauck et al. Visual determination of 3D grasping points on unknown objects with a binocular camera system
US6735343B2 (en) Polygon finder and pruned tree geometric match method
JPH01283677A (ja) 視覚認識装置
Ouerhani et al. Visual attention-based robot self-localization
Malis et al. 212d visual servoing with respect to planar contours having complex and unknown shapes
WO2019145411A1 (en) Method and system for head pose estimation
US5572595A (en) Method of detecting the location of a human being in three dimensions
JP3039241B2 (ja) リング状ワークの特徴点抽出方法
Sahu et al. Shape features for image-based servo-control using image moments
JP2995127B2 (ja) 円形穴の認識方法
JPH085333A (ja) 3次元位置姿勢認識装置
JPH0738223B2 (ja) 移動ロボット用画像認識装置
JP2897612B2 (ja) ワーク検出方法
JP2013010160A (ja) ロボット制御システム、ロボットシステム及びマーカー処理方法
JPH01287787A (ja) 視覚認識装置