JPS60146697A - 作業用ロボツト - Google Patents

作業用ロボツト

Info

Publication number
JPS60146697A
JPS60146697A JP33784A JP33784A JPS60146697A JP S60146697 A JPS60146697 A JP S60146697A JP 33784 A JP33784 A JP 33784A JP 33784 A JP33784 A JP 33784A JP S60146697 A JPS60146697 A JP S60146697A
Authority
JP
Japan
Prior art keywords
robot
information
image
color
visual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP33784A
Other languages
English (en)
Inventor
英俊 鱸
雄三 加藤
正敏 奥富
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP33784A priority Critical patent/JPS60146697A/ja
Publication of JPS60146697A publication Critical patent/JPS60146697A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔技術分野〕 本発明は作業用ロボットに関し、特にロボットに備えら
れた視覚センナからの出力信号に基づいて環境の状態を
認識して動作することの可能な作業用ロボットに関する
〔従来技術〕
従来のこの種のロボットで工業用等に使用されているも
のに、例えばベルトコンベアで搬送されて(る部品の形
状や位置といった環境の状態を、視覚センサから得られ
る画像情報を基にして認葭させ、これらの認識に基づい
て俸工程の選別や組立動作を行わせるようにしたものが
ある。
しかし、このような従来の作業用ロボットにおいては、
視覚センサの視野の範囲にロボットの構成部分である例
えばその作業用のハンドなどがとり込まれると、部品の
形状認識などが正しく行われなくなるおそれがある。
このような誤認識の例を第1図0)によって説明すると
、ここで1は図示しない視覚センサによって捕捉される
視野の範囲であり、本例ではこの視野の範囲1のうちに
、部品2人および2Bと、更に部品2人を握持している
左ハンド3Aおよび部品2Bを握持している右ハンド3
Bとが混在している。
しかるに、従来のロボットでは部品2人および2Bと左
右のハンド3Aおよび3Bとを識別する機能がないため
に、斜線を施して示す形状4Aおよび4Bとしての認識
がなされてしまい、部品2Aおよび2Bの形状やその向
きなどが誤認識される。
そこで、このよ5な誤認識を回避するために、視覚セン
サによって環境状態の認識を行わせるにあたって、作業
用のハンド3Aおよび3Bをいったん視野の範囲1から
退避させるか、あるいは複数の視覚センナをそれぞれ異
なる方向に配置して適時にセンサを切換えるなどの手段
が考えられる。
しかしながら、環境状態の認識にあたって、その都度ハ
ンド3Aおよび3Bを退避させたのでは、直接の作業目
的でない退避その他の動作を行わせることにより作業能
率の低下をきたす上に、連続した環境認識を必要とする
ような複雑な作業には適しない。更にまた、複数の視覚
センナを配置するのでは、画像逃理システムが複雑にな
り、ロボットが大型化する外、コストが増大するなど不
都合が多い。
以上は従来のこの種のロボットに、視覚情報のうちのロ
ボット自体にかかわる情報と認識の対象となる環境にか
かわる情報とを簡単に識別する手段が備えられ℃いない
ことに起因する。
〔目 的〕
る環境の情報とが混在していても、これらの情報を容易
に識別することのできる手段を有し、誤認識の生じるこ
とのないような作業用ロボットを提供することにある。
〔実施例〕
以下に、図面に基づい℃本発明の詳細な説明する。
第2図は本発明の一実施例を示し、ここで、101は視
覚センサ、102は照明装置、3は本体100の左右両
側に具設した作業用ハンド(ここでは左および右tハン
ド3Aおよび3Bのうち右側のハンド3Bのみを図示)
であり、更に104は移動用駆動輪である。
なお、本例では視覚センサ101にNTBC方式のカラ
ーテレビカメラを用い、更に照明装置102の図示しな
い光源にはCIE表色系の標準C光源を用い℃構成する
場合を述べることとする。また、ハンド3はロボット本
体100と共にその表面が青色に着色されている。ただ
し、この色の選定にあたっては、ロボット100の有す
る視覚領域の中に存在しないような特定色であればよ(
、必らずしも青色に限ったものではない。
第3図は本発明作業用ロボットの制御系を示す。
ここで、202は視覚センサ101の方向、倍率および
焦点などを制御する視覚センサ制御部、203はロボッ
ト100の動作を全体的に管理する中央熟理装置CPU
であり、視覚センサ制御部202はcPtr203によ
って制御される。
204は視覚センサ101から得られた視覚情報すなわ
ち画像情報によって環境の状態を認識する視覚情報処理
部であり、視覚情報処理部204ではその視覚情報の中
から環境状態認識のための画像解析がなされて、これが
環境情報としてCPU203に出力される、 なお、ここでの環境情報とは例えば組立部品の種類(第
1図(イ)の例での部品2人および2B)やその置かれ
ている位置や向きなどであり、これらの環境情報に基づ
いてCPU203では目的とする次の組立作業を行うた
めに必要な動作を判断し、ハンド制御部205およびま
たは駆動輪制御部206に動作信号を送給する。
次に、第4図によってこのような視覚情報処理部204
における画像解析により、視覚情報中のロボット100
自体に関する情報と対象とする環境に関する情報とを識
別する機能罠ついて説明する。
ここで、301は映像復調回路であり、映像復調回路3
01では視覚センサ101からの画像情報をR,G、B
の三原色成分に分解し、これらをアナログ信号としてそ
れぞれのA/D変換器302R,302Gおよび302
Bに送給し、デジタル化する。
しかして、これらのデジタル信号を1画面分の容量を有
する画像メモリ303R,303()および303Bに
いったん記憶させてから、その信号を演算論理回路30
4および305に色信号RD、 GDおよびBD とし
て送出する。
演算論理回路304では、デジタル色信号RD。
GDおよびBD のそれぞれについて二次微分の演算を
行い、これらの和をめて2値化することにより二次元の
画像情報として画像の輪郭を抽出する。
なお、上記の二次微分の演算による方式は第5図忙示す
よ5な=トリクスで示される線形要素の j荷重関数を
用いて積および和の演算がなされる二次元デジタル画像
の処理法として公知のものであり、その詳細は省略する
。また、画像の輪郭を抽出する方式は上述した方式に限
られるものではなく、たとえば色信号RD、GDおよび
BDのうちで、信号G (線に関する色信号)の谷に対
して一次り 微分の演算を行うようにすることもできる。
一方、演算論理回路305は色信号RD、GDおよびB
 によって、画像情報に含まれているうちの色度(次式
のXおよびyで示される)を演算する回iである。1−
なわち、色度Xおよびyは、次の式(11で表わされる
ただし、ここでX、YおよびZは、NTSC方式テレビ
カメラの撒像特性から、CIEのX72表色系の色度X
およびyの構成に使用されるそれぞれ刺激値であり、公
知の式として次式で示される。
なお、視覚センサ101にNTSC方式以外のテレビカ
メラ等を使用する場合は、その特性にあわせて式(2)
の右辺に用いられている各係数を補正すればよい。
次に、ROM306 は特定色(本例ではロボット10
0に用いた青色)の色度があらかじめ記憶されているL
SIメモ!J、307は演算論理回路305からの出力
をROM306からの出力と比較する比較器であり、比
較器307ではこれら双方からの出力が一致したときに
のみH” レベルの出力信号を発生し、これをインバー
タ308に供給する。
そこで、アンドゲート309には演算論理回路304か
らの輪郭に関する画像信号と、インバータ308からの
反転された色識別信号とが供給されることにより、その
論理積に基づく信号がマイクロプロセッサ310に送給
される。
なお、マイクロプロセッサ310には組立部品(例えば
第1図(6)に示した部品2人および2B)の形状のパ
ターンがあらかじめ記憶されており、アンドゲート30
9からのアンド出力″′1”に対してパターン認識を行
うが、後述するようにロボット1000部分(例えばハ
ンド3Aおよび3B)を消去して得られる環境U識のパ
ターンとしての輪郭線に欠如部分があると、記憶パター
ンとのパターンマツチングを行ったのみでは認識の不可
能な虞がある。
そこで、このような場合に対処するためにマイクロプロ
セッサ310には輪郭線の補間機能が付与されており、
上述したよ5な輪郭線の欠如部分の発生位置はあらかじ
め予知できるので、この欠如部分においても輪郭線が連
続しているものとして、その端点同士を接続して補間し
、そのあとでパターンマツチングを行い、部品形状を認
識する。
よって、部品の一部がロボット100の一部の映像によ
り隠されるような状態にあってもこのために誤認識され
るようなことがなく、高い認識率を保持させることがで
きる。
かくして、認識結果は形状認識信号として直ちに視覚情
報処理部2040マイクロプロセツサ310からCPU
203に出力され、CPU203では、この形状認識信
号に基づいて、例えば、固止しい部品が握持されている
か IB+正しい位置で握持されているか Ic+正しい向きで握持されているか などの項目についてうそであるか否かを判断し、その結
果によって例えばハンド制御部205に対応した動作指
令信号を出力する。
そこで次に、このように構成に、た作業用ロボット10
0による作業動作を以下に述べることとする。
いま、第6図において、第1図(イ)に示したような部
品2人および2B(第7図参照)が作業台100台上に
置かれていたとして、ロボツ)100 1が作業台10
に対して所定の位置にあり、その右ハンド3Bで部品2
Bを、また左ノ・ンド3Aで部品2Aを握持して、部品
2Bの孔に部品2人のピン部な嵌入させることによりこ
れらを一体に組立てるものとする。
なお、この場合のロボット100による組立動作は本発
明の対象外であるのでその説明を省略し、組立部品の環
境状態の認識動作について述べる。
いま、部品2Aおよび2Bが第1図(イ)に示したよう
な状態で左ハンド3Aおよび右ノ九ンド3Bによってそ
れぞれ握持されていたとすると、第4図の視覚情報処理
部204における映像復調回路301には視野の範四1
内の視覚情報として形状4Aおよび4Bがbシ識され、
更にその演算論理回路304によって形状4Aおよび4
Bの画像輪郭線14Aおよび14Bが抽出される。
しかし又、一方の演算論理回路305からの色度信号と
、ROM 306からの特定色に関する色度信号とが比
較器307で比較される結果、比較器307からは特定
色と一致する部分、すなわち本例では青色が施されてい
るノ)ンド3Aおよび3Bの部分についてのみ、第1図
(ロ)のような形状(格子部分)に対応して″′Hルベ
ル信号が出力される。
よって、インバータ308によって反転された信号では
バックが”H” レベルとなり、こ17)(lと演算論
理回路304からの輪郭線14Aおよび14Bを”H”
レベルとする信号とのアンドゲート309による論理積
により、マイクロプロセッサ310にはハンド3Aおよ
び3Bに関する部分が消去されたパターン20Aおよび
20 B (IEI図(ハ)参照)を表現する信号が出
力される。
しかるに、このようなパターン20Aおよび20Bでは
、部品2人の輪郭線とハンド3への画像との交叉点をA
1およびA2.更にまた部品2Bの輪郭線とハンド3B
の画像との交叉点をB1およびB2(以下でこれらの点
を何れも端点という)とすると、端点A 1−i A 
2の問および端点B1とB2の間の輪郭線が欠如してい
る。
そこで本発明では、前述したようにマイクロプロセッサ
310で、これらの欠如部分の補間を行わせるようにな
し、以て、パターンマツチングを行わせるようにする。
かくして得られた認識結果は信号としてCPU203 
K出力されるが、この間部品2人および2Bは第1図に
)に示したような完全形態のものとして形状認識される
このように、本発明の作業用ロボットでは、作業中に正
しい動作がなされているか否かを直接に視覚センサを介
して確認しながら作業を行5ことができるので、従来の
プレイバックロボットのようにならない作業を記憶させ
て動作させるロボットでは行い得なかったような複雑な
作業をも誤りな(遂行させることができる。
第8図に、本実施例のロボットが環境の状態を認識する
際の動作手順の一例のフローを示す。
まず、ステップS1では視見センサ101から画像デー
タが入力され、次のステップS2でA/D変換器302
R,302G、302Bにおいてその画像データにA/
D変換を施し、そのディフタル出力をステップS3で画
像メモリ303R,303G。
303B に格納する。このデジタル画像データにもと
すき、ステップS4において、輪郭画像の抽出を行い、
更にステップS5において所定模様によるロボットの像
の識別が行なわれる。次に、ステップS6に進み、以上
の結果をもとにして輪郭画像からロボットの像に該当す
る部分が消去され、認識の対象となる環境の輪郭画像の
みが抽出される。これをもとに、ステップs7では、環
境の状態が認識されるが、認識が正常に行なわれない場
合には、ステップ8Bからステップ89に進んで輪郭画
像中の欠如部分に対して補間を行ない、再度認識を行な
う。
以上の認識結果にもとすき、制御CjU203は、ロボ
ットの次の動作を決定し、ハンド制御部や駆動輪制御部
に指令を与えるが、その説明は省略する。
なお、上述した欠如部分の補間を行なった後も認識不能
な場合には、制御CPt1203は作業動作の中断およ
び認識フローの再実行を指令する。そして、ステップs
8において認識が終了であると判断されれば、環境状態
の認識プログラムを終了 2Jる・ なお、本例では、ロボッ)100の外装色として七の特
定色を青色としたが、かかる特定色は青色に限られるも
のではなく、例えばロボット100の各部を異なる色で
塗分けし、視覚情報の中からこれらの各部を個別に識別
することも可能であり、いまその左ハンド3Aと右ハン
ド3Bとを第1図(ホ)K示すように異なる色で塗分け
しておくことにより、左ハンド3Aと右ハンド3Bとを
別個に識別することも可能である。
また、視覚情報処理部204についても、第4図に示す
ような構成に限られるものではな(、演算論理回路30
4,305.ROM’306.−比較器307、インベ
ータ308、アンドゲート309およびマイクロプロセ
ッサ310について説明してきたような機能を、1つの
マイクロプロセッサに纒めて保持させるようにすること
の可能なことはいうまでもない。
更にまた、以上では視覚センサ1o1にNTS C方式
のテレビカメラを用いた場合について述べてきたが、視
覚センサ101はNTSC方式のテレビカメラに限られ
るものではなく、また、一方の特定色の検出についても
CIl?17.)XYZ表色系による色度Xおよびyの
演算を行う方式に限られるものでないことは勿論である
更にまた、環境を認識する手順につい℃も、本例のよう
に輪郭線をめて形状認識するのではなく、例えば196
9年に電子技術総合研究所でGfi発されたスリット状
の光の投射により物体の位置や形状を認識する装置を用
いるよ5にしてもよい。
〔効 果〕 以上説明してきたように、本発明によれば、視覚センサ
から得られる画像情報のうちからロボット自体にかかわ
る情報のみを識別して分離する手段を有し、画像情報か
らロボット自体にかかわる情報を分離することにより認
識の対象にかかわる環境状態のみの認識が可能なように
したので、対象物を正確に認識することができて誤認識
が防止できるのみならず、作業中の動作が視覚センサを
介して確認できて、本発明ロボットを工業用のみならず
さまざまな分野での複雑な作業圧適用することができる
【図面の簡単な説明】
第1図(イ)は作業用ロボットにより部品を握持させた
状態のときに得られる画像情報の一例を示す説明図、 第1図(ロ)、(ハ)およびに)は本発明作業用ロボッ
トによる一連の画像情報処理過程を示す説明図。 第1図(ホ)は本発明の他の実施例でのロボット自体に
かかわる画像情報部分を示す説明図、第2図は本発明作
業用ロボットの外観を一例として示す斜視図。 第3図はその制御系のブロック図、 第4図はその視覚情報処理部の構成の一例を示すブロッ
ク図、 第5図はその視覚情報処理部の算術論理回路において画
像の2次微分を行う際に用いる線形要素の荷重関数のマ
トリクス図、 第6図は本発明作業ロボットによる組立作業中の動作を
一例として示す斜視図、 第7図はその組立作業に用いられる2種類の部品の斜視
図、 第8図は本発明における環境状態認識のための制御手順
の一例を示すフローチャートである。 100・・・ロボット、 101・・・視覚センサ、 102・・・、照明装置、 202・・・視覚センサ制御部、 203・・・中央処理装置(CPU)、204・・・視
覚情報処理部、 205・・・ハンド制御部、 301・・・映像復調回路、 302R,302G、302B・A/D変換器。 303R,303G、303B・−舅面像メモリ、30
4.305・・・演算論理回路、 310・・・マイクロプロセッサ。 特許出願人 キャノン株式会社 第1図 (ロ) 第1図 (ハ) にン 第1図 に1.) 第2図 第51A 第7図 第6図

Claims (1)

  1. 【特許請求の範囲】 1)視覚センサと、該視覚センサで検知された画像情報
    に基づいて環境の認識を行う手段と、前記検知された画
    像情報からロボット自体の情報と前記対象となる環境の
    みの情報とを識別して分離する分離手段と、該分離手段
    により分離した前記対象となる環境のみの情報から該・
    環境のみを認識する手段とを具えたことを特徴とする作
    業用ロボット・ 2、特許請求の範囲第1項に記載の作業用ロボットにお
    いて、ロボット自体の情報は尚該ロボット自体に施され
    た所定の外装色であり、前記分離手段により前記所定の
    外装色と残余の色とを識別して分離するようにしたこと
    を特徴とする作業用ロボット。 3)特許請求の範囲第2項に記載の作業用ロボットにお
    いて、前記外装色を前記対象となる環境の画像情報中に
    含まれない色としたことを特徴とする作業用ロボット。 4)特許請求の範囲第2項または第3項に記載の作業用
    ロボットにおいて、前記外装色を複数の異なる色となし
    、前記ロボットの複数の部分にそれぞれ複数の異なる色
    を付設することにより前記ロボットの複数部分を個別に
    識別するようにしたことを特徴とする作業用ロボット。 5)特許請求の範囲第2項ないし第4項の何れかに記載
    の作業用ロボットにおいて1.前記分離手段を介して得
    られる前記対象となる環境のみの情報が輪郭画像である
    ことを特徴とする作業用ロボット。 6)特許請求の範囲第5項に記載の作業用ロボットにお
    いて、前記輪郭画像に欠如部分があるときに、当該欠如
    部分に対して補間な行5ようにしたことを特徴とする作
    業用ロボット。
JP33784A 1984-01-06 1984-01-06 作業用ロボツト Pending JPS60146697A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33784A JPS60146697A (ja) 1984-01-06 1984-01-06 作業用ロボツト

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33784A JPS60146697A (ja) 1984-01-06 1984-01-06 作業用ロボツト

Publications (1)

Publication Number Publication Date
JPS60146697A true JPS60146697A (ja) 1985-08-02

Family

ID=11471068

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33784A Pending JPS60146697A (ja) 1984-01-06 1984-01-06 作業用ロボツト

Country Status (1)

Country Link
JP (1) JPS60146697A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102729253A (zh) * 2011-04-15 2012-10-17 株式会社安川电机 机器人系统和被加工对象物的制造方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102729253A (zh) * 2011-04-15 2012-10-17 株式会社安川电机 机器人系统和被加工对象物的制造方法
JP2012223840A (ja) * 2011-04-15 2012-11-15 Yaskawa Electric Corp ロボットシステムおよびロボットシステムを用いた検査方法
US9031696B2 (en) 2011-04-15 2015-05-12 Kabushiki Kaisha Yaskawa Denki Robot system and processed object manufacturing method

Similar Documents

Publication Publication Date Title
US11338435B2 (en) Gripping system with machine learning
US6845296B2 (en) Object taking out apparatus
Aleksander et al. Artificial vision for robots
US20190126471A1 (en) Information processing apparatus, grasping system, and information processing method
KR101860200B1 (ko) 카메라를 이용한 장치 또는 물체의 선택
WO1985004502A1 (en) Posture judging system for image processing
Wang et al. Grasping objects mixed with towels
Luqman et al. Chess brain and autonomous chess playing robotic system
JPS60146697A (ja) 作業用ロボツト
Leitner et al. Improving robot vision models for object detection through interaction
Kurnia et al. Object recognition through human-robot interaction by speech
Ma et al. Robotic perception-motion synergy for novel rope wrapping tasks
Phyu et al. Verification of recognition performance of cloth handling robot with photo-model-based matching
KR20160032608A (ko) 지능형 휴머노이드 로봇
Mühlbauer et al. Mixture of experts on Riemannian manifolds for visual-servoing fixtures
JP2016221602A (ja) ロボット、制御装置およびプログラム
JP7271809B2 (ja) 学習済みモデル生成装置、学習済みモデル生成方法、及び認識装置
Kim et al. Color Decision System for Ambiguous Color Boundary
JPH06309457A (ja) 画像判別方法
Somani et al. Scene perception and recognition for human-robot co-operation
JP7271810B2 (ja) 学習済みモデル生成装置、学習済みモデル生成方法、及び認識装置
Collewet et al. Colorimetry-based visual servoing
Moussa et al. A connectionist model for learning robotic grasps using reinforcement learning
Kusano et al. FCN-Based 6D Robotic Grasping for Arbitrary Placed Objects
JPH0883340A (ja) クラスタリング装置および画像認識装置