JP6068429B2 - ロボット識別システム - Google Patents

ロボット識別システム Download PDF

Info

Publication number
JP6068429B2
JP6068429B2 JP2014263537A JP2014263537A JP6068429B2 JP 6068429 B2 JP6068429 B2 JP 6068429B2 JP 2014263537 A JP2014263537 A JP 2014263537A JP 2014263537 A JP2014263537 A JP 2014263537A JP 6068429 B2 JP6068429 B2 JP 6068429B2
Authority
JP
Japan
Prior art keywords
robot
image
model
camera
arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014263537A
Other languages
English (en)
Other versions
JP2016120585A (ja
Inventor
康裕 天方
康裕 天方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2014263537A priority Critical patent/JP6068429B2/ja
Priority to CN201510702226.0A priority patent/CN105729466B/zh
Priority to US14/937,876 priority patent/US9905016B2/en
Priority to DE102015016530.5A priority patent/DE102015016530B4/de
Publication of JP2016120585A publication Critical patent/JP2016120585A/ja
Application granted granted Critical
Publication of JP6068429B2 publication Critical patent/JP6068429B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32014Augmented reality assists operator in maintenance, repair, programming, assembly, use of head mounted display with 2-D 3-D display and voice feedback, voice and gesture command
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39451Augmented reality for robot programming
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)

Description

本発明は、撮像装置で撮像した画像に含まれるロボット画像を識別するロボット識別システムに関する。
近年、撮像装置で撮像した画像に、コンピュータで生成した情報を付加して表示する拡張現実に関する技術が普及している。この拡張現実をロボット画像に適用した例として、特許文献1記載の装置が知られている。
特開2014−180707号公報
ところで、例えば複数台のロボットが存在する作業環境を撮像装置で撮像して、画像上に各々のロボットに対応した情報を付加する場合、画像に含まれる各々のロボットに対応したロボット画像を識別する必要がある。しかしながら、ロボットは姿勢変化を伴うため、画像に含まれるロボット画像を識別することは難しい。
本発明の一態様は、ロボット識別システムであって、
回動可能なアームを有する第1ロボットと、
回動可能なアームを有する第2ロボットと、
前記第1ロボット及び前記第2ロボットを含めて撮像する撮像装置と、
前記第1ロボットのアームの回動角度を検出する第1角度検出部と、
前記第2ロボットのアームの回動角度を検出する第2角度検出部と、
前記第1ロボットを制御する第1ロボット制御装置であって、前記第1角度検出部により検出された前記第1ロボットのアームの回動角度に基づき、前記第1ロボットの形態を表す複数の第1ロボットモデルを生成するモデル生成部を有する前記第1ロボット制御装置と、
前記第2ロボットを制御する第2ロボット制御装置であって、前記第2角度検出部により検出された前記第2ロボットのアームの回動角度に基づき、前記第2ロボットの形態を表す複数の第2ロボットモデルを生成するモデル生成部を有する前記第2ロボット制御装置と、
前記撮像装置により得られた画像と前記複数の第1ロボットモデルおよび前記複数の第2ロボットモデルとを比較し、前記画像中の前記第1ロボットを表す第1ロボット画像および前記第2ロボットを表す第2ロボット画像を識別する画像識別部と、
を備えたことを特徴とする。
本発明によるロボット識別システムは、撮像装置により得られた画像とロボットモデルとを比較し、画像中のロボット画像を識別する。したがって、ロボットの姿勢に拘わらず、画像中のロボット画像を容易に識別することができる。
本発明の実施形態に係るロボット識別システムの構成を概略的に示す図。 図1のロボット識別システムを構成するロボットの構成を示す斜視図。 本発明の実施形態に係るロボット識別システムの制御構成を示すブロック図。 図3のモデル生成部で生成されるロボットモデルの一例を示す図。 図3の画像処理装置で実行される処理の一例を示すフローチャート。 図3のカメラによって撮像されたカメラ画像の一例を示す図。 図6Aのカメラ画像と合致したテンプレート画像を示す図。 ロボットモデルの変形例を示す図。 図3の変形例を示すブロック図。 図1の変形例を示す図。 図3の別の変形例を示すブロック図。 カメラにより撮像した時点とロボットモデルが生成された時点とが異なる場合のロボットモデルの生成方法を説明する図。
以下、図1〜図6Bを参照して本発明の実施形態に係るロボット識別システムについて説明する。本発明の実施形態に係るロボット識別システムは、撮像装置によって現実空間を撮像して得た画像に、コンピュータで生成した情報を付加して表示する、いわゆる拡張現実の表示装置に適用される。この種の表示装置は、ロボットの生産現場で実際のロボットを撮像して得られた画像に、そのロボットに関する情報を重畳して表示する。この場合、生産現場において複数台のロボットが存在すると、撮像した画像中にロボット画像が存在するか否か、ロボット画像が存在するとき、どのロボットに対応するロボット画像であるかについて識別を行う必要がある。
この点に関し、各ロボットに固体識別用のマーカを取り付け、撮像装置でマーカを撮像することにより、ロボット画像を識別する方法がある。しかしながら、ロボットは姿勢変化を伴うため、ロボットの姿勢によっては、マーカを撮像できないおそれがある。また、たとえマーカを撮像できたとしても、撮像装置からロボットまでの距離が長いと、マーカの画像が小さくなり、ロボット画像を識別することが困難である。撮像装置の数を増やすことで、これらの問題に対処しようとすると、コストが増加する。各ロボットにマーカを取り付けることも、コストの増加を招く。そこで、本実施形態では、以下のようにロボット識別システムを構成する。
図1は、本発明の実施形態に係るロボット識別システムの構成を概略的に示す図である。このロボット識別システムは、ロボット1と、ロボット1を撮像するカメラ2と、ロボット1を制御するロボット制御装置3とを有する。ロボット1は、互いに隣接して配置された第1ロボット1Aおよび第2ロボット1Bを含む。ロボット制御装置3は、第1ロボット1Aを制御する第1ロボット制御装置3Aと、第2ロボット1Bを制御する第2ロボット制御装置3Bとを含む。第1ロボット1Aと第2ロボット1Bの構成、および第1ロボット制御装置3Aと第2ロボット制御装置3Bの構成は、互いに同一である。なお、これらの構成が互いに異なっていてもよい。
図2は、ロボット1の構成を示す斜視図である。図2に示すように、ロボット1は、関節部11を介して回動可能に設けられたアーム10を有する垂直多関節ロボットであり、アーム10の先端部にツール13が取り付けられている。関節部11にはサーボモータ12が設けられ、サーボモータ12の駆動によりアーム10が回動する。関節部11には、基準位置からのアーム10の回動角度(アーム角度)を検出する角度検出器14が設けられている。角度検出器14は、例えばサーボモータ12に内蔵されたロータリーエンコーダにより構成することができる。なお、第1ロボット1Aに設けられた角度検出器14を第1角度検出器、第2ロボット1Bに設けられた角度検出器14を第2角度検出器と呼ぶ。
図1に示すカメラ2は、例えばCCD等の撮像素子を有する電子カメラであり、撮像により2次元画像を撮像面(CCDアレイ面上)で検出する機能を持つ周知の受光デバイスである。カメラ2は、ユーザにより保持され、撮像領域4に含まれるロボット1を任意の位置から撮像し、撮像領域4の動画(カメラ画像)を取得する。カメラ2によって取得されたカメラ画像に対応する画像信号は、画像処理装置5(図3)に出力される。
ロボット制御装置3は、予め定められた動作プログラムに従いサーボモータ12に制御信号を出力し、ロボット1を動作させる。なお、図示しない教示操作盤を介して手動でサーボモータ12に制御信号を出力することもできる。ロボット制御装置3には、角度検出器14からの信号が入力される。
図3は、本発明の実施形態に係るロボット識別システムの制御構成を示すブロック図である。図3に示すように、各ロボット制御装置3(3A,3B)は、各ロボット1A,1Bに対応したロボットモデルを生成するモデル生成部31をそれぞれ有する。画像処理装置5は、CPU,ROM,RAM,その他の周辺回路などを有する演算処理装置を含んで構成されるコンピュータを含む。画像処理装置5には、モデル生成部31とカメラ2と表示部6とが接続されている。画像処理装置5は、カメラ画像中のロボット画像を識別する画像識別部51と、表示部6を制御する表示制御部52とを有する。画像処理装置5は、モデル生成部31とカメラ2からの入力信号に基づき後述するような処理を実行し、表示部6に所定の画像が表示されるように制御信号を出力する。
ロボット制御装置3のメモリには、予め三次元のロボットモデルを生成するために必要となる各ロボット1A,1Bの機種情報(例えば各アームの長さや幅、関節位置等の情報)が格納されている。モデル生成部31は、この機種情報と、角度検出器14によって検出されたアーム角度とに基づいて、各ロボット1A,1Bの姿勢を特定する。そして、図1に示すように、第1ロボット1Aの姿勢に対応した第1ロボットモデルMAと、第2ロボット1Bの姿勢に対応した第2ロボットモデルMBを生成する。より具体的には、モデル生成部31は、三次元のロボットモデルを所定方向の平面に投影し、同一の姿勢のロボット1を3次元空間の複数箇所から見たときのロボット1の形態を表す複数の二次元のロボットモデルM(複数の第1ロボットモデルMAと複数の第2ロボットモデルMB)を生成する。
図4は、ロボットモデルMの一例を示す図である。図4に示すようにロボット1の前後方向、左右方向、および上下方向を定義する。このとき、モデル生成部31は、前方からロボット1を見たとき、後方からロボット1を見たとき、左方からロボット1を見たとき、右方からロボット1を見たとき、上方からロボット1を見たとき、および下方からロボット1を見たときの、各々のロボット1の形態を表す前ロボットモデルM1、後ロボットモデルM2、左ロボットモデルM3、右ロボットモデルM4、上ロボットモデルM5、および下ロボットモデルM6を生成する。
図示は省略するが、これらロボットモデルM1〜M6は、それぞれカメラ2からロボット1までの距離に応じて複数生成される。例えば、前ロボットモデルM1を生成する場合、モデル生成部31は、ロボット1の前方に所定間隔で第1地点、第2地点、第3地点・・を設定し、各地点からロボット1を撮像したと仮定したときのカメラ画像に対応する複数の前ロボットモデルM1を生成する。すなわち、モデル生成部31は、異なる方向の地点および異なる距離の地点からロボット1を見たときの複数のロボットモデルMを生成する。この場合、ロボット1からの距離が短いほどロボットモデルMは大きくなる。
以上のロボットモデルM1〜M6は、例えば所定時間毎にロボット1の姿勢に応じて生成される。すなわち、動的なロボットモデルM1〜M6が生成され、ロボット制御装置3内のメモリに記憶される。メモリに記憶されるロボットモデルM1〜M6は、所定時間毎に更新される。
図5は、画像処理装置5で実行される処理の一例を示すフローチャートである。このフローチャートに示す処理は、例えばロボット制御装置3の電源をオンした状態で、カメラ2による撮像が開始されると開始される。
ステップS1では、カメラ2から画像信号を取得する。図6Aは、取得した画像信号によって得られるカメラ画像8の一例を示す。このカメラ画像8は、ロボット1と、人と、ロボット1と人以外の障害物(ロボット制御装置等)の画像(ロボット画像81、人画像82、障害物画像83)を含む。なお、図6Aは、図1とは異なり、カメラ画像8中に複数ではなく1台のロボット1が示されている。
ステップS2では、ロボット制御装置3から複数のロボットモデルMを取得する。すなわち、複数箇所(複数の方向および位置)からロボット1を見たときのそれぞれのロボット1の形態を表す複数のロボットモデルMを取得する。取得されたロボットモデルMは、図6Aに示すようにテンプレート画像8Mとして記憶部に記憶される。
ステップS3では、このテンプレート画像8MとステップS1で取得したカメラ画像8とを比較する。すなわち、テンプレート画像8Mとカメラ画像8のテンプレートマッチングを行う。
ステップS4では、テンプレートマッチングの結果、カメラ画像8に合致したテンプレート画像8Mがあるか否か、すなわちロボット画像81の有無を判定する。図6Bは、カメラ画像8と合致したテンプレート画像8M1を示している。ステップS4が肯定されるとステップS5に進む。一方、ステップS4が否定されると、カメラ画像8中にロボット画像81が存在していないと判定し、処理を終了する。
ステップS5では、テンプレート画像8M1に合致したカメラ画像8の一部がロボット画像81を示していると判定し、カメラ画像8中のロボット画像81を特定する。図6Bでは、ロボット画像81を含む領域が矩形の枠84で示されている。以上により、カメラ画像8上のロボット画像81を識別することができる。
ステップS6では、表示部6に制御信号を出力し、表示部6の表示画像を制御する。例えばカメラ画像8上に、ロボット画像81に対応付けた所定の情報を付加して表示するように、表示部6を制御する。以上により、画像処理装置5における処理を終了する。以上の処理は、所定時間毎に繰り返し実行される。
なお、図1に示すように、カメラ画像8中に複数(2個)のロボット画像81(第1ロボット画像81A,第2ロボット画像81B)が存在する場合、ステップS4では、カメラ画像8に合致した2つのテンプレート画像8M1、すなわち第1ロボットモデルMAの第1テンプレート画像8M1および第2ロボットモデルMBの第2テンプレート画像8M1があると判定される。
この場合、ステップS5では、第1テンプレート画像8M1に合致したカメラ画像8の一部が第1ロボット画像81Aを示し、第2テンプレート画像8M1に合致したカメラ画像8の一部が第2ロボット画像を示していると判定し、カメラ画像8中の第1ロボット画像81Aおよび第2ロボット画像81Bを特定する。図1では、ステップS5で特定された第1ロボット画像81Aおよび第2ロボット画像81Bを含む領域が、それぞれ矩形の枠84A、84Bで示されている。
本実施形態によれば以下のような作用効果を奏することができる。
(1)ロボット識別システムは、角度検出器14により検出された回動角度に基づき、複数箇所からロボット1を見たときのロボット1の形態を表す複数のロボットモデルMを生成するモデル生成部31と、カメラ2により得られたカメラ画像8とモデル生成部31により生成された複数のロボットモデルM(テンプレート画像8M)とを比較し、カメラ画像8中のロボット画像81を識別する画像識別部51とを備える。これにより、ロボット1の姿勢変化に拘わらず、カメラ画像8中のロボット画像81を容易に識別することができ、ロボット画像81にコンピュータを用いて情報を付加する、いわゆる拡張現実を良好に適用することができる。また、複数のカメラ2を準備する必要がなく、ロボット1に固体識別用のマーカを取り付ける必要もないため、ロボット識別システム全体のコストを低減することができる。
(2)カメラ2の撮像領域4に複数のロボット1A,1Bが含まれる場合、第1ロボット制御装置3Aのモデル生成部31は、第1角度検出器14により検出された第1ロボット1Aのアーム角度に基づき、複数箇所から第1ロボット1Aを見たときの第1ロボット1Aの形態を表す複数の第1ロボットモデルMAを生成し、第2ロボット制御装置3Bのモデル生成部31は、第2角度検出器14により検出された第2ロボット1Bのアーム角度に基づき、複数箇所から第2ロボット1Bを見たときの第2ロボット1Bの形態を表す複数の第2ロボットモデルMBを生成する。さらに、画像識別部51は、カメラ画像8と複数の第1ロボットモデルMAおよび複数の第2ロボットモデルMBとを比較し、カメラ画像8中の第1ロボット画像81Aおよび第2ロボット画像81Bを識別する。したがって、カメラ画像8中に複数のロボット画像81が存在する場合であっても、個々のロボット画像81A,81Bを容易に識別することができる。
(3)モデル生成部31は、ロボット1からの距離に応じて、大きさの異なる複数のロボットモデルMを生成する。ロボットモデルMはロボット1の全体または一部をモデル化したものであるので、カメラ画像8中のロボット画像81の大きさに拘わらず、ロボット画像81を容易に識別することができる。
−変形例−
上記実施形態は以下のような変形が可能である。ロボットモデルMは、図4に示したものに限らない。すなわち、ロボットモデルMはロボット1を識別可能であればよく、ロボット1の形状を詳細にモデル化したものでなくてもよい。図7は、ロボットモデルMの変形例を示す図である。図7では、前方からロボット1を見た前ロボットモデルM1から特徴点(関節部等)を抽出し、特徴点を棒線で結んで簡易的なロボットモデルM11を形成している。この場合、カメラ画像8とロボットモデルM11とのパターンマッチングを行い、ロボットモデルM11の特徴点を有する画像がカメラ画像8中にあるか否かを判定することにより、カメラ画像8中のロボット画像81を識別することができる。なお、特徴点の抽出には、種々の方法があり、一例としてHarris作用素による方法がある。
図8は、図3の変形例を示すブロック図である。図8に示す画像処理装置5は、画像識別部51と表示制御部52とに加え、カメラ2に対するロボット1の相対的な位置および姿勢を特定する位置姿勢特定部53を有する。位置姿勢特定部53は、画像識別部51でカメラ画像8中にロボット画像81ありと判定されると(図5のステップS4)、このロボット画像81に対応するロボットモデルMのテンプレート画像8Mを参照する。そして、テンプレート画像8Mがどの方向および位置から見たロボットモデルMに対応するかを判断する。これにより、図9に示すように、各ロボット1A,1Bのカメラ2に対する相対的な位置および姿勢を特定することができる。
図10は、図3の別の変形例を示すブロック図である。カメラ2が第1時点でロボット1を撮像し、モデル生成部31が第2時点のロボット1のアーム角度を用いてロボットモデルMを生成したときに、第1時点が第2時点からずれており、第1時点から第2時点までの間にロボット1が姿勢変化すると、カメラ画像8とテンプレート画像8Mとの良好なテンプレートマッチングを行うことができないおそれがある。この点を考慮したブロック図が、図10である。図10に示す画像処理装置5は、画像識別部51と表示部制御部52とに加え、モデル修正部54を有する。なお、位置姿勢特定部53(図8)をさらに有することもできる。
ロボット制御装置3とカメラ2はそれぞれタイマを内蔵し、各タイマの時刻は予め同期されている。モデル修正部54は、カメラ2により撮像した第1時点と、ロボットモデルMが生成された第2時点とがずれている場合に、図11に示すように、第1時点t1の前後の2つの時点t2、t3におけるロボット1の関節位置を取得する。これら異なる時点t2,t3の関節位置を用いて、例えば次式(I)により、第1時点t1におけるロボット1の関節位置を算出する。
時点t1の関節位置=(t1-t2)/(t3-t2)X(時点t3の関節位置)
+(t3-t1)/(t3-t2)X(時点t2の関節位置)・・・ (I)
さらに、算出された関節位置を用いてロボットモデルMを生成する。これによりモデル生成部31で生成された時点t2、t3のロボットモデルMを修正し、カメラ2の撮像時点t1と同一時点のロボットモデルMを生成できる。画像識別部51は、モデル修正部54で修正されたロボットモデルMを用いて、カメラ画像8とのテンプレートマッチングを行う。あるいはロボットモデルMの特徴点を求めてカメラ画像8とのパターンマッチングを行う。これにより、カメラにより撮像した第1時点と、ロボット生成部31でロボットモデルMが生成された第2時点とがずれている場合であっても、良好なパターンマッチングを行うことができ、カメラ画像8中のロボット画像81を正確に識別することができる。
なお、上式(I)では、線形補間により第1時点t1におけるロボット1の関節位置を算出したが、スプライン補間等、種々の補間方法を適用して第1時点t1における関節位置を推定することもできる。第1時点t1の前後の2つの時点t2、t3のロボット1の関節位置を用いて第1時点t1の関節位置を推定したが、2つの時点t2,t3は、ともに第1時点t1よりも前あるいは第1時点t1よりも後であってもよい。
上記実施形態では、単一のカメラ2によりロボット1を撮像したが、撮像装置の構成はこれに限らない。例えば、一対の撮像レンズを有するステレオカメラ等により撮像装置を構成してもよい。したがって、ロボットモデルMと比較する画像として、2次元のカラー画像以外に、距離(深度)画像やステレオ画像等、種々の画像を用いることができる。距離画像を用いる場合、例えばICPアルゴリズムと呼ばれる周知の方法を用いて、距離画像と3次元のロボットモデルとを比較することにより、画像中のロボット画像を識別することができる。ステレオ画像を用いる場合、ステレオ画像と3次元のロボットモデルとを比較することにより、画像中のロボット画像を識別することができる。あるいは、ステレオ画像から距離画像を生成し、ICPアルゴリズムの方法を適用することもできる。
このように本発明は、二次元のロボットモデルと画像とを比較してロボット画像を識別する場合だけでなく、三次元のロボットモデルと画像とを比較してロボット画像を識別する場合も含む。したがって、角度検出部により検出された回動角度に基づき、ロボットの形態を表すロボットモデルを生成すのであれば、モデル生成部の構成はいかなるものでもよく、撮像装置により得られた画像とモデル生成部により生成されたロボットモデルとを比較し、画像中のロボット画像を識別するのであれば、画像識別部の構成はいかなるものでもよい。なお、撮像装置は、ユーザが把持するのではなく、架台等に取り付けるようにしてもよい。アーム10の回動角度を検出する角度検出部の構成は、種々のものが考えられ、上述した角度検出器14に限らない。
上記実施形態では、モデル生成部31がアーム10の回動角度に基づきロボットモデルMを生成したが、さらにアーム先端部に取り付けられたツール13の3次元形状や取り付け位置の情報、ロボット1の色情報等を考慮してロボットモデルMを生成してもよい。これにより、異なるロボット1のモデルを明確に区別して生成することができる。上記実施形態では、ロボット制御装置3にモデル生成部31を設けたが、画像処理装置5や他の装置にモデル生成部を設けることもできる。
上記実施形態では、画像処理装置5に画像識別部51を設けたが、ロボット制御装置3や他の装置に画像識別部を設けることもできる。上記実施形態では、カメラ画像8とテンプレート画像8Mとをテンプレートマッチングを用いて比較したが、画像処理の方式は、撮像した画像の種類によって異なるものであり、テンプレートマッチング以外を用いてもよい。回動可能なアーム10を有するロボット1の構成は上述したものに限らない。撮像領域4に3台以上のロボット1が配置されている場合にも本発明は同様に適用できる。
以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態および変形例の構成要素には、発明の同一性を維持しつつ置換可能かつ置換自明なものが含まれる。すなわち、本発明の技術的思想の範囲内で考えられる他の形態についても、本発明の範囲内に含まれる。また、上記実施形態と変形例の1つまたは複数を任意に組み合わせることも可能である。
1 ロボット
2 カメラ
8 カメラ画像
14 角度検出器
31 モデル生成部
51 画像識別部
53 位置姿勢特定部
54 モデル修正部
81 ロボット画像
M ロボットモデル

Claims (3)

  1. 回動可能なアームを有する第1ロボットと、
    回動可能なアームを有する第2ロボットと、
    前記第1ロボット及び前記第2ロボットを含めて撮像する撮像装置と、
    前記第1ロボットのアームの回動角度を検出する第1角度検出部と、
    前記第2ロボットのアームの回動角度を検出する第2角度検出部と、
    前記第1ロボットを制御する第1ロボット制御装置であって、前記第1角度検出部により検出された前記第1ロボットのアームの回動角度に基づき、前記第1ロボットの形態を表す複数の第1ロボットモデルを生成するモデル生成部を有する前記第1ロボット制御装置と、
    前記第2ロボットを制御する第2ロボット制御装置であって、前記第2角度検出部により検出された前記第2ロボットのアームの回動角度に基づき、前記第2ロボットの形態を表す複数の第2ロボットモデルを生成するモデル生成部を有する前記第2ロボット制御装置と、
    前記撮像装置により得られた画像と前記複数の第1ロボットモデルおよび前記複数の第2ロボットモデルとを比較し、前記画像中の前記第1ロボットを表す第1ロボット画像および前記第2ロボットを表す第2ロボット画像を識別する画像識別部と、
    を備えたロボット識別システム。
  2. 請求項に記載のロボット識別システムにおいて、
    前記画像識別部により識別されたロボット画像に対応する前記ロボットモデルに基づき、前記撮像装置に対する前記ロボットの相対的な位置および姿勢を特定する位置姿勢特定部をさらに備えることを特徴とするロボット識別システム。
  3. 請求項1または2に記載のロボット識別システムにおいて、
    前記撮像装置により前記ロボットが撮像された時点と、各前記ロボット制御装置のモデル生成部により複数の前記ロボットモデルが生成された時点とがずれているとき、そのずれ時間に応じて、モデル生成部により生成された複数のロボットモデルを修正するモデル修正部をさらに備えることを特徴とするロボット識別システム。
JP2014263537A 2014-12-25 2014-12-25 ロボット識別システム Active JP6068429B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014263537A JP6068429B2 (ja) 2014-12-25 2014-12-25 ロボット識別システム
CN201510702226.0A CN105729466B (zh) 2014-12-25 2015-10-26 机器人识别系统
US14/937,876 US9905016B2 (en) 2014-12-25 2015-11-11 Robot identification system
DE102015016530.5A DE102015016530B4 (de) 2014-12-25 2015-12-18 Roboter-Identifizierungssystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014263537A JP6068429B2 (ja) 2014-12-25 2014-12-25 ロボット識別システム

Publications (2)

Publication Number Publication Date
JP2016120585A JP2016120585A (ja) 2016-07-07
JP6068429B2 true JP6068429B2 (ja) 2017-01-25

Family

ID=56116749

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014263537A Active JP6068429B2 (ja) 2014-12-25 2014-12-25 ロボット識別システム

Country Status (4)

Country Link
US (1) US9905016B2 (ja)
JP (1) JP6068429B2 (ja)
CN (1) CN105729466B (ja)
DE (1) DE102015016530B4 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10245724B2 (en) * 2016-06-09 2019-04-02 Shmuel Ur Innovation Ltd. System, method and product for utilizing prediction models of an environment
JP6809245B2 (ja) * 2017-01-20 2021-01-06 セイコーエプソン株式会社 ロボット
JP6915288B2 (ja) * 2017-02-08 2021-08-04 オムロン株式会社 画像処理システム、画像処理装置、FPGA(Field Programmable Gate Array)における回路の再構成方法、および、FPGAにおける回路の再構成プログラム
KR102499576B1 (ko) 2018-01-08 2023-02-15 삼성전자주식회사 전자 장치 및 그 제어 방법
CN108408395B (zh) * 2018-03-05 2023-07-11 江南大学 一种移动式非对称双臂协作机器人
DE102018112365B3 (de) 2018-05-23 2019-10-10 ERO GmbH Haltevorrichtung für eine Maschine zur Pflanzenbearbeitung und Verfahren zum Steuern solch einer Haltevorrichtung
DE102018113336A1 (de) 2018-06-05 2019-12-05 GESTALT Robotics GmbH Verfahren zum Verwenden mit einer Maschine zum Einstellen einer Erweiterte-Realität-Anzeigeumgebung
GB2581843B (en) * 2019-03-01 2021-06-02 Arrival Ltd Calibration system and method for robotic cells
JP2021021637A (ja) * 2019-07-29 2021-02-18 コベルコ建機株式会社 建設機械の位置特定システム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6845295B2 (en) * 2002-03-07 2005-01-18 Fanuc Robotics America, Inc. Method of controlling a robot through a singularity
DE10305384A1 (de) * 2003-02-11 2004-08-26 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
JP4460528B2 (ja) * 2004-12-14 2010-05-12 本田技研工業株式会社 識別対象識別装置およびそれを備えたロボット
JP4940715B2 (ja) * 2006-03-15 2012-05-30 日産自動車株式会社 ピッキングシステム
CN102056715B (zh) * 2009-01-09 2012-12-26 松下电器产业株式会社 机器人手臂的控制装置及控制方法、机器人、机器人手臂的控制程序及集成电子电路
JP5526881B2 (ja) * 2010-03-12 2014-06-18 株式会社デンソーウェーブ ロボットシステム
JP5489000B2 (ja) * 2010-08-31 2014-05-14 株式会社安川電機 作業装置及び部品ピッキングシステム
JP2012218120A (ja) * 2011-04-12 2012-11-12 Seiko Epson Corp マニピュレーター動作予告装置、ロボットシステム及びマニピュレーター動作予告方法
JP4821934B1 (ja) * 2011-04-14 2011-11-24 株式会社安川電機 3次元形状計測装置およびロボットシステム
US9367770B2 (en) * 2011-08-30 2016-06-14 Digimarc Corporation Methods and arrangements for identifying objects
US9463574B2 (en) * 2012-03-01 2016-10-11 Irobot Corporation Mobile inspection robot
US9258550B1 (en) * 2012-04-08 2016-02-09 Sr2 Group, Llc System and method for adaptively conformed imaging of work pieces having disparate configuration
JP2014161965A (ja) * 2013-02-26 2014-09-08 Toyota Industries Corp 物品取り出し装置
JP5742862B2 (ja) 2013-03-18 2015-07-01 株式会社安川電機 ロボット装置及び被加工物の製造方法
US9495788B2 (en) * 2013-03-22 2016-11-15 Kt Corporation Apparatus and method for developing robot contents

Also Published As

Publication number Publication date
CN105729466B (zh) 2017-08-08
JP2016120585A (ja) 2016-07-07
US20160184998A1 (en) 2016-06-30
DE102015016530A1 (de) 2016-06-30
CN105729466A (zh) 2016-07-06
DE102015016530B4 (de) 2018-05-09
US9905016B2 (en) 2018-02-27

Similar Documents

Publication Publication Date Title
JP6068429B2 (ja) ロボット識別システム
JP5980873B2 (ja) ロボットの干渉領域設定装置
US10818099B2 (en) Image processing method, display device, and inspection system
JP6222898B2 (ja) 3次元計測装置及びロボット装置
JP6420229B2 (ja) 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
JP4844453B2 (ja) ロボットの教示装置及び教示方法
JP5815761B2 (ja) 視覚センサのデータ作成システム及び検出シミュレーションシステム
JP5742862B2 (ja) ロボット装置及び被加工物の製造方法
US10427298B2 (en) Robot system displaying information for teaching robot
JP2018111165A (ja) 視覚センサのキャリブレーション装置、方法及びプログラム
JP2008021092A (ja) ロボットシステムのシミュレーション装置
JP2019096996A5 (ja)
JP2014170483A5 (ja)
JP2006026790A (ja) 教示モデル生成装置
JP2020071718A5 (ja)
US20190318503A1 (en) Non-transitory computer-readable storage medium, display apparatus, head-mounted display apparatus, and marker
WO2022209579A1 (ja) ロボット制御システム、および制御装置
JP2015062017A (ja) モデル作成装置、モデル作成プログラム、および画像認識システム
JPWO2010007960A1 (ja) 車載用カメラの視点変換映像システム及び視点変換映像取得方法
JP6220514B2 (ja) ロボット制御システムおよびロボット制御方法
KR20200069713A (ko) 용접로봇의 작업 경로 생성방법
JP2017113815A (ja) 対象物をロボットを用いて把持するロボットシステムの画像表示方法
JP6659641B2 (ja) 3次元モデル作成装置
JP7081425B2 (ja) 取付位置認識装置
KR101973675B1 (ko) 3d 영상 기반 로봇 원격 조작 방법 및 3d 영상 기반 원격 조작 로봇

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161222

R150 Certificate of patent or registration of utility model

Ref document number: 6068429

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150