JP2018122376A - 画像処理装置、ロボット制御装置、及びロボット - Google Patents

画像処理装置、ロボット制御装置、及びロボット Download PDF

Info

Publication number
JP2018122376A
JP2018122376A JP2017015147A JP2017015147A JP2018122376A JP 2018122376 A JP2018122376 A JP 2018122376A JP 2017015147 A JP2017015147 A JP 2017015147A JP 2017015147 A JP2017015147 A JP 2017015147A JP 2018122376 A JP2018122376 A JP 2018122376A
Authority
JP
Japan
Prior art keywords
robot
template
imaging
image
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017015147A
Other languages
English (en)
Inventor
丸山 健一
Kenichi Maruyama
健一 丸山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2017015147A priority Critical patent/JP2018122376A/ja
Priority to US15/883,440 priority patent/US20180215044A1/en
Publication of JP2018122376A publication Critical patent/JP2018122376A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0084Programme-controlled manipulators comprising a plurality of manipulators
    • B25J9/0087Dual arms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0096Programme-controlled manipulators co-operating with a working support, e.g. work-table
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37205Compare measured, vision data with computer model, cad data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39045Camera on end effector detects reference pattern
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39109Dual arm, multiarm manipulation, object handled in cooperation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/09Closed loop, sensor feedback controls arm movement
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Manipulator (AREA)

Abstract

【課題】テンプレートと対象物を撮像した画像とのマッチングを行うためにユーザーが行
う作業を軽減することができる画像処理装置を提供すること。
【解決手段】ロボットが作業を行う作業領域内の第1位置に配置されたキャリブレーショ
ンプレートを撮像部によって撮像することで求められた第1距離情報に基づいてテンプレ
ートを特定し、特定した前記テンプレートと、前記撮像部が前記作業領域内に配置された
対象物を撮像した画像とのマッチングを行う制御部、を備える画像処理装置。
【選択図】図3

Description

この発明は、画像処理装置、ロボット制御装置、及びロボットに関する。
テンプレートマッチング、又はテンプレートマッチングの結果を用いてロボットを制御
する技術についての研究や開発が行われている。
これに関し、第1及び第2の撮像手段を用いたステレオ視により物品を撮像した一対の
画像から当該物品の三次元位置を検出する方法であって、当該物品の二次元上の特徴部を
有する二次元見え方モデルを設定し、当該一対の画像のそれぞれから抽出した特徴部を、
当該二次元見え方モデルを介して対応付けを行う物品の位置検出方法が知られている(特
許文献1参照)。
特開平08−136220号公報
しかしながら、このような方法では、二次元見え方モデルを生成するために、物品を撮
像する撮像部から物品までの間の距離を測定する必要がある。このため、当該方法では、
ユーザーが行わなければならない作業を軽減することが困難な場合があった。
上記課題の少なくとも一つを解決するために本発明の一態様は、ロボットが作業を行う
作業領域内の第1位置に配置されたキャリブレーションプレートを撮像部によって撮像す
ることで求められた第1距離情報に基づいてテンプレートを特定し、特定した前記テンプ
レートと、前記撮像部が前記作業領域内に配置された対象物を撮像した画像とのマッチン
グを行う制御部、を備える画像処理装置である。
この構成により、画像処理装置は、ロボットが作業を行う作業領域内の第1位置に配置
されたキャリブレーションプレートを撮像部によって撮像することで求められた第1距離
情報に基づいてテンプレートを特定し、特定したテンプレートと、撮像部が作業領域内に
配置された対象物を撮像した画像とのマッチングを行う。これにより、画像処理装置は、
テンプレートと対象物を撮像した画像とのマッチングを行うためにユーザーが行う作業を
軽減することができる。
また、本発明の他の態様は、画像処理装置において、前記制御部は、キャリブレーショ
ン時において前記キャリブレーションプレートが前記撮像部により撮像された画像に基づ
いて算出された距離であって前記キャリブレーションプレートと前記撮像部との間の距離
を示す前記第1距離情報に基づいて前記テンプレートを特定する、構成が用いられてもよ
い。
この構成により、画像処理装置は、キャリブレーション時においてキャリブレーション
プレートが撮像部により撮像された画像に基づいて算出された距離であってキャリブレー
ションプレートと撮像部との間の距離を示す第1距離情報に基づいてテンプレートを特定
する。これにより、画像処理装置は、第1距離情報に基づいて、テンプレートと対象物を
撮像した画像とのマッチングを行うためにユーザーが行う作業を軽減することができる。
また、本発明の他の態様は、画像処理装置において、前記撮像部により撮像された前記
画像は、二次元画像である、構成が用いられてもよい。
この構成により、画像処理装置は、ロボットが作業を行う作業領域の第1位置に配置さ
れたキャリブレーションプレートを撮像部によって撮像することで求められた第1距離情
報に基づいてテンプレートを特定し、特定したテンプレートと、撮像部が作業領域内に配
置された対象物を撮像した二次元画像とのマッチングを行う。これにより、画像処理装置
は、テンプレートと対象物を撮像した二次元画像とのマッチングを行うためにユーザーが
行う作業を軽減することができる。
また、本発明の他の態様は、画像処理装置において、前記第1距離情報が求められる際
には、前記キャリブレーションプレートが前記第1位置に配置され、前記マッチングが行
われる際には、前記対象物が前記作業領域のうち前記第1位置を含む所定範囲内に配置さ
れる、構成が用いられてもよい。
この構成により、画像処理装置では、第1距離情報が求められる際には、キャリブレー
ションプレートが作業領域内の第1位置に配置され、テンプレートと撮像部が作業領域内
に配置された対象物を撮像した画像とのマッチングが行われる際には、対象物が作業領域
内のうち第1位置を含む所定範囲内に配置される。これにより、画像処理装置は、作業領
域内の第1位置に配置されたキャリブレーションプレートと、作業領域内のうち第1位置
を含む所定範囲内に配置された対象物とに基づいて、テンプレートと対象物を撮像した画
像とのマッチングを行うためにユーザーが行う作業を軽減することができる。
また、本発明の他の態様は、画像処理装置において、前記マッチングが行われる際には
、前記対象物が前記第1位置に配置される、構成が用いられてもよい。
この構成により、画像処理装置では、テンプレートと撮像部が作業領域内に配置された
対象物を撮像した画像とのマッチングが行われる際には、対象物が作業領域内の第1位置
に配置される。これにより、画像処理装置は、作業領域内の第1位置に配置されたキャリ
ブレーションプレートと、作業領域内の第1位置に配置された対象物とに基づいて、テン
プレートと対象物を撮像した画像とのマッチングを行うためにユーザーが行う作業を軽減
することができる。
また、本発明の他の態様は、画像処理装置において、前記ロボットは、前記撮像部を備
える、構成が用いられてもよい。
この構成により、画像処理装置は、撮像部を備えたロボットが作業を行う作業領域内の
第1位置に配置されたキャリブレーションプレートを当該撮像部によって撮像することで
求められた第1距離情報に基づいてテンプレートを特定し、特定したテンプレートと、当
該撮像部が作業領域内に配置された対象物を撮像した画像とのマッチングを行う。これに
より、画像処理装置は、テンプレートとロボットが備える撮像部が対象物を撮像した画像
とのマッチングを行うためにユーザーが行う作業を軽減することができる。
また、本発明の他の態様は、画像処理装置において、前記ロボットを制御するロボット
制御装置には、前記撮像部により前記画像を撮像する撮像位置を示す撮像位置情報が予め
記憶されている、構成が用いられてもよい。
この構成により、画像処理装置は、撮像部を備えたロボットが作業を行う作業領域の第
1位置に配置されたキャリブレーションプレートを撮像位置情報が示す撮像位置において
当該撮像部によって撮像することで求められた第1距離情報に基づいてテンプレートを特
定し、特定したテンプレートと、当該撮像部が作業領域内に配置された対象物を撮像位置
情報が示す撮像位置において撮像した画像とのマッチングを行う。これにより、画像処理
装置は、テンプレートとロボットが備える撮像部が撮像位置情報が示す撮像位置において
対象物を撮像した画像とのマッチングを行うためにユーザーが行う作業を軽減することが
できる。
また、本発明の他の態様は、画像処理装置において、前記制御部は、前記第1距離情報
と前記テンプレートに対応付けられた距離範囲とに基づいて前記テンプレートを特定する
、又は、前記第1距離情報と前記テンプレートの拡縮率に対応付けられた距離範囲とに基
づいて前記テンプレートを特定する、構成が用いられてもよい。
この構成により、画像処理装置は、第1距離情報とテンプレートに対応付けられた距離
範囲とに基づいてテンプレートを特定する、又は、第1距離情報とテンプレートの拡縮率
に対応付けられた距離範囲とに基づいてテンプレートを特定する。これにより、画像処理
装置は、第1距離情報とテンプレートに対応付けられた距離範囲とに基づいて、又は、第
1距離情報とテンプレートの拡縮率に対応付けられた距離範囲とに基づいて、テンプレー
トと対象物を撮像した画像とのマッチングを行うためにユーザーが行う作業を軽減するこ
とができる。
また、本発明の他の態様は、画像処理装置において、前記制御部は、1つの前記画像が
複数の領域に分割され、分割された前記複数の前記領域毎に求められた前記第1距離情報
に基づいて、前記複数の前記領域毎の前記テンプレートを特定する、構成が用いられても
よい。
この構成により、画像処理装置は、撮像部が作業領域内に配置された対象物を撮像した
1つの画像が複数の領域に分割され、分割された複数の領域毎に求められた第1距離情報
に基づいて、複数の領域毎のテンプレートを特定する。これにより、画像処理装置は、撮
像部が作業領域内に配置された対象物を撮像した1つの画像が分割された複数の領域毎に
求められた第1距離情報に基づいて、テンプレートと対象物を撮像した画像とのマッチン
グを行うためにユーザーが行う作業を軽減することができる。
また、本発明の他の態様は、上記に記載の画像処理装置を備え、前記画像処理装置によ
り行われた前記マッチングの結果に基づいて前記ロボットを動かす、ロボット制御装置で
ある。
この構成により、ロボット制御装置は、画像処理装置により行われたマッチングの結果
に基づいてロボットを動かす。これにより、ロボット制御装置は、ロボットに作業を行わ
せるためにユーザーが行う作業を軽減することができる。
また、本発明の他の態様は、上記に記載のロボット制御装置に制御される、ロボットで
ある。
この構成により、ロボットは、画像処理装置により行われたマッチングの結果に基づい
て対象物に対して作業を行う。これにより、ロボットは、ロボットが作業を行うためにユ
ーザーが行う作業を軽減することができる。
以上により、画像処理装置は、ロボットが作業を行う作業領域の第1位置に配置された
キャリブレーションプレートを撮像部によって撮像することで求められた第1距離情報に
基づいてテンプレートを特定し、特定したテンプレートと、撮像部が作業領域内に配置さ
れた対象物を撮像した画像とのマッチングを行う。これにより、画像処理装置は、テンプ
レートと対象物を撮像した画像とのマッチングを行うためにユーザーが行う作業を軽減す
ることができる。
また、ロボット制御装置は、画像処理装置により行われたマッチングの結果に基づいて
対象物に対してロボットに作業を行わせる。これにより、ロボット制御装置は、ロボット
に作業を行わせるためにユーザーが行う作業を軽減することができる。
また、ロボットは、画像処理装置により行われたマッチングの結果に基づいて対象物に
対して作業を行う。これにより、ロボットは、ロボットが作業を行うためにユーザーが行
う作業を軽減することができる。
実施形態に係るロボットシステム1の構成の一例を示す図である。 ロボット制御装置30のハードウェア構成の一例を示す図である。 ロボット制御装置30の機能構成の一例を示す図である。 ロボット制御装置30が行うキャリブレーション処理の流れの一例を示すフローチャートである。 作業領域の第1位置に配置されたキャリブレーションプレートの一例を示す図である。 ロボット制御装置30がロボット20に所定の作業を行わせる処理の流れを示すフローチャートである。 記憶部32に予め記憶された複数のテンプレートを例示する図である。 第1距離範囲の全体を包含する距離範囲と第1距離範囲との間の関係の一例を示す図である。 第1距離範囲の一部も包含していない距離範囲と第1距離範囲との間の関係の一例を示す図である。 第1距離範囲の一部を包含する距離範囲と第1距離範囲との間の関係の一例を示す図である。
<実施形態>
以下、本発明の実施形態について、図面を参照して説明する。
<ロボットシステムの構成>
まず、ロボットシステム1の構成について説明する。
図1は、実施形態に係るロボットシステム1の構成の一例を示す図である。ロボットシ
ステム1は、ロボット制御装置30を内蔵するロボット20を備える。
ロボット20は、第1アームと、第2アームと、第1アーム及び第2アームを支持する
支持台と、支持台の内側にロボット制御装置30を備える双腕ロボットである。なお、ロ
ボット20は、双腕ロボットに代えて、3本以上のアームを備える複腕ロボットであって
もよく、1本のアームを備える単腕ロボットであってもよい。また、ロボット20は、ス
カラ(水平多関節)ロボット、直交座標ロボット、円筒型ロボット等の他のロボットであ
ってもよい。直交座標ロボットは、例えば、ガントリロボットである。
第1アームは、第1エンドエフェクターE1と、第1マニピュレーターM1を備える。
なお、第1アームは、これに代えて、第1エンドエフェクターE1を備えず、第1マニピ
ュレーターM1を備える構成であってもよい。また、第1アームは、力検出部(例えば、
力センサー、トルクセンサー等)を備える構成であってもよい。
第1エンドエフェクターE1は、この一例において、物体を把持可能な爪部を備えるエ
ンドエフェクターである。なお、第1エンドエフェクターE1は、当該爪部を備えるエン
ドエフェクターに代えて、空気の吸引、磁力、治具等によって物体を持ち上げることが可
能なエンドエフェクター等の他のエンドエフェクターであってもよい。
第1エンドエフェクターE1は、ケーブルによってロボット制御装置30と通信可能に
接続されている。これにより、第1エンドエフェクターE1は、ロボット制御装置30か
ら取得される制御信号に基づく動作を行う。なお、ケーブルを介した有線通信は、例えば
、イーサネット(登録商標)やUSB(Universal Serial Bus)等の規格によって行わ
れる。また、第1エンドエフェクターE1は、Wi−Fi(登録商標)等の通信規格によ
り行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
第1マニピュレーターM1は、7つの関節と、第1撮像部21を備える。また、当該7
つの関節のそれぞれは、図示しないアクチュエーターを備える。すなわち、第1マニピュ
レーターM1を備える第1アームは、7軸垂直多関節型のアームである。第1アームは、
支持台と、第1エンドエフェクターE1と、第1マニピュレーターM1と、当該7つの関
節それぞれのアクチュエーターとによる連携した動作によって7軸の自由度の動作を行う
。なお、第1アームは、6軸以下の自由度で動作する構成であってもよく、8軸以上の自
由度で動作する構成であってもよい。
第1アームが7軸の自由度で動作する場合、第1アームは、6軸以下の自由度で動作す
る場合と比較して取り得る姿勢が増える。これにより第1アームは、例えば、動作が滑ら
かになり、更に第1アームの周辺に存在する物体との干渉を容易に回避することができる
。また、第1アームが7軸の自由度で動作する場合、第1アームの制御は、第1アームが
8軸以上の自由度で動作する場合と比較して計算量が少なく容易である。
第1マニピュレーターM1が備える7つのアクチュエーターはそれぞれ、ケーブルによ
ってロボット制御装置30と通信可能に接続されている。これにより、当該アクチュエー
ターは、ロボット制御装置30から取得される制御信号に基づいて、第1マニピュレータ
ーM1を動作させる。なお、ケーブルを介した有線通信は、例えば、イーサネット(登録
商標)やUSB等の規格によって行われる。また、第1マニピュレーターM1が備える7
つのアクチュエーターのうちの一部又は全部は、Wi−Fi(登録商標)等の通信規格に
より行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
第1撮像部21は、例えば、集光された光を電気信号に変換する撮像素子であるCCD
(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconducto
r)等を備えたカメラである。この一例において、第1撮像部21は、第1マニピュレー
ターM1の一部に備えられる。そのため、第1撮像部21は、第1アームの動きに応じて
移動する。また、第1撮像部21が撮像可能な範囲は、第1アームの動きに応じて変化す
る。第1撮像部21は、当該範囲の二次元画像を撮像する。なお、第1撮像部21は、当
該範囲の静止画像を撮像する構成であってもよく、当該範囲の動画像を撮像する構成であ
ってもよい。
また、第1撮像部21は、ケーブルによってロボット制御装置30と通信可能に接続さ
れている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等
の規格によって行われる。なお、第1撮像部21は、Wi−Fi(登録商標)等の通信規
格により行われる無線通信によってロボット制御装置30と接続される構成であってもよ
い。
第2アームは、第2エンドエフェクターE2と、第2マニピュレーターM2を備える。
なお、第2アームは、これに代えて、第2エンドエフェクターE2を備えず、第2マニピ
ュレーターM2を備える構成であってもよい。また、第2アームは、力検出部(例えば、
力センサー、トルクセンサー等)を備える構成であってもよい。
第2エンドエフェクターE2は、この一例において、物体を把持可能な爪部を備えるエ
ンドエフェクターである。なお、第2エンドエフェクターE2は、当該爪部を備えるエン
ドエフェクターに代えて、空気の吸引、磁力、治具等によって物体を持ち上げることが可
能なエンドエフェクター等の他のエンドエフェクターであってもよい。
第2エンドエフェクターE2は、ケーブルによってロボット制御装置30と通信可能に
接続されている。これにより、第2エンドエフェクターE2は、ロボット制御装置30か
ら取得される制御信号に基づく動作を行う。なお、ケーブルを介した有線通信は、例えば
、イーサネット(登録商標)やUSB等の規格によって行われる。また、第2エンドエフ
ェクターE2は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって
ロボット制御装置30と接続される構成であってもよい。
第2マニピュレーターM2は、7つの関節と、第2撮像部22を備える。また、当該7
つの関節のそれぞれは、図示しないアクチュエーターを備える。すなわち、第2マニピュ
レーターM2を備える第2アームは、7軸垂直多関節型のアームである。第2アームは、
支持台と、第2エンドエフェクターE2と、第2マニピュレーターM2と、当該7つの関
節それぞれのアクチュエーターとによる連携した動作によって7軸の自由度の動作を行う
。なお、第2アームは、6軸以下の自由度で動作する構成であってもよく、8軸以上の自
由度で動作する構成であってもよい。
第2アームが7軸の自由度で動作する場合、第2アームは、6軸以下の自由度で動作す
る場合と比較して取り得る姿勢が増える。これにより第2アームは、例えば、動作が滑ら
かになり、更に第2アームの周辺に存在する物体との干渉を容易に回避することができる
。また、第2アームが7軸の自由度で動作する場合、第2アームの制御は、第2アームが
8軸以上の自由度で動作する場合と比較して計算量が少なく容易である。
第2マニピュレーターM2が備える7つのアクチュエーターはそれぞれ、ケーブルによ
ってロボット制御装置30と通信可能に接続されている。これにより、当該アクチュエー
ターは、ロボット制御装置30から取得される制御信号に基づいて、第2マニピュレータ
ーM2を動作させる。なお、ケーブルを介した有線通信は、例えば、イーサネット(登録
商標)やUSB等の規格によって行われる。また、第2マニピュレーターM2が備える7
つのアクチュエーターのうちの一部又は全部は、Wi−Fi(登録商標)等の通信規格に
より行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
第2撮像部22は、例えば、集光された光を電気信号に変換する撮像素子であるCCD
やCMOS等を備えたカメラである。この一例において、第2撮像部22は、第2マニピ
ュレーターM2の一部に備えられる。そのため、第2撮像部22は、第2アームの動きに
応じて移動する。また、第2撮像部22が撮像可能な範囲は、第2アームの動きに応じて
変化する。第2撮像部22は、当該範囲の二次元画像を撮像する。なお、第2撮像部22
は、当該範囲の静止画像を撮像する構成であってもよく、当該範囲の動画像を撮像する構
成であってもよい。
また、第2撮像部22は、ケーブルによってロボット制御装置30と通信可能に接続さ
れている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等
の規格によって行われる。なお、第2撮像部22は、Wi−Fi(登録商標)等の通信規
格により行われる無線通信によってロボット制御装置30と接続される構成であってもよ
い。
また、ロボット20は、第3撮像部23と、第4撮像部24を備える。
第3撮像部23は、例えば、集光された光を電気信号に変換する撮像素子であるCCD
やCMOS等を備えたカメラである。第3撮像部23は、第4撮像部24が撮像可能な範
囲を第4撮像部24とともにステレオ撮像可能な部位に備えられる。第3撮像部23は、
ケーブルによってロボット制御装置30と通信可能に接続されている。ケーブルを介した
有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。な
お、第3撮像部23は、Wi−Fi(登録商標)等の通信規格により行われる無線通信に
よってロボット制御装置30と接続される構成であってもよい。
第4撮像部24は、例えば、集光された光を電気信号に変換する撮像素子であるCCD
やCMOS等を備えたカメラである。第4撮像部24は、第3撮像部23が撮像可能な範
囲を第3撮像部23とともにステレオ撮像可能な部位に備えられる。第4撮像部24は、
ケーブルによって通信可能にロボット制御装置30と接続されている。ケーブルを介した
有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。な
お、第4撮像部24は、Wi−Fi(登録商標)等の通信規格により行われる無線通信に
よってロボット制御装置30と接続される構成であってもよい。
上記で説明したロボット20が備える各機能部は、この一例において、ロボット20に
内蔵されたロボット制御装置30から制御信号を取得する。そして、当該各機能部は、取
得した制御信号に基づいた動作を行う。なお、ロボット20は、ロボット制御装置30を
内蔵する構成に代えて、外部に設置されたロボット制御装置30により制御される構成で
あってもよい。この場合、ロボット20と、ロボット制御装置30とは、ロボットシステ
ムを構成する。また、ロボット20は、第1撮像部21、第2撮像部22、第3撮像部2
3、第4撮像部24のうちの一部又は全部を備えない構成であってもよい。
ロボット制御装置30は、この一例において、ロボット20を制御する(動作させる)
コントローラーである。ロボット制御装置30は、例えば、予め記憶された動作プログラ
ムに基づいた制御信号を生成する。ロボット制御装置30は、生成した制御信号をロボッ
ト20に出力し、ロボット20に所定の作業を行わせる。
<ロボットが行う所定の作業の概要>
以下、ロボット20が行う所定の作業について説明する。
ロボット20は、第1撮像部21〜第4撮像部24の一部又は全部によって、ロボット
20の作業領域内に配置された対象物Oを撮像する。以下では、一例として、ロボット2
0が第1撮像部21によって対象物Oを撮像する場合について説明する。なお、ロボット
20は、ロボット20と別体の撮像部によって対象物Oを撮像する構成であってもよい。
この場合、ロボットシステム1は、当該撮像部を備える。また、当該撮像部は、対象物O
を撮像可能な位置に設置される。
ロボット20が所定の作業を行う作業領域は、この一例において、第1領域と第2領域
とが重なった領域のことである。第1領域は、例えば、第1エンドエフェクターE1の重
心が移動可能な領域のことである。第2領域は、例えば、第2エンドエフェクターE2の
重心が移動可能な領域のことである。なお、ロボット20が所定の作業を行う作業領域は
、第1領域と第2領域のいずれか一方であってもよい。また、第1領域は、第1エンドエ
フェクターE1の少なくとも一部が移動可能な領域等の第1エンドエフェクターE1に対
応付けられた他の領域であってもよい。また、第2領域は、第2エンドエフェクターE2
の少なくとも一部が移動可能な領域等の第2エンドエフェクターE2に対応付けられた他
の領域であってもよい。
対象物Oは、例えば、製品に組み付けるプレート、ネジ、ボルト等の産業用の部品や部
材である。図1では、図を簡略化するため、第1エンドエフェクターE1又は第2エンド
エフェクターE2の少なくとも一方により把持可能な程度の大きさを有する直方体形状の
物体として対象物Oを表している。また、図1に示した例では、対象物Oは、全体が作業
領域内に含まれている作業台TBの上面に配置されている。作業台TBは、例えば、テー
ブル等の台である。なお、対象物Oは、産業用の部品や部材に代えて、日用品や生体等の
他の物体であってもよい。また、対象物Oの形状は、直方体形状に代えて、他の形状であ
ってもよい。また、作業台TBは、テーブルに代えて、床面や棚等の対象物Oを載置可能
な他の物体であってもよい。
ロボット20は、第1撮像部21が対象物Oを撮像した画像に基づいて対象物Oを把持
し、把持した対象物Oを図示しない所定の給材領域に給材する作業を所定の作業として行
う。なお、ロボット20は、これに代えて、当該画像に基づいて対象物Oに対して行う他
の作業を所定の作業として行う構成であってもよい。
<ロボット制御装置がロボットに所定の作業を行わせる処理の概要>
以下、ロボット制御装置30がロボット20に所定の作業を行わせる処理の概要につい
て説明する。
ロボット制御装置30は、ロボット20に所定の作業を行わせる前に、キャリブレーシ
ョンプレートを用いたキャリブレーションを行う。当該キャリブレーションは、第1撮像
部21の外部パラメーター及び内部パラメーターのキャリブレーションであり、具体的に
は、第1撮像部21によって撮像される画像上の位置と、ロボット座標系RCにおける位
置との対応付け等を行うキャリブレーションである。すなわち、ロボット制御装置30は
、第1撮像部21に撮像を行わせる際、当該キャリブレーションによってパラメーターが
調整された領域内において第1撮像部21に撮像を行わせる。ロボット制御装置30が当
該キャリブレーションを行う方法は、既知の方法であってもよく、これから開発される方
法であってもよい。ロボット制御装置30が当該キャリブレーションを行う際、キャリブ
レーションプレートは、作業領域内の第1位置に配置される。第1位置は、この一例にお
いて、ロボット20の作業領域内において予め決められた位置のことであり、所定の作業
において対象物Oを配置する位置のことである。すなわち、この一例において、第1位置
は、作業台TBの上面内に予め決められた位置である。なお、ロボット20が所定の作業
を行う際、対象物Oは、作業領域内のうち第1位置を含む所定範囲内に配置される構成で
あってもよい。所定範囲は、例えば、第1位置を中心とした所定半径の円形状範囲のこと
である。なお、所定範囲は、これに代えて、第1位置に対応付けられた他の範囲であって
もよい。以下では、一例として、ロボット20が所定の作業を行う際、対象物Oが、第1
位置に配置される場合について説明する。
ロボット制御装置30は、ロボット20を動かし、第1撮像部21の位置及び姿勢を所
定の撮像位置及び撮像姿勢と一致させる。第1撮像部21の位置及び姿勢が撮像位置及び
撮像姿勢と一致した場合、第1撮像部21が撮像可能な撮像範囲には、少なくとも作業台
TBの上面が含まれる。
ここで、ロボット制御装置30は、図1において図示しない後述する画像処理装置40
を備える。画像処理装置40は、第1撮像部21を制御し、作業領域内の第1位置に配置
されたキャリブレーションプレートを撮像する。画像処理装置40は、キャリブレーショ
ンプレートが撮像された画像に基づいて、第1撮像部21によって撮像される画像上の位
置と、ロボット座標系RCにおける位置とを対応付ける。この際、画像処理装置40は、
第1撮像部21とキャリブレーションプレートとの間の距離である第1距離を算出し、算
出した第1距離に基づいて、これらの位置を対応付ける。また、画像処理装置40は、算
出した第1距離に基づいて、複数のテンプレートの中から1以上のテンプレートを特定す
る。
テンプレートは、テンプレートマッチングによって対象物Oの姿勢を特定するために用
いられる画像のことであり、対象物Oを表す二次元画像のことである。テンプレートは、
対象物Oを表すCG(Computer Graphics)であってもよく、対象物Oが撮像された画像
であってもよい。以下では、テンプレートがCGである場合について説明する。各テンプ
レートには、対象物Oの姿勢と、第1撮像部21と対象物Oとの間の距離に応じた距離範
囲とが対応付けられている。あるテンプレートが表す対象物Oの外観は、当該テンプレー
トに対応付けられた姿勢と対象物Oの姿勢とが一致している場合において、第1撮像部2
1の位置及び姿勢が撮像位置及び撮像姿勢と一致している状態で対象物Oが撮像された画
像上の対象物Oの外観とほぼ一致する。ここで、当該ほぼ一致するとは、この一例におい
て、数パーセントから十数パーセントのずれを許容して一致することを意味する。また、
あるテンプレートが表す対象物Oの大きさは、当該状態で対象物Oと第1撮像部21との
間の距離が、当該テンプレートに対応付けられた距離範囲に含まれている場合に第1撮像
部21によって対象物Oが撮像された画像上の対象物Oの大きさとほぼ一致する大きさで
ある。ここで、ほぼ一致するとは、この一例において、数パーセントから十数パーセント
のずれを許容して一致することを意味する。
画像処理装置40は、算出した第1距離を含む距離範囲が対応付けられた1以上のテン
プレートを複数のテンプレートの中から特定する。すなわち、画像処理装置40は、作業
領域内の第1位置に配置されたキャリブレーションプレートを第1撮像部21によって撮
像することで求められた第1距離情報に基づいて複数のテンプレートの中から1以上のテ
ンプレートを特定する。これにより、画像処理装置40は、画像処理装置40が対象物O
との類似度が最も高いテンプレートをテンプレートマッチングによって特定する処理に要
する時間を短縮することができる。
画像処理装置40は、特定した1以上のテンプレートと、作業領域内に配置された対象
物Oを第1撮像部21が撮像した画像とのテンプレートマッチングを行うことにより、対
象物Oの姿勢を特定する。当該姿勢は、例えば、対象物Oの重心に対応付けられた三次元
局所座標系における各座標軸のロボット座標系RCにおける方向によって表される。なお
、当該姿勢は、これに代えて、対象物Oに対応付けられた他の方向によって表される構成
であってもよい。ロボット座標系RCは、ロボット20のロボット座標系である。また、
画像処理装置40は、当該画像に基づいて対象物Oの位置を算出する。当該位置は、例え
ば、当該三次元局所座標系における原点のロボット座標系RCにおける位置によって表さ
れる。なお、対象物Oの位置は、これに代えて、対象物Oに対応付けられた他の位置によ
って表される構成であってもよい。テンプレートマッチングは、マッチングの一例である
ロボット制御装置30は、画像処理装置40により行われたテンプレートマッチングの
結果に基づいてロボット20を動かす。すなわち、ロボット制御装置30は、画像処理装
置40によって算出された対象物Oの位置及び姿勢に基づいてロボット20を動かす。こ
れにより、ロボット制御装置30は、ロボット20に所定の作業を行わせる。ここで、こ
の一例において、ロボット制御装置30には、図示しない給材領域の位置を示す情報が予
め記憶されている。
以下では、画像処理装置40が行う処理と、画像処理装置40を備えたロボット制御装
置30が行う処理とについて詳しく説明する。
<ロボット制御装置のハードウェア構成>
以下、図2を参照し、ロボット制御装置30のハードウェア構成について説明する。図
2は、ロボット制御装置30のハードウェア構成の一例を示す図である。
ロボット制御装置30は、例えば、CPU(Central Processing Unit)31と、記
憶部32と、入力受付部33と、通信部34と、表示部35を備える。これらの構成要素
は、バスBusを介して相互に通信可能に接続されている。また、ロボット制御装置30
は、通信部34を介してロボット20と通信を行う。
CPU31は、記憶部32に格納された各種プログラムを実行する。
記憶部32は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive
)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、R
OM(Read−Only Memory)、RAM(Random Access Memory)等を含む。なお、記憶
部32は、ロボット制御装置30に内蔵されるものに代えて、USB等のデジタル入出力
ポート等によって接続された外付け型の記憶装置であってもよい。記憶部32は、ロボッ
ト制御装置30が処理する各種情報(画像処理装置40が処理する各種情報を含む)、前
述の動作プログラムを含む各種プログラム、各種画像等を格納する。
入力受付部33は、例えば、キーボードやマウス、タッチパッド、その他の入力装置で
ある。なお、入力受付部33は、表示部35と一体に構成されたタッチパネルであっても
よい。
通信部34は、例えば、USB等のデジタル入出力ポートやイーサネット(登録商標)
ポート等を含んで構成される。
表示部35は、例えば、液晶ディスプレイパネル、あるいは、有機EL(ElectroLumin
escence)ディスプレイパネルである。
<ロボット制御装置の機能構成>
以下、図3を参照し、ロボット制御装置30の機能構成について説明する。図3は、ロ
ボット制御装置30の機能構成の一例を示す図である。
ロボット制御装置30は、記憶部32と、制御部36と、画像処理装置40を備える。
制御部36は、ロボット制御装置30の全体を制御する。制御部36は、画像処理制御
部361と、ロボット制御部363を備える。制御部36が備えるこれらの機能部は、例
えば、CPU31が、記憶部32に記憶された各種プログラムを実行することにより実現
される。また、当該機能部のうちの一部又は全部は、LSI(Large Scale Integratio
n)やASIC(Application Specific Integrated Circuit)等のハードウェア機能
部であってもよい。
画像処理制御部361は、画像処理装置40の全体を制御する。すなわち、画像処理制
御部361は、画像処理装置40が備える各機能部を制御する。
ロボット制御部363は、記憶部32に予め記憶された動作プログラムに基づいてロボ
ット20を動かす。また、ロボット制御部363は、画像処理装置40により行われたテ
ンプレートマッチングの結果に基づいてロボット20を動かす。
画像処理装置40は、撮像制御部461と、画像取得部463と、キャリブレーション
部465と、テンプレート特定部467と、位置姿勢算出部469を備える。画像処理装
置40が備えるこれらの機能部は、例えば、CPU31が、記憶部32に記憶された各種
プログラムを実行することにより実現される。また、当該機能部のうちの一部又は全部は
、LSIやASIC等のハードウェア機能部であってもよい。
撮像制御部461は、第1撮像部21が撮像可能な範囲を第1撮像部21に撮像させる
。また、撮像制御部461は、第2撮像部22が撮像可能な範囲を第2撮像部22に撮像
させる。また、撮像制御部461は、第3撮像部23が撮像可能な範囲を第3撮像部23
に撮像させる。また、撮像制御部461は、第4撮像部24が撮像可能な範囲を第4撮像
部24に撮像させる。
画像取得部463は、第1撮像部21が撮像した画像を第1撮像部21から取得する。
また、画像取得部463は、第2撮像部22が撮像した画像を第2撮像部22から取得す
る。また、画像取得部463は、第3撮像部23が撮像した画像を第3撮像部23から取
得する。また、画像取得部463は、第4撮像部24が撮像した画像を第4撮像部24か
ら取得する。
キャリブレーション部465は、第1撮像部21によりキャリブレーションプレートが
撮像された画像に基づいて、当該画像上の位置と、ロボット座標系RCにおける位置とを
対応付けるキャリブレーションを行う。この際、キャリブレーション部465は、当該画
像に基づいて、第1撮像部21とキャリブレーションプレートとの間の距離である第1距
離を算出する。また、キャリブレーション部465は、算出した第1距離を示す第1距離
情報を生成する。
また、テンプレート特定部467は、キャリブレーション部465により生成された第
1距離情報に基づいて、記憶部32に予め記憶された複数のテンプレートの中から1以上
のテンプレートを特定する。
位置姿勢算出部469は、テンプレート特定部467が特定した1以上のテンプレート
と、第1撮像部21により対象物Oが撮像された画像とのテンプレートマッチングを行う
ことにより、対象物Oの姿勢を特定する。また、位置姿勢算出部469は、当該画像に基
づいて、対象物Oの位置を算出する。
<ロボット制御装置が行うキャリブレーション処理>
以下、図4を参照し、ロボット制御装置30が行うキャリブレーション処理について説
明する。ロボット制御装置30は、キャリブレーション処理を行うことにより、第1撮像
部21により撮像された画像上の位置と、ロボット座標系RCにおける位置とを対応付け
るキャリブレーションを行う。図4は、ロボット制御装置30が行うキャリブレーション
処理の流れの一例を示すフローチャートである。なお、以下の説明において画像処理装置
40が備える各機能部が能動的に行う処理は、画像処理制御部361によって当該各機能
部が制御されることによって行っている処理である。以下では、作業領域の第1位置には
、前述のキャリブレーションプレートが既に配置されている場合について説明する。
ここで、図5は、作業領域の第1位置に配置されたキャリブレーションプレートの一例
を示す図である。図5に示したプレートCPは、当該キャリブレーションプレートの一例
である。プレートCPには、この一例において、複数のドットパターンが描かれている。
なお、プレートCPには、複数のドットパターンに代えて、第1撮像部21によって撮像
された画像上の位置と、ロボット座標系RCにおける位置とを対応付けるキャリブレーシ
ョンを行うことが可能なパターンであれば如何なるパターンが描かれていてもよい。
ロボット制御部363は、記憶部32に予め記憶された撮像位置姿勢情報を記憶部32
から読み出す。撮像位置姿勢情報は、前述の撮像位置及び撮像姿勢を示す情報のことであ
る。ロボット制御部363は、ロボット20を動作させることによって第1撮像部21を
移動させ、読み出した撮像位置姿勢情報が示す撮像位置及び撮像姿勢に第1撮像部21の
位置及び姿勢を一致させる(ステップS110)。なお、ロボット制御部363は、撮像
姿勢が予め記憶されている構成であってもよい。この場合、ロボット制御部363は、ス
テップS110において、記憶部32に予め記憶された撮像位置情報を記憶部32から読
み出す。撮像位置情報は、前述の撮像位置を示す情報のことである。第1撮像部21の位
置は、この一例において、第1撮像部21の重心に対応付けられた三次元局所座標系にお
ける原点のロボット座標系RCにおける位置によって表される。なお、第1撮像部21の
位置は、これに代えて、第1撮像部21に対応付けられた他の位置によって表される構成
であってもよい。第1撮像部21の姿勢は、この一例において、当該三次元局所座標系に
おける各座標軸のロボット座標系RCにおける方向によって表される。なお、第1撮像部
21の姿勢は、これに代えて、第1撮像部21に対応付けられた他の方向によって表され
る構成であってもよい。
次に、撮像制御部461は、第1撮像部21が撮像可能な範囲を第1撮像部21に撮像
させる(ステップS120)。次に、画像取得部463は、ステップS120において第
1撮像部21が撮像した画像を第1撮像部21から取得する(ステップS130)。
次に、キャリブレーション部465は、ステップS130において画像取得部463が
第1撮像部21から取得した画像に基づいて、当該画像上の位置と、ロボット座標系RC
における位置とを対応付けるキャリブレーションを行う。この際、キャリブレーション部
465は、第1撮像部21とキャリブレーションプレートとの間の距離である第1距離を
算出する(ステップS140)。例えば、第1撮像部21とキャリブレーションプレート
との間の距離は、第1撮像部21の重心の位置と、キャリブレーションプレートの重心の
位置との間の距離である。なお、第1撮像部21とキャリブレーションプレートとの間の
距離は、これに代えて、第1撮像部21に対応付けられた何らかの位置と、キャリブレー
ションプレートに対応付けられた何らかの位置との間の距離であってもよい。キャリブレ
ーション部465が第1距離を算出する方法は、既知の方法であってもよく、これから開
発される方法であってもよい。
次に、キャリブレーション部465は、ステップS140において算出した第1距離を
示す第1距離情報を生成する。そして、キャリブレーション部465は、生成した第1距
離情報を記憶部32に記憶させ(ステップS150)、処理を終了する。
上記において説明したキャリブレーションでは、第1距離を50〜80センチメートル
程度の距離となるようにロボット20とキャリブレーションプレートとのそれぞれを配置
することが多いが、第1距離を他の距離となるようにロボット20とキャリブレーション
プレートとのそれぞれを配置する構成であってもよい。以下では、一例として、第1距離
が70センチメートルである場合について説明する。
なお、上記において説明したキャリブレーションは、複数回行われる構成であってもよ
い。この場合、ロボット制御装置30は、それぞれのキャリブレーションにおけるステッ
プS140において算出された距離の平均値として第1距離を算出する。
また、ステップS140において、ロボット制御装置30は、ユーザーから受け付けた
操作に応じてロボット20を動作させ、第1エンドエフェクターE1又は第2エンドエフ
ェクターE2の少なくとも一方の予め決められた位置をキャリブレーションプレートの重
心に接触させて当該重心の位置を算出し、算出した当該位置に基づいて第1距離を算出す
る構成であってもよい。この場合、ロボット制御装置30は、算出した当該第1距離を用
いてステップS140におけるキャリブレーションを行う。
また、ロボット制御装置30は、図4に示したフローチャートの処理によって第1処理
を算出する構成に代えて、ダイレクトティーチング、オンラインティーチング等のティー
チング時においてキャリブレーションプレートの重心の位置が記憶され、記憶された当該
位置に基づいて第1位置を算出する構成であってもよい。この場合、ロボット制御装置3
0は、算出した当該第1距離を用いてステップS140におけるキャリブレーションを行
う。
また、ロボット制御装置30は、上記において説明した方法と異なる方法によって第1
距離を算出又は特定する構成であってもよい。この場合、ロボット制御装置30は、算出
又は特定した当該第1距離を用いてステップS140におけるキャリブレーションを行う
<ロボット制御装置がロボットに所定の作業を行わせる処理>
以下、図6を参照し、ロボット制御装置30がロボット20に所定の作業を行わせる処
理について説明する。図6は、ロボット制御装置30がロボット20に所定の作業を行わ
せる処理の流れを示すフローチャートである。なお、以下の説明において画像処理装置4
0が備える各機能部が能動的に行う処理は、画像処理制御部361によって当該各機能部
が制御されることによって行っている処理である。以下では、作業領域の第1位置には、
前述の対象物Oが既に配置されている場合について説明する。
ロボット制御部363は、記憶部32に予め記憶された撮像位置姿勢情報を記憶部32
から読み出す。ロボット制御部363は、ロボット20を動作させることによって第1撮
像部21を移動させ、読み出した撮像位置姿勢情報が示す撮像位置及び撮像姿勢に第1撮
像部21の位置及び姿勢を一致させる(ステップS210)。なお、ロボット制御部36
3は、ステップS210において撮像位置姿勢情報を記憶部32から読み出さず、ステッ
プS110において記憶部32から読み出した撮像位置姿勢情報が示す撮像位置及び撮像
姿勢に第1撮像部21の位置及び姿勢を一致させる構成であってもよい。
次に、撮像制御部461は、第1撮像部21が撮像可能な範囲を第1撮像部21に撮像
させる(ステップS220)。次に、画像取得部463は、ステップS220において第
1撮像部21が撮像した画像を第1撮像部21から取得する(ステップS230)。次に
、テンプレート特定部467は、記憶部32に予め記憶された第1距離情報を記憶部32
から読み出す(ステップS240)。次に、テンプレート特定部467は、ステップS2
40において読み出した第1距離情報に基づいて、複数のテンプレートの中から1以上の
テンプレートを特定するテンプレート特定処理を行う(ステップS250)。ここで、図
7〜図10を参照し、ステップS250のテンプレート特定処理について説明する。
この一例において、記憶部32には、図7に示したように複数のテンプレートが予め記
憶されている。図7は、記憶部32に予め記憶された複数のテンプレートを例示する図で
ある。図7に示したテンプレートTP1〜テンプレートTP3のそれぞれは、記憶部32
に予め記憶された複数のテンプレートに含まれる3つのテンプレートの一例である。前述
した通り、記憶部32に記憶された各テンプレートには、各テンプレートに応じた距離範
囲が対応付けられている。より具体的には、各テンプレートには、各テンプレートが表す
対象物Oの大きさ(例えば、面積)に応じた距離範囲が対応付けられている。各テンプレ
ートに対応付けられる距離範囲の中央値は、各テンプレートが表す対象物Oの大きさが大
きいほど小さくなる。これは、対象物Oを撮像する際、対象物Oを撮像する撮像部が対象
物Oに対して近いほど、当該撮像部が撮像した画像上の対象物Oの大きさが大きくなるた
めである。また、図7に示したテンプレートTP1〜テンプレートTP3のそれぞれが表
す対象物Oの姿勢(すなわち、前述の外観)は、互いに同じ姿勢であるが、これらは一例
に過ぎず、各テンプレートのそれぞれが示す姿勢の全部が互いに同じ姿勢であることを示
しているわけではない。
テンプレート特定部467は、ステップS240において読み出した第1距離情報が示
す第1距離に基づいて、第1距離を中央値とした距離範囲である第1距離範囲を算出する
。第1距離範囲は、第1距離に第1所定割合を乗算した値を第1距離から差し引いた値か
ら、第1距離に第1所定割合を乗算した値を第1距離に足し加えた値までの範囲のことで
ある。第1所定割合は、この一例において、1割である。ここで、第1所定割合は、第1
距離の測定誤差を表す割合であってもよく、当該割合ではなくてもよい。なお、第1所定
割合は、これに代えて、1割より小さい割合であってもよく、1割より大きい割合であっ
てもよい。
テンプレート特定部467は、算出した第1距離範囲と、記憶部32に記憶された各テ
ンプレートに対応付けられた距離範囲とを比較し、第1距離範囲の全体を包含する距離範
囲が対応付けられた1以上のテンプレートを、対象物Oとのテンプレートマッチングに用
いる1以上のテンプレートであると特定し、特定した1以上のテンプレートを記憶部32
から読み出す。ここで、図8は、第1距離範囲の全体を包含する距離範囲と第1距離範囲
との間の関係の一例を示す図である。図8に示した距離範囲LR11は、第1距離範囲の
一例である。距離範囲LR21は、あるテンプレートに対応付けられた距離範囲の一例で
ある。図8では、距離範囲LR21の最小値は、距離範囲LR11の最小値よりも小さい
。また、距離範囲LR21の最大値は、距離範囲LR11の最大値よりも大きい。すなわ
ち、距離範囲LR21は、距離範囲LR11の全体を包含する距離範囲である。テンプレ
ート特定部467は、このように第1距離範囲の全体を包含する距離範囲が対応付けられ
た1以上のテンプレートを、対象物Oとのテンプレートマッチングに用いる1以上のテン
プレートであると特定し、特定した1以上のテンプレートを記憶部32から読み出す。
図9は、第1距離範囲の一部も包含していない距離範囲と第1距離範囲との間の関係の
一例を示す図である。図9に示した距離範囲LR22は、あるテンプレートに対応付けら
れた距離範囲の他の例である。図9では、距離範囲LR22の最小値は、距離範囲LR1
1の最大値よりも大きい。すなわち、距離範囲LR22は、距離範囲LR11の一部も包
含していない。テンプレート特定部467は、このように第1距離範囲の一部も包含して
いない距離範囲が対応付けられた1以上のテンプレートを記憶部32から読み出さない。
図10は、第1距離範囲の一部を包含する距離範囲と第1距離範囲との間の関係の一例
を示す図である。図10に示した距離範囲LR23は、あるテンプレートに対応付けられ
た距離範囲の更に他の例である。図10では、距離範囲LR23の最小値は、距離範囲L
R11の最大値よりも小さい。また、距離範囲LR23の最大値は、距離範囲LR11の
最大値よりも大きい。すなわち、距離範囲LR23は、距離範囲LR11の一部を包含し
ている。テンプレート特定部467は、このように第1距離範囲の一部を包含する距離範
囲が対応付けられた1以上のテンプレートを記憶部32から読み出さない。なお、テンプ
レート特定部467は、第1距離範囲の一部を包含する距離範囲が対応付けられた1以上
のテンプレートを、対象物Oとのテンプレートマッチングに用いる1以上のテンプレート
であると特定し、特定した1以上のテンプレートを記憶部32から読み出す構成であって
もよい。
なお、テンプレート特定部467は、ステップS250において、例えば、第1距離範
囲を入力パラメーターとする機械学習のアルゴリズムを用いて、記憶部32に記憶された
複数のテンプレートの中から、対象物Oとのテンプレートマッチングに用いるテンプレー
トとして尤もらしい1以上のテンプレートを特定する構成であってもよい。
ステップS250においてテンプレート特定処理が行われた後、テンプレート特定部4
67は、ステップS250において1以上のテンプレートを特定できたか否かを判定する
(ステップS260)。ステップS250において1以上のテンプレートを特定できてい
ないと判定した場合(ステップS260−NO)、テンプレート特定部467は、第1距
離情報を、直前に実行されたステップS250において記憶部32に記憶された各テンプ
レートに対応付けられた距離範囲を第2所定割合拡大する(ステップS270)。第2所
定割合は、例えば、1割である。なお、第2所定割合は、1割より小さい割合であっても
よく、1割より大きい割合であってもよい。そして、テンプレート特定部467は、ステ
ップS250に遷移し、再びテンプレート特定処理を行う。一方、ステップS250にお
いて1以上のテンプレートを特定できたとテンプレート特定部467が判定した場合(ス
テップS260−YES)、位置姿勢算出部469は、ステップS250において読み出
した1以上のテンプレート毎に、ステップS290の処理を繰り返し行う(ステップS2
80)。
位置姿勢算出部469は、ステップS280において選択されたテンプレートと、ステ
ップS230において画像取得部463が取得した画像とを用いたテンプレートマッチン
グを行い、当該テンプレートと当該画像との類似の度合いを表す値である類似度を算出す
る(ステップS290)。位置姿勢算出部469は、算出した類似度を当該テンプレート
に対応付ける。ステップS290においてテンプレートマッチングにより類似度を算出す
る方法は、既知の方法であってもよく、これから開発される方法であってもよい。
ステップS250において記憶部32から読み出した1以上のテンプレート毎にステッ
プS290の処理が繰り返し行われた後、位置姿勢算出部469は、ステップS280〜
ステップS290の繰り返し処理において算出された最大の類似度に対応付けられたテン
プレートを特定する。そして、位置姿勢算出部469は、特定したテンプレートに対応付
けられた姿勢を、対象物Oの姿勢として特定する(ステップS300)。
次に、位置姿勢算出部469は、ステップS230において画像取得部463が取得し
た画像に基づいて、対象物Oの位置を算出する(ステップS310)。具体的には、位置
姿勢算出部469は、パターンマッチング等によって当該画像から対象物Oの重心を検出
する。位置姿勢算出部469は、検出した重心の位置であって当該画像上の位置をロボッ
ト座標系RCにおける位置に変換する。当該位置が、位置姿勢算出部469が算出する対
象物Oの位置である。
次に、ロボット制御部363は、位置姿勢算出部469が算出した対象物Oの位置及び
姿勢に基づいて、ロボット20に所定の作業を行わせる(ステップS320)。
なお、ロボット制御装置30は、第1撮像部21が撮像可能な範囲に、第1撮像部21
との間の距離が互いに異なる2以上の対象物が含まれている場合、第1撮像部21により
撮像された1つの画像が分割された複数の領域のうち当該2以上の対象物のそれぞれを含
む領域毎に、図4及び図6に示したフローチャートの処理を行う構成であってもよい。す
なわち、ロボット制御装置30は、1つの当該画像が複数の領域に分割され、分割された
複数の領域毎に求められた第1距離情報に基づいて、複数の領域毎のテンプレートを特定
する。これにより、ロボット制御装置30は、第1撮像部21が作業領域内に配置された
対象物を撮像した1つの画像が分割された複数の領域毎に求められた第1距離情報に基づ
いて、テンプレートと対象物を撮像した画像とのマッチングを行うためにユーザーが行う
作業を軽減することができる。
<実施形態の変形例>
以下、実施形態の変形例について説明する。実施形態の変形例では、前述の距離範囲は
、各テンプレートに対応付けられる構成に代えて、テンプレートを拡大又は縮小する複数
の拡縮率のそれぞれに対応付けられている。また、当該変形例では、記憶部32には、対
象物Oの姿勢毎に、対象物Oの姿勢に対応する1つのテンプレートが記憶されている。例
えば、対象物Oの姿勢がN個の場合(Nは、1以上の整数)、記憶部32には、それぞれ
の当該姿勢に応じたテンプレートがN個記憶されている。すなわち、テンプレート特定部
467は、図6に示したステップS250において、第1距離範囲の全部を包含する距離
範囲に対応付けられた1以上の拡縮率を特定する。
そして、ステップS260においてテンプレート特定部467は、ステップS250に
おいて1以上の拡縮率を特定できたか否かを判定する。ステップS260においてテンプ
レート特定部467が、ステップS250において1以上の拡縮率を特定できたと判定し
た場合、ステップS280において位置姿勢算出部469は、ステップS250において
特定した1以上の拡縮率毎に、ステップS280〜ステップS290の処理を行う。例え
ば、位置姿勢算出部469がある拡縮率を選択した後、位置姿勢算出部469は、選択し
た当該拡縮率によって記憶部32に記憶された複数のテンプレート(前述の対象物Oの姿
勢のそれぞれに対応づけられているテンプレート)のすべてを拡大又は縮小する。そして
、位置姿勢算出部469は、拡大又は縮小したテンプレート毎に、ステップS290の処
理を繰り返し行う。これにより、ロボット制御装置30は、第1距離情報とテンプレート
の拡縮率に対応付けられた距離範囲とに基づいて、テンプレートと対象物Oを撮像した画
像とのテンプレートマッチングを行うためにユーザーが行う作業を軽減することができる
なお、上記において説明した画像処理装置40は、ロボット制御装置30と別体であっ
てもよい。この場合、画像処理装置40は、ロボット制御装置30と無線又は有線によっ
て通信可能に接続される。また、当該場合、画像処理装置40は、CPU、記憶部、通信
部等のハードウェア機能部を備える。
以上のように、画像処理装置40は、ロボット20が作業を行う作業領域内の第1位置
に配置されたキャリブレーションプレートを撮像部(上記において説明した例では、第1
撮像部21)によって撮像することで求められた第1距離情報に基づいてテンプレートを
特定し、特定したテンプレートと、撮像部が作業領域内に配置された対象物を撮像した画
像とのマッチング(上記において説明した例では、テンプレートマッチング)を行う。こ
れにより、画像処理装置40は、テンプレートと対象物(上記において説明した例では、
対象物O)を撮像した画像とのマッチングを行うためにユーザーが行う作業を軽減するこ
とができる。
また、画像処理装置40は、キャリブレーション時においてキャリブレーションプレー
トが撮像部により撮像された画像に基づいて算出された距離であってキャリブレーション
プレートと撮像部との間の距離を示す第1距離情報に基づいてテンプレートを特定する。
これにより、画像処理装置40は、第1距離情報に基づいて、テンプレートと対象物を撮
像した画像とのマッチングを行うためにユーザーが行う作業を軽減することができる。
また、画像処理装置40は、ロボット20が作業を行う作業領域の第1位置に配置され
たキャリブレーションプレートを撮像部によって撮像することで求められた第1距離情報
に基づいてテンプレートを特定し、特定したテンプレートと、撮像部が作業領域内に配置
された対象物を撮像した二次元画像とのマッチングを行う。これにより、画像処理装置4
0は、テンプレートと対象物を撮像した二次元画像とのマッチングを行うためにユーザー
が行う作業を軽減することができる。
また、画像処理装置40は、第1距離情報が求められる際には、キャリブレーションプ
レートが作業領域内の第1位置に配置され、テンプレートと撮像部が作業領域内に配置さ
れた対象物を撮像した画像とのマッチングが行われる際には、対象物が作業領域内のうち
第1位置を含む所定範囲内に配置される。これにより、画像処理装置40は、作業領域内
の第1位置に配置されたキャリブレーションプレートと、作業領域内のうち第1位置を含
む所定範囲内に配置された対象物とに基づいて、テンプレートと対象物を撮像した画像と
のマッチングを行うためにユーザーが行う作業を軽減することができる。
また、画像処理装置40では、テンプレートと撮像部が作業領域内に配置された対象物
を撮像した画像とのマッチングが行われる際には、対象物が作業領域内の第1位置に配置
される。これにより、画像処理装置40は、作業領域内の第1位置に配置されたキャリブ
レーションプレートと、作業領域内の第1位置に配置された対象物とに基づいて、テンプ
レートと対象物を撮像した画像とのマッチングを行うためにユーザーが行う作業を軽減す
ることができる。
また、画像処理装置40は、撮像部を備えたロボット20が作業を行う作業領域内の第
1位置に配置されたキャリブレーションプレートを当該撮像部によって撮像することで求
められた第1距離情報に基づいてテンプレートを特定し、特定したテンプレートと、当該
撮像部が作業領域内に配置された対象物を撮像した画像とのマッチングを行う。これによ
り、画像処理装置40は、テンプレートとロボット20が備える撮像部が対象物を撮像し
た画像とのマッチングを行うためにユーザーが行う作業を軽減することができる。
また、画像処理装置40は、撮像部を備えたロボット20が作業を行う作業領域の第1
位置に配置されたキャリブレーションプレートを撮像位置情報が示す撮像位置において当
該撮像部によって撮像することで求められた第1距離情報に基づいてテンプレートを特定
し、特定したテンプレートと、当該撮像部が作業領域内に配置された対象物を撮像位置情
報が示す撮像位置において撮像した画像とのマッチングを行う。これにより、画像処理装
置40は、テンプレートと撮像位置情報が示す撮像位置においてロボット20が備える撮
像部が対象物を撮像した画像とのマッチングを行うためにユーザーが行う作業を軽減する
ことができる。
また、画像処理装置40は、第1距離情報とテンプレートに対応付けられた距離範囲と
に基づいてテンプレートを特定する、又は、第1距離情報とテンプレートの拡縮率に対応
付けられた距離範囲とに基づいてテンプレートを特定する。これにより、画像処理装置4
0は、第1距離情報とテンプレートに対応付けられた距離範囲とに基づいて、又は、第1
距離情報とテンプレートの拡縮率に対応付けられた距離範囲とに基づいて、テンプレート
と対象物を撮像した画像とのマッチングを行うためにユーザーが行う作業を軽減すること
ができる。
また、画像処理装置40は、撮像部が作業領域内に配置された対象物を撮像した1つの
画像が複数の領域に分割され、分割された複数の領域毎に求められた第1距離情報に基づ
いて、複数の領域毎のテンプレートを特定する。これにより、画像処理装置40は、撮像
部が作業領域内に配置された対象物を撮像した1つの画像が分割された複数の領域毎に求
められた第1距離情報に基づいて、テンプレートと対象物を撮像した画像とのマッチング
を行うためにユーザーが行う作業を軽減することができる。
また、ロボット制御装置30は、画像処理装置40により行われたマッチングの結果に
基づいてロボット20を動かす。これにより、ロボット制御装置30は、ロボット20に
作業を行わせるためにユーザーが行う作業を軽減することができる。
また、ロボット20は、画像処理装置40により行われたマッチングの結果に基づいて
対象物に対して作業を行う。これにより、ロボット20は、ロボット20が作業を行うた
めにユーザーが行う作業を軽減することができる。
以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実
施形態に限られるものではなく、この発明の要旨を逸脱しない限り、変更、置換、削除等
されてもよい。
また、以上に説明した装置(例えば、画像処理装置40、ロボット制御装置30)にお
ける任意の構成部の機能を実現するためのプログラムを、コンピューター読み取り可能な
記録媒体に記録し、そのプログラムをコンピューターシステムに読み込ませて実行するよ
うにしてもよい。なお、ここでいう「コンピューターシステム」とは、OS(Operating
System)や周辺機器等のハードウェアを含むものとする。また、「コンピューター読み
取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD(Co
mpact Disk)−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディ
スク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは
、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信さ
れた場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリー
(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピューターシ
ステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータ
ーシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インタ
ーネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を
伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい
。さらに、上記のプログラムは、前述した機能をコンピューターシステムにすでに記録さ
れているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プロ
グラム)であってもよい。
1…ロボットシステム、20…ロボット、21…第1撮像部、22…第2撮像部、23…
第3撮像部、24…第4撮像部、30…ロボット制御装置、31…CPU、32…記憶部
、33…入力受付部、34…通信部、35…表示部、36…制御部、40…画像処理装置
、361…画像処理制御部、363…ロボット制御部、461…撮像制御部、463…画
像取得部、465…キャリブレーション部、467…テンプレート特定部、469…位置
姿勢算出部

Claims (11)

  1. ロボットが作業を行う作業領域内の第1位置に配置されたキャリブレーションプレート
    を撮像部によって撮像することで求められた第1距離情報に基づいてテンプレートを特定
    し、特定した前記テンプレートと、前記撮像部が前記作業領域内に配置された対象物を撮
    像した画像とのマッチングを行う制御部、
    を備える画像処理装置。
  2. 前記制御部は、キャリブレーション時において前記キャリブレーションプレートが前記
    撮像部により撮像された画像に基づいて算出された距離であって前記キャリブレーション
    プレートと前記撮像部との間の距離を示す前記第1距離情報に基づいて前記テンプレート
    を特定する、
    請求項1に記載の画像処理装置。
  3. 前記撮像部により撮像された前記画像は、二次元画像である、
    請求項1又は2に記載の画像処理装置。
  4. 前記第1距離情報が求められる際には、前記キャリブレーションプレートが前記第1位
    置に配置され、
    前記マッチングが行われる際には、前記対象物が前記作業領域内のうち前記第1位置を
    含む所定範囲内に配置される、
    請求項1から3のうちいずれか一項に記載の画像処理装置。
  5. 前記マッチングが行われる際には、前記対象物が前記第1位置に配置される、
    請求項4に記載の画像処理装置。
  6. 前記ロボットは、前記撮像部を備える、
    請求項1から5のうちいずれか一項に記載の画像処理装置。
  7. 前記ロボットを制御するロボット制御装置には、前記撮像部により前記画像を撮像する
    撮像位置を示す撮像位置情報が予め記憶されている、
    請求項6に記載の画像処理装置。
  8. 前記制御部は、
    前記第1距離情報と前記テンプレートに対応付けられた距離範囲とに基づいて前記テン
    プレートを特定する、又は、前記第1距離情報と前記テンプレートの拡縮率に対応付けら
    れた距離範囲とに基づいて前記テンプレートを特定する、
    請求項1から7のうちいずれか一項に記載の画像処理装置。
  9. 前記制御部は、
    1つの前記画像が複数の領域に分割され、分割された前記複数の前記領域毎に求められ
    た前記第1距離情報に基づいて、前記複数の前記領域毎の前記テンプレートを特定する、
    請求項1から8のうちいずれか一項に記載の画像処理装置。
  10. 請求項1から9のうちいずれか一項に記載の画像処理装置を備え、
    前記画像処理装置により行われた前記マッチングの結果に基づいて前記ロボットを動か
    す、
    ロボット制御装置。
  11. 請求項10に記載のロボット制御装置に制御される、
    ロボット。
JP2017015147A 2017-01-31 2017-01-31 画像処理装置、ロボット制御装置、及びロボット Pending JP2018122376A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017015147A JP2018122376A (ja) 2017-01-31 2017-01-31 画像処理装置、ロボット制御装置、及びロボット
US15/883,440 US20180215044A1 (en) 2017-01-31 2018-01-30 Image processing device, robot control device, and robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017015147A JP2018122376A (ja) 2017-01-31 2017-01-31 画像処理装置、ロボット制御装置、及びロボット

Publications (1)

Publication Number Publication Date
JP2018122376A true JP2018122376A (ja) 2018-08-09

Family

ID=62977458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017015147A Pending JP2018122376A (ja) 2017-01-31 2017-01-31 画像処理装置、ロボット制御装置、及びロボット

Country Status (2)

Country Link
US (1) US20180215044A1 (ja)
JP (1) JP2018122376A (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6859447B2 (ja) * 2017-09-27 2021-04-14 株式会社ソニー・インタラクティブエンタテインメント 情報処理システムおよび対象物情報取得方法
JP6669713B2 (ja) * 2017-11-28 2020-03-18 ファナック株式会社 ロボットおよびロボットシステム
US11580724B2 (en) * 2019-07-23 2023-02-14 Toyota Research Institute, Inc. Virtual teach and repeat mobile manipulation system
CN111185903B (zh) * 2020-01-08 2022-05-13 杭州未名信科科技有限公司 控制机械臂绘制人像画的方法、装置及机器人系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9253505B2 (en) * 2009-04-08 2016-02-02 Newrow, Inc. System and method for image compression
JP2012254518A (ja) * 2011-05-16 2012-12-27 Seiko Epson Corp ロボット制御システム、ロボットシステム及びプログラム
WO2014055909A2 (en) * 2012-10-05 2014-04-10 Beckman Coulter Inc. System and method for camera-based auto-alignment
JP6395423B2 (ja) * 2014-04-04 2018-09-26 キヤノン株式会社 画像処理装置、制御方法及びプログラム

Also Published As

Publication number Publication date
US20180215044A1 (en) 2018-08-02

Similar Documents

Publication Publication Date Title
US11090814B2 (en) Robot control method
EP2963513B1 (en) Teaching apparatus and robot system
JP6816364B2 (ja) 制御装置、ロボット、及びロボットシステム
JP6380828B2 (ja) ロボット、ロボットシステム、制御装置、及び制御方法
JP2018051704A (ja) ロボット制御装置、ロボット、及びロボットシステム
JP2017170571A (ja) ロボット、ロボット制御装置、及びロボットシステム
US20180215044A1 (en) Image processing device, robot control device, and robot
JP2017071018A (ja) ロボットシステム、ロボット、及びロボット制御装置
JP2018144144A (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP2013146813A (ja) ロボット装置および位置姿勢検出方法
US11351672B2 (en) Robot, control device, and robot system
JP2014029664A (ja) 比較画像範囲生成方法、位置姿勢検出方法、比較画像範囲生成装置、位置姿勢検出装置、ロボット、ロボットシステム、比較画像範囲生成プログラム及び位置姿勢検出プログラム
JP2017006990A (ja) ロボット、制御装置、及び制御方法
JP2015182212A (ja) ロボットシステム、ロボット、制御装置、及び制御方法
JP6488571B2 (ja) 教示装置、及びロボットシステム
JP2018017653A (ja) 三次元計測装置、ロボット、ロボット制御装置、及びロボットシステム
JP2017219365A (ja) 位置姿勢算出装置、ロボット制御装置、及びロボット
US11158080B2 (en) Information processing method, information processing device, object detection apparatus, and robot system
JP6455869B2 (ja) ロボット、ロボットシステム、制御装置、及び制御方法
JP2017202549A (ja) ロボット制御装置、ロボット、及びロボットシステム
JP2018017610A (ja) 三次元計測装置、ロボット、ロボット制御装置、及びロボットシステム
JP2015157343A (ja) ロボット、ロボットシステム、制御装置、および制御方法
JP2017219359A (ja) 形状測定装置、ロボット制御装置、及びロボット
JP2016013590A (ja) 教示装置、及びロボットシステム
JP2017007009A (ja) ロボット、制御装置、及びロボットシステム

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180907

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181120