JP2018034243A - ロボット、ロボット制御装置、及びロボットシステム - Google Patents

ロボット、ロボット制御装置、及びロボットシステム Download PDF

Info

Publication number
JP2018034243A
JP2018034243A JP2016168977A JP2016168977A JP2018034243A JP 2018034243 A JP2018034243 A JP 2018034243A JP 2016168977 A JP2016168977 A JP 2016168977A JP 2016168977 A JP2016168977 A JP 2016168977A JP 2018034243 A JP2018034243 A JP 2018034243A
Authority
JP
Japan
Prior art keywords
robot
angle
imaging
area
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016168977A
Other languages
English (en)
Inventor
健太郎 塚本
Kentaro Tsukamoto
健太郎 塚本
信之 説田
Nobuyuki Setsuda
信之 説田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016168977A priority Critical patent/JP2018034243A/ja
Priority to CN201710748979.4A priority patent/CN107775638A/zh
Priority to US15/689,603 priority patent/US20180056517A1/en
Priority to EP17188306.9A priority patent/EP3290164A3/en
Publication of JP2018034243A publication Critical patent/JP2018034243A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40004Window function, only a specific region is analyzed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45063Pick and place manipulator

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Abstract

【課題】対象物に関する情報に基づく作業を精度よく行うことができるロボットを提供すること。【解決手段】アームを備え、前記アームに設けられた撮像部が撮像可能な撮像領域内における所定領域は、複数の対象物のそれぞれを撮像する位置に前記アームを移動した場合において前記撮像部により撮像された撮像画像の画像領域のうち前記対象物を含む前記画像領域又は当該画像領域よりも小さい領域と一致し、前記位置において前記撮像部により前記対象物が撮像された前記撮像画像に基づいて前記対象物に関する情報を検出し、検出した当該情報に基づいて前記対象物を把持する、ロボット。【選択図】図4

Description

この発明は、ロボット、ロボット制御装置、及びロボットシステムに関する。
撮像部により撮像した撮像画像に基づいてロボットに作業を行わせる技術の研究や開発が行われている。
これに関し、作業内容を制御可能なロボットハンドの1つ以上の作業対象物が搭載されたトレイが、ロボットハンドによって作業が行われるべき位置に載置された状態で、作業対象物のすべてが含まれるように撮像し、撮像した画像データから作業対象物それぞれを検出するとともに、検出された作業対象物それぞれの正常位置に対する位置誤差が許容範囲内か否かを判定し、当該位置誤差が許容範囲内と判定された作業対象物に対しては通常作業を実行するとともに、位置誤差が許容範囲内ではないと判定された作業対象物に対しては通常作業を実行しないロボット制御方法が知られている(特許文献1参照)。
特開2011−110629号公報
このようなロボット制御方法では、作業対象物の全体を撮像しようとした場合、作業対象物を配置するトレイや他の物体等の背景までも作業対象物とともに撮像されてしまう。その結果、当該ロボット制御方法では、作業対象物が撮像された撮像画像に含まれる当該背景の少なくとも一部を作業対象物として誤検出してしまう場合があった。すなわち、当該ロボット制御方法では、作業対象物の位置及び姿勢等の作業対象物に関する情報を当該撮像画像から検出する検出精度が低下してしまう場合があった。
上記課題の少なくとも一つを解決するために本発明の一態様は、アームを備え、前記アームに設けられた撮像部が撮像可能な撮像領域内における所定領域は、複数の対象物のそれぞれを撮像する位置に前記アームを移動した場合において前記撮像部により撮像された撮像画像の画像領域のうち前記対象物を含む前記画像領域又は当該画像領域よりも小さい領域と一致し、前記位置において前記撮像部により前記対象物が撮像された前記撮像画像に基づいて前記対象物に関する情報を検出し、検出した当該情報に基づいて前記対象物を把持する、ロボットである。
この構成により、ロボットは、アームに設けられた撮像部が撮像可能な撮像領域内における所定領域が、複数の対象物のそれぞれを撮像する位置にアームを移動した場合において撮像部により撮像された撮像画像の画像領域のうち対象物を含む画像領域又は当該画像領域よりも小さい領域と一致し、複数の対象物のそれぞれを撮像する位置において撮像部により対象物が撮像された撮像画像に基づいて対象物に関する情報を検出し、検出した当該情報に基づいて対象物を把持する。これにより、ロボットは、対象物に関する情報に基づく作業を精度よく行うことができる。
また、本発明の他の態様は、ロボットにおいて、前記複数の前記対象物のそれぞれは、パレット内のセルのそれぞれに配置されており、前記対象物を含む前記画像領域は、前記撮像画像の前記画像領域のうち前記セルの内側の前記画像領域である、構成が用いられてもよい。
この構成により、ロボットは、アームに設けられた撮像部が撮像可能な撮像領域内における所定領域が、撮像部により撮像された撮像画像の画像領域のうちパレット内のセルの内側の画像領域又は当該画像領域よりも小さい領域と一致し、複数の対象物のそれぞれを撮像する位置において撮像部により対象物が撮像された撮像画像に基づいて対象物に関する情報を検出し、検出した当該情報に基づいて対象物を把持する。これにより、ロボットは、パレット内のセルのそれぞれに配置された対象物に関する情報に基づく作業を精度よく行うことができる。
また、本発明の他の態様は、ロボットにおいて、ロボットが備えた関節毎の角度である第1角度の変化に応じて、前記所定領域の角度である第2角度が変化する、構成が用いられてもよい。
この構成により、ロボットでは、ロボットが備えた関節毎の角度である第1角度の変化に応じて、前記所定領域の角度である第2角度が変化する。これにより、ロボットは、ロボットが備えた関節毎の角度である第1角度に基づいて、対象物に関する情報に基づく作業を精度よく行うことができる。
また、本発明の他の態様は、ロボットにおいて、前記第1角度は、前記関節毎に対応付けられた第1基準方向に対する角度であり、前記第2角度は、前記撮像部に対応付けられた第2基準方向と、前記所定領域に対応付けられた第3基準方向との間の角度であり、前記第2角度の変化において、前記第3基準方向が変化しない、構成が用いられてもよい。
この構成により、ロボットでは、第2角度の変化において、第3基準方向が変化しない。これにより、ロボットは、ロボットが備えた関節毎に対応付けられた第1基準方向に対する角度であって当該関節毎の角度である第1角度に基づいて、対象物に関する情報に基づく作業を精度よく行うことができる。
また、本発明の他の態様は、ロボットにおいて、前記第1角度は、前記関節毎に対応付けられた第1基準方向に対する角度であり、前記第2角度は、前記撮像部に対応付けられた第2基準方向と、前記所定領域に対応付けられた第3基準方向との間の角度であり、前記第1角度とゲインとに応じて、前記第2角度が変化する、構成が用いられてもよい。
この構成により、ロボットでは、第1角度とゲインとに応じて、第2角度が変化する。これにより、ロボットは、ロボットが備えた関節毎に対応付けられた第1基準方向に対する角度であって当該関節毎の角度であるである第1角度とゲインとに基づいて、対象物に関する情報に基づく作業を精度よく行うことができる。
また、本発明の他の態様は、ロボットにおいて、前記第1角度に応じて前記第2角度が変化する第1モードと、前記第1角度に応じて前記第2角度が変化しない第2モードとの2つの動作モードによって動作可能である、構成が用いられてもよい。
この構成により、ロボットは、第1角度に応じて第2角度が変化する第1モードと、第1角度に応じて第2角度が変化しない第2モードとの2つの動作モードによって動作可能である。これにより、ロボットは、ユーザーが所望する動作モードによって、対象物に関する情報に基づく作業を精度よく行うことができる。
また、本発明の他の態様は、ロボットにおいて、前記所定領域の形状は、前記対象物を含む前記画像領域の形状又は当該画像領域よりも小さい領域の形状に対応する形状である、構成が用いられてもよい。
この構成により、ロボットでは、所定領域の形状は、対象物を含む画像領域の形状又は当該画像領域よりも小さい領域の形状に対応する形状である。これにより、ロボットは、対象物を含む画像領域の形状又は当該画像領域よりも小さい領域の形状に対応する形状の所定領域に基づいて、対象物に関する情報に基づく作業を精度よく行うことができる。
また、本発明の他の態様は、ロボットにおいて、前記撮像画像が表示部に表示される場合、前記撮像画像とともに前記所定領域が前記表示部に表示される、構成が用いられてもよい。
この構成により、ロボットでは、撮像画像が表示部に表示される場合、撮像画像とともに所定領域が表示部に表示される。これにより、ロボットは、所定領域内に対象物が含まれているか否かをユーザーに確認させることができる。
また、本発明の他の態様は、上記に記載のロボットを制御する、ロボット制御装置である。
この構成により、ロボット制御装置は、アームに設けられた撮像部が撮像可能な撮像領域内における所定領域を、複数の対象物のそれぞれを撮像する位置にアームを移動した場合において撮像部により撮像された撮像画像の画像領域のうち対象物を含む画像領域又は当該画像領域よりも小さい領域と一致させ、複数の対象物のそれぞれを撮像する位置において撮像部により対象物が撮像された撮像画像に基づいて対象物に関する情報を検出し、検出した当該情報に基づいて対象物をロボットに把持させる。これにより、ロボット制御装置は、対象物に関する情報の検出精度の低下を抑制することができる。
また、本発明の他の態様は、上記に記載のロボットと、前記ロボットを制御するロボット制御装置と、を備えるロボットシステムである。
この構成により、ロボットシステムは、アームに設けられた撮像部が撮像可能な撮像領域内における所定領域を、複数の対象物のそれぞれを撮像する位置にアームを移動した場合において撮像部により撮像された撮像画像の画像領域のうち対象物を含む画像領域又は当該画像領域よりも小さい領域と一致させ、複数の対象物のそれぞれを撮像する位置において撮像部により対象物が撮像された撮像画像に基づいて対象物に関する情報を検出し、検出した当該情報に基づいて対象物をロボットに把持させる。これにより、ロボットシステムは、対象物に関する情報の検出精度の低下を抑制することができる。
以上により、ロボットは、アームに設けられた撮像部が撮像可能な撮像領域内における所定領域が、複数の対象物のそれぞれを撮像する位置にアームを移動した場合において撮像部により撮像された撮像画像の画像領域のうち対象物を含む画像領域又は当該画像領域よりも小さい領域と一致し、複数の対象物のそれぞれを撮像する位置において撮像部により対象物が撮像された撮像画像に基づいて対象物に関する情報を検出し、検出した当該情報に基づいて対象物を把持する。これにより、ロボットは、対象物に関する情報に基づく作業を精度よく行うことができる。
また、ロボット制御装置、及びロボットシステムは、アームに設けられた撮像部が撮像可能な撮像領域内における所定領域を、複数の対象物のそれぞれを撮像する位置にアームを移動した場合において撮像部により撮像された撮像画像の画像領域のうち対象物を含む画像領域又は当該画像領域よりも小さい領域と一致させ、複数の対象物のそれぞれを撮像する位置において撮像部により対象物が撮像された撮像画像に基づいて対象物に関する情報を検出し、検出した当該情報に基づいて対象物をロボットに把持させる。これにより、ロボット制御装置、及びロボットシステムは、対象物に関する情報の検出精度の低下を抑制することができる。
実施形態に係るロボットシステム1の構成の一例を示す図である。ロボットシステム1は、ロボット20と、ロボット制御装置30を備える。 パレットPの一例を示す図である。 ロボット制御装置30のハードウェア構成の一例を示す図である。 ロボット制御装置30の機能構成の一例を示す図である。 制御点Tの位置及び姿勢が初期位置姿勢X11と一致している状態における撮像領域CA及び所定領域SWと、当該状態におけるロボット20との様子の一例を示す図である。 ロボット制御装置30が初期位置姿勢情報を記憶部32に記憶させる処理の流れの一例を示す図である。 表示部35に表示された撮像画像と、当該撮像画像のうち撮像部21の撮像素子上に設定された所定領域SWに含まれる範囲を示す枠との一例を示す図である。 ステップS60の処理を説明するための図である。 制御点Tの位置がセルC23を撮像部21が撮像する撮像位置と一致している状態における撮像領域CA及び所定領域SWと、当該状態におけるロボット20との様子の一例を示す図である。 図9に示した状態における第1関節及び第2関節それぞれの第1角度と、所定領域SWの撮像領域CAに対する相対的な角度とを例示する図である。 表示部35に表示された撮像画像と、当該撮像画像のうち撮像部21の撮像素子上に設定された所定領域SWに含まれる範囲を示す枠との他の例を示す図である。 ロボット制御装置30がロボット20に所定の作業を行わせる処理の流れの一例を示す図である。 制御点Tの位置及び姿勢がセルC23を撮像部21が撮像する撮像位置と一致している状態における撮像領域CA及び所定領域SWと、当該状態におけるロボット20との様子の一例を示す図である。
<実施形態>
以下、本発明の実施形態について、図面を参照して説明する。
<ロボットシステムの構成>
まず、ロボットシステム1の構成について説明する。
図1は、実施形態に係るロボットシステム1の構成の一例を示す図である。ロボットシステム1は、ロボット20と、ロボット制御装置30を備える。
ロボット20は、スカラロボットである。なお、ロボット20は、スカラロボットに代えて、直角座標ロボットや単腕ロボット、複腕ロボット等の他のロボットであってもよい。直角座標ロボットは、例えば、ガントリロボットである。
図1に示した例において、ロボット20は、床面に設置されている。なお、ロボット20は、床面に代えて、壁面や天井面、テーブルや治具、台の上面等に設置される構成であってもよい。以下では、説明の便宜上、ロボット20が設置されている面に直交する方向であって、ロボット20から当該面に向かう方向を下と称し、当該方向と反対の方向を上と称して説明する。ロボット20が設置されている面に直交する方向であって、ロボット20の重心から当該面に向かう方向は、例えば、ワールド座標系におけるZ軸の負方向、又はロボット座標系RCにおけるZ軸の負方向である。
ロボット20は、床面に設置された支持台Bと、可動部Aと、撮像部21を備える。また、可動部Aは、支持台Bによって図示しない第1軸AX1周りに回動可能に支持された第1アームA1と、第1アームA1によって図示しない第2軸AX2周りに回動可能に支持された第2アームA2と、第2アームA2によって図示しない第3軸AX3周りに回動可能且つ第3軸AX3の軸方向に並進可能に支持されたシャフト(作動軸)Sを備える。可動部Aは、アームの一例である。
シャフトSは、円柱形状の軸体である。シャフトSの周表面には、図示しないボールねじ溝とスプライン溝とがそれぞれ形成される。シャフトSは、第2アームA2の端部のうちの第1アームA1と反対側の端部を上下に貫通し、設けられている。また、シャフトSには、この一例において、シャフトSの端部のうちの上側の端部に当該円柱の半径よりも大きな半径の円盤形状のフランジが設けられている。当該円柱の中心軸は、当該フランジの中心軸と一致している。
シャフトSのフランジが設けられていない方の端部には、エンドエフェクターEが設けられている。エンドエフェクターEは、この一例において、物体を把持可能な指部を備えるエンドエフェクターである。なお、エンドエフェクターEは、当該指部を備えるエンドエフェクターに代えて、空気の吸引や磁力、治具等によって物体を持ち上げることが可能なエンドエフェクターや、他のエンドエフェクターであってもよい。
エンドエフェクターEは、ケーブルによってロボット制御装置30と通信可能に接続されている。これにより、エンドエフェクターEは、ロボット制御装置30から取得される制御信号に基づく動作を行う。なお、ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB(Universal Serial Bus)等の規格によって行われる。また、エンドエフェクターEは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
支持台Bは、床面に固定されている。支持台Bは、図示しない第1関節を備える。前述の第1軸AX1は、この第1関節の回動軸のことである。第1関節は、図示しないアクチュエーターを備え、ロボット制御装置30から取得する制御信号に基づいて第1アームA1を第1軸AX1周りに回動させる。第1関節は、ロボットが備えた関節の一例である。
第1アームA1は、第1軸AX1周りに回動するので、水平方向に移動する。水平方向は、この一例において、上下方向と直交する方向である。水平方向は、例えば、ワールド座標系におけるXY平面に沿った方向、又はロボット座標系RCにおけるXY平面に沿った方向である。
第2アームA2は、図示しない第2関節を備える。前述の第2軸AX2は、この第2関節の回動軸のことである。第2関節は、図示しないアクチュエーターを備え、ロボット制御装置30から取得する制御信号に基づいて第2アームA2を第2軸AX2周りに回動させる。第2関節は、ロボットが備えた関節の一例である。第2アームA2は、第2軸AX2周りに回動するので、水平方向に移動する。
また、第2アームA2は、図示しない上下動アクチュエーターと、図示しない回動アクチュエーターとを備えてシャフトSを支持する。上下動アクチュエーターは、シャフトSのボールねじ溝の外周部に設けられたボールねじナットをタイミングベルト等で回動させることにより、シャフトSを上下方向(すなわち、前述の第3軸AX3の軸方向)に移動(昇降)させる。回動アクチュエーターは、シャフトSのスプライン溝の外周部に設けられたボールスプラインナットをタイミングベルト等で回動させることにより、シャフトSの中心軸(すなわち、前述の第3軸AX3)周りにシャフトSを回動させる。
撮像部21は、例えば、集光された光を電気信号に変換する撮像素子であるCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等を備えたカメラである。この一例において、撮像部21は、第2アームA2に設けられる。そのため、撮像部21は、第2アームA2の動きに応じて移動する。また、撮像部21が撮像可能な領域(範囲)である撮像領域CAは、第2アームA2の動きに応じて変化する。撮像部21は、撮像領域CAの静止画像を撮像する構成であってもよく、撮像領域CAの動画像を撮像する構成であってもよい。以下では、一例として、撮像部21が上から下に向かって撮像領域CAを撮像するように第2アームA2に設けられている場合について説明する。なお、撮像部21は、これに代えて、他の方向に向かって撮像領域CAを撮像する構成であってもよい。また、撮像部21は、第2アームA2に設けられる構成に代えて、可動部Aの他の部位に設けられる構成であってもよい。
ロボット20が備える各アクチュエーター及び撮像部21のそれぞれは、ケーブルによってロボット制御装置30と通信可能に接続されている。これにより、当該各アクチュエーター及び撮像部21のそれぞれは、ロボット制御装置30から取得される制御信号に基づく動作を行う。なお、ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。また、当該アクチュエーター及び撮像部21のうちの一部又は全部は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
ロボット制御装置30は、ロボット20を動作させるコントローラーである。ロボット制御装置30は、ロボット20に制御信号を送信することにより、ロボット20を動作させる。これにより、ロボット制御装置30は、ロボット20に所定の作業を行わせる。なお、ロボット制御装置30は、この一例において、ロボット20と別体であるが、これに代えて、ロボット20に内蔵される構成であってもよい。この場合、ロボット制御装置30は、例えば、ロボット20の支持台Bに内蔵される。
<ロボットが行う所定の作業の概要>
以下、ロボット20が行う所定の作業の概要について説明する。
図1に示した例では、ロボット20がエンドエフェクターEにより作業することが可能な領域には、パレットPが配置されている。パレットPは、図2に示したように、複数の対象物Oのそれぞれを格納可能な複数の小領域であるセルを有する容器である。図2は、パレットPの一例を示す図である。
パレットPは、この一例において、16個のセルを有する。また、16個のセルのそれぞれは、図2に示したように、パレットPにおいて4×4の行列状に配置されている。以下では、説明の便宜上、当該行列における1行目の4個のセルを左から順にセルC11、セルC12、セルC13、セルC14と称し、当該行列における2行目の4個のセルを左から順にセルC21、セルC22、セルC23、セルC24と称し、当該行列における3行目の4個のセルを左から順にセルC31、セルC32、セルC33、セルC34と称し、当該行列における4行目の4個のセルを左から順にセルC41、セルC42、セルC43、セルC44と称して説明する。また、以下では、これらの16個のセルを区別する必要がない限り、まとめてセルCと称して説明する。
セルCそれぞれの内側には、対象物Oが1個ずつ配置されている。なお、セルCそれぞれの内側には、2個以上の対象物Oが配置されている構成であってもよい。また、図2に示した例では、セルCそれぞれの内側に配置されている対象物Oの数が同じ数であるが、これに代えて、セルCの一部又は全部のそれぞれの内側に配置されている対象物Oの数が互いに異なる数であってもよい。
この一例において、ロボット20は、パレットPが有するセルCのそれぞれに配置された対象物Oを1個ずつ把持し、把持した対象物Oを図示しない給材領域に載置する作業を所定の作業として行う。
<ロボット制御装置がロボットに所定の作業を行わせる処理の概要>
以下、ロボット制御装置30がロボット20に所定の作業を行わせる処理の概要について説明する。
この一例において、可動部Aの位置及び姿勢は、制御点Tの位置及び姿勢によって表される。制御点Tは、エンドエフェクターEに予め対応付けられた位置に設定された仮想的な点であってエンドエフェクターEとともに動く点である。エンドエフェクターEに予め対応付けられた位置は、例えば、エンドエフェクターEの重心の位置である。
制御点Tは、例えば、TCP(Tool Center Point)である。なお、制御点Tは、エンドエフェクターEに予め対応付けられた位置に代えて、エンドエフェクターEの他の部位の位置に設定される構成であってもよく、可動部Aの部位のうちのエンドエフェクターEと異なる部位に対応付けられた何らかの位置に設定される構成であってもよい。
制御点Tには、制御点Tの位置を示す情報である制御点位置情報と、制御点Tの姿勢を示す情報である制御点姿勢情報とが対応付けられている。当該位置は、ロボット座標系RCにおける位置である。当該姿勢は、ロボット座標系RCにおける姿勢である。なお、制御点Tには、これらに加えて、他の情報が対応付けられる構成であってもよい。制御点位置情報及び制御点姿勢情報をロボット制御装置30が指定(決定)すると、制御点Tの位置及び姿勢が決まる。当該位置及び姿勢は、ロボット座標系RCにおける位置及び姿勢である。ロボット制御装置30は、制御点位置情報及び制御点姿勢情報を指定する。ロボット制御装置30は、可動部Aを動作させ、ロボット制御装置30が指定した制御点位置情報が示す位置に制御点Tの位置を一致させるとともに、ロボット制御装置30が指定した制御点姿勢情報が示す姿勢に制御点Tの姿勢を一致させる。以下では、説明の便宜上、ロボット制御装置30が指定した制御点位置情報が示す位置を目標位置と称し、ロボット制御装置30が指定した制御点姿勢情報が示す姿勢を目標姿勢と称して説明する。すなわち、ロボット制御装置30は、制御点位置情報及び制御点姿勢情報を指定することにより、可動部Aを動作させ、制御点Tの位置及び姿勢を目標位置及び目標姿勢と一致させる。
この一例において、制御点Tの位置は、制御点座標系TCの原点のロボット座標系RCにおける位置によって表される。また、制御点Tの姿勢は、制御点座標系TCの各座標軸のロボット座標系RCにおける方向によって表される。制御点座標系TCは、制御点Tとともに動くように制御点Tに対応付けられた三次元局所座標系である。
ロボット制御装置30は、ユーザーから予め入力された制御点設定情報に基づいて制御点Tを設定する。制御点設定情報は、例えば、エンドエフェクターEの重心の位置及び姿勢と制御点Tの位置及び姿勢との相対的な位置及び姿勢を示す情報である。なお、制御点設定情報は、これに代えて、エンドエフェクターEに対応付けられた何らかの位置及び姿勢と制御点Tの位置及び姿勢との相対的な位置及び姿勢を示す情報であってもよく、可動部Aの部位のうちエンドエフェクターEと異なる部位に対応付けられた何らかの位置及び姿勢と制御点Tの位置及び姿勢との相対的な位置及び姿勢を示す情報であってもよい。
また、この一例において、前述のパレットPが有するセルCのそれぞれには、セルCの内側に配置された対象物Oを撮像部21が撮像する位置である撮像位置が対応付けられている。撮像位置のそれぞれは、各セルCの内側に配置された対象物Oを撮像部21が撮像する際における可動部Aの位置のそれぞれである。あるセルCの内側に配置された対象物Oを撮像部21が撮像する撮像位置は、当該セルCを上から下に向かって見た場合における当該セルCの図心を撮像部21の光軸が通る位置であり、且つ当該セルCにおいて当該対象物Oが配置された面から撮像部21の撮像レンズまでの距離が所定距離離れた位置である。当該所定距離は、当該セルCを上から下に向かって見た場合における当該セルCの全体が撮像領域CA内に含まれる距離であれば、如何なる距離であってもよい。
ここで、ロボット制御装置30は、撮像部21が撮像可能な撮像領域CA内における所定領域SWを、前述の撮像位置のそれぞれに可動部Aを移動するたびに対象物Oに基づく領域のそれぞれと一致させ、撮像位置において撮像部21により対象物Oが撮像された撮像画像に基づいて対象物Oに関する情報を検出し、検出した当該情報に基づいて対象物Oをロボット20に把持させる。換言すると、ロボット制御装置30は、所定領域SWを、複数の対象物Oのそれぞれを撮像する位置に可動部Aを移動した場合において撮像部21により撮像された撮像画像の画像領域のうち対象物Oを含む画像領域(又は当該画像領域よりも小さい領域)と一致させ、複数の対象物Oのそれぞれを撮像する位置において撮像部21により対象物Oが撮像された撮像画像に基づいて対象物Oに関する情報を検出し、検出した当該情報に基づいて対象物Oをロボット20に把持させる。これにより、ロボット制御装置30は、対象物Oに関する情報の検出精度の低下を抑制することができる。その結果、ロボット20は、対象物Oに関する情報に基づく作業(この一例において、所定の作業)を精度よく行うことができる。ロボット20が対象物Oを把持した後、ロボット制御装置30は、ロボット20を動作させ、対象物Oを図示しない給材領域に載置する。
ある対象物Oに基づく領域は、この一例において、当該対象物Oが配置されたセルCの内側の領域のことである。なお、以下の説明において、ある対象物Oに基づく領域は、前述のように、撮像部21により当該対象物Oが撮像された撮像画像の画像領域のうち当該対象物Oを含む画像領域であってもよい。この場合、撮像部21により当該対象物Oが撮像された撮像画像の画像領域のうち当該対象物Oを含む画像領域は、当該撮像画像の画像領域のうち当該セルCの内側の画像領域である。また、この一例において、所定領域SWが対象物Oに基づく領域と一致するとは、所定領域SWの形状と対象物Oに基づく領域の形状とが一致することを意味する。すなわち、所定領域SWの形状は、対象物Oに基づく領域の形状に対応する形状である。なお、ロボット制御装置30は、所定領域SWを、撮像位置のそれぞれに可動部Aを移動するたびに対象物Oに基づく領域よりも小さい領域のそれぞれと一致させる構成であってもよい。この場合、ある対象物Oに基づく領域よりも小さい領域は、少なくとも当該対象物Oが配置されたセルCの内側の領域のうち当該対象物Oを上から下に向かって見た場合における当該対象物Oの全体を含む領域である。また、ある対象物Oに基づく領域は、当該対象物Oが配置されたセルCの内側の領域である構成に代えて、対象物Oに基づく他の領域である構成であってもよい。
所定領域SWは、この一例において、撮像部21の撮像素子上において撮像素子の少なくとも一部を含むように設定される領域である。換言すると、所定領域SWは、撮像部10により撮像された撮像画像上の少なくとも一部を含むように設定される領域である。具体的には、所定領域SWは、例えば、撮像部21により撮像された撮像画像上における領域のうちロボット制御装置30が予め決められた処理を行う領域(サーチウィンドウ)である。なお、所定領域SWは、当該領域に代えて、撮像素子上において撮像素子の一部を含むように設定される他の領域であってもよい。
対象物Oに関する情報は、この一例において、対象物Oの位置及び姿勢である。なお、対象物Oに関する情報は、これに代えて、対象物Oの表面の状態を示す情報、対象物Oの形状を示す情報、対象物Oが良品であるか不良品であるかを示す情報等の対象物Oに関する他の情報であってもよい。例えば、ある対象物Oに関する情報が、当該対象物Oが良品であるか不良品であるかを示す情報である場合、ロボット制御装置30は、当該対象物Oが良品である場合に当該対象物Oをロボット20に把持させる。この場合、当該対象物Oの位置及び姿勢は、ロボット制御装置30に予め記憶される。
ロボット制御装置30は、検出した対象物Oに関する情報(この一例において、対象物Oの位置及び姿勢)に基づいて対象物Oをロボット20に把持させる。そして、ロボット制御装置30は、ロボット20を動作させ、対象物Oを図示しない給材領域に載置する。なお、ロボット制御装置30には、給材領域の位置を示す情報が予め記憶されている。
<ロボット制御装置のハードウェア構成>
以下、図3を参照し、ロボット制御装置30のハードウェア構成について説明する。図3は、ロボット制御装置30のハードウェア構成の一例を示す図である。ロボット制御装置30は、例えば、CPU(Central Processing Unit)31と、記憶部32と、入力受付部33と、通信部34と、表示部35を備える。これらの構成要素は、バスBusを介して相互に通信可能に接続されている。また、ロボット制御装置30は、通信部34を介してロボット20と通信を行う。
CPU31は、記憶部32に格納された各種プログラムを実行する。
記憶部32は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、ROM(Read−Only Memory)、RAM(Random Access Memory)等を含む。なお、記憶部32は、ロボット制御装置30に内蔵されるものに代えて、USB等のデジタル入出力ポート等によって接続された外付け型の記憶装置であってもよい。記憶部32は、ロボット制御装置30が処理する各種情報や画像、プログラム等を格納する。
入力受付部33は、例えば、キーボード、マウス、タッチパッド等を備えたティーチングペンダントや、その他の入力装置である。なお、入力受付部33は、タッチパネルとして表示部35と一体に構成されてもよい。
通信部34は、例えば、USB等のデジタル入出力ポートやイーサネット(登録商標)ポート等を含んで構成される。
表示部35は、例えば、液晶ディスプレイパネル、あるいは、有機EL(ElectroLuminescence)ディスプレイパネルである。
<ロボット制御装置の機能構成>
以下、図4を参照し、ロボット制御装置30の機能構成について説明する。図4は、ロボット制御装置30の機能構成の一例を示す図である。ロボット制御装置30は、記憶部32と、表示部35と、制御部36を備える。
制御部36は、ロボット制御装置30の全体を制御する。制御部36は、撮像制御部40と、画像取得部42と、所定領域設定部46と、ロボット制御部48と、対象物情報検出部49と、表示制御部50を備える。制御部36が備えるこれらの機能部は、例えば、CPU31が、記憶部32に記憶された各種プログラムを実行することにより実現される。また、これらの機能部のうち一部又は全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。
撮像制御部40は、撮像部21が撮像可能な撮像領域CAを撮像部21に撮像させる。
画像取得部42は、撮像部21が撮像した撮像画像を撮像部21から取得する。
所定領域設定部46は、ロボット20が備える関節(すなわち、この一例において、第1関節及び第2関節)毎の角度である第1角度に応じて撮像部21の撮像素子上に所定領域SWを設定する。
ロボット制御部48は、ロボット20を動作させる。
対象物情報検出部49は、画像取得部42が撮像部21から取得した撮像画像に基づいて、当該撮像画像に含まれる対象物Oに関する情報を検出する。この一例において、対象物情報検出部49は、当該撮像画像に基づいて、当該対象物Oの位置及び姿勢を、当該情報として検出(算出)する。
表示制御部50は、表示部35に表示する各種の画面を生成する。表示制御部50は、生成した画面を表示部35に表示させる。
<ロボット制御装置がロボットに所定の作業を行わせる処理を行うための初期設定>
以下、ロボット制御装置30がロボット20に所定の作業を行わせる処理を行うための初期設定について説明する。
ロボット制御装置30は、ユーザーにより受け付けられた操作に基づいて、制御点Tの位置及び姿勢をユーザーが所望する初期位置及び初期姿勢と一致させる。ユーザーが所望する初期位置及び初期姿勢は、この一例において、ロボット20が所定の作業を行う際、制御点Tの位置を最初に一致させる位置、及び制御点Tの姿勢を当該位置において最初に一致させる姿勢のことである。以下では、一例として、ユーザーが所望する初期位置及び初期姿勢が、撮像部21により撮像可能な撮像領域CAにおける所定領域SWと、パレットPが有するセルCのうちのユーザーが所望するセルCとが一致する場合における制御点Tの位置及び姿勢である場合について説明する。また、以下では、ユーザーが所望するセルCが、図2に示したセルC24である場合について説明する。なお、ユーザーが所望する初期位置及び初期姿勢は、所定領域SWと、セルC24とが一致する場合における制御点Tの位置及び姿勢に代えて、他の位置及び姿勢であってもよい。また、ユーザーが所望するセルCは、セルC24に代えて、他のセルCであってもよい。
ここで、制御点Tの位置及び姿勢をユーザーが所望する初期位置及び初期姿勢と一致させる際、所定領域設定部46は、撮像部21の撮像素子上における予め決められた範囲であるデフォルト領域に所定領域SWを設定する。所定領域設定部46は、例えば、ユーザーから予め受け付けた操作に基づいてデフォルト領域を特定する構成であるが、これに代えて、撮像部10により撮像された撮像画像に基づいて検出されたセルCの内側の領域をデフォルト領域として特定する等の他の方法によってデフォルト領域を特定する構成であってもよい。なお、所定領域設定部46は、制御点Tの位置及び姿勢をユーザーが所望する初期位置及び初期姿勢と一致させる際、ユーザーから受け付けた操作に基づいて所定領域SWを撮像部21の撮像素子上に設定する構成であってもよい。
図5は、制御点Tの位置及び姿勢が初期位置姿勢X11と一致している状態における撮像領域CA及び所定領域SWと、当該状態におけるロボット20との様子の一例を示す図である。図5では、当該状態における撮像領域CAに含まれる範囲と、当該撮像領域CAにおける所定領域SWに含まれる範囲とを二点鎖線によって表している。図5に示したように、当該状態では、所定領域SWとセルC24の内側の領域とが一致している。
ユーザーは、図5に示した状態において、現在の制御点Tの位置及び姿勢、すなわち初期位置姿勢X11をロボット制御装置30に教示する。換言すると、ロボット制御装置30は、当該状態において、ユーザーから受け付けた操作に基づいて、初期位置姿勢X11を示す初期位置姿勢情報を記憶部32に記憶させる。この際、ロボット制御装置30は、可動部Aが備える関節(すなわち、この一例において、第1関節及び第2関節)毎の角度である第1角度を示す情報を初期角度情報として初期位置姿勢X11に対応付けて記憶部32に記憶させる。
図6は、ロボット制御装置30が初期位置姿勢情報を記憶部32に記憶させる処理(すなわち、初期設定の処理)の流れの一例を示す図である。
ロボット制御部48は、ユーザーから受け付けた操作に基づいてロボット20を動作させ、制御点Tの位置及び姿勢を初期位置姿勢X11と一致させる(ステップS50)。ユーザーが制御点Tの位置及び姿勢を初期位置姿勢X11と一致させる方法は、ティーチングペンダントによるジョグ操作等の既知の方法であってもよく、これから開発される方法であってもよい。ここで、ステップS50の処理について説明する。
ステップS50において、例えば、撮像制御部40は、所定時間が経過する毎に撮像部21に撮像領域CAを撮像させる。そして、表示制御部50は、撮像部21により撮像された撮像画像を表示部35に表示させる。この際、表示制御部50は、表示部35に表示された撮像画像のうち所定領域設定部46により撮像部21の撮像素子上に設定された所定領域SWに含まれる範囲を示す枠を当該撮像画像上に重畳する。これにより、ユーザーは、表示部35に表示された当該撮像画像及び当該枠を見ながら、ユーザーが所望するセルC(この一例において、セルC24)の内側の領域の輪郭が当該枠と一致するか否かを判定することにより、所定領域SWと当該セルCの内側の領域とが一致したか否かを判定することができる。所定時間は、例えば、1/60秒である。なお、所定時間は、これに代えて、他の時間であってもよい。図7は、表示部35に表示された撮像画像と、当該撮像画像のうち撮像部21の撮像素子上に設定された所定領域SWに含まれる範囲を示す枠との一例を示す図である。
図7に示した画面MPは、表示制御部50が生成した画面であり、撮像部21により撮像された撮像画像CPを表示部35に表示する画面である。図7に示した撮像画像CPは、表示部35に表示された撮像画像の一例である。また、図7に示した枠SWAは、撮像画像CPのうち撮像部21の撮像素子上に設定された所定領域に含まれる範囲を示す枠の一例である。図7に示した例では、撮像画像CPに含まれるセルC24の内側の領域の輪郭と、枠SWAとが一致している。前述の初期位置姿勢X11は、図7に示したように、撮像画像CPに含まれるセルC24の内側の領域の輪郭と、枠SWAとが一致した状態における制御点Tの位置及び姿勢である。すなわち、ユーザーは、ステップS50において、表示部35に表示された画面MPを見ながら制御点Tの位置及び姿勢を移動(変化)させ、当該セルC24の内側の領域の輪郭と枠SWAとを一致させる。
ステップS50の処理が行われた後、ロボット制御部48は、ユーザーから受け付けた操作に基づいて、現在の制御点Tの位置及び姿勢を示す情報を、初期位置姿勢情報として記憶部32に記憶させる。この際、ロボット制御部48は、現在のロボット20が備える関節、すなわち第1関節及び第2関節のそれぞれ毎の第1角度を示す情報を初期角度情報として初期位置姿勢情報に対応付けて記憶部32に記憶させ(ステップS60)、処理を終了する。ここで、図8を参照し、ステップS60の処理について説明する。
図8は、ステップS60の処理を説明するための図である。図8に示した支持台B、第1アームA1、第2アームA2のそれぞれは、制御点Tの位置及び姿勢が初期位置姿勢X11と一致している状態における支持台B、第1アームA1、第2アームA2である。ロボット20が備える関節のうちのある関節の第1角度は、当該関節に対応付けられた第1基準方向に対する角度である。すなわち、ロボット20が備える第1関節及び第2関節のそれぞれには、第1基準方向が対応付けられている。この一例において、第1基準方向は、図8に示したロボット座標系RCにおけるX軸の正方向である。なお、第1基準方向は、これに代えて、他の方向であってもよい。そして、ロボット20が備える関節のうちのある関節の第1角度は、ロボット20を上から下に向かって見た場合における時計回りを正、当該場合における反時計回りを負とした場合の当該関節の角度である。また、第1関節の第1角度は、この一例において、第1関節の回動軸である第1軸AX1から第2関節の回動軸である第2軸AX2に向かう直線(図8における直線X1)の第1基準方向に対する角度である。すなわち、図8に示した例において、第1関節の第1角度は、第1角度θ1である。ここで、図8に示した補助線VX1は、第1基準方向を示すための補助線である。また、第2関節の第1角度は、この一例において、第2関節の回動軸である第2軸AX2からシャフトSの中心軸(すなわち、第3軸AX3)に向かう直線(図8における直線X2)の第1基準方向に対する角度である。すなわち、図8に示した例において、第2関節の第1角度は、第1角度θ2である。ここで、図8に示した補助線VX2は、第1基準方向を示すための補助線である。
すなわち、ロボット制御部48は、ユーザーから受け付けた操作に基づいて、第1角度θ1及び第1角度θ2のそれぞれを示す情報を初期角度情報として前述の初期位置姿勢情報に対応付けて記憶部32に記憶させる。当該操作は、例えば、図7に示した画面MPに含まれるGUI(Graphical User Interface)からロボット制御部48が受け付けてもよく、ティーチングペンダント等の他の装置からロボット制御部48が受け付ける構成であってもよい。
このようにしてロボット制御装置30は、ロボット制御装置30がロボット20に所定の作業を行わせる処理を行うための初期設定として、初期角度情報が対応付けられた初期位置姿勢情報を記憶部32に記憶させる。そして、ロボット制御装置30は、記憶部32に記憶された当該初期位置姿勢情報と、以下において説明する処理とによって、撮像部21が撮像可能な撮像領域CA内における所定領域SWを、前述の撮像位置のそれぞれに可動部Aを移動するたびに対象物Oに基づく領域のそれぞれと一致させることができる。
<初期位置姿勢情報に基づくロボット制御装置の処理>
以下、図6に示したフローチャートの処理によって記憶部32に記憶された初期位置姿勢情報に基づくロボット制御装置30の処理について説明する。
ロボット制御装置30は、記憶部32に予め記憶された初期位置姿勢情報を記憶部32から読み出す。また、ロボット制御装置30は、記憶部32に予め記憶された撮像位置情報を記憶部32から読み出す。撮像位置情報は、前述の撮像位置を示す情報である。また、撮像位置情報は、初期位置姿勢情報が示す初期位置姿勢X11のうちの初期位置から各撮像位置までの相対的な位置を示す情報である。
ロボット制御装置30は、ロボット20を動作させ、読み出した撮像位置情報が示す複数の撮像位置のそれぞれを1つずつ選択し、読み出した初期位置姿勢情報が示す初期位置姿勢X11に基づいて、選択した撮像位置と制御点Tの位置とを一致させる。ここでは、図9に示したように、ロボット制御装置30が制御点Tの位置を、セルC23を撮像部21が撮像する撮像位置と一致させた場合を例に挙げて説明する。図9は、制御点Tの位置がセルC23を撮像部21が撮像する撮像位置と一致している状態における撮像領域CA及び所定領域SWと、当該状態におけるロボット20との様子の一例を示す図である。図9では、当該状態における撮像領域CAに含まれる範囲と、当該撮像領域CAにおける所定領域SWに含まれる範囲とを二点鎖線によって表している。
図9に示したように、当該状態では、所定領域SWとセルC23の内側の領域とが一致している。これは、ロボット制御装置30が、記憶部32から読み出した初期位置姿勢情報に対応付けられた初期角度情報が示す第1角度に基づいて、撮像部21の撮像素子上における所定領域SWの撮像領域CAに対する相対的な角度(姿勢)を変化させた結果である。ロボット制御装置30は、このように当該角度を変化させることにより、所定領域SWを、撮像位置情報が示す複数の撮像位置のそれぞれに可動部Aを移動するたびに対象物Oに基づく領域のそれぞれと一致させる。
以下、ロボット制御装置30が、初期角度情報が示す第1角度に基づいて、撮像部21の撮像素子上における所定領域SWの撮像領域CAに対する相対的な角度を変化させる方法について説明する。図10は、図9に示した状態における第1関節及び第2関節それぞれの第1角度と、所定領域SWの撮像領域CAに対する相対的な角度とを例示する図である。
図10に示した支持台B、第1アームA1、第2アームA2のそれぞれは、制御点Tの位置がセルC23を撮像部21が撮像する撮像位置と一致している状態における支持台B、第1アームA1、第2アームA2である。図10に示した例では、第1関節の第1角度は、第1角度θ’1である。ここで、図10に示した補助線VX3は、第1基準方向を示すための補助線である。また、第2関節の第1角度は、第1角度θ’2である。ここで、図11に示した補助線VX4は、第1基準方向を示すための補助線である。
ここで、この一例において、撮像部21には、撮像部21とともに動く撮像部座標系CACが対応付けられている。また、撮像部座標系CACにおけるY軸の正方向は、直線X2の方向と一致している。以下では、説明の便宜上、当該正方向を第2基準方向と称して説明する。すなわち、撮像部21には、第2基準方向が対応付けられている。この第2基準方向は、撮像部21とともに動くため、撮像領域CAに対応付けられていると換言することができる。
また、所定領域SWには、撮像部21の撮像素子上の点であって当該撮像素子上において所定領域SWに対応付けられた点とともに動く所定領域座標系SWCが対応付けられている。この一例において、所定領域SWの形状が長方形状であるため、当該点は、当該撮像素子上の位置のうち所定領域SWの図心の位置に対応付けられている。なお、当該点は、当該撮像素子上の位置のうち所定領域SWに対応付けられた他の位置に対応付けられている構成であってもよい。また、所定領域座標系SWCにおけるY軸の正方向は、制御点Tの位置及び姿勢が初期位置姿勢X11と一致している状態において、撮像部座標系CACにおけるY軸の正方向と一致している。以下では、説明の便宜上、所定領域座標系SWCにおけるY軸の正方向を第3基準方向と称して説明する。すなわち、所定領域SWには、第3基準方向が対応付けられている。
第3基準方向は、制御点Tの位置及び姿勢が初期位置姿勢X11と一致している状態から制御点Tの位置及び姿勢が初期位置姿勢X11と一致していない状態に変化すると、第1関節及び第2関節それぞれの第1角度に基づく方向を向く。以下では、説明の便宜上、第2基準方向と第3基準方向との間の角度を第2角度と称して説明する。図10に示した第2角度αは、このような第2角度の一例である。
可動部Aの動作に伴う第2角度αは、図10に示した状態における第1角度θ’1、第1角度θ’2のそれぞれと、初期角度情報が示す第1角度θ1、第1角度θ2のそれぞれとに基づいて、以下の式(1)に基づいて算出される。
α=(θ1+θ2)−(θ’1+θ’2) ・・・(1)
所定領域設定部46は、図10に示した状態における第1角度θ’1、第1角度θ’2のそれぞれと、初期角度情報が示す第1角度θ1、第1角度θ2のそれぞれと、上記の式(1)とに基づいて第2角度αを算出する。そして、所定領域設定部46は、算出した第2角度αに基づいて、撮像部10の撮像素子上において、前述したデフォルト領域の図心(すなわち、所定領域SWの図心)を中心としてデフォルト領域を第2角度α回転させた領域を所定領域SWとして設定する。これにより、ロボット制御装置30は、第2角度αの変化において、第3基準方向を変化させない(保持する)。
第3基準方向が変化しないように第2角度αを所定領域設定部46が変化させることにより、表示部35に表示された画面MP上では、図11に示したように、撮像画像CPの輪郭が動かないため、所定領域SWに含まれる範囲を示す枠SWAの当該輪郭に対する角度が変化する。図11は、表示部35に表示された撮像画像と、当該撮像画像のうち撮像部21の撮像素子上に設定された所定領域SWに含まれる範囲を示す枠との他の例を示す図である。前述したように、図11に示した例では、撮像画像CPに含まれるセルC23の内側の領域の輪郭と、枠SWAとが一致している。すなわち、ロボット制御装置30は、第2角度αを変化させることにより、所定領域SWを、撮像位置情報が示す複数の撮像位置のそれぞれに可動部Aを移動するたびに対象物Oに基づく領域のそれぞれと一致させる。また、ユーザーは、表示部35に表示された撮像画像CP及び枠SWAを見ることにより、撮像位置情報が示す複数の撮像位置のそれぞれに可動部Aが移動するたびに対象物Oに基づく領域のそれぞれと所定領域SWとが一致することを確認することができる。
なお、ロボット制御装置30は、第2角度αの変化に応じて第3基準方向を変化させる構成であってもよい。この場合、第2角度αは、以下に示した式(2)に基づいて算出される。
α=k((θ1+θ2)−(θ’1+θ’2)) ・・・(2)
ここで、kは、所定のゲインである。すなわち、ロボット制御装置30は、第1角度θ1及び第1角度θ2と、ゲインとに応じて、第2角度αを変化させる。なお、kは、定数であってもよく、第1角度θ1と第1角度θ2との少なくとも一方の関数であってもよい。上記の式(2)を用いて第2角度αを算出する構成は、例えば、パレットPが有するセルCがパレットPの中心から放射状に並んでいる場合等に適用される。
<ロボット制御装置がロボットに所定の作業を行わせる処理>
以下、ロボット制御装置30がロボット20に所定の作業を行わせる処理について説明する。図12は、ロボット制御装置30がロボット20に所定の作業を行わせる処理の流れの一例を示す図である。
ロボット制御部48は、現在のロボット制御装置30の動作モードが第1モードであるか否かを判定する(ステップS100)。ここで、ステップS100の処理について説明する。ロボット制御装置30の動作モードは、第1モードと第2モードの2つのモードのいずれかに切り替えることができる。すなわち、ロボット20は、第1モードと第2モードとのいずれかの動作モードで動作可能である。
第1モードは、この一例において、第1角度θ1及び第1角度θ2に基づいて第2角度αを変化させる動作モードである。第2モードは、この一例において、第2角度αを0°から変化させない動作モードである。すなわち、第2モードは、所定領域SWがデフォルト領域のまま保持される動作モードである。
ロボット制御部48は、例えば、図7に示した画面MPから動作モードを切り替える操作をユーザーから受け付け、受け付けた当該操作に基づいて動作モードを第1モードと第2モードとのいずれかに切り替える。なお、ロボット制御部48は、他の方法によって動作モードを第1モードと第2モードとのいずれかに切り替える構成であってもよい。また、ロボット制御装置30の動作モードは、第1モード及び第2モード以外の他の動作モードを含む構成であってもよい。
現在のロボット制御装置30の動作モードが第1モードであると判定した場合(ステップS100−YES)、ロボット制御部48は、記憶部32に予め記憶された初期位置姿勢情報及び撮像位置情報を記憶部32から読み出す。そして、ロボット制御部48は、読み出した撮像位置情報が示す複数の撮像位置を1つずつ選択し、選択した撮像位置毎にステップS120〜ステップS180の処理を繰り返し行う(ステップS110)。
ステップS110において撮像位置が選択された後、ロボット制御部48は、可動部Aを動作させ、ステップS110において読み出した初期位置姿勢情報に基づいて、ステップS110において選択された撮像位置と制御点Tの位置とを一致させる(ステップS120)。
次に、所定領域設定部46は、現在の第1関節の第1角度θ1と、現在の第2関節の第1角度θ2とのそれぞれを示す情報を、第1関節が備えるアクチュエーター及び第2関節が備えるアクチュエーターそれぞれのエンコーダーから取得する。そして、所定領域設定部46は、取得した当該情報が示す第1角度θ1及び第1角度θ2と、ステップS110において読み出した初期位置姿勢情報に対応付けられた初期角度情報が示す第1角度θ’1及び第1角度θ’2と、上記の式(1)とに基づいて、第2角度αを算出する(ステップS130)。
次に、所定領域設定部46は、ステップS130において算出した第2角度αに基づいて、撮像部21の撮像素子上に所定領域SWを設定する(ステップS140)。次に、撮像制御部40は、撮像部21に撮像領域CAを撮像させる(ステップS150)。次に、画像取得部42は、ステップS150において撮像部21が撮像した撮像画像を撮像部21から取得する(ステップS160)。
次に、対象物情報検出部49は、ステップS160において画像取得部42が撮像部21から取得した撮像画像に基づいて、当該撮像画像に含まれる対象物Oの位置及び姿勢を検出(算出)する(ステップS170)。対象物情報検出部49は、既知の方法によって当該対象物Oの位置及び姿勢を検出する構成であってもよく、これから開発される方法によって当該対象物Oの位置及び姿勢を検出する構成であってもよい。
次に、ロボット制御部48は、ステップS170において検出された対象物Oの位置及び姿勢に基づいて可動部Aを動作させ、対象物Oをロボット20に把持させる。そして、ロボット制御部48は、可動部Aを動作させ、ロボット20に把持された対象物Oをロボット20に図示しない給材領域へ載置させる(ステップS180)。その後、ロボット制御部48は、ステップS110において未選択の撮像位置がある場合、ステップS110に遷移し、未選択の撮像位置の中から撮像位置を1つ選択する。一方、ロボット制御部48は、ステップS110において未選択の撮像位置がない場合、処理を終了する。
一方、ステップS100において現在のロボット制御装置30の動作モードが第1モードではないと判定した場合(ステップS100−NO)、ロボット制御部48は、ロボット制御装置30の動作モードが第2モードであると判定し、記憶部32に予め記憶された初期位置姿勢情報及び撮像位置情報を記憶部32から読み出す。そして、ロボット制御部48は、読み出した撮像位置情報が示す複数の撮像位置を1つずつ選択し、選択した撮像位置毎にステップS200〜ステップS240の処理を繰り返し行う(ステップS190)。
ステップS190において撮像位置が選択された後、ロボット制御部48は、可動部Aを動作させ、ステップS190において読み出した初期位置姿勢情報に基づいて、ステップS190において選択された撮像位置と制御点Tの位置とを一致させる(ステップS200)。ここで、図13を参照し、ステップS200の処理について説明する。
以下では、ステップS200において、ロボット制御部48が制御点Tの位置を、セルC23を撮像部21が撮像する撮像位置と一致させた場合を例に挙げて説明する。図13は、制御点Tの位置及び姿勢がセルC23を撮像部21が撮像する撮像位置と一致している状態における撮像領域CA及び所定領域SWと、当該状態におけるロボット20との様子の一例を示す図である。図13では、当該状態における撮像領域CAに含まれる範囲と、当該撮像領域CAにおける所定領域SWに含まれる範囲とを二点鎖線によって表している。図13に示したように、当該状態では、所定領域SWとセルC23の内側の領域とが一致していない。これは、ロボット制御装置30の動作モードが第2モードであるため、所定領域SWがデフォルト領域のまま保持されているからである。
ステップS200の処理が行われた後、撮像制御部40は、撮像部21に撮像領域CAを撮像させる(ステップS210)。次に、画像取得部42は、ステップS210において撮像部21が撮像した撮像画像を撮像部21から取得する(ステップS220)。
次に、対象物情報検出部49は、ステップS220において画像取得部42が撮像部21から取得した撮像画像に基づいて、当該撮像画像に含まれる対象物Oの位置及び姿勢を検出(算出)する(ステップS230)。対象物情報検出部49は、既知の方法によって当該対象物Oの位置及び姿勢を検出する構成であってもよく、これから開発される方法によって当該対象物Oの位置及び姿勢を検出する構成であってもよい。
次に、ロボット制御部48は、ステップS230において検出された対象物Oの位置及び姿勢に基づいて可動部Aを動作させ、対象物Oをロボット20に把持させる。そして、ロボット制御部48は、可動部Aを動作させ、ロボット20に把持された対象物Oをロボット20に図示しない給材領域へ載置させる(ステップS240)。その後、ロボット制御部48は、ステップS190において未選択の撮像位置がある場合、ステップS190に遷移し、未選択の撮像位置の中から撮像位置を1つ選択する。一方、ロボット制御部48は、ステップS190において未選択の撮像位置がない場合、処理を終了する。
以上説明したように、実施形態におけるロボット20は、アーム(この一例において、可動部A)に設けられた撮像部(この一例において、撮像部21)が撮像可能な撮像領域(この一例において、撮像領域CA)内における所定領域(この一例において、所定領域SW)が、複数の対象物(この一例において、対象物O)のそれぞれを撮像する位置にアームを移動した場合において撮像部により撮像された撮像画像の画像領域のうち対象物を含む画像領域(この一例において、撮像画像の画像領域のうちセルCの内側の画像領域)又は当該画像領域よりも小さい領域と一致し、複数の対象物のそれぞれを撮像する位置において撮像部により対象物が撮像された撮像画像に基づいて対象物に関する情報(この一例において、対象物Oの位置及び姿勢)を検出し、検出した当該情報に基づいて対象物を把持する。これにより、ロボット20は、対象物に関する情報に基づく作業を精度よく行うことができる。
また、ロボット20は、アームに設けられた撮像部が撮像可能な撮像領域内における所定領域が、撮像部により撮像された撮像画像の画像領域のうちパレット(この一例において、パレットP)内のセル(この一例において、セルC)の内側の画像領域又は当該画像領域よりも小さい領域と一致し、複数の対象物のそれぞれを撮像する位置において撮像部により対象物が撮像された撮像画像に基づいて対象物に関する情報を検出し、検出した当該情報に基づいて対象物を把持する。これにより、ロボット20は、パレット内のセルのそれぞれに配置された対象物に関する情報に基づく作業を精度よく行うことができる。
また、ロボット20では、ロボット20が備えた関節(この一例において、第1関節及び第2関節)毎の角度である第1角度(この一例において、第1角度θ1及び第1角度θ2)に応じて、所定領域の角度である第2角度(この一例において、第2角度α)が変化する。これにより、ロボット20は、ロボット20が備えた関節毎の角度である第1角度に基づいて、対象物に関する情報に基づく作業を精度よく行うことができる。
また、ロボット20では、第2角度の変化において、第3基準方向が変化しない。これにより、ロボット20は、ロボットが備えた関節毎に対応付けられた第1基準方向に対する角度であって当該関節毎の角度であるである第1角度に基づいて、対象物に関する情報に基づく作業を精度よく行うことができる。
また、ロボット20は、ロボット20が備えた関節毎に対応付けられた第1基準方向に対する角度であって当該関節毎の角度であるである第1角度とゲインとに基づいて、対象物に関する情報に基づく作業を精度よく行うことができる。
また、ロボット20は、第1角度に応じて第2角度が変化する第1モードと、第1角度に応じて第2角度が変化しない第2モードとの2つの動作モードによって動作可能である。これにより、ロボット20は、ユーザーが所望する動作モードによって、対象物に関する情報に基づく作業を精度よく行うことができる。
また、ロボット20では、所定領域の形状は、対象物を含む画像領域の形状又は当該画像領域よりも小さい領域の形状に対応する形状である。これにより、ロボット20は、対象物に基づく領域の形状又は当該領域よりも小さい領域の形状に対応する形状の所定領域に基づいて、対象物に関する情報に基づく作業を精度よく行うことができる。
また、ロボット20では、撮像画像が表示部に表示される場合、撮像画像とともに所定領域が表示部に表示される。これにより、ロボット20は、所定領域内に対象物が含まれているか否かをユーザーに確認させることができる。
また、ロボット制御装置30は、アームに設けられた撮像部が撮像可能な撮像領域内における所定領域を、複数の対象物のそれぞれを撮像する位置にアームを移動した場合において撮像部により撮像された撮像画像の画像領域のうち対象物を含む画像領域又は当該画像領域よりも小さい領域と一致させ、複数の対象物のそれぞれを撮像する位置において撮像部により対象物が撮像された撮像画像に基づいて対象物に関する情報を検出し、検出した当該情報に基づいて対象物をロボットに把持させる。これにより、ロボット制御装置30は、対象物に関する情報の検出精度の低下を抑制することができる。
以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない限り、変更、置換、削除等されてもよい。
また、以上に説明した装置(例えば、ロボット制御装置30)における任意の構成部の機能を実現するためのプログラムを、コンピューター読み取り可能な記録媒体に記録し、そのプログラムをコンピューターシステムに読み込ませて実行するようにしてもよい。なお、ここでいう「コンピューターシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD(Compact Disk)−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリー(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピューターシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピューターシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
1…ロボットシステム、20…ロボット、21…撮像部、30…ロボット制御装置、31…CPU、32…記憶部、33…入力受付部、34…通信部、35…表示部、36…制御部、40…撮像制御部、42…画像取得部、46…所定領域設定部、48…ロボット制御部、49…対象物情報検出部、50…表示制御部

Claims (10)

  1. アームを備え、
    前記アームに設けられた撮像部が撮像可能な撮像領域内における所定領域は、複数の対象物のそれぞれを撮像する位置に前記アームを移動した場合において前記撮像部により撮像された撮像画像の画像領域のうち前記対象物を含む前記画像領域又は当該画像領域よりも小さい領域と一致し、
    前記位置において前記撮像部により前記対象物が撮像された前記撮像画像に基づいて前記対象物に関する情報を検出し、検出した当該情報に基づいて前記対象物を把持する、
    ロボット。
  2. 前記複数の前記対象物のそれぞれは、パレット内のセルのそれぞれに配置されており、
    前記対象物を含む前記画像領域は、前記撮像画像の前記画像領域のうち前記セルの内側の画像領域である、
    請求項1に記載のロボット。
  3. ロボットが備えた関節毎の角度である第1角度の変化に応じて、前記所定領域の角度である第2角度が変化する、
    請求項1又は2に記載のロボット。
  4. 前記第1角度は、前記関節毎に対応付けられた第1基準方向に対する角度であり、
    前記第2角度は、前記撮像部に対応付けられた第2基準方向と、前記所定領域に対応付けられた第3基準方向との間の角度であり、
    前記第2角度の変化において、前記第3基準方向が変化しない、
    請求項3に記載のロボット。
  5. 前記第1角度は、前記関節毎に対応付けられた第1基準方向に対する角度であり、
    前記第2角度は、前記撮像部に対応付けられた第2基準方向と、前記所定領域に対応付けられた第3基準方向との間の角度であり、
    前記第1角度とゲインとに応じて、前記第2角度が変化する、
    請求項3に記載のロボット。
  6. 前記第1角度に応じて前記第2角度が変化する第1モードと、前記第1角度に応じて前記第2角度が変化しない第2モードとの2つの動作モードによって動作可能である、
    請求項3から5のうちいずれか一項に記載のロボット。
  7. 前記所定領域の形状は、前記対象物を含む前記画像領域の形状又は当該画像領域よりも小さい領域の形状に対応する形状である、
    請求項1から6のうちいずれか一項に記載のロボット。
  8. 前記撮像画像が表示部に表示される場合、前記撮像画像とともに前記所定領域が前記表示部に表示される、
    請求項1から7のうちいずれか一項に記載のロボット。
  9. 請求項1から8のうちいずれか一項に記載のロボットを制御する、
    ロボット制御装置。
  10. 請求項1から8のうちいずれか一項に記載のロボットと、
    前記ロボットを制御するロボット制御装置と、
    を備えるロボットシステム。
JP2016168977A 2016-08-31 2016-08-31 ロボット、ロボット制御装置、及びロボットシステム Pending JP2018034243A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016168977A JP2018034243A (ja) 2016-08-31 2016-08-31 ロボット、ロボット制御装置、及びロボットシステム
CN201710748979.4A CN107775638A (zh) 2016-08-31 2017-08-25 机器人、机器人控制装置及机器人系统
US15/689,603 US20180056517A1 (en) 2016-08-31 2017-08-29 Robot, robot control device, and robot system
EP17188306.9A EP3290164A3 (en) 2016-08-31 2017-08-29 Robot, robot control device, and robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016168977A JP2018034243A (ja) 2016-08-31 2016-08-31 ロボット、ロボット制御装置、及びロボットシステム

Publications (1)

Publication Number Publication Date
JP2018034243A true JP2018034243A (ja) 2018-03-08

Family

ID=59745757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016168977A Pending JP2018034243A (ja) 2016-08-31 2016-08-31 ロボット、ロボット制御装置、及びロボットシステム

Country Status (4)

Country Link
US (1) US20180056517A1 (ja)
EP (1) EP3290164A3 (ja)
JP (1) JP2018034243A (ja)
CN (1) CN107775638A (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7031540B2 (ja) * 2018-09-07 2022-03-08 オムロン株式会社 対象物認識装置、マニピュレータ、および移動ロボット
EP4079469A4 (en) * 2019-12-16 2023-09-13 FingerVision Co., Ltd. GRIPPER DEVICE, CONTROL METHOD AND PROGRAM
JP2022157882A (ja) * 2021-03-31 2022-10-14 セイコーエプソン株式会社 ロボットの制御方法、ロボットシステムおよびロボット制御プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2710850B2 (ja) * 1989-03-27 1998-02-10 キヤノン株式会社 ワーク把持装置、ワーク及びその収納ケース
JP3173042B2 (ja) * 1991-05-21 2001-06-04 ソニー株式会社 ロボットの数値制御装置
JP4835616B2 (ja) * 2008-03-10 2011-12-14 トヨタ自動車株式会社 動作教示システム及び動作教示方法
US20100063629A1 (en) * 2008-09-10 2010-03-11 Rixan Associates, Inc. System and method for recirculating parts
JP5468367B2 (ja) 2009-11-24 2014-04-09 Idec株式会社 ロボット制御方法およびロボット制御システム
JP2011209064A (ja) * 2010-03-29 2011-10-20 Fuji Xerox Co Ltd 物品認識装置及びこれを用いた物品処理装置
JP6576042B2 (ja) * 2015-01-14 2019-09-18 キヤノン株式会社 表示制御装置及びその方法、プログラム

Also Published As

Publication number Publication date
EP3290164A2 (en) 2018-03-07
EP3290164A3 (en) 2018-04-04
CN107775638A (zh) 2018-03-09
US20180056517A1 (en) 2018-03-01

Similar Documents

Publication Publication Date Title
CN105269578B (zh) 指示装置以及机器人系统
CN107414842B (zh) 控制装置、机器人以及机器人系统
JP4938115B2 (ja) ワーク取出し装置およびワーク取出し方法
JP2018051704A (ja) ロボット制御装置、ロボット、及びロボットシステム
JP2018034242A (ja) ロボット制御装置、ロボット、及びロボットシステム
JP2016185572A (ja) ロボット、ロボット制御装置およびロボットシステム
CN106926237A (zh) 机器人、机器人控制装置以及机器人系统
US20170203434A1 (en) Robot and robot system
JP2018034243A (ja) ロボット、ロボット制御装置、及びロボットシステム
JP2017170571A (ja) ロボット、ロボット制御装置、及びロボットシステム
JP2020168679A (ja) ロボットシステム及び撮像方法
US9533412B2 (en) Robot, robot system, robot control device and robot control method
CN106476015B (zh) 机器人、控制装置以及机器人系统
JP6488571B2 (ja) 教示装置、及びロボットシステム
JP2018122376A (ja) 画像処理装置、ロボット制御装置、及びロボット
JP2017219365A (ja) 位置姿勢算出装置、ロボット制御装置、及びロボット
JP6006103B2 (ja) ロボットの教示方法、搬送方法、および搬送システム
CN111745639A (zh) 信息处理方法及装置、物体检测装置以及机器人系统
CN109323668B (zh) 三维形状测定装置、机器人系统以及三维形状测定方法
JP2015157343A (ja) ロボット、ロボットシステム、制御装置、および制御方法
JP2016203282A (ja) エンドエフェクタの姿勢変更機構を備えたロボット
JP2015058488A (ja) ロボット制御システム、ロボット、ロボット制御方法及びプログラム
JP2019030935A (ja) ロボット制御装置、ロボット、ロボットシステム、及びロボット制御方法
JP2020123049A (ja) 寸法単位設定方法、情報処理装置、及びロボットシステム
CN115869069A (zh) 手术机器人控制方法、装置、设备、介质及系统

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180910