JP2020131296A - 制御装置及びプログラム - Google Patents

制御装置及びプログラム Download PDF

Info

Publication number
JP2020131296A
JP2020131296A JP2019023417A JP2019023417A JP2020131296A JP 2020131296 A JP2020131296 A JP 2020131296A JP 2019023417 A JP2019023417 A JP 2019023417A JP 2019023417 A JP2019023417 A JP 2019023417A JP 2020131296 A JP2020131296 A JP 2020131296A
Authority
JP
Japan
Prior art keywords
article
gripping
processor
input
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019023417A
Other languages
English (en)
Other versions
JP7204513B2 (ja
Inventor
優香 渡辺
Yuka Watanabe
優香 渡辺
健一 関谷
Kenichi Sekiya
健一 関谷
昌孝 佐藤
Masataka Sato
昌孝 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2019023417A priority Critical patent/JP7204513B2/ja
Priority to EP20755048.4A priority patent/EP3892427A4/en
Priority to PCT/JP2020/004835 priority patent/WO2020166509A1/ja
Publication of JP2020131296A publication Critical patent/JP2020131296A/ja
Priority to US17/443,852 priority patent/US20210354290A1/en
Application granted granted Critical
Publication of JP7204513B2 publication Critical patent/JP7204513B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/06Gripping heads and other end effectors with vacuum or magnetic holding means
    • B25J15/0616Gripping heads and other end effectors with vacuum or magnetic holding means with vacuum
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/06Gripping heads and other end effectors with vacuum or magnetic holding means
    • B25J15/0616Gripping heads and other end effectors with vacuum or magnetic holding means with vacuum
    • B25J15/0691Suction pad made out of porous material, e.g. sponge or foam
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39536Planning of hand motion, grasping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39542Plan grasp points, grip matrix and initial grasp force
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39557Vacuum gripper using mask with pattern corresponding to workpiece to be lifted
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39558Vacuum hand has selective gripper area
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45063Pick and place manipulator

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Dispersion Chemistry (AREA)
  • Manipulator (AREA)

Abstract

【課題】適切に把持計画を生成することができる制御装置及びプログラムを提供する。【解決手段】実施形態によれば、制御装置は、第1のインターフェースと、第2のインターフェースと、プロセッサと、第3のインターフェースと、を備える。第1のインターフェースは、物品を撮影した撮影画像を取得する。第2のインターフェースは、入出力装置とデータを送受信する。プロセッサは、前記撮影画像に基づく物品画像を前記入出力装置に表示させ、前記第2のインターフェースを通じて前記入出力装置から前記物品を把持する把持部の把持部モデルの位置及び角度の入力を受け付け、前記物品画像上に前記位置及び前記角度で前記把持部モデルを表示させ、前記位置及び角度に基づいて、前記把持部が前記物品を把持する把持位置及び把持角度を示す把持計画を生成する。第3のインターフェースは、前記把持部を備える把持装置の制御部に前記把持計画を送信する。【選択図】 図1

Description

本発明の実施形態は、制御装置及びプログラムに関する。
物品をピッキングするピッキングロボットを制御する制御装置には、オペレータから物品の位置の入力を受け付けるものがある。そのような制御装置は、入力された物品の位置などに基づいて、ピッキングするピッキングロボットが物品を把持する把持位置及び把持角度などを示す把持計画を策定する。
従来、制御装置は、適切な把持位置及び把持角度を求めることができない場合がある。
特開2009−214212号公報
上記の課題を解決するため、適切に把持計画を生成することができる制御装置及びプログラムを提供する。
実施形態によれば、制御装置は、第1のインターフェースと、第2のインターフェースと、プロセッサと、第3のインターフェースと、を備える。第1のインターフェースは、物品を撮影した撮影画像を取得する。第2のインターフェースは、入出力装置とデータを送受信する。プロセッサは、前記撮影画像に基づく物品画像を前記入出力装置に表示させ、前記第2のインターフェースを通じて前記入出力装置から前記物品を把持する把持部の把持部モデルの位置及び角度の入力を受け付け、前記物品画像上に前記位置及び前記角度で前記把持部モデルを表示させ、前記位置及び角度に基づいて、前記把持部が前記物品を把持する把持位置及び把持角度を示す把持計画を生成する。第3のインターフェースは、前記把持部を備える把持装置の制御部に前記把持計画を送信する。
図1は、実施形態に係るピッキングシステムの構成例を概略的に示す図である。 図2は、実施形態に係る制御装置の構成例を示すブロック図である。 図3は、実施形態に係る制御装置の表示例を示す図である。 図4は、実施形態に係る制御装置の表示例を示す図である。 図5は、実施形態に係る制御装置に動作例を示す図である。 図6は、実施形態に係る制御装置に動作例を示す図である。 図7は、実施形態に係る把持計画の例を示す図である。 図8は、実施形態に係る制御装置に動作例を示すフローチャートである。 図9は、実施形態に係る制御装置に動作例を示すフローチャートである。 図10は、実施形態に係る制御装置に動作例を示すフローチャートである。
以下、図面を参照しながら実施形態について説明する。
実施形態に係るピッキングシステムは、所定の物品をピッキングする。ピッキングシステムは、先端に把持部が形成されるロボットアームを用いて物品をピッキングする。ピッキングシステムは、複数の物品が積載して形成された物品群から物品をピッキングする。ピッキングシステムは、ピッキングした物品を倉庫又は容器など所定の領域(積載領域)に積載する。
ピッキングシステムは、物流センサ又は倉庫などで用いられる。ピッキングシステムがピッキングする物品及びピッキングシステムの用途は、特定の構成に限定されるものではない。
図1は、実施形態に係るピッキングシステム1の構成例を概略的に示す。図1が示す例では、ピッキングシステム1は、物品群101から物品をピッキングする。図1が示すように、ピッキングシステム1は、ピッキングロボット10、画像センサ102、制御装置106、入出力装置107、保管装置109及びロボットコントローラ111など備える。
なお、ピッキングシステム1は、図1が示すような構成の他に必要に応じた構成を具備したり、ピッキングシステム1から特定の構成が除外されたりしてもよい。
物品群101は、複数の物品から構成される。物品群101は、複数の物品が重なった状態に形成される。物品群101は、所定の領域に配置される。たとえば、物品群101は、所定のケース内に配置される。また、物品群101は、所定の倉庫などに配置されるものであってもよい。
物品群101を構成する物品は、矩形に形成される箱などであってもよい。また、物品群101を構成する物品は、袋状に形成されるものであってもよい。たとえば、物品群101を構成する物品は、商品、部品又は荷物などである。物品群101を構成する物品の形状及び用途は、特定の構成に限定されるものではない。
制御装置106は、画像センサ102、入出力装置107、保管装置109及びロボットコントローラ111などと接続する。制御装置106は、入出力装置107などから入力された操作などに基づいて把持計画を策定する。把持計画は、後述する把持部103が物品群101を構成する所定の荷物を把持する位置(把持位置)及び把持部103が把持する角度(把持角度)などから構成される。
制御装置106は、把持する物品ごとに把持計画を策定する。また、制御装置106は、ロボットコントローラ111に把持計画を送信する。
制御装置106については、後に詳述する。
画像センサ102は、物品群101が配置される領域の上方に配置されている。画像センサ102は、物品群101を撮影し撮影画像を取得する。画像センサ102は、撮影画像としてRGBのカラー画像を取得する。
また、画像センサ102は、物品群101の各部(又は、物品群101が配置される領域の各部)から画像センサ102までの距離、又は、物品群101の各部から画像センサ102に水平な面まで距離を測定する。
画像センサ102は、測定結果に基づいて、所定の基準面からの距離を示す距離情報を生成する。たとえば、距離情報は、所定の三次元座標系における点群の各座標を示すものであってもよい。
たとえば、画像センサ102は、例えばステレオカメラである。ステレオカメラは、異なる2点から撮像した際の視差に基づいて画像センサ102と各部との距離を計測する。
また、たとえば、画像センサ102は、光源と光源から照射される光の反射光を検出する光センサとを備えるものであってもよい。画像センサ102は、光源から照射される光(可視光又は不可視光)の反射光に基づいて距離を測定する。たとえば、画像センサ102は、照射された光が測定対象で反射し光センサに届くまでの時間に基づいて当該測定対象との距離を測定するToF(Time−of−Flight)方式を行ってもよい。
なお、画像センサ102は、複数のセンサから構成されてもよい。
入出力装置107は、オペレータによって、種々の指示が入力される。入出力装置107は、操作者に入力された指示を示す信号を制御装置106へ送信する。入出力装置107は、操作部として、たとえば、キーボード、テンキー、マウス及びタッチパネルなどを備える。
また、入出力装置107は、オペレータに対して、種々の情報を表示する。即ち、入出力装置107は、制御装置106からの信号に基づいて、種々の情報を示す画面を表示する。入出力装置107は、表示部として、たとえば、液晶ディスプレイなどを備える。
保管装置109は、制御装置106の制御に従って所定のデータを格納する。たとえば、保管装置109は、制御装置106が生成した把持計画を格納する。また、保管装置109は、把持計画に従ってピッキングロボット10がピッキングに成功したか否かを示す情報を当該把持計画に対応付けて格納する。
たとえば、保管装置109は、データの書き込み及び書き換えが可能な不揮発性のメモリなどから構成される。保管装置109は、たとえば、HDD(Hard Disk Drive)、SSD(Solid State Drive)又はフラッシュメモリなどから構成される。
ピッキングロボット10(把持装置)は、ロボットコントローラ111を接続する。ピッキングロボット10は、ロボットコントローラ111の制御に従って、物品群101から所定の物品をピッキングする。ピッキングロボット10は、ピッキングした物品を所定の積載領域に積載する。
ピッキングロボット10は、把持部103、吸着パット104、ロボットアーム105などから構成される。
ロボットアーム105は、ロボットコントローラ111の制御によって駆動するマニピュレータである。ロボットアーム105は、棒状のフレーム及びフレームを駆動するモータなどから構成される。
把持部103は、ロボットアーム105の先端に設置されている。把持部103は、ロボットアーム105の移動に伴って移動する。把持部103は、ロボットアーム105が所定の方向に移動することにより、物品群101の物品を把持する位置まで移動する。
把持部103は、物品群101の物品を把持する。ここでは、把持部103は、吸着パット104を備える。吸着パット104は、物品に吸着する。たとえば、吸着パット104は、真空吸着により物品に吸着する。吸着パット104は、ロボットコントローラ111からの制御に基づいて内部を負圧にする。吸着パット104は、物品の表面に接した状態で内部を負圧にすることで物品の表面に真空吸着する。吸着パット104は、内部の負圧を解除すると、物品を解放する。
ここでは、把持部103は、複数の吸着パット104を備える。
なお、把持部103には、吸着パット以外の種々の把持機構を採用してよい。たとえば、把持部103は、物品を把持するグリッパを含むものであってよい。グリッパは、複数の指と、複数の指を連結している複数の関節機構とを備える。関節機構は、関節機構の動作に連動して指が動作するように構成されてよい。グリッパは、例えば、複数の指による2点以上の接点で、対向する複数の方向から荷物に対して力を加える。これにより、把持部103は、指と荷物との間に生じる摩擦によって物品を把持する。把持部103の構成は、物品群101の物品を把持可能な種々の把持機構を用いてよく、特定の構成に限定されるものではない。
ロボットコントローラ111(制御部)は、制御装置106の制御に従ってピッキングロボット10を制御する。たとえば、ロボットコントローラ111は、制御装置106から把持計画を受信する。ロボットコントローラ111は、把持計画に基づいて、把持部103を把持位置まで移動させる経路を示す経路計画を策定する。たとえば、ロボットコントローラ111は、物品群101の荷物などと把持部103及びロボットアーム105が接触しないように経路計画を策定する。
ロボットコントローラ111は、経路計画に従って、把持部103を移動させる。即ち、ロボットコントローラ111は、ロボットアーム105を制御して把持部103を経路計画が示す経路に沿って移動させる。
ロボットコントローラ111は、把持部103を移動させると、吸着パット104を制御して吸着パット104を物品群101の物品に吸着させる。ロボットコントローラ111は、物品を吸着させた状態でロボットアーム105を移動させて物品をピッキングする。
ロボットコントローラ111は、ロボットアーム105を移動させてピッキングした物品を所定の積載領域まで搬送する。ロボットコントローラ111は、物品を所定の積載領域まで搬送すると、吸着パット104を制御して物品を解放する。
また、ロボットコントローラ111は、物品の把持に成功したか否かを示す完了情報を生成する。たとえば、ロボットコントローラ111は、把持計画に従って物品を把持した場合、物品の把持に成功したことを示す完了情報を生成する。
また、ロボットコントローラ111は、物品の把持に失敗した場合(たとえば、物品を把持できない場合、又は、把持した物品が落下した場合など)、物品の把持に失敗したことを示す完了情報を生成する。
ロボットコントローラ111は、生成した完了情報を制御装置106に送信する。
たとえば、ロボットコントローラ111は、プロセッサなどから構成される。たとえば、ロボットコントローラ111は、PC又はASIC(Application Specific Integrated Circuit)などから構成される。ロボットコントローラ111の構成は、特定に構成に限定されるものではない。
次に、制御装置106の構成例について説明する。図2は、制御装置106の構成例を示すブロック図である。図2が示すように、制御装置106は、プロセッサ11、ROM12、RAM13、NVM14、画像センサインターフェース15、入出力インターフェース16、保管装置インターフェース17及びロボットインターフェース18などを備える。
プロセッサ11とROM12、RAM13、NVM14、画像センサインターフェース15、入出力インターフェース16、保管装置インターフェース17及びロボットインターフェース18と、は、データバスなどを介して互いに接続する。
なお、制御装置106は、図2が示すような構成の他に必要に応じた構成を具備したり、制御装置106から特定の構成が除外されたりしてもよい。
プロセッサ11は、制御装置106全体の動作を制御する機能を有する。プロセッサ11は、内部キャッシュ及び各種のインターフェースなどを備えてもよい。プロセッサ11は、内部メモリ、ROM12又はNVM14が予め記憶するプログラムを実行することにより種々の処理を実現する。
なお、プロセッサ11がプログラムを実行することにより実現する各種の機能のうちの一部は、ハードウエア回路により実現されるものであってもよい。この場合、プロセッサ11は、ハードウエア回路により実行される機能を制御する。
ROM12は、制御プログラム及び制御データなどが予め記憶された不揮発性のメモリである。ROM12に記憶される制御プログラム及び制御データは、制御装置106の仕様に応じて予め組み込まれる。
RAM13は、揮発性のメモリである。RAM13は、プロセッサ11の処理中のデータなどを一時的に格納する。RAM13は、プロセッサ11からの命令に基づき種々のアプリケーションプログラムを格納する。また、RAM13は、アプリケーションプログラムの実行に必要なデータ及びアプリケーションプログラムの実行結果などを格納してもよい。
NVM14は、データの書き込み及び書き換えが可能な不揮発性のメモリである。NVM14は、たとえば、HDD(Hard Disk Drive)、SSD(Solid State Drive)又はフラッシュメモリなどから構成される。NVM14は、制御装置106の運用用途に応じて制御プログラム、アプリケーション及び種々のデータなどを格納する。
画像センサインターフェース15(第1のインターフェース)は、画像センサ102とデータを送受信するためのインターフェースである。たとえば、画像センサインターフェース15は、画像センサ102から撮影画像及び距離情報を取得しプロセッサ11に送信する。また、画像センサインターフェース15は、画像センサ102に電力を供給するものであってもよい。
入出力インターフェース16(第2のインターフェース)は、入出力装置107とデータを送受信するためのインターフェースである。たとえば、入出力インターフェース16は、入出力装置107に入力された操作を示す信号をプロセッサ11に送信する。入出力インターフェース16は、プロセッサ11の制御に基づいて、入出力装置107に表示させる画像データを入出力装置107に送信する。また、入出力インターフェース16は、入出力装置107に電力を供給するものであってもよい。
保管装置インターフェース17(第4のインターフェース)は、保管装置109とデータを送受信するためのインターフェースである。たとえば、保管装置インターフェース17は、プロセッサ11の制御に基づいて、保管装置109に格納するデータを保管装置109に送信する。また、保管装置インターフェース17は、保管装置109に電力を供給するものであってもよい。
ロボットインターフェース18(第3のインターフェース)は、ロボットコントローラ111とデータを送受信するためのインターフェースである。たとえば、ロボットインターフェース18は、プロセッサ11の制御に従って把持計画をロボットコントローラ111に送信する。
次に、制御装置106が実現する機能について説明する。制御装置106が実現する機能は、プロセッサ11がROM12又はNVM14などに格納されるプログラムを実行することで実現される。
まず、プロセッサ11は、画像センサ102を用いて物品群101の撮影画像及び距離情報を取得する機能を有する。
ここでは、所定の領域に物品群101が積載されているものとする。
たとえば、プロセッサ11は、入出力装置107を通じてオペレータから所定の操作の入力を受け付けると、画像センサインターフェース15を通じて撮影画像及び距離情報を要求する信号を画像センサ102に送信する。
画像センサ102は、当該信号を受信すると、物品群101を撮影し撮影画像を取得する。また、画像センサ102は、物品群101の各部との距離を測定し距離情報を生成する。画像センサ102は、画像センサインターフェース15を通じて撮影画像及び距離情報をプロセッサ11に送信する。
プロセッサ11は、画像センサインターフェース15を通じて、画像センサ102から撮影画像及び距離情報を取得する。
なお、プロセッサ11は、所定の領域に物品群101が積載されたことを検知すると、画像センサインターフェース15を通じて撮影画像及び距離情報を要求する信号を画像センサ102に送信してもよい。
また、プロセッサ11は、撮影画像及び距離情報に基づいて物品群101の個々の物品を認識する機能を備える。
プロセッサ11は、1つの物品の面(たとえば、上面)を認識する。たとえば、プロセッサ11は、3次元空間において物品の上面が写る領域(物品領域)を特定する。
たとえば、プロセッサ11は、撮影画像からエッジを検出する。プロセッサ11は、検出したエッジに基づき認識される領域を距離情報から抽出する。プロセッサ11は、距離情報から抽出された領域を物品領域として特定する。
また、プロセッサ11は、距離情報から物品領域として平面領域を抽出してもよい。たとえば、プロセッサ11は、RANSAC(Random Sample Consensus)による平面検出法などを用いて平面領域を抽出する。
また、プロセッサ11は、入出力装置107を通じて、把持部モデル201の位置及び角度の入力を受け付ける機能を有する。
プロセッサ11は、入出力装置107を通じて、把持部モデル201の位置及び把持角度の入力を受け付けるための画面を表示する。プロセッサ11は、撮影画像及び距離情報などに基づいて物品群101の三次元画像(3D画像)を入出力装置107に表示する。
図3は、プロセッサ11が把持位置及び把持角度の入力を受け付けるために表示する画面の例を示す。図3が示すように、プロセッサ11は、物品群101を上部から見た3D画像(物品画像)を表示する。
ここでは、物品群101は、上部から見える物品として物品301及び物品302を備えるものとする。
プロセッサ11は、物品に重ねて物品領域を表示する。図3が示す例では、プロセッサ11は、物品領域401及び物品領域402を表示する。
物品領域401及び物品領域402は、それぞれ物品301及び物品302の上面を示す。
また、プロセッサ11は、物品群101の3D画像上に把持部モデル201を表示する。把持部モデル201は、把持部103をモデル化したものである。把持部モデル201は、把持部103の大きさ及び形状に形成される。また、把持部モデル201は、半透明に形成される。
また、プロセッサ11は、把持部モデル201の内部に吸着パットモデル211を表示する。吸着パットモデル211は、吸着パット104をモデル化したものである。吸着パットモデル211は、吸着パット104の大きさ、形状及び位置に形成される。ここでは、プロセッサ11は、複数の吸着パット104にそれぞれ対応する複数の吸着パットモデル211を表示する。
プロセッサ11は、吸着パット104の圧力を制御する弁のうち、共通する弁に接続する吸着パット104を示す情報を表示する。即ち、プロセッサ11は、共通する弁に接続する吸着パット104に対応する吸着パットモデル211を明示する。
図3が示す例では、プロセッサ11は、吸着パットモデル211の円内のパターンによって共通する弁に接続する吸着パット104を表示する。プロセッサ11は、同一のパターンで表示される吸着パットモデル211を、共通する弁に接続する吸着パット104の吸着パットモデル211として表示する。たとえば、プロセッサ11は、斜線、格子又はドットのパターンなどで共通する弁に接続する吸着パット104の吸着パットモデル211を表示する。
なお、プロセッサ11は、共通する弁に接続する吸着パット104の吸着パットモデル211を線で囲ってもよい。プロセッサ11が、共通する弁に接続する吸着パット104を表示する方法は、特定の方法に限定されるものではない。
また、プロセッサ11は、物品領域(即ち、物品)と吸着パットモデル211との距離を表示する。図3が示す例では、プロセッサ11は、物品領域402と吸着パットモデル211との距離を表示する。たとえば、プロセッサ11は、各吸着パットモデル211と物品領域402の距離として、把持部モデル201の位置及び角度と形状とに基づいて算出された吸着パット104の先端の座標と物品領域402との最短距離を求める。なお、プロセッサ11が物品領域402と吸着パットモデル211との距離を算出する方法は、特定の方法に限定されるものではない。
ここでは、プロセッサ11は、当該距離を把持部モデル201の色で表示する。たとえば、プロセッサ11は、当該距離が所定の閾値よりも遠い場合、把持部モデル201の色を付与しない(把持部モデル201を透明とする)。
また、プロセッサ11は、当該距離が、把持部103が物品を把持するために適切な範囲である場合には、把持部モデル201の色を所定の色(たとえば、青)とする。
また、プロセッサ11は、当該距離が、把持部103が物品に近すぎることを示す値である場合には、把持部モデル201の色を他の所定の色(たとえば、赤)とする。
なお、プロセッサ11は、当該距離を数値で表示してもよい。
また、プロセッサ11は、入出力装置107から、物品群101を表示する視点の位置及び角度を変更する操作の入力を受け付ける。
たとえば、プロセッサ11は、入出力装置107を通じてドラッグ操作などの入力を受け付ける。プロセッサ11は、入力されたドラッグ操作に従って、視点の位置を移動する。
また、プロセッサ11は、入出力装置107を通じて画面のスクロールの入力を受け付ける。プロセッサ11は、入力されたスクロールに従って、回転軸と回転角度から算出されたクォータニオンなどを用いて視点を回転する。
即ち、プロセッサ11は、距離情報などに基づいて、物品群101を異なる視点から見た3D画像を表示する。
プロセッサ11は、入力された操作に従って物品群101の表示を更新する。
図4は、プロセッサ11が視点を回転した場合の表示例を示す。図4が示すように、プロセッサ11は、所定の角度からの視点で物品群101を表示する。図4が示すように、プロセッサ11は、距離情報に基づいて当該視点から見た3D画像を表示する。
また、プロセッサ11は、把持部モデル201及び吸着パットモデル211も当該視点から見た状態で表示する。
プロセッサ11は、入出力装置107から、当該画面に表示される把持部モデル201を用いて、オペレータから把持部モデル201の位置及び角度の入力を受け付ける。たとえば、プロセッサ11は、画面上のカーソルの位置で把持部モデル201の座標(たとえば、中心座標)の入力を受け付ける。また、プロセッサ11は、把持部モデル201のドラッグ操作によって、把持部モデル201の座標の入力を受け付けてもよい。また、プロセッサ11は、キー入力又はスクロールバーなどによって把持部モデル201の座標の入力を受け付けてもよい。
また、プロセッサ11は、ドラッグ操作によって把持部モデル201の角度の入力を受け付ける。また、プロセッサ11は、キー入力又はスクロールバーなどによって把持部モデル201の座標の入力を受け付けてもよい。
プロセッサ11は、入出力装置107を通じて所定の操作を受け付けると、把持部モデル201の位置及び角度を確定する。
プロセッサ11が把持部モデル201の位置及び角度の入力を受け付ける方法は、特定の方法に限定されるものではない。
また、プロセッサ11は、入力された把持部モデル201の位置及び角度に基づいて、把持計画を生成する機能を有する。
プロセッサ11は、把持部103が物品を吸着しやすくなるように位置及び角度を修正して、把持位置及び把持角度として修正した位置及び角度を示す把持計画を生成する。
たとえば、プロセッサ11は、入力された把持部モデル201の位置及び角度を、各吸着パットモデル211と物品領域(たとえば、把持部モデル201が覆う物品領域)との距離が適切な距離(たとえば、把持に最適な距離)となるように修正する。即ち、プロセッサ11は、各吸着パットモデル211と物品領域(又は、物品)との距離が所定の距離となるように、把持部モデル201の位置及び角度を修正する。たとえば、プロセッサ11は、ICP(Iterative Closet Point)又は最急下降法を用いて、把持部モデル201の位置及び角度を修正する。
なお、プロセッサ11は、各吸着パットモデル211と距離情報において物品の点群(把持部モデル201と所定の距離内にある点群)との距離が所定の距離となるように、入力された把持部モデル201の位置及び角度を修正してもよい。
また、プロセッサ11は、入力された把持部モデル201の位置及び角度を、把持部モデル201と物品領域(又は、物品)との距離が適切な距離となるように修正してもよい。
プロセッサ11は、把持位置及び把持角度として修正した位置及び角度を示す把持計画を生成する。
なお、プロセッサ11が把持部モデル201の位置及び角度から把持計画を生成する方法は、特定の方法に限定されるものではない。
図5は、修正前の把持部モデル201の位置及び角度を示す。図6は、修正後の把持部モデル201の位置及び角度を示す。
ここでは、オペレータは、物品302を把持するため把持部モデル201の位置及び角度を入力したものとする。
図5が示すように、把持部モデル201は、物品302を覆う位置に形成される。また、図5が示す例では、把持部モデル201の各吸着パットモデル211と物品領域401(又は、物品302の点群)との距離は、適切ではない。
図6が示すように、把持部モデル201は、物品302に沿って形成される。把持部モデル201は、物品302の上面に平行に形成される。図6が示す例では、把持部モデル201の各吸着パットモデル211と物品領域401(又は、物品302の点群)との距離は、適切である。
また、プロセッサ11は、把持計画を入出力装置107に表示する。プロセッサ11は、入出力装置107を通じて所定の操作の入力を受け付けると、把持計画を確定する。
図7は、プロセッサ11が把持計画を表示する画面の例を示す。ここでは、プロセッサ11は、物品302の把持計画を表示する。図7が示すように、プロセッサ11は、把持計画が示す把持位置及び把持角度に把持部モデル201を表示する。
また、プロセッサ11は、ロボットインターフェース18を通じて把持計画をロボットコントローラ111に送信する機能を有する。
プロセッサ11は、把持計画を生成すると、ロボットインターフェース18を通じて把持計画をロボットコントローラ111に送信する。
ロボットコントローラ111に送信していない把持計画が複数ある場合、プロセッサ11は、複数の把持計画から1つの把持計画を選択する。
たとえば、プロセッサ11は、複数の把持計画からより上部にある物品の把持計画を選択する。
また、プロセッサ11は、各把持計画の経路計画を策定してもよい。プロセッサ11は、経路が他の物品などに接触しない経路計画の把持計画を選択する。
プロセッサ11が把持計画を選択する方法は、特定の方法に限定されるものではない。
プロセッサ11は、ロボットインターフェース18を通じて、選択した把持計画をロボットコントローラ111に送信する。
ロボットコントローラ111は、把持計画に従ってピッキングロボット10を制御して荷物を把持する。
また、プロセッサ11は、ピッキングロボット10が荷物の把持に成功したか否かを示す完了情報と把持計画とを対応付けて保管装置109に格納する機能を有する。
プロセッサ11は、把持計画をロボットコントローラ111に送信すると、ロボットコントローラ111から完了情報を受信する。プロセッサ11は、保管装置インターフェース17を通じて、送信した把持計画と受信した完了情報とを対応付けて保管装置109に格納する。
次に、制御装置106の動作例について説明する。図8は、制御装置106の動作例について説明するためのフローチャートである。
制御装置106のプロセッサ11は、把持計画の策定を行う(S1)。プロセッサ11は、把持計画の策定と同時に、把持計画の送信を行う(S2)。
把持計画の策定及び把持計画の送信を終了すると、プロセッサ11は、動作を終了する。
次に、把持計画の策定(S1)の動作例について説明する。
図9は、把持計画の策定(S1)の動作例について説明するためのフローチャートである。
まず、プロセッサ11は、画像センサインターフェース15を通じて画像センサ102から撮影画像及び距離情報を取得する(S11)。撮影画像及び距離情報を取得すると、プロセッサ11は、撮影画像及び距離情報に基づいて物品領域を認識する(S12)。
物品領域を認識すると、プロセッサ11は、入出力装置107に物品群101の3D画像を表示する(S13)。物品群101の3D画像を表示すると、プロセッサ11は、物品群101の3D画像に重ねて物品領域を表示する(S14)。
物品領域を表示すると、プロセッサ11は、物品群101の3D画像に重ねて把持部モデル201を表示する(S15)。把持部モデル201を表示すると、プロセッサ11は、入出力装置107から視点を移動する操作の入力を受け付けたか判定する(S16)。
視点を移動する操作の入力を受け付けたと判定すると(S16、YES)、プロセッサ11は、入力された操作に従って物品群101の3D画像の表示を更新する(S17)。
視点を移動する操作の入力を受け付けていないと判定した場合(S16、NO)、又は、物品群101の3D画像の表示を更新した場合(S17)、プロセッサ11は、入出力装置107から把持部モデル201の位置又は角度の入力を受け付けたか判定する(S18)。
把持部モデル201の位置又は角度の入力を受け付けたと判定すると(S18、YES)、プロセッサ11は、把持部モデル201の表示を更新する(S19)。把持部モデル201の表示を更新すると、プロセッサ11は、把持部モデル201と物品領域との距離の表示を更新する(S20)。
把持部モデル201の位置又は角度の入力を受け付けていないと判定した場合(S18、NO)、又は、距離の表示を更新した場合(S20)、プロセッサ11は、把持部モデル201の位置又は角度の入力を確定する操作を受け付けたか判定する(S21)。
把持部モデル201の位置又は角度の入力を確定する操作を受け付けていないと判定すると(S21、NO)、プロセッサ11は、S16に戻る。
把持部モデル201の位置又は角度の入力を確定する操作を受け付けたと判定すると(S21、YES)、プロセッサ11は、把持部モデル201の位置及び角度を修正する(S22)。
把持部モデル201の位置及び角度を修正すると、プロセッサ11は、修正した位置及び角度に従って把持部モデル201を表示する(S23)。把持部モデル201を表示すると、プロセッサ11は、把持計画を確定する操作の入力を受け付けたか判定する(S24)。
把持計画を確定する操作の入力を受け付けなかったと判定すると(S24、NO)、プロセッサ11は、S16に戻る。
把持計画を確定する操作の入力を受け付けたと判定すると(S24、YES)、プロセッサ11は、修正した位置及び角度を把持位置及び把持角度として示す把持計画を生成する(S25)。
把持計画を生成すると、プロセッサ11は、把持計画の生成を終了するか判定する(S25)。たとえば、プロセッサ11は、把持計画の生成を終了する操作の入力を受け付けたか判定する。また、プロセッサ11は、物品群101の各物品の把持計画を策定した場合、把持計画の生成を終了すると判定してもよい。
把持計画の生成を終了しないと判定すると(S25、NO)、プロセッサ11は、S11に戻る。
把持計画の生成を終了すると判定すると(S25、YES)、プロセッサ11は、動作を終了する。
次に、把持計画の送信(S2)の動作例について説明する。
図10は、把持計画の送信(S2)の動作例について説明するためのフローチャートである。
プロセッサ11は、生成した把持計画を取得する(S31)。把持計画を取得すると、プロセッサ11は、把持計画が複数あるか判定する(S32)。把持計画が複数あると判定すると(S32、YES)、プロセッサ11は、複数の把持計画から把持計画を選択する(S33)。
把持計画が1つであると判定した場合(S32、NO)、又は、把持計画を選択した場合(S33)、プロセッサ11は、ロボットインターフェース18を通じて、選択した把持計画(S32、NOの場合、取得した把持計画)をロボットコントローラ111に送信する(S34)。
把持計画を送信すると、プロセッサ11は、ロボットインターフェース18を通じて、完了情報を受信する(S35)。完了情報を受信すると、プロセッサ11は、保管装置インターフェース17を通じて、送信した把持計画と受信した完了情報とを対応付けて保管装置109に格納する(S36)。
送信した把持計画と受信した完了情報とを対応付けて保管装置109に格納すると、プロセッサ11は、把持計画の送信を終了するか判定する(S37)。たとえば、プロセッサ11は、把持計画の送信を終了する操作の入力を受け付けたか判定する。また、プロセッサ11は、物品群101の各物品のピッキングが完了した場合、把持計画の送信を終了すると判定してもよい。
把持計画の送信を終了しないと判定すると(S37、NO)、プロセッサ11は、S31に戻る。
把持計画の送信を終了すると判定すると(S37、YES)、プロセッサ11は、動作を終了する。
なお、プロセッサ11は、複数の把持計画をロボットコントローラ111に送信してもよい。
また、プロセッサ11は、S1において、ピッキングロボット10が物品をピッキングした場合に、S11に戻ってもよい。この場合、プロセッサ11は、S26、NOの場合、S16に戻ってもよい。
また、プロセッサ11は、S11に戻った場合、物品領域の前の認識結果を用いてもよい。たとえば、プロセッサ11は、直前の撮影画像と今回の撮影画像とに差がない領域において前の物品領域を用いてもよい。
また、プロセッサ11は、物品領域を認識しなくともよい。プロセッサ11は、物品群101の3D画像を表示して、把持部モデル201の位置及び角度の入力を受け付けてもよい。
また、プロセッサ11は、物品領域を認識できない場合に、把持部モデル201の位置及び角度の入力を受け付けてもよい。
以上のように構成された制御装置は、物品群の撮影画像及び物品群の距離情報に基づいて画面に物品群の3D画像を表示する。制御装置は、オペレータから物品群を見る視点の位置及び角度の入力を受け付け、当該入力に従って物品群の3D画像を表示する。また、制御装置は、物品群の3D画像を表示した画面上で、物品群の物品を把持するための把持部の位置及び角度の入力を受け付ける。制御装置は、入力された位置及び角度に基づいて、把持部が物品を把持する把持位置及び把持角度を示す把持計画を生成する。その結果、制御装置は、オペレータが画面を見ながら入力した把持部の位置及び角度に基づいて把持計画を生成することができる。よって、制御装置は、適切な把持計画を生成することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1…ピッキングシステム、10…ピッキングロボット、11…プロセッサ、12…ROM、13…RAM、14…NVM、15…画像センサインターフェース、16…入出力インターフェース、17…保管装置インターフェース、18…ロボットインターフェース、101…物品群、102…画像センサ、103…把持部、104…吸着パット、105…ロボットアーム、106…制御装置、107…入出力装置、109…保管装置、111…ロボットコントローラ、201…把持部モデル、211…吸着パットモデル、301…物品、302…物品、401…物品領域、402…物品領域。

Claims (12)

  1. 物品を撮影した撮影画像を取得する第1のインターフェースと、
    入出力装置とデータを送受信する第2のインターフェースと、
    前記撮影画像に基づく物品画像を前記入出力装置に表示させ、
    前記第2のインターフェースを通じて前記入出力装置から前記物品を把持する把持部の把持部モデルの位置及び角度の入力を受け付け、
    前記物品画像上に前記位置及び前記角度で前記把持部モデルを表示させ、
    前記位置及び角度に基づいて、前記把持部が前記物品を把持する把持位置及び把持角度を示す把持計画を生成する、
    プロセッサと、
    前記把持部を備える把持装置の制御部に前記把持計画を送信する第3のインターフェースと、
    を備える制御装置。
  2. 前記プロセッサは、前記把持部モデルを半透明で表示する、
    請求項1に記載の制御装置。
  3. 前記第1のインターフェースは、前記物品までの距離を測定した距離情報をさらに取得し、
    前記物品画像は、前記距離情報に基づく三次元画像である、
    請求項1又は2に記載の制御装置。
  4. 前記プロセッサは、
    前記入出力装置を通じて、前記三次元画像を表示する視点を変更する操作を受け付け、
    前記操作に従って、前記三次元画像の表示を更新する、
    請求項3に記載の制御装置。
  5. 前記プロセッサは、
    前記撮影画像及び前記距離情報に基づいて、前記物品を表示する物品領域を認識し、
    前記三次元画像上に前記物品領域を表示する、
    請求項3又は4に記載の制御装置。
  6. 前記プロセッサは、前記把持部が備える吸着パットの吸着パットモデルを表示する、
    請求項1乃至5の何れか1項に記載の制御装置。
  7. 前記プロセッサは、前記吸着パットの圧力を制御する弁のうち、共通する弁に接続する前記吸着パットを示す情報を表示する、
    請求項6に記載の制御装置。
  8. 前記プロセッサは、前記物品と前記吸着パットとの距離を表示する、
    請求項6又は7に記載の制御装置。
  9. 前記プロセッサは、前記吸着パットモデルと物品との距離が所定の距離となるように前記位置及び前記角度を修正し、前記把持位置及び前記把持角度として修正した前記位置及び前記角度を示す前記把持計画を生成する、
    請求項6乃至8の何れか1項に記載の制御装置。
  10. 前記プロセッサは、複数の前記把持計画から1つの把持計画を選択し、選択された前記把持計画を前記制御部に送信する、
    請求項1乃至9の何れか1項に記載の制御装置。
  11. 保管装置とデータを送受信する第4のインターフェースを備え、
    前記プロセッサは、
    前記第3のインターフェースを通じて、前記物品の把持に成功したか否かを示す完了情報を受信し、
    前記第4のインターフェースを通じて、前記物品画像と前記把持計画と前記完了情報とを前記保管装置に格納する、
    請求項1乃至10の何れか1項に記載の制御装置。
  12. プロセッサによって実行されるプログラムであって、
    前記プロセッサに、
    物品を撮影した撮影画像を取得させ、
    入出力装置とデータを送受信する第2のインターフェースと、
    前記撮影画像に基づく物品画像を入出力装置に表示させ、
    前記入出力装置から前記物品を把持する把持部の把持部モデルの位置及び角度の入力を受け付けさせ、
    前記物品画像上に前記位置及び前記角度で前記把持部モデルを表示させ、
    前記位置及び角度に基づいて、前記把持部が前記物品を把持する把持位置及び把持角度を示す把持計画を生成させ、
    前記把持部を備える把持装置の制御部に前記把持計画を送信させる、
    プログラム。
JP2019023417A 2019-02-13 2019-02-13 制御装置及びプログラム Active JP7204513B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019023417A JP7204513B2 (ja) 2019-02-13 2019-02-13 制御装置及びプログラム
EP20755048.4A EP3892427A4 (en) 2019-02-13 2020-02-07 CONTROL DEVICE AND PROGRAM
PCT/JP2020/004835 WO2020166509A1 (ja) 2019-02-13 2020-02-07 制御装置及びプログラム
US17/443,852 US20210354290A1 (en) 2019-02-13 2021-07-28 Control device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019023417A JP7204513B2 (ja) 2019-02-13 2019-02-13 制御装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2020131296A true JP2020131296A (ja) 2020-08-31
JP7204513B2 JP7204513B2 (ja) 2023-01-16

Family

ID=72045405

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019023417A Active JP7204513B2 (ja) 2019-02-13 2019-02-13 制御装置及びプログラム

Country Status (4)

Country Link
US (1) US20210354290A1 (ja)
EP (1) EP3892427A4 (ja)
JP (1) JP7204513B2 (ja)
WO (1) WO2020166509A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114343854B (zh) * 2022-02-14 2024-01-23 上海微创医疗机器人(集团)股份有限公司 夹持器械的夹持力控制方法、机器人系统、设备和介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1133955A (ja) * 1997-07-24 1999-02-09 Matsushita Electric Ind Co Ltd ロボットティーチング用二次元シミュレーション方法
JP2016132086A (ja) * 2015-01-22 2016-07-25 三菱電機株式会社 ワーク供給装置およびワーク把持姿勢計算方法
JP2016181183A (ja) * 2015-03-24 2016-10-13 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP2017080886A (ja) * 2012-01-13 2017-05-18 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド 把持パターンを評価するための方法及びコンピュータプログラムプロダクトとそれを組み込んだロボット
JP2017148908A (ja) * 2016-02-25 2017-08-31 セイコーエプソン株式会社 制御装置、ロボット、及びロボットシステム
JP2018182217A (ja) * 2017-04-20 2018-11-15 株式会社Screenホールディングス 基板搬送装置、それを備える基板処理装置および基板搬送装置のティーチング方法
JP2018176311A (ja) * 2017-04-05 2018-11-15 キヤノン株式会社 情報処理装置、情報処理方法、プログラム、システム、および物品製造方法
US20180345483A1 (en) * 2015-12-03 2018-12-06 Abb Schweiz Ag Method For Teaching An Industrial Robot To Pick Parts

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2563683Y2 (ja) * 1992-04-15 1998-02-25 セントラル硝子株式会社 ガラス板の移載装置
JP2000108066A (ja) * 1998-09-30 2000-04-18 Optrex Corp パネル搬送用吸着保持具
US10105844B2 (en) * 2016-06-16 2018-10-23 General Electric Company System and method for controlling robotic machine assemblies to perform tasks on vehicles
JP4835616B2 (ja) * 2008-03-10 2011-12-14 トヨタ自動車株式会社 動作教示システム及び動作教示方法
JP4850984B2 (ja) * 2009-12-28 2012-01-11 パナソニック株式会社 動作空間提示装置、動作空間提示方法およびプログラム
KR101789756B1 (ko) * 2010-12-29 2017-11-20 삼성전자주식회사 로봇 및 그 제어방법
DE102013013114A1 (de) * 2012-08-17 2014-02-20 Liebherr-Verzahntechnik Gmbh Vorrichtung zum automatisierten Entnehmen von in einem Behälter angeordneten Werkstücken
JP5942311B2 (ja) * 2013-02-25 2016-06-29 パナソニックIpマネジメント株式会社 ロボット、ロボットの制御装置及び制御方法、並びに、ロボット用制御プログラム
JP5824173B1 (ja) * 2014-02-28 2015-11-25 ファナック株式会社 ロボットを用いて物品を整列させる物品整列装置及び物品整列方法、並びに物品整列装置を備えた物品移送システム
JP5778311B1 (ja) * 2014-05-08 2015-09-16 東芝機械株式会社 ピッキング装置およびピッキング方法
US9561587B2 (en) * 2014-12-16 2017-02-07 Amazon Technologies, Inc. Robotic grasping of items in inventory system
CN113731862B (zh) * 2015-11-13 2024-04-12 伯克希尔格雷营业股份有限公司 用于提供各种物体的分拣的分拣系统和方法
JP6724499B2 (ja) * 2016-04-05 2020-07-15 株式会社リコー 物体把持装置及び把持制御プログラム
NL2017599B1 (en) * 2016-10-10 2018-04-16 Rijk Zwaan Zaadteelt En Zaadhandel Bv Method and system for picking up and collecting plant matter
US10545480B2 (en) * 2016-11-07 2020-01-28 Lincoln Global, Inc. System and method for manufacturing and control thereof
DE102017000527A1 (de) * 2017-01-20 2018-07-26 Liebherr-Verzahntechnik Gmbh Vorrichtung zum automatisierten Entnehmen von in einem Behälter angeordneten Werkstücken
JP6823502B2 (ja) * 2017-03-03 2021-02-03 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6692777B2 (ja) * 2017-07-25 2020-05-13 株式会社東芝 移載装置および判定方法
JP2019063984A (ja) * 2017-10-02 2019-04-25 キヤノン株式会社 情報処理装置、方法及びロボットシステム
US10759051B2 (en) * 2018-04-23 2020-09-01 General Electric Company Architecture and methods for robotic mobile manipulation system
US10549928B1 (en) * 2019-02-22 2020-02-04 Dexterity, Inc. Robotic multi-item type palletizing and depalletizing
WO2020219268A1 (en) * 2019-04-25 2020-10-29 AMP Robotics Corporation Systems and methods for a telescoping suction gripper assembly
US10576630B1 (en) * 2019-05-31 2020-03-03 Mujin, Inc. Robotic system with a robot arm suction control mechanism and method of operation thereof
US11224972B2 (en) * 2019-11-22 2022-01-18 Fanuc Corporation State machine for dynamic path planning
DE102020100568B4 (de) * 2020-01-13 2022-03-10 J. Schmalz Gmbh Verfahren zum Greifen eines Gegenstands und Sauggreifer

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1133955A (ja) * 1997-07-24 1999-02-09 Matsushita Electric Ind Co Ltd ロボットティーチング用二次元シミュレーション方法
JP2017080886A (ja) * 2012-01-13 2017-05-18 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド 把持パターンを評価するための方法及びコンピュータプログラムプロダクトとそれを組み込んだロボット
JP2016132086A (ja) * 2015-01-22 2016-07-25 三菱電機株式会社 ワーク供給装置およびワーク把持姿勢計算方法
JP2016181183A (ja) * 2015-03-24 2016-10-13 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
US20180345483A1 (en) * 2015-12-03 2018-12-06 Abb Schweiz Ag Method For Teaching An Industrial Robot To Pick Parts
JP2017148908A (ja) * 2016-02-25 2017-08-31 セイコーエプソン株式会社 制御装置、ロボット、及びロボットシステム
JP2018176311A (ja) * 2017-04-05 2018-11-15 キヤノン株式会社 情報処理装置、情報処理方法、プログラム、システム、および物品製造方法
JP2018182217A (ja) * 2017-04-20 2018-11-15 株式会社Screenホールディングス 基板搬送装置、それを備える基板処理装置および基板搬送装置のティーチング方法

Also Published As

Publication number Publication date
US20210354290A1 (en) 2021-11-18
EP3892427A4 (en) 2022-08-24
EP3892427A1 (en) 2021-10-13
WO2020166509A1 (ja) 2020-08-20
JP7204513B2 (ja) 2023-01-16

Similar Documents

Publication Publication Date Title
US11691273B2 (en) Generating a model for an object encountered by a robot
CN110476168B (zh) 用于手部跟踪的方法和系统
JP5897624B2 (ja) ワークの取出工程をシミュレーションするロボットシミュレーション装置
JP6642968B2 (ja) 情報処理装置、情報処理方法、プログラム
JP5977544B2 (ja) 情報処理装置、情報処理方法
JP6744709B2 (ja) 情報処理装置、情報処理方法
JP6892286B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
US10052767B2 (en) Robot, control device, and control method
TW201923706A (zh) 用以於環境中校正視覺系統的方法和系統
JP6902369B2 (ja) 提示装置、提示方法およびプログラム、ならびに作業システム
JP2020055096A (ja) 情報処理装置、情報処理方法及びシステム
JP2019115974A (ja) ビジョンベース操作システムのキャリブレーション及びオペレーション
KR20110097639A (ko) 화상 처리 장치, 화상 처리 방법, 프로그램 및 화상 처리 시스템
JP2017061025A (ja) ロボット制御装置、ロボット制御方法及びコンピュータプログラム
JP6869060B2 (ja) マニピュレータの制御装置、制御方法およびプログラム、ならびに作業システム
WO2019138835A1 (ja) 情報処理システム、情報処理装置、情報処理方法及びプログラム
US20230347509A1 (en) Robot control apparatus, robot control method, and program
JP2015160257A (ja) ロボット、ロボットシステム、制御装置および制御方法
CN107077195A (zh) 显示对象指示符
WO2020166509A1 (ja) 制御装置及びプログラム
JP6931585B2 (ja) 作業システム、作業システムの制御方法及びプログラム
JP5659787B2 (ja) 操作環境モデル構築システム、および操作環境モデル構築方法
KR102565444B1 (ko) 객체를 식별하기 위한 장치 및 방법
US11294510B2 (en) Method, system and non-transitory computer-readable recording medium for supporting object control by using a 2D camera
JP6618301B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221228

R150 Certificate of patent or registration of utility model

Ref document number: 7204513

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150