JP7205752B2 - ロボット制御装置、ロボット制御方法、及びロボット制御プログラム - Google Patents
ロボット制御装置、ロボット制御方法、及びロボット制御プログラム Download PDFInfo
- Publication number
- JP7205752B2 JP7205752B2 JP2018211422A JP2018211422A JP7205752B2 JP 7205752 B2 JP7205752 B2 JP 7205752B2 JP 2018211422 A JP2018211422 A JP 2018211422A JP 2018211422 A JP2018211422 A JP 2018211422A JP 7205752 B2 JP7205752 B2 JP 7205752B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- positional relationship
- relative positional
- specific type
- hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/06—Control stands, e.g. consoles, switchboards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39298—Trajectory learning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40564—Recognize shape, contour of object, extract position and orientation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Mechanical Engineering (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Robotics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
Description
まず、図1を参照しながら、本発明の適用例について説明する。
本実施形態は、学習モジュール103を用いてロボット20の動作を制御する。ロボット20の具体例として、垂直多関節ロボット、水平多関節ロボット、直交ロボット、又はパラレルリンクロボットなどを挙げることができる。ロボット20は、自律的に動作するマニピュレータとして動作し、例えば、部品の組み立て、搬送、塗装、検査、研磨、又は洗浄などの何れかの用途に用いることができる。ロボット20の動作の例として、ロボット20が物体70を操作(例えば、把持、吸着、移動、又は姿勢制御など)するための動作を挙げることができる。ロボット20が操作する対象となる物体70の一例として、仕掛け品又は部品などのワークを挙げることができる。また、ロボット20の動作の一例として、バラ積みされている複数種類の物体の中から特定種類の物体をピッキングするための把持動作を挙げることができる。
次に、図2及び図3を参照しながら、本実施形態に関わるロボット制御装置10のハードウェア構成の一例について説明する。
ロボット制御装置10は、ロボット20の動作を制御する。図2に示す例では、ロボット20は、六軸垂直多関節ロボットである。ロボット20は、台座21と、第1リンク22と、第2リンク23と、第3リンク24と、第4リンク25と、第5リンク26と、第6リンク27と、エンドエフェクタ28とを備える。ロボット20は、それぞれのリンクを回転運動させる可動軸(駆動用モータ)を備えている。これにより、ロボット20は、台座21及び複数のリンク21~27が、駆動用モータを介して互いに接続されて構成されている。なお、エンドエフェクタ28は、ロボット20の手先の一例である。
図4はロボット制御装置10の機能の一例を示すブロック図である。ロボット制御装置10のハードウェア資源とロボット制御プログラム120との協働により、入力部101、抽出部102、学習モジュール103、及び出力部104としての機能が実現される。
入力部101は、操作者50からの情報201,202の入力を受け付ける。入力部101の機能は、例えば、演算装置11、入力装置14、出力装置15、及びロボット制御プログラム120の協働により実現される。入力部101は、例えば、操作者50による情報201,202の入力を受け付けるためのグラフィカルユーザインタフェース(GUI)を提供してもよい。図5は、このようなグラフィカルユーザインタフェースの一例を示す。この例では、情報202を入力するためのウィンドウ61が出力装置15の画面60に表示されている。操作者50は、ロボット20の手先から見た物体70の相対的な位置座標情報(X,Y,Z)として、例えば、X=X0,Y=Y0,Z=Z0の値を、ウィンドウ61を通じて設定することができる。同様に、操作者50は、ロボット20の手先から見た物体70の相対的な姿勢情報(α,β,γ)として、例えば、α=α0,β=β0,γ=γ0の値を、ウィンドウ61を通じて設定することができる。なお、α,β,γは、それぞれ、ロボット20の手先から見た物体70のロール角、ピッチ角、及びヨー角である。
図6は本実施形態に関わるロボット制御方法の処理の流れの一例を示すフローチャートである。この処理においては、ロボット制御装置10が、ロボット制御プログラム120に従って、学習済みの学習モジュール103を用いて、ロボット20の動作を制御する。
ステップ601において、ロボット制御装置10は、複数種類の物体の中からロボット20が操作する対象となる特定種類の物体70を指定する情報201の入力を受け付ける。
ステップ602において、ロボット制御装置10は、情報201で指定された特定種類の物体70とロボット20の手先との間の目標とする相対的位置関係を指定する情報202の入力を受け付ける。
ステップ603において、ロボット制御装置10は、複数種類の物体とその周辺の環境を撮影する。
ステップ604において、ロボット制御装置10は、撮影により得られた画像情報501から、情報201で指定された特定種類の物体70を抽出して特定種類の物体70の位置及び姿勢を示す情報301を生成する。
ステップ605において、ロボット制御装置10は、ロボット20の位置及び姿勢を示す情報302を検出する。
ステップ606において、ロボット制御装置10は、情報201で指定された特定種類の物体70とロボット20の手先との間の相対的位置関係を目標とする相対的位置関係に一致させるためのロボット20の動作の機械学習がなされた学習済みモデル又は学習済モデルと入出力関係が同等のモデルを含む学習モジュール103を準備する。
ステップ607において、ロボット制御装置10は、特定種類の物体70の位置及び姿勢を示す情報301と、ロボット20の位置及び姿勢を示す情報302とから定まる物体70とロボット20の手先との間の相対的位置関係を目標とする相対的位置関係に一致させるためのロボット20の動作を指示する動作指令401を学習モジュール103の学習結果から生成してロボット20に出力する。
なお、ロボット20が操作する対象となる物体の種類が特定の一種類であるときや、操作対象となる物体の数が1つであるときなど、操作対象となる物体の種類を特定する必要がないときは、ロボット制御装置10への情報201の入力を省略してもよい。
(付記1)
複数種類の物体の中からロボット20が操作する対象となる特定種類の物体70を指定する情報201の入力と、指定された特定種類の物体70とロボット20の手先との間の目標とする相対的位置関係を指定する情報202の入力とを受け付ける入力部101と、
複数種類の物体とその周辺の環境を撮影する撮影装置30と、
撮影装置30による撮影により得られた画像情報501から、指定された特定種類の物体70を抽出して特定種類の物体70の位置及び姿勢を示す情報301を生成する抽出部102と、
ロボット20の位置及び姿勢を検出する検出装置40と、
指定された特定種類の物体70とロボット20の手先との間の相対的位置関係を目標とする相対的位置関係に一致させるためのロボット20の動作の機械学習がなされた学習済みモデル又は前記学習済モデルと入出力関係が同等のモデルを含む学習モジュール103と、
抽出部102により生成された特定種類の物体70の位置及び姿勢を示す情報301と、検出装置40により検出されたロボット20の位置及び姿勢を示す情報302とから定まる物体70とロボット20の手先との間の相対的位置関係を目標とする相対的位置関係に一致させるためのロボット20の動作を指示する動作指令401を学習モジュール103の学習結果から生成してロボット20に出力する出力部104と、
を備えるロボット制御装置10。
(付記2)
付記1に記載のロボット制御装置10であって、
物体70とロボット20の手先との間の目標とする相対的位置関係はロボット20及び物体70のそれぞれの位置及び姿勢に関わらず一定である、ロボット制御装置10。
(付記3)
付記1又は2に記載のロボット制御装置10であって、
物体70とロボット20の手先との間の目標とする相対的位置関係は、操作者50の指定により変更可能である、ロボット制御装置10。
(付記4)
付記1乃至3のうち何れかに記載のロボット制御装置10であって、
入力部101は、物体70とロボット20の手先との間の目標とする相対的位置関係を指定するためのグラフィカルユーザインタフェース(GUI)を備える、ロボット制御装置10。
(付記5)
付記1乃至4のうち何れかに記載のロボット制御装置10であって、
特定種類の物体70を指定する情報201は、抽出部102に入力される、ロボット制御装置10。
(付記6)
コンピュータシステムが、
複数種類の物体の中からロボット20が操作する対象となる特定種類の物体70を指定する情報201の入力を受け付けるステップ601と、
指定された特定種類の物体70とロボット20の手先との間の目標とする相対的位置関係を指定する情報202の入力を受け付けるステップ602と、
複数種類の物体とその周辺の環境を撮影するステップ603と、
撮影により得られた画像情報501から、指定された特定種類の物体70を抽出して特定種類の物体70の位置及び姿勢を示す情報301を生成するステップ604と、
ロボット20の位置及び姿勢を検出するステップ605と、
指定された特定種類の物体70とロボット20の手先との間の相対的位置関係を目標とする相対的位置関係に一致させるためのロボット20の動作の機械学習がなされた学習済みモデル又は前記学習済モデルと入出力関係が同等のモデルを含む学習モジュール103を準備するステップ606と、
特定種類の物体70の位置及び姿勢を示す情報301と、ロボット20の位置及び姿勢を示す情報302とから定まる物体70とロボット20の手先との間の相対的位置関係を目標とする相対的位置関係に一致させるためのロボット20の動作を指示する動作指令401を学習モジュール103の学習結果から生成してロボット20に出力するステップ607と、
を実行するロボット制御方法。
(付記7)
コンピュータシステムに、
複数種類の物体の中からロボット20が操作する対象となる特定種類の物体70を指定する情報201の入力を受け付けるステップ601と、
指定された特定種類の物体70とロボット20の手先との間の目標とする相対的位置関係を指定する情報202の入力を受け付けるステップ602と、
複数種類の物体とその周辺の環境を撮影するステップ603と、
撮影により得られた画像情報501から、指定された特定種類の物体70を抽出して特定種類の物体70の位置及び姿勢を示す情報301を生成するステップ604と、
ロボット20の位置及び姿勢を検出するステップ605と、
指定された特定種類の物体70とロボット20の手先との間の相対的位置関係を目標とする相対的位置関係に一致させるためのロボット20の動作の機械学習がなされた学習済みモデル又は前記学習済モデルと入出力関係が同等のモデルを含む学習モジュール103を準備するステップ606と、
特定種類の物体70の位置及び姿勢を示す情報301と、ロボット20の位置及び姿勢を示す情報302とから定まる物体70とロボット20の手先との間の相対的位置関係を目標とする相対的位置関係に一致させるためのロボット20の動作を指示する動作指令401を学習モジュール103の学習結果から生成してロボット20に出力するステップ607と、
を実行させるロボット制御プログラム120。
Claims (7)
- 複数種類の物体の中からロボットが操作する対象となる特定種類の物体を指定する情報の入力と、前記指定された特定種類の物体と前記ロボットの手先との間の目標とする相対的位置関係を指定する情報の入力とを受け付ける入力部と、
前記複数種類の物体とその周辺の環境を撮影する撮影装置と、
前記撮影装置による撮影により得られた画像情報から、前記指定された特定種類の物体を抽出して前記特定種類の物体の位置及び姿勢を示す情報を生成する抽出部と、
前記ロボットの位置及び姿勢を検出する検出装置と、
前記指定された特定種類の物体と前記手先との間の相対的位置関係を前記目標とする相対的位置関係に一致させるための前記ロボットの動作の機械学習がなされた学習済みモデル又は前記学習済モデルと入出力関係が同等のモデルを含む学習モジュールと、
前記抽出部により生成された前記特定種類の物体の位置及び姿勢を示す情報と、前記検出装置により検出された前記ロボットの位置及び姿勢を示す情報とから定まる前記物体と前記手先との間の相対的位置関係を前記目標とする相対的位置関係に一致させるための前記ロボットの動作を指示する動作指令を前記学習モジュールの学習結果から生成して前記ロボットに出力する出力部と、
を備えるロボット制御装置。 - 請求項1に記載のロボット制御装置であって、
前記物体と前記手先との間の目標とする相対的位置関係は、前記ロボット及び前記物体のそれぞれの位置及び姿勢に関わらず一定である、ロボット制御装置。 - 請求項1又は2に記載のロボット制御装置であって、
前記物体と前記手先との間の目標とする相対的位置関係は、操作者の指定により変更可能である、ロボット制御装置。 - 請求項1乃至3のうち何れか1項に記載のロボット制御装置であって、
前記入力部は、前記物体と前記手先との間の目標とする相対的位置関係を指定するためのグラフィカルユーザインタフェースを備える、ロボット制御装置。 - 請求項1乃至4のうち何れか1項に記載のロボット制御装置であって、
前記特定種類の物体を指定する情報は前記抽出部に入力される、ロボット制御装置。 - コンピュータシステムが、
複数種類の物体の中からロボットが操作する対象となる特定種類の物体を指定する情報の入力を受け付けるステップと、
前記指定された特定種類の物体と前記ロボットの手先との間の目標とする相対的位置関係を指定する情報の入力を受け付けるステップと、
前記複数種類の物体とその周辺の環境を撮影するステップと、
前記撮影により得られた画像情報から、前記指定された特定種類の物体を抽出して前記特定種類の物体の位置及び姿勢を示す情報を生成するステップと、
前記ロボットの位置及び姿勢を検出するステップと、
前記指定された特定種類の物体と前記手先との間の相対的位置関係を前記目標とする相対的位置関係に一致させるための前記ロボットの動作の機械学習がなされた学習済みモデル又は前記学習済モデルと入出力関係が同等のモデルを含む学習モジュールを準備するステップと、
前記特定種類の物体の位置及び姿勢を示す情報と、前記ロボットの位置及び姿勢を示す情報とから定まる前記物体と前記手先との間の相対的位置関係を前記目標とする相対的位置関係に一致させるための前記ロボットの動作を指示する動作指令を前記学習モジュールの学習結果から生成して前記ロボットに出力するステップと、
を実行するロボット制御方法。 - コンピュータシステムに、
複数種類の物体の中からロボットが操作する対象となる特定種類の物体を指定する情報の入力を受け付けるステップと、
前記指定された特定種類の物体と前記ロボットの手先との間の目標とする相対的位置関係を指定する情報の入力を受け付けるステップと、
前記複数種類の物体とその周辺の環境を撮影するステップと、
前記撮影により得られた画像情報から、前記指定された特定種類の物体を抽出して前記特定種類の物体の位置及び姿勢を示す情報を生成するステップと、
前記ロボットの位置及び姿勢を検出するステップと、
前記指定された特定種類の物体と前記手先との間の相対的位置関係を前記目標とする相対的位置関係に一致させるための前記ロボットの動作の機械学習がなされた学習済みモデル又は前記学習済モデルと入出力関係が同等のモデルを含む学習モジュールを準備するステップと、
前記特定種類の物体の位置及び姿勢を示す情報と、前記ロボットの位置及び姿勢を示す情報とから定まる前記物体と前記手先との間の相対的位置関係を前記目標とする相対的位置関係に一致させるための前記ロボットの動作を指示する動作指令を前記学習モジュールの学習結果から生成して前記ロボットに出力するステップと、
を実行させるロボット制御プログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018211422A JP7205752B2 (ja) | 2018-11-09 | 2018-11-09 | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム |
EP19883050.7A EP3878605A4 (en) | 2018-11-09 | 2019-10-31 | ROBOT CONTROL DEVICE, ROBOT CONTROL METHOD AND ROBOT CONTROL PROGRAM |
PCT/JP2019/042709 WO2020095805A1 (ja) | 2018-11-09 | 2019-10-31 | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム |
US17/269,993 US20210323145A1 (en) | 2018-11-09 | 2019-10-31 | Robot control device, robot control method, and non-transitory computer readable storage medium |
CN201980051517.4A CN112533739B (zh) | 2018-11-09 | 2019-10-31 | 机器人控制装置、机器人控制方法以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018211422A JP7205752B2 (ja) | 2018-11-09 | 2018-11-09 | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020075337A JP2020075337A (ja) | 2020-05-21 |
JP7205752B2 true JP7205752B2 (ja) | 2023-01-17 |
Family
ID=70611801
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018211422A Active JP7205752B2 (ja) | 2018-11-09 | 2018-11-09 | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210323145A1 (ja) |
EP (1) | EP3878605A4 (ja) |
JP (1) | JP7205752B2 (ja) |
CN (1) | CN112533739B (ja) |
WO (1) | WO2020095805A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114273726B (zh) * | 2021-12-15 | 2023-06-20 | 熵智科技(深圳)有限公司 | 3d视觉引导切坡口方法、装置、设备、系统及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007216381A (ja) | 2004-07-13 | 2007-08-30 | Matsushita Electric Ind Co Ltd | ロボット |
US20150239127A1 (en) | 2014-02-25 | 2015-08-27 | Gm Global Technology Operations Llc. | Visual debugging of robotic tasks |
JP2016203293A (ja) | 2015-04-21 | 2016-12-08 | 株式会社豊田自動織機 | ピッキング装置およびピッキング方法 |
US20170252924A1 (en) | 2016-03-03 | 2017-09-07 | Google Inc. | Deep machine learning methods and apparatus for robotic grasping |
JP2018051652A (ja) | 2016-09-27 | 2018-04-05 | 株式会社日立製作所 | ロボットシステム |
JP2018118343A (ja) | 2017-01-25 | 2018-08-02 | 株式会社安川電機 | ハンドリングシステム及びコントローラ |
JP2018161692A (ja) | 2017-03-24 | 2018-10-18 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3998741B2 (ja) * | 1995-07-12 | 2007-10-31 | ファナック株式会社 | ロボットの移動制御方法 |
JPH10249767A (ja) * | 1997-03-13 | 1998-09-22 | Mitsubishi Electric Corp | 移動型物体把持装置及びその制御方法 |
JP2013022705A (ja) * | 2011-07-25 | 2013-02-04 | Sony Corp | ロボット装置及びロボット装置の制御方法、コンピューター・プログラム、並びにロボット・システム |
JP6421722B2 (ja) * | 2015-08-07 | 2018-11-14 | オムロン株式会社 | 画像処理装置、校正方法および校正プログラム |
CN107921641B (zh) * | 2015-08-25 | 2021-08-03 | 川崎重工业株式会社 | 机器人系统及其运转方法 |
CN113731862B (zh) * | 2015-11-13 | 2024-04-12 | 伯克希尔格雷营业股份有限公司 | 用于提供各种物体的分拣的分拣系统和方法 |
WO2018116589A1 (ja) * | 2016-12-19 | 2018-06-28 | 株式会社安川電機 | 産業機器用の画像認識プロセッサ及びコントローラ |
DE112017007028B4 (de) * | 2017-02-09 | 2023-06-15 | Mitsubishi Electric Corporation | Positionskontrollvorrichtung und Positionskontrollverfahren |
JP6598814B2 (ja) * | 2017-04-05 | 2019-10-30 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム、システム、および物品製造方法 |
US10562181B2 (en) * | 2017-07-03 | 2020-02-18 | X Development Llc | Determining and utilizing corrections to robot actions |
-
2018
- 2018-11-09 JP JP2018211422A patent/JP7205752B2/ja active Active
-
2019
- 2019-10-31 CN CN201980051517.4A patent/CN112533739B/zh active Active
- 2019-10-31 WO PCT/JP2019/042709 patent/WO2020095805A1/ja unknown
- 2019-10-31 US US17/269,993 patent/US20210323145A1/en active Pending
- 2019-10-31 EP EP19883050.7A patent/EP3878605A4/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007216381A (ja) | 2004-07-13 | 2007-08-30 | Matsushita Electric Ind Co Ltd | ロボット |
US20150239127A1 (en) | 2014-02-25 | 2015-08-27 | Gm Global Technology Operations Llc. | Visual debugging of robotic tasks |
JP2016203293A (ja) | 2015-04-21 | 2016-12-08 | 株式会社豊田自動織機 | ピッキング装置およびピッキング方法 |
US20170252924A1 (en) | 2016-03-03 | 2017-09-07 | Google Inc. | Deep machine learning methods and apparatus for robotic grasping |
JP2018051652A (ja) | 2016-09-27 | 2018-04-05 | 株式会社日立製作所 | ロボットシステム |
JP2018118343A (ja) | 2017-01-25 | 2018-08-02 | 株式会社安川電機 | ハンドリングシステム及びコントローラ |
JP2018161692A (ja) | 2017-03-24 | 2018-10-18 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN112533739B (zh) | 2024-06-14 |
US20210323145A1 (en) | 2021-10-21 |
EP3878605A4 (en) | 2022-07-27 |
EP3878605A1 (en) | 2021-09-15 |
JP2020075337A (ja) | 2020-05-21 |
CN112533739A (zh) | 2021-03-19 |
WO2020095805A1 (ja) | 2020-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sadeghi et al. | Sim2real viewpoint invariant visual servoing by recurrent control | |
US20210205988A1 (en) | Task embedding for device control | |
Li et al. | Survey on mapping human hand motion to robotic hands for teleoperation | |
Sayour et al. | Autonomous robotic manipulation: real‐time, deep‐learning approach for grasping of unknown objects | |
Fu et al. | Active learning-based grasp for accurate industrial manipulation | |
Fang et al. | Visual-guided robotic object grasping using dual neural network controllers | |
CN115351780A (zh) | 用于控制机器人设备的方法 | |
CN114516060A (zh) | 用于控制机器人装置的设备和方法 | |
Zhang et al. | Industrial robot programming by demonstration | |
Misimi et al. | Robotic handling of compliant food objects by robust learning from demonstration | |
Inoue et al. | Transfer learning from synthetic to real images using variational autoencoders for robotic applications | |
Hwang et al. | Development of a mimic robot—Learning from demonstration incorporating object detection and multiaction recognition | |
JP7205752B2 (ja) | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム | |
Kushwaha et al. | Generating quality grasp rectangle using Pix2Pix GAN for intelligent robot grasping | |
CN114494426A (zh) | 用于控制机器人来在不同的方位拿起对象的装置和方法 | |
Dragusu et al. | Practical applications for robotic arms using image processing | |
Su et al. | A ROS based open source simulation environment for robotics beginners | |
Marić et al. | Robot arm teleoperation via RGBD sensor palm tracking | |
Grasshoff et al. | 7dof hand and arm tracking for teleoperation of anthropomorphic robots | |
Thompson et al. | Identification of unknown object properties based on tactile motion sequence using 2-finger gripper robot | |
Zhu et al. | A robotic semantic grasping method for pick-and-place tasks | |
Lin | Embedding Intelligence into Robotic Systems-Programming, Learning, and Planning | |
Elachkar | Robot Learning From Human Observation Using Deep Neural Networks | |
Elachkar et al. | An Experimental Setup for Robot Learning From Human Observation using Deep Neural Networks | |
Wu et al. | Controlling a robot's position using neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201211 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220816 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7205752 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |