JP7458741B2 - ロボット制御装置及びその制御方法及びプログラム - Google Patents
ロボット制御装置及びその制御方法及びプログラム Download PDFInfo
- Publication number
- JP7458741B2 JP7458741B2 JP2019192132A JP2019192132A JP7458741B2 JP 7458741 B2 JP7458741 B2 JP 7458741B2 JP 2019192132 A JP2019192132 A JP 2019192132A JP 2019192132 A JP2019192132 A JP 2019192132A JP 7458741 B2 JP7458741 B2 JP 7458741B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- imaging device
- neural network
- gripper
- movable arm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 18
- 238000003384 imaging method Methods 0.000 claims description 65
- 238000013528 artificial neural network Methods 0.000 claims description 53
- 230000002787 reinforcement Effects 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims 1
- 230000009471 action Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 239000003795 chemical substances by application Substances 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000012636 effector Substances 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0014—Image feed-back for automatic industrial control, e.g. robot with camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/33—Director till display
- G05B2219/33056—Reinforcement learning, agent acts, receives reward, emotion, action selective
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39271—Ann artificial neural network, ffw-nn, feedforward neural network
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39484—Locate, reach and grasp, visual guided grasping
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40532—Ann for vision processing
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40604—Two camera, global vision camera, end effector neighbourhood vision camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Fuzzy Systems (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
- Numerical Control (AREA)
Description
対象物を把持するためのグリッパを備えた可動アームを有するロボットを、前記可動アームが初期状態から移動し、前記グリッパで前記対象物を把持するように制御するロボット制御装置であって、
第一撮像装置と、前記第一撮像装置とは異なる第二撮像装置とを含む複数の撮像装置により撮像された複数の画像を取得する取得手段と、
前記取得手段により取得された複数の撮像画像を結合することにより得られた2次元画像である結合画像をニューラルネットワークへの入力として用い、その結果としての前記ニューラルネットワークからの出力に基づき前記ロボットのための制御命令を特定する特定手段と
を有し、
前記第一撮像装置は、前記対象物及び前記可動アームの少なくとも一部を視野に含むように前記可動アームとは独立した位置に配置され、
前記第二撮像装置は、前記グリッパによる前記対象物の把持状態を観察するために、常に前記グリッパを含むように前記グリッパの周辺の画像を撮像するように前記可動アームに取り付けられている。
本第1の実施形態では、ロボットアームが初期状態から移動し、ワークを把持するまでのピッキング作業の学習モデル構築と利用の流れを説明する。把持した後の動作は特に問わないが、例えば他の場所への移動、整列、検品等が考えられる。把持した後の動作は、以後説明するニューラルネットワークを用いた構成で実現しても構わないし、モーションプラニングで移動、整列を行ってもよい。
次に第2の実施形態を説明する。なお、第2の実施形態と第1の実施形態は、基本的な構成及び動作について共通するので、これらの点についての重複する説明は省略する。第2の実施形態では、ニューラルネットワークの学習も実機を利用する。したがって、シミュレータで学習する際に必要となるDomain Randomizationは不要となる。また報酬に関して、シミュレータではワークとエンドエフェクターの距離が簡単に求まるが、現実では、エンドエフェクターの絶対位置は運動学から求められるものの、ワークの位置は機械的に求められないので、手動で配置して、位置を入力する等の作業が必要となる。これは第1の実施形態において、実機でファインチューニングを行う際も同様である。
上記実施形態では、ロボットアームが移動してワークを把持する動作を行う、いわゆるピッキング作業について説明したが、他の作業にも応用可能である。例えば、ロボットアームの先端に異なる作業装置を取り付けることで、例えば溶接、計測、検査、手術などに適用することも可能である。
Claims (8)
- 対象物を把持するためのグリッパを備えた可動アームを有するロボットを、前記可動アームが初期状態から移動し、前記グリッパで前記対象物を把持するように制御するロボット制御装置であって、
第一撮像装置と、前記第一撮像装置とは異なる第二撮像装置とを含む複数の撮像装置により撮像された複数の画像を取得する取得手段と、
前記取得手段により取得された複数の撮像画像を結合することにより得られた2次元画像である結合画像をニューラルネットワークへの入力として用い、その結果としての前記ニューラルネットワークからの出力に基づき前記ロボットのための制御命令を特定する特定手段と
を有し、
前記第一撮像装置は、前記対象物及び前記可動アームの少なくとも一部を視野に含むように前記可動アームとは独立した位置に配置され、
前記第二撮像装置は、前記グリッパによる前記対象物の把持状態を観察するために、常に前記グリッパを含むように前記グリッパの周辺の画像を撮像するように前記可動アームに取り付けられていることを特徴とするロボット制御装置。 - 前記第一撮像装置は、前記ロボットの可動部とは独立した位置に配置され、前記対象物及び前記ロボットの全体を撮像することを特徴とする請求項1に記載のロボット制御装置。
- 前記ニューラルネットワークで得られたロボット制御命令に従って前記ロボットを制御する制御手段をさらに有することを特徴とする請求項1または請求項2に記載のロボット制御装置。
- 前記ニューラルネットワークは、強化学習によって重みが更新されることを特徴とする請求項1乃至3のいずれか1項に記載のロボット制御装置。
- 前記ニューラルネットワークの入力層は、前記第一撮像装置、第二撮像装置のそれぞれの映像を結合して得た1つの前記結合画像から画像特徴量を抽出する1つの層で構成されることを特徴とする請求項1乃至4のいずれか1項に記載のロボット制御装置。
- 前記ニューラルネットワークは画像特徴量を抽出する層を含んでおり、前記ニューラルネットワークが画像内の着目領域を可視化する手段を更に有することを特徴とする請求項1乃至5のいずれか1項に記載のロボット制御装置。
- 対象物を把持するためのグリッパを備えた可動アームを有するロボットを、前記可動アームが初期状態から移動し、前記グリッパで前記対象物を把持するように制御するロボット制御装置の制御方法であって、
第一撮像装置と、前記第一撮像装置とは異なる第二撮像装置とを含む複数の撮像装置により撮像された複数の画像を取得する取得工程と、
前記取得工程により取得された複数の撮像画像を結合することにより得られた2次元画像である結合画像をニューラルネットワークへの入力として用い、その結果としての前記ニューラルネットワークからの出力に基づき前記ロボットのための制御命令を特定する特定工程と
を有し、
前記第一撮像装置は、前記対象物及び前記可動アームの少なくとも一部を視野に含むように前記可動アームとは独立した位置に配置され、
前記第二撮像装置は、前記グリッパによる前記対象物の把持状態を観察するために、常に前記グリッパを含むように前記グリッパの周辺の画像を撮像するように前記可動アームに取り付けられていることを特徴とするロボット制御装置の制御方法。 - コンピュータが読み込み実行することで、前記コンピュータに、請求項7に記載の方法の各工程を実行させるためのプログラム。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019192132A JP7458741B2 (ja) | 2019-10-21 | 2019-10-21 | ロボット制御装置及びその制御方法及びプログラム |
EP20201505.3A EP3812107A1 (en) | 2019-10-21 | 2020-10-13 | Robot control device, and method and program for controlling the same |
TW109135505A TWI802820B (zh) | 2019-10-21 | 2020-10-14 | 機器人控制裝置、方法和儲存媒體 |
US17/074,338 US20210114209A1 (en) | 2019-10-21 | 2020-10-19 | Robot control device, and method and non-transitory computer-readable storage medium for controlling the same |
KR1020200134887A KR20210047258A (ko) | 2019-10-21 | 2020-10-19 | 로보트 제어장치, 및 그 제어 방법 및 프로그램 |
CN202011132122.8A CN112757284B (zh) | 2019-10-21 | 2020-10-21 | 机器人控制装置、方法和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019192132A JP7458741B2 (ja) | 2019-10-21 | 2019-10-21 | ロボット制御装置及びその制御方法及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021065955A JP2021065955A (ja) | 2021-04-30 |
JP2021065955A5 JP2021065955A5 (ja) | 2022-10-21 |
JP7458741B2 true JP7458741B2 (ja) | 2024-04-01 |
Family
ID=72852445
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019192132A Active JP7458741B2 (ja) | 2019-10-21 | 2019-10-21 | ロボット制御装置及びその制御方法及びプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210114209A1 (ja) |
EP (1) | EP3812107A1 (ja) |
JP (1) | JP7458741B2 (ja) |
KR (1) | KR20210047258A (ja) |
CN (1) | CN112757284B (ja) |
TW (1) | TWI802820B (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI790408B (zh) * | 2019-11-19 | 2023-01-21 | 財團法人工業技術研究院 | 抓取裝置及抓取方法 |
CN114929436B (zh) * | 2020-01-22 | 2024-09-20 | Abb瑞士股份有限公司 | 用于控制机器人的系统和方法、电子设备和计算机可读介质 |
US20230004786A1 (en) * | 2021-06-30 | 2023-01-05 | Micron Technology, Inc. | Artificial neural networks on a deep learning accelerator |
KR102366333B1 (ko) * | 2021-07-08 | 2022-02-25 | 주식회사 제타뱅크 | 로봇용 인공지능 플랫폼 제공 방법 |
CN113326666B (zh) * | 2021-07-15 | 2022-05-03 | 浙江大学 | 基于卷积神经网络可微分结构搜寻的机器人智能抓取方法 |
US20230107460A1 (en) * | 2021-10-05 | 2023-04-06 | Deepmind Technologies Limited | Compositional generalization for reinforcement learning |
DE102022202145A1 (de) * | 2022-03-02 | 2023-09-07 | Robert Bosch Gesellschaft mit beschränkter Haftung | Roboter und Verfahren zum Steuern eines Roboters |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015118582A (ja) | 2013-12-19 | 2015-06-25 | ソニー株式会社 | 情報処理装置、情報処理方法、並びにプログラム |
JP2018043338A (ja) | 2016-09-16 | 2018-03-22 | ファナック株式会社 | ロボットの動作プログラムを学習する機械学習装置,ロボットシステムおよび機械学習方法 |
JP2019508273A (ja) | 2016-03-03 | 2019-03-28 | グーグル エルエルシー | ロボットの把持のための深層機械学習方法および装置 |
WO2019163985A1 (ja) | 2018-02-23 | 2019-08-29 | 日本電信電話株式会社 | 特徴表現装置、特徴表現方法、およびプログラム |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4167940B2 (ja) * | 2003-05-29 | 2008-10-22 | ファナック株式会社 | ロボットシステム |
CN101396829A (zh) * | 2007-09-29 | 2009-04-01 | 株式会社Ihi | 机器人装置的控制方法以及机器人装置 |
JP2011000703A (ja) * | 2009-05-19 | 2011-01-06 | Canon Inc | カメラ付きマニピュレータ |
JP6294248B2 (ja) * | 2015-01-28 | 2018-03-14 | ファナック株式会社 | ロボットを用いたキサゲ加工装置及びキサゲ加工方法 |
DE102016015936B8 (de) * | 2015-07-31 | 2024-10-24 | Fanuc Corporation | Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs |
JP6522488B2 (ja) * | 2015-07-31 | 2019-05-29 | ファナック株式会社 | ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法 |
US10523865B2 (en) * | 2016-01-06 | 2019-12-31 | Texas Instruments Incorporated | Three dimensional rendering for surround view using predetermined viewpoint lookup tables |
JP2017124450A (ja) | 2016-01-12 | 2017-07-20 | 株式会社ソフトサービス | ピックアップ装置 |
CN106094516A (zh) * | 2016-06-08 | 2016-11-09 | 南京大学 | 一种基于深度强化学习的机器人自适应抓取方法 |
US10723022B2 (en) * | 2016-09-16 | 2020-07-28 | Carbon Robotics, Inc. | System and calibration, registration, and training methods |
JP7022076B2 (ja) * | 2016-12-19 | 2022-02-17 | 株式会社安川電機 | 産業機器用の画像認識プロセッサ及びコントローラ |
JP6822929B2 (ja) * | 2017-09-19 | 2021-01-27 | 株式会社東芝 | 情報処理装置、画像認識方法および画像認識プログラム |
JP6922733B2 (ja) * | 2017-12-29 | 2021-08-18 | 富士通株式会社 | ロボット、自己診断プログラム、及び自己診断方法 |
JP6693981B2 (ja) * | 2018-02-19 | 2020-05-13 | ファナック株式会社 | ロボットの動作をシミュレーションするシミュレーション装置 |
CN108550162B (zh) * | 2018-03-27 | 2020-02-07 | 清华大学 | 一种基于深度强化学习的物体检测方法 |
US20190368865A1 (en) * | 2018-05-30 | 2019-12-05 | Carbon Robotics, Inc. | Method for deriving varied-resolution 3d information from 2d images |
US11833681B2 (en) * | 2018-08-24 | 2023-12-05 | Nvidia Corporation | Robotic control system |
WO2020068849A1 (en) * | 2018-09-25 | 2020-04-02 | Visual Robotics Systems Inc. | Spatially-aware camera and method thereof |
US11839983B2 (en) * | 2018-11-27 | 2023-12-12 | Ocado Innovation Limited | Systems and methods for robotic grasp verification |
JP6915605B2 (ja) * | 2018-11-29 | 2021-08-04 | オムロン株式会社 | 画像生成装置、ロボット訓練システム、画像生成方法、及び画像生成プログラム |
JP7372513B2 (ja) * | 2018-12-05 | 2023-11-01 | ミツミ電機株式会社 | 撮像デバイス、撮像システム、および産業用ロボット |
US11312012B2 (en) * | 2019-01-01 | 2022-04-26 | Giant Ai, Inc. | Software compensated robotics |
US11911914B2 (en) * | 2019-01-28 | 2024-02-27 | Cognex Corporation | System and method for automatic hand-eye calibration of vision system for robot motion |
US11741566B2 (en) * | 2019-02-22 | 2023-08-29 | Dexterity, Inc. | Multicamera image processing |
US11030766B2 (en) * | 2019-03-25 | 2021-06-08 | Dishcraft Robotics, Inc. | Automated manipulation of transparent vessels |
US20210023715A1 (en) * | 2019-07-24 | 2021-01-28 | Abb Schweiz Ag | Incorporating Vision System and In-Hand Object Location System for Object Manipulation and Training |
-
2019
- 2019-10-21 JP JP2019192132A patent/JP7458741B2/ja active Active
-
2020
- 2020-10-13 EP EP20201505.3A patent/EP3812107A1/en active Pending
- 2020-10-14 TW TW109135505A patent/TWI802820B/zh active
- 2020-10-19 US US17/074,338 patent/US20210114209A1/en active Pending
- 2020-10-19 KR KR1020200134887A patent/KR20210047258A/ko not_active Application Discontinuation
- 2020-10-21 CN CN202011132122.8A patent/CN112757284B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015118582A (ja) | 2013-12-19 | 2015-06-25 | ソニー株式会社 | 情報処理装置、情報処理方法、並びにプログラム |
JP2019508273A (ja) | 2016-03-03 | 2019-03-28 | グーグル エルエルシー | ロボットの把持のための深層機械学習方法および装置 |
JP2018043338A (ja) | 2016-09-16 | 2018-03-22 | ファナック株式会社 | ロボットの動作プログラムを学習する機械学習装置,ロボットシステムおよび機械学習方法 |
WO2019163985A1 (ja) | 2018-02-23 | 2019-08-29 | 日本電信電話株式会社 | 特徴表現装置、特徴表現方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP3812107A1 (en) | 2021-04-28 |
CN112757284B (zh) | 2024-03-22 |
TW202118608A (zh) | 2021-05-16 |
JP2021065955A (ja) | 2021-04-30 |
TWI802820B (zh) | 2023-05-21 |
CN112757284A (zh) | 2021-05-07 |
US20210114209A1 (en) | 2021-04-22 |
KR20210047258A (ko) | 2021-04-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7458741B2 (ja) | ロボット制御装置及びその制御方法及びプログラム | |
Sadeghi et al. | Sim2real viewpoint invariant visual servoing by recurrent control | |
US12053886B2 (en) | Device control using policy training based on task embeddings | |
US11717959B2 (en) | Machine learning methods and apparatus for semantic robotic grasping | |
CN110769985A (zh) | 使用循环神经网络的机器人末端执行器的视点不变的视觉伺服 | |
WO2020190272A1 (en) | Creation of digital twin of the interaction among parts of the physical system | |
CN109397285B (zh) | 一种装配方法、装配装置及装配设备 | |
JP2018202550A (ja) | 機械学習装置、機械学習方法、および機械学習プログラム | |
Zhang et al. | Sim2real learning of obstacle avoidance for robotic manipulators in uncertain environments | |
CN108229678B (zh) | 网络训练方法、操作控制方法、装置、存储介质和设备 | |
US11679496B2 (en) | Robot controller that controls robot, learned model, method of controlling robot, and storage medium | |
Inoue et al. | Transfer learning from synthetic to real images using variational autoencoders for robotic applications | |
EP4021687A1 (en) | Mitigating reality gap through training a simulation-to-real model using a vision-based robot task model | |
Gutzeit et al. | The besman learning platform for automated robot skill learning | |
Liu et al. | Sim-and-real reinforcement learning for manipulation: A consensus-based approach | |
JP7473005B2 (ja) | 情報処理システム、情報処理装置、情報処理方法、及び、プログラム | |
CN117769724A (zh) | 使用深度学习的对象检测和分类的合成数据集创建 | |
JP7531733B2 (ja) | 異なるドメイン内のタスク間の転送 | |
Sui et al. | Transfer of robot perception module with adversarial learning | |
Gomes et al. | Deep Reinforcement learning applied to a robotic pick-and-place application | |
EP4238714A1 (en) | Device and method for controlling a robot | |
JP7441335B2 (ja) | 動作生成装置、ロボットシステム、動作生成方法及び動作生成プログラム | |
WO2023100282A1 (ja) | データ生成システム、モデル生成システム、推定システム、学習済みモデルの製造方法、ロボット制御システム、データ生成方法、およびデータ生成プログラム | |
EP3542971A2 (en) | Generating learned knowledge from an executable domain model | |
Gruosso et al. | A Validation Approach for Deep Reinforcement Learning of a Robotic Arm in a 3D Simulated Environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221011 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221011 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230824 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230828 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231023 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240319 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7458741 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |