JP2021065955A - ロボット制御システム及びその制御方法及びプログラム - Google Patents
ロボット制御システム及びその制御方法及びプログラム Download PDFInfo
- Publication number
- JP2021065955A JP2021065955A JP2019192132A JP2019192132A JP2021065955A JP 2021065955 A JP2021065955 A JP 2021065955A JP 2019192132 A JP2019192132 A JP 2019192132A JP 2019192132 A JP2019192132 A JP 2019192132A JP 2021065955 A JP2021065955 A JP 2021065955A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- neural network
- robot control
- control system
- imaging device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 20
- 238000013528 artificial neural network Methods 0.000 claims description 53
- 238000003384 imaging method Methods 0.000 claims description 52
- 230000002787 reinforcement Effects 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims 1
- 230000007935 neutral effect Effects 0.000 abstract 2
- 230000009471 action Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 8
- 238000003860 storage Methods 0.000 description 8
- 239000003795 chemical substances by application Substances 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 2
- 239000012636 effector Substances 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0014—Image feed-back for automatic industrial control, e.g. robot with camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/33—Director till display
- G05B2219/33056—Reinforcement learning, agent acts, receives reward, emotion, action selective
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39271—Ann artificial neural network, ffw-nn, feedforward neural network
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39484—Locate, reach and grasp, visual guided grasping
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40532—Ann for vision processing
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40604—Two camera, global vision camera, end effector neighbourhood vision camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Fuzzy Systems (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
- Numerical Control (AREA)
- Image Analysis (AREA)
Abstract
Description
所定の動作を行うロボットを制御するロボット制御システムであって、
前記ロボットの可動部とは独立した位置に配置され、前記ロボットの動作を撮像する第一撮像装置と、前記ロボットに固定され当該ロボットの動作を行う部位を画角内にして撮像する第二撮像装置とを含む複数の撮像装置により撮像された複数の画像を取得する取得手段と、
前記取得手段により取得された複数の撮像画像を入力とし、ロボット制御命令を出力するニューラルネットワークとを有する。
本第1の実施形態では、ロボットアームが初期状態から移動し、ワークを把持するまでのピッキング作業の学習モデル構築と利用の流れを説明する。把持した後の動作は特に問わないが、例えば他の場所への移動、整列、検品等が考えられる。把持した後の動作は、以後説明するニューラルネットワークを用いた構成で実現しても構わないし、モーションプラニングで移動、整列を行ってもよい。
次に第2の実施形態を説明する。なお、第2の実施形態と第1の実施形態は、基本的な構成及び動作について共通するので、これらの点についての重複する説明は省略する。第2の実施形態では、ニューラルネットワークの学習も実機を利用する。したがって、シミュレータで学習する際に必要となるDomain Randomizationは不要となる。また報酬に関して、シミュレータではワークとエンドエフェクターの距離が簡単に求まるが、現実では、エンドエフェクターの絶対位置は運動学から求められるものの、ワークの位置は機械的に求められないので、手動で配置して、位置を入力する等の作業が必要となる。これは第1の実施形態において、実機でファインチューニングを行う際も同様である。
上記実施形態では、ロボットアームが移動してワークを把持する動作を行う、いわゆるピッキング作業について説明したが、他の作業にも応用可能である。例えば、ロボットアームの先端に異なる作業装置を取り付けることで、例えば溶接、計測、検査、手術などに適用することも可能である。
Claims (11)
- 所定の動作を行うロボットを制御するロボット制御システムであって、
前記ロボットの可動部とは独立した位置に配置され、前記ロボットの動作を撮像する第一撮像装置と、前記ロボットに固定され当該ロボットの動作を行う部位を画角内にして撮像する第二撮像装置とを含む複数の撮像装置により撮像された複数の画像を取得する取得手段と、
前記取得手段により取得された複数の撮像画像を入力とし、ロボット制御命令を出力するニューラルネットワークと、
を有することを特徴とするロボット制御システム。 - 前記ニューラルネットワークで得られたロボット制御命令に従って前記ロボットを制御する制御手段をさらに有する請求項1に記載のロボット制御システム。
- 前記第二撮像装置はロボットの可動部に取り付けられていることを特徴とする請求項1に記載のロボット制御システム。
- 前記第二撮像装置はロボットのアーム先端に取り付けられていることを特徴とする請求項1に記載のロボット制御システム。
- 前記所定の動作は、ワークをピッキングする動作であることを特徴とする請求項1乃至4のいずれか1項に記載のロボット制御システム。
- 前記ニューラルネットワークは、強化学習によって重みが更新されることを特徴とする請求項1乃至5のいずれか1項に記載のロボット制御システム。
- 前記ニューラルネットワークの入力層は、前記第一撮像装置による映像から画像特徴量を抽出する層と、前記第二撮像装置による映像から画像特徴量を抽出する層とで構成されることを特徴とする請求項1乃至6のいずれか1項に記載のロボット制御システム。
- 前記ニューラルネットワークの入力層は、前記第一撮像装置、第二撮像装置のそれぞれの映像を結合して得た1つの結合画像から画像特徴量を抽出する1つの層で構成されることを特徴とする請求項1乃至7のいずれか1項に記載のロボット制御システム。
- 前記ニューラルネットワークは画像特徴量を抽出する層を含んでおり、前記ニューラルネットワークが画像内の着目領域を可視化する手段を更に有することを特徴とする請求項1乃至8のいずれか1項に記載のロボット制御システム。
- 複数の撮像画像を入力とし、ロボット制御命令を出力するニューラルネットワークを有し、所定の動作を行うロボットを制御するロボット制御システムの制御方法であって、
前記ロボットの可動部とは独立した位置に配置され、前記ロボットの動作を撮像する第一撮像装置と、前記ロボットに固定され当該ロボットの動作を行う部位を画角内にして撮像する第二撮像装置とを含む複数の撮像装置により撮像された複数の画像を取得する取得工程と、
前記取得工程により取得された複数の撮像画像を前記ニューラルネットワークに供給し、ロボット制御命令を得る工程と、
を有することを特徴とするロボット制御システムの制御方法。 - コンピュータが読み込み実行することで、前記コンピュータに、請求項10に記載の方法の各工程を実行させるためのプログラム。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019192132A JP7458741B2 (ja) | 2019-10-21 | 2019-10-21 | ロボット制御装置及びその制御方法及びプログラム |
EP20201505.3A EP3812107A1 (en) | 2019-10-21 | 2020-10-13 | Robot control device, and method and program for controlling the same |
TW109135505A TWI802820B (zh) | 2019-10-21 | 2020-10-14 | 機器人控制裝置、方法和儲存媒體 |
US17/074,338 US20210114209A1 (en) | 2019-10-21 | 2020-10-19 | Robot control device, and method and non-transitory computer-readable storage medium for controlling the same |
KR1020200134887A KR20210047258A (ko) | 2019-10-21 | 2020-10-19 | 로보트 제어장치, 및 그 제어 방법 및 프로그램 |
CN202011132122.8A CN112757284B (zh) | 2019-10-21 | 2020-10-21 | 机器人控制装置、方法和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019192132A JP7458741B2 (ja) | 2019-10-21 | 2019-10-21 | ロボット制御装置及びその制御方法及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021065955A true JP2021065955A (ja) | 2021-04-30 |
JP2021065955A5 JP2021065955A5 (ja) | 2022-10-21 |
JP7458741B2 JP7458741B2 (ja) | 2024-04-01 |
Family
ID=72852445
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019192132A Active JP7458741B2 (ja) | 2019-10-21 | 2019-10-21 | ロボット制御装置及びその制御方法及びプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210114209A1 (ja) |
EP (1) | EP3812107A1 (ja) |
JP (1) | JP7458741B2 (ja) |
KR (1) | KR20210047258A (ja) |
CN (1) | CN112757284B (ja) |
TW (1) | TWI802820B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102366333B1 (ko) * | 2021-07-08 | 2022-02-25 | 주식회사 제타뱅크 | 로봇용 인공지능 플랫폼 제공 방법 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI790408B (zh) * | 2019-11-19 | 2023-01-21 | 財團法人工業技術研究院 | 抓取裝置及抓取方法 |
CN114929436B (zh) * | 2020-01-22 | 2024-09-20 | Abb瑞士股份有限公司 | 用于控制机器人的系统和方法、电子设备和计算机可读介质 |
US20230004786A1 (en) * | 2021-06-30 | 2023-01-05 | Micron Technology, Inc. | Artificial neural networks on a deep learning accelerator |
CN113326666B (zh) * | 2021-07-15 | 2022-05-03 | 浙江大学 | 基于卷积神经网络可微分结构搜寻的机器人智能抓取方法 |
US20230107460A1 (en) * | 2021-10-05 | 2023-04-06 | Deepmind Technologies Limited | Compositional generalization for reinforcement learning |
DE102022202145A1 (de) * | 2022-03-02 | 2023-09-07 | Robert Bosch Gesellschaft mit beschränkter Haftung | Roboter und Verfahren zum Steuern eines Roboters |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015118582A (ja) * | 2013-12-19 | 2015-06-25 | ソニー株式会社 | 情報処理装置、情報処理方法、並びにプログラム |
JP2018043338A (ja) * | 2016-09-16 | 2018-03-22 | ファナック株式会社 | ロボットの動作プログラムを学習する機械学習装置,ロボットシステムおよび機械学習方法 |
JP2019508273A (ja) * | 2016-03-03 | 2019-03-28 | グーグル エルエルシー | ロボットの把持のための深層機械学習方法および装置 |
WO2019163985A1 (ja) * | 2018-02-23 | 2019-08-29 | 日本電信電話株式会社 | 特徴表現装置、特徴表現方法、およびプログラム |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4167940B2 (ja) * | 2003-05-29 | 2008-10-22 | ファナック株式会社 | ロボットシステム |
CN101396829A (zh) * | 2007-09-29 | 2009-04-01 | 株式会社Ihi | 机器人装置的控制方法以及机器人装置 |
JP2011000703A (ja) * | 2009-05-19 | 2011-01-06 | Canon Inc | カメラ付きマニピュレータ |
JP6294248B2 (ja) * | 2015-01-28 | 2018-03-14 | ファナック株式会社 | ロボットを用いたキサゲ加工装置及びキサゲ加工方法 |
JP6522488B2 (ja) * | 2015-07-31 | 2019-05-29 | ファナック株式会社 | ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法 |
DE102016009030B4 (de) * | 2015-07-31 | 2019-05-09 | Fanuc Corporation | Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs |
US10523865B2 (en) * | 2016-01-06 | 2019-12-31 | Texas Instruments Incorporated | Three dimensional rendering for surround view using predetermined viewpoint lookup tables |
JP2017124450A (ja) | 2016-01-12 | 2017-07-20 | 株式会社ソフトサービス | ピックアップ装置 |
CN106094516A (zh) * | 2016-06-08 | 2016-11-09 | 南京大学 | 一种基于深度强化学习的机器人自适应抓取方法 |
WO2018053430A1 (en) * | 2016-09-16 | 2018-03-22 | Carbon Robotics, Inc. | System and calibration, registration, and training methods |
CN110088797B (zh) * | 2016-12-19 | 2023-04-21 | 株式会社安川电机 | 工业设备图像识别处理器及控制器 |
US20210030199A1 (en) * | 2017-03-06 | 2021-02-04 | Miso Robotics, Inc. | Augmented reality-enhanced food preparation system and related methods |
JP6822929B2 (ja) * | 2017-09-19 | 2021-01-27 | 株式会社東芝 | 情報処理装置、画像認識方法および画像認識プログラム |
JP6922733B2 (ja) * | 2017-12-29 | 2021-08-18 | 富士通株式会社 | ロボット、自己診断プログラム、及び自己診断方法 |
JP6693981B2 (ja) * | 2018-02-19 | 2020-05-13 | ファナック株式会社 | ロボットの動作をシミュレーションするシミュレーション装置 |
CN108550162B (zh) * | 2018-03-27 | 2020-02-07 | 清华大学 | 一种基于深度强化学习的物体检测方法 |
US20190368865A1 (en) * | 2018-05-30 | 2019-12-05 | Carbon Robotics, Inc. | Method for deriving varied-resolution 3d information from 2d images |
US11833681B2 (en) * | 2018-08-24 | 2023-12-05 | Nvidia Corporation | Robotic control system |
US12008768B2 (en) * | 2018-09-25 | 2024-06-11 | Visual Robotics Systems, Inc. | Spatially-aware camera and method thereof |
US11839983B2 (en) * | 2018-11-27 | 2023-12-12 | Ocado Innovation Limited | Systems and methods for robotic grasp verification |
JP6915605B2 (ja) * | 2018-11-29 | 2021-08-04 | オムロン株式会社 | 画像生成装置、ロボット訓練システム、画像生成方法、及び画像生成プログラム |
JP7372513B2 (ja) * | 2018-12-05 | 2023-11-01 | ミツミ電機株式会社 | 撮像デバイス、撮像システム、および産業用ロボット |
US11312012B2 (en) * | 2019-01-01 | 2022-04-26 | Giant Ai, Inc. | Software compensated robotics |
US11911914B2 (en) * | 2019-01-28 | 2024-02-27 | Cognex Corporation | System and method for automatic hand-eye calibration of vision system for robot motion |
US11741566B2 (en) * | 2019-02-22 | 2023-08-29 | Dexterity, Inc. | Multicamera image processing |
US11030766B2 (en) * | 2019-03-25 | 2021-06-08 | Dishcraft Robotics, Inc. | Automated manipulation of transparent vessels |
US20210023715A1 (en) * | 2019-07-24 | 2021-01-28 | Abb Schweiz Ag | Incorporating Vision System and In-Hand Object Location System for Object Manipulation and Training |
-
2019
- 2019-10-21 JP JP2019192132A patent/JP7458741B2/ja active Active
-
2020
- 2020-10-13 EP EP20201505.3A patent/EP3812107A1/en active Pending
- 2020-10-14 TW TW109135505A patent/TWI802820B/zh active
- 2020-10-19 US US17/074,338 patent/US20210114209A1/en not_active Abandoned
- 2020-10-19 KR KR1020200134887A patent/KR20210047258A/ko not_active Application Discontinuation
- 2020-10-21 CN CN202011132122.8A patent/CN112757284B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015118582A (ja) * | 2013-12-19 | 2015-06-25 | ソニー株式会社 | 情報処理装置、情報処理方法、並びにプログラム |
JP2019508273A (ja) * | 2016-03-03 | 2019-03-28 | グーグル エルエルシー | ロボットの把持のための深層機械学習方法および装置 |
JP2018043338A (ja) * | 2016-09-16 | 2018-03-22 | ファナック株式会社 | ロボットの動作プログラムを学習する機械学習装置,ロボットシステムおよび機械学習方法 |
WO2019163985A1 (ja) * | 2018-02-23 | 2019-08-29 | 日本電信電話株式会社 | 特徴表現装置、特徴表現方法、およびプログラム |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102366333B1 (ko) * | 2021-07-08 | 2022-02-25 | 주식회사 제타뱅크 | 로봇용 인공지능 플랫폼 제공 방법 |
KR20230009280A (ko) * | 2021-07-08 | 2023-01-17 | 주식회사 제타뱅크 | 로봇용 인공지능 모델 제공 방법 |
KR102642036B1 (ko) | 2021-07-08 | 2024-02-28 | 주식회사 제타뱅크 | 로봇용 인공지능 모델 제공 방법 |
Also Published As
Publication number | Publication date |
---|---|
EP3812107A1 (en) | 2021-04-28 |
TW202118608A (zh) | 2021-05-16 |
US20210114209A1 (en) | 2021-04-22 |
CN112757284B (zh) | 2024-03-22 |
TWI802820B (zh) | 2023-05-21 |
KR20210047258A (ko) | 2021-04-29 |
JP7458741B2 (ja) | 2024-04-01 |
CN112757284A (zh) | 2021-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7458741B2 (ja) | ロボット制御装置及びその制御方法及びプログラム | |
Wu et al. | Learning to manipulate deformable objects without demonstrations | |
US20220063089A1 (en) | Machine learning methods and apparatus related to predicting motion(s) of object(s) in a robot's environment based on image(s) capturing the object(s) and based on parameter(s) for future robot movement in the environment | |
Zhang et al. | Towards vision-based deep reinforcement learning for robotic motion control | |
US12053886B2 (en) | Device control using policy training based on task embeddings | |
Zhao et al. | Robust realtime physics-based motion control for human grasping | |
JP6915605B2 (ja) | 画像生成装置、ロボット訓練システム、画像生成方法、及び画像生成プログラム | |
CN108284436B (zh) | 具有模仿学习机制的远程机械双臂系统及方法 | |
CN108229678B (zh) | 网络训练方法、操作控制方法、装置、存储介质和设备 | |
US11679496B2 (en) | Robot controller that controls robot, learned model, method of controlling robot, and storage medium | |
JP7490142B2 (ja) | 姿勢の脱曖昧化 | |
Inoue et al. | Transfer learning from synthetic to real images using variational autoencoders for robotic applications | |
JP2019016164A (ja) | 学習データ生成装置、推定装置、推定方法及びコンピュータプログラム | |
Kim et al. | Acceleration of actor-critic deep reinforcement learning for visual grasping in clutter by state representation learning based on disentanglement of a raw input image | |
CN114585487A (zh) | 通过使用基于视觉的机器人任务模型训练模拟到真实模型来减轻现实差距 | |
Liu et al. | Sim-and-real reinforcement learning for manipulation: A consensus-based approach | |
JP7416170B2 (ja) | 学習方法、学習装置、プログラムおよび記録媒体 | |
Sui et al. | Transfer of robot perception module with adversarial learning | |
JP2021026599A (ja) | 画像処理システム | |
JP7538756B2 (ja) | データ生成装置、データ生成方法、制御装置、制御方法及びプログラム | |
EP4238714A1 (en) | Device and method for controlling a robot | |
Gruosso et al. | A Validation Approach for Deep Reinforcement Learning of a Robotic Arm in a 3D Simulated Environment | |
Hietala | Dynamic Robotic Cloth Manipulation | |
Wang et al. | Reinforcement Learning based End-to-End Control of Bimanual Robotic Coordination | |
Laitinen | Adversarial Robotic Cloth Manipulation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221011 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221011 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230824 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230828 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231023 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240319 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7458741 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |