JP6587195B2 - 触覚情報推定装置、触覚情報推定方法、プログラム及び非一時的コンピュータ可読媒体 - Google Patents
触覚情報推定装置、触覚情報推定方法、プログラム及び非一時的コンピュータ可読媒体 Download PDFInfo
- Publication number
- JP6587195B2 JP6587195B2 JP2018005151A JP2018005151A JP6587195B2 JP 6587195 B2 JP6587195 B2 JP 6587195B2 JP 2018005151 A JP2018005151 A JP 2018005151A JP 2018005151 A JP2018005151 A JP 2018005151A JP 6587195 B2 JP6587195 B2 JP 6587195B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- visual
- tactile
- tactile information
- gripping
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/081—Touching devices, e.g. pressure-sensitive
- B25J13/084—Tactile sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39271—Ann artificial neural network, ffw-nn, feedforward neural network
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39523—Set holding force as function of dimension, weight, shape, hardness, surface
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40575—Camera combined with tactile sensors, for 3-D
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40627—Tactile image sensor, matrix, array of tactile elements, tixels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Image Analysis (AREA)
- Force Measurement Appropriate To Specific Purposes (AREA)
- Manipulator (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
本実施形態は、視覚情報を入力すると、触覚情報を推定して出力する触覚情報推定装置について説明する。この触覚情報推定装置は、視覚情報から触覚情報を推定した結果だけではなく、視覚情報から触覚情報を生成する生成モデルを出力するようにしてもよい。以下、図面を参照して、詳しく説明する。
図5は、本実施形態に係る触覚情報推定装置1の機能を示すブロック図である。前述した第1実施形態に係る触覚情報推定装置1の機能に加え、さらに、把持情報取得部112を備える。
図8は、本実施形態に係る触覚情報推定装置1の機能を示すブロック図である。触覚情報推定装置1はさらに、把持位置決定部116と、物体特性推定部118と、把持力決定部120と、把持制御部122と、把持部124と、を備える。
前述した実施形態では、把持部124を備えるとしたが、前述した第2実施形態における把持情報取得部112が把持部124を兼ねるものであってもよい。図11は、把持部124を備え、把持部124が把持情報取得部112の機能を兼ねる構成を示すブロック図である。
Claims (25)
- 1又は複数のメモリと、
1又は複数のプロセッサと、を備え、
前記1又は複数のプロセッサは、
少なくとも、視覚センサで取得された物体の第1の視覚情報を、視覚情報と前記視覚情報に紐付けられた触覚情報とに基づいて生成されたモデルに入力し、前記物体の触覚情報に関する特徴量を抽出すること、
を実行するよう構成される、
触覚情報推定装置。 - 前記1又は複数のプロセッサは、
前記物体の第2の視覚情報に基づいて、把持装置が前記物体を把持する位置を決定すること、
を実行するようにさらに構成される、
請求項1に記載の触覚情報推定装置。 - 前記第2の視覚情報が前記第1の視覚情報である、
請求項2に記載の触覚情報推定装置。 - 前記1又は複数のプロセッサは、
決定された前記把持する位置に基づいて、前記把持装置に前記物体を把持させること、
を実行するようにさらに構成される、
請求項2又は請求項3に記載の触覚情報推定装置。 - 前記1又は複数のプロセッサは、
前記物体の触覚情報に関する特徴量に基づいて、前記把持装置が前記物体を把持する力を決定すること、
を実行するようにさらに構成される、
請求項2乃至請求項4のいずれかに記載の触覚情報推定装置。 - 前記1又は複数のプロセッサは、
決定された前記把持する力に基づいて、前記把持装置に前記物体を把持させること、
を実行するようにさらに構成される、
請求項5に記載の触覚情報推定装置。 - 前記1又は複数のプロセッサは、
前記把持装置が前記物体を把持した状態に基づいて、前記把持する位置を更新すること、
を実行するようにさらに構成される、
請求項2又は請求項3に記載の触覚情報推定装置。 - 前記把持装置が前記物体を把持した状態は、少なくとも、前記物体を安定して把持できているか否かを示す情報又は触覚センサからの情報のいずれかを含む、
請求項7に記載の触覚情報推定装置。 - 前記視覚センサと、
前記把持装置と、
を更に備える請求項2乃至請求項8のいずれかに記載の触覚情報推定装置。 - 前記モデルは、前記視覚情報と前記視覚情報に紐づけられた触覚情報とを自己組織化したモデルである、
請求項1乃至請求項9のいずれかに記載の触覚情報推定装置。 - 前記第1の視覚情報は、少なくとも、前記物体のテクスチャ情報又は前記物体の形状情報のいずれか一つを含む、
請求項1乃至請求項10のいずれかに記載の触覚情報推定装置。 - 前記物体の触覚情報は、前記物体の表面からの面としての圧力情報を含む、
請求項1乃至請求項11のいずれかに記載の触覚情報推定装置。 - 1又は複数のメモリと、
1又は複数のプロセッサと、を備え、
前記1又は複数のプロセッサは、
視覚情報と前記視覚情報に紐付けられた触覚情報とに基づいて、少なくとも、視覚センサで取得された物体の視覚情報が入力されると、前記物体の触覚情報に関する特徴量を出力するモデルを学習すること、
を実行するよう構成される、
触覚情報学習装置。 - 1又は複数のプロセッサが、
少なくとも、視覚センサで取得された物体の第1の視覚情報を、視覚情報と前記視覚情報に紐付けられた触覚情報とに基づいて生成されたモデルに入力し、前記物体の触覚情報に関する特徴量を抽出する、
触覚情報推定方法。 - 前記1又は複数のプロセッサが、
前記物体の第2の視覚情報に基づいて、把持装置が前記物体を把持する位置を決定する、
請求項14に記載の触覚情報推定方法。 - 前記第2の視覚情報が前記第1の視覚情報である、
請求項15に記載の触覚情報推定方法。 - 前記1又は複数のプロセッサが、
決定された前記把持する位置に基づいて、前記把持装置に前記物体を把持させる、
請求項15又は請求項16に記載の触覚情報推定方法。 - 前記1又は複数のプロセッサが、
前記物体の触覚情報に関する特徴量に基づいて、前記把持装置が前記物体を把持する力を決定する、
請求項15乃至請求項17のいずれかに記載の触覚情報推定方法。 - 前記1又は複数のプロセッサが、
決定された前記把持する力に基づいて、前記把持装置に前記物体を把持させる、
請求項18に記載の触覚情報推定方法。 - 前記1又は複数のプロセッサが、
前記把持装置が前記物体を把持した状態に基づいて、前記把持する位置を更新する、
請求項15又は請求項16に記載の触覚情報推定方法。 - 1又は複数のプロセッサが
視覚情報と前記視覚情報に紐付けられた触覚情報とに基づいて、少なくとも、視覚センサで取得された物体の視覚情報が入力されると、前記物体の触覚情報に関する特徴量を出力するモデルを学習する、
触覚情報学習方法。 - コンピュータを
少なくとも、視覚センサで取得された物体の第1の視覚情報を、視覚情報と前記視覚情報に紐付けられた触覚情報とに基づいて生成されたモデルに入力し、前記物体の触覚情報に関する特徴量を抽出する手段、
として機能させる、プログラム。 - コンピュータを、
視覚情報と前記視覚情報に紐付けられた触覚情報とに基づいて、少なくとも、視覚センサで取得された物体の視覚情報が入力されると、前記物体の触覚情報に関する特徴量を出力するモデルを学習する手段、
として機能させる、プログラム。 - 1又は複数のプロセッサにより実行させると、
少なくとも、視覚センサで取得された物体の第1の視覚情報を、視覚情報と前記視覚情報に紐付けられた触覚情報とに基づいて生成されたモデルに入力し、前記物体の触覚情報に関する特徴量を抽出すること、
を備える方法、
を実行するプログラムを格納した非一時的コンピュータ可読媒体。 - 1又は複数のプロセッサにより実行させると、
視覚情報と前記視覚情報に紐付けられた触覚情報とに基づいて、少なくとも、視覚センサで取得された物体の視覚情報が入力されると、前記物体の触覚情報に関する特徴量を出力するモデルを学習すること、
を備える方法、
を実行するプログラムを格納した非一時的コンピュータ可読媒体。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018005151A JP6587195B2 (ja) | 2018-01-16 | 2018-01-16 | 触覚情報推定装置、触覚情報推定方法、プログラム及び非一時的コンピュータ可読媒体 |
PCT/JP2019/000971 WO2019142796A1 (ja) | 2018-01-16 | 2019-01-15 | 触覚情報推定装置、触覚情報推定方法及びプログラム |
CN201980008690.6A CN111615623A (zh) | 2018-01-16 | 2019-01-15 | 触觉信息推测装置、触觉信息推测方法以及程序 |
EP19741719.9A EP3742142A4 (en) | 2018-01-16 | 2019-01-15 | TOUCH INFORMATION ESTIMATION DEVICE, TOUCH INFORMATION ESTIMATION PROCESS, AND PROGRAM |
US16/706,478 US11590658B2 (en) | 2018-01-16 | 2019-12-06 | Tactile information estimation apparatus, tactile information estimation method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018005151A JP6587195B2 (ja) | 2018-01-16 | 2018-01-16 | 触覚情報推定装置、触覚情報推定方法、プログラム及び非一時的コンピュータ可読媒体 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019155913A Division JP6625784B1 (ja) | 2019-08-28 | 2019-08-28 | ロボットシステム、ロボット及び制御方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019124582A JP2019124582A (ja) | 2019-07-25 |
JP2019124582A5 JP2019124582A5 (ja) | 2019-09-05 |
JP6587195B2 true JP6587195B2 (ja) | 2019-10-09 |
Family
ID=67302419
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018005151A Active JP6587195B2 (ja) | 2018-01-16 | 2018-01-16 | 触覚情報推定装置、触覚情報推定方法、プログラム及び非一時的コンピュータ可読媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11590658B2 (ja) |
EP (1) | EP3742142A4 (ja) |
JP (1) | JP6587195B2 (ja) |
CN (1) | CN111615623A (ja) |
WO (1) | WO2019142796A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7395968B2 (ja) | 2019-11-06 | 2023-12-12 | 日本電気株式会社 | 制御装置、制御システム、制御方法およびコンピュータプログラム |
JP2021084210A (ja) * | 2019-11-29 | 2021-06-03 | 東京ロボティクス株式会社 | ロボット、エンドエフェクタ、システム、方法及びプログラム |
JP7317732B2 (ja) * | 2020-01-20 | 2023-07-31 | 株式会社東芝 | 推定装置、物体搬送システム、推定方法、およびプログラム |
US11794350B2 (en) * | 2020-10-22 | 2023-10-24 | Mitsubishi Electric Research Laboratories, Inc. | Interactive tactile perception method for classification and recognition of object instances |
CN113172663A (zh) * | 2021-03-24 | 2021-07-27 | 深圳先进技术研究院 | 一种机械手抓取稳定性识别方法、装置和电子设备 |
GB2619519A (en) * | 2022-06-07 | 2023-12-13 | Imperial College Innovations Ltd | Method for updating a scene representation model |
US11717974B1 (en) * | 2022-06-10 | 2023-08-08 | Sanctuary Cognitive Systems Corporation | Haptic photogrammetry in robots and methods for operating the same |
CN118042134A (zh) * | 2022-11-08 | 2024-05-14 | 维沃移动通信有限公司 | 触觉信号编码方法、触觉信号解码方法及相关设备 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ES2103310T3 (es) * | 1990-04-26 | 1997-09-16 | John Sutherland | Dispositivo neural artificial. |
JPH05288543A (ja) * | 1992-04-07 | 1993-11-02 | Fujitsu Ltd | 視覚情報と触覚情報とを統合した認識装置 |
JP2003024306A (ja) | 2001-07-13 | 2003-01-28 | Shiseido Co Ltd | 皮膚のはり評価システム |
CA2538008A1 (en) * | 2003-09-16 | 2005-03-31 | Toudai Tlo, Ltd. | Optical tactile sensor and method of reconstructing force vector distribution using the sensor |
WO2006006624A1 (ja) * | 2004-07-13 | 2006-01-19 | Matsushita Electric Industrial Co., Ltd. | 物品保持システム、ロボット及びロボット制御方法 |
JP2007245326A (ja) | 2006-02-17 | 2007-09-27 | Toyota Motor Corp | ロボットとロボットの制御方法 |
JP2008055584A (ja) | 2006-09-04 | 2008-03-13 | Toyota Motor Corp | 物体把持を行うロボット及びロボットによる物体の把持方法 |
JP5252985B2 (ja) | 2008-05-02 | 2013-07-31 | 花王株式会社 | 皮膚内部の弾性計測方法 |
JP2009297064A (ja) | 2008-06-10 | 2009-12-24 | Pola Chem Ind Inc | 視覚的ハリの鑑別法 |
US9120233B2 (en) * | 2012-05-31 | 2015-09-01 | Toyota Motor Engineering & Manufacturing North America, Inc. | Non-contact optical distance and tactile sensing system and method |
JP6544833B2 (ja) | 2013-06-11 | 2019-07-17 | オンロボット ロサンゼルス インコーポレイテッド | 物体を検知するシステム及び方法 |
CN103753585A (zh) * | 2014-01-10 | 2014-04-30 | 南通大学 | 一种基于视觉图像分析的机械手及抓紧力智能调节方法 |
DE102014212682A1 (de) * | 2014-07-01 | 2016-01-07 | Trumpf Werkzeugmaschinen Gmbh + Co. Kg | Verfahren und Vorrichtung zum Bestimmen einer Werkstoffart und/oder einer Oberflächenbeschaffenheit eines Werkstücks |
US9757862B2 (en) * | 2014-10-16 | 2017-09-12 | Technische Universität München | Tactile sensor |
JP6415291B2 (ja) * | 2014-12-09 | 2018-10-31 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
US9561587B2 (en) * | 2014-12-16 | 2017-02-07 | Amazon Technologies, Inc. | Robotic grasping of items in inventory system |
JP6522488B2 (ja) * | 2015-07-31 | 2019-05-29 | ファナック株式会社 | ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法 |
US10403037B1 (en) * | 2016-03-21 | 2019-09-03 | URC Ventures, Inc. | Verifying object measurements determined from mobile device images |
KR20180055070A (ko) * | 2016-11-16 | 2018-05-25 | 삼성전자주식회사 | 재질 인식 및 재질 트레이닝을 수행하는 방법 및 장치 |
WO2019089825A1 (en) * | 2017-11-02 | 2019-05-09 | AMP Robotics Corporation | Systems and methods for optical material characterization of waste materials using machine learning |
JP6546648B2 (ja) * | 2017-12-14 | 2019-07-17 | 株式会社ユニバーサルエンターテインメント | 遊技機 |
EP3740352B1 (en) * | 2018-01-15 | 2023-03-15 | Technische Universität München | Vision-based sensor system and control method for robot arms |
-
2018
- 2018-01-16 JP JP2018005151A patent/JP6587195B2/ja active Active
-
2019
- 2019-01-15 CN CN201980008690.6A patent/CN111615623A/zh active Pending
- 2019-01-15 WO PCT/JP2019/000971 patent/WO2019142796A1/ja unknown
- 2019-01-15 EP EP19741719.9A patent/EP3742142A4/en active Pending
- 2019-12-06 US US16/706,478 patent/US11590658B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP3742142A1 (en) | 2020-11-25 |
CN111615623A (zh) | 2020-09-01 |
EP3742142A4 (en) | 2021-10-20 |
US20200130193A1 (en) | 2020-04-30 |
JP2019124582A (ja) | 2019-07-25 |
US11590658B2 (en) | 2023-02-28 |
WO2019142796A1 (ja) | 2019-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6587195B2 (ja) | 触覚情報推定装置、触覚情報推定方法、プログラム及び非一時的コンピュータ可読媒体 | |
Lepora | Soft biomimetic optical tactile sensing with the TacTip: A review | |
Calandra et al. | The feeling of success: Does touch sensing help predict grasp outcomes? | |
Yamaguchi et al. | Recent progress in tactile sensing and sensors for robotic manipulation: can we turn tactile sensing into vision? | |
US10737385B2 (en) | Machine learning device, robot system, and machine learning method | |
US11577388B2 (en) | Automatic robot perception programming by imitation learning | |
JP2020532440A5 (ja) | ||
JP2018205929A (ja) | 学習装置、学習方法、学習モデル、検出装置及び把持システム | |
US10864630B2 (en) | Control device and machine learning device | |
CN106256512B (zh) | 包括机器视觉的机器人装置 | |
EP2031517A1 (en) | Methods and systems for data processing and their applications | |
JP6872044B2 (ja) | 対象物の外接枠を決定するための方法、装置、媒体及び機器 | |
JP2018202550A (ja) | 機械学習装置、機械学習方法、および機械学習プログラム | |
JP6811465B2 (ja) | 学習装置、学習方法、学習プログラム、自動制御装置、自動制御方法および自動制御プログラム | |
Huang et al. | Grasping novel objects with a dexterous robotic hand through neuroevolution | |
KR102436906B1 (ko) | 대상자의 보행 패턴을 식별하는 방법 및 이를 수행하는 전자 장치 | |
CN107977662A (zh) | 一种实现高速处理计算机视觉图像的分层计算方法 | |
Heravi et al. | Learning an action-conditional model for haptic texture generation | |
JP7249928B2 (ja) | 触覚情報推定装置、触覚情報推定方法及びプログラム | |
CN106250813B (zh) | 一种面部表情迁移方法及设备 | |
Yan et al. | Detection of slip from vision and touch | |
CN116502069B (zh) | 一种基于深度学习的触觉时序信号识别方法 | |
JP6625784B1 (ja) | ロボットシステム、ロボット及び制御方法 | |
JP7372076B2 (ja) | 画像処理システム | |
JP2021061014A (ja) | 学習装置、学習方法、学習モデル、検出装置及び把持システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190717 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190717 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190717 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190718 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190827 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20190827 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6587195 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |