JP2019124582A - 触覚情報推定装置、触覚情報推定方法及びプログラム - Google Patents
触覚情報推定装置、触覚情報推定方法及びプログラム Download PDFInfo
- Publication number
- JP2019124582A JP2019124582A JP2018005151A JP2018005151A JP2019124582A JP 2019124582 A JP2019124582 A JP 2019124582A JP 2018005151 A JP2018005151 A JP 2018005151A JP 2018005151 A JP2018005151 A JP 2018005151A JP 2019124582 A JP2019124582 A JP 2019124582A
- Authority
- JP
- Japan
- Prior art keywords
- information
- visual
- tactile
- unit
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 13
- 230000000007 visual effect Effects 0.000 claims abstract description 283
- 238000000605 extraction Methods 0.000 claims abstract description 43
- 239000000284 extract Substances 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 14
- 230000015541 sensory perception of touch Effects 0.000 claims description 14
- 230000002787 reinforcement Effects 0.000 claims description 8
- 238000010586 diagram Methods 0.000 description 9
- 238000013527 convolutional neural network Methods 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 241000282414 Homo sapiens Species 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 241000282412 Homo Species 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000007792 addition Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 229920001296 polysiloxane Polymers 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 241000233855 Orchidaceae Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000003442 weekly effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/081—Touching devices, e.g. pressure-sensitive
- B25J13/084—Tactile sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39271—Ann artificial neural network, ffw-nn, feedforward neural network
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39523—Set holding force as function of dimension, weight, shape, hardness, surface
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40575—Camera combined with tactile sensors, for 3-D
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40627—Tactile image sensor, matrix, array of tactile elements, tixels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Image Analysis (AREA)
- Force Measurement Appropriate To Specific Purposes (AREA)
- Manipulator (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本実施形態は、視覚情報を入力すると、触覚情報を推定して出力する触覚情報推定装置について説明する。この触覚情報推定装置は、視覚情報から触覚情報を推定した結果だけではなく、視覚情報から触覚情報を生成する生成モデルを出力するようにしてもよい。以下、図面を参照して、詳しく説明する。
図5は、本実施形態に係る触覚情報推定装置1の機能を示すブロック図である。前述した第1実施形態に係る触覚情報推定装置1の機能に加え、さらに、把持情報取得部112を備える。
図8は、本実施形態に係る触覚情報推定装置1の機能を示すブロック図である。触覚情報推定装置1はさらに、把持位置決定部116と、物体特性推定部118と、把持力決定部120と、把持制御部122と、把持部124と、を備える。
前述した実施形態では、把持部124を備えるとしたが、前述した第2実施形態における把持情報取得部112が把持部124を兼ねるものであってもよい。図11は、把持部124を備え、把持部124が把持情報取得部112の機能を兼ねる構成を示すブロック図である。
Claims (15)
- 物体の視覚情報と、前記視覚情報に紐付けられた触覚情報と、に基づいて、前記視覚情報及び前記触覚情報に関する特徴量である視触覚特徴量を自己組織化する中間層を備えるモデルを生成する、モデル生成部と、
前記モデルを介して自己組織化された前記視触覚特徴量を抽出する、視触覚特徴量抽出部と、
を備える触覚情報推定装置。 - 前記視覚情報は、前記物体のテクスチャ情報を含む情報を備える、請求項1に記載の触覚情報推定装置。
- 前記視覚情報はさらに、前記物体の形状情報を含む情報を備える、請求項2に記載の触覚情報推定装置。
- 前記触覚情報は、前記物体の表面からの面としての圧力情報を備える、請求項1乃至請求項3のいずれかに記載の触覚情報推定装置。
- 前記視触覚特徴量抽出部は、
前記視触覚特徴量を自己組織化して、前記視覚情報から前記視触覚特徴量を出力する、
請求項1乃至請求項4のいずれかに記載の触覚情報推定装置。 - 前記モデル生成部は、オートエンコーダにより前記モデルを生成する、請求項1乃至請求項5のいずれかに記載の触覚情報推定装置。
- 前記視覚情報を取得する、視覚センサと、
当該視覚情報に紐付けられた前記触覚情報を取得する、触覚センサと、をさらに備え、
前記モデル生成部は、前記視覚センサで取得した前記視覚情報及び前記触覚センサで取得した前記視覚情報と紐付けられた前記触覚情報に基づいて前記モデルを生成する、
請求項1乃至請求項6のいずれかに記載の触覚情報推定装置。 - 前記物体を把持可能である、把持情報取得部、
をさらに備え、
前記触覚センサは、前記把持情報取得部に備えられ、
前記把持情報取得部により前記物体が把持された状態において、前記視覚センサが前記視覚情報を取得し、前記触覚センサが前記視覚情報に紐付けられた前記触覚情報を取得する、請求項7のいずれかに記載の触覚情報推定装置。 - 前記把持情報取得部は、前記物体を把持している状態である把持状態を変更し、
前記視覚センサ及び前記触覚センサは、それぞれの前記把持状態について、前記視覚情報及び前記触覚情報を取得する、
請求項8に記載の触覚情報推定装置。 - 前記視覚センサは、前記把持情報取得部に備えられる、請求項8又は請求項9に記載の触覚情報推定装置。
- 前記物体とは異なる物体である他の物体の前記視覚情報が入力された場合に、
前記他の物体の前記視覚情報に基づいて、前記他の物体を把持する位置である把持位置を決定する、把持位置決定部と、
前記他の物体の前記視覚情報から前記視触覚特徴量抽出部が抽出した前記他の物体の前記視触覚特徴量、に基づいて、前記他の物体の特性を推定する、物体特性推定部と、
決定された前記把持位置及び推定された前記他の物体の特性に基づいて、前記他の物体を把持する力である把持力を決定する、把持力決定部と、
前記把持位置及び前記把持力を出力する、出力部と、
をさらに備える、請求項1乃至請求項10のいずれかに記載の触覚情報推定装置。 - 前記把持位置決定部が決定した前記把持位置及び前記把持力決定部が決定した前記把持力に基づいて、前記他の物体を把持する、把持部、
をさらに備え、
前記把持位置決定部は、前記把持部が前記他の物体を把持した状態に基づいて、前記把持位置を更新する、
請求項11に記載の触覚情報推定装置。 - 前記モデル生成部は、前記把持部から取得した情報に基づいて、強化学習により前記モデルを更新する、請求項12に記載の触覚情報推定装置。
- モデル生成部が、物体の視覚情報と、前記視覚情報に紐付けられた触覚情報と、に基づいて、前記視覚情報及び前記触覚情報に関する特徴量である視触覚特徴量を自己組織化する中間層を備えるモデルを生成するステップと、
視触覚特徴量抽出部が、前記モデルを介して自己組織化された前記視触覚特徴量を抽出するステップと、
を備える触覚情報推定方法。 - コンピュータに、
物体の視覚情報と、前記視覚情報に紐付けられた触覚情報と、に基づいて、前記視覚情報及び前記触覚情報に関する特徴量である視触覚特徴量を自己組織化する中間層を備えるモデルを生成する、モデル生成手段、
前記モデルを介して自己組織化された前記視触覚特徴量を抽出する、視触覚特徴量抽出手段、
として機能させるプログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018005151A JP6587195B2 (ja) | 2018-01-16 | 2018-01-16 | 触覚情報推定装置、触覚情報推定方法、プログラム及び非一時的コンピュータ可読媒体 |
CN201980008690.6A CN111615623A (zh) | 2018-01-16 | 2019-01-15 | 触觉信息推测装置、触觉信息推测方法以及程序 |
PCT/JP2019/000971 WO2019142796A1 (ja) | 2018-01-16 | 2019-01-15 | 触覚情報推定装置、触覚情報推定方法及びプログラム |
EP19741719.9A EP3742142A4 (en) | 2018-01-16 | 2019-01-15 | TOUCH INFORMATION ESTIMATION DEVICE, TOUCH INFORMATION ESTIMATION PROCESS, AND PROGRAM |
US16/706,478 US11590658B2 (en) | 2018-01-16 | 2019-12-06 | Tactile information estimation apparatus, tactile information estimation method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018005151A JP6587195B2 (ja) | 2018-01-16 | 2018-01-16 | 触覚情報推定装置、触覚情報推定方法、プログラム及び非一時的コンピュータ可読媒体 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019155913A Division JP6625784B1 (ja) | 2019-08-28 | 2019-08-28 | ロボットシステム、ロボット及び制御方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019124582A true JP2019124582A (ja) | 2019-07-25 |
JP2019124582A5 JP2019124582A5 (ja) | 2019-09-05 |
JP6587195B2 JP6587195B2 (ja) | 2019-10-09 |
Family
ID=67302419
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018005151A Active JP6587195B2 (ja) | 2018-01-16 | 2018-01-16 | 触覚情報推定装置、触覚情報推定方法、プログラム及び非一時的コンピュータ可読媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11590658B2 (ja) |
EP (1) | EP3742142A4 (ja) |
JP (1) | JP6587195B2 (ja) |
CN (1) | CN111615623A (ja) |
WO (1) | WO2019142796A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7317732B2 (ja) | 2020-01-20 | 2023-07-31 | 株式会社東芝 | 推定装置、物体搬送システム、推定方法、およびプログラム |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7395968B2 (ja) | 2019-11-06 | 2023-12-12 | 日本電気株式会社 | 制御装置、制御システム、制御方法およびコンピュータプログラム |
US11794350B2 (en) * | 2020-10-22 | 2023-10-24 | Mitsubishi Electric Research Laboratories, Inc. | Interactive tactile perception method for classification and recognition of object instances |
GB2619519A (en) * | 2022-06-07 | 2023-12-13 | Imperial College Innovations Ltd | Method for updating a scene representation model |
US11717974B1 (en) * | 2022-06-10 | 2023-08-08 | Sanctuary Cognitive Systems Corporation | Haptic photogrammetry in robots and methods for operating the same |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05506953A (ja) * | 1990-04-26 | 1993-10-07 | サザーランド ジョン | 人工ニューラル装置 |
JPH05288543A (ja) * | 1992-04-07 | 1993-11-02 | Fujitsu Ltd | 視覚情報と触覚情報とを統合した認識装置 |
US9757862B2 (en) * | 2014-10-16 | 2017-09-12 | Technische Universität München | Tactile sensor |
JP6415291B2 (ja) * | 2014-12-09 | 2018-10-31 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
JP6522488B2 (ja) * | 2015-07-31 | 2019-05-29 | ファナック株式会社 | ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法 |
JP6544833B2 (ja) * | 2013-06-11 | 2019-07-17 | オンロボット ロサンゼルス インコーポレイテッド | 物体を検知するシステム及び方法 |
JP6546648B2 (ja) * | 2017-12-14 | 2019-07-17 | 株式会社ユニバーサルエンターテインメント | 遊技機 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003024306A (ja) | 2001-07-13 | 2003-01-28 | Shiseido Co Ltd | 皮膚のはり評価システム |
RU2358247C2 (ru) * | 2003-09-16 | 2009-06-10 | Тоудаи Тло, Лтд. | Оптический тактильный датчик и способ восстановления распределения вектора силы с использованием указанного датчика |
CN1984756B (zh) * | 2004-07-13 | 2011-12-07 | 松下电器产业株式会社 | 物品保持系统、机器人以及机器人控制方法 |
JP2007245326A (ja) | 2006-02-17 | 2007-09-27 | Toyota Motor Corp | ロボットとロボットの制御方法 |
JP2008055584A (ja) | 2006-09-04 | 2008-03-13 | Toyota Motor Corp | 物体把持を行うロボット及びロボットによる物体の把持方法 |
JP5252985B2 (ja) | 2008-05-02 | 2013-07-31 | 花王株式会社 | 皮膚内部の弾性計測方法 |
JP2009297064A (ja) | 2008-06-10 | 2009-12-24 | Pola Chem Ind Inc | 視覚的ハリの鑑別法 |
US9120233B2 (en) * | 2012-05-31 | 2015-09-01 | Toyota Motor Engineering & Manufacturing North America, Inc. | Non-contact optical distance and tactile sensing system and method |
CN103753585A (zh) * | 2014-01-10 | 2014-04-30 | 南通大学 | 一种基于视觉图像分析的机械手及抓紧力智能调节方法 |
DE102014212682A1 (de) * | 2014-07-01 | 2016-01-07 | Trumpf Werkzeugmaschinen Gmbh + Co. Kg | Verfahren und Vorrichtung zum Bestimmen einer Werkstoffart und/oder einer Oberflächenbeschaffenheit eines Werkstücks |
US9492923B2 (en) * | 2014-12-16 | 2016-11-15 | Amazon Technologies, Inc. | Generating robotic grasping instructions for inventory items |
US10403037B1 (en) * | 2016-03-21 | 2019-09-03 | URC Ventures, Inc. | Verifying object measurements determined from mobile device images |
KR20180055070A (ko) * | 2016-11-16 | 2018-05-25 | 삼성전자주식회사 | 재질 인식 및 재질 트레이닝을 수행하는 방법 및 장치 |
WO2019089825A1 (en) * | 2017-11-02 | 2019-05-09 | AMP Robotics Corporation | Systems and methods for optical material characterization of waste materials using machine learning |
US11833696B2 (en) * | 2018-01-15 | 2023-12-05 | Technische Universität München | Vision-based sensor system and control method for robot arms |
-
2018
- 2018-01-16 JP JP2018005151A patent/JP6587195B2/ja active Active
-
2019
- 2019-01-15 EP EP19741719.9A patent/EP3742142A4/en active Pending
- 2019-01-15 CN CN201980008690.6A patent/CN111615623A/zh active Pending
- 2019-01-15 WO PCT/JP2019/000971 patent/WO2019142796A1/ja unknown
- 2019-12-06 US US16/706,478 patent/US11590658B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05506953A (ja) * | 1990-04-26 | 1993-10-07 | サザーランド ジョン | 人工ニューラル装置 |
JPH05288543A (ja) * | 1992-04-07 | 1993-11-02 | Fujitsu Ltd | 視覚情報と触覚情報とを統合した認識装置 |
JP6544833B2 (ja) * | 2013-06-11 | 2019-07-17 | オンロボット ロサンゼルス インコーポレイテッド | 物体を検知するシステム及び方法 |
US9757862B2 (en) * | 2014-10-16 | 2017-09-12 | Technische Universität München | Tactile sensor |
JP6415291B2 (ja) * | 2014-12-09 | 2018-10-31 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
JP6522488B2 (ja) * | 2015-07-31 | 2019-05-29 | ファナック株式会社 | ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法 |
JP6546648B2 (ja) * | 2017-12-14 | 2019-07-17 | 株式会社ユニバーサルエンターテインメント | 遊技機 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7317732B2 (ja) | 2020-01-20 | 2023-07-31 | 株式会社東芝 | 推定装置、物体搬送システム、推定方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP3742142A1 (en) | 2020-11-25 |
JP6587195B2 (ja) | 2019-10-09 |
US20200130193A1 (en) | 2020-04-30 |
US11590658B2 (en) | 2023-02-28 |
WO2019142796A1 (ja) | 2019-07-25 |
EP3742142A4 (en) | 2021-10-20 |
CN111615623A (zh) | 2020-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019142796A1 (ja) | 触覚情報推定装置、触覚情報推定方法及びプログラム | |
Lepora | Soft biomimetic optical tactile sensing with the TacTip: A review | |
US11577388B2 (en) | Automatic robot perception programming by imitation learning | |
JP2020532440A5 (ja) | ||
JP2019084601A (ja) | 情報処理装置、把持システムおよび情報処理方法 | |
Lévesque et al. | A model-based scooping grasp for the autonomous picking of unknown objects with a two-fingered gripper | |
WO2020058669A1 (en) | Task embedding for device control | |
WO2020241037A1 (ja) | 学習装置、学習方法、学習プログラム、自動制御装置、自動制御方法および自動制御プログラム | |
Huang et al. | Grasping novel objects with a dexterous robotic hand through neuroevolution | |
Lee et al. | Interaction force estimation using camera and electrical current without force/torque sensor | |
Mouha | Deep learning for robotics | |
JP7249928B2 (ja) | 触覚情報推定装置、触覚情報推定方法及びプログラム | |
Yoo et al. | Toward zero-shot sim-to-real transfer learning for pneumatic soft robot 3d proprioceptive sensing | |
Funabashi et al. | Tactile transfer learning and object recognition with a multifingered hand using morphology specific convolutional neural networks | |
JP6625784B1 (ja) | ロボットシステム、ロボット及び制御方法 | |
Ciobanu et al. | Point of contact location and normal force estimation using biomimetical tactile sensors | |
Vanc et al. | Context-aware robot control using gesture episodes | |
Geng et al. | Synergy-based affordance learning for robotic grasping | |
US11819999B2 (en) | Input devices having a deformable membrane and methods of using the same | |
Behbahani et al. | Haptic slam: An ideal observer model for Bayesian inference of object shape and hand pose from contact dynamics | |
Thompson et al. | Identification of unknown object properties based on tactile motion sequence using 2-finger gripper robot | |
Cretu et al. | Estimation of deformable object properties from shape and force measurements for virtualized reality applications | |
Li et al. | VITO-Transformer: A Visual-Tactile Fusion Network for Object Recognition | |
Marquez et al. | Hardware-in-the-Loop Soft Robotic Testing Framework using an Actor-Critic Deep Reinforcement Learning Algorithm | |
Ding et al. | ROBOT GRASPING AND MANIPULATION COMBINING VISION AND TOUCH |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190717 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190717 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190717 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190718 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190827 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20190827 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6587195 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |