JP2005257343A - 光学式触覚センサ、光学式触覚センサを利用したセンシング方法、センシングシステム、物体操作力制御方法、物体操作力制御装置、物体把持力制御装置及びロボットハンド - Google Patents

光学式触覚センサ、光学式触覚センサを利用したセンシング方法、センシングシステム、物体操作力制御方法、物体操作力制御装置、物体把持力制御装置及びロボットハンド Download PDF

Info

Publication number
JP2005257343A
JP2005257343A JP2004066401A JP2004066401A JP2005257343A JP 2005257343 A JP2005257343 A JP 2005257343A JP 2004066401 A JP2004066401 A JP 2004066401A JP 2004066401 A JP2004066401 A JP 2004066401A JP 2005257343 A JP2005257343 A JP 2005257343A
Authority
JP
Japan
Prior art keywords
contact area
size
tactile
information
force
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004066401A
Other languages
English (en)
Other versions
JP4621827B2 (ja
Inventor
Goro Ohigata
五郎 大日方
Kiyoshi Oka
潔 岡
Hiroki Miura
弘樹 三浦
Nobuhiko Moriyama
伸彦 森山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya Industrial Science Research Institute
Original Assignee
Nagoya Industrial Science Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya Industrial Science Research Institute filed Critical Nagoya Industrial Science Research Institute
Priority to JP2004066401A priority Critical patent/JP4621827B2/ja
Priority to US10/592,243 priority patent/US7707001B2/en
Priority to PCT/JP2005/004259 priority patent/WO2005085785A1/ja
Publication of JP2005257343A publication Critical patent/JP2005257343A/ja
Application granted granted Critical
Publication of JP4621827B2 publication Critical patent/JP4621827B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/082Grasping-force detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/084Tactile sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01LMEASURING FORCE, STRESS, TORQUE, WORK, MECHANICAL POWER, MECHANICAL EFFICIENCY, OR FLUID PRESSURE
    • G01L5/00Apparatus for, or methods of, measuring force, work, mechanical power, or torque, specially adapted for specific purposes
    • G01L5/22Apparatus for, or methods of, measuring force, work, mechanical power, or torque, specially adapted for specific purposes for measuring the force applied to control members, e.g. control members of vehicles, triggers
    • G01L5/226Apparatus for, or methods of, measuring force, work, mechanical power, or torque, specially adapted for specific purposes for measuring the force applied to control members, e.g. control members of vehicles, triggers to manipulators, e.g. the force due to gripping
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N19/00Investigating materials by mechanical methods
    • G01N19/02Measuring coefficient of friction between materials

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Force Measurement Appropriate To Specific Purposes (AREA)
  • Manipulator (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

【課題】 製作が容易であり、小型化も容易な光学式触覚センサを提供する。また、1種類のセンサによって複数種類の力学量を同時に測定することが可能な光学式触覚センサを利用したセンシング方法、センシングシステム、物体操作力制御方法、物体操作力制御装置、物体把持力制御装置及びロボットハンドを提供する。
【解決手段】 光学式触覚センサ11は、タッチパッド12と、タッチパッド12の挙動を撮影するCCDカメラ13を備える。CPU23は、CCDカメラ13からの画像情報を画像処理し、接触領域A1の大きさ、形状及び重心に関する情報を抽出し、固着領域A2の大きさに関する情報を抽出する。CPU23は、接触領域A1の大きさから法線力を求め、接触領域A1の形状及び接触領域A1の重心から接線力を求め、接触領域A1の大きさに対する固着領域A2の大きさの割合から摩擦係数を求める。
【選択図】 図3

Description

本発明は、光学式触覚センサ、光学式触覚センサを利用したセンシング方法、センシングシステム、物体操作力制御方法、物体操作力制御装置、物体把持力制御装置及びロボットハンドに関するものである。
ヒューマノイドロボットが人と共存する社会が現実味を帯びてきているものの、それを実現するための課題はまだ多く残されている。ロボット自体の運動性能や知能を向上させることももちろん重要であるが、人とロボットとの間でのコミュニケーション技術のレベルを向上させることが、人とロボットとが共存するための近道ではないかと考えられる。
そのコミュニケーション技術としては、人の指示でタスクをこなすロボットの遠隔操縦技術が中核的な位置を占めている。ロボットの遠隔操縦において、タスクをスムースに遂行するためのキー技術としては、触覚センサを用いて触覚情報を検出することが挙げられる。例えば、触覚センサによって対象物(物体)の重量や摩擦係数を検出し、検出した重量や摩擦係数に基づいてロボットハンドの把持力を調整することが考えられている。これにより、物体を、潰さないように、かつ滑り落とさないように把持することができるものと期待されている。
摩擦係数(滑り)を検出する原理としては、人間の指先が滑りを検出する原理と同様の原理を用いることが考えられている(例えば、非特許文献1参照)。即ち、ロボットハンドの触覚部と物体との間に生じる接触領域から「固着領域」と「滑り領域」とをそれぞれ抽出することにより、滑りやすさの状態(摩擦係数)を検出するという原理である。
この原理を用いた従来型のセンサとしては、曲面状弾性体の内部に複数個の歪ゲージを配列して、各歪ゲージの出力から弾性体内部の圧力分布または歪の分布を測定し、接触領域の滑り・固着状態を計測するといった機械式触覚センサがある(例えば、特許文献1参照)。
また、従来型のセンサとしては、透明弾性体の変形をCCDカメラなどの撮像手段で捉えるタイプの光学式触覚センサがある。例えば、直方体状の透明弾性体の内部に球形状のマーカー部を複数層埋設し、各マーカー部の変位をCCDカメラで計測することによって、接触領域付近に生じる3次元の力ベクトルやトルクを計測できるものがある(例えば、特許文献2、非特許文献2参照)。
特開2000−254884号公報(図5など) 特願2002−523568号公報 広光、前野「物体把持時におけるヒト指腹部の固着・滑り分布と触覚受容器応答」,日本機械学会論文集,2002年3月,68巻,667号C編,p.914−919 神山、梶本、稲見、川上、舘、「触覚カメラ−弾性を持った光学式3次元触覚センサの作成−」,電気学会論文集E編,2003年1月,123巻,1号,p.16−22
ところが、機械式触覚センサは、歪ゲージを変形させてセンシングを行うものであるため、耐久性に問題がある。さらに、複数の歪ゲージを弾性体内部に配列する必要があるため、製作手順が複雑になったり、配線が困難になったりするなどの問題がある。
一方、上記光学式触覚センサは、透明弾性体の対象物(物体)への接触面が平面となるため、対象物と触覚部との間に生じる摩擦係数の検出を行うことが困難である。また、仮に前記接触面を曲面に変更しようとしても、製作が非常に困難になることが予想される。このほかにも、指型の触覚センサが従来提案されているが、接触状態や接触圧しか測定できず、摩擦係数までを含めた多次元の力学量を同時に測定することができない。
また、多次元の力学量を測定する手段としては、互いに形式の異なる機械式触覚センサと光学式触覚センサとを組み合わせて用いることが従来提案されている(非特許文献1参照)。しかし、このような手段では、2種類のセンサが必要となるため、小型化を図ることは困難である。
本発明は上記の課題に鑑みてなされたものであり、その目的は、製作が容易であり、小型化も容易な光学式触覚センサを提供することにある。また、本発明のさらなる目的は、1種類のセンサによって複数種類の力学量を同時に測定することが可能な光学式触覚センサを利用したセンシング方法、センシングシステム、物体操作力制御方法、物体操作力制御装置、物体把持力制御装置及びロボットハンドを提供することにある。
上記課題を解決するために、請求項1に記載の発明は、凸状曲面を有する光透過性弾性体からなり、前記凸状曲面上にマーカー部が配置された触覚部と、前記凸状曲面に物体が接触した際の前記マーカー部の挙動を撮影する撮像手段とを備えたことを特徴とする光学式触覚センサをその要旨とする。
従って、請求項1に記載の発明によると、光透過性弾性体の挙動を撮像手段によって画像情報として捉えるため、大きな情報量を比較的小さく簡単な構造で処理することができる。よって、複数種類の力学量(例えば、法線力、接線力、摩擦係数及びトルクなど)を同時に測定する場合であっても、形式の異なる複数種類のセンサを組み合わせて用いたりしなくて済む。このため、光学式触覚センサの小型化が容易になる。また、マーカー部を光透過性弾性体の内部に設けたり、複数個の歪ゲージを光透過性弾性体の内部に配列したりする必要がないため、光学式触覚センサの製作が容易になる。
また、物体との接触時に一番変形しやすい部分は、凸状曲面である。そして、凸状曲面から触覚部の内側に行くに従って、変形量は小さくなる。このため、マーカー部を凸状曲面上に配置した本発明によれば、マーカー部を触覚部の内部に配置した場合よりも、マーカー部に大きな変形が生じやすい。よって、マーカー部の変形の様子を撮像手段によって撮影することで、触覚部に作用する力を正確に求めることができる。即ち、光透過性弾性体の内部に生じる歪みを検出する方法に比べて、検出精度が高くなる。
なお、「光透過性弾性体」は、シリコーンゴムなどのシリコーン樹脂から形成されることが好ましいが、他のゴム類やエラストマーなどの他の光透過性弾性体から形成されていてもよい。また、「光透過性弾性体」は、透明であってもよいし、半透明であってもよい。
また、前記センサにおける「マーカー部」は、光透過性弾性体の内部ではなく凸状曲面上にのみ配置されることがよい。換言すると、マーカー部は、凸状曲面上において1層のみ配置されることがよい。マーカー部を内部に配置する場合、特にマーカー部を内部に複数層配置する場合、光学式触覚センサの製作が困難になるからである。また、マーカー部は、光透過性弾性体に別の材料を付着(例えば、塗布、貼付、印刷など)させることで構成されるものであってもよいし、別の材料を付着させることになる光透過性弾性体自身に形成されるものであってもよいが、特に後者の方が好ましい。光透過性弾性体に別の材料を付着させることでマーカー部を構成すると、凸状曲面に物体が接触した際にマーカー部が脱落するおそれがあるためである。また、光透過性弾性体に別の部材を付着させる必要があるため、光学式接触センサの製造コストが上昇するおそれがあるためである。なお、光透過性弾性体自身に形成されるマーカー部としては、溝、突条、突起、窪みなどが挙げられる。また、マーカー部は、無色であってもよいし、着色されていてもよい。
「撮像手段」としては、画像情報を電気信号として出力するカメラを用いることが好ましく、特にデジタルカメラを用いることが好ましい。ここで、「デジタル式カメラ」としては、CCDカメラや、C−MOS式イメージセンサを用いたデジタルカメラなどが挙げられる。
請求項2に記載の発明は、請求項1において、前記マーカー部は、格子状に配置された複数の溝または複数の突条からなることをその要旨とする。
従って、請求項2に記載の発明によると、マーカー部が格子状に配置された複数の溝または複数の突条からなっているため、触覚部に力が作用してマーカー部が変形する様子を容易に識別することができる。よって、マーカー部の変形の様子を撮像手段によって撮影することで、触覚部に作用する力を容易に求めることができる。
請求項3に記載の発明は、請求項1または2において、前記触覚部は、成形面に複数の成形溝または複数の成形突条を有する成形型を用い、その成形面に未硬化の弾性体材料を接触させて硬化させることにより、形成されることをその要旨とする。
従って、請求項3に記載の発明によると、触覚部全体の形成と同時に、成形溝によって突条が形成され、成形突条によって溝が形成される。このため、凸状曲面であるにもかかわらず、触覚部の製造が容易になる。また、光透過性弾性体に別の材料を付着させる付着工程が省略できる分だけ、製造コストも低減できる。
請求項4に記載の発明は、光透過性弾性体からなる触覚部と、前記触覚部において物体が接触する箇所の挙動を撮影する撮像手段とを備えた光学式触覚センサを利用して、複数種類の力学量をセンシングする方法であって、前記撮像手段からの画像情報を画像処理することにより、前記物体と前記触覚部との間に生じる接触領域の大きさ、形状及び重心に関する情報を抽出するとともに、前記接触領域内に生じる前記物体と前記触覚部との固着領域の大きさに関する情報を抽出するステップと、前記接触領域の大きさから法線力を求めるステップと、前記接触領域の形状及び前記接触領域の重心から接線力を求めるステップと、前記接触領域の大きさに対する前記固着領域の大きさの割合から摩擦係数を求めるステップとを含むことを特徴とする、光学式触覚センサを利用したセンシング方法をその要旨とする。
従って、請求項4に記載の発明によると、撮像手段からの画像情報が画像処理されると、接触領域の大きさ、形状及び重心に関する情報が抽出されるとともに、固着領域の大きさに関する情報が抽出され、それらの情報に基づいて法線力、接線力、摩擦係数が求められる。即ち、1種類のセンサによって複数種類の力学量を同時に測定することができる。
請求項5に記載の発明は、光透過性弾性体からなる触覚部と、前記触覚部において物体が接触する箇所の挙動を撮影する撮像手段とを備えた光学式触覚センサと、前記撮像手段からの画像情報を画像処理することにより、前記物体と前記触覚部との間に生じる接触領域の大きさ、形状及び重心に関する情報を抽出するとともに、前記接触領域内に生じる前記物体と前記触覚部との固着領域の大きさに関する情報を抽出する情報抽出手段と、前記接触領域の大きさから法線力を求め、前記接触領域の形状及び前記接触領域の重心から接線力を求め、かつ、前記接触領域の大きさに対する前記固着領域の大きさの割合から摩擦係数を求めることが可能な力学量測定手段とを備えることを特徴とするセンシングシステムをその要旨とする。
従って、請求項5に記載の発明によると、撮像手段からの画像情報が画像処理されると、情報抽出手段によって接触領域の大きさ、形状及び重心に関する情報が抽出されるとともに、固着領域の大きさに関する情報が抽出される。そして、力学量測定手段によって、それらの情報に基づいて法線力、接線力、摩擦係数が求められる。即ち、1種類のセンサによって複数種類の力学量を同時に測定することができる。
請求項6に記載の発明は、請求項5に記載の発明において、前記触覚部において前記物体が接触する箇所の表面上にマーカー部を配置し、前記撮像手段は、前記触覚部に前記物体が接触した際の前記マーカー部の挙動を撮影し、前記情報抽出手段は、前記撮像手段からの画像情報を画像処理することにより、前記マーカー部の変形に関する情報を抽出し、前記力学量測定手段は、前記マーカー部の変形に関する情報からトルクを求めることが可能であることをその要旨とする。
従って、請求項6に記載の発明によると、マーカー部は、一番変形しやすい位置である触覚部において物体が接触する箇所の表面上に配置されているため、触覚部にトルクが作用するのと略同時に変形する。このため、マーカー部の変形の度合いが触覚部の変形の度合いに略一致する。よって、1種類のセンサによって複数種類の力学量(法線力、接線力、摩擦係数)を同時に測定することができるだけでなく、マーカー部の変形の様子を撮像手段によって撮影することで、トルクも正確に求めることができる。
請求項7に記載の発明は、光透過性弾性体からなる触覚部と、前記触覚部において物体が接触する箇所の挙動を撮影する撮像手段とを備えた光学式触覚センサを利用した物体操作力制御方法であって、前記撮像手段からの画像情報を画像処理することにより、前記物体と前記触覚部との間に生じる接触領域の大きさ、形状及び重心に関する情報を抽出するとともに、前記接触領域内に生じる前記物体と前記触覚部との固着領域の大きさに関する情報を抽出するステップと、前記接触領域の大きさから法線力を求め、前記接触領域の形状及び前記接触領域の重心から接線力を求め、かつ、前記接触領域の大きさに対する前記固着領域の大きさの割合から摩擦係数を求めるステップと、前記力学量測定手段により求められた複数種類の力学量に基づいて、前記物体に与えるべき適切な操作力を算出するステップと、前記複数種類の力学量を、算出された適切な操作力に近づけるような制御を行うステップとを含むことを特徴とする、光学式触覚センサを利用した物体操作力制御方法をその要旨とする。
従って、請求項7に記載の発明によると、撮像手段からの画像情報が画像処理されると、接触領域の大きさ、形状及び重心に関する情報が抽出されるとともに、固着領域の大きさに関する情報が抽出され、それらの情報に基づいて法線力、接線力、摩擦係数が求められる。即ち、1種類のセンサによって複数種類の力学量を同時に測定することができる。そして、測定した力学量に基づいて物体に与えるべき適切な操作力を調整することができる。これにより、物体に適切な力を加えて所望の操作を行うことができる。
ここで、「操作力」とは、触覚部を物体に接触させた状態で、物体を押したり、回転させたり、把持したりする力をいう。
請求項8に記載の発明は、センサ支持体と、前記センサ支持体を駆動するアクチュエータと、光透過性弾性体からなる触覚部と、前記触覚部において物体に接触する箇所の挙動を撮影する撮像手段とを備え、前記センサ支持体に支持された光学式触覚センサと、前記撮像手段からの画像情報を画像処理することにより、前記物体と前記触覚部との間に生じる接触領域の大きさ、形状及び重心に関する情報を抽出するとともに、前記接触領域内に生じる前記物体と前記触覚部との固着領域の大きさに関する情報を抽出する情報抽出手段と、前記接触領域の大きさから法線力を求め、前記接触領域の形状及び前記接触領域の重心から接線力を求め、かつ、前記接触領域の大きさに対する前記固着領域の大きさの割合から摩擦係数を求めることが可能な力学量測定手段と、前記力学量測定手段により求められた複数種類の力学量に基づいて、前記物体に与えるべき適切な操作力を算出する操作力算出手段と、前記操作力算出手段により算出された適切な操作力で前記センサ支持体を駆動するように前記アクチュエータをフィードバック制御するアクチュエータ駆動制御手段とを備えたことを特徴とする物体操作力制御装置をその要旨とする。
従って、請求項8に記載の発明によると、撮像手段からの画像情報が画像処理されると、情報抽出手段によって接触領域の大きさ、形状及び重心に関する情報が抽出されるとともに、固着領域の大きさに関する情報が抽出される。そして、力学量測定手段によって、それらの情報に基づいて法線力、接線力、摩擦係数が求められる。即ち、1種類のセンサによって複数種類の力学量を同時に測定することができる。そして、操作力算出手段は、測定した力学量に基づいて物体に与えるべき適切な操作力を算出することができる。これにより、物体に適切な力を加えて所望の操作を行うことができる。
また、物体に与えるべき適切な操作力が途中で変化した場合でも、アクチュエータ駆動制御手段によって行われるフィードバック制御により、物体に対する適切な操作を維持することができる。
請求項9に記載の発明は、センサ支持体と、前記センサ支持体を駆動するアクチュエータと、光透過性弾性体からなる触覚部と、前記触覚部において物体に接触する箇所の挙動を撮影する撮像手段とを備え、前記センサ支持体に支持された光学式触覚センサと、前記撮像手段からの画像情報を画像処理することにより、前記物体と前記触覚部との間に生じる接触領域の大きさ、形状及び重心に関する情報を抽出するとともに、前記接触領域内に生じる前記物体と前記触覚部との固着領域の大きさに関する情報を抽出する情報抽出手段と、前記接触領域の大きさから法線力を求め、前記接触領域の形状及び前記接触領域の重心から接線力を求め、かつ、前記接触領域の大きさに対する前記固着領域の大きさの割合から摩擦係数を求めることが可能な力学量測定手段と、前記力学量測定手段により求められた複数種類の力学量に基づいて、前記物体に与えるべき適切な把持力を算出する把持力算出手段と、前記把持力算出手段により算出された適切な把持力で前記センサ支持体を駆動するように前記アクチュエータをフィードバック制御するアクチュエータ駆動制御手段とを備えたことを特徴とする物体把持力制御装置をその要旨とする。
従って、請求項9に記載の発明によると、撮像手段からの画像情報が画像処理されると、情報抽出手段によって接触領域の大きさ、形状及び重心に関する情報が抽出されるとともに、固着領域の大きさに関する情報が抽出される。そして、力学量測定手段によって、それらの情報に基づいて法線力、接線力、摩擦係数が求められる。即ち、1種類のセンサによって複数種類の力学量を同時に測定することができる。そして、操作力算出手段は、測定した力学量に基づいて物体に与えるべき適切な把持力を算出することができる。これにより、物体を、潰さないように、かつ滑り落とさないように把持することができる。
また、物体に与えるべき適切な把持力が途中で変化した場合でも、アクチュエータ駆動制御手段によって行われるフィードバック制御により、物体を、潰さないように、かつ滑り落とさないように把持し続けることができる。
請求項10に記載の発明は、複数の指と、前記複数の指を駆動するアクチュエータと、光透過性弾性体からなる触覚部と、前記触覚部において物体に接触する箇所の挙動を撮影する撮像手段とを備え、前記複数の指のうちの少なくとも1つの指の先端部に支持された光学式触覚センサと、前記撮像手段からの画像情報を画像処理することにより、前記物体と前記触覚部との間に生じる接触領域の大きさ、形状及び重心に関する情報を抽出するとともに、前記接触領域内に生じる前記物体と前記触覚部との固着領域の大きさに関する情報を抽出する情報抽出手段と、前記接触領域の大きさから法線力を求め、前記接触領域の形状及び前記接触領域の重心から接線力を求め、かつ、前記接触領域の大きさに対する前記固着領域の大きさの割合から摩擦係数を求めることが可能な力学量測定手段と、前記力学量測定手段により求められた複数種類の力学量に基づいて、前記物体に与えるべき適切な把持力を算出する把持力算出手段と、前記把持力算出手段により算出された適切な把持力で前記複数の指を駆動するように前記アクチュエータをフィードバック制御するアクチュエータ駆動制御手段とを備えたことを特徴とするロボットハンドをその要旨とする。
従って、請求項10に記載の発明によると、撮像手段からの画像情報が画像処理されると、情報抽出手段によって接触領域の大きさ、形状及び重心に関する情報が抽出されるとともに、固着領域の大きさに関する情報が抽出される。そして、力学量測定手段によって、それらの情報に基づいて法線力、接線力、摩擦係数が求められる。即ち、1種類のセンサによって複数種類の力学量を同時に測定することができる。そして、操作力算出手段は、測定した力学量に基づいて物体に与えるべき適切な把持力を算出することができる。これにより、複数の指によって、物体を、潰さないように、かつ滑り落とさないように把持することができる。ゆえに、より人間の手に近いロボットハンドを備えたヒューマノイドロボットを実現することができる。
また、物体に与えるべき適切な把持力が途中で変化した場合でも、アクチュエータ駆動制御手段によって行われるフィードバック制御により、物体を、潰さないように、かつ滑り落とさないように把持し続けることができる。
以上詳述したように、請求項1〜請求項3に記載の発明によれば、光学式触覚センサの製作が容易になり、光学式触覚センサの小型化が容易になる。
請求項4に記載の発明によれば、1種類のセンサによって複数種類の力学量を同時に測定することができる。
請求項5または請求項6に記載の発明によれば、1種類のセンサによって複数種類の力学量を同時に測定することができる。
請求項7に記載の発明によれば、物体に適切な力を加えて所望の操作を行うことができる。
請求項8に記載の発明によれば、物体に適切な力を加えて所望の操作を行うことができる。また、物体に与えるべき適切な操作力が途中で変化した場合でも、アクチュエータ駆動制御手段によって行われるフィードバック制御により、物体に対する適切な操作を維持することができる。
請求項9に記載の発明によれば、物体を、潰さないように、かつ滑り落とさないように把持することができる。また、物体に与えるべき適切な把持力が途中で変化した場合でも、アクチュエータ駆動制御手段によって行われるフィードバック制御により、物体を、潰さないように、かつ滑り落とさないように把持し続けることができる。
請求項10に記載の発明によれば、より人間の手に近いロボットハンドを備えたヒューマノイドロボットを実現することができる。
[第1の実施形態]
以下、本発明を多次元力学量センシングシステムに具体化した第1の実施形態を、図1〜図8に基づき詳細に説明する。
図1,図2に示されるように、光学式触覚センサ11を構成する円筒状のケーシング10の先端側には、半球状をなすタッチパッド12(触覚部)が設けられている。ケーシング10内には、撮像手段としてのCCDカメラ13が配置されている。CCDカメラ13は、タッチパッド12において、物体W1(図3参照)と接触する側とは反対側に配置されている。CCDカメラ13は、タッチパッド12に物体W1が接触した際のグリッドパターン19の挙動(変位や歪み)を背面側から撮影するようになっている。従って、CCDカメラ13の焦点は、グリッドパターン19のあるタッチパッド12の凸状曲面15に合っている。
さらに、ケーシング10内には、グリッドパターン19を照らすリング状の照明14が配置されている。本実施形態において、照明14は、複数の発光ダイオードによって構成されているが、光ファイバなどによって構成されていてもよい。なお、タッチパッド12、CCDカメラ13及び照明14は同軸上に配置されている。
図1に示されるように、タッチパッド12は、先端側に凸状曲面15を有し、基端側に平坦面16を有する透明弾性体17(光透過性弾性体)からなっている。透明弾性体17の基端側には、透明弾性体17よりも相対的に硬質の押さえ板18(押さえ部材)が透明な接着剤により接合されている。押さえ板18はケーシング10の一端に接合されている。本実施形態においては、押さえ板18として透明のアクリル板が用いられている。なお、押さえ板18において、タッチパッド12が接合される側の反対側には、前記CCDカメラ13が配置されている。本実施形態において、透明弾性体17は、透明シリコーンゴム(GE東芝シリコーン製:YE5822)によって形成されている。また、透明弾性体17の高さH1は13mmに設定され、透明弾性体17の凸状曲面15の曲率半径は20mm〜30mm(本実施形態では30mm)に設定されている。
図2に示されるように、タッチパッド12において物体W1(図3参照)が接触する箇所の表面上、即ち、凸状曲面15上には、マーカー部としてのグリッドパターン19が配置されている。グリッドパターン19は、透明弾性体17が物体W1に接触したときに、変位や歪みを起こす。具体的には、グリッドパターン19は、格子状に配置された複数の溝20からなっている。本実施形態において、グリッドパターン19は、300μmピッチの格子状に配置された深さ100μmの複数の溝20からなっている。即ち、グリッドパターン19は、透明弾性体17と同一の材料によって構成されている。なお、溝20の深さは、例えば50μmに設定されていてもよい。また、本実施形態においては、グリッドパターン19の形成にあたり、透明弾性体17とは別の材料は特に用いていないが、別の材料を用いてもよい。
このタッチパッド12は、略半球面状の成形面を有する金属製の成形型(図示略)に、未硬化の透明シリコーンゴム(弾性体材料)を流し込み、その透明シリコーンゴムの一部を成形面に接触させて硬化させることにより、形成されたものである。なお、成形面には、高さ100μmの複数の成形突条が格子状に配置されている。これにより、タッチパッド12が形成されるのに伴い、透明弾性体17の凸状曲面15に、格子状に配置された複数の溝20が形成される。
図3に示されるように、光学式触覚センサ11を備えるセンシングシステム21は、センシングシステム21全体を制御する制御部22を備えている。制御部22はCPU23を備えており、CPU23には、ROM24、RAM25及び入出力ポート(I/Oポート)26が接続されている。CPU23は、センシングシステム21全体を制御するための各種処理を実行し、その処理結果を所定の制御信号として出力するようになっている。ROM24には、センシングシステム21を制御するための制御プログラムなどが記憶されている。また、RAM25には、センシングシステム21の動作に必要な各種の情報が一時的に記憶されるようになっている。さらに、入出力ポート26には、前記CCDカメラ13及び前記照明14が接続されている。CPU23には、前記グリッドパターン19の挙動を撮影することでCCDカメラ13から入力される画像情報が、入出力ポート26を介して入力されるようになっている。それとともに、CPU23は、照明14を点灯させるための信号を、入出力ポート26を介して照明14に対して出力するようになっている。
図3に示されるCPU23は、入出力ポート26を介して一定時間ごと(本実施形態では33msごと)に入力されたCCDカメラ13からの画像情報を画像処理するようになっている。これにより、グリッドパターン19が格子状の模様として認識されるようになっている(図4参照)。なお、一定時間ごとに取得した画像情報は、RAM25の記憶領域に一定期間記憶されるとともに、古いものから順次消去されるようになっている。また、画像処理ソフトウェアとしては、市販のもの(MVTec社製:HALCON)が用いられている。そして、タッチパッド12が物体W1に接触すると、CPU23は、物体W1とタッチパッド12との間に生じる接触領域A1(図5参照)の大きさ(面積)、形状及び重心に関する情報(即ち、幾何学的情報)を抽出するようになっている。また、CPU23は、接触領域A1内に生じる物体W1とタッチパッド12との固着領域A2(図5参照)の大きさ(面積)に関する情報(即ち、幾何学的情報)を抽出するようになっている。即ち、CPU23は、情報抽出手段としての機能を有している。ここで、固着領域A2とは、タッチパッド12が物体W1に接触した状態で、グリッドパターン19が動かない領域をいう。また、タッチパッド12が物体W1に接触した状態でグリッドパターン19が動く領域を、滑り領域A3(図5参照)という。
なお、接触領域A1、固着領域A2及び滑り領域A3を判定する方法は以下の通りである。
タッチパッド12が物体W1に接触した状態をCCDカメラ13にて撮影した画像(図5参照)では、グリッドパターン19が格子状の模様として認識されるとともに、接触領域A1が他の部分よりも明るく見える。よって、画像の輝度の違いに基づいて接触領域A1の面積を計測することができる。なお、本実施形態において、グリッドパターン19を照らす前記照明14としては、接触領域A1と非接触領域との輝度の差が大きくなる白色光を発するものが用いられている。これにより、接触領域A1をより鮮明に識別することができる。
次に、今回撮影された画像から1ステップ前(33ms前)に撮影された画像を減算し、コントラストを上げるように画像の補正を加えると、グリッドパターン19が動く滑り領域A3が格子状の模様として表示される。一方、固着領域A2では、格子状の模様が表示されず、ホワイトノイズ的な画像が表示される。その結果、両者の境界が明確になるので、画像より固着領域A2と滑り領域A3との境界を求めることができる。以上の処理により、固着領域A2と滑り領域A3とを分離して計測することができる。
そして、図3に示されるCPU23は、接触領域A1の大きさに対する固着領域A2の大きさの割合から、物体W1と透明弾性体17との間の摩擦係数(滑りやすさ)を測定するようになっている。具体的には、例えばCPU23は、摩擦係数と、接触領域A1の大きさに対する固着領域A2の大きさの割合との関係を示すデータを前記ROM24から読み出す。そして、CPU23は、計測された接触領域A1の大きさに対する固着領域A2の大きさの割合に対応する摩擦係数のデータを選択することによって、接触領域A1付近の摩擦係数を測定することができる。なお、接触領域A1の大きさに対する固着領域A2の大きさの割合が高い程、滑り領域A3が小さくなるため、摩擦係数が大きくなる。なお、摩擦係数を他の方法によって求めてもよい。
また、CPU23は、接触領域A1の大きさから法線力を求めるようになっている。法線力は、前記タッチパッド12の前記透明弾性体17によって物体W1を押圧したときに、物体W1に対して鉛直方向に作用する力である。具体的には、例えばCPU23は、接触領域A1の面積と法線力との関係を示すデータをROM24から読み出す。そして、CPU23は、計測された接触領域A1の面積に対応する法線力のデータを選択することによって、接触領域A1付近に作用する法線力の大きさ及び方向を測定することができる。なお、法線力を他の方法によって求めてもよい。即ち、CPU23は、力学量測定手段としての機能を有している。
さらに、図3に示されるCPU23は、接触領域A1の形状及び重心から接線力を求めるようになっている。接線力は、透明弾性体17によって物体W1を押圧したときに、物体W1に対して水平方向に作用する力である。具体的には、例えばCPU23は、接線力と、接触領域A1の形状及び重心との関係を示すデータをROM24から読み出す。そして、CPU23は、計測された接触領域A1の形状及び重心に対応する接線力のデータを選択することによって、接触領域A1付近に作用する接線力の大きさ及び方向を測定することができる。なお、接線力を他の方法によって求めてもよい。
また、CPU23は、前記CCDカメラ13からの画像情報を画像処理することにより、グリッドパターン19の変形に関する情報を抽出するようになっている。そして、CPU23は、グリッドパターン19の変形に関する情報からトルクを求めるようになっている。具体的には、例えばCPU23は、グリッドパターン19が変形する前(物体W1に接触する前)の画像(図6参照)と変形した後(物体W1に接触した後)の画像(図7参照)とを比較し、格子のねじれ(角度θ)を計測する。次に、CPU23は、角度θとトルクとの関係を示すデータをROM24から読み出す。そして、CPU23は、計測された角度θに対応するトルクのデータを選択することによって、接触領域A1付近に作用するトルクの大きさ及び方向を測定することができる。なお、トルクを他の方法によって求めてもよい。
次に、センシングシステム21による力学量(法線力、接線力、摩擦係数及びトルク)の測定方法を説明する。
図8に示されるように、ステップS110においてタッチパッド12が物体W1に接触すると、CPU23は、グリッドパターン19の挙動を撮影することでCCDカメラ13から入力される画像情報を取り込み(ステップS120)、画像処理を行う(ステップS130)。そして、CPU23は、画像に表示された接触領域A1と非接触領域との輝度の違いに基づいて接触領域A1を測定し、接触領域A1の大きさ、形状及び重心に関する情報を抽出する(ステップS140)。次に、CPU23は、今回撮影された画像から1ステップ前(33ms前)に撮影された画像を減算し、コントラストを上げるように画像の補正を加えることで表示されるホワイトノイズ的な画像から固着領域A2を測定し、固着領域A2の大きさに関する情報を抽出する(ステップS150)。
そして、CPU23は、接触領域A1の大きさに対する固着領域A2の大きさの割合から、物体W1と透明弾性体17との間の摩擦係数を算出する(ステップS160)。また、CPU23は、接触領域A1の大きさから法線力を求め(ステップS170)、接触領域A1の形状及び重心から接線力を求める(ステップS180)。さらに、CPU23は、CPU23は、グリッドパターン19の格子のねじれ(角度θ)トルクを求め(ステップS190)、ここでの処理を終了する。なお、ステップS160〜ステップS190の処理の順番を変更してもよい。
従って、本実施形態によれば以下の効果を得ることができる。
(1)本実施形態の光学式触覚センサ11では、透明弾性体17の挙動をCCDカメラ13によって画像情報として捉えるため、大きな情報量を比較的小さく簡単な構造で処理することができる。よって、複数種類の力学量(法線力、接線力、摩擦係数及びトルク)を同時に測定する場合であっても、形式の異なる複数種類のセンサを組み合わせて用いたりしなくて済む。このため、光学式触覚センサ11の小型化、低コスト化が容易になる。さらに、光学式触覚センサ11は、従来のように歪ゲージを変形させたりして力学量を測定する訳ではないため、耐久性の面でも問題はない。また、グリッドパターン19を、透明弾性体17の内部に設けたり、複数個の歪みゲージを透明弾性体17の内部に配列したりせずに、透明弾性体17の凸状曲面15上に配置すれば済む。しかも、光学式触覚センサ11を構成する基本的な部品は、透明弾性体17、照明14及びCCDカメラ13であって、比較的少ない。よって、光学式触覚センサ11の製作が容易になる。
また、物体W1との接触時に一番変形しやすい部分は、凸状曲面15である。そして、凸状曲面15からタッチパッド12の内側に行くに従って、変形量は小さくなる。このため、グリッドパターン19を凸状曲面15上に配置した本実施形態によれば、グリッドパターン19をタッチパッド12の内部に配置した場合よりも、グリッドパターン19に大きな変形が生じやすい。よって、グリッドパターン19の変形の様子をCCDカメラ13によって撮影することで、タッチパッド12に作用する力を正確に求めることができる。即ち、透明弾性体17の内部に生じる歪みを検出する方法に比べて、検出精度が高くなる。
(2)本実施形態のセンシングシステム21では、CCDカメラ13からの画像情報が画像処理されると、CPU23によって接触領域A1の大きさ、形状及び重心に関する情報が抽出されるとともに、固着領域A2の大きさに関する情報が抽出される。そして、CPU23によって、それらの情報に基づいて法線力、接線力、摩擦係数及びトルクが求められる。即ち、1種類のセンサによって複数種類の力学量を同時に測定することができる。
(3)本実施形態では、凸状曲面15上に配置されるグリッドパターン19が、格子状に配置された複数の溝20からなっている。つまり、凸状曲面15上には凹凸が形成される。これにより、透明弾性体17が物体W1に接触したときに、グリッドパターン19が物体W1の表面に引っ掛かりやすくなるため、凸状曲面15上のグリッドパターン19付近の摩擦係数が大きくなる。従って、タッチパッド12の物体W1に対するグリップが向上する。
(4)本実施形態では、透明弾性体17の基端側が平面(平坦面16)となっており、その基端側に押さえ板18が接合されている。よって、透明弾性体17の基端部の変形が防止されるため、光学式触覚センサ11による力学量の測定をより正確に行うことができる。また、押さえ板18により、タッチパッド12を安定的に保持することができる。しかも、タッチパッド12が安定的に保持されることから、CCDカメラ13によるグリッドパターン19の撮影が容易になる。
[第2の実施形態]
次に、図9,図10に基づき第2の実施形態を説明する。なお、第1の実施形態と共通している箇所については、同一の番号を付す代わりに、その詳細な説明を省略する。
前記第1の実施形態の光学式触覚センサ11は、センシングシステム21に用いられていた。しかし、本実施形態の光学式触覚センサ11は、ロボットハンド31(物体操作力制御装置、物体把持力制御装置)に用いられている。
図9に示されるように、ロボットハンド31を構成するハンド本体32は、一対の指34,35(センサ支持体)を備えている。なお、本実施形態では、ハンド本体32に2本の指34,35が設けられているが、2本以上設けられていてもよく、例えば人の手のように5本設けられていてもよい。また、ハンド本体32には、第1のサーボモータ36(アクチュエータ)、第2のサーボモータ37(アクチュエータ)及び第3のサーボモータ38(アクチュエータ)が設けられている。指34,35は、第1のサーボモータ36の駆動によって開閉する方向(即ち図9の左右方向)に移動するようになっている。また、指34,35は、第2のサーボモータ37の駆動によって、指34,35を開閉する方向とは直交する方向、かつ水平方向(即ち図9の前後方向)に移動するようになっている。さらに、指34,35は、第3のサーボモータ38の駆動によって、鉛直方向(即ち図9の上下方向)に移動するようになっている。
図9に示されるように、一方の指35には前記光学式触覚センサ11が支持され、他方の指34には光学式触覚センサ11と外形が略等しい指先部材39が支持されている。指先部材39及び光学式触覚センサ11は、互いに向かい合うように配置されている。なお、指先部材39の代わりに光学式触覚センサ11を設けるようにしてもよい。つまり、各指34,35のいずれか1つに光学式触覚センサ11を設けてもよいし、各指34,35にそれぞれ光学式触覚センサ11を設けてもよい。
また、ロボットハンド31全体を制御する制御部22は、前記第1の実施形態の構成に加え、各サーボモータ36〜38を駆動し、各指34,35の位置、速度及び力などを制御するモータドライバ41を備えている。モータドライバ41はCPU23によって制御されるようになっている。モータドライバ41は、CPU23から出力された駆動信号に基づいて、各サーボモータ36〜38に対して所定の波形を有する電流を流すようになっている。
図9に示されるCPU23は、同CPU23により求められた法線力、接線力、摩擦係数及びトルクに基づいて、物体W1に与えるべき適切な把持力(操作力)の大きさ及び方向を算出するようになっている。例えば、必要以上の法線力が物体W1に加えられ、物体W1を潰してしまう可能性がある場合、CPU23は、法線力(第1のサーボモータ36の駆動により指34,35が閉じようとする力)を小さくするようになっている。一方、法線力が小さく、物体W1が滑り落ちてしまう可能性がある場合、CPU23は、法線力を大きくするようになっている。即ち、CPU23は、操作力算出手段及び把持力算出手段としての機能を有している。そして、CPU23は、算出された適切な把持力に基づいて、第1〜第3のサーボモータ36〜38の駆動をモータドライバ41に対して指令するようになっている。これにより、各指34,35が、適切な把持力で物体W1を把持するようになる。つまり、CPU23は、把持力をフィードバック制御するようになっている。即ち、CPU23は、アクチュエータ駆動制御手段としての機能を有している。
次に、ロボットハンド31によって物体W1を把持する方法を説明する。
図10において、ステップS110〜ステップS190までの処理が終了し、法線力、接線力、摩擦係数及びトルクが測定されると、CPU23は、ステップS210の処理へ移行する。ステップS210において、CPU23は、求められた法線力、接線力、摩擦係数及びトルクに基づいて、物体W1に与えるべき適切な把持力を算出する。そして、CPU23は、算出された適切な把持力で、第1〜第3のサーボモータ36〜38の駆動をモータドライバ41に指令するようになっている。これにより、各指34,35が適切な把持力で物体W1を把持するようになる。
そして、ステップS210の処理を終了したCPU23は、ステップS120〜S210の処理を再び行う。この処理は、各指34,35が物体W1を把持している間、一定時間ごとに行われる。つまり、CPU23は、把持力をフィードバック制御する。
従って、本実施形態によれば以下の効果を得ることができる。
(5)本実施形態のロボットハンド31では、CCDカメラ13からの画像情報が画像処理されると、CPU23によって接触領域A1の大きさ、形状及び重心に関する情報が抽出されるとともに、固着領域A2の大きさに関する情報が抽出される。そして、CPU23によって、それらの情報に基づいて法線力、接線力、摩擦係数及びトルクが求められる。即ち、1種類のセンサによって複数種類の力学量を同時に測定することができる。そして、測定した力学量に基づいて物体W1に与えるべき適切な把持力を算出することができる。これにより、各指34,35によって、物体W1を、潰さないように、かつ滑らないように把持することができる。しかも、光学式触覚センサ11のタッチパッド12は半球状をなしているため、物体W1の形状に影響されることなく、物体W1を把持することができる。ゆえに、より人間の手に近いロボットハンド31を備えたヒューマノイドロボットを実現することができる。
(6)本実施形態では、物体W1に与えるべき適切な操作力が途中で変化した場合でも、CPU23によって行われるフィードバック制御により、物体W1を、潰さないように、かつ滑らないように把持し続けることができる。しかも、光学式触覚センサ11は、透明弾性体17の挙動をCCDカメラ13によって画像情報として捉えるため、大きな情報量を比較的速く処理することができる。よって、物体W1に与えるべき適切な操作力が急激に変化した場合でも、物体W1を、潰さないように、かつ滑らないように把持し続けることができる。
なお、本発明の実施形態は以下のように変更してもよい。
・上記各実施形態では、グリッドパターン19は格子状の模様であったが、三角形の網目状、六角形の網目状(ハニカム状)などの他の模様であってもよい。
・上記各実施形態において、グリッドパターン19を、光透過性材料からなるカバー層によって覆うようにしてもよい。
・上記各実施形態では、タッチパッド12が成形型によって形成されるのに伴い、透明弾性体17の凸状曲面15に複数の溝20が形成されるようになっていた。しかし、タッチパッド12が形成された後で、複数の溝20を形成(例えば切削形成)するようにしてもよい。
・上記各実施形態では、照明14は白色光を発するようになっていたが、青色光、赤色光などの他のものであってもよい。
・上記第2の実施形態では、指34,35を駆動するアクチュエータとして、第1〜第3のサーボモータ36〜38を用いたが、油圧シリンダ、空気圧シリンダ、超音波モータなどをアクチュエータとして用いてもよい。
次に、前述した実施形態によって把握される技術的思想を以下に列挙する。
(1)請求項1乃至3,6のいずれか1項において、さらに前記マーカー部を照らす照明を備えたこと。
(2)技術的思想(1)において、前記照明はリング状であること。
(3)技術的思想(1)または(2)において、前記照明は白色光を発すること。
(4)技術的思想(1)乃至(3)のいずれか1つにおいて、前記照明は複数の発光ダイオードを用いて構成されていること。
(5)請求項1乃至3,6のいずれか1項において、前記マーカー部は無色であること。
(6)請求項6において、前記マーカー部は、格子状に配置された複数の溝または複数の突条からなること。
(7)請求項2または技術的思想(6)において、前記溝の深さまたは前記突条の高さは、100μm〜1000μmであること。
(8)請求項1乃至3,6のいずれか1項において、前記マーカー部は着色されていること。
(9)請求項1乃至3,6のいずれか1項において、前記マーカー部は光透過性材料からなるカバー層によって覆われていること。
(10)請求項1乃至3,6のいずれか1項において、前記マーカー部は、300μm〜1000μmピッチの格子状に配置された深さ100μm〜1000μmの複数の溝であること。
(11)請求項1乃至10のいずれか1項において、前記撮像手段はCCDカメラであること。
(12)請求項1乃至10のいずれか1項において、前記撮像手段は前記触覚部の背面側に配置され、前記凸状曲面上、または、前記触覚部において物体が接触する箇所の表面上に配置されたマーカー部を背面側から撮像すること。
(13)請求項1乃至10のいずれか1項において、前記光透過性弾性体は透明であること。
(14)請求項1乃至10のいずれか1項において、前記光透過性弾性体はシリコーン樹脂からなること。
(15)請求項1乃至3のいずれか1項において、前記光透過性弾性体の前記凸状曲面の曲率半径は5mm〜50mmであること。
(16)請求項1乃至10のいずれか1項において、前記光透過性弾性体はその先端側に凸状曲面を有し、基端側に平坦面を有すること。
(17)請求項1乃至10のいずれか1項において、前記光透過性弾性体はその先端側に凸状曲面を有し、基端側に平坦面を有するとともに、前記基端側には、さらに、前記光透過性弾性体よりも相対的に硬質の押さえ部材が接合され、前記撮像手段はさらにその基端側に配置されていること。
(18)光透過性弾性体からなる触覚部と、前記触覚部において物体に接触する箇所の挙動を撮影する撮像手段とを備えた光学式触覚センサの製造方法であって、成形面に複数の成形溝または複数の成形突条を有する成形型を用い、その成形面に未硬化の弾性体材料を接触させて硬化させることにより、前記触覚部を形成することを特徴とする光学式触覚センサの製造方法。
例えば本発明の光学式触覚センサ及びそれを利用したセンシングシステムによれば、人とロボットとの間での触覚情報の双方向情報伝達が容易になる可能性がある。例えば、ボールを投げるなどの指先の微妙な動きや感覚をロボットに学習させることができるロボットティーチングマシンに応用できる可能性がある。
本発明における光学式触覚センサを示す全体斜視図。 タッチパッドの全体斜視図。 センシングシステムの構成を示すブロック図。 タッチパッドが物体に接触していない場合のグリッドパターンの状態を示す図。 タッチパッドが物体に接触した際のグリッドパターンの状態を示す図。 タッチパッドにトルクが作用していない場合のグリッドパターンの状態を示す図。 タッチパッドにトルクが作用した際のグリッドパターンの状態を示す図。 センシングシステムによる処理の概略を示すフローチャート。 ロボットハンドの構成を示すブロック図。 ロボットハンドによる処理の概略を示すフローチャート。
符号の説明
11…光学式触覚センサ
12…触覚部としてのタッチパッド
13…撮像手段としてのCCDカメラ
15…凸状曲面
17…光透過性弾性体としての透明弾性体
19…マーカー部としてのグリッドパターン
20…溝
21…センシングシステム
23…情報抽出手段、力学量測定手段、操作力算出手段、把持力算出手段及びアクチュエータ駆動制御手段としてのCPU
31…物体操作力制御装置、物体把持力制御装置としてのロボットハンド
34,35…センサ支持体としての指
36…アクチュエータとしての第1のサーボモータ
37…アクチュエータとしての第2のサーボモータ
38…アクチュエータとしての第3のサーボモータ
A1…接触領域
A2…固着領域
W1…物体

Claims (10)

  1. 凸状曲面を有する光透過性弾性体からなり、前記凸状曲面上にマーカー部が配置された触覚部と、
    前記凸状曲面に物体が接触した際の前記マーカー部の挙動を撮影する撮像手段と
    を備えたことを特徴とする光学式触覚センサ。
  2. 前記マーカー部は、格子状に配置された複数の溝または複数の突条からなることを特徴とする請求項1に記載の光学式触覚センサ。
  3. 前記触覚部は、成形面に複数の成形溝または複数の成形突条を有する成形型を用い、その成形面に未硬化の弾性体材料を接触させて硬化させることにより、形成されることを特徴とする請求項1または2に記載の光学式触覚センサ。
  4. 光透過性弾性体からなる触覚部と、前記触覚部において物体が接触する箇所の挙動を撮影する撮像手段とを備えた光学式触覚センサを利用して、複数種類の力学量をセンシングする方法であって、
    前記撮像手段からの画像情報を画像処理することにより、前記物体と前記触覚部との間に生じる接触領域の大きさ、形状及び重心に関する情報を抽出するとともに、前記接触領域内に生じる前記物体と前記触覚部との固着領域の大きさに関する情報を抽出するステップと、
    前記接触領域の大きさから法線力を求めるステップと、
    前記接触領域の形状及び前記接触領域の重心から接線力を求めるステップと、
    前記接触領域の大きさに対する前記固着領域の大きさの割合から摩擦係数を求めるステップと
    を含むことを特徴とする、光学式触覚センサを利用したセンシング方法。
  5. 光透過性弾性体からなる触覚部と、前記触覚部において物体が接触する箇所の挙動を撮影する撮像手段とを備えた光学式触覚センサと、
    前記撮像手段からの画像情報を画像処理することにより、前記物体と前記触覚部との間に生じる接触領域の大きさ、形状及び重心に関する情報を抽出するとともに、前記接触領域内に生じる前記物体と前記触覚部との固着領域の大きさに関する情報を抽出する情報抽出手段と、
    前記接触領域の大きさから法線力を求め、前記接触領域の形状及び前記接触領域の重心から接線力を求め、かつ、前記接触領域の大きさに対する前記固着領域の大きさの割合から摩擦係数を求めることが可能な力学量測定手段と
    を備えることを特徴とするセンシングシステム。
  6. 前記触覚部において前記物体が接触する箇所の表面上にマーカー部を配置し、
    前記撮像手段は、前記触覚部に前記物体が接触した際の前記マーカー部の挙動を撮影し、
    前記情報抽出手段は、前記撮像手段からの画像情報を画像処理することにより、前記マーカー部の変形に関する情報を抽出し、
    前記力学量測定手段は、前記マーカー部の変形に関する情報からトルクを求めることが可能である
    ことを特徴とする請求項5に記載のセンシングシステム。
  7. 光透過性弾性体からなる触覚部と、前記触覚部において物体が接触する箇所の挙動を撮影する撮像手段とを備えた光学式触覚センサを利用した物体操作力制御方法であって、
    前記撮像手段からの画像情報を画像処理することにより、前記物体と前記触覚部との間に生じる接触領域の大きさ、形状及び重心に関する情報を抽出するとともに、前記接触領域内に生じる前記物体と前記触覚部との固着領域の大きさに関する情報を抽出するステップと、
    前記接触領域の大きさから法線力を求め、前記接触領域の形状及び前記接触領域の重心から接線力を求め、かつ、前記接触領域の大きさに対する前記固着領域の大きさの割合から摩擦係数を求めるステップと、
    前記力学量測定手段により求められた複数種類の力学量に基づいて、前記物体に与えるべき適切な操作力を算出するステップと、
    前記複数種類の力学量を、算出された適切な操作力に近づけるような制御を行うステップと
    を含むことを特徴とする、光学式触覚センサを利用した物体操作力制御方法。
  8. センサ支持体と、
    前記センサ支持体を駆動するアクチュエータと、
    光透過性弾性体からなる触覚部と、前記触覚部において物体に接触する箇所の挙動を撮影する撮像手段とを備え、前記センサ支持体に支持された光学式触覚センサと、
    前記撮像手段からの画像情報を画像処理することにより、前記物体と前記触覚部との間に生じる接触領域の大きさ、形状及び重心に関する情報を抽出するとともに、前記接触領域内に生じる前記物体と前記触覚部との固着領域の大きさに関する情報を抽出する情報抽出手段と、
    前記接触領域の大きさから法線力を求め、前記接触領域の形状及び前記接触領域の重心から接線力を求め、かつ、前記接触領域の大きさに対する前記固着領域の大きさの割合から摩擦係数を求めることが可能な力学量測定手段と、
    前記力学量測定手段により求められた複数種類の力学量に基づいて、前記物体に与えるべき適切な操作力を算出する操作力算出手段と、
    前記操作力算出手段により算出された適切な操作力で前記センサ支持体を駆動するように前記アクチュエータをフィードバック制御するアクチュエータ駆動制御手段と
    を備えたことを特徴とする物体操作力制御装置。
  9. センサ支持体と、
    前記センサ支持体を駆動するアクチュエータと、
    光透過性弾性体からなる触覚部と、前記触覚部において物体に接触する箇所の挙動を撮影する撮像手段とを備え、前記センサ支持体に支持された光学式触覚センサと、
    前記撮像手段からの画像情報を画像処理することにより、前記物体と前記触覚部との間に生じる接触領域の大きさ、形状及び重心に関する情報を抽出するとともに、前記接触領域内に生じる前記物体と前記触覚部との固着領域の大きさに関する情報を抽出する情報抽出手段と、
    前記接触領域の大きさから法線力を求め、前記接触領域の形状及び前記接触領域の重心から接線力を求め、かつ、前記接触領域の大きさに対する前記固着領域の大きさの割合から摩擦係数を求めることが可能な力学量測定手段と、
    前記力学量測定手段により求められた複数種類の力学量に基づいて、前記物体に与えるべき適切な把持力を算出する把持力算出手段と、
    前記把持力算出手段により算出された適切な把持力で前記センサ支持体を駆動するように前記アクチュエータをフィードバック制御するアクチュエータ駆動制御手段と
    を備えたことを特徴とする物体把持力制御装置。
  10. 複数の指と、
    前記複数の指を駆動するアクチュエータと、
    光透過性弾性体からなる触覚部と、前記触覚部において物体に接触する箇所の挙動を撮影する撮像手段とを備え、前記複数の指のうちの少なくとも1つの指の先端部に支持された光学式触覚センサと、
    前記撮像手段からの画像情報を画像処理することにより、前記物体と前記触覚部との間に生じる接触領域の大きさ、形状及び重心に関する情報を抽出するとともに、前記接触領域内に生じる前記物体と前記触覚部との固着領域の大きさに関する情報を抽出する情報抽出手段と、
    前記接触領域の大きさから法線力を求め、前記接触領域の形状及び前記接触領域の重心から接線力を求め、かつ、前記接触領域の大きさに対する前記固着領域の大きさの割合から摩擦係数を求めることが可能な力学量測定手段と、
    前記力学量測定手段により求められた複数種類の力学量に基づいて、前記物体に与えるべき適切な把持力を算出する把持力算出手段と、
    前記把持力算出手段により算出された適切な把持力で前記複数の指を駆動するように前記アクチュエータをフィードバック制御するアクチュエータ駆動制御手段と
    を備えたことを特徴とするロボットハンド。
JP2004066401A 2004-03-09 2004-03-09 光学式触覚センサ、光学式触覚センサを利用したセンシング方法、センシングシステム、物体操作力制御方法、物体操作力制御装置、物体把持力制御装置及びロボットハンド Expired - Lifetime JP4621827B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2004066401A JP4621827B2 (ja) 2004-03-09 2004-03-09 光学式触覚センサ、光学式触覚センサを利用したセンシング方法、センシングシステム、物体操作力制御方法、物体操作力制御装置、物体把持力制御装置及びロボットハンド
US10/592,243 US7707001B2 (en) 2004-03-09 2005-03-04 Control of object operating force, object gripping force and robot hands
PCT/JP2005/004259 WO2005085785A1 (ja) 2004-03-09 2005-03-04 光学式触覚センサ、センシング方法、センシングシステム、物体操作力制御方法、物体操作力制御装置、物体把持力制御装置、ロボットハンド

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004066401A JP4621827B2 (ja) 2004-03-09 2004-03-09 光学式触覚センサ、光学式触覚センサを利用したセンシング方法、センシングシステム、物体操作力制御方法、物体操作力制御装置、物体把持力制御装置及びロボットハンド

Publications (2)

Publication Number Publication Date
JP2005257343A true JP2005257343A (ja) 2005-09-22
JP4621827B2 JP4621827B2 (ja) 2011-01-26

Family

ID=34918329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004066401A Expired - Lifetime JP4621827B2 (ja) 2004-03-09 2004-03-09 光学式触覚センサ、光学式触覚センサを利用したセンシング方法、センシングシステム、物体操作力制御方法、物体操作力制御装置、物体把持力制御装置及びロボットハンド

Country Status (3)

Country Link
US (1) US7707001B2 (ja)
JP (1) JP4621827B2 (ja)
WO (1) WO2005085785A1 (ja)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090132088A1 (en) * 2007-04-24 2009-05-21 Tairob Ltd. Transfer of knowledge from a human skilled worker to an expert machine - the learning process
WO2009116359A1 (ja) * 2008-03-17 2009-09-24 国立大学法人東京農工大学 接触面積測定装置および接触面積測定方法
JP2009222567A (ja) * 2008-03-17 2009-10-01 Tokyo Univ Of Agriculture & Technology 接触面積測定装置および接触面積測定方法
JP2010038614A (ja) * 2008-08-01 2010-02-18 Tokyo Univ Of Agriculture & Technology 接触面積測定装置および接触面積測定方法
US20100127975A1 (en) * 2007-05-30 2010-05-27 Jens Martin Jensen Touch-sensitive pointing device with guiding lines
JP2010221357A (ja) * 2009-03-24 2010-10-07 Toyota Industries Corp ロボットハンド用フィンガ
JP2010221358A (ja) * 2009-03-24 2010-10-07 Toyota Industries Corp ロボットハンド用撮像装置内蔵フィンガ
JP2012042220A (ja) * 2010-08-12 2012-03-01 Nagoya Univ 形状計測装置、及び形状計測方法
JP2012236237A (ja) * 2011-05-10 2012-12-06 Seiko Epson Corp ロボットハンド、およびロボット
JP2015021747A (ja) * 2013-07-16 2015-02-02 国立大学法人広島大学 印加力推定方法、印加力推定プログラム、およびコンピュータ入力デバイス
CN104589358A (zh) * 2014-12-03 2015-05-06 安徽省库仑动力自动化科技有限公司 一种基于力传感与数据库对比的工业机器人拆解倾倒方法
JP2015515621A (ja) * 2012-07-11 2015-05-28 ウトゥク・ビュユクシャヒンUtku BUYUKSAHIN ロボットおよびデバイス用のマルチポイント高感度触覚センシングモジュール
US9052710B1 (en) * 2009-03-20 2015-06-09 Exelis Inc. Manipulation control based upon mimic of human gestures
CN104932382A (zh) * 2015-06-24 2015-09-23 哈尔滨工业大学 微创环境下用于触摸诊断的三维微型力传感器
KR20160049637A (ko) * 2014-10-28 2016-05-10 한국기계연구원 생체내 이물질 측정 장치
JP2018004585A (ja) * 2016-07-08 2018-01-11 国立大学法人広島大学 触覚評価方法および触覚評価システム
JP2018088254A (ja) * 2016-03-29 2018-06-07 株式会社齋藤創造研究所 入力装置および画像表示システム
WO2018235214A1 (ja) * 2017-06-21 2018-12-27 株式会社齋藤創造研究所 マニピュレーターおよびロボット
CN109460159A (zh) * 2017-08-20 2019-03-12 原相科技股份有限公司 摇杆与其相关控制方法
JP2019060871A (ja) * 2017-09-26 2019-04-18 トヨタ リサーチ インスティテュート,インコーポレイティド 物体に接触して姿勢及び力を検出するための変形可能なセンサ及び方法
JP2019059016A (ja) * 2017-09-26 2019-04-18 トヨタ リサーチ インスティテュート,インコーポレイティド ロボットグリッパー指
JP2019171569A (ja) * 2019-07-18 2019-10-10 株式会社齋藤創造研究所 マニピュレーターおよびロボット
KR20200042505A (ko) 2017-08-14 2020-04-23 뉴사우스 이노베이션즈 피티와이 리미티드 그립 안정성을 측정하기 위한 마찰-기반 촉각 센서
WO2020246263A1 (ja) * 2019-06-05 2020-12-10 ソニー株式会社 制御装置および方法、並びに、プログラム
WO2021001992A1 (ja) * 2019-07-04 2021-01-07 国立大学法人東北大学 触覚センサ、触覚センサシステム及びプログラム
JPWO2021124388A1 (ja) * 2019-12-16 2021-06-24
JP2022106875A (ja) * 2017-09-26 2022-07-20 トヨタ リサーチ インスティテュート,インコーポレイティド 物体に接触して姿勢及び力を検出するための変形可能なセンサ及び方法
GB2604195A (en) * 2020-08-11 2022-08-31 Ocado Innovation Ltd Object presence sensing
WO2023127302A1 (ja) * 2021-12-28 2023-07-06 ソニーグループ株式会社 センサ装置、およびロボット
KR20230109407A (ko) * 2022-01-13 2023-07-20 경북대학교 산학협력단 랜덤 패턴과 멀티 터치가 가능한 비전 기반 촉각 센서

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5449336B2 (ja) * 2008-06-19 2014-03-19 マサチューセッツ インスティテュート オブ テクノロジー 弾性撮像を使用する接触センサ
DE102009031385A1 (de) * 2009-07-01 2011-01-05 Giesecke & Devrient Gmbh Verfahren, tragbarer Datenträger und System zum Freigeben einer Transaktion
US20130220032A1 (en) 2010-10-26 2013-08-29 Muthukumaran Packirisamy System For Sensing a Mechanical Property of a Sample
KR20140041890A (ko) 2011-07-28 2014-04-04 메사추세츠 인스티튜트 오브 테크놀로지 고해상도 표면 측정 시스템 및 방법
HUP1100633A2 (en) * 2011-11-17 2013-06-28 Pazmany Peter Katolikus Egyetem Device with optical feedback for measuring force and pressure
US20150011894A1 (en) * 2011-12-19 2015-01-08 The Regents Of The University Of California System for and method of quantifying on-body palpitation for improved medical diagnosis
JP5516610B2 (ja) * 2012-01-19 2014-06-11 株式会社安川電機 ロボット、ロボットハンドおよびロボットハンドの保持位置調整方法
TWI482956B (zh) * 2012-07-24 2015-05-01 Univ Nat Cheng Kung 物體特性感測系統及其控制方法
KR101979680B1 (ko) 2012-12-05 2019-05-20 삼성전자주식회사 촉각센서
WO2014138716A2 (en) 2013-03-08 2014-09-12 Gelsight, Inc. Continuous contact-based three-dimensional measurement
US9452538B2 (en) 2013-03-13 2016-09-27 Disney Enterprises, Inc. Selectively modifiable layer for alteration of appearance or texture
DE102013017007B4 (de) * 2013-10-14 2015-09-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Roboter mit einem Endmanipulatorarm mit Endeffektor sowie Verfahren zur Bestimmung eines Kraft- und Drehmomenteintrages auf einen Endeffektor eines Roboters
US9381659B2 (en) * 2014-04-16 2016-07-05 The Boeing Company Automated apparatus for use in selectively cutting side walls of a honeycomb core
CN105313127A (zh) * 2014-06-02 2016-02-10 精工爱普生株式会社 机器人、机器人的控制方法以及机器人的控制装置
US9757862B2 (en) 2014-10-16 2017-09-12 Technische Universität München Tactile sensor
JP6468871B2 (ja) * 2015-02-03 2019-02-13 キヤノン株式会社 ロボットハンド制御方法及びロボット装置
US9889564B2 (en) 2015-07-08 2018-02-13 Empire Technology Development Llc Stable grasp point selection for robotic grippers with machine vision and ultrasound beam forming
FR3038721B1 (fr) * 2015-07-09 2018-12-07 Centre National De La Recherche Scientifique Tribometre pour la mesure de champs de deplacements a l'interface de deux elements
WO2017045899A1 (en) * 2015-09-16 2017-03-23 Philip Morris Products S.A. Cartridge with a liquid storage portion with a flexible wall
WO2017058700A1 (en) * 2015-09-30 2017-04-06 3M Innovative Properties Company System and method for optimizing body and object interactions
US10456910B2 (en) * 2016-01-14 2019-10-29 Purdue Research Foundation Educational systems comprising programmable controllers and methods of teaching therewith
DK3455599T3 (da) 2016-05-13 2022-03-21 Sensobright Ind Llc Praktisk sensorsystem
TR201606363A2 (tr) * 2016-05-13 2017-11-21 Sensobright Ind Llc Çok işlevli bir algılama sistemi.
DE102016108966B4 (de) * 2016-05-13 2017-11-30 Technische Universität München Visuell-haptischer Sensor für 6D-Kraft/Drehmoment
KR102013992B1 (ko) * 2017-08-04 2019-08-23 한국해양대학교 산학협력단 영상기반 비접촉식 촉각 센싱 시스템
CN108519325B (zh) * 2018-05-07 2023-08-04 河北工业大学 一种研究手与物体接触间摩擦系数和接触面积之间关系的方法与装置
US11110603B2 (en) 2018-10-02 2021-09-07 Toyota Research Institute, Inc. Systems and methods for naïve physics for contact and contact-awareness in robotic teleoperation
TWI699511B (zh) * 2018-11-12 2020-07-21 國立中央大學 觸覺感測器
JP7280032B2 (ja) * 2018-11-27 2023-05-23 ローム株式会社 入力デバイス、自動車
GB2579846A (en) * 2018-12-18 2020-07-08 Univ Bristol Improvements in or relating to tactile sensing
EP3693139A1 (en) 2019-02-11 2020-08-12 Université d'Aix-Marseille Optical tactile sensor
WO2020252122A1 (en) * 2019-06-11 2020-12-17 Magna International Inc. System and method for object shape identification and pose measurement using multi-fingered hand
PL430286A1 (pl) * 2019-06-19 2020-12-28 Innovative Radar Technologies Laboratory Spółka Z Ograniczoną Odpowiedzialnością Układ do pomiaru odkształceń oraz sposób pomiaru odkształceń
WO2021081084A1 (en) * 2019-10-21 2021-04-29 The Regents Of The University Of California Multi-directional high-resolution optical tactile sensors
US20220397469A1 (en) * 2019-10-30 2022-12-15 Sony Group Corporation Optical sensor and optical sensor module
US11584026B2 (en) * 2020-02-17 2023-02-21 Toyota Research Institute, Inc. Robot arm assemblies including fingers having deformable sensors
TWI767264B (zh) * 2020-06-24 2022-06-11 財團法人工業技術研究院 受壓狀態量測方法及受壓狀態量測系統
CN112077882A (zh) * 2020-09-18 2020-12-15 马鞍山迈若斯机器人科技有限公司 一种基于触觉的避障机器人
US20220143821A1 (en) * 2020-11-11 2022-05-12 Sony Interactive Entertainment Inc. Method for robotic training based on randomization of surface stiffness
US12017359B2 (en) 2020-11-11 2024-06-25 Sony Interactive Entertainment Inc. Method for robotic training based on randomization of surface damping
CN112744604B (zh) * 2020-12-11 2022-01-28 珠海格力电器股份有限公司 一种码垛机器人及其控制方法、装置、存储介质及处理器
CN112857630B (zh) * 2021-01-15 2022-10-14 之江实验室 一种软体机器人手的三维凸面柔性触觉传感器及制造方法
US11472039B1 (en) * 2021-04-23 2022-10-18 Toyota Research Institute, Inc. Deformable sensor with rotatable sensing components for detecting deformation levels
CN113223377A (zh) * 2021-04-25 2021-08-06 浙江理工大学 一种盲文阅读笔及盲文读取方法
CN113681585B (zh) * 2021-09-13 2022-09-13 清华大学深圳国际研究生院 一种具备人工痛觉的变刚度柔性夹爪
CN114113008B (zh) * 2021-10-22 2023-12-22 清华大学深圳国际研究生院 一种基于结构光的人工触觉设备和方法
US20230251149A1 (en) * 2022-02-04 2023-08-10 Massachusetts Institute Of Technology Flexible optical tactile sensor

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61205831A (ja) * 1985-03-08 1986-09-12 Nippon Telegr & Teleph Corp <Ntt> マトリツクス触覚センサ
JPH07128163A (ja) * 1993-11-08 1995-05-19 Fuji Electric Co Ltd 触覚センサ
JP2000227371A (ja) * 1999-02-05 2000-08-15 Masahiko Matsubara 面圧力分布検出装置
JP2000254884A (ja) * 1999-03-10 2000-09-19 Keiogijuku ハンド又はマニピュレータによる物体把持制御方法
WO2002018893A1 (fr) * 2000-08-31 2002-03-07 Center For Advanced Science And Technology Incubation, Ltd. Détecteur tactile optique
JP2005114715A (ja) * 2003-09-16 2005-04-28 Toudai Tlo Ltd 光学式触覚センサを用いた力ベクトル再構成法
JP2007518966A (ja) * 2003-09-16 2007-07-12 株式会社東京大学Tlo 光学式触覚センサ及び該センサを用いた力ベクトル分布再構成法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4599908A (en) * 1985-03-18 1986-07-15 Sheridan Thomas B Opto-mechanical touch sensor
JPS6225519A (ja) * 1985-07-26 1987-02-03 Nippon Telegr & Teleph Corp <Ntt> 同一周波干渉量検出方式
JPH0650966B2 (ja) 1989-07-14 1994-07-06 日本製紙株式会社 組識培養によるメロン苗の増殖方法
JPH0726805B2 (ja) * 1992-10-30 1995-03-29 工業技術院長 触覚センサ
JPH0726805A (ja) 1993-07-13 1995-01-27 Nissan Motor Co Ltd キイシリンダ構造
JP3541671B2 (ja) 1998-04-15 2004-07-14 松下電工株式会社 半導体チップの応力分布検出方法
JP3047021B1 (ja) * 1999-04-05 2000-05-29 工業技術院長 触覚センサ
JP2006003137A (ja) * 2004-06-16 2006-01-05 Toudai Tlo Ltd 光学式触覚センサ及び該センサにおける情報取得方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61205831A (ja) * 1985-03-08 1986-09-12 Nippon Telegr & Teleph Corp <Ntt> マトリツクス触覚センサ
JPH07128163A (ja) * 1993-11-08 1995-05-19 Fuji Electric Co Ltd 触覚センサ
JP2000227371A (ja) * 1999-02-05 2000-08-15 Masahiko Matsubara 面圧力分布検出装置
JP2000254884A (ja) * 1999-03-10 2000-09-19 Keiogijuku ハンド又はマニピュレータによる物体把持制御方法
WO2002018893A1 (fr) * 2000-08-31 2002-03-07 Center For Advanced Science And Technology Incubation, Ltd. Détecteur tactile optique
JP2005114715A (ja) * 2003-09-16 2005-04-28 Toudai Tlo Ltd 光学式触覚センサを用いた力ベクトル再構成法
JP2007518966A (ja) * 2003-09-16 2007-07-12 株式会社東京大学Tlo 光学式触覚センサ及び該センサを用いた力ベクトル分布再構成法

Cited By (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090132088A1 (en) * 2007-04-24 2009-05-21 Tairob Ltd. Transfer of knowledge from a human skilled worker to an expert machine - the learning process
US20100127975A1 (en) * 2007-05-30 2010-05-27 Jens Martin Jensen Touch-sensitive pointing device with guiding lines
US8610677B2 (en) * 2007-05-30 2013-12-17 Jens Martin Jensen Touch-sensitive pointing device with guiding lines
GB2470537B (en) * 2008-03-17 2012-12-12 Univ Tokyo Agriculture Contact area measuring apparatus and contact area measuring method
WO2009116359A1 (ja) * 2008-03-17 2009-09-24 国立大学法人東京農工大学 接触面積測定装置および接触面積測定方法
JP2009222567A (ja) * 2008-03-17 2009-10-01 Tokyo Univ Of Agriculture & Technology 接触面積測定装置および接触面積測定方法
GB2470537A (en) * 2008-03-17 2010-11-24 Univ Tokyo Agriculture Contact area measurement device and method for measuring contact area
US8379978B2 (en) 2008-03-17 2013-02-19 Tokyo University Of Agriculture And Technology Contact area measurement device and method for measuring contact area
JP2010038614A (ja) * 2008-08-01 2010-02-18 Tokyo Univ Of Agriculture & Technology 接触面積測定装置および接触面積測定方法
US9052710B1 (en) * 2009-03-20 2015-06-09 Exelis Inc. Manipulation control based upon mimic of human gestures
JP2010221358A (ja) * 2009-03-24 2010-10-07 Toyota Industries Corp ロボットハンド用撮像装置内蔵フィンガ
JP2010221357A (ja) * 2009-03-24 2010-10-07 Toyota Industries Corp ロボットハンド用フィンガ
JP2012042220A (ja) * 2010-08-12 2012-03-01 Nagoya Univ 形状計測装置、及び形状計測方法
JP2012236237A (ja) * 2011-05-10 2012-12-06 Seiko Epson Corp ロボットハンド、およびロボット
US8897918B2 (en) 2011-05-10 2014-11-25 Seiko Epson Corporation Robot hand and robot
JP2015515621A (ja) * 2012-07-11 2015-05-28 ウトゥク・ビュユクシャヒンUtku BUYUKSAHIN ロボットおよびデバイス用のマルチポイント高感度触覚センシングモジュール
JP2015021747A (ja) * 2013-07-16 2015-02-02 国立大学法人広島大学 印加力推定方法、印加力推定プログラム、およびコンピュータ入力デバイス
KR101684237B1 (ko) 2014-10-28 2016-12-20 한국기계연구원 생체내 이물질 측정 장치
KR20160049637A (ko) * 2014-10-28 2016-05-10 한국기계연구원 생체내 이물질 측정 장치
CN104589358A (zh) * 2014-12-03 2015-05-06 安徽省库仑动力自动化科技有限公司 一种基于力传感与数据库对比的工业机器人拆解倾倒方法
CN104932382A (zh) * 2015-06-24 2015-09-23 哈尔滨工业大学 微创环境下用于触摸诊断的三维微型力传感器
JP2018088254A (ja) * 2016-03-29 2018-06-07 株式会社齋藤創造研究所 入力装置および画像表示システム
JP2018004585A (ja) * 2016-07-08 2018-01-11 国立大学法人広島大学 触覚評価方法および触覚評価システム
JPWO2018235214A1 (ja) * 2017-06-21 2019-07-04 株式会社齋藤創造研究所 マニピュレーターおよびロボット
WO2018235214A1 (ja) * 2017-06-21 2018-12-27 株式会社齋藤創造研究所 マニピュレーターおよびロボット
CN110799313A (zh) * 2017-06-21 2020-02-14 斋藤创造研究所株式会社 机械手和机器人
KR20200042505A (ko) 2017-08-14 2020-04-23 뉴사우스 이노베이션즈 피티와이 리미티드 그립 안정성을 측정하기 위한 마찰-기반 촉각 센서
CN111093914B (zh) * 2017-08-14 2023-01-03 肯塔泰尔私人有限公司 用于测量夹持安全性的基于摩擦力的触觉传感器
US11945098B2 (en) * 2017-08-14 2024-04-02 Contactile Pty Ltd Friction-based tactile sensor for measuring grip security
JP7408870B2 (ja) 2017-08-14 2024-01-05 コンタクタイル ピーティーワイ リミテッド グリップ・セキュリティを測定する摩擦ベースの触覚センサ
KR20230112743A (ko) 2017-08-14 2023-07-27 콘택타일 피티와이 리미티드 그립 안정성을 측정하기 위한 마찰-기반 촉각 센서
CN111093914A (zh) * 2017-08-14 2020-05-01 新南创新私人有限公司 用于测量夹持安全性的基于摩擦力的触觉传感器
US20200191704A1 (en) * 2017-08-14 2020-06-18 Newsouth Innovations Pty Limited Friction-based tactile sensor for measuring grip security
JP2020531809A (ja) * 2017-08-14 2020-11-05 ニューサウス・イノベーションズ・ピーティーワイ・リミテッド グリップ・セキュリティを測定する摩擦ベースの触覚センサ
KR102558531B1 (ko) * 2017-08-14 2023-07-20 콘택타일 피티와이 리미티드 그립 안정성을 측정하기 위한 마찰-기반 촉각 센서
JP7267994B2 (ja) 2017-08-14 2023-05-02 コンタクタイル ピーティーワイ リミテッド グリップ・セキュリティを測定する摩擦ベースの触覚センサ
CN109460159A (zh) * 2017-08-20 2019-03-12 原相科技股份有限公司 摇杆与其相关控制方法
CN109460159B (zh) * 2017-08-20 2023-01-13 原相科技股份有限公司 摇杆与其相关控制方法
US11465296B2 (en) 2017-09-26 2022-10-11 Toyota Research Institute, Inc. Deformable sensors and methods for detecting pose and force against an object
JP7260697B2 (ja) 2017-09-26 2023-04-18 トヨタ リサーチ インスティテュート,インコーポレイティド 物体に接触して姿勢及び力を検出するための変形可能なセンサ及び方法
JP2019059016A (ja) * 2017-09-26 2019-04-18 トヨタ リサーチ インスティテュート,インコーポレイティド ロボットグリッパー指
JP7068122B2 (ja) 2017-09-26 2022-05-16 トヨタ リサーチ インスティテュート,インコーポレイティド 物体に接触して姿勢及び力を検出するための変形可能なセンサ及び方法
JP2022106875A (ja) * 2017-09-26 2022-07-20 トヨタ リサーチ インスティテュート,インコーポレイティド 物体に接触して姿勢及び力を検出するための変形可能なセンサ及び方法
JP2019060871A (ja) * 2017-09-26 2019-04-18 トヨタ リサーチ インスティテュート,インコーポレイティド 物体に接触して姿勢及び力を検出するための変形可能なセンサ及び方法
US11628576B2 (en) 2017-09-26 2023-04-18 Toyota Research Institute, Inc. Deformable sensors and methods for detecting pose and force against an object
JP2019059015A (ja) * 2017-09-26 2019-04-18 トヨタ リサーチ インスティテュート,インコーポレイティド 変化する接触感度を有する接触及び形状センサに対応したロボット、及び、ロボットを提供するための方法
JP7179556B2 (ja) 2017-09-26 2022-11-29 トヨタ リサーチ インスティテュート,インコーポレイティド ロボットグリッパー指
JP7210204B2 (ja) 2017-09-26 2023-01-23 トヨタ リサーチ インスティテュート,インコーポレイティド 変化する接触感度を有する接触及び形状センサに対応したロボット、及び、ロボットを提供するための方法
JPWO2020246263A1 (ja) * 2019-06-05 2020-12-10
WO2020246263A1 (ja) * 2019-06-05 2020-12-10 ソニー株式会社 制御装置および方法、並びに、プログラム
JP7396357B2 (ja) 2019-06-05 2023-12-12 ソニーグループ株式会社 制御装置および方法、並びに、プログラム
US11836823B2 (en) 2019-07-04 2023-12-05 Fingervision Co., Ltd. Tactile sensor, tactile sensor system, and program
WO2021001992A1 (ja) * 2019-07-04 2021-01-07 国立大学法人東北大学 触覚センサ、触覚センサシステム及びプログラム
JP2021102267A (ja) * 2019-07-18 2021-07-15 株式会社齋藤創造研究所 マニピュレーターおよびロボット
JP7138294B2 (ja) 2019-07-18 2022-09-16 株式会社齋藤創造研究所 マニピュレーターおよびロボット
JP2019171569A (ja) * 2019-07-18 2019-10-10 株式会社齋藤創造研究所 マニピュレーターおよびロボット
WO2021124388A1 (ja) * 2019-12-16 2021-06-24 国立大学法人東北大学 把持装置、制御方法及びプログラム
JP7385303B2 (ja) 2019-12-16 2023-11-22 株式会社FingerVision 把持装置、制御方法及びプログラム
JPWO2021124388A1 (ja) * 2019-12-16 2021-06-24
GB2604195A (en) * 2020-08-11 2022-08-31 Ocado Innovation Ltd Object presence sensing
WO2023127302A1 (ja) * 2021-12-28 2023-07-06 ソニーグループ株式会社 センサ装置、およびロボット
KR20230109407A (ko) * 2022-01-13 2023-07-20 경북대학교 산학협력단 랜덤 패턴과 멀티 터치가 가능한 비전 기반 촉각 센서
KR102669803B1 (ko) 2022-01-13 2024-05-27 경북대학교 산학협력단 랜덤 패턴과 멀티 터치가 가능한 비전 기반 촉각 센서

Also Published As

Publication number Publication date
JP4621827B2 (ja) 2011-01-26
US20080027582A1 (en) 2008-01-31
US7707001B2 (en) 2010-04-27
WO2005085785A1 (ja) 2005-09-15

Similar Documents

Publication Publication Date Title
JP4621827B2 (ja) 光学式触覚センサ、光学式触覚センサを利用したセンシング方法、センシングシステム、物体操作力制御方法、物体操作力制御装置、物体把持力制御装置及びロボットハンド
Kappassov et al. Tactile sensing in dexterous robot hands
Lin et al. Sensing the frictional state of a robotic skin via subtractive color mixing
Dahiya et al. Tactile sensing—from humans to humanoids
Mukai et al. Development of the tactile sensor system of a human-interactive robot “RI-MAN”
Sato et al. Finger-shaped gelforce: sensor for measuring surface traction fields for robotic hand
Yamaguchi et al. Tactile behaviors with the vision-based tactile sensor FingerVision
JP5187856B2 (ja) 触覚センサ
Harmon Tactile sensing for robots
CN109176590B (zh) 一种具有压滑觉感知的柔性指尖、装置及方法
Kappassov et al. Color-coded fiber-optic tactile sensor for an elastomeric robot skin
Baimukashev et al. Shear, torsion and pressure tactile sensor via plastic optofiber guided imaging
Park et al. A sensorized hybrid gripper to evaluate a grasping quality based on a largest minimum wrench
CN106625729A (zh) 带温度和触觉力感知功能的仿人型机械手指
Saen et al. Action-intention-based grasp control with fine finger-force adjustment using combined optical-mechanical tactile sensor
JP2009285737A (ja) 入力インタフェース
Deng et al. Design of a soft gripper with improved microfluidic tactile sensors for classification of deformable objects
JP2010149262A (ja) 把持部を有するロボットハンドシステム
Andrussow et al. Minsight: A Fingertip‐Sized Vision‐Based Tactile Sensor for Robotic Manipulation
Zhang et al. Vision-based sensing for electrically-driven soft actuators
Yamaguchi FingerVision with whiskers: Light touch detection with vision-based tactile sensors
Zheng et al. DotView: A low-cost compact tactile sensor for pressure, shear, and torsion estimation
Kim et al. Design of a bioinspired robotic hand: Magnetic synapse sensor integration for a robust remote tactile sensing
US20210072762A1 (en) Motion detecting device
CN115053510A (zh) 基于手套的人机接口

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100820

R150 Certificate of patent or registration of utility model

Ref document number: 4621827

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131112

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term