JP2009145085A - 3次元触覚センサ及び3次元触覚センシング方法 - Google Patents

3次元触覚センサ及び3次元触覚センシング方法 Download PDF

Info

Publication number
JP2009145085A
JP2009145085A JP2007320133A JP2007320133A JP2009145085A JP 2009145085 A JP2009145085 A JP 2009145085A JP 2007320133 A JP2007320133 A JP 2007320133A JP 2007320133 A JP2007320133 A JP 2007320133A JP 2009145085 A JP2009145085 A JP 2009145085A
Authority
JP
Japan
Prior art keywords
elastic film
dimensional tactile
force
light
back surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007320133A
Other languages
English (en)
Other versions
JP5261786B2 (ja
Inventor
Sei Hoshino
聖 星野
Daisuke Mori
大祐 森
Motomasa Tomita
元将 冨田
Emi Tamaki
絵美 玉城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tsukuba NUC
Original Assignee
University of Tsukuba NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tsukuba NUC filed Critical University of Tsukuba NUC
Priority to JP2007320133A priority Critical patent/JP5261786B2/ja
Publication of JP2009145085A publication Critical patent/JP2009145085A/ja
Application granted granted Critical
Publication of JP5261786B2 publication Critical patent/JP5261786B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Force Measurement Appropriate To Specific Purposes (AREA)

Abstract

【課題】比較的簡単な構成で、接触面を触れた力の大きさと方向を精度良く3次元的に検出できるようにする。
【解決手段】弾性変形可能で、表面側から押されることで裏面側に窪むことが可能に保持された弾性体膜12と、弾性体膜12の裏面に所定の間隔を開けて配置され、弾性体膜12の裏面と平行に光を照射する光源21,22と、弾性体膜12の裏面を撮影するカメラ部と、カメラ部で撮影された画像から、弾性体膜の裏面に光源21,22からの光が届く範囲B2,B3を検出し、その検出した範囲B2,B3に基づいて弾性体膜の変形状態を判別し、この判別結果に基いて弾性体膜12が押された力と押された方向を算出する算出処理部とを備えた。
【選択図】図5

Description

本発明は、例えば手指や何らかの物体で触れられた際の、その触れられた力の大きさや力が働く方向などを検出する3次元触覚センサ、及びそのセンサに適用される3次元触覚センシング方法に関する。
従来、接触面に触れられた力の大きさと、その力が作用する方向を3次元的に正確に検出するためには、非常に構成が複雑で頑強な触覚センサが必要であった。柔らかいセンサとして弾性体を使ったものがあり、これを使った従来の3次元触覚センサとしては、例えば特許文献1及び2に記載のものが知られている。この2つの文献に記載された技術は、いずれも光学的に検出する3次元触覚センサである。
特許文献1に記載のものは、ある程度の厚みを有する透明弾性体内に、複数の色の色マーカーを、色ごとに空間的に層を形成させた状態で配置させる。そして、透明弾性体内の色マーカーの各層の状態を、カメラで撮影する構成としたものである。透明弾性体の表面に力が加わった場合には、カメラで撮影される画像から色マーカーの各層の配列状態の変化を判定して、そのときに加わった力についての判定を行うものである。
特許文献2に記載のものは、弾性体の表面(裏面)に格子状又はハニカム状に模様を描き、弾性体に力が加わった際の弾性体表面の模様の変化をカメラで撮影して、その模様の変化から弾性体表面の変形量を判定して、そのときに加わった力についての判定を行うものである。
WO02−18893号公報 特開2005−257343号公報
特許文献1に記載の手法は、透明弾性体の内部に複数の層で色マーカーを配置するために、透明弾性体そのものを、ある程度厚くする必要がある。弾性体の厚さが厚いということは、弾性体の表面に加わる圧力に比べて、弾性体の内部の形状変化に乏しく、取得できる情報のダイナミックレンジや分解能が少なくなってしまう。それゆえ、現実的には接触面に対して垂直方向の力の大きさや位置は求めることができても、力の入射角度を求めることができなかった。
また特許文献2に記載の手法は、弾性体表面に格子状あるいはハニカム状の模様を描く必要がある。接触面に加わる圧力を正確に検出するために弾性体を薄くし且つ弾性変形が自由に出来る素材を使用する必要があるが、薄く自在に弾性変形可能な弾性体の表面に模様を描くことは非常に難しいという問題があった。即ち、塗料などを使用して弾性体の表面に模様を描いたとしても、センサとして使用されて、弾性体が伸び縮みを繰り返すことで、その模様の塗料が比較的簡単に剥がれてしまう可能性が高く、また模様が不鮮明になったりひびが入ったりして、撮像後の画像処理が高精度に行えなくなる可能性が高いという問題があった。
本発明は、これらの点に鑑みて、比較的簡単な構成で、精度良く3次元的に接触面を触れた力を検出できるようにすることを目的とする。
本発明の3次元触覚センサは、表面側から押された場合に、押された力と押された方向を検出する3次元触覚センサに適用される。
本発明の3次元触覚センサの構成としては、
弾性変形可能で、表面側から押されることで裏面側に窪むことが可能に保持された弾性体膜と、
弾性体膜の裏面に所定の間隔を開けて配置され、弾性体膜の裏面と平行に光を照射する光源と、
弾性体膜の裏面を撮影するカメラ部と、
カメラ部で撮影された画像から、弾性体膜の裏面に前記光源からの光が届く範囲を検出し、その検出した範囲に基づいて弾性体膜の変形状態を判別し、この判別結果に基いて弾性体膜が押された力と押された方向を算出する算出処理部とを備えたことを特徴とする。
また本発明の3次元触覚センシング方法は、表面側から押された場合に、押された力と押された方向を検出する3次元触覚センシング方法に適用される。
本発明の3次元触覚センシング方法の処理としては、
弾性変形可能で、表面側から押されることで裏面側に窪むことが可能に保持された弾性体膜の裏面に所定の間隔を開けて、弾性体膜の裏面と平行に光を照射し、
弾性体膜の裏面を撮影し、
撮影された画像から、弾性体膜の裏面に前記光が届く範囲を検出し、その検出した範囲に基づいて弾性体膜の変形状態を判別し、この判別結果に基いて弾性体膜が押された力と押された方向を算出することを特徴とする。
本発明によると、弾性変形可能な弾性体膜が表面側から押された場合、その押されて弾性体膜が裏面側に窪むことで、その窪んだ形状に対応して弾性体膜の裏面に部分的に光源からの光で照明されるようになり、その照明される箇所の形状や座標情報から押された力と押された方向を正しく判定することが可能となる。
従って、弾性体膜とその弾性体膜の裏面を照明させる光源とによる簡単な構成で、広いダイナミックレンジと高分解能とを生み出すことができる3次元触覚センサが構成できる効果を有する。
以下、本発明の一実施の形態の例を、添付図面を参照して説明する。
本実施の形態においては、薄膜の弾性体膜を配置して、その弾性体膜を触れた場合に、その弾性体膜を触れた力についての検出を行う3次元触覚センサとして構成したものである。
図1は、本実施の形態の3次元触覚センサの全体構成例を示した図である。
3次元触覚センサ10は、合成樹脂などで形成された円筒形の筐体11内に構成させてある。筐体11の上面には、弾性体膜12が配置してある。弾性体膜12は、筐体11の上面に取付けられた保持枠13で縁部を保持させる構成としてあり、保持枠13の孔13a内で弾性体膜12の表面が露出している。なお、以下の説明で弾性体膜の表面と述べた場合には、弾性体膜の外側に露出した面を示し、裏面と述べた場合には、筐体11の内側を向いた弾性体膜の面を示す。
弾性体膜12は、表面側から押すことで、弾性体膜そのものが弾性変形して、筐体11内に窪むことができるような材質の薄膜の樹脂シートを使用してある。例えば、超軟質ウレタン樹脂による薄膜(例えば厚さ5mm)の樹脂シートを使用する。本実施の形態の装置を製作した際には、エクシールコーポレーション社製の硬度0の超軟質ウレタン樹脂を使用した。この超軟質ウレタン樹脂は、乳児の肌や腹部の皮膚程度の硬さであり、微小な力に対しても大きな変形を示す。弾性体膜12は、光を通さない樹脂であることが好ましい。
なお、弾性体膜12として、厚さ0.1mm以下の手術用ゴム手袋やゴム風船などに使用されているものと同様のラテックスや樹脂シートを使用してもよい。
弾性体膜12は、例えば図1に示すように、操作棒1の先端部1aで押して変形させたり、或いは手指2の先端部2aで押して変形させるものである。
このような弾性体膜12が上面に保持された筐体11内に、弾性体膜12の裏面の弾性変形を検出する機構を構成させてある。弾性変形を検出するための具体的な機構については、図2以降の説明で後述する。
そして、筐体11の底面部にカメラ部30が配置してあり、そのカメラ部30で弾性体膜12の裏面を撮影する。撮影された画像は、演算処理装置40に供給して、演算処理装置40での画像解析から、弾性体膜12に表面から加わる力の大きさと、力の3次元的な方向を判定する。弾性体膜12の表面に、外部から力が加わっている位置についても、検出することができる。
演算処理装置40で判定された接触位置、力の大きさ、力の向きについては、例えば表示装置50の画面中に、数値として表示させ、或いは、図形で表示させる。或いは、演算処理装置40で判定された接触位置、力の大きさ、力の向きの各情報を出力させて、その情報を受け取った機器の操作などを行うようにしてもよい。
なお、以下の説明では、図1に示すように弾性体膜12の面方向(水平方向)に沿った直交する2つの方向をx方向とy方向とし、このx方向及びy方向と直交する垂直方向をz方向とする。
次に、図2及び図3を参照して、3次元触覚センサ10の筐体11内の構成例について説明する。
図2は、筐体11内を縦断面で示した図で、図3は分解斜視図である。保持枠13の裏面側で、弾性体膜12の縁部12aを保持してあり、保持枠13の下部には、円形で所定の厚さのスペーサ14を配置する。スペーサ14の下側には、第1光源21を複数個ほぼ均等に配置する。さらに、第1光源21が配置された箇所の下側には、円形で所定の厚さのスペーサ15を配置する。各スペーサ14,15には、図3に示すように、保持枠13の孔13aと同様のサイズの孔14a,15aを設けてある。スペーサ15の下側には、第2光源22を複数個ほぼ均等に配置する。
スペーサ14及び15を配置したことで、弾性体膜12の裏面から第1光源21の配置位置までの距離L1と、第1光源21の配置位置から第2光源22の配置位置までの距離L2を、規定された長さとなるようにしてある。本実施の形態の例の場合には、例えば距離L1を3mmとし、距離L2を5mmとしてある。それぞれの距離L1,L2は、例えば、弾性体膜12を測定したい最大の力で押した場合の弾性体膜12の上下方向の変位量に基づいて設定する。即ち、弾性体膜12を測定したい最大の力で押した場合の変位量をL0とすると、その最大の力で押した場合の変位量L0の1/3程度の深さから、最小の力が加えられた時に弾性体の一部が凹む深さとの間に、距離L1を設定した。また、距離L1+L2は、測定が必要な最大の変位量L0の2/3程度となるようにした。
第1光源21と第2光源22は、それぞれ例えば発光ダイオードを使用するが、発光色を第1光源21と第2光源22とで構成させてある。例えば第1光源21を青色の発光ダイオードとし、第2光源22の赤色の発光ダイオードとする。2つの色は、カメラ部30で撮影して明確に区別できる色であれば、どの2種類の色を採用してもよい。また、同様の照明状態が得られる光源であれば、発光ダイオード以外の光源を使用してもよい。
そして、第1光源21及び第2光源22の光は、弾性体膜12の裏面と平行で、かつ弾性体膜12の中心に向かって照射するようにしてある。図2に示すように、スペーサ14及び15の周辺部寄りに各光源21,22を配置してあり、各光源21,22の光が出力される先端部から各スペーサ14,15の孔14a,15aの縁までの距離は、例えば40mm程度とする。
第1光源21は2つのスペーサ14,15で挟まれ状態となり、第1光源21からの光が、弾性体膜12の面とほぼ平行に光が進む構成としてある。
第2光源22からの光についても、スペーサ15の作用で、弾性体膜12の裏面と平行に光が向かうように配置してある。但し、第2光源22の下面側にはスペーサが配置していないので、スペーサ15よりも下側では、第2光源22からの光が広がって照射される構成としてある。
図3の例では、第1光源21と第2光源22をそれぞれ4個ずつ配置した例としてあるが、より多い個数配置してもよい。ある程度の個数を配置して、どの方向からも中心に向かって光がほぼ均等に照射されるようにするのが好ましい。また、それぞれの光源21,22は、3次元触覚センサ10が作動中には常時点灯している必要がある。
なお、筐体11内のスペーサ14,15などの各部は、黒色での塗装、或いは黒色の布地の貼り付けなどで、各光源21,22からの光の反射を抑える構成とするのが好ましい。また、筐体11内は外部から光が入らない構造とするのが好ましい。
そして図2に示すように、これらの光源21,22が配置された位置とは若干距離を離して、筐体11の底面上の中心に、カメラ部30を配置する。カメラ部30のレンズ部31は、スペーサ14,15の孔14a,15aを介して下側から見える弾性体膜12全体を撮影するように配置する。従って、カメラ部30と弾性体膜12との距離は、カメラ部30に装着されたレンズ部31の焦点距離などに依存する。3次元触覚センサ10を小型化するためには、出来るだけ焦点距離の短い広角のレンズを備えて、弾性体膜12からカメラ部30までの距離を短くすることが好ましい。カメラ部30での撮影は、一定のフレームレートで周期的に行う。例えば毎秒30フレームなどで撮影を行う。検出精度を上げるために、より高速のフレームレートで撮影できるカメラ部を使用してもよい。
次に、このように配置した光源21,22で弾性体膜12の裏面側が照明される状態の例を、図4及び図5を参照して説明する。
まず、弾性体膜12に外部から力が加わってなく、弾性体膜12が全く弾性変形していない状態を想定すると、この場合には、各光源21,22からの光は弾性体膜12の面に沿って進むため、弾性体膜12の裏面は全く照明されない。従って、カメラ部30で撮影される画像は、弾性体膜12の裏面全体が暗い画像である。
そして、弾性体膜12が表面側から押されて変形した状態での照明状態を示したのが図4,図5である。
図4(a)の例は、操作棒1の先端部1aで押し始めた初期状態での照明状態を示したものである。この状態では、操作棒1の先端部1aで押されて凹んだ弾性体膜12に、第1光源21からの光が届くようになった状態である。
この状態で、弾性体膜12の裏面を下側から見た状態が、図4(b)である。図4(b)に示したように、押されて第1光源21からの光が届いているほぼ円形の範囲A2だけが、第1光源21からの青色光で照明され、その他の範囲A1は照明されない暗い部分(黒部分)となっている。
この図4に示す状態から、さらに操作棒1の先端部1aで強く弾性体膜12を押すと、図5に示す状態となる。
図5(a)の例は、第2光源22からの光が届く位置まで弾性体膜12が押された状態を示したものである。
この状態で、弾性体膜12の裏面を下側から見た状態が、図5(b)である。図5(b)に示したように、周囲の範囲B1は暗い部分(黒部分)となっている。
そして、第1光源21からの青色光が届く範囲B2が、青色のリング状に照明され、その範囲B2内の第2光源22からの赤色光が届く範囲B3が、赤色のリング状に照明される。
さらに、その範囲B3内の第2光源22からの光が届かない範囲B4が、暗い部分(黒部分)となっている。この中央の光が届かない範囲B4は、操作棒1の先端部1aがある程度の面積で平面に近い状態になっている場合に、その先端部1aの形状に対応して生じる。
このように照明された弾性体膜12の裏面をカメラ部30で撮影して、各色の領域を検出することで、各領域の境界部の位置情報が得られる。即ち、弾性体膜12がわずかに変形する程度以上の力で押すことで、例えば図6に示すように、4つに区分される円もしくは楕円の領域B1,B2,B3,B4が得られる。それぞれ外側から、光が当たらない領域,青色領域,赤色領域,物体と弾性体との接触領域である。
図1に示した演算処理装置40では、このカメラ部30で撮影して得た画像中の各領域の位置を検出し、その検出した位置から、弾性体膜12に加わる力を算出する。この検出を行うためには、図5に示したように4つに区分される円又は楕円の領域が必要であるが、その前段階として、図4に示したように第1の光源からの光で照明された領域A2とその周囲の領域A1だけが検出された状態を検出した場合には、その図4の状態の領域A2の位置も、演算処理装置40内に記憶しておく。この記憶した位置の情報は、最初に弾性体膜12を触れた位置を判別するために使用する。
次に、演算処理装置40で撮影して得た画像から、弾性体膜12に加わる力を算出する処理について説明する。
本実施の形態では、カメラ部30又は演算処理装置40内では、撮影で得られた原画像に対してノイズ除去を行い、一定の閾値を使用して、青色部分と赤色部分のそれぞれを二値化する。
そして、画像から上述した4つの円又は楕円の領域B1,B2,B3,B4を検出すると、その楕円のほぼ中心を通過する長軸と、それと直交する短軸を設定し、その2つの軸上に、各領域の境界の座標位置を設定する。図6に示した2つの軸が長軸と短軸である。図6では横方向の軸を長軸(x軸)としてあり、縦方向の軸を短軸(y軸)としてある。
長軸の算出は、例えば青色もしくは赤色楕円のいくつかの座標点から単回帰直線を求め、その直線を長軸とすることができる。一方、短軸は、手指又は物体で弾性体膜12を押している部分の重心を通り、長軸と直交する直線として求めることができる。
長軸と短軸が求まると、それぞれの軸上に、各領域B1,B2,B3,B4の境界位置を設定する。最外周の領域B1の縁部の位置は、弾性体膜12の形状から決まっている。
図6に示したx軸上の各点x1,x2,x3,・・・,x7と、y軸上の各点y1,y2,y3,・・・,y7は、それぞれの領域B1,B2,B3,B4の境界位置に設定したものである。
このように境界位置が設定されると、それぞれの境界位置から、弾性体膜12の立体的な変形状態を推測することができる。即ち、棒1で押されて変形した弾性体膜12を、x軸とz軸を通過するx−z平面で切断して示すと、図7に示す状態となる。図7は、弾性体膜12上に、各点x1〜x8の位置を示してある。各点x1〜x8のz軸方向の位置は、光源21,22が配置された高さ(図2のL1,L2)に基づいて決まる予め決まった値であり、カメラ部30で撮影された画像から、図7に示した3次元形状の判定が可能である。図示はしないが、y軸方向でも、同様にy1〜y8の8点の高さ位置が定まる。
このようにして設定された各点は、x軸に沿って中心から4点両方向に存在し、y軸に沿って中心から4点両方向に存在し、合計で16点の位置情報(高さ情報)が得られる。この16点の位置関係(高さ関係)が、弾性体膜12を押している物体の「接触位置」の情報と、「力の大きさ」の情報と、「力の入射角度」の情報を内包する。
弾性体膜12の変形は、3次式にて近似できる。即ち、例えば弾性体をゴムと見なした場合、温度一定で、ゴムの変形状態下では、歪γが大きくなればなるほどヤング率E(γ)が2乗で増大していく。つまり、E(γ)∝γ2が成り立つ(ここで、歪γ=応力σ/ヤング率Eである。ゴムのヤング率は、1.5〜5.0[MPa]である)。
γ=σ/Eの式のEに、E(γ)∝γ2を代入すれば、σ=Eγ∝γ3となるため、力(応力σ)を掛ければ掛けるほどゴムは元の形の側に3乗で凹んでいくことになる。そのため、曲線上の2点以上の位置関係が分かれば、弾性体膜12の変形状態が一意に決まる。
このようにして弾性体膜12の3次元形状が求まると、形状の情報から力に関する情報に変換する。
次に、演算処理装置40内で画像情報から力情報を取得するまでの処理例を、図8のフローチャートを参照して説明する。
まず、カメラ部30を初期化する(ステップS11)。また、本実施の形態の3次元触覚センサとは別に、既存の6軸力隔センサを用意して初期化し、その6軸力隔センサで弾性体膜12を表面から押すようして、そのセンサが出力する値を参照する。この6軸力隔センサは、基準となる出力値を得るために使用し、演算処理装置40内に必要なデータが記憶されれば、以後は必要としない。
そして、カメラ部30で撮影された原画像を取得し(ステップS12)、画像中の青色領域と赤色領域をそれぞれ2値化する(ステップS13)。次に作用面を検出する(ステップS14)。この作用面は、図5,図6に示した領域B4に相当し、手指又は物体で弾性体膜12を押している部分に相当する。作用面の領域が判別されると、その作用面の重心を算出する(ステップS15)。その算出された位置を、力が加わっている点(ここではこの点を作用点と称する)とする。
次に、その作用点を通過する楕円の長軸xを求め(ステップS16)、さらにその長軸xと直交し作用点を通過する短軸yを求める(ステップS17)。長軸の求め方は、例えば青色もしくは赤色楕円のいくつかの座標点から単回帰直線を求め、その直線を長軸とすることができる。いま、長軸をy=ax+bとすると、傾きaとy切片は、それぞれ次式のように求められる。
Figure 2009145085
一方、単軸はy=−x/a+cとして求められる。傾きaは長軸のそれと同じで、y切片cは、作用点を(x1,y1)とすればc=y1+x1/aである。
長軸xと短軸yが求まると、図6に示すように、それぞれの軸と各色領域の境界部との交点を検出する(ステップS18)。それぞれの交点が求まると、作用点から各交点までの距離を算出する(ステップS19)。そして、求まった作用点から交点までの距離と、同じ条件で6軸力隔センサから得られた力を出力すると共に、記憶する(ステップS20)。なお、実際にセンサとして作動させる際には、6軸力隔センサは使用せず、記憶させた情報を出力させる。
その後、終了処理が行われたか否か判断し(ステップS21)、終了処理が行われていない場合には、ステップS12に戻って次のフレームの画像処理が実行される。ステップS21で終了処理が行われたと判断すると、ここでの処理を終了する。
次に、交点位置情報から力情報への変換処理について説明する。
上述したように求められた交点位置が、弾性体膜12に加えられる力の大きさ,方向,位置に対応していると考えれば、交点位置を入力情報、他の既存の触覚センサ出力を教師信号とするニューラルネット学習を行うことにより、本実施の形態の3次元触覚センサ10は、教師信号に使った触覚センサと同じ値を出力するようになる。
教師信号には学習後に出力させたい情報がデータ内に含まれている必要がある。そこで、図8のフローチャートで説明したように、6軸力隔センサを接触物体として、弾性体膜12との接触位置を少しずつ変えながら、さまざまな方向にさまざまな大きさの力を加える処理を行う。力隔センサからのxyz出力、力を加えた位置、そしてカメラ画像から算出された交点位置情報をセットとして学習用データを取得する処理を行う。取得した学習用データは、演算処理装置40内に記憶させておく。
本実施の形態で適用されるニューラルネットモデルとしては、例えば図9に示すような階層型誤差逆伝搬モデルを用いる。即ち、入力信号には作用点から各交点との距離、教師信号には6軸力隔センサからの出力(力の3軸xyzの成分)とし、画像すなわち交点位置から力への写像関係を学習によって求め、教師信号(Fxteach,Fyteach,Fzteach)で示される値と同じx軸方向の力Fxと、y軸方向の力Fyと、z軸方向の力Fzとを得る。
ニューラルネット学習に際して、学習回数は例えば2000回、7000回,20000回などの回数行う。本願発明者が実験した結果では、2000回の学習回数で十分な教師信号が得られた。また、ニューラルネット学習に際して必要な中間層の数についても、4個,6個,8個などが採用可能である。実験では中間層の数6個で好ましい結果が得られた。
図10は、本実施の形態による3次元触覚センサによるx軸方向の出力値と、6軸センサによる出力値とを比較したもので、時間の経過と共にセンサに与える力を逐次変化させた例としてある。図10で実線で示した力の値は、本実施の形態による3次元触覚センサの出力値であり、破線で示した力の値は、既存の6軸センサによる出力値である。
この図10から判るように、本実施の形態による3次元触覚センサの出力値は、従来から知られた高価で高精度な6軸センサとほぼ同じ出力値が得られ、高精度な3次元触覚センサであることが判る。
このようにして本実施の形態による3次元触覚センサで得られた力の値は、例えば図1に示した表示装置50に、値として表示させる他に、図形で力を表示させてもよい。即ち、例えば図11(a)〜(d)は、それぞれ図形による表示例を示したものである。
図11(a)〜(d)に示したように、底面101上に接触した円錐103を表示させ、その円錐103の接触点102を、検出した作用点の位置とし、円錐103の向きを検出した力が作用する方向(入射角度)とし、円錐103の大きさを検出した力の大きさに対応させて、表示させる。このようにして、コンピュータグラフィックを用いて描画すれば、圧力情報を直感的に示すことも可能になる。
本実施の形態による3次元触覚センサは、例えば携帯電話端末に内蔵されているような超小型のカメラを用いることで装置を小型化でき、例えばロボットハンドの指先にも装着することが可能となる。ロボットハンドの指先に装着することで、ロボットハンドの指先に加わる力の大きさや向きを知ることが可能となるため、ロボットハンドによる適切な物体把持が可能となる。
また、コンピュータ装置やゲーム機器などが必要とする情報入力用ポインティングデバイスにも適用可能である。従来のタッチパッドやジョイスティック等の情報入力用ポインティングデバイスでは、パッドに触れている位置か、あるいはスティックの傾きのみが検出可能であった。これに対して本実施の形態による3次元触覚センサの場合には、例えば図12に示すように、操作棒1で弾性体膜12を押して操作するようにしたことで、押す際の位置,方向,大きさが3次元触覚センサ10で検出可能となり、より多くの情報が利用可能な情報入力用ポインティングデバイスが実現できるようになる。
図12の例では、操作棒を用意した例であるが、手指で直接弾性体膜12を押して、その押す位置、方向、力の強さで操作するようにしてもよい。
なお、図9のニューラルネット学習を利用して、位置情報から力情報に写像(変換)する例は、画像情報から力情報を得る一例であり、その他の方法を適用してもよい。
例えば、対応表による交点位置から力情報への写像を行うようにしても良い。即ち、弾性体膜12の任意の位置を、任意の力で、任意の方向に押した場合の交点位置情報を事前に求めておく。そして、両者の関係(即ち弾性体膜12の変形位置と押された力及び押された方向との関係)を多数、対応表として処理装置内に記憶させておけば、カメラ部30で撮影された画像から交点位置情報が得られた際に、弾性体膜12を押している物体の「接触位置」「力の大きさ」「入射角度」を出力することが可能となる。
さらに別の画像情報から力情報を得る処理として、重回帰分析による交点位置から力情報への写像を行うようにしてもよい。この場合、目的変数は弾性体を押している物体の「接触位置」「力の大きさ」「入射角度」であり、説明変数は交点位置情報となる。
なお、図1から図3に示した構成例では、弾性体膜12は平面状に形成させたが、例えば図13に示すように、スペーサ14の上に配置する弾性体膜として、断面形状が外側に凸状に突出した形状に成形された凸状弾性体膜12′としてもよい。この図13の場合でも、外側から押された場合には、第1光源21及び第2光源22で照明される位置まで窪む必要がある。図13の凸状弾性体膜12′以外の部分は、図1〜図3に示した触覚センサ10と同様に構成する。
図13の例の場合には、弾性体膜12′を押す際の押す長さが長くなってしまう。
この点を改善するためには、例えば図14に示した構成が適用可能である。
図14の例では、平面状に張った弾性体膜12の上に、さらに別の補助弾性体膜16を表面に載せる。補助弾性体膜16についても、縁部を保持枠13(図14では図示せず)に保持させる。弾性体膜12と補助弾性体膜16の間には、ある程度の大きさを有する何らかの物体、例えば球体17を配置する。球体17は、接着部17aで弾性体膜12側に接着させる。この場合、弾性体膜12が平面状になるようにし、補助弾性体膜16は、球体17の高さだけ外側に突出するようにする。球体17は、弾性体膜12と同等か、それ以上の固さの弾性体の球とする。補助弾性体膜16と球体17との間は接着しない。図14の弾性体膜12,16の部分以外は、図1〜図3に示した触覚センサ10と同様に構成する。
このように構成した場合に、弾性体膜12,16に圧力が加わった場合の例を図15及び図16に示す。
図15は、上方から弾性体膜12,16を押した場合の例である。図15(a)に示すように押されていない状態から、押されることで、球体17に押されて弾性体膜12が内側に窪み、図15(b)及び(c)に示すように、弾性体膜12の裏面が各光源21,22からの光で照明されるようになる。弾性体膜12よりも接触面の広い物体で押された場合は、図15(c)の状態と同じように、物体はスペーサ14にぶつかり、弾性体膜12はそれ以上、内側には窪まない。
図16は、同じ構成で斜め上方から弾性体膜12,16を押した場合の例である。図16(a)に示すように押されていない状態から、押されることで、球体17が押された方向に移動しながら、弾性体膜12が内側に窪み、図16(b)及び(c)に示すように、弾性体膜12の裏面が各光源21,22からの光で照明されるようになる。このように斜めに押した場合でも、弾性体膜12よりも接触面の広い物体で押された際には、図16(c)の状態と同じように、物体はスペーサ14にぶつかり、弾性体膜12はそれ以上、内側には窪まない。
この図14〜図16に示した構成としたことで、筐体11の表面から突出した弾性体膜を使用しても、正確に力の情報を検出することが可能となる。従って、図14の構成の3次元触覚センサを、例えばロボットハンド用の触覚センサとして使用して、ロボットハンドの先端に取付けることで、そのロボットハンドでつかむ動作を行う際に、突出した弾性体膜が該当する物体と触れて、接触圧力を正確に測定できるようになる。
また、ここまで説明した各例では、光源として第1光源21と第2光源22とを用意して、その2種類の光源で弾性体膜の裏面を照明させるようにしたが、1種類の光源だけを用意して、その照明された画像から力を検出させるようにしてもよい。光源を1種類とすることで構成がより簡単になる。但し、弾性体膜の変形状態を検出するための位置情報(図6に示した各交点の情報)の情報量が少なくなるため、弾性体膜の変形状態の検出精度がそれだけ劣化する。
また、図1に示した構成例では、演算処理装置40や表示装置50として、触覚センサ用の専用のものを用意する構成として説明したが、これらの装置の代りにパーソナルコンピュータ装置などの汎用の情報処理装置を用意して、その情報処理装置に図8のフローチャートなどの処理を実行するソフトウェアを実装させて、同様の力の情報の算出処理(変換処理)や、表示処理を行うようにしてもよい。
本発明の一実施の形態による全体構成例を示す構成図である。 本発明の一実施の形態によるセンサの断面図である。 本発明の一実施の形態によるセンサの分解斜視図である。 本発明の一実施の形態によるセンサでのシート裏面の照明状態(初期状態)を示す説明図である。 本発明の一実施の形態によるセンサでのシート裏面の照明状態(ある程度強く押された状態)を示す説明図である。 本発明の一実施の形態による各領域の検出状態の例を示す説明図である。 本発明の一実施の形態による弾性体膜の弾性変形時の状態を示す模式図である。 本発明の一実施の形態による画像処理例を示すフローチャートである。 本発明の一実施の形態によるニューラルネットワーク学習の例を示す説明図である。 本発明の一実施の形態の構成で得られたセンサ出力を従来の別のセンサと比較した特性図である。 本発明の一実施の形態による表示例を示す説明図である。 本発明の一実施の形態によるセンサの適用例を示す説明図である。 本発明の一実施の形態の変形例によるセンサ(シートを凸状にした例)を示す説明図である。 本発明の一実施の形態のさらに別の変形例によるセンサ(シート上に別の物体を配置した例)を示す断面図である。 図14例で垂直方向に力が加わった状態を示した説明図である。 図14例で斜め方向に力が加わった状態を示した説明図である。
符号の説明
1…操作棒、1a…先端部、2…手指、2a…先端部、11…筐体、12…弾性体膜、12′…凸状弾性体膜、12a…縁部、13…保持枠、13a…孔、14…スペーサ、14a…孔、15…スペーサ、15a…孔、16…補助弾性体膜、17…球体、17a…接着部、21…第1光源、22…第2光源、30…カメラ部、31…レンズ部、40…演算処理装置、50…表示装置、101…底面、102…接触点、103…円錐

Claims (17)

  1. 表面側から押された場合に、押された力と押された方向を検出する3次元触覚センサであって、
    弾性変形可能で、表面側から押されることで裏面側に窪むことが可能に保持された弾性体膜と、
    前記弾性体膜の裏面に所定の間隔を開けて配置され、前記弾性体膜の裏面と平行に光を照射する光源と、
    前記弾性体膜の裏面を撮影するカメラ部と、
    前記カメラ部で撮影された画像から、前記弾性体膜の裏面に前記光源からの光が届く範囲を検出し、その検出した範囲に基づいて前記弾性体膜の変形状態を判別し、この判別結果に基いて前記弾性体膜が押された力と押された方向を算出する算出処理部とを備えたことを特徴とする
    3次元触覚センサ。
  2. 請求項1記載の3次元触覚センサにおいて、
    前記算出処理部は、前記弾性体膜の裏面の前記光源からの光が届く範囲中の、輝度が最も暗くなる位置を、押された位置と判別することを特徴とする
    3次元触覚センサ。
  3. 請求項1又は2記載の3次元触覚センサにおいて、
    前記弾性体膜の表面と平行に光を照射する光源として、
    前記弾性体膜の裏面に近接して配置され第1の発光色の第1の光源と、
    前記第1の光源と所定の間隔を開けて配置され、前記第1の発光色とは異なる第2の発光色の第2の光源とを備え、
    前記算出処理部は、前記カメラ部で撮影する画像から、前記弾性体膜の裏面の、前記第1の発光色で照明された範囲と、前記第2の発光色で照明された範囲とを判別することを特徴とする3次元触覚センサ。
  4. 請求項3記載の3次元触覚センサにおいて、
    前記第1の光源は設けず、前記第2の光源だけを設けた構成としたことを特徴とする3次元触覚センサ。
  5. 請求項3記載の3次元触覚センサにおいて、
    前記算出処理部は、前記カメラ部で撮影された画像で、前記第1の光源からの光が最初に照明されたことを検出した位置を、前記弾性体膜が押され始めた位置と判別することを特徴とする3次元触覚センサ。
  6. 請求項1〜5のいずれか1項記載の3次元触覚センサにおいて、
    前記算出処理部で判別した前記弾性体膜の変形状態から、前記弾性体膜が押された力と押された方向を算出する処理は、ニューラルネットワーク学習を利用して算出する処理を行うことを特徴とする3次元触覚センサ。
  7. 請求項1〜5のいずれか1項記載の3次元触覚センサにおいて、
    前記算出処理部で判別した前記弾性体膜の変形状態から、前記弾性体膜が押された力と押された方向を算出する処理は、前記弾性体膜が変形した際の検出位置と、押された力及び押された方向との対応表を用意し、前記対応表を利用して算出する処理を行うことを特徴とする3次元触覚センサ。
  8. 請求項1〜5のいずれか1項記載の3次元触覚センサにおいて、
    前記算出処理部で判別した前記弾性体膜の変形状態から、前記弾性体膜が押された力と押された方向を算出する処理は、重回帰分析により前記弾性体膜が変形した際の検出位置から力情報に写像する処理を行うことを特徴とする3次元触覚センサ。
  9. 請求項1〜8のいずれか1項記載の3次元触覚センサにおいて、
    前記弾性体膜の表面に所定の部材を配置し、前記部材を介して前記弾性体膜が押された力を算出することを特徴とする3次元触覚センサ。
  10. 表面側から押された場合に、押された力と押された方向を検出する3次元触覚センシング方法であって、
    弾性変形可能で、表面側から押されることで裏面側に窪むことが可能に保持された弾性体膜の裏面に所定の間隔を開けて、前記弾性体膜の裏面と平行に光を照射し、
    前記弾性体膜の裏面を撮影し、
    前記撮影された画像から、前記弾性体膜の裏面に前記光が届く範囲を検出し、その検出した範囲に基づいて前記弾性体膜の変形状態を判別し、この判別結果に基いて前記弾性体膜が押された力と押された方向を算出することを特徴とする
    3次元触覚センシング方法。
  11. 請求項10記載の3次元触覚センシング方法において、
    前記弾性体膜の裏面の前記光源からの光が届く範囲中の、輝度が最も暗くなる位置を、押された位置と判別することを特徴とする
    3次元触覚センシング方法。
  12. 請求項10又は11記載の3次元触覚センシング方法において、
    前記弾性体膜の表面と平行に照射する光として、
    前記弾性体膜の裏面に近接して照射する第1の色の光と、
    前記第1の光と所定の間隔を開けて照射する第1の色とは異なる第2の色の光を用意し、
    前記撮影された画像から、前記弾性体膜の裏面の、前記第1の色で照明された範囲と、前記第2の色で照明された範囲とを判別することを特徴とする3次元触覚センシング方法。
  13. 請求項12記載の3次元触覚センシング方法において、
    前記撮影された画像で、前記第1の色の光が最初に照明されたことを検出した位置を、前記弾性体膜が押され始めた位置と判別することを特徴とする3次元触覚センシング方法。
  14. 請求項10〜13のいずれか1項記載の3次元触覚センシング方法において、
    前記判別した前記弾性体膜の変形状態から、前記弾性体膜が押された力と押された方向を算出する処理は、ニューラルネットワーク学習を利用した算出処理を行うことを特徴とする3次元触覚センシング方法。
  15. 請求項10〜13のいずれか1項記載の3次元触覚センシング方法において、
    前記算出処理部で判別した前記弾性体膜の変形状態から、前記弾性体膜が押された力と押された方向を算出する処理は、前記弾性体膜が変形した際の検出位置と、押された力及び押された方向との対応表を用意し、前記対応表を利用して算出する処理を行うことを特徴とする3次元触覚センシング方法。
  16. 請求項10〜13のいずれか1項記載の3次元触覚センシング方法において、
    前記算出処理部で判別した前記弾性体膜の変形状態から、前記弾性体膜が押された力と押された方向を算出する処理は、重回帰分析により前記弾性体膜が変形した際の検出位置から力情報に写像する処理を行うことを特徴とする3次元触覚センシング方法。
  17. 請求項10〜16のいずれか1項記載の3次元触覚センシング方法において、
    前記前記弾性体膜の表面に所定の部材を配置し、前記部材を介して前記弾性体膜が押された力を算出することを特徴とする3次元触覚センシング方法。
JP2007320133A 2007-12-11 2007-12-11 3次元触覚センサ及び3次元触覚センシング方法 Expired - Fee Related JP5261786B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007320133A JP5261786B2 (ja) 2007-12-11 2007-12-11 3次元触覚センサ及び3次元触覚センシング方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007320133A JP5261786B2 (ja) 2007-12-11 2007-12-11 3次元触覚センサ及び3次元触覚センシング方法

Publications (2)

Publication Number Publication Date
JP2009145085A true JP2009145085A (ja) 2009-07-02
JP5261786B2 JP5261786B2 (ja) 2013-08-14

Family

ID=40915857

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007320133A Expired - Fee Related JP5261786B2 (ja) 2007-12-11 2007-12-11 3次元触覚センサ及び3次元触覚センシング方法

Country Status (1)

Country Link
JP (1) JP5261786B2 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012042220A (ja) * 2010-08-12 2012-03-01 Nagoya Univ 形状計測装置、及び形状計測方法
WO2012060099A1 (ja) * 2010-11-04 2012-05-10 株式会社ニコン 光源調整方法、露光方法、デバイス製造方法、照明光学系、及び露光装置
JP2014054692A (ja) * 2012-09-12 2014-03-27 Seiko Epson Corp 状態判別方法、ロボット、制御装置、及びプログラム
KR101586665B1 (ko) * 2014-10-28 2016-01-19 한국기계연구원 접촉면 계측이 가능한 유체형 촉각센서
JP2016510419A (ja) * 2013-03-13 2016-04-07 コリア・インスティテュート・オヴ・インダストリアル・テクノロジー エアクッション動作感知装置および方法
GB2546413A (en) * 2016-01-12 2017-07-19 Hand Held Products Incorporated Calculating weight using image data
CN109460159A (zh) * 2017-08-20 2019-03-12 原相科技股份有限公司 摇杆与其相关控制方法
CN109556654A (zh) * 2017-09-26 2019-04-02 丰田研究所股份有限公司 用于检测物体的力和姿态的可变形传感器和方法
WO2019220942A1 (ja) * 2018-05-12 2019-11-21 学校法人早稲田大学 光学式触覚センサ
WO2019234859A1 (ja) * 2018-06-06 2019-12-12 オリンパス株式会社 力情報算出装置、内視鏡システムおよび力情報算出方法
CN112652060A (zh) * 2021-01-06 2021-04-13 上海交通大学 一种基于粒子图像测速法的多模态视触觉传感系统及方法
CN113223377A (zh) * 2021-04-25 2021-08-06 浙江理工大学 一种盲文阅读笔及盲文读取方法
JP2022106875A (ja) * 2017-09-26 2022-07-20 トヨタ リサーチ インスティテュート,インコーポレイティド 物体に接触して姿勢及び力を検出するための変形可能なセンサ及び方法
JP2022543711A (ja) * 2019-10-10 2022-10-13 三菱電機株式会社 エラストマー触覚センサ
JP2022546642A (ja) * 2019-10-10 2022-11-04 三菱電機株式会社 触覚センサ
WO2024117139A1 (ja) * 2022-11-28 2024-06-06 Tacle株式会社 光学式触覚センサ、ロボットハンド、ロボットアーム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110383025B (zh) 2017-01-10 2021-12-28 康奈尔大学 具有弹性体泡沫的传感器及其用途
CN112611497B (zh) * 2019-09-18 2022-01-28 马洪文 并联杆系多维力传感器结构

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS50103674U (ja) * 1974-01-28 1975-08-26
JPH07128163A (ja) * 1993-11-08 1995-05-19 Fuji Electric Co Ltd 触覚センサ
JPH0915072A (ja) * 1995-06-28 1997-01-17 Casio Comput Co Ltd 押圧力検出装置
JPH1026564A (ja) * 1996-07-09 1998-01-27 Suzuki Motor Corp 情報入力装置
US6321605B1 (en) * 2000-01-14 2001-11-27 National Research Council Of Canada Surface load and pressure sensing apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS50103674U (ja) * 1974-01-28 1975-08-26
JPH07128163A (ja) * 1993-11-08 1995-05-19 Fuji Electric Co Ltd 触覚センサ
JPH0915072A (ja) * 1995-06-28 1997-01-17 Casio Comput Co Ltd 押圧力検出装置
JPH1026564A (ja) * 1996-07-09 1998-01-27 Suzuki Motor Corp 情報入力装置
US6321605B1 (en) * 2000-01-14 2001-11-27 National Research Council Of Canada Surface load and pressure sensing apparatus

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012042220A (ja) * 2010-08-12 2012-03-01 Nagoya Univ 形状計測装置、及び形状計測方法
WO2012060099A1 (ja) * 2010-11-04 2012-05-10 株式会社ニコン 光源調整方法、露光方法、デバイス製造方法、照明光学系、及び露光装置
JP2014054692A (ja) * 2012-09-12 2014-03-27 Seiko Epson Corp 状態判別方法、ロボット、制御装置、及びプログラム
JP2016510419A (ja) * 2013-03-13 2016-04-07 コリア・インスティテュート・オヴ・インダストリアル・テクノロジー エアクッション動作感知装置および方法
KR101586665B1 (ko) * 2014-10-28 2016-01-19 한국기계연구원 접촉면 계측이 가능한 유체형 촉각센서
GB2546413B (en) * 2016-01-12 2020-05-20 Hand Held Products Incorporated Calculating weight using image data
GB2546413A (en) * 2016-01-12 2017-07-19 Hand Held Products Incorporated Calculating weight using image data
US10026187B2 (en) 2016-01-12 2018-07-17 Hand Held Products, Inc. Using image data to calculate an object's weight
CN109460159A (zh) * 2017-08-20 2019-03-12 原相科技股份有限公司 摇杆与其相关控制方法
CN109460159B (zh) * 2017-08-20 2023-01-13 原相科技股份有限公司 摇杆与其相关控制方法
JP2019060871A (ja) * 2017-09-26 2019-04-18 トヨタ リサーチ インスティテュート,インコーポレイティド 物体に接触して姿勢及び力を検出するための変形可能なセンサ及び方法
CN109551502B (zh) * 2017-09-26 2023-08-25 丰田研究所股份有限公司 具有触摸灵敏度的机器人
US11465296B2 (en) 2017-09-26 2022-10-11 Toyota Research Institute, Inc. Deformable sensors and methods for detecting pose and force against an object
CN109551502A (zh) * 2017-09-26 2019-04-02 丰田研究所股份有限公司 具有触摸灵敏度的机器人
JP7260697B2 (ja) 2017-09-26 2023-04-18 トヨタ リサーチ インスティテュート,インコーポレイティド 物体に接触して姿勢及び力を検出するための変形可能なセンサ及び方法
US11628576B2 (en) 2017-09-26 2023-04-18 Toyota Research Institute, Inc. Deformable sensors and methods for detecting pose and force against an object
JP7068122B2 (ja) 2017-09-26 2022-05-16 トヨタ リサーチ インスティテュート,インコーポレイティド 物体に接触して姿勢及び力を検出するための変形可能なセンサ及び方法
CN109556654A (zh) * 2017-09-26 2019-04-02 丰田研究所股份有限公司 用于检测物体的力和姿态的可变形传感器和方法
JP2022106875A (ja) * 2017-09-26 2022-07-20 トヨタ リサーチ インスティテュート,インコーポレイティド 物体に接触して姿勢及び力を検出するための変形可能なセンサ及び方法
WO2019220942A1 (ja) * 2018-05-12 2019-11-21 学校法人早稲田大学 光学式触覚センサ
JPWO2019234859A1 (ja) * 2018-06-06 2021-03-11 オリンパス株式会社 力情報算出装置、内視鏡システムおよび力情報算出方法
JP7084991B2 (ja) 2018-06-06 2022-06-15 オリンパス株式会社 力情報算出装置、内視鏡システムおよび力情報算出方法
WO2019234859A1 (ja) * 2018-06-06 2019-12-12 オリンパス株式会社 力情報算出装置、内視鏡システムおよび力情報算出方法
JP2022543711A (ja) * 2019-10-10 2022-10-13 三菱電機株式会社 エラストマー触覚センサ
JP2022546642A (ja) * 2019-10-10 2022-11-04 三菱電機株式会社 触覚センサ
JP7278493B2 (ja) 2019-10-10 2023-05-19 三菱電機株式会社 触覚センサ
JP7278491B2 (ja) 2019-10-10 2023-05-19 三菱電機株式会社 エラストマー触覚センサ
CN112652060A (zh) * 2021-01-06 2021-04-13 上海交通大学 一种基于粒子图像测速法的多模态视触觉传感系统及方法
CN113223377A (zh) * 2021-04-25 2021-08-06 浙江理工大学 一种盲文阅读笔及盲文读取方法
WO2024117139A1 (ja) * 2022-11-28 2024-06-06 Tacle株式会社 光学式触覚センサ、ロボットハンド、ロボットアーム

Also Published As

Publication number Publication date
JP5261786B2 (ja) 2013-08-14

Similar Documents

Publication Publication Date Title
JP5261786B2 (ja) 3次元触覚センサ及び3次元触覚センシング方法
CN105683882B (zh) 等待时间测量与测试系统和方法
US10209881B2 (en) Extending the free fingers typing technology and introducing the finger taps language technology
JP6539816B2 (ja) 1つのシングル・センシング・システムを使用したマルチ・モーダル・ジェスチャー・ベースの対話型のシステム及び方法
US7050177B2 (en) Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices
TWI476633B (zh) 傳輸觸覺資訊的系統和方法
US10489669B2 (en) Sensor utilising overlapping signals and method thereof
US20030218761A1 (en) Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices
JP5825604B2 (ja) 6軸力計測装置、及び6軸力計測方法
CN109176590B (zh) 一种具有压滑觉感知的柔性指尖、装置及方法
US20020118181A1 (en) Absolute optical position determination
JPH07128163A (ja) 触覚センサ
US20150015489A1 (en) System and method for digital recording of handpainted, handdrawn and handwritten information
JP2004094653A (ja) 情報入力システム
JP2006252093A (ja) 力覚式タッチパネルを具備したインターフェイス装置
CN114502937A (zh) 触觉传感器
CN112805660A (zh) 用于人与虚拟对象交互的系统和方法
JP2009285737A (ja) 入力インタフェース
US20080062124A1 (en) Mouse interface apparatus using camera, system and method using the same, and computer recordable medium for implementing the same
US20020158848A1 (en) Optical position determination on plain paper
CN112652060A (zh) 一种基于粒子图像测速法的多模态视触觉传感系统及方法
KR20180117952A (ko) 딥러닝을 이용한 3차원 터치 인식 장치 및 이를 이용한 3차원 터치 인식 방법
JP2009198475A (ja) 弾性体特性を利用した3次元触覚センサ及び3次元触覚センシング方法
US11819999B2 (en) Input devices having a deformable membrane and methods of using the same
KR101801608B1 (ko) 쿠션에 구비되는 마커의 이미지처리를 이용하는 입력장치 및 이를 포함한 컴퓨팅장치를 위한 입력시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130410

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5261786

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees