JP2008126399A - ヒューマンロボットインタラクション用の触覚検知装置および方法 - Google Patents

ヒューマンロボットインタラクション用の触覚検知装置および方法 Download PDF

Info

Publication number
JP2008126399A
JP2008126399A JP2007009704A JP2007009704A JP2008126399A JP 2008126399 A JP2008126399 A JP 2008126399A JP 2007009704 A JP2007009704 A JP 2007009704A JP 2007009704 A JP2007009704 A JP 2007009704A JP 2008126399 A JP2008126399 A JP 2008126399A
Authority
JP
Japan
Prior art keywords
tactile
contact
robot interaction
human robot
timing data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007009704A
Other languages
English (en)
Inventor
國師 ▲曽▼
Kuo-Shih Tseng
Chiu-Wang Chen
秋旺 陳
Yi-Ming Chu
怡銘 朱
Wei-Han Wang
維漢 王
Hung-Hsiu Yu
鴻修 游
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial Technology Research Institute ITRI
Original Assignee
Industrial Technology Research Institute ITRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial Technology Research Institute ITRI filed Critical Industrial Technology Research Institute ITRI
Publication of JP2008126399A publication Critical patent/JP2008126399A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】触覚検知モジュールを利用して、接触パターンを判断し、低コストかつ多元化された人とのインタラクション反応を発生させる触覚検知装置および方法を提供する。
【解決手段】ヒューマンロボットインタラクション用の触覚検知装置は、接触インターフェースと、前記接触インターフェースに接続され、外界との外力接触を検知して、前記外力接触に対応する一連のタイミングデータを発生させる触覚検知モジュールと、前記触覚検知モジュールに接続され、前記した一連のタイミングデータを受信するとともに、幾何演算に基づいて、接触パターンを計算かつ判断し、制御信号を発生させるコントローラーと、前記コントローラーに接続されるとともに、前記制御信号に基づいて、前記接触パターンに対応するインタラクション反応を発生させるアクチュエーターとを含む。
【選択図】図2

Description

この発明は、ヒューマンロボットインタラクション(human robot interaction)用の装置および方法に関し、特に、触覚検知(tactile sensing)を利用したヒューマンロボットインタラクション用の触覚検知装置および方法に関する。
ロボットは、多元化された入力があって初めて人との多元化されたインタラクションを発生させることができる。従来のロボットまたは玩具は、通常、ON/OFFスイッチ式の検知器(センサー)またはアレイ式の大量の検知器が大面積の接触を検知するだけであり、システム入力信号の情報が少なすぎる又は多すぎるために演算することができないので、多元化されたヒューマンロボットインタラクションを達成することができない。
図1は、ヒューマンロボットインタラクションの一般的な構成説明図であり、それは、視覚・聴覚および触覚などの情報入力・検知融合分析を経て外界の状況を判断して、合成動作を出力しヒューマンロボットインタラクションの目的を達成することを示す。例えば、日本特許公開2000-038658に開示されたヒューマンロボットインタラクションは、触覚検知器を利用してアクチュエーターの抵抗を検知して、ヒューマンロボットインタラクションの目的を達成する。また、日本特許公開2003-117256に開示されたヒューマンロボットインタラクションは、キャパシターの原理を利用して装置の髭が人により接触された時に固定されたインタラクション動作を行うことができるものである。
しかし、前者は、精密な設計があって初めてアクチュエーターと人とのインタラクションが比較的良好な効果を有し、後者は、固定された検知モードを有することができるだけで、インタラクションが単調なものとなる。上記した2案件は、いずれも多元化された情報が欠けており、かつシステム構成が複雑でコストが比較的高いという問題がある。従って、実用化ならびに多元化の方面で両者は、いずれも改善が必要である。
上記問題に鑑みて、この発明は、ヒューマンロボットインタラクション用の触覚検知装置および方法を提供するものであり、それらは、少なくとも1つの触覚検知モジュールを利用するとともに、演算法によりタイミングデータを演算して接触パターンを判断して、接触される力量・範囲および時間など検知することができ、得られた情報により、アクチュエーター・スピーカーまたはディスプレイを介して動作または音声等を出力して人とのインタラクションを発生させ、低コストかつ多元化されたインタラクション解決方法を達成する。
この発明は、ヒューマンロボットインタラクション用の触覚検知装置を提供し、それは、少なくとも接触インターフェースと触覚検知モジュールとコントローラーとアクチュエーターとを含む。触覚検知モジュールが接触インターフェースに接続され、外界との外力接触を検知して、前記外力接触に対応する一連のタイミングデータを発生させる。コントローラーが触覚検知モジュールに接続され、前記した一連のタイミングデータを受信するとともに、幾何演算に基づいて、接触パターンを計算かつ判断し、制御信号を発生させる。アクチュエーターがコントローラーに接続されるとともに、前記制御信号に基づいて、前記接触パターンに対応するインタラクション反応を発生させる。
また、この発明は、ヒューマンロボットインタラクション用の触覚検知方法を提供するものであり、それは、少なくとも下記のステップを含むものである。即ち、先ず、接触インターフェースに対する外力接触を行う。触覚検知方式で、前記外力接触を検知し、前記外力接触に対する一連のタイミングデータを発生させる。次に、幾何演算に基づき前記一連のタイミングデータに対して前記外力接触の接触パターンを計算するとともに判断する。次に、接触パターンに基づいてインタラクション反応を合成するとともに、外界へ出力して、ヒューマンロボットの良好なインタラクションを達成する。
上述の装置または方法において、上記一連のタイミングデータは、例えば、外力接触の受力点の位置と時間との関係、または受力の大きさと時間との関係、あるいは受力の大きさと位置と時間との関係をとることができる。
さらに、上記した外界とのインタラクション反応は、各種肢体動作が反応して形成する異なる速度・位置・力量のインタラクション表現あるいは肢体構造の剛性を変更することができる。または、スピーカーを利用して言語音・音楽・録音した音声である。あるいは、ディスプレイを利用して画像・文字・彩色・色彩・明暗・点滅・図形などの映像を表現することである。
<作用>
つまり、この発明は、触覚検知器のタイミングデータを利用して装置の被接触方式を判断し、異なる行為を合成することによって、ヒューマンロボットインタラクション行為を発生させる。また、この発明は、低コストの触覚検知器およびコントローラーにより、面積式の接触位置変化を検知することで、多機能なヒューマンロボットインタラクションを達成することができる。
従って、この発明は、コントローラーと触覚検知器とを整合し、触覚検知器のタイミングデータを利用して装置の被接触方式を判断し、異なる行為を合成することによって、ヒューマンロボットインタラクション行為を発生させる。これにより、この発明は、低コストの触覚検知器およびコントローラーによって、面積式の接触位置変化を検知することで、多機能なヒューマンロボットインタラクションを達成することができる。
以下、この発明を実施するための最良の形態を図面に基づいて説明する。
<実施例>
図2は、この発明の一実施例に基づくヒューマンロボットインタラクション用の触覚検知装置を示す説明図である。図2において、ヒューマンロボットインタラクション用の触覚検知装置は、触覚検知モジュール12と、コントローラー10と、アクチュエーター14とを含み、そのうち、触覚検知モジュール12がコントローラー10に接続される。また、さらに、アナログ/デジタル変換器ADCを含むことができ、触覚検知モジュール12およびコントローラー10間に接続されて、一連のタイミングデータに対するアナログ/デジタル変換を行う。また、さらに、デジタル/アナログ変換器DACを含むことができ、コントローラー10およびアクチュエーター14間に接続される。
図3において、触覚検知モジュール12は、歪(ひず)み計(strain gauge)または導電ラバー(conductive rubber)とすることができる。触覚検知モジュール12は、接触インターフェース30上に取り付けることができる。この接触インターフェース30は、外界(例えば、人類)およびインタラクション装置(例えば、ロボット)間の接触界面を提供する。この接触インターフェース30は、軟質インターフェースまたは硬質インターフェースにすることができる。
また、上記した触覚検知モジュール12は、さらに、例えば、圧力・力量・電気容量・位置移動の検知器(センサー)のうちの1つとすることができ、それは、検知すべき接触物理量が何であるかによって、適切に選択する。
触覚検知モジュール12は、接触インターフェース30上の力点の加圧/加力の状況に基づいて、1組のタイミングデータFn(f,T)を得ることができ、そのうち、fを触覚検知モジュール12、すなわち受力の大きさとする。Tを選び取った時間とし、触覚検知モジュール12は、一定時間△tごとにデータを選び取ることができる。この時間△tは、固定またはランダムとすることができる。比較的精確に接触インターフェース30において面積式(2次元)の接触モードを検知するために、3個の触覚検知モジュール(例えば12a,12b,12c)を使用することが好ましい。もちろん、実際上、使用する数量は、特に制限されるものではない。
コントローラー10は、アナログ/デジタル変換器ADCを経て触覚検知モジュール12の読み取ったデータを選び取ることができる。次に、例えば、図4A、図4Bに示した幾何演算方式の演算法によって、F(f,X,Y,T)を計算により知ることができる。すなわち、受力の大きさ(f)・位置(X,Y)および時間(T)を計算することができる。これによって、コントローラー10が連続するFm(f,X,Y,T)に基づいて外界との接触パターンを判断することができる。
コントローラー10が接触パターンを判断するのを待って、判断した接触パターンに依拠して、デジタル/アナログ変換器DACを経て制御信号をアクチュエーター14へ伝送する。これにより、アクチュエーター14が外界の接触に対して対応するインタラクション反応を発生させる。このインタラクション反応は、各種の肢体動作の反応とすることができ、異なる速度・位置・力量のインタラクション表現;または肢体構造の剛性を変更あるいはスピーカーの表現する言語音・音楽・予め録音した音声;もしくはディスプレイの表現する画像・文字・色彩・彩色・明暗・点滅・図形などの映像を形成することができる。
次に、図4Aおよび図4Bにより受力が線形ならびに非線形時の計算方法を説明する。即ち、上記したF(f,X,Y,T)の計算方法を説明する。以下、(1)検知モジュールの受力と距離とが線形関係および(2)検知モジュールの受力と非線形関係に分けて説明し、もしも非線形関係であればテーブルルックアップ方式で計算を加速することができる。ここでは、三角定位法を用いて説明する。先ず、受力と距離とが線形関係である状況を説明する。
図4Aにおいて、f,f,fが触覚検知器12a,12b,12cのそれぞれ検知する受力の大きさ(読み取り値)、l,l,lが触覚検知器12a,12b,12cの受力点間の距離であると仮定する。外界(例えば人)が接触インターフェース30上における接触位置の力の大きさをF、即ち外界の実際の接触力とする。受力と距離とが線形関係であるから、fとlとは反比例となり、各触覚検知器12a,12b,12cの検知する受力の大きさは、下記の数式で表示することができる。
Figure 2008126399
Figure 2008126399
この例では、3個の触覚検知器12a,12b,12cを配置することにより説明しており、それが辺の長さLの三角形の頂点に置かれる。
選び取る時間Tを△tと仮定する時、3個の触覚検知器12a,12b,12cを計測する読み取り値は、それぞれf,f,fとし、先の数1・数2から下記の結果を知ることができる。そのうち、定数a:b:cは、f,f,fから知ることができ、Hを比例定数とする。
Figure 2008126399
次に、触覚検知器12a,12b,12cの位置(a,b)(a,b)(a,b)を円心とし、かつ各自の受力点との距離をl、l、lを半径とすれば、3個の円方程式を下記の通り知ることができる。
Figure 2008126399
数3および数4から、3個の円の3本の交線を下記の通り計算することができるとともに、下記する数5から未知数X,Y,Hを求めることができる。
Figure 2008126399
次のように、T=△tの時、かつ接触点の位置が(X,Y)であれば、接触力の大きさをF=f×l/Kと計算することができる。
このようにして、各時間△tごとに受力の大きさ・受力位置を計算することができ、それから接触インターフェース上の被接触方式を判断することができる。ここでの各時間△tは、等しいものとも異なるものともすることができる。
次に、非線形関係の状況を説明するが、以下、テイラー展開式により非線形関数を展開して説明する。非線形関係の状況において、f∝1/g(l)と仮定すれば、f×g(l)/K=Fとなり、そのうち、g(l)が非線形多項式関数であることは、実験により知ることができる。テイラー展開式を経て、下記の形式に展開することができる。
Figure 2008126399
上記のように、線形状況との差は、
:f:f=1/g(l):1/g(l):1/g(l)にあるだけである。従って、受力点の受力の大きさと位置とは、上記した方式に基づいて進行することができ、以上のステップを繰り返して各時点の(X,Y,F)を得ることができる。
図9は、この発明のヒューマンロボットインタラクション用の触覚検知方法を示すフローチャートである。ステップS100において、先ず、コントローラーを初期化する。次に、ステップS102において、多数セットの触覚検知器のデータFn(f,T)を選び取る。即ち、時間T、受力Fにおける触覚検知器12a,12b,12c(図3を参照)に対する読み取り値を選び取る。
ステップS104において、ステップS102で得たデータFn(f,T)に基づいて一連のタイミングデータを計算する。例えば、上述した図4A、図4Bに示した方式で、数個の時間点で受力点の大きさF・位置(X,Y)を計算して、一連のタイミングデータF(f,X,Y,T)を得ることができる。このタイミングデータは、受力の大きさFと時間Tとの関係・位置(X,Y)と時間Tとの関係、または受力の大きさFと位置(X,Y)と時間Tとの関係を採用することができる。
次に、ステップS106において、ステップS104で獲得した一連のタイミングデータにより、その一連のタイミングデータが表す接触方式を判断する。接触方式を判断した後、ステップS108において、対応する動作を合成して出力し、インタラクション反応を発生させる。反対に、判断できなければ、触覚検知器のデータを継続して選び取る。
例えば、コントローラー10が各触覚検知器12a,12b,12cからデータを選び取った後、例えば上記した方式に基づいて各時間点のタイミングデータを計算して、そこから触覚パターンを判断する。例えば、図5の円を描く接触であり、図6のXY方向の接触であり、または、図7の瞬間的な衝撃であり、いずれも典型的な接触方式である。コントローラー10は、上記したタイミングデータを経て各種の接触方式を判断するが、いずれも本体が動かない時の外界から接触される場合の検知である。
別な種類の接触は、主動接触であり、いずれもロボットが移動する時に外界の物体に接触するものを指している。例えば、図8に示したように、ロボットの手またはロボットの足が異物にぶつかった時に、ロボットが自主的に外界の物体とインタラクション反応できるものである。例えば、肢体動作のバランスを取る・肢体を反射的に引っ込める動作などである。
図2において、コントローラー10が接触方式を判断した後、それに基づいて制御信号をアクチュエーター14へ出力し、アクチュエーター14が外界環境に対する適切なインタラクション反応を行う。例えば、この装置を図5のようなロボットの頭部を撫でることに応用すれば、ロボットは撫でられて安定状態に入るものである。これは、コントローラー10がロボット内部の情緒安定ブロックを安定させるものである。あるいは、ロボットの身体に広く配置された触覚検知器が接触を検知すれば、人に抱擁されたと判断することができ、両手を伸ばして人を抱擁するインタラクション反応を発生させる。また、ロボットが触られた時、ロボットを力の方向へ進むように制御すれば、誘導作用としてのインタラクション反応を発生させることもできる。
図10は、この発明の別な応用例を示す説明図である。検知範囲が更に大きなエリアに応用したい時、接触インターフェース上に更に多くの触覚検知器を配置することができる。3つ以上の検知データが有りさえすれば、図9に示した演算法(フローチャート)を使用して検知することができ、大面積の接触検知形式の効果を達成することができる。
以上のごとく、この発明を最良の実施形態について説明してきたが、もとより、この発明を限定するためのものではなく、当業者であれば容易に理解できるように、この発明の技術思想の範囲内において、適当な変更ならびに修正が当然なされうるものであるから、その特許権保護の範囲は、特許請求の範囲および、それと均等な領域を基準として定めなければならない。
ヒューマンロボットインターフェースのインタラクション反応と外界との関係を示す一般的な構成説明図である。 この発明にかかる触覚検知モジュールと外界環境との関係を示す説明図である。 この発明にかかる触覚検知モジュールと外界環境との関係を示す説明図である。 線形および非線形時の一つの計算方法を説明する説明図である。 線形および非線形時の他の計算方法を説明する説明図である。 受動式接触パターンの一例を示す説明図である。 受動式接触パターンの別な一例を示す説明図である。 受動式接触パターンの別な一例を示す説明図である。 主動式接触パターンの一例を示す説明図である。 この発明にかかる方法を示すフローチャートである。 この発明にかかる別な応用例を示す説明図である。
符号の説明
10 コントローラー
12,12a,12b,12c 触覚検知器
14 アクチュエーター
20 外界環境
30 接触インターフェース

Claims (19)

  1. 接触インターフェースと;
    前記接触インターフェースに接続され、外界との外力接触を検知して、前記外力接触に対応する一連のタイミングデータを発生させる触覚検知モジュールと;
    前記触覚検知モジュールに接続され、前記一連のタイミングデータを受信するとともに、幾何演算に基づいて、接触パターンを計算かつ判断し、制御信号を発生させるコントローラーと;
    前記コントローラーに接続されるとともに、前記制御信号に基づいて、前記接触パターンに対応するインタラクション反応を発生させるアクチュエーターと
    を含むヒューマンロボットインタラクション用の触覚検知装置。
  2. 前記一連のタイミングデータが、前記外力接触の受力点の位置と時間との関係である請求項1記載のヒューマンロボットインタラクション用の触覚検知装置。
  3. 前記一連のタイミングデータが、前記外力接触の受力の大きさと時間との関係である請求項1記載のヒューマンロボットインタラクション用の触覚検知装置。
  4. 前記一連のタイミングデータが、前記外力接触の受力の大きさと位置と時間との関係である請求項1記載のヒューマンロボットインタラクション用の触覚検知装置。
  5. 前記ヒューマンロボットインタラクション用の触覚検知装置が、さらに、前記触覚検知モジュールおよび前記コントローラー間に接続され、前記一連のタイミングデータに対するアナログ/デジタル変換を行うアナログ/デジタル変換器と;
    前記コントローラーおよび前記アクチュエーター間に接続されるデジタル/アナログ変換器と
    を含む請求項1記載のヒューマンロボットインタラクション用の触覚検知装置。
  6. 前記接触インターフェースが、軟質インターフェースまたは硬質インターフェースである請求項1記載のヒューマンロボットインタラクション用の触覚検知装置。
  7. 前記触覚検知モジュールは、圧力・力量・電気容量・位置移動検知器である請求項1記載のヒューマンロボットインタラクション用の触覚検知装置。
  8. 前記触覚検知モジュールが、少なくとも3個の検知器から構成され、2次元式接触パターンを検出する請求項1記載のヒューマンロボットインタラクション用の触覚検知装置。
  9. 前記複数の検知器が、歪み計または導電ラバーである請求項8記載のヒューマンロボットインタラクション用の触覚検知装置。
  10. 前記接触インターフェースが、移動肢体の末端である請求項1記載のヒューマンロボットインタラクション用の触覚検知装置。
  11. 外界との前記インタラクション反応が、肢体動作を利用して異なる速度・位置・力量のインタラクション表現を反映、または肢体構造の剛性を変更する請求項1記載のヒューマンロボットインタラクション用の触覚検知装置。
  12. 接触インターフェースに対する外力接触を行うことと;
    触覚検知方式で、前記外力接触を検知し、前記外力接触に対する一連のタイミングデータを発生させることと;
    幾何演算に基づき前記一連のタイミングデータに対して前記外力接触の接触パターンを計算するとともに判断することと;
    前記接触パターンに基づいてインタラクション反応を合成することと
    を含むヒューマンロボットインタラクション用の触覚検知方法。
  13. 前記一連のタイミングデータが、前記外力接触の受力点の位置と時間との関係である請求項12記載のヒューマンロボットインタラクション用の触覚検知方法。
  14. 前記一連のタイミングデータが、前記外力接触の受力の大きさと時間との関係である請求項12記載のヒューマンロボットインタラクション用の触覚検知方法。
  15. 前記一連のタイミングデータが、前記外力接触の受力の大きさと位置と時間との関係である請求項12記載のヒューマンロボットインタラクション用の触覚検知方法。
  16. 前記触覚検知方式が、圧力・力量・電気容量・位置移動検知器により行う請求項12記載のヒューマンロボットインタラクション用の触覚検知方法。
  17. 前記触覚検知方式が、少なくとも3個の検知器から構成され、2次元式接触パターンを検出する請求項12記載のヒューマンロボットインタラクション用の触覚検知方法。
  18. 前記した複数の検知器が、歪み計または導電ラバーである請求項17記載のヒューマンロボットインタラクション用の触覚検知方法。
  19. 外界との前記インタラクション反応が、肢体動作を利用して異なる速度・位置・力量のインタラクション表現を反映、または肢体構造の剛性を変更する請求項12記載のヒューマンロボットインタラクション用の触覚検知方法。
JP2007009704A 2006-11-22 2007-01-19 ヒューマンロボットインタラクション用の触覚検知装置および方法 Pending JP2008126399A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW095143158A TWI349870B (en) 2006-11-22 2006-11-22 Device and method of tactile sensing for human robot interaction

Publications (1)

Publication Number Publication Date
JP2008126399A true JP2008126399A (ja) 2008-06-05

Family

ID=39496417

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007009704A Pending JP2008126399A (ja) 2006-11-22 2007-01-19 ヒューマンロボットインタラクション用の触覚検知装置および方法

Country Status (3)

Country Link
US (1) US20080134801A1 (ja)
JP (1) JP2008126399A (ja)
TW (1) TWI349870B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101016381B1 (ko) 2009-01-19 2011-02-21 한국과학기술원 사람과 상호작용이 가능한 감정 표현 로봇
KR101101750B1 (ko) * 2009-09-16 2012-01-05 (주)동부로봇 로봇의 감성표현방법

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9368046B2 (en) 2010-07-14 2016-06-14 Macronix International Co., Ltd. Color tactile vision system
US8996167B2 (en) 2012-06-21 2015-03-31 Rethink Robotics, Inc. User interfaces for robot training
US9044863B2 (en) 2013-02-06 2015-06-02 Steelcase Inc. Polarized enhanced confidentiality in mobile camera applications
US10019566B1 (en) 2016-04-14 2018-07-10 X Development Llc Authorizing robot use and/or adapting physical control parameters for a robot
US11221497B2 (en) 2017-06-05 2022-01-11 Steelcase Inc. Multiple-polarization cloaking
US11106124B2 (en) 2018-02-27 2021-08-31 Steelcase Inc. Multiple-polarization cloaking for projected and writing surface view screens
US11376743B2 (en) * 2019-04-04 2022-07-05 Joyhaptics Oy Systems and methods for providing remote touch
EP3987264A1 (en) 2019-06-24 2022-04-27 Albert-Ludwigs-Universität Freiburg Tactile sensor and method for operating a tactile sensor
US11420331B2 (en) * 2019-07-03 2022-08-23 Honda Motor Co., Ltd. Motion retargeting control for human-robot interaction
CN115752823B (zh) * 2022-11-24 2024-10-01 吉林大学 具有定位功能的非阵列仿生柔性触觉传感器及其制备方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61288991A (ja) * 1985-06-12 1986-12-19 三菱電機株式会社 触覚センサ
JPH01103280A (ja) * 1987-10-16 1989-04-20 Toshiba Corp マンマシンインターフェース
JP2002120183A (ja) * 2000-10-11 2002-04-23 Sony Corp ロボット装置及びロボット装置の入力情報検出方法
JP2006281347A (ja) * 2005-03-31 2006-10-19 Advanced Telecommunication Research Institute International コミュニケーションロボット

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4521685A (en) * 1982-03-01 1985-06-04 Lord Corporation Tactile sensor for an industrial robot or the like
US5255753A (en) * 1989-12-14 1993-10-26 Honda Giken Kogyo Kabushiki Kaisha Foot structure for legged walking robot
US7098891B1 (en) * 1992-09-18 2006-08-29 Pryor Timothy R Method for providing human input to a computer
JPH10289006A (ja) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法
US6429846B2 (en) * 1998-06-23 2002-08-06 Immersion Corporation Haptic feedback for touchpads and other touch controls
US6232735B1 (en) * 1998-11-24 2001-05-15 Thames Co., Ltd. Robot remote control system and robot image remote control processing system
US20020149571A1 (en) * 2001-04-13 2002-10-17 Roberts Jerry B. Method and apparatus for force-based touch input
US6715359B2 (en) * 2001-06-28 2004-04-06 Tactex Controls Inc. Pressure sensitive surfaces
JP4093308B2 (ja) * 2002-11-01 2008-06-04 富士通株式会社 タッチパネル装置及び接触位置検出方法
US9019209B2 (en) * 2005-06-08 2015-04-28 3M Innovative Properties Company Touch location determination involving multiple touch location processes

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61288991A (ja) * 1985-06-12 1986-12-19 三菱電機株式会社 触覚センサ
JPH01103280A (ja) * 1987-10-16 1989-04-20 Toshiba Corp マンマシンインターフェース
JP2002120183A (ja) * 2000-10-11 2002-04-23 Sony Corp ロボット装置及びロボット装置の入力情報検出方法
JP2006281347A (ja) * 2005-03-31 2006-10-19 Advanced Telecommunication Research Institute International コミュニケーションロボット

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101016381B1 (ko) 2009-01-19 2011-02-21 한국과학기술원 사람과 상호작용이 가능한 감정 표현 로봇
KR101101750B1 (ko) * 2009-09-16 2012-01-05 (주)동부로봇 로봇의 감성표현방법

Also Published As

Publication number Publication date
TWI349870B (en) 2011-10-01
US20080134801A1 (en) 2008-06-12
TW200823733A (en) 2008-06-01

Similar Documents

Publication Publication Date Title
JP2008126399A (ja) ヒューマンロボットインタラクション用の触覚検知装置および方法
KR102281883B1 (ko) 가상 현실/증강 현실 핸드헬드 제어기 감지
JP5622572B2 (ja) 触覚感知のための圧力センサーアレイ装置及び方法
EP2763018B1 (en) Stretchable display and method of controlling the same
AU2015305311B2 (en) Sensors for soft robots and soft actuators
CN111902795A (zh) 带有用于纹理模拟的触觉反馈的触笔
EP1811363A3 (en) Contents navigation method and contents navigation apparatus thereof
JP2001522678A (ja) 人間の身体部位を訓練するための方法と装置
JP4856677B2 (ja) 質感測定装置及びその方法
US20180285673A1 (en) A sensor utilising overlapping signals and method thereof
KR101359755B1 (ko) 센서 장치를 포함하는 장치 및 그 조작 방법
CN101206544A (zh) 人机互动的触觉感测装置及其方法
WO2015137014A1 (ja) 情報入出力装置及び情報入出力方法
Kao et al. Novel digital glove design for virtual reality applications
US10664069B1 (en) Stylus with input adapter
JP4590596B2 (ja) 入力装置、制御装置、入力方法、制御方法ならびに、プログラム
JP2008276664A (ja) 検出装置
JP5905840B2 (ja) 触覚センサシステム、軌道取得装置、及び、ロボットハンド
US20160306440A1 (en) Control input apparatus
KR20070004677A (ko) 제어 및 제어 구성
US20070146312A1 (en) Interactive control system
KR101750506B1 (ko) 햅틱 인터페이스의 제어 방법 및 장치
JP2009198475A (ja) 弾性体特性を利用した3次元触覚センサ及び3次元触覚センシング方法
JP6600269B2 (ja) 三次元形状提示システム及び触力覚提示装置
JPH0962437A (ja) コンピュータ入力装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100302

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100531

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100603

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100630

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100722

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101207