JP6341294B2 - 触感提供システム、及び、触感提供装置 - Google Patents

触感提供システム、及び、触感提供装置 Download PDF

Info

Publication number
JP6341294B2
JP6341294B2 JP2016562165A JP2016562165A JP6341294B2 JP 6341294 B2 JP6341294 B2 JP 6341294B2 JP 2016562165 A JP2016562165 A JP 2016562165A JP 2016562165 A JP2016562165 A JP 2016562165A JP 6341294 B2 JP6341294 B2 JP 6341294B2
Authority
JP
Japan
Prior art keywords
finger
tactile sensation
sensation providing
coordinates
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016562165A
Other languages
English (en)
Other versions
JPWO2016088246A1 (ja
Inventor
勝木 隆史
隆史 勝木
文彦 中澤
文彦 中澤
豊田 治
治 豊田
矢吹 彰彦
彰彦 矢吹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2016088246A1 publication Critical patent/JPWO2016088246A1/ja
Application granted granted Critical
Publication of JP6341294B2 publication Critical patent/JP6341294B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Description

本発明は、触感提供システム、及び、触感提供装置に関する。
従来より、タッチパネルに対して押圧、接触、または近接させて入力操作を行うための入力器具がある。入力器具は、生体の皮膚に接触させた状態を保持可能にした1以上の刺激電極および基準電極と、該入力器具による、前記タッチパネルに対する入力操作により、前記刺激電極と、前記基準電極との間に、前記刺激電極に接触する皮膚の触覚を刺激するための電圧を印加する電圧印加手段とを備えたことを特徴とする(例えば、特許文献1参照)。
特開2010−250750号公報
ところで、従来の入力器具は、1本の指でタッチパネルを操作することを前提にしたものであり、複数の指でタッチパネルを操作する場合に、各指の位置に応じた触覚を提供することはできない。すなわち、複数の指に良好な触感を提供することはできない。
そこで、複数の指に良好な触感を提供できる、触感提供システム、及び、触感提供装置を提供することを目的とする。
本発明の実施の形態の触感提供システムは、電子機器と、第1触感提供装置とを含む触感提供システムであって、前記電子機器は、表示部と、前記表示部の表示面側に設けられ、操作面を有するトップパネルと、前記操作面への操作入力の位置の座標を検出する座標検出部と、第1制御部とを有し、前記第1触感提供装置は、複数の指にそれぞれ装着される複数の装着部と、前記複数の装着部がそれぞれ装着される複数の指の腹に対応する複数の部分に、それぞれ配設される複数の振動素子と、前記複数の指のそれぞれの前記操作面への接触を検出するセンサと、前記第1制御部とデータ通信可能な第2制御部とを有し、前記第1制御部は、前記第2制御部から前記センサによって前記指の接触が検出されたことを表す通知信号を受信すると、前記センサで接触が検出される指を表すデータと、前記座標検出部によって検出される座標とに基づき、前記操作面に接触している指の種類と当該指が前記操作面に接触する座標とを求めるとともに、前記指を表すデータと、当該指が前記操作面に接触する座標と、前記表示部に表示される画像とに応じた触感を表す駆動信号を生成し、前記第2制御部は、前記駆動信号を用いて、前記振動素子を駆動する。
複数の指に良好な触感を提供できる、触感提供システム、及び、触感提供装置を提供することができる。
実施の形態の触感提供システムを示す図である。 実施の形態の触感提供装置を示す図である。 電子機器及び触感提供装置のより詳細なハードウェア構成を示す図である。 触感提供システムが用いるデータを示す図である。 触感提供システムにおいて、触感提供装置でトップパネルを接触した指と、タッチパネルによって検出される座標とを関連付ける手法を説明する図である。 制御部が操作入力の座標を決定する処理を示すフローチャートである。 制御部が操作入力の座標を決定する処理を示すフローチャートである。 触感提供装置を装着した手が移動された場合に、利用者に提供される触感の変化を説明する図である。 触感提供システムにおいて、触感提供装置でトップパネルに接触した指と、タッチパネルによって検出される座標とを関連付ける他の手法を説明する図である。 実施の形態の変形例による触感提供システムを示す図である。
以下、本発明の触感提供システム、及び、触感提供装置を適用した実施の形態について説明する。
<実施の形態>
図1は、実施の形態の触感提供システム100を示す図である。
触感提供システム100は、電子機器200と触感提供装置300を含む。
電子機器200は、一例として、タッチパネルを入力操作部とする、スマートフォン端末機、又は、タブレット型コンピュータである。電子機器200は、タッチパネルを入力操作部とする機器であればよいため、例えば、携帯情報端末機、又は、PC(Personal Computer)であってもよい。
電子機器200は、筐体201、ディスプレイパネル202、タッチパネル203、及びトップパネル204を含む。筐体201は、内部に制御部及びメモリ等が配置される。図1に示すように平面視の状態で、筐体201の開口部からディスプレイパネル202が表出しており、ディスプレイパネル202の上に、タッチパネル203及びトップパネル204がこの順で配設されている。
ディスプレイパネル202は、例えば、液晶ディスプレイパネル又は有機EL(Electroluminescence)パネル等の画像を表示できる表示部であればよい。ディスプレイパネル202は、制御部によって駆動制御が行われ、電子機器200の動作状況に応じて、GUI操作部、画像、文字、記号、図形等を表示する。
タッチパネル203は、ディスプレイパネル202の上に配設されている。タッチパネル203は、透過性が高く透明な材料で作製されており、ディスプレイパネル202の表示を透過する。
また、タッチパネル203は、利用者のトップパネル204の表面(操作面)への操作入力の位置を検出できる座標検出部であればよく、例えば、静電容量型又は抵抗膜型の座標検出部であればよい。また、タッチパネル203は、複数の操作入力が同時に行われた場合に、すべての操作入力の座標を検出できるタッチパネルであることが望ましい。
触感提供システム100が1つの(片手用の)触感提供装置300を含む場合には、タッチパネル203は、同時に5箇所の操作入力の座標を検出できることが望ましい。また、同時に5箇所の操作入力の座標を検出できなくても、少なくとも2箇所以上の操作入力の座標を検出できればよい。このような場合には、触感提供装置300によって触感を提供できる指先の数に制限が生じるが、そのような制限下において、良好な触感を提供することが可能である。
トップパネル204は、図1において、最も手前に位置する透明なパネルであり、タッチパネル203を操作する際の操作面を有する。操作面は電子機器200の最表面に位置する。
ここでは、タッチパネル203の入力面側にトップパネル204が配設される形態について説明するが、トップパネル204はタッチパネル203と一体的であってもよい。この場合、タッチパネル203の表面がトップパネル204の表面になり、操作面を構築する。また、電子機器200は、トップパネル204を省いた構成であってもよい。この場合も、タッチパネル203の表面が操作面を構築する。
また、タッチパネル203が静電容量型の場合は、トップパネル204の上にタッチパネル203が配設されていてもよい。この場合も、タッチパネル203の表面が操作面を構築する。
図1では、電子機器200のディスプレイパネル202にリンゴの画像が表示されている。
触感提供装置300は、利用者が手に嵌めて利用する装置である。図1では、触感提供装置300を簡略化して示すが、一例として、利用者の右手に触感提供装置300が嵌められている。触感提供装置300は、利用者の手に嵌められた状態で、利用者が電子機器200の操作面に操作入力を行うと、操作入力が行われている位置の画像に応じた触感を提供する。
すなわち、図1に示すように電子機器200にリンゴの画像が表示されている場合に、触感提供装置300を右手に嵌めた利用者が右手の指先でリンゴの画像に触れると、触感提供装置300が振動することにより、リンゴの表面に触れたような触感が提供される。このような触感は、触感提供装置300の指の腹に配置される振動素子を振動させることによって実現される。
次に、図2を用いて、触感提供装置300の詳細について説明する。
図2は、実施の形態の触感提供装置300を示す図である。図2の(A)と(B)は、ともに触感提供装置300を利用者の右手に嵌めた状態を示す。
触感提供装置300は、装着部310、5つの振動素子320A〜320E、5つのセンサ330A〜330E、5つのドライバ340A〜340E、及び制御部350を含む。触感提供装置300は、第1触感提供装置の一例である。
図2には、右手用の触感提供装置300を示すが、触感提供装置300は、左手用であってもよい。左手用の触感提供装置300は、図2に示す右手用の触感提供装置300とは左右対称な構成を有する。
ここで、5つの振動素子320A〜320Eは、配置される場所が異なるだけで、互いに同様の構成を有する。このため、5つの振動素子320A〜320Eを特に区別しない場合には、単に振動素子320と称す。
同様に、5つのセンサ330A〜330Eは、配置される場所が異なるだけで、互いに同様の構成を有する。このため、5つのセンサ330A〜330Eを特に区別しない場合には、単にセンサ330と称す。また、5つのドライバ340A〜340Eは、配置される場所が異なるだけで、互いに同様の構成を有する。このため、5つのドライバ340A〜340Eを特に区別しない場合には、単にドライバ340と称す。
装着部310は、一例として手袋状であり、親指、人差し指、中指、薬指、小指をそれぞれ差し込む指部311A〜311Eを有する。装着部310は、一例として、塩化ビニール等の樹脂製である。なお、指部311A〜311Eを特に区別しない場合には、単に指部311と称す。
装着部310は、振動素子320、センサ330、ドライバ340、及び制御部350を利用者の手に装着するために用いられる。装着部310は、5つの振動素子320と5つのセンサ330とを、それぞれ、5本の指の腹の部分に装着できる形状であればよく、手袋状のものに限られない。
振動素子320A〜320Eは、それぞれ、指部311A、311B、311C、311D、311Eの腹の部分に装着される。振動素子320A〜320Eの平面視でのサイズは、互いに等しい。振動素子320A〜320Eの平面視でのサイズは、指の腹の大きさに略等しいか、あるいは、指の腹よりも小さくてもよい。
振動素子320A〜320Eは、それぞれ、配線301A〜301Eを介してドライバ340A〜340Eに接続され、さらに、配線302A〜302Eを介して制御部350に接続されている。振動素子320A〜320Eは、制御部350が出力する駆動信号に基づき、ドライバ340A〜340Eによって駆動される。
振動素子320A〜320Eの振幅及び周波数は、駆動信号によって決まる。駆動信号の振幅は、電子機器200のディスプレイパネル202に表示される画像が表す物体の触感に応じて設定される。
また、駆動信号の周波数は、可聴域の周波数であってもよいし、超音波帯の周波数であってもよい。ここで、可聴域とは、例えば、約20kHz未満の周波数帯であり、通常、人間が聴き取ることのできる周波数帯をいう。また、超音波帯とは、例えば、約20kHz以上の周波数帯であり、通常、人間が聴き取ることのできない周波数帯をいう。
可聴域又は超音波帯の周波数の駆動信号を用いて振動素子320A〜320Eを駆動することにより、利用者の指先に様々な触感を提供することができる。特に、超音波帯の駆動信号を用いて、超音波帯の固有振動を発生させると、振動素子320A〜320Eと、電子機器200のトップパネル204との間にスクイーズ効果による空気層が介在し、指でトップパネル204の表面をなぞったときの動摩擦係数が低下する。
利用者は、超音波帯の固有振動による振動がオフになると、指先に掛かる動摩擦力の増大を感知し、指先の滑り難さ、あるいは、引っ掛かる感じを知覚することになる。そして、指先が滑りにくくなることにより、動摩擦力が高くなるときに、トップパネル204の表面に凸部が存在するように感じる。また、これとは逆に、超音波帯の固有振動による振動がオンになると、指先に掛かる動摩擦力の減少を感知し、指先の滑り易さ、あるいは、引っ掛かりが無くなる感じを知覚することになる。これにより、凹部の存在を触感として提供できる。
なお、このように人間が摩擦感の変化によって凹凸を知覚することは、例えば、"触感デザインのための印刷物転写法とSticky-band Illusion"(第11回計測自動制御学会システムインテグレーション部門講演会論文集 (SI2010, 仙台)____174-177, 2010-12)に記載されている。また、"Fishbone Tactile Illusion"(日本バーチャルリアリティ学会第10 回大会論文集(2005 年9 月))にも記載されている。
センサ330A〜330Eは、それぞれ、指部311A、311B、311C、311D、311Eの腹の部分において、振動素子320A〜320Eの隣に装着される。センサ330A〜330Eの平面視でのサイズは、振動素子320A〜320Eよりも小さいため、センサ330A〜330Eは、指の腹の中央に配置される振動素子320A〜320Eの脇に配置される。
センサ330A〜330Eは、それぞれ、指部311A〜311Eの先端の腹部が物体に接触しているかどうかを検出する。
センサ330A〜330Eは、それぞれ、触感提供装置300を手に装着した利用者が電子機器200のトップパネル204を操作する際に、指部311A〜311Eがトップパネル204に接触したかどうかを検出するために設けられている。
センサ330A〜330Eの接続は、例えば、接触式又は光学式で、物品への接触を検出できるセンサであればよい。センサ330A〜330Eは、接触を検出すると、接触を検出したことを表す接触検出信号を制御部350に出力する。
センサ330A〜330Eは、配線301A〜301Eと302A〜302Eとによって制御部350に接続されており、接触を検知したセンサ330は、接触したことを表す接触信号を制御部350に出力する。
なお、配線301A〜301Eは、振動素子320A〜320Eとドライバ340A〜340Eとをそれぞれ接続するとともに、センサ330A〜330Eの接続にも用いられる。また、配線302A〜302Eは、ドライバ340A〜340Eと制御部350とを接続するとともに、センサ330A〜330Eの接続にも用いられる。
配線301A〜301Eと302A〜302Eは、振動素子320A〜320E、ドライバ340A〜340E、及び制御部350を接続する配線とは別に、センサ330A〜330Eと制御部350とを接続する配線を内蔵する。
ドライバ340A〜340Eは、それぞれ、配線301A〜301Eを介して、振動素子320A〜320Eに接続される。また、ドライバ340A〜340Eは、配線302A〜302Eを介して、制御部350に接続されている。
ドライバ340A〜340Eは、制御部350が出力する駆動信号に基づき、振動素子320A〜320Eを駆動する。
制御部350は、センサ330A〜330Eのいずれかから接触検出信号が入力されると、トップパネル204に接触した指を表す接触指信号を電子機器200に送信する。制御部350は、第2制御部の一例である。ここでは、ワイヤレス通信によって接触指信号が触感提供装置300から電子機器200に送信されることとする。
また、制御部350は、電子機器200からワイヤレス通信で駆動信号を受信すると、駆動信号を用いて、ドライバ340A〜340Eのうちのいずれかを駆動する。駆動信号は、電子機器200の制御部で生成され、振動素子320A〜320Eの種類、振幅、及び周波数を含む。制御部350によって振動素子320A〜320Eのうちトップパネル204に接触した指に対応する振動素子が駆動されると、利用者の指に、画像に対応する触感が提供される。
次に、図3を用いて、電子機器200及び触感提供装置300のより詳細なハードウェア構成について説明する。
図3は、電子機器200及び触感提供装置300のより詳細なハードウェア構成を示す図である。電子機器200及び触感提供装置300は、触感提供システム100を構築する。
電子機器200は、制御部210を含む。制御部210は、第1制御部の一例であり、CPU(Central Processing Unit)211、ディスプレイインターフェース212、タッチパネルインターフェース213、無線通信インターフェース214、バス215、RAM(Random Access Memory)216、内蔵ストレージ217、記憶媒体218、及び加速度センサ219を含む。なお、ディスプレイインターフェース212及びタッチパネルインターフェース213には、それぞれ、図1に示すディスプレイパネル202及びタッチパネル203が接続される。
CPU211は、電子機器200の動作に伴う処理を行う演算処理部である。CPU211は、バス215によって、ディスプレイインターフェース212、タッチパネルインターフェース213、無線通信インターフェース214、バス215、RAM216、内蔵ストレージ217、記憶媒体218、及び加速度センサ219に接続されている。
RAM216は、CPU211のメインメモリである。RAM216には、例えば、CPU211が実行するプログラムが展開される。内蔵ストレージ217は、電子機器200の動作に必要なデータ又はプログラムを格納するメモリであり、書き換え可能な記憶媒体である。記憶媒体218は、電子機器200の動作に必要なオペレーションシステム(OS)、アプリケーションプログラム、及びデータファイル等を格納するメモリである。加速度センサ219は、電子機器200の向きを検出するセンサである。加速度センサ219が検出する向きにより、CPU211は、ディスプレイパネル202に表示する画像の向きを設定する。
触感提供装置300は、振動素子320A〜320E、センサ330A〜330E、ドライバ340A〜340E、及び制御部350を含む。図3では、振動素子320A〜320Eとセンサ330A〜330Eを簡略化して示すとともに、配線310A〜301E、302A〜302E、及び303A〜303Eとを省略する。
制御部350は、CPUチップ351、無線通信インターフェース352、及びバス353を有する。CPUチップ351は、バス353を通じて、無線通信インターフェース352、センサ330A〜330E、及びドライバ340A〜340Eに接続される。また、CPUチップ351は、ドライバ340A〜340Eを介して、振動素子320A〜320Eにそれぞれ接続される。
このようなハードウェア構成を有する電子機器200と触感提供装置300は、無線通信インターフェース214と352を介してデータ通信を行う。なお、ここでは、電子機器200と触感提供装置300が、無線通信インターフェース214と352を介してデータ通信を行う形態について説明するが、電子機器200と触感提供装置300は、例えば、USB(Universal Serial Bus)ケーブルを介して接続されることにより、有線でのデータ通信を行う構成であってもよい。
図4は、触感提供システム100が用いるデータを示す図である。
図4に示すデータは、電子機器200の記憶媒体218にデータファイルとして記憶されるデータのうちの1つであり、駆動信号を生成する際に用いられるデータである。
図4の(A)に示すデータは、センサ330A〜330EのID(Identification)と、振動素子320A〜320Eとを関連付けたデータである。センサ330A〜330Eには、IDとして、s01〜s05が割り振られている。また、センサ330A〜330EのID(s01〜s05)には、振動素子320A〜320Eが関連付けられている。
電子機器200の制御部210は、触感提供装置300から接触指信号を受信すると、接触指信号に含まれるIDに基づいて、センサ330A〜330Eのいずれがトップパネル204に接触したかを判別する。また、制御部210は、振動素子320A〜320Eを駆動するための駆動信号を図4の(A)に示すデータを用いて生成する。
図4の(B)は、画像ID、座標データ、及び駆動信号データを関連付けたデータである。画像IDは、電子機器200のディスプレイパネル202に表示される画像毎に割り振られている。図4の(B)には、画像IDとしてimg01,img02,・・・を示す。
座標データは、タッチパネル203の平面視での座標をXY座標系で表したものである。例えば、平面視で長方形状のタッチパネル203の四つの頂点のうちの1つをXY座標の原点Oとして定義し、長辺方向にX軸、短辺方向にY軸を設定すればよい。図4の(B)には、座標データとして、C1(X,Y)、C2(X,Y)を示す。
駆動信号データは、トップパネル204の操作面の座標(X,Y)の点が触れられているときに、振動素子320を振動させる振幅Aと周波数fを含む。駆動信号データは、座標データによって表される座標毎に振幅Aと周波数fを有する関数形式のデータである。図4の(B)には、駆動信号データとして、DS1(A1,f1)、DS2(A2、f2)、・・・を示す。
以上のような座標データ及び駆動信号データは、画像ID毎に関連付けられている。従って、画像IDと座標が決まれば、駆動信号データによって振幅と周波数が決まることになる。
図5は、触感提供システム100において、触感提供装置300でトップパネル204を接触した指と、タッチパネル203によって検出される座標とを関連付ける手法を説明する図である。まず、図5の(A)に示す手法について説明する。
電子機器200は、タッチパネル203の左下の頂点203Aを原点とするXY座標を用いて座標を定義している。X軸は、平面視で矩形状のタッチパネル203の長手方向に伸延し、Y軸は短手方向に伸延する。また、トップパネル204を接触した指の種類を判別するための基準点203BをY軸上で、タッチパネル203の短辺の中央の点に定義する。
例えば、タッチパネル203のX軸方向の長さがα(mm)、Y軸方向の長さがβ(mm)であるとすると、原点203Aの座標は(X,Y)=(0,0)であり、基準電203Bの座標は(X,Y)=(0,β/2)である。
ここで、基準点203Bは、タッチパネル203のX軸方向の左端に位置し、触感提供装置300は右手用であるため、図5に示すように触感提供装置300で電子機器200の操作面に接触すると、基準点203Bに最も近い指は親指であり、最も遠い指は小指である。
例えば、右手に触感提供装置300を嵌めた利用者が4本の指で電子機器200の操作面を同時に操作しているとする。図5では、説明の便宜上、センサ330A〜330Eのみを透過的に示し、接触しているものを黒丸、接触していないものを白丸で示す。
すなわち、図5では、親指、人差し指、薬指、及び小指の4本の指による操作入力が同時に行われている。このため、触感提供装置300からセンサ330A,330B、330D、及び330Eの接触指信号が電子機器200に送信されている。
ここで、電子機器200が4つの接触指信号を同時に受信する場合には、タッチパネル203も4つの座標を同時に検出する。
タッチパネル203で検出される4つの座標と、親指、人差し指、薬指、及び小指の位置とは、次のように関連付けられる。
まず、基準点203Bからタッチパネル203で検出される4つの座標までの距離を求める。ここでは、基準点203Bから親指、人差し指、薬指、及び小指までの距離D1、D2、D3、D4を求める。
基準点203Bは、タッチパネル203のX軸方向の左端に位置するため、距離D1〜D4のうち、最も短い距離に対応する位置を親指の位置に決定する。
また、人差し指、薬指、及び小指について、D2<D3<D4の関係が成り立つ場合は、距離の短いものから順に人差し指、薬指、及び小指の位置を決定すればよいが、必ずしもこのような関係が成立しないおそれがある場合は、人差し指、薬指、及び小指の位置を次のように決定すればよい。
制御部210は、親指の座標から、残りの3点の座標までの距離D11、D12、D13を求める。そして、距離D11〜D13のうち、最も短い距離に対応する位置を人差し指の位置に決定する。人差し指、薬指、及び小指のうち、親指に最も近いのは、人差し指だからである。
そして、人差し指の座標を決定すると、制御部210は、人差し指の座標から残りの2点の座標までの距離D21、D22を求める。そして、距離D21、D22のうち、短い方の距離に対応する位置を薬指の位置に決定する。薬指と小指のうち、人差し指に近いのは、薬指だからである。
そして、最後に残った座標を小指の座標として決定すればよい。
以上より、触感提供装置300でトップパネル204を接触した指と、タッチパネル203によって検出される座標とを関連付けることができる。
トップパネル204を接触している4本の指の種類と、タッチパネル203で検出される4つの座標とを関連付けることができれば、図4の(B)のデータを用いて、各指の座標に対応する駆動信号を求めることができる。
従って、制御部210は、上述の処理によって、トップパネル204を接触している指に対応するセンサ330の種類と、タッチパネル203で検出される座標とを関連付け、図4の(B)のデータを用いて、各指の座標に対応する駆動信号を求める。そして、各指に対応するセンサ330に対応する振動素子320を図4の(A)に示すデータに基づいて選択し、振動素子320に対応するドライバ340に駆動信号を送信する。
このような処理により、トップパネル204に接触した指に、画像に対応する触感を提供することができる。
なお、ここでは、右手用の触感提供装置300を用いて、操作入力の行われた座標を特定する手法について説明したが、左手用の触感提供装置300を用いる場合は、基準点203Bの座標を(X,Y)=(α,β/2)に設定すればよい。
また、左手用の触感提供装置300を用いる場合に、基準点203Bの座標を(X,Y)=(0,β/2)に設定し、基準点203Bに最も近い座標を小指から順番に決定してもよい。
また、電子機器200が図5に示す横向きから反時計回りに90度回転された縦向きにされて、右手用の触感提供装置300を用いる場合には、基準点203Bの座標を(X,Y)=(α/2,β)に設定すれば、上述の場合と同様に各指の座標を決定できる。
また、電子機器200が図5に示す横向きから時計回りに90度回転された縦向きにされて、右手用の触感提供装置300を用いる場合には、基準点203Bの座標を(X,Y)=(α/2,0)に設定すれば、上述の場合と同様に各指の操作入力の座標を決定できる。
なお、右手の親指の座標を決定した後に、図5の(B)に示すように、親指の座標を中心とする右回りの円弧500を描き、円弧500の視点500Aから終点500Bにかけて、円弧に近い順に、人差し指、薬指、及び小指を検出するようにしてもよい。このような円弧500の半径は、人間の手の平均的なサイズに基づいて、例えば、5cmから10cm程度に設定すればよい。また、円弧500の変わりに、ベジェ曲線等を当て嵌めて、人差し指、薬指、及び小指を検出してもよい。なお、左手の指を検出する場合は、左手の親指の座標を検出した後に、左回りの円弧を描いて検出を行えばよい。
次に、図6及び図7を用いて、制御部210による操作入力の座標の決定方法について説明する。
図6及び図7は、制御部210が操作入力の座標を決定する処理を示すフローチャートである。
電子機器200の電源が投入されると、又は、アプリケーションプログラムが実行されると、制御部210は、処理をスタートする。
まず、制御部210は、加速度センサ219の出力に基づき、電子機器200の向きを判定する(ステップS1)。電子機器200は、長方形状のディスプレイパネル202のどの辺が表示画像における上方に位置しているかを加速度センサ219の出力に基づいて判定する。
制御部210は、電子機器210の向きは横向きであるかどうかを判定する(ステップS2)。横向きとは、図5に示すように、平面視で長方形状のディスプレイパネル202の長辺が表示画像の上方に位置している場合である。また、図5に示す電子機器200を180度回転させて2本の長辺の位置を入れ替えた状態も横向きである。また、縦向きとは、横向きに対して、90度回転させた向きである。
制御部210は、電子機器210の向きは横向きである(S2:YES)と判定すると、2つの横用基準点を選択する(ステップS3A)。2つの横用基準点とは、図5に示す(X,Y)=(0,β/2)の基準点203Bと、(X,Y)=(α,β/2)の基準点である。
一方、制御部210は、電子機器210の向きは横向きではない(S2:NO)と判定すると、2つの縦用基準点を選択する(ステップS3B)。2つの縦用基準点とは、(X,Y)=(α/2,β)の基準点と、(X,Y)=(α/2,0)の基準点である。
制御部210は、触感提供装置300が右手用かどうかを判定する(ステップS4)。ステップS4の判定は、記憶媒体218に予め触感提供装置300が右手用又は左手用のいずれであるかを表すデータを格納しておき、制御部210がデータを読み出すことによって判定すればよい。
制御部210は、触感提供装置300が右手用である(S4:YES)と判定すると、左側の基準点を選択する(ステップS5A)。左側とはディスプレイパネル202に向かって左側であることを意味する。例えば、図5に示すように電子機器200が横向きの場合は、図5に示す(X,Y)=(0,β/2)の基準点203Bを選択する。
一方、制御部210は、触感提供装置300が右手用ではない(S4:NO)と判定すると、右側の基準点を選択する(ステップS5B)。右側とはディスプレイパネル202に向かって右側であることを意味する。例えば、図5に示すように電子機器200が横向きの場合は、(X,Y)=(α,β/2)の基準点を選択する。
制御部210は、タッチパネル203の出力信号に基づき、座標が検出されているかどうかを判定する(ステップS6)。ステップS6の処理は、座標が検出されるまで繰り返し実行される。
制御部210は、センサ330によって接触が検出されているかどうかを判定する(ステップS7)。ステップS7の処理は、具体的には、制御部210が触感提供装置300からセンサ330の接触指信号を受信しているかどうかで判定すればよい。
なお、制御部210は、センサ330によって接触が検出されていない(S7:NO)と判定すると、フローをステップS6にリターンする。
制御部210は、センサ330によって接触が検出されている(S7:YES)と判定すると、タッチパネル203によって検出される座標の数と、センサ330によって検出される接触の数とが一致するかどうかを判定する(ステップS8)。
なお、制御部210は、数が一致しない(S8:NO)と判定すると、フローをステップS6にリターンする。
制御部210は、数が一致する(S8:YES)と判定すると、タッチパネル203によって検出される複数の座標の各々と、基準点との距離を計算し、基準点に最も近い座標を抽出する(ステップS9)。
制御部210は、センサ330によって接触が検出されている複数の指のうち、指番号nが最も小さい指と、ステップS9で抽出した座標とを関連付ける(ステップS10)。
ここで、指番号とは、一例として、親指から順番に第1指〜第5指まで番号を振った場合に、第n番(n=1〜5)の指を表す番号である。指番号は、図4の(A)に示すセンサ330A〜330EのID(s01〜s05)に対応する。
制御部210は、ステップS9で抽出した座標と、残りの座標との距離を計算し、ステップS9で抽出した座標に一番近い座標を抽出する(ステップS11)。
制御部210は、まだ座標と関連付けられておらず、センサ330で接触が検出されている残りの指のうち、指番号nが一番小さい指をステップS11で抽出した座標と関連付ける(ステップS12)。
制御部210は、まだ座標と関連付けられておらず、センサ330で接触が検出されている指がある場合は、ステップS11及びS12と同様の処理を行うことにより、指と座標の関連づけを行う(ステップS13)。
制御部210は、センサ330で接触が検出されている指の数が2つの場合は、ステップS9〜S12の処理で関連付けの処理が終了するため、ステップS13では特に処理を行わずにステップS14にフローを進める。
制御部210は、座標と関連付けが完了した各指について、座標に対応する駆動信号を取得する(ステップS14)。
制御部210は、駆動信号を触感提供装置300に送信する(ステップS15)。これにより、センサ330で接触が検出された各指の座標に位置する画像に応じた触感が、利用者の指先に提供される。
制御部210は、処理の終了かどうかを判定する(ステップS16)。処理の終了とは、例えば、電子機器200の電源の遮断、又は、アプリケーションプログラムの終了等である。
制御部210は、処理の終了ではない(S16:NO)と判定すると、タッチパネル203が検出する座標の数が変化したかどうかを判定する(ステップS17)。タッチパネル203によって検出される座標の数が変化した場合には、利用者による操作入力の内容が変化しているため、駆動信号を変更する必要があるからである。
制御部210は、タッチパネル203によって検出される座標の数が変化した(S17:YES)と判定すると、フローをステップS6にリターンする。
制御部210は、タッチパネル203によって検出される座標の数が変化していない(S17:NO)と判定すると、タッチパネル203の出力に基づいて座標の移動をトレースし、移動する座標と指との関連づけを維持する(ステップS18)。
制御部210は、ステップS18の処理が終了すると、フローをステップS14にリターンする。これにより、移動後の座標について駆動信号が生成され、画像に応じた触感が提供される。
なお、制御部210は、処理の終了である(S16:YES)と判定すると、一連の処理を終了する。
以上の処理により、触感提供装置300を手に嵌めた利用者の指先には、電子機器200の操作面に接触した位置に存在する画像に応じた触感が提供される。
図8は、触感提供装置300を装着した手が移動された場合に、利用者に提供される触感の変化を説明する図である。
図8の(A)に示す状態では、触感提供装置300を装着した利用者の右手の指先は、電子機器200の操作面に接触している。このため、図8の(A)では、センサ330A〜330Eをすべて黒丸で表す。
このとき、センサ330Bは、リンゴの画像のエッジに差し掛かっているが、センサ330A、330C〜330Eは、リンゴの画像には触れていない。このため、センサ330Bに対応する振動素子320B(図5参照)のみが駆動され、リンゴに触れている触感が利用者に提供される。
また、利用者が右手を移動し、図8の(B)に示すように、センサ330A〜330Cがリンゴに触れて、センサ330D及び330Eがリンゴに触れていない状態になると、センサ330A〜330Cに対応する振動素子320A〜320C(図5参照)が駆動され、リンゴに触れている触感(擬似的な立体感)が利用者に提供される。
以上のように、触感提供システム100を用いると、触感提供装置300を装着した利用者の手の各指先の位置と、指先の位置に対応する画像とに応じて、画像が表す物体を本当に触っているような触感が利用者に提供される。
触感提供システム100は、電子機器200を振動させることなく、触感提供装置300を手に装着することによって、利用者の指先が触れる画像に応じた触感を提供することができる。
また、各指に対応する振動素子320A〜320Eを、互いに異なる駆動信号で駆動できるので、各指によりリアリティの高い触感を提供することができる。
また、利用者の手に装着される触感提供装置300の振動素子320A〜320Eを振動させるため、指先に振動を伝え易い。また、振動素子320A〜320Eの表面を装着部310で覆う場合には、覆う部分に硬い材質のものを用いることにより、振動の振幅の減衰を抑制でき、より強い触感を提供することができる。
また、電子機器200のトップパネル204にヤング率の高い材料を用いることにより、あるいは、トップパネル204とタッチパネル203の間に隙間を設けずに一体化することにより、触感提供装置300がトップパネル204から受ける反力を増大することができ、より強い触感を提供することができる。
以上のような触感提供システム100で表示する画像は、様々な画像であってよい。画像データと駆動信号とを予め用意しておけば、様々な画像に対応する触感を提供できる。例えば、ゲーム等に登場する様々なキャラクタの画像、動植物の写真の画像、美術品等の写真の画像等に対応した駆動信号を準備しておけば、触感提供システム100を様々なシーンで使用することができる。
以上、実施の形態によれば、複数の指に良好な触感を提供できる、触感提供システム100、及び、触感提供装置300を提供することができる。
なお、次のように触感提供装置300を駆動してもよい。図8の(A)から(B)に示す位置に利用者の右手が移動した場合に、図8の(A)の状態では、センサ330Bに対応する振動素子320Bを駆動する駆動信号の振幅を小さくするとともに、センサ330A,330C〜330Eに対応する振動素子320A、320C〜320Eを駆動する駆動信号の振幅を大きくする。
このようにすれば、人差し指に掛かる動摩擦力が大きくなり、親指、中指、薬指、小指にかかる動摩擦力は小さくなる。
そして、利用者が右手を移動し、図8の(B)に示すように、センサ330A〜330Cがリンゴに触れて、センサ330D及び330Eがリンゴに触れていない状態になったときに、センサ330A〜330Cに対応する振動素子320A〜330Cを駆動する駆動信号の振幅を小さくするとともに、センサ330D及び330Eに対応する振動素子320D及び320Eを駆動する駆動信号の振幅を大きくする。
このように駆動すると、親指と中指には、動摩擦力が小さい状態から大きい状態に変化するため、リンゴのエッジにさしかかったときに、凸感を提供することができる。
特に、振動素子320A〜320Eに超音波帯の固有振動が生じるように駆動すれば、スクイーズ効果によって、このような凸感をより顕著なものとして提供することができる。
また、このような振幅の変化は、上述とは逆のパターンで行ってもよい。
ここで、図9を用いて、トップパネル204に接触した指と、タッチパネル203によって検出される座標とを関連付ける他の手法について説明する。
図9は、触感提供システム100において、触感提供装置300でトップパネル204に接触した指と、タッチパネル203によって検出される座標とを関連付ける他の手法を説明する図である。
電子機器200は、タッチパネル203の左下の頂点203Aを原点とするXY座標を用いて座標を定義している。X軸は、平面視で矩形状のタッチパネル203の長手方向に伸延し、Y軸は短手方向に伸延する。また、トップパネル204を接触した指の種類を判別するための基準点203BをY軸上で、タッチパネル203の短辺の中央の点に定義する。
例えば、タッチパネル203のX軸方向の長さがα(mm)、Y軸方向の長さがβ(mm)であるとすると、原点203Aの座標は(X,Y)=(0,0)であり、基準電203Bの座標は(X,Y)=(0,β/2)である。
ここで、基準点203Bは、タッチパネル203のX軸方向の左端に位置し、触感提供装置300は右手用であるため、図9に示すように触感提供装置300で電子機器200の操作面に接触すると、基準点203Bに最も近い指は親指であり、最も遠い指は小指である。
例えば、右手に触感提供装置300を嵌めた利用者が4本の指で電子機器200の操作面を同時に操作しているとする。図9では、説明の便宜上、センサ330A〜330Eのみを透過的に示し、接触しているものを黒丸、接触していないものを白丸で示す。
すなわち、図9では、親指、人差し指、薬指、及び小指の4本の指による操作入力が同時に行われている。このため、触感提供装置300からセンサ330A,330B、330D、及び330Eの接触指信号が電子機器200に送信されている。
ここで、電子機器200が4つの接触指信号を同時に受信する場合には、タッチパネル203も4つの座標を同時に検出する。
タッチパネル203で検出される4つの座標と、親指、人差し指、薬指、及び小指の位置とは、次のように関連付けられる。
まず、基準点203Bからタッチパネル203で検出される4つの座標までの距離を求める。ここでは、距離の短いものから順にD1、D2、D3、D4とする。すなわち、D1<D2<D3<D4の関係が成立する。
このため、基準点203Bから最も近い座標が親指の座標であることが分かり、人差し指、薬指、小指の順に基準点203Bから遠い座標になることが分かる。
以上より、触感提供装置300でトップパネル204を接触した指と、タッチパネル203によって検出される座標とを関連付けることができる。
トップパネル204を接触している4本の指の種類と、タッチパネル203で検出される4つの座標とを関連付けることができれば、図4の(B)のデータを用いて、各指の座標に対応する駆動信号を求めることができる。
従って、制御部210は、上述の処理によって、トップパネル204を接触している指に対応するセンサ330の種類と、タッチパネル203で検出される座標とを関連付け、図4の(B)のデータを用いて、各指の座標に対応する駆動信号を求める。そして、各指に対応するセンサ330に対応する振動素子320を図4の(A)に示すデータに基づいて選択し、振動素子320に対応するドライバ340に駆動信号を送信する。
このような処理により、トップパネル204に接触した指に、画像に対応する触感を提供することができる。
以上、図9に示す形態によれば、複数の指に良好な触感を提供できる、触感提供システム100、及び、触感提供装置300を提供することができる。
図10は、実施の形態の変形例による触感提供システム100Aを示す図である。触感提供システム100Aは、電子機器200と触感提供装置300R及び300Lとを含む。触感提供装置300Rは右手用であり、触感提供装置300Lは左手用である。
触感提供装置300Rは、振動素子320RA〜320REと、センサ330RA〜330REとを含む。触感提供装置300Rは、この他に、装着部310、ドライバ340A〜340E、及び制御部350(図2参照)とそれぞれ同様の装着部、ドライバ、及び制御部を含むが、図10では省略する。
振動素子320RA〜320RE、及び、センサ330RA〜330REは、それぞれ、図2及び図5に示す振動素子320A〜320E、及び、センサ330A〜330Eと同様であるが、振動素子320RAは、振動素子320Aよりも平面視でのサイズが大きい。すなわち、振動素子320RAの平面視でのサイズは、振動素子320RB〜320REよりも大きい。
触感提供装置300Lは、振動素子320LA〜320LEと、センサ330LA〜330LEとを含む。触感提供装置300Rは、右手用の触感提供装置300Rを左手用にした構成を有するため、触感提供装置300Rとは左右対称な構成を有する。
振動素子320LB〜320LEの平面視でのサイズは、振動素子320RB〜320REと等しい。振動素子320LAのサイズは、振動素子320LB〜320LEよりも大きいが、振動素子320RAよりも小さい。それ以外は、触感提供装置300Lは、触感提供装置300Rと同様の構成を有する。
図10に示すように、利用者が両手にそれぞれ触感提供装置300R及び300Lを装着して、電子機器200の操作面に両手で操作入力を行うと、右手の親指と左手の親指がタッチパネル203の中央部で交差し、右手の親指の方が左手の親指よりも左側に位置する場合がある。また、右手の親指が、左手の人差し指よりも左側に位置する場合があり得るし、この逆もあり得る。
このような場合に、右手の親指による操作入力と、左手の親指による操作入力とを判別し易くするために、触感提供システム100Aは、右手の親指に対応する振動素子320RAと、左手の親指に対応する振動素子320LAと、両手のその他の指に対応する振動素子320RB〜320RE及び320LB〜320LEの平面視でのサイズが異なるようにしている。すなわち、振動素子320RA〜RE及び320LA〜320LEは、平面視でのサイズが異なる3種類の振動素子によって実現されている。
このように平面視でのサイズが異なる振動素子320RAと、振動素子320LAと、振動素子320RB〜320RE及び320LB〜320LEとを用いるのは、次のような理由による。
振動素子320RA〜RE及び320LA〜320LEは、装着部310(図2参照)の指の腹の中央に配置され、指の腹のサイズと略等しいサイズを有するため、利用者がタッチパネル203を操作する際に、タッチパネル203に接触する面積は、振動素子320RA〜RE及び320LA〜320LEの平面視でのサイズによって決まるからである。
また、タッチパネル203は、操作入力の座標を検出するときに、指先が接触する面積を計算するからである。
従って、右手の親指に対応する振動素子320RAと、左手の親指に対応する振動素子320LAと、両手のその他の指に対応する振動素子320RB〜320RE及び320LB〜320LEの平面視でのサイズが異なるようにしておけば、右手の親指、左手の親指、及び両手のその他の指による操作入力を、面積によって判別できるからである。
このような振動素子320RAと、320LAと、320RB〜320RE及び320LBとを用いれば、図10に示すように、利用者が電子機器200の操作面に両手で操作入力を行い、右手の親指と左手の親指が交差しても、タッチパネル203で検出される面積の情報に基づいて、右手の親指と左手の親指の座標を判別できる。
そして、右手のその他の指の座標については、右手の親指の座標を用いて、図5を用いて説明した手法と同様の手法によって、座標を検出することができる。この際に、基準点203Rを用いればよい。基準点203Rは、平面視でタッチパネル203の右端側で、Y軸方向の長さの中央よりもY軸負方向側に位置する。
また、左手の親指以外の指についても同様の手法で座標を検出することができる。この際に、基準点203Lを用いればよい。基準点203Lは、平面視でタッチパネル203の左端側で、Y軸方向の長さの中央よりもY軸負方向側に位置する。
このため、図10に示すように、利用者が電子機器200の操作面に両手で操作入力を行う場合であっても、各指と、座標とを関連付けることができ、各指に対応する振動素子320RA〜320RE及び320LA〜320LEに、画像に対応する駆動信号を送信することができる。
この結果、図10に示すように、利用者が電子機器200の操作面に両手で操作入力を行う場合に、利用者の各指に触感を提供することができる。
以上、実施の形態の変形例によれば、複数の指に良好な触感を提供できる、触感提供システム100A、及び、触感提供装置300R及び300Lを提供することができる。
なお、以上では、右手の親指に対応する振動素子320RAと、左手の親指に対応する振動素子320LAと、両手のその他の指に対応する振動素子320RB〜320RE及び320LB〜320LEの平面視でのサイズが異なる形態について説明した。しかしながら、さらに、両手のその他の指に対応する振動素子320RB〜320RE及び320LB〜320LEについても、平面視でのサイズが異なるようにしてもよい。例えば、タッチパネル203が10箇所への同時の操作入力を判別できる場合には、全ての指に対応する振動素子320RA〜RE及び320LA〜320LEの平面視でのサイズが異なるようにしてもよい。
以上、本発明の例示的な実施の形態の触感提供システム、及び、触感提供装置について説明したが、本発明は、具体的に開示された実施の形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。
100、100A 触感提供システム
200 電子機器
201 筐体
202 ディスプレイパネル
203 タッチパネル
204 トップパネル
300 触感提供装置
310 装着部
320、320A〜320E 振動素子
330、330A〜330E センサ
340、340A〜340E ドライバ
350 制御部
300R、300L 触感提供装置
320RA〜320RE、320LA〜320LE 振動素子
330RA〜330RE、330LA〜330LE センサ

Claims (7)

  1. 電子機器と、第1触感提供装置とを含む触感提供システムであって、
    前記電子機器は、
    表示部と、
    前記表示部の表示面側に設けられ、操作面を有するトップパネルと、
    前記操作面への操作入力の位置の座標を検出する座標検出部と、
    第1制御部と
    を有し、
    前記第1触感提供装置は、
    複数の指に装着される装着部と、
    前記装着部が装着される複数の指の腹に対応する複数の部分に、それぞれ配設される複数の振動素子と、
    前記複数の指のそれぞれの前記操作面への接触を検出するセンサと、
    前記第1制御部とデータ通信可能な第2制御部と
    を有し、
    前記第1制御部は、前記第2制御部から前記センサによって前記指の接触が検出されたことを表す通知信号を受信すると、前記センサで接触が検出される指を表すデータと、前記座標検出部によって検出される座標とに基づき、前記操作面に接触している指の種類と当該指が前記操作面に接触する座標とを求めるとともに、前記指を表すデータと、当該指が前記操作面に接触する座標と、前記表示部に表示される画像とに応じた触感を表す駆動信号を生成し、
    前記第2制御部は、前記駆動信号を用いて、前記振動素子を駆動する、触感提供システム。
  2. 前記第1制御部は、前記センサによって接触が検出される指が複数ある場合に、前記操作面の特定の基準座標と、前記センサで接触が検出される指を表すデータと、前記座標検出部によって検出される前記複数の座標との位置関係に基づいて、前記操作面に接触している指の種類と当該指が前記操作面に接触する座標とを求める、請求項1記載の触感提供システム。
  3. 前記基準座標は、平面視で前記表示部の左端側又は右端側に位置し、
    前記第1制御部は、前記基準座標と、前記センサで接触が検出される指を表すデータと、前記座標検出部によって検出される前記複数の座標との間の距離に基づいて、前記操作面に接触している指の種類を特定する、請求項2記載の触感提供システム。
  4. 前記第1制御部は、前記基準座標と、前記座標検出部によって検出される前記複数の座標との間の距離に基づいて、前記基準座標に最も近い指の種類を特定した後に、当該特定した指の座標と、前記座標検出部によって検出される残りの座標との間の距離に基づいて、前記特定した指の隣で前記センサによって接触が検出される指の種類を特定する、請求項3記載の触感提供システム。
  5. 前記第1制御部は、前記基準座標と、前記座標検出部によって検出される前記複数の座標との間の距離に基づいて、前記基準座標に最も近い指の種類を特定した後に、当該特定した指の座標と、前記座標検出部によって検出される残りの座標とを用いて所定の曲線を求め、当該曲線に沿って前記特定した指の隣で前記センサによって接触が検出される指の種類を特定する、請求項3記載の触感提供システム。
  6. 前記触感提供システムは、第2触感提供装置をさらに含み、前記第1触感提供装置及び前記第2触感提供装置は、それぞれ、利用者の右手と左手に装着されており、
    前記第1触感提供装置の親指に対応する振動素子と、前記第2触感提供装置の親指に対応する振動素子とは、平面視でのサイズが異なり、
    前記第1制御部は、前記座標検出部によって検出される面積を表すデータに基づき、前記第1触感提供装置の親指による操作入力と、前記第2触感提供装置の親指による操作入力とを判別する、請求項1乃至5のいずれか一項記載の触感提供システム。
  7. 表示部と、前記表示部の表示面側に設けられ、操作面を有するトップパネルと、前記操作面への操作入力の位置の座標を検出する座標検出部とを含む電子機器の前記操作面に操作入力を行う指に装着され、前記操作面に触れる指先に触感を提供する触感提供装置であって、
    複数の指に装着される装着部と、
    前記装着部が装着される複数の指の腹に対応する複数の部分に、それぞれ配設される複数の振動素子と、
    前記複数の指のそれぞれの前記操作面への接触を検出するセンサと、
    前記センサで接触が検出される指を表すデータと、前記座標検出部によって検出される座標とに基づいて前記電子機器で求められる、前記操作面に接触している指の種類を表すデータ、及び、当該指が前記操作面に接触する座標と、前記表示部に表示される画像とに応じた触感を表す駆動信号を用いて、前記振動素子を駆動する、制御部と
    を含む、触感提供装置。
JP2016562165A 2014-12-05 2014-12-05 触感提供システム、及び、触感提供装置 Expired - Fee Related JP6341294B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/082238 WO2016088246A1 (ja) 2014-12-05 2014-12-05 触感提供システム、及び、触感提供装置

Publications (2)

Publication Number Publication Date
JPWO2016088246A1 JPWO2016088246A1 (ja) 2017-09-07
JP6341294B2 true JP6341294B2 (ja) 2018-06-13

Family

ID=56091218

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016562165A Expired - Fee Related JP6341294B2 (ja) 2014-12-05 2014-12-05 触感提供システム、及び、触感提供装置

Country Status (3)

Country Link
US (1) US10488928B2 (ja)
JP (1) JP6341294B2 (ja)
WO (1) WO2016088246A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3245648B1 (en) * 2015-01-14 2019-05-22 Taction Enterprises Inc. Arrangement for producing musical data
WO2018008217A1 (ja) * 2016-07-07 2018-01-11 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
KR102591807B1 (ko) * 2016-11-21 2023-10-23 한국전자통신연구원 촉감자극을 생성하는 방법 및 장치
US10255894B1 (en) * 2016-12-16 2019-04-09 Mark J. BONNER Wearable electronic musical instrument
US10573285B1 (en) * 2017-01-30 2020-02-25 Mark J. BONNER Portable electronic musical system
US10845876B2 (en) * 2017-09-27 2020-11-24 Contact Control Interfaces, LLC Hand interface device utilizing haptic force gradient generation via the alignment of fingertip haptic units
US10877557B2 (en) * 2017-09-29 2020-12-29 Apple Inc. IMU-based glove
US10583359B2 (en) * 2017-12-28 2020-03-10 Immersion Corporation Systems and methods for providing haptic effects related to touching and grasping a virtual object
US10914567B2 (en) 2018-02-23 2021-02-09 Apple Inc. Magnetic sensor based proximity sensing
JP2021116491A (ja) * 2020-01-27 2021-08-10 富士フイルムビジネスイノベーション株式会社 触覚提示装置
USD893485S1 (en) * 2020-03-22 2020-08-18 Elliott Bohler Wearable interface
CN112603275B (zh) * 2020-12-28 2022-07-29 中科彭州智慧产业创新中心有限公司 基于超声波传感器的双手寸口脉搏波检测设备及方法

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4414537A (en) * 1981-09-15 1983-11-08 Bell Telephone Laboratories, Incorporated Digital data entry glove interface device
US5119709A (en) * 1989-04-14 1992-06-09 Yamaha Corporation Initial touch responsive musical tone control device
JP2500544B2 (ja) * 1991-05-30 1996-05-29 ヤマハ株式会社 楽音制御装置
US5571020A (en) * 1991-10-03 1996-11-05 Troudet; Farideh Education device for assisting in the learning of keyboarding
JP2698320B2 (ja) * 1993-08-31 1998-01-19 日本電信電話株式会社 常装着型入力システム、常装着型意図伝達システム、常装着型音楽用キーボードシステム及び常装着型点字入出力システム
WO1997020305A1 (en) * 1995-11-30 1997-06-05 Virtual Technologies, Inc. Tactile feedback man-machine interface device
US7012593B2 (en) * 2001-06-15 2006-03-14 Samsung Electronics Co., Ltd. Glove-type data input device and sensing method thereof
GB0230360D0 (en) * 2002-12-27 2003-02-05 Koninkl Philips Electronics Nv Object identifying method and apparatus
US6734349B1 (en) * 2003-03-21 2004-05-11 Conrad Adams Fingertip musical tap assembly
US7042438B2 (en) * 2003-09-06 2006-05-09 Mcrae Michael William Hand manipulated data apparatus for computers and video games
US20130218456A1 (en) * 2006-02-16 2013-08-22 John S. Zelek Wearable tactile navigation system
US20080120029A1 (en) * 2006-02-16 2008-05-22 Zelek John S Wearable tactile navigation system
US7381884B1 (en) * 2006-03-03 2008-06-03 Yourik Atakhanian Sound generating hand wear
US7842879B1 (en) * 2006-06-09 2010-11-30 Paul Gregory Carter Touch sensitive impact controlled electronic signal transfer device
CN101109881A (zh) * 2007-07-06 2008-01-23 昆山龙腾光电有限公司 一种液晶显示面板及其制造方法
US20110210931A1 (en) * 2007-08-19 2011-09-01 Ringbow Ltd. Finger-worn device and interaction methods and communication methods
EP2587345A3 (en) * 2007-08-19 2013-06-26 Ringbow Ltd. Finger-worn devices and related methods of use
CN101168098B (zh) * 2007-11-19 2011-02-02 煜日升电子(深圳)有限公司 指琴
JP5172485B2 (ja) 2008-06-10 2013-03-27 シャープ株式会社 入力装置及び入力装置の制御方法
JP2012503244A (ja) 2008-09-20 2012-02-02 リングボー,エルティーディー. 指に装着される装置および相互作用方法および通信方法
US20100134327A1 (en) * 2008-11-28 2010-06-03 Dinh Vincent Vinh Wireless haptic glove for language and information transference
US8093997B2 (en) * 2009-03-23 2012-01-10 Isaac Olney White System and apparatus for silent pulsating communications
JP5254117B2 (ja) * 2009-04-20 2013-08-07 シャープ株式会社 入力器具、その制御方法、その制御プログラムおよびコンピュータ読み取り可能な記録媒体、ならびに、タッチパネル入力システム
FR2945642A1 (fr) 2009-05-15 2010-11-19 Alcatel Lucent Gant et ecran tactile permettant de lire des informations par le toucher
JP2011048669A (ja) * 2009-08-27 2011-03-10 Kyocera Corp 入力装置
US8362350B2 (en) * 2009-12-07 2013-01-29 Neven Kockovic Wearable trigger electronic percussion music system
US20130135223A1 (en) * 2009-12-13 2013-05-30 Ringbow Ltd. Finger-worn input devices and methods of use
TW201132388A (en) * 2010-03-23 2011-10-01 Hon Hai Prec Ind Co Ltd Game glove
US20120327006A1 (en) * 2010-05-21 2012-12-27 Disney Enterprises, Inc. Using tactile feedback to provide spatial awareness
US9501145B2 (en) * 2010-05-21 2016-11-22 Disney Enterprises, Inc. Electrovibration for touch surfaces
JP2012128676A (ja) * 2010-12-15 2012-07-05 Fujitsu Component Ltd タッチパネル
US9104271B1 (en) * 2011-06-03 2015-08-11 Richard Adams Gloved human-machine interface
US9563297B2 (en) * 2012-03-02 2017-02-07 Nec Corporation Display device and operating method thereof
JP2014081716A (ja) * 2012-10-15 2014-05-08 Denso Corp フォースフィードバック装置およびユーザインターフェースシステム
US9122330B2 (en) * 2012-11-19 2015-09-01 Disney Enterprises, Inc. Controlling a user's tactile perception in a dynamic physical environment
US9690378B2 (en) * 2013-01-30 2017-06-27 Olympus Corporation Operation apparatus
US10071015B2 (en) * 2013-04-18 2018-09-11 Uwm Research Foundation, Inc. Wearable device for improving tactile sensitivity
US9390630B2 (en) * 2013-05-03 2016-07-12 John James Daniels Accelerated learning, entertainment and cognitive therapy using augmented reality comprising combined haptic, auditory, and visual stimulation
US9804675B2 (en) * 2013-06-27 2017-10-31 Elwha Llc Tactile feedback generated by non-linear interaction of surface acoustic waves
US20150003204A1 (en) * 2013-06-27 2015-01-01 Elwha Llc Tactile feedback in a two or three dimensional airspace
GB2516634A (en) * 2013-07-26 2015-02-04 Sony Corp A Method, Device and Software
US9600072B2 (en) * 2013-08-27 2017-03-21 Prakash C R J Naidu Wearable tactile display
US9189932B2 (en) * 2013-11-06 2015-11-17 Andrew Kerdemelidis Haptic notification apparatus and method

Also Published As

Publication number Publication date
JPWO2016088246A1 (ja) 2017-09-07
US10488928B2 (en) 2019-11-26
US20170262060A1 (en) 2017-09-14
WO2016088246A1 (ja) 2016-06-09

Similar Documents

Publication Publication Date Title
JP6341294B2 (ja) 触感提供システム、及び、触感提供装置
US11360558B2 (en) Computer systems with finger devices
US10579151B2 (en) Controller for finger gesture recognition and method for recognizing finger gesture
KR102257605B1 (ko) 3차원 콘텍스트 피드백
US9405369B2 (en) Simulation of tangible user interface interactions and gestures using array of haptic cells
TWI492146B (zh) 以組合資料爲基礎之虛擬手
CN104704451B (zh) 提供用于定位和数据输入的触觉反馈
Cheng et al. iGrasp: grasp-based adaptive keyboard for mobile devices
US20120327006A1 (en) Using tactile feedback to provide spatial awareness
US20080122797A1 (en) Apparatus, method, and medium for outputting tactile feedback on display device
JP2018022489A (ja) 変形及び触覚効果のためのシステム及び方法
KR102047689B1 (ko) 택타일 사용자 인터페이스의 미니-맵을 제공하는 터치 센서티브 디바이스 및 제어 방법
CN108475123A (zh) 电子装置及其控制方法
KR20160004202A (ko) 다중 출력 정전 햅틱 효과를 위한 시스템 및 방법
JP6319328B2 (ja) 教育用触感提供装置、及び、システム
CN104714687A (zh) 用于触觉显示参数的光学传输的系统和方法
US20130285921A1 (en) Systems and Methods for a Rollable Illumination Device
JP2014222492A (ja) 描画装置及び描画システム
KR101360980B1 (ko) 필기구형 전자 입력장치
US20160231819A1 (en) Wearable system input device
WO2015121972A1 (ja) 駆動制御装置、電子機器、システム、及び駆動制御方法
WO2022226438A1 (en) User interfaces for single-handed mobile device control
JP6264003B2 (ja) 座標入力システム、座標指示部、座標入力部、座標入力システムの制御方法、及びプログラム
JP6904222B2 (ja) 駆動制御装置、電子機器、及び、駆動制御方法
US20240103626A1 (en) Haptic ring

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180417

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180430

R150 Certificate of patent or registration of utility model

Ref document number: 6341294

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees