JP2011154559A - 触感呈示装置および触感呈示方法 - Google Patents

触感呈示装置および触感呈示方法 Download PDF

Info

Publication number
JP2011154559A
JP2011154559A JP2010015980A JP2010015980A JP2011154559A JP 2011154559 A JP2011154559 A JP 2011154559A JP 2010015980 A JP2010015980 A JP 2010015980A JP 2010015980 A JP2010015980 A JP 2010015980A JP 2011154559 A JP2011154559 A JP 2011154559A
Authority
JP
Japan
Prior art keywords
tactile sensation
user interface
definition file
input
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010015980A
Other languages
English (en)
Other versions
JP5635274B2 (ja
Inventor
Kenta Kinoshita
健太 木下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2010015980A priority Critical patent/JP5635274B2/ja
Priority to CN201180007610.9A priority patent/CN102741789B/zh
Priority to PCT/JP2011/000332 priority patent/WO2011093045A1/ja
Priority to US13/575,592 priority patent/US10627903B2/en
Publication of JP2011154559A publication Critical patent/JP2011154559A/ja
Application granted granted Critical
Publication of JP5635274B2 publication Critical patent/JP5635274B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • G06F3/04142Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position the force sensing means being located peripherally, e.g. disposed at the corners or at the side of a touch sensing plate

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】ユーザインタフェースを構成する既存のアプリケーションを流用することにより入力に対する触感を呈示する装置であって、操作者に与える操作感を向上する触感呈示装置および触感呈示方法を提供する。
【解決手段】触感呈示装置1は、タッチセンサ40と、タッチ面を振動させる触感呈示部50と、表示部30と、ユーザインタフェースの定義ファイルであって、そのユーザインタフェースを構成するオブジェクトに応じて呈示する触感の情報を含む定義ファイルを記憶する記憶部70と、定義ファイルを解析することによりその定義ファイルで定義されるユーザインタフェースを設定するとともに、所定の処理を実行するオブジェクトに対する入力を検知すると、タッチ面を押圧している押圧対象に対してそのオブジェクトに応じた触感を呈示するように触感呈示部50を制御する制御部10と、を備えることを特徴とする。
【選択図】図1

Description

本発明は、タッチセンサに対する入力を受け付けて触感を呈示する装置、および当該装置により触感を呈示する方法に関するものである。
近年、携帯電話やゲーム機等の携帯端末において、ユーザによる操作入力を受け付ける操作部やスイッチ等の入力装置として、タッチパネルやタッチスイッチ等のタッチセンサを備える入力装置が採用されているものがある。携帯端末以外に、電卓、券売機等の情報機器や、電子レンジ、テレビ、照明器具等の家電製品、産業用機器(FA機器)等にも、タッチセンサを備える入力装置は広く使用されている。
このようなタッチセンサには、抵抗膜方式、静電容量方式、光学式等の種々の方式が知られている。しかしながら、いずれの方式のタッチセンサにおいても、指やスタイラスペンによるタッチ入力を受け付けるものであって、タッチセンサ自体は、タッチされても、押しボタンスイッチのようには物理的に変位しない。
このため、タッチセンサがタッチ入力を受け付けても、操作者は入力に対するフィードバックを得ることができない。操作者は、操作入力を行う際の操作感が得られないため、入力操作が端末に受け付けられたか否かを確認する術がなく、同じ位置を何度もタッチしてしまう等の繰り返し入力が生じ易く、操作者にストレスを与える場合がある。
このような不要な繰り返し入力を防止するものとして、例えば、タッチ入力を受け付けて、音を鳴らすようにしたものが知られている。また、例えば、当該入力位置に対応して表示部に画像表示されている入力ボタン等の入力用ユーザインタフェースオブジェクト(以下、単に「オブジェクト」と記す)の表示色を変更するなど、表示態様を変更するようにしたものも知られている。これらのようなものを使用すれば、操作者は、聴覚や視覚によって、自己の入力操作の受付状況を確認することができる。
しかしながら、聴覚に働きかけるフィードバック方法の場合は、騒音環境下での確認が困難になるとともに、使用機器がマナーモード等の消音状態にあるときは、対応できない。また、視覚に働きかけるフィードバック方法の場合は、表示部に表示されているオブジェクトのサイズが小さいと、特に指で入力を行う際に、指の下にオブジェクトが隠れて表示態様の変化が確認できない場合がある。
そこで、聴覚や視覚によらず、タッチセンサが入力を受け付けると、タッチセンサを振動させて、操作者の指先に触感を呈示する装置によるフィードバック方法も提案されている(例えば、特許文献1および特許文献2参照)。
特開2003−288158号公報 特開2008−130055号公報
上記特許文献1および特許文献2に開示の装置によれば、タッチセンサに対する操作入力を受け付けた際に、操作者の指先などに、振動による触感を呈示することができる。したがって、このような装置を用いて入力を行う操作者は、タッチセンサに対して行った操作入力が装置に適正に受け付けられたことを、触覚により認識することができる。
しかしながら、このような装置を用いて操作入力を受け付けた際に触感を呈示するためには、所定の条件に応じて触感を呈示する処理が、予めアプリケーションソフトウェア(以下、単に「アプリケーション」と記す)に組み込まれている必要がある。すなわち、上述の装置においては、振動を発生させることを予め想定して開発されたアプリケーションを使用すれば、所定の条件に応じて触感を呈示することができる。しかしながら、上述の装置に、振動を発生させることを想定していないアプリケーションをそのまま適用しても、適切に触感を呈示することはできない。
したがって、上述したような装置において所定の条件に応じて適切に触感を呈示するためには、新たにアプリケーションを開発するか、あるいは既存のアプリケーションに対して、触感を呈示するための処理を追加する等の改変を加える必要がある。
具体的には、触感呈示装置の表示部に画像表示されるキーまたはボタン等のオブジェクトの位置に対応するタッチセンサに対して入力がなされた際に、当該装置が所定の触感を呈示するための処理を追加する必要がある。また、表示部にキーまたはボタン等のオブジェクトが画像表示されていない位置に対応するタッチセンサに対して入力がなされても、装置が触感を呈示しないようにする必要もある。
このように触感の呈示の有無を制御すれば、タッチセンサおよびGUI(Graphical User Interface)を入出力に用いたユーザインタフェースによって操作入力を受け付けた際に、操作者の指先などに、振動による触感を呈示することができる。すなわち、画像表示したキーまたはボタン等のオブジェクトに対する入力により、当該入力を受け付けたことを、触感を呈示することにより操作者に報知することができる。一方、キーまたはボタン等のオブジェクトのない位置に対する入力がなされても、フィードバックが発生しないようにできる。
このような制御を行う場合、触感呈示装置は、一般的に、タッチセンサに対して入力がなされた際のGUIの状態、すなわち表示部に表示されるキーまたはボタン等のオブジェクトの状態を管理しているアプリケーションと連携することが必要になる。
以下、触感呈示装置において、触感を呈示する際に想定される処理について説明する。
図11は、想定される触感呈示装置の概略構成を示すブロック図である。図11に示すように、触感呈示装置100は、制御部110と、アプリケーション実行部120と、表示部130と、タッチセンサ140と、触感呈示部150と、記憶部160と、を備えている。また、制御部110は、表示制御部112と、触感制御部114とを含んでいる。さらに、記憶部160には、アプリケーション記憶領域162が設けてある。
制御部110は、触感呈示装置100の各機能部をはじめとして触感呈示装置100の全体を制御する。アプリケーション実行部120は、記憶部160のアプリケーション記憶領域162から各種のアプリケーションを読み込んで、当該アプリケーションに基づく処理を実行する。なお、以下の説明においては、アプリケーション実行部120が実行しているアプリケーションは、表示部130に表示したオブジェクトの位置に対応するタッチセンサ140に入力があった際に、所定の触感を呈示する処理が予め追加されている(組み込まれている)ものとする。
表示部130は、液晶ディスプレイや有機ELディスプレイ等で構成し、入力を行うためのキーまたはボタン等のオブジェクトの画像を表示する。タッチセンサ140は、通常は表示部130の前面に配置して、表示部130に表示したオブジェクトに対する操作者の指等によるタッチ入力を、対応するタッチセンサ140のタッチ面により受け付ける。また、タッチセンサ140は、タッチ面により受け付けたタッチ入力の位置を、制御部110を介してアプリケーション実行部120に通知する。触感呈示部150は、小型の偏心モータや圧電素子等で構成し、タッチセンサ140のタッチ面を振動させることにより、操作者の指等のタッチ対象に触感を呈示する。
制御部110の表示制御部112は、アプリケーション実行部120から供給される表示データに基づいて、表示部130にオブジェクトなどの画像を表示したり、あるいは当該画像の表示態様を変更したりする等、表示に係る制御を行う。触感制御部114は、アプリケーション実行部120の指示に基づいて、触感呈示部150が所定の条件に基づく振動パターンを呈示するように制御する。
図12は、触感呈示装置100による、入力に基づいて触感を呈示する動作の例を概略的に説明するフローチャートである。
タッチセンサ140のタッチ面に対するタッチ入力が検知された時点で、触感呈示装置100による触感の呈示を制御する動作は開始する。本動作が開始すると、まず、タッチセンサ140は、タッチ面に対するタッチ入力の位置をアプリケーション実行部120に通知する(ステップS100)。この通知を受けると、アプリケーション実行部120は、当該入力位置が表示部130にキーまたはボタン等のオブジェクトを画像表示している位置に対応するか否かを判定する(ステップS102)。ステップS102において、入力位置が表示部130にキーまたはボタン等のオブジェクトの画像を表示している位置に対応しない場合、アプリケーション実行部120は、表示または触感に関する指示は行わずに動作を終了する。この場合、触感は呈示されない。
一方、ステップS102において、入力の位置がキーまたはボタン等のオブジェクトの画像を表示している位置に対応する場合、アプリケーション実行部120は、表示制御部112に対して、入力を受け付けた旨の表示を行うための表示データを供給する。ここで、入力を受け付けた旨の表示とは、例えばキーまたはボタン等のオブジェクトを一瞬だけ反転表示したり、キーまたはボタン等が押下された状態を示す画像を表示するなど、操作者が視認できるような表示にすることである。このような表示データをアプリケーション実行部120から受信したら、表示制御部112は、当該表示データに基づいて、表示部130に表示される画像を変更する(ステップS104)。
続いて、アプリケーション実行部120は、触感制御部114に対して、入力を受け付けた旨を操作者に報知するため、所定の触感を呈示するように指示する。ここで、所定の触感の呈示とは、タッチセンサ140のタッチ面を一瞬だけ振動させるなど、操作者の触覚により認識できるフィードバックを提供することである。このような触感の呈示の指示を受けたら、触感制御部114は、当該指示に従って触感呈示部150が所定の振動パターンを呈示するように制御する。これにより、触感呈示部150は、タッチセンサ140のタッチ面をタッチしているタッチ対象に対して所定の振動パターンによる触感を呈示する(ステップS106)。このような処理を行うことで、触感呈示装置100は、入力の際にタッチセンサおよびGUIを採用するユーザインタフェースによって、入力を受け付けるオブジェクトに対する操作入力を受け付けた際にのみ、触感を呈示することができる。
以上説明したように、触感呈示装置100によれば、アプリケーションが触感を呈示する動作に対応していれば、問題なく上述の動作を行うことができる。すなわち、触感を呈示する処理を予め組み込んだアプリケーションであれば、上述の動作により、所定の触感を適切に呈示することができる。
しかしながら、上述した触感呈示装置100においては、触感の呈示に対応していないアプリケーションを適用すると、そのままの状態では、入力に基づいてオブジェクトの表示が変化しても、触感を呈示することはできない。したがって、触感呈示装置100において、現在までに開発されてきた種々のアプリケーション資源を無駄にせずに有効に活用するためには、それぞれのアプリケーションを改変して、所定の条件に応じて触感を呈示する処理を追加しなければならない。このような処理を追加する改変は、種々のアプリケーションごとに行わなければならず、膨大な手間とコストがかかることが懸念される。また、オブジェクトごとに異なる触感を呈示しようとすれば、それぞれのオブジェクトごとに異なる触感を呈示するための処理を追加することになるため、手間とコストは極めて大きくなる。
このような事情の下では、今後、触感呈示装置に向けたアプリケーションの開発に各社ベンダが参入する阻害要因になったり、タッチセンサおよびGUIを採用したプラットフォームの普及が遅延する要因にもなり得る。
また、例えば上記特許文献1および特許文献2に開示の技術は、単にタッチセンサが入力を受け付けると、当該入力に応じてタッチセンサを振動させているに過ぎない。このため、上記特許文献1および特許文献2に開示の技術において、触感の呈示に対応したアプリケーションを適用しても、そのままの状態では、触感を必要な場合にのみ適切に呈示することができないことも想定される。特に、機械式の押しボタンスイッチ(プッシュ式ボタンスイッチ)のようなボタンスイッチがタッチセンサ上に描画される装置は、タッチセンサの入力を受け付ける閾値が低いと、タッチセンサに指などが軽く触れた(タッチした)だけで触感を呈示してしまう。このため、操作者がタッチセンサをプッシュする前段階で軽く触れる動作(タッチ)に反応してしまうため、描画イメージ(押しボタン)の反応と異なり、誤操作を誘発するおそれがある。
また、描画されたボタンスイッチを操作者がプッシュする意図はなくても(力を入れていなくても)、タッチセンサをプッシュする前段階の軽く触れる動作(タッチ)に応じて触感を呈示してしまうため、操作者に違和感を与えることにもなる。ここで、タッチセンサのタッチによる入力を受け付ける閾値とは、タッチセンサが反応する閾値で、例えば抵抗膜方式においては、上部導電膜が下部導電膜に接触する押圧力の閾値であり、静電容量方式においては、接触による電気的信号の検出閾値である。
さらに、従来の触感を呈示する装置は、タッチセンサにより触感を呈示するための処理を予め組み込んだアプリケーションに基づくユーザインタフェースを採用したとしても、入力を受け付けた際に機械式の押しボタンスイッチのような操作感を提供することはできなかった。すなわち、従来の触感呈示装置により呈示される触感は、あくまでも入力が受け付けられたことを操作者に報知するためのものであり、単に筐体を振動させる等の動作を行うのみである。したがって、従来の触感呈示装置により呈示される触感は、機械式の押しボタンスイッチを操作する場合のような現実的な操作感を操作者に提供するものではなかった。
しかしながら、タッチセンサおよびGUIを採用するユーザインタフェースにおいては、現実の機械式の押しボタンスイッチなどを模したオブジェクトの画像を表示することが多い。したがって、そのようなオブジェクトに対する入力を受け付けた場合、やはり機械式の押しボタンスイッチに倣った現実的な触感を呈示するほうが、操作者に与える操作感としては好適である。表示されたオブジェクトに対して押圧入力を受け付けた際に、現実のキーまたはボタン等をクリックした場合のようなフィードバックを返すことができれば、操作者に与える操作感を向上することができる。
機械式の押しボタンスイッチの場合、操作者は、ある程度の押圧力を加えることにより、当該スイッチが押下されて、例えばメタルドームスイッチなどが坐屈する際の触感(以下、クリック触感という)を得ることができる。同様に、機械式の押しボタンスイッチの場合、操作者は、押下していたスイッチに対する押圧力を解除する過程で、ある程度まで押圧力を弱めることにより、メタルドームスイッチなどが元の押下されていない状態に戻る触感(以下、リリース触感という)を得ることができる。また、機械式の押しボタンスイッチの場合、操作者は、非常に弱い押圧力によってスイッチに触れても(タッチしても)クリック触感は呈示されず、また、クリック触感が呈示されない状態からは、リリース触感も呈示されない。従来のタッチセンサおよびGUIを採用した触感呈示装置においては、上述した機械式の押しボタンスイッチのようなクリック触感およびリリース触感を呈示することはできなかった。
また、機械式の押しボタンスイッチに対して入力を行う場合であれば、スイッチ機構等の物理的な構成の差異に応じて、様々な異なる触感が得られるものである。例えば、ボタンの大きさによって、押圧した際に得られる触感の強弱の度合いが異なったり、あるいは、ボタンによって押し込む際のストロークの深さが異なる場合にも、それぞれ押圧した際に異なる態様の感触が得られるものである。従来の触感を呈示する装置は、このようなオブジェクトごとに異なる触感、すなわち各オブジェクトに見合うような触感を呈示することはできなかった。このような触感を実現するためには、上述したように、アプリケーションに対して、それぞれの触感を呈示するための処理を、オブジェクトごとに追加する等の改変を加える必要があり、大変な手間とコストを要するものとなる。
したがって、かかる事情に鑑みてなされた本発明の目的は、ユーザインタフェースを構成する既存のアプリケーションを流用することにより入力に対する触感を呈示する装置であって、操作者に与える操作感を向上する触感呈示装置、および当該装置による触感呈示方法を提供することにある。
上記目的を達成する第1の観点に係る触感呈示装置の発明は、
タッチセンサと、
前記タッチセンサのタッチ面を振動させる触感呈示部と、
表示部と、
前記表示部に表示するユーザインタフェースの定義ファイルであって、当該ユーザインタフェースを構成するユーザインタフェースオブジェクトに応じて前記触感呈示部が呈示する触感の情報を含む定義ファイルを記憶する記憶部と、
前記定義ファイルを解析することにより当該定義ファイルで定義されるユーザインタフェースを設定するとともに、所定の処理を実行するユーザインタフェースオブジェクトに対する入力を検知すると、前記タッチ面を押圧している押圧対象に対して当該ユーザインタフェースオブジェクトに応じた触感を呈示するように前記触感呈示部を制御する制御部と、
を備えることを特徴とするものである。
第2の観点に係る発明は、第1の観点に係る触感呈示装置において、
前記タッチセンサのタッチ面に対する押圧荷重を検出する荷重検出部をさらに備え、
前記制御部は、前記所定の処理を実行するユーザインタフェースオブジェクトに対する入力を検知している状態で、前記荷重検出部が前記触感を呈示する荷重基準を満たす押圧荷重を検出すると、前記押圧対象に対して触感を呈示するように前記触感呈示部を制御するものである。
上記目的を達成する第3の観点に係る触感呈示装置の発明は、
起動されると、触感が定義されたユーザインタフェース定義ファイルの識別情報を供給するアプリケーションソフトウェアと、
前記アプリケーションソフトウェアから供給された前記識別情報に基づくユーザインタフェース定義ファイルを記憶部から読み出して、当該ユーザインタフェース定義ファイルに基づいてユーザインタフェースに対して触感を設定する制御部と、
を備えることを特徴とするものである。
上記目的を達成する第4の観点に係る触感呈示装置の発明は、
起動されると、触感が定義されたユーザインタフェース定義ファイルを供給するアプリケーションソフトウェアと、
前記アプリケーションソフトウェアから供給された前記ユーザインタフェース定義ファイルを記憶部に記憶して、当該記憶部から読み出したユーザインタフェース定義ファイルに基づいてユーザインタフェースに対して触感を設定する制御部と、
を備えることを特徴とするものである。
上記目的を達成する第5の観点に係る触感呈示方法の発明は、
起動されたアプリケーションソフトウェアから、触感が定義されたユーザインタフェース定義ファイルの識別情報を受信し、
当該識別情報に基づくユーザインタフェース定義ファイルを記憶部から読み出し、
当該ユーザインタフェース定義ファイルに基づいてユーザインタフェースに対して触感を設定する
ことを特徴とするものである。
上記目的を達成する第6の観点に係る触感呈示方法の発明は、
起動されたアプリケーションソフトウェアから、触感が定義されたユーザインタフェース定義ファイルを受信し、
当該ユーザインタフェース定義ファイルを記憶部に記憶し、
当該記憶部から読み出したユーザインタフェース定義ファイルに基づいてユーザインタフェースに対して触感を設定する
ことを特徴とするものである。
本発明によれば、入力に対して触感を呈示する処理を予め想定していないアプリケーションを流用することにより、所定の条件に応じてオブジェクトごとに適切な触感を呈示することができる。したがって、本発明によれば、既存のアプリケーションを無駄にすることなく活用することができるとともに、このようなアプリケーションを用いて、操作性の優れたユーザインタフェースを提供することができる。また、本発明によれば、タッチセンサに対する入力を受け付けた際に、機械式の押しボタンスイッチのような触感をオブジェクトごとに呈示することができる。したがって、本発明によれば、操作者に与える操作感を向上することができる。
本発明の実施の形態に係る触感呈示装置の概略構成を示すブロック図である。 図1に示した触感呈示装置の実装構造の一例を示す図である。 本発明のユーザインタフェース定義ファイルの構成を説明する概念図である。 図1に示した触感呈示装置の表示部に表示するユーザインタフェースの例を示す図である。 図1に示した触感呈示装置にて使用するユーザインタフェースのオブジェクトごとに各入力に応じて呈示する触感の設定の例を示す図である。 本実施の形態で用いるユーザインタフェースの定義ファイルの一例を示す図である。 図1に示した触感呈示装置がユーザインタフェースを生成する動作を示すフローチャートである。 図1に示した触感呈示装置のクリック触感呈示動作を示すフローチャートである。 図1に示した触感呈示装置のリリース触感呈示動作を示すフローチャートである。 図1に示した触感呈示装置のなぞり触感呈示動作を示すフローチャートである。 想定される触感呈示装置の概略構成を示すブロック図である。 想定される触感呈示装置の動作を示すフローチャートである。
以下、本発明の各実施の形態について、図面を参照して説明する。
本発明は、表示部に表示するユーザインタフェースの定義ファイルにおいて、各ユーザインタフェースオブジェクトに入力があった際に呈示すべき触感を定義するものである。また、本発明は、このようにして触感を呈示する際、タッチセンサに対して軽く触れる(タッチする)程度の押圧に対しては触感を呈示せず、操作者が意図してタッチセンサを押圧する(プッシュする)動作に対して触感を呈示する。
図1は、本発明の実施の形態に係る触感呈示装置の概略構成を示すブロック図である。
図1に示すように、触感呈示装置1は、制御部10と、アプリケーション実行部20と、表示部30と、タッチセンサ40と、触感呈示部50と、荷重検出部60と、記憶部70と、を備えている。また、制御部10は、表示制御部12と、触感制御部14と、ユーザインタフェース制御部16と、を含んでいる。さらに、記憶部70には、アプリケーション記憶領域72と、ユーザインタフェース定義ファイル記憶領域74と、ユーザインタフェースリソース記憶領域76と、を設けてある。なお、図面および以下の説明において、「ユーザインタフェース」は、適宜、単に「UI」と略記する。
制御部10は、触感呈示装置1の各機能部をはじめとして触感呈示装置1の全体を制御する。アプリケーション実行部20は、記憶部70のアプリケーション記憶領域72から各種のアプリケーションを読み込んで、当該アプリケーションに基づく処理を実行する。なお、本実施の形態においては、アプリケーション実行部20が、本来、触感の呈示に対応していないアプリケーションを実行する場合について説明する。
表示部30は、押しボタンスイッチ(プッシュ式ボタンスイッチ)のようなオブジェクトを画像表示する。なお、押しボタンスイッチとは、入力ボタンやキー等(以下、単に「キー等」と総称する)である。表示部30は、例えば、液晶表示パネルや有機EL表示パネル等を用いて構成する。
タッチセンサ40は、通常は表示部30の前面に配置して、表示部30に表示したオブジェクトに対する操作者の指等(押圧対象)による押圧入力(タッチ入力)を、対応するタッチセンサ40のタッチ面により受け付ける。また、タッチセンサ40は、タッチ面に対するタッチ入力の位置を検出し、当該検出した入力の位置を、UI制御部16を介してアプリケーション実行部20等に通知する。このタッチセンサ40は、例えば抵抗膜方式、静電容量方式、光学式等の公知の方式のもので構成する。
触感呈示部50は、圧電振動子等を用いて構成し、タッチセンサ40のタッチ面に振動を発生させる。この触感呈示部50は、タッチセンサ40のタッチ面に振動を発生させることにより、タッチ面を押圧している押圧対象に対して触感を呈示する。荷重検出部60は、タッチセンサ40のタッチ面に対する押圧荷重を検出するもので、例えば、歪みゲージセンサや圧電素子等の荷重に対してリニアに反応する素子を用いて構成する。また、荷重検出部60は、検出したタッチセンサ40のタッチ面に対する押圧荷重を、触感制御部14に通知する。
制御部10の表示制御部12は、アプリケーション実行部20からUI制御部16を介して供給される表示データに基づいて、表示部30にオブジェクトなどを画像表示したり、あるいは当該画像表示を変更したりする等、表示に係る制御を行う。触感制御部14は、所定の処理を実行するオブジェクトに対する入力を検知している状態で、荷重検出部60により検出される押圧荷重が触感を呈示する荷重基準を満たした場合、所定の条件に基づく所定のパターンの振動を発生するように触感呈示部50を制御する。
UI制御部16は、タッチセンサ40に対する入力位置の情報をアプリケーション実行部20に通知する。また、UI制御部16は、タッチセンサ40に対する入力位置が所定の動作を開始するオブジェクトに対応する位置である場合、入力を受け付けた旨を示すオブジェクトの表示データをアプリケーション実行部20から受け取る。さらに、UI制御部16は、タッチセンサ40に対する入力位置が所定の動作を開始するオブジェクトに対応する位置であり、かつ、UI定義ファイルに呈示すべき触感が定義されている場合、この定義に従って触感制御部14に呈示すべき触感を設定する。
記憶部70のアプリケーション記憶領域72は、各種の機能を実現する為の処理手順が記載されたデータで構成される各種のアプリケーションを記憶する領域である。UI定義ファイル記憶領域74は、各UI全体を生成する際の一連の生成ルールを定義するUI定義ファイルを記憶する領域である。また、UIリソース記憶領域76は、UIの生成に使用する画像データ、フォントのデータ、および文字列(テキスト)データなどのUIリソースを記憶する領域である。実際にUIを生成する際には、UIリソース記憶領域76に記憶された画像データおよびテキストデータなどを、表示部30に表示する。
図2は、図1に示した触感呈示装置1の実装構造の一例を示すもので、図2(A)は要部断面図、図2(B)は要部平面図である。表示部30は、筐体61内に収納保持する。表示部30上には、弾性部材からなるインシュレータ62を介して、タッチセンサ40を保持する。なお、本実施の形態に係る触感呈示装置1は、表示部30およびタッチセンサ40を、平面視で矩形状としている。また、触感呈示装置1は、タッチセンサ40を、図2(B)に仮想線で示す表示部30の表示領域Aから外れた4隅に配設したインシュレータ62を介して表示部30上に保持する。
また、筐体61には、表示部30の表示領域から外れたタッチセンサ40の表面領域を覆うようにアッパカバー63を設け、このアッパカバー63とタッチセンサ40との間に、弾性部材からなるインシュレータ64を配設する。なお、図2に示すタッチセンサ40は、タッチ面40aを有する表面部材を、例えば透明フィルムやガラスで構成し、裏面部材をガラスやアクリルで構成している。タッチセンサ40は、タッチ面40aが押圧されると、押圧部分が押圧力に応じて微少量撓む(歪む)、または構造体そのものが微少量撓む構造のものを用いる。
タッチセンサ40の表面上には、アッパカバー63で覆われる各辺の近傍に、タッチセンサ40に加わる荷重(押圧力)を検出するための歪みゲージセンサ51をそれぞれ接着等により設ける。さらに、タッチセンサ40の裏面上には、対向する2つの辺の近傍に、タッチセンサ40を振動させるための圧電振動子52をそれぞれ接着等により設ける。すなわち、図2に示す触感呈示装置1は、図1に示した荷重検出部60を4つの歪みゲージセンサ51を用いて構成し、触感呈示部50を、2つの圧電振動子52を用いて構成している。そして、触感呈示部50によりタッチセンサ40を振動させることにより、タッチ面40aを振動させるようにしている。なお、図2(B)は、図2(A)に示した筐体61、アッパカバー63およびインシュレータ64の図示を省略している。
次に、UI定義ファイル記憶領域74に記憶されるUI定義ファイルについて説明する。
記憶部70のUI定義ファイル記憶領域74には、アプリケーション記憶領域72に記憶された各アプリケーションを実行する際に必要なUIの仕様および動作などを定義するUI定義ファイルが記憶される。UIを使用する際には、異なるアプリケーションで同じUIを使うことも、または、異なるアプリケーションに対してそれぞれ異なるUIを用いることもできる。ここでは、説明の便宜のため、各アプリケーションに対応したUI定義ファイルをそれぞれ保存する場合について説明する。
例えば、触感呈示装置1を携帯電話の入力装置として用いる場合、携帯電話の操作入力を受け付けるUIを構成するアプリケーションに対応して、携帯電話操作入力用UI定義ファイルをUI定義ファイル記憶領域74に記憶する。同様に、例えば、触感呈示装置1を銀行のATM(現金自動預け払い機)端末の入力装置として用いる場合、ATMの操作入力を受け付けるUIを構成するアプリケーションに対応して、ATM操作入力用UI定義ファイルをUI定義ファイル記憶領域74に記憶する。
本実施の形態では、UI定義ファイルを記述する言語の例として、XML言語をベースにしたUIML(User Interface Markup Language)の形式に従って説明する。このUIMLのように、最近では、XML(Extensible Markup Language)をベースにしたUIが導入されつつある。記述方式が共通化されたXMLファイルを用いてUIを表現することによって、プログラムコードの再利用が容易になり、他の機種へのUIの移植も可能になる。したがって、例えば、異なるメーカの異なる端末機種間でも同じUIを使用することができるなど、各端末からUIのみを独立させるように扱うことも可能になる。
このような、XMLをベースにしたUIのうち代表的なものとして、TAT社(http://www.tat.se/)が開発したUI Foundationや、Acrodea社(http://www.acrodea.co.jp/)が開発したVIVID UI、他にもQualcomm社(http://www.qualcomm.co.jp/)が開発したUI Oneなどを挙げることができる。
図3は、UI定義ファイルの構成を説明する概念図である。図3に示すように、触感呈示装置1の記憶部70内のUI定義ファイル記憶領域74には、各UI全体を生成する際の一連の生成ルールを定義するUI定義ファイルを格納する。図3では、UI定義ファイル(1)〜(6)まで6つのUI定義ファイルを格納しているが、使用するUIに応じて、UI定義ファイル記憶領域74には、記憶容量の許す限り、任意の数のUI定義ファイルを格納できる。
また、各UI定義ファイルは、図3に示すように、複数のオブジェクト定義情報を含む。図3においては、UI定義ファイル(2)は6つのオブジェクト定義情報を含んでいるが、実際には、当該UI定義ファイル(2)に基づいて構成されるUIが含むオブジェクトの数に対応する数のオブジェクト定義情報を含む。
UI定義ファイルに含まれるそれぞれのオブジェクト定義情報は、図示のように、当該オブジェクト定義情報により定義されるオブジェクトに関連する各種の属性を表す情報を含む。以下、オブジェクト定義情報に含まれる代表的な情報を例示する。
(1)部品(オブジェクト)の種別情報:当該オブジェクトがユーザ操作を受け付けるボタンやキーの機能を持つものか、情報表示のテキストボックス機能を持つものか、表示部30に画像を表示するだけの機能かなど、種別を特定する情報
(2)オブジェクトに使用するリソース情報:表示部30に表示するUIを構成する要素であるキーまたはボタンなどのオブジェクトを描画するための画像およびテキストを定義する情報
(3)オブジェクトを配置する位置情報:当該オブジェクトを表示部30における所定のUI表示領域のどの位置に表示するかを特定する情報
(4)オブジェクトの表示サイズ情報:当該オブジェクトを表示部30のUI表示領域に表示する際のサイズを特定する情報
(5)オブジェクトの動作条件情報(アクション情報):当該オブジェクトに入力がされた際の(実際にはオブジェクトに対応するタッチセンサ40にタッチ入力がされた際の)、アプリケーションに対する動作を定義する情報(例えば、携帯電話操作入力用UIの「切断」のオブジェクトに対する入力のイベントが発生した場合、携帯電話操作入力用アプリケーションに対して、通話中の回線を切断する指示を出すよう定義する)
(6)オブジェクトを有効または無効にする情報:当該オブジェクトをUI表示領域に表示するか否か、またはオブジェクトをアクティブ状態にするか否かを特定する情報
本実施の形態では、上記(5)のオブジェクトの動作条件情報(アクション情報)として、各オブジェクトに対応する所定のアプリケーションの機能を実行するためのアクション情報とともに、各オブジェクトに対応する所定の触感の呈示に関する情報を定義する。
図4ないし図6は、上述したオブジェクトの動作条件情報(アクション情報)の具体例を説明する図である。以下、これらの図面を参照して、本実施の形態による触感呈示装置1の触感の設定について説明する。
図4は、触感呈示装置1をビデオ再生機用リモートコントロール端末の入力装置として用いた場合に、操作入力に用いるオブジェクトにより構成されるUIを表示部30に表示した例を示す図である。このように、触感呈示装置1をビデオ再生機用リモートコントロール端末のUIとして用いる場合、アプリケーション記憶領域72に記憶されているアプリケーションの中から、ビデオ再生機用リモートコントロール端末UI用のアプリケーションを起動する。この際の動作については後述する。ここでは、図4に示すビデオ再生機用リモートコントロール端末のUIを構成する各オブジェクトについて、それぞれ触感を呈示する動作について説明する。
図4は、ビデオ再生機用リモートコントロール端末のUIを例示する図である。このビデオ再生機用リモートコントロール端末のUIは、以下に示すオブジェクトによって構成されている。
(a)電源スイッチのオブジェクト:ビデオ再生機の電源をオンまたはオフにする
(b)テキストボックスのオブジェクト:種々の情報を表示する
(c)巻戻しボタンのオブジェクト:ビデオを巻き戻す
(d)早送りボタンのオブジェクト:ビデオを早送りする
(e)選局のオブジェクト:選局するチャンネルを上下する
(f)音量のオブジェクト:音声の音量を上下する
(g)数字キーのオブジェクト:選局をしたり数字を入力する
このように、図4に示すUIを構成するオブジェクトの役割(機能)を設定し、その動作内容を、上述した(5)オブジェクトの動作条件情報(アクション情報)として予め定義しておく。適正にアクション情報を定義することにより、例えば(a)電源スイッチのオブジェクトに対する入力を受け付けることにより、外部機器であるビデオ再生機の電源をオンまたはオフにする信号を、赤外線などにより発信することができる。
図5は、図4に示したUIを構成する各オブジェクトについて、触感を設定したテーブルの一部を例示する図である。
図5に示す縦方向の列は、図4に示したUIを構成するオブジェクトの一部を、オブジェクトの種別ごとに分類して示すものである。このような分類は、UI定義ファイルにおいて、上述した(1)部品(オブジェクト)の種別情報として定義する。図5に示す例においては、HapButton1(ボタン1)の種別には、上述した(a)「電源ボタン」のオブジェクトを設定し、HapButton2(ボタン2)の種別には、上述した(c)「巻戻し」および(d)「早送り」のオブジェクトを設定してある。また、HapTextBox(テキストボックス)の種別には、上述した(b)テキストボックスのオブジェクトを割り当てているが、この種別においては、テキストが表示されていない場合と、テキストが表示されている場合とで、種別を区別して設定してある。なお、図5においては、(a)〜(c)のオブジェクトについての触感の設定のみを示してあるが、上述した(e)〜(g)のオブジェクトについても同様に触感を設定することができる。
図5に示す横方向の行は、各オブジェクトの種別に対応する、呈示すべき触感を示すものである。h:pressed(クリック触感)は、該当種別のオブジェクトが押圧された際に呈示するように設定されたクリック触感の種類を表す。h:released(リリース触感)は、該当種別のオブジェクトに対する押圧が解除される際に呈示するように設定されたリリース触感の種類を表す。h:slided(なぞり触感)は、該当種別のオブジェクトが押圧された後に、当該オブジェクト上でなぞるようなスライド入力を検知した際に呈示するよう設定されたなぞり触感の種類を表す。このような触感の種類は、UI定義ファイルにおいて、上述した(5)オブジェクトの動作条件情報(アクション情報)として定義する。また、上述したh:pressed、h:released、およびh:slidedは、オペレーティングシステム(OS)が持つ同一または類似のイベントに結びついている。
このように、本実施の形態においては、オブジェクトに対する入力が検知された際に、単なるクリック触感、リリース触感、なぞり触感などを呈示するのみならず、それぞれのオブジェクトに応じて異なるクリック触感、リリース触感、なぞり触感などを設定できる。このような種々の触感は、例えば触感呈示部50を圧電振動子で構成する場合、圧電振動子の振動周波数または周期などを種々調整したり、圧電振動子の出力電圧や動作開始に必要な押圧荷重などを種々調整することにより行う。
なお、図5においては、各オブジェクトに対する入力が検知された際に呈示される触感の種類を、例として擬態音により示してある。例えば、HapButton1(ボタン1)の種別の「電源ボタン」のオブジェクトは、押圧入力を検知すると、Type_C1の触感である「プニッ」というクリック触感を呈示する。また、このオブジェクトは、押圧入力が解除される過程で、Type_R1の触感である「カチッ」というリリース触感を呈示する。さらに、このオブジェクトは、押圧入力を検知した後でスライド入力を検知すると、Type_S2の触感である「ザラザラ」という、なぞり触感を呈示する。
また、例えば、HapTextBox(テキストボックス)の種別のオブジェクトは、押圧入力を検知すると、Type_C3の触感である「ピッ」というクリック触感を呈示する。また、このオブジェクトには、リリース触感は設定されていないため、押圧入力が解除される過程でリリース触感は呈示しない。さらに、このオブジェクトは、押圧入力を検知した後でスライド入力を検知すると、テキストを表示している場合はType_S2の触感である「ザラザラ」というなぞり触感を呈示する。しかしながら、このオブジェクトは、テキストを表示していない状態で、押圧入力を検知した後でスライド入力を検知すると、Type_S1の触感である「ツルツル」というなぞり触感を呈示する。
図6は、上述した触感の設定をXML(UIML)の形式で表現した例を示す図である。なお、図6においては、図4および図5において説明したオブジェクトのうち、種別がHapButton1(ボタン1)である(a)「電源ボタン」のオブジェクトに対して触感の呈示を設定した例を示す。図6は、styleの項目において、オブジェクトの形状(オブジェクトの位置、大きさ、使用する画像データ)を規定している様子を示している。このように、UIを定義するためのXML(UIML)の形式に従って、behaviorの項目において、このオブジェクトに対する入力が検知された際の動作を規定することができる。そこで、このオブジェクトに対する入力が検知された際の動作として、呈示する触感の定義を付加する。
図6の(1)において、触感を呈示するオブジェクトを宣言する。ここでは、種別がHapButton1(ボタン1)である(a)「電源ボタン」のオブジェクトを指定している。また、図6の(2)において、規定の動作(ここでは触感の呈示)を実行する際に満たされるべき条件を規定する。ここでは、荷重検出部60により検出される押圧荷重が1.5Nに達した際に触感を呈示することを規定している。さらに、図6の(3)および(4)において、触感呈示部50が呈示する触感を定義している。図6の(3)においては、クリック触感として、Type_C1の触感(プニッ)を定義し、図6の(4)においては、なぞり触感として、Type_S2の触感(ザラザラ)を規定している。
以上のように、オブジェクトごとに、クリック触感、リリース触感、なぞり触感などを、それぞれ設定することができる。このような設定は、UIの定義ファイルとしてUI定義ファイル記憶領域74に記憶する。すなわち、記憶部70には、表示部30に表示するUIの定義ファイルであって、当該UIを構成するオブジェクトに応じて触感呈示部50が呈示する触感の情報を含む定義ファイルを記憶する。使用するUIを変更する際は、他のUI定義ファイルを読み込むことにより、UIごとに異なるそれぞれのオブジェクトについて、適切な触感を設定することができる。なお、このような設定は、オブジェクト別に設定されたデフォルト値とすることも可能である。
上述したように、呈示する触感を定義する際は、オブジェクトの動作条件情報として操作者の押圧入力による押圧荷重を設定することができ、所定の押圧荷重が検知されて初めて触感を呈示するように設定することができる。この設定により、操作者の押圧力に応じて、例えば所定の基準を満たす押圧荷重を検知するとクリック触感を呈示し、その後所定の基準を満たす押圧荷重が維持されている間なぞり触感を呈示する、など種々の動作を設定することができる。
次に、本実施の形態に係る触感呈示装置1の動作を説明する。まず、触感呈示装置1において所定のアプリケーションを起動することにより、UIを生成して使用可能にするまでの動作について説明する。
図7は、触感呈示装置1がUIを生成する処理を説明するフローチャートである。なお、ここで、UIを生成する処理とは、UI定義ファイルを解析し、その解析結果に基づいてUIを表示部30に表示する処理である。
図7に示すUI生成処理は、アプリケーション実行部20がアプリケーション記憶領域72に記憶されているアプリケーションを読み出して起動する時点から開始する。UIを使用するアプリケーションが起動されると、UI制御部16は、当該アプリケーションで使用するUIの定義ファイルを指定して、UI定義ファイル記憶領域74から読み出す。この時点では、指定されたUI定義ファイルに基づくUIが、1つのDOMドキュメント(またはDOMノード)になっている。なお、制御部10およびアプリケーション20の双方ともに、記憶部70にアクセスできる構成であれば、アプリケーション実行部20が、制御部10に対してUI定義ファイルを識別する情報を供給する。また、制御部10およびアプリケーション実行部20の双方ともに記憶部70にアクセスできる構成ではない場合、アプリケーション実行部20から制御部10にUI定義ファイルが供給され、制御部10がアクセスする記憶部(図示せず)に記憶されるようにして、該記憶部からUI定義ファイルを読み出す。
UI生成処理が開始すると、まず、UI制御部16は、DOMドキュメントに対して表示関連の解析を行う(ステップS11)。これは、UIML形式で記述されたUI定義ファイルにおいて、structureタグやstyleタグを付された属性などを解析することにより行う。次に、UI制御部16は、DOMドキュメントの動作関連について解析を行う(ステップS12)。これは、UIML形式で記述されたUI定義ファイルでは、behaviorタグを付された属性などを解析する。本実施の形態では、このステップS12において、UIに触感を呈示するオブジェクトが含まれる場合には、当該オブジェクトについて呈示する触感を設定する。
次に、UI制御部16は、DOMドキュメントに含まれる表現を、各端末に依存する表現に変換処理を行う(ステップS13)。さらに、UI制御部16は、ステップS13の変換処理の結果に基づいて、使用するオブジェクトのリソースを選定して各属性(プロパティ)を設定する(ステップS14)。この際に必要なオブジェクトのリソースは、UIリソース記憶領域76に記憶されているものを読み出して使用する。この後、UI制御部16は、各オブジェクトを含むUIのプロット処理を行う(ステップS15)。これによりUIの生成処理は終了し、UIを表示部30に表示することができる。
以上の処理により、触感呈示装置1は、UIを用いるアプリケーションの実行に伴い、UI定義ファイルに基づいてUIを表示部30に表示できるようになる。要するに、触感呈示装置1のUI制御部16は、UI定義ファイルを解析することにより、当該定義ファイルで定義されるユーザインタフェースを設定する。例えば、触感呈示装置1においてビデオ再生機用リモートコントロール端末UI用のアプリケーションを起動した場合、前述の図4に示したようなUIが表示部30に表示される。
次に、表示部30にUIが表示された後、触感呈示装置1が操作者の入力を受け付けて触感を呈示する際の動作について説明する。
本実施の形態による触感呈示装置1は、表示部30に画像表示されたオブジェクトに対する操作者のタッチ入力がタッチセンサ40に検知されている状態で、荷重検出部60が検出する押圧荷重が所定の基準を満たすと、触感を呈示する。荷重検出部60が検出する押圧荷重が所定の基準を満たす場合に触感を呈示するのは、このような場合に、操作者がタッチセンサをタッチしただけでなく、意図して押圧する(プッシュする)動作を行ったとみなせることに基づく。
図8は、本実施の形態による触感呈示装置1の動作を示すフローチャートである。触感呈示装置1の動作を行うにあたり、上述したUI生成処理に従って、予め、表示部30には、操作者の指またはスタイラスなどによる入力を受け付けるために、キー等のオブジェクトを画像表示しておくものとする。この際、アプリケーション実行部20は、GUIを構成する各オブジェクトの表示データを、UI制御部16を介して表示制御部12に供給する。そして、表示制御部12は、アプリケーション実行部20から供給されたオブジェクトの表示データに基づいて、各オブジェクトの画像を表示(描画)するように表示部30を制御する。上述したように、以下、触感呈示装置1で起動するアプリケーションで使用するUIを生成するUI定義ファイルにおいて、オブジェクトごとに呈示すべき触感が定義してある場合について説明する。なお、このアプリケーションは、表示部30に表示されたオブジェクトの画像の位置に対応するタッチセンサ40にタッチ入力がなされた際、オブジェクトの画像に何らかの変化を施して表示するものとする。しかしながら、本実施の形態においては、このような画像の変化は必須のものではない。
上述のような準備が完了した状態で、本実施の形態による触感呈示装置1の動作は開始する。触感呈示装置1の動作が開始したら、まず、UI制御部16は、操作者の指などによるタッチセンサ40のタッチ面に対するタッチ入力の有無を監視する(ステップS31)。ステップS31にてタッチセンサ40のタッチ面に対するタッチ入力が検知されたら、UI制御部16は、当該タッチ入力の位置をアプリケーション実行部20に通知する(ステップS32)。
タッチセンサ40におけるタッチ入力の位置が通知されたら、アプリケーション実行部20は、当該入力の位置が、現在のGUIにおいてキー等のオブジェクトの画像が表示された位置に対応するか否かを判定する(ステップS33)。入力の位置が、オブジェクトの画像が表示された位置に対応する場合、アプリケーション実行部20は、アプリケーションに基づく設定に従ってオブジェクトの画像を変更するための表示データを、UI制御部16を介して表示制御部12に供給する。この表示データを受け取ったら、表示制御部12は、表示されるオブジェクトの画像を変更するように表示部30を制御する(ステップS34)。すなわち、キー等のオブジェクトに対するタッチ入力があった場合、当該オブジェクトの表示画像を変更する。オブジェクトの表示画像を変更する際、例えばオブジェクトが選択されたような表示をしたり、またオブジェクトの色または輝度などを変化させたりして、キー等に触れた(タッチした)ことを操作者が視認できるようにするのが好適である。このようなオブジェクトの画像を変化させる表示は、アプリケーションに基づく設定により、種々の態様が考えられる。
ステップS33において、入力の位置がオブジェクトの画像が表示された位置に対応するため、ステップS34においてオブジェクトの表示が変更されたら(すなわちキー等のオブジェクトに対するタッチ入力があったら)、ステップS35の動作に移行する。ステップS35において、触感制御部14は、荷重検出部60により検出される押圧荷重が、タッチセンサ40のタッチ面に対する押圧によって増加しながら所定の基準を満たしたか否かを判定する。なお、荷重検出部60は、例えば、4つの歪みゲージセンサ51の出力の平均値から荷重を検出する。ここで、所定の基準を満たす荷重は、操作者が通常の押圧操作を行う際の押圧荷重に基づいて、例えば1.5N(ニュートン)などの値を予め設定し、その後も設定変更できるようにするのが好適である。また、この所定の基準は、操作者の意図に基づく押圧入力の際の押圧荷重を考慮して(例えば平均値など)、過度に低い基準を設定しないようにする。これは、操作者が意図せずに軽く触れてしまったような場合の操作は押圧(プッシュ)入力として受け付けないようにするため、および後述するリアルな触感のための圧覚を操作者に与えるためである。
ステップS35において押圧荷重が所定の基準を満たした場合、触感制御部14は、タッチセンサ40のタッチ面に所定の振動を発生させて、触感を呈示するように触感呈示部50を制御する(ステップS36)。すなわち、触感制御部14は、所定の処理を実行するオブジェクトに対する入力を検知している状態で、荷重検出部60が触感を呈示する荷重基準を満たす押圧荷重を検出すると、触感を呈示するように触感呈示部50を制御する。この制御により、触感呈示部50は、タッチセンサ40のタッチ面を押圧している押圧対象に対して触感を呈示する。ここで呈示する触感とは、図5および図6において説明したように、UIの定義ファイルにおけるオブジェクト定義情報の動作条件情報(アクション情報)により設定された触感である。
なお、本実施の形態では、ステップS36において触感呈示部50が押圧対象に対して呈示する触感は、上述したクリック触感とすることができる。操作者に対してリアルなクリック触感を呈示するためには、触感呈示装置1は、操作者の圧覚が刺激された状態で触覚を刺激する。すなわち、触感呈示装置1は、タッチセンサ40に加わる荷重が、触感を呈示する基準(例えば1.5N)を満たすまでは、圧覚を刺激するようにし、荷重が当該基準を満たすと、圧電振動子52を所定の駆動信号で駆動してタッチ面40aを振動させて触覚を刺激する。これにより、触感呈示装置1は、押しボタンスイッチ(プッシュ式ボタンスイッチ)のようなボタンスイッチを押した際に得られるのと同様なクリック触感を、操作者に呈示することができる。したがって、操作者は、タッチセンサ上部に描画された押しボタンスイッチであっても、押しボタンスイッチを操作した場合と同様のリアルなクリック触感を得ながら、タッチセンサ40に対して入力操作を行うことができるので、違和感を覚えることがない。また、タッチセンサ40を「押した」という意識との連動で入力操作を行うことができるので、単なる押圧による入力ミスも防止することができる。
上述したクリック触感を呈示する際の駆動信号、すなわち触覚を刺激する一定周波数、周期(波長)、波形、振幅は、呈示するクリック触感に応じて適宜設定することができる。例えば、携帯端末に使用されているメタルドームスイッチに代表されるクリック触感を呈示する場合、例えば、170Hzの一定周波数のSin波からなる1周期分の駆動信号により触感呈示部50を駆動する。このような駆動信号により触感呈示部50を駆動させて、タッチ面40aを、基準の押圧荷重が加わった状態で、約15μm振動させる。これにより、実際のキーをクリックした場合のような、リアルなクリック触感を操作者に呈示することができる。
また、ステップS35において押圧荷重が所定の基準を満たしていない場合、触感制御部14は、タッチセンサ40のタッチ面に対する押圧が弱まることにより、荷重検出部60により検出される押圧荷重がゼロになったか否かを判定する(ステップS37)。ステップS37において荷重検出部60により検出される押圧荷重がまだゼロになっていない場合は、操作者のタッチセンサ40に対するタッチ入力が解除(リリース)されていないため、ステップS35に戻る。一方、ステップS37において荷重検出部60により検出される押圧荷重がゼロになった場合は、操作者がタッチセンサ40に対するタッチ入力を解除(リリース)していると判定できるため、本実施による動作を終了する。なお、ステップS37における動作は、荷重検出部60により検出される押圧荷重がゼロになったか否かを判定する動作に代えて、タッチパネル40に対する入力がまだ検知されているか否かを判定する動作とすることもできる。
一方、ステップS33において、入力の位置がオブジェクトの画像が表示された位置に対応しない場合、アプリケーション実行部20は、処理を終了する。すなわち、キー等のオブジェクトに対するタッチ入力がない場合、またはタッチ入力がキー等のオブジェクトに対するものでない場合、アプリケーション実行部20は、オブジェクトの表示画像を変更せずに処理を終了する。さらに、この場合、UI制御部16は、触感制御部14に触感を呈示する旨の指示を出さずに処理を終了する。このように、触感呈示装置1は、キー等のオブジェクト以外の位置に対する入力があっても、オブジェクトに対する押圧入力は受け付けられていないことを、触感が呈示されないことによって操作者に認識させることができる。
このように、本実施の形態によれば、所定の動作を実行するオブジェクトに対して入力があり、かつ、所定の荷重基準を満たす押圧荷重が検出された場合に、UIの定義ファイルで設定された触感を呈示する。そのため、起動するアプリケーションが触感の呈示に係る動作に対応していない場合でも、UIの定義ファイルにおいて各オブジェクトに触感が設定されていれば、触感呈示装置1は、オブジェクトに対する押圧入力に基づいて、適切に触感を呈示することができる。したがって、触感呈示装置1によれば、タッチセンサに対する入力を受け付けた際、オブジェクトに応じた触感を呈示することができるとともに、UIを構成する既存のアプリケーションを、UI定義ファイルに対する設定を付加するのみで流用することができる。また、本実施の形態による触感呈示装置1は、キー等のオブジェクトに対して押圧(プッシュ)する入力により、当該オブジェクトに対する入力が受け付けられたことを、リアルなクリック触覚によって操作者に認識させることができる。
次に、触感呈示装置1が操作者の入力を受け付けてクリック触感を呈示した後、さらにリリース触感を呈示する際の動作について説明する。
通常の機械式の押しボタンスイッチに対して押圧入力が行われた場合、その後スイッチに対する押圧力が弱まることにより、メタルドームスイッチなどが元の押下されていない状態に戻る触感(以下、リリース触感という)が呈示される。本実施の形態による触感呈示装置1は、押圧入力に応じてリアルなクリック触感を呈示することができるため、その後、押圧されているタッチセンサの押圧が解除(リリース)される途中で、リアルなリリース触感を呈示する方が自然な操作感を提供できる。
図9は、本実施の形態による触感呈示装置1の動作を示すフローチャートである。図9に示す動作は、図8において説明したクリック触感を呈示する動作(ステップS36)の後から開始する。本動作が開始すると、触感制御部14は、操作者のタッチパネル40に対する入力の押圧力が弱まることにより、荷重検出部60が検出する押圧荷重が所定の基準以上から当該所定の基準未満に変化したか否かを判定する(ステップS51)。
なお、ここで「所定の基準以上から当該所定の基準未満に変化」とは、リリース時において、押圧荷重が所定の基準を超えている(または所定の基準以上の)状態から当該所定の基準を下回る(または所定の基準未満の)状態になることを意味する。
ステップS51において押圧荷重が所定の基準以上から当該所定の基準未満に変化したと判定された場合、アプリケーション実行部20は、アプリケーションに基づく設定に従ってオブジェクトの画像を変更するための表示データを、UI制御部16を介して表示制御部12に供給する。この表示データを受け取ったら、表示制御部12は、表示されるオブジェクトの画像を変更するように表示部30を制御する(ステップS52)。すなわち、表示制御部12は、キー等のオブジェクトから入力がリリースされる過程で、当該オブジェクトの表示画像を変更する。オブジェクトの表示画像を変更する際、例えば既に選択されているオブジェクトが選択される前に戻るような表示をしたり、またオブジェクトの色または輝度などを変化させたりすることができる。このような表示の変更により、キー等に対するタッチがリリースされたことを操作者が視認できるようにするのが好適である。
ステップS52においてオブジェクトの表示が変更されたら、次に、触感制御部14は、UI定義ファイルで設定されたリリース触感を呈示するように触感呈示部50を制御する(ステップS53)。
ここで、リリース触感を呈示する荷重基準は、押圧時にクリック触感を呈示する上記の荷重基準と同じに設定することもできるが、好ましくは、押圧時にクリック触感を呈示する荷重基準よりも50%〜80%低い値に設定する。このようにすれば、同一位置(オブジェクト)を連続入力(連打)する場合に、順次の入力と触感呈示タイミングとが合致し、違和感のないリアルなクリック触感を呈示することができる。すなわち、リリース時に触感を呈示する基準の荷重を、押圧時に触感を呈示する基準の荷重よりも小さくすることにより、違和感を与えないようにし、かつ、リリース時に触感を呈示する基準の荷重を、押圧時に触感を呈示する基準の荷重のおよそ50%以上とすることにより、連続入力時の操作性を格段に向上できる。また、リリース時に触感を呈示する基準の荷重を、押圧時に触感を呈示する基準の荷重のおよそ80%以下とすることにより、連続入力時のホールド状態での微小な荷重変化にも対応できる。
このようにすれば、押下時に「カッ」、リリース時に「チッ」と感じられるよりリアルなクリック触感を呈示することができる。勿論、リリース触感は、クリック触感と同一の駆動信号を用いることもできるが、本実施の形態においては、例えば図5において説明したように、クリック触感とは別の態様のリリース触感を設定できる。
次に、UIの定義ファイルにおいて、オブジェクトに「なぞり触感」が設定されている場合の動作について説明する。
本実施の形態においては、触感呈示装置1が呈示する触感として、あるオブジェクトに上述したクリック触感およびリリース触感のみを設定するのみならず、例えば図5において説明したなぞり触感を設定することもできる。例えば、面積の小さなオブジェクトなどの場合のように、操作者にスライド入力を求める必要性が低いオブジェクトの場合、上述したクリック触感およびリリース触感のみを設定すれば充分である場合も考えられる。しかしながら、面積の大きなオブジェクトなどの場合は、操作者がスライド入力をした際に呈示されるなぞり触感によって、操作者がオブジェクトを視認していなくても、触感によりオブジェクトを識別することができる。
また、例えば図5に示したテキストボックスのオブジェクトのような場合、このオブジェクトそのものは操作者の押圧による入力を受け付けない設定にすることもできる(この場合、クリック触感およびリリース触感を設定しないようにするのが好適である)。このような場合であっても、例えばテキストボックスにテキストを表示している際にはザラザラする手触りのなぞり触感を呈示し、テキストボックスにテキストを表示していない場合にはツルツルする手触りのなぞり触感を呈示する態様も考えられる。このようにすることにより、操作者は、オブジェクトを目視していない場合であっても、テキストボックスにテキストが表示されているか否かを簡単かつ確実に判断することができる。このような態様の応用として、例えば、オブジェクトに所定の警告が表示されている場合には、通常と異なるなぞり触感が呈示されるように設定しておくなど、種々の態様を想定することができる。
図10は、本実施の形態による触感呈示装置1がなぞり触感を呈示する動作を説明するフローチャートである。図10に示す動作も、図9に示したリリース触感の呈示の際の動作と同様に、図8において説明したクリック触感を呈示する動作(ステップS36)の後から開始する。なお、図10において、ステップS71〜S73までの動作は、図9にて説明したリリース触感を呈示する動作と同じであるため、説明を省略する。
なぞり触感を呈示する動作においては、ステップS71において、荷重検出部60が検出する押圧荷重が所定の基準以上から当該所定の基準未満に変化していない場合、ステップS74に移行する。ステップS74においては、UI制御部16が、タッチセンサ40のタッチ面に対するタッチ入力の位置が変化したか否かを判定する。
ステップS74においてタッチ入力の位置が変化したと判定された場合、スライド入力が行われたと判断できる。この場合、触感制御部14は、タッチセンサ40のタッチ面に所定の振動を発生させて、UIの定義ファイルにおいて設定されているなぞり触感を呈示するように触感呈示部50を制御する(ステップS75)。なお、ステップS74においてタッチ入力の位置が変化したと判定されない場合、スライド入力が行われていないと判断できるため、ステップS75の動作は行わずにステップS76に移行する。
ステップS76においては、アプリケーション実行部20が、タッチセンサ40のタッチ面に対するタッチ入力の位置が、入力を受け付けているオブジェクトの画像が表示された位置から外れたか否かを判定する。ステップS76において、入力位置がオブジェクトから外れていないと判定された場合、ステップS71に戻って、以降の動作を続行する。一方、ステップS76において、入力位置がオブジェクトから外れたと判定された場合、ステップS72に移行して、リリースを検知した場合の動作を続行する(ステップS72およびS73)。
このように、本実施の形態による触感呈示装置1は、UIの定義ファイルにおいて、入力に応じて呈示する触感を、オブジェクトごとに設定することができる。したがって、触感呈示装置1は、既存のアプリケーションを流用することにより、所定の条件に応じてオブジェクトごとに適切な触感を呈示することができる。本発明によれば、UIの生成に係る制御を行うUI制御部が、UI定義ファイルに基づいて、種々のアプリケーション間の差異を補完するように触感の設定を行うため、アプリケーションの設計の段階で特別な制御を考慮する必要はなくなる。また、本実施の形態による触感呈示装置1は、オブジェクトに対する入力に応じて、クリック触感、リリース触感などの種々の触感を呈示することができる。このため、触感呈示装置1は、既存のアプリケーションを無駄にすることなく活用することができ、さらに、現実の押しボタンスイッチを操作する際に得られるようなリアルな操作感を提供することができる。
なお、本発明は、上記実施の形態にのみ限定されるものではなく、幾多の変形または変更が可能である。例えば、上述した各実施の形態では、制御部10には、表示制御部12と、触感制御部14と、UI制御部16とが含まれる構成について説明した。しかしながら、本発明による触感呈示装置は、このような構成に限定されるものではなく、設計の際の要求に応じて種々の構成を採ることができる。例えば、一の機能部が他の機能部を兼ねるように機能させることで、当該他の機能部を省略したり、または一の機能部を複数の機能部に細分化したりすることもできる。
また、上述した各実施の形態において、荷重検出部は、タッチセンサにおける入力検出方式に応じて構成することができる。例えば、抵抗膜方式の場合には、接触面積による抵抗変化に基づく出力信号の変化から荷重が検出できれば、歪みゲージセンサを用いることなく構成することができる。あるいは、静電容量方式の場合には、静電容量の変化に基づく出力信号の変化から荷重が検出できる場合も、歪みゲージセンサを用いることなく構成することができる。
また、触感呈示部は、任意の個数の圧電振動子を用いて構成したり、タッチセンサの全面に透明圧電素子を設けて構成したり、触感を呈示する振動を表現できるのであれば、偏心モータを駆動信号の1周期で1回転させるようにして構成したり、することもできる。さらに、荷重検出部および触感呈示部は、圧電素子を用いて構成する場合は、圧電素子を共用して荷重検出部および触感呈示部を構成することもできる。
上述した各実施の形態においては、タッチセンサを表示部の上面に重ねて配置した構成を想定して説明した。しかしながら、本発明による触感呈示装置は、必ずしもこのような構成にする必要はなく、タッチセンサと表示部とを離間した構成にしてもよい。
また、本発明は、タッチセンサがオン・オフ動作を行うタッチスイッチとして機能する入力装置にも有効に適用することができる。
また、本発明に係る触感呈示装置は、圧電素子の出力に基づいて検出される押圧荷重が触感を呈示する荷重基準を満たした際に、当該圧電素子を駆動する。ここで、圧電素子の出力に基づいて検出される押圧荷重が触感を呈示する荷重基準を満たした際とは、検出される押圧荷重が触感を呈示する基準値に達した際であってもよいし、検出される押圧荷重が触感を呈示する基準値を超えた際でもよいし、圧電素子の出力に基づいて触感を呈示する基準値が検出された際でもよい。
1 触感呈示装置
10 制御部
12 表示制御部
14 触感制御部
16 UI制御部
20 アプリケーション実行部
30 表示部
40 タッチセンサ
40a タッチ面
50 触感呈示部
52 圧電振動子
60 荷重検出部
61 筐体
62 インシュレータ
63 アッパカバー
64 インシュレータ
70 記憶部
72 アプリケーション記憶領域
74 UI定義ファイル記憶領域
76 UIリソース記憶領域

Claims (6)

  1. タッチセンサと、
    前記タッチセンサのタッチ面を振動させる触感呈示部と、
    表示部と、
    前記表示部に表示するユーザインタフェースの定義ファイルであって、当該ユーザインタフェースを構成するユーザインタフェースオブジェクトに応じて前記触感呈示部が呈示する触感の情報を含む定義ファイルを記憶する記憶部と、
    前記定義ファイルを解析することにより当該定義ファイルで定義されるユーザインタフェースを設定するとともに、所定の処理を実行するユーザインタフェースオブジェクトに対する入力を検知すると、前記タッチ面を押圧している押圧対象に対して当該ユーザインタフェースオブジェクトに応じた触感を呈示するように前記触感呈示部を制御する制御部と、
    を備えることを特徴とする、触感呈示装置。
  2. 前記タッチセンサのタッチ面に対する押圧荷重を検出する荷重検出部をさらに備え、
    前記制御部は、前記所定の処理を実行するユーザインタフェースオブジェクトに対する入力を検知している状態で、前記荷重検出部が前記触感を呈示する荷重基準を満たす押圧荷重を検出すると、前記押圧対象に対して触感を呈示するように前記触感呈示部を制御する、
    請求項1に記載の触感呈示装置。
  3. 起動されると、触感が定義されたユーザインタフェース定義ファイルの識別情報を供給するアプリケーションソフトウェアと、
    前記アプリケーションソフトウェアから供給された前記識別情報に基づくユーザインタフェース定義ファイルを記憶部から読み出して、当該ユーザインタフェース定義ファイルに基づいてユーザインタフェースに対して触感を設定する制御部と、
    を備えることを特徴とする触感呈示装置。
  4. 起動されると、触感が定義されたユーザインタフェース定義ファイルを供給するアプリケーションソフトウェアと、
    前記アプリケーションソフトウェアから供給された前記ユーザインタフェース定義ファイルを記憶部に記憶して、当該記憶部から読み出したユーザインタフェース定義ファイルに基づいてユーザインタフェースに対して触感を設定する制御部と、
    を備えることを特徴とする触感呈示装置。
  5. 起動されたアプリケーションソフトウェアから、触感が定義されたユーザインタフェース定義ファイルの識別情報を受信し、
    当該識別情報に基づくユーザインタフェース定義ファイルを記憶部から読み出し、
    当該ユーザインタフェース定義ファイルに基づいてユーザインタフェースに対して触感を設定する
    ことを特徴とする、触感を呈示する方法。
  6. 起動されたアプリケーションソフトウェアから、触感が定義されたユーザインタフェース定義ファイルを受信し、
    当該ユーザインタフェース定義ファイルを記憶部に記憶し、
    当該記憶部から読み出したユーザインタフェース定義ファイルに基づいてユーザインタフェースに対して触感を設定する
    ことを特徴とする、触感を呈示する方法。
JP2010015980A 2010-01-27 2010-01-27 触感呈示装置および触感呈示方法 Active JP5635274B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010015980A JP5635274B2 (ja) 2010-01-27 2010-01-27 触感呈示装置および触感呈示方法
CN201180007610.9A CN102741789B (zh) 2010-01-27 2011-01-21 触感提供装置和用于提供触感的方法
PCT/JP2011/000332 WO2011093045A1 (ja) 2010-01-27 2011-01-21 触感呈示装置および触感呈示方法
US13/575,592 US10627903B2 (en) 2010-01-27 2011-01-21 Tactile sensation providing apparatus and method for providing tactile sensation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010015980A JP5635274B2 (ja) 2010-01-27 2010-01-27 触感呈示装置および触感呈示方法

Publications (2)

Publication Number Publication Date
JP2011154559A true JP2011154559A (ja) 2011-08-11
JP5635274B2 JP5635274B2 (ja) 2014-12-03

Family

ID=44319044

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010015980A Active JP5635274B2 (ja) 2010-01-27 2010-01-27 触感呈示装置および触感呈示方法

Country Status (4)

Country Link
US (1) US10627903B2 (ja)
JP (1) JP5635274B2 (ja)
CN (1) CN102741789B (ja)
WO (1) WO2011093045A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013186841A1 (ja) * 2012-06-11 2013-12-19 富士通株式会社 電子機器及び振動提供方法
KR20140026261A (ko) * 2012-08-24 2014-03-05 임머숀 코퍼레이션 컨텍스트 의존적 햅틱 확인 시스템
JP2014056337A (ja) * 2012-09-11 2014-03-27 Tokai Rika Co Ltd 触覚提示装置
JP2014093091A (ja) * 2012-11-02 2014-05-19 Immersion Corp ダイナミックハプティック効果のコード化
JP2014206970A (ja) * 2013-03-15 2014-10-30 イマージョン コーポレーションImmersion Corporation 表面触覚感覚を有するユーザインタフェース装置
JPWO2013046670A1 (ja) * 2011-09-27 2015-03-26 京セラ株式会社 触感呈示装置
JP2015118605A (ja) * 2013-12-19 2015-06-25 キヤノン株式会社 触感制御装置、制御方法及びプログラム
US9898084B2 (en) 2012-12-10 2018-02-20 Immersion Corporation Enhanced dynamic haptic effects
JP2019194872A (ja) * 2013-06-11 2019-11-07 イマージョン コーポレーションImmersion Corporation 圧力ベースの触覚効果のためのシステム及び方法
JP2022050496A (ja) * 2016-08-30 2022-03-30 アップル インコーポレイテッド 電子デバイス用のセンサアセンブリ

Families Citing this family (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7808479B1 (en) 2003-09-02 2010-10-05 Apple Inc. Ambidextrous mouse
US7656393B2 (en) 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
HK1122460A2 (en) * 2005-03-04 2009-05-15 Apple Inc Multi-functional hand-held device
JP5635274B2 (ja) 2010-01-27 2014-12-03 京セラ株式会社 触感呈示装置および触感呈示方法
JP5497893B2 (ja) * 2010-05-27 2014-05-21 京セラ株式会社 触感呈示装置および制御方法
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
CN109298789B (zh) 2012-05-09 2021-12-31 苹果公司 用于针对激活状态提供反馈的设备、方法和图形用户界面
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
CN104487928B (zh) 2012-05-09 2018-07-06 苹果公司 用于响应于手势而在显示状态之间进行过渡的设备、方法和图形用户界面
EP3410287B1 (en) 2012-05-09 2022-08-17 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
EP2847657B1 (en) 2012-05-09 2016-08-10 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
EP3264252B1 (en) 2012-05-09 2019-11-27 Apple Inc. Device, method, and graphical user interface for performing an operation in accordance with a selected mode of operation
DE112013002387T5 (de) 2012-05-09 2015-02-12 Apple Inc. Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung taktiler Rückkopplung für Operationen in einer Benutzerschnittstelle
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
US9891709B2 (en) * 2012-05-16 2018-02-13 Immersion Corporation Systems and methods for content- and context specific haptic effects using predefined haptic effects
US20140002376A1 (en) * 2012-06-29 2014-01-02 Immersion Corporation Method and apparatus for providing shortcut touch gestures with haptic feedback
CN109375853A (zh) 2012-12-29 2019-02-22 苹果公司 对用户界面分级结构导航的设备、方法和图形用户界面
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
WO2014105277A2 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
WO2014105275A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
KR101958517B1 (ko) 2012-12-29 2019-03-14 애플 인크. 터치 입력에서 디스플레이 출력으로의 관계들 사이에서 전환하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
EP3564806B1 (en) 2012-12-29 2024-02-21 Apple Inc. Device, method and graphical user interface for determining whether to scroll or select contents
US8881111B1 (en) 2013-09-17 2014-11-04 Xamarin Inc. Testing user interface responsiveness for mobile applications
US8856748B1 (en) 2013-09-17 2014-10-07 Xamarin Inc. Mobile application testing platform
US9053435B2 (en) * 2013-09-17 2015-06-09 Xamarin Inc. Generating application models based on discovery based machine learning
US9665206B1 (en) 2013-09-18 2017-05-30 Apple Inc. Dynamic user interface adaptable to multiple input tools
US20150271228A1 (en) * 2014-03-19 2015-09-24 Cory Lam System and Method for Delivering Adaptively Multi-Media Content Through a Network
KR102096146B1 (ko) 2014-09-02 2020-04-28 애플 인크. 가변 햅틱 출력을 위한 시맨틱 프레임워크
CN106687905B (zh) * 2014-09-09 2021-02-26 三菱电机株式会社 触感控制系统及触感控制方法
WO2016038677A1 (ja) * 2014-09-09 2016-03-17 三菱電機株式会社 触感制御システムおよび触感制御方法
DE102015200036A1 (de) * 2015-01-05 2016-07-07 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung in einem Kraftfahrzeug zur Eingabe von Daten mit zwei Eingabearten und haptischer Rückkopplung
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
JP6386952B2 (ja) * 2015-03-18 2018-09-05 アルプス電気株式会社 電子機器及び振動制御方法
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US10152208B2 (en) 2015-04-01 2018-12-11 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
DK179823B1 (en) 2016-06-12 2019-07-12 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROVIDING HAPTIC FEEDBACK
DK201670737A1 (en) 2016-06-12 2018-01-22 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Haptic Feedback
JP2018005274A (ja) * 2016-06-27 2018-01-11 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
DK179278B1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, methods and graphical user interfaces for haptic mixing
DK201670720A1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs
DK201670728A1 (en) 2016-09-06 2018-03-19 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Feedback During Interaction with an Intensity-Sensitive Button
DE112017007223T5 (de) * 2017-04-10 2019-12-05 Mitsubishi Electric Corporation Benutzerschnittstellenvorrichtung
DK201770372A1 (en) 2017-05-16 2019-01-08 Apple Inc. TACTILE FEEDBACK FOR LOCKED DEVICE USER INTERFACES
KR101995817B1 (ko) * 2017-07-18 2019-07-03 주식회사 하이딥 터치 입력 장치 제조 방법 및 터치 입력 장치
CN107203273B (zh) * 2017-07-20 2020-07-03 京东方科技集团股份有限公司 触控基板及驱动方法、显示面板及驱动方法
KR102353487B1 (ko) * 2017-08-10 2022-01-20 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US10573136B2 (en) * 2017-08-31 2020-02-25 Microsoft Technology Licensing, Llc Calibrating a vibrational output device
DE102017218120A1 (de) * 2017-10-11 2019-04-11 Robert Bosch Gmbh Verfahren zur Bereitstellung einer haptischen Rückmeldung an einen Bediener einer berührungssensitiven Anzeigeeinrichtung
US10871829B2 (en) * 2017-12-05 2020-12-22 Tactai, Inc. Touch enabling process, haptic accessory, and core haptic engine to enable creation and delivery of tactile-enabled experiences with virtual objects
US11550397B1 (en) * 2019-10-10 2023-01-10 Meta Platforms, Inc. Systems and methods for simulating a sensation of expending effort in a virtual environment
CN111782083A (zh) * 2020-06-30 2020-10-16 北京小米移动软件有限公司 内容输入方法、装置、触控输入设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001296941A (ja) * 2000-04-13 2001-10-26 Fuji Xerox Co Ltd 情報処理装置
JP2009241924A (ja) * 2008-03-28 2009-10-22 Denso Internatl America Inc 自動車の運転者のためのインターフェースシステム
JP2010015239A (ja) * 2008-07-01 2010-01-21 Sony Corp 情報処理装置、及び情報処理装置における振動制御方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7127679B2 (en) * 2001-06-29 2006-10-24 Softrek, Inc. Method for generating and navigating a plurality of menus using a database and a menu template
JP2003288158A (ja) 2002-01-28 2003-10-10 Sony Corp タクタイル・フィードバック機能を持つ携帯型機器
TWI234115B (en) 2002-04-03 2005-06-11 Htc Corp Method and device of setting threshold pressure for touch panel
CN104656900A (zh) * 2006-09-13 2015-05-27 意美森公司 用于游戏厅游戏触觉的系统和方法
JP2008130055A (ja) 2006-11-27 2008-06-05 Sony Corp タッチパネルディスプレイ装置および駆動方法並びに電子機器
US8065624B2 (en) 2007-06-28 2011-11-22 Panasonic Corporation Virtual keypad systems and methods
US8004501B2 (en) 2008-01-21 2011-08-23 Sony Computer Entertainment America Llc Hand-held device with touchscreen and digital tactile pixels
US8174503B2 (en) * 2008-05-17 2012-05-08 David H. Cain Touch-based authentication of a mobile device through user generated pattern creation
US8884884B2 (en) * 2008-11-12 2014-11-11 Immersion Corporation Haptic effect generation with an eccentric rotating mass actuator
US8378979B2 (en) * 2009-01-27 2013-02-19 Amazon Technologies, Inc. Electronic device with haptic feedback
TW201039209A (en) 2009-04-27 2010-11-01 Compal Electronics Inc Method for operating electronic device using touch pad
US8390594B2 (en) * 2009-08-18 2013-03-05 Immersion Corporation Haptic feedback using composite piezoelectric actuator
JP5635274B2 (ja) 2010-01-27 2014-12-03 京セラ株式会社 触感呈示装置および触感呈示方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001296941A (ja) * 2000-04-13 2001-10-26 Fuji Xerox Co Ltd 情報処理装置
JP2009241924A (ja) * 2008-03-28 2009-10-22 Denso Internatl America Inc 自動車の運転者のためのインターフェースシステム
JP2010015239A (ja) * 2008-07-01 2010-01-21 Sony Corp 情報処理装置、及び情報処理装置における振動制御方法

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2013046670A1 (ja) * 2011-09-27 2015-03-26 京セラ株式会社 触感呈示装置
US9448629B2 (en) 2011-09-27 2016-09-20 Kyocera Corporation Multi-mode tactile sensation providing device
WO2013186841A1 (ja) * 2012-06-11 2013-12-19 富士通株式会社 電子機器及び振動提供方法
JPWO2013186841A1 (ja) * 2012-06-11 2016-02-01 富士通株式会社 電子機器及び振動提供方法
JP2018125021A (ja) * 2012-08-24 2018-08-09 イマージョン コーポレーションImmersion Corporation コンテキスト依存ハプティック確認システム
JP2014044722A (ja) * 2012-08-24 2014-03-13 Immersion Corp コンテキスト依存ハプティック確認システム
KR102255100B1 (ko) * 2012-08-24 2021-05-24 임머숀 코퍼레이션 컨텍스트 의존적 햅틱 확인 시스템
KR20140026261A (ko) * 2012-08-24 2014-03-05 임머숀 코퍼레이션 컨텍스트 의존적 햅틱 확인 시스템
JP2014056337A (ja) * 2012-09-11 2014-03-27 Tokai Rika Co Ltd 触覚提示装置
US9958944B2 (en) 2012-11-02 2018-05-01 Immersion Corporation Encoding dynamic haptic effects
JP2018163691A (ja) * 2012-11-02 2018-10-18 イマージョン コーポレーションImmersion Corporation ダイナミックハプティック効果のコード化
US10248212B2 (en) 2012-11-02 2019-04-02 Immersion Corporation Encoding dynamic haptic effects
JP2014093091A (ja) * 2012-11-02 2014-05-19 Immersion Corp ダイナミックハプティック効果のコード化
US9898084B2 (en) 2012-12-10 2018-02-20 Immersion Corporation Enhanced dynamic haptic effects
US10359851B2 (en) 2012-12-10 2019-07-23 Immersion Corporation Enhanced dynamic haptic effects
JP2014206970A (ja) * 2013-03-15 2014-10-30 イマージョン コーポレーションImmersion Corporation 表面触覚感覚を有するユーザインタフェース装置
JP2019194872A (ja) * 2013-06-11 2019-11-07 イマージョン コーポレーションImmersion Corporation 圧力ベースの触覚効果のためのシステム及び方法
JP2015118605A (ja) * 2013-12-19 2015-06-25 キヤノン株式会社 触感制御装置、制御方法及びプログラム
JP2022050496A (ja) * 2016-08-30 2022-03-30 アップル インコーポレイテッド 電子デバイス用のセンサアセンブリ

Also Published As

Publication number Publication date
CN102741789B (zh) 2016-12-07
US20120299859A1 (en) 2012-11-29
US10627903B2 (en) 2020-04-21
CN102741789A (zh) 2012-10-17
WO2011093045A1 (ja) 2011-08-04
JP5635274B2 (ja) 2014-12-03

Similar Documents

Publication Publication Date Title
JP5635274B2 (ja) 触感呈示装置および触感呈示方法
JP5654114B2 (ja) タッチセンサを備えた電子機器
JP5529663B2 (ja) 入力装置
JP5718475B2 (ja) 触感呈示装置
JP5555612B2 (ja) 触感呈示装置
JP5543615B2 (ja) 電子機器
JP5766398B2 (ja) 触感呈示装置
EP2075671A1 (en) User interface of portable device and operating method thereof
JPWO2013046670A1 (ja) 触感呈示装置
JP5539788B2 (ja) 触感呈示装置
JP5243379B2 (ja) 入力装置
EP3211510B1 (en) Portable electronic device and method of providing haptic feedback
JP5623054B2 (ja) 入力装置
JP5587759B2 (ja) 触感呈示装置、当該装置に用いるプログラムおよび触感呈示方法
WO2011077687A1 (ja) 触感呈示装置および触感呈示装置の制御方法
TWI537809B (zh) 觸感顯示裝置以及觸感顯示方法
CN110538460B (zh) 移动装置
JP5725899B2 (ja) 文字列検索装置
JP5292244B2 (ja) 入力装置
JP5591646B2 (ja) 電子情報機器
JP5706676B2 (ja) 触感呈示装置
JP2011095925A (ja) 入力装置
JP2011095928A (ja) 入力装置
JP2011095926A (ja) 入力装置
JP2012103933A (ja) タッチ入力装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140930

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141016

R150 Certificate of patent or registration of utility model

Ref document number: 5635274

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150