JP6258513B2 - 触感制御システムおよび触感制御方法 - Google Patents

触感制御システムおよび触感制御方法 Download PDF

Info

Publication number
JP6258513B2
JP6258513B2 JP2016547285A JP2016547285A JP6258513B2 JP 6258513 B2 JP6258513 B2 JP 6258513B2 JP 2016547285 A JP2016547285 A JP 2016547285A JP 2016547285 A JP2016547285 A JP 2016547285A JP 6258513 B2 JP6258513 B2 JP 6258513B2
Authority
JP
Japan
Prior art keywords
tactile sensation
icon
tactile
user
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016547285A
Other languages
English (en)
Other versions
JPWO2016038677A1 (ja
Inventor
下谷 光生
光生 下谷
英一 有田
英一 有田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2016038677A1 publication Critical patent/JPWO2016038677A1/ja
Application granted granted Critical
Publication of JP6258513B2 publication Critical patent/JP6258513B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、タッチパネルまたはタッチパッドの操作面に対する操作時のユーザの触感を制御する触感制御システムおよび触感制御方法に関する。
従来、タッチパネルを備える表示装置の表示画面に対してユーザが操作を行う際に、操作に応じた触感をユーザに付与する技術がある。
例えば、指に超音波を照射することによって、指に触感を付与する技術が開示されている(例えば、特許文献1,2参照)。また、超音波振動によってタッチパネルの任意の領域を振動させることによって、ユーザに触感を付与する技術が開示されている(例えば、非特許文献1参照)。また、タッチパネルの任意の領域を動的(物理的に)に起伏させることによって触感を付与する技術が開示されている(例えば、特許文献3参照)。
特開2003−29898号公報 国際公開第2012/102026号 特表2005−512241号公報
"触感が得られるタッチパネルを搭載したタブレットを試作"、[online]、平成26年2月24日、富士通株式会社、[平成26年5月12日]、インターネット〈URL : http://pr.fujitsu.com/jp/news/2014/02/24.html?nw=pr〉
ユーザは、特許文献1〜3および非特許文献1の技術を用いれば、操作を行う際に、表示画面に視線を集中させることなく触感を頼りに操作することが可能であると考えられる。しかし、特許文献1〜3および非特許文献1では、具体的な使用について何ら開示されておらず、使い勝手の良いユーザインタフェースを提供しているとはいえなかった。
本発明は、このような問題を解決するためになされたものであり、ユーザが操作時に表示画面に視線を集中させることなく使い勝手の良い操作を行うことが可能な触感制御システムおよび触感制御方法を提供することを目的とする。
上記の課題を解決するために、本発明による触感制御システムは、タッチパネルまたはタッチパッドの操作面に対する操作時のユーザの触感を制御する触感制御システムであって、ユーザの操作面への操作を検出する操作検出部と、操作検出部にてユーザがアイコン操作またはジェスチャー操作していることを検出すると、ユーザがアイコン操作またはジェスチャー操作している間、アイコン操作またはジェスチャー操作を受け付けた領域の触感が予め定められた触感変化規則に基づいて時間の経過とともに変化するように操作面の触感を制御する触感制御部とを備え、触感制御部は、アイコン操作を受け付けた領域に対する触感の位置が時間の経過とともに変化するように操作面の触感を制御し、アイコン操作を受け付けた領域の形状が時間の経過とともに変化するように制御する。
また、本発明による触感制御方法は、タッチパネルまたはタッチパッドの操作面に対する操作時のユーザの触感を制御する触感制御方法であって、ユーザの操作面への操作を検出し、ユーザがアイコン操作またはジェスチャー操作していることを検出すると、ユーザがアイコン操作またはジェスチャー操作している間、アイコン操作またはジェスチャー操作を受け付けた領域の触感が予め定められた触感変化規則に基づいて時間の経過とともに変化するように操作面の触感を制御し、アイコン操作を受け付けた領域に対する触感の位置が時間の経過とともに変化するように操作面の触感を制御し、アイコン操作を受け付けた領域の形状が時間の経過とともに変化するように制御する。
本発明によると、触感制御システムは、タッチパネルまたはタッチパッドの操作面に対する操作時のユーザの触感を制御する触感制御システムであって、ユーザの操作面への操作を検出する操作検出部と、操作検出部にてユーザがアイコン操作またはジェスチャー操作していることを検出すると、ユーザがアイコン操作またはジェスチャー操作している間、アイコン操作またはジェスチャー操作を受け付けた領域の触感が予め定められた触感変化規則に基づいて時間の経過とともに変化するように操作面の触感を制御する触感制御部とを備え、触感制御部は、アイコン操作を受け付けた領域に対する触感の位置が時間の経過とともに変化するように操作面の触感を制御し、アイコン操作を受け付けた領域の形状が時間の経過とともに変化するように制御するため、ユーザが操作時に表示画面に視線を集中させることなく使い勝手の良い操作を行うことが可能となる。
また、触感制御方法は、タッチパネルまたはタッチパッドの操作面に対する操作時のユーザの触感を制御する触感制御方法であって、ユーザの操作面への操作を検出し、ユーザがアイコン操作またはジェスチャー操作していることを検出すると、ユーザがアイコン操作またはジェスチャー操作している間、アイコン操作またはジェスチャー操作を受け付けた領域の触感が予め定められた触感変化規則に基づいて時間の経過とともに変化するように操作面の触感を制御し、アイコン操作を受け付けた領域に対する触感の位置が時間の経過とともに変化するように操作面の触感を制御し、アイコン操作を受け付けた領域の形状が時間の経過とともに変化するように制御するため、ユーザが操作時に表示画面に視線を集中させることなく使い勝手の良い操作を行うことが可能となる。
本発明の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。
本発明の実施の形態1による触感制御装置の構成の一例を示すブロック図である。 本発明の実施の形態1による触感を説明するための図である。 本発明の実施の形態1による触感を説明するための図である。 本発明の実施の形態1による触感を説明するための図である。 本発明の実施の形態1による触感を説明するための図である。 本発明の実施の形態1による触感を説明するための図である。 本発明の実施の形態1による触感制御装置の構成の他の一例を示すブロック図である。 本発明の実施の形態1による触感制御装置の動作の一例を示すフローチャートである。 本発明の実施の形態1による触感制御装置の動作の一例を示す図である。 本発明の実施の形態1による触感制御装置の動作の一例を示す図である。 本発明の実施の形態1による触感制御装置の動作の一例を示す図である。 本発明の実施の形態1による触感制御装置の動作の一例を示す図である。 本発明の実施の形態1による触感制御装置の動作の一例を示す図である。 本発明の実施の形態1による触感制御装置の動作の一例を示す図である。 本発明の実施の形態1による触感制御装置の動作の一例を示す図である。 本発明の実施の形態1による触感制御装置の動作の一例を示す図である。 本発明の実施の形態1による触感制御装置の動作の一例を示す図である。 本発明の実施の形態1による触感制御装置の動作の一例を示す図である。 本発明の実施の形態2による触感制御装置の構成の一例を示すブロック図である。 本発明の実施の形態2による触感制御装置の動作の一例を示すフローチャートである。 本発明の実施の形態2による触感制御装置の動作の一例を示す図である。 本発明の実施の形態2による触感制御装置の動作の一例を示す図である。 本発明の実施の形態3による触感制御装置の動作の一例を示す図である。 本発明の実施の形態4による触感制御装置の動作の一例を示す図である。 本発明の実施の形態4による触感制御装置の動作の一例を示す図である。 本発明の実施の形態5による触感制御装置の動作の一例を示す図である。 本発明の実施の形態5による触感制御装置の動作の一例を示す図である。 本発明の実施の形態5による触感制御装置の動作の一例を示す図である。 本発明の実施の形態5による触感制御装置の動作の一例を示す図である。 本発明の実施の形態5による触感制御装置の動作の一例を示す図である。 本発明の実施の形態5による触感制御装置の動作の一例を示す図である。 本発明の実施の形態5による触感制御装置の動作の一例を示す図である。 本発明の実施の形態5による触感制御装置の動作の一例を示す図である。 本発明の実施の形態5による触感制御装置の動作の一例を示す図である。 本発明の実施の形態6による触感制御装置の動作の一例を示す図である。 本発明の実施の形態6による触感制御装置の動作の一例を示す図である。 本発明の実施の形態6による触感制御装置の動作の一例を示す図である。 本発明の実施の形態6による触感制御装置の動作の一例を示す図である。 本発明の実施の形態7による触感制御装置の動作の一例を示す図である。 本発明の実施の形態7による触感制御装置の動作の一例を示す図である。 本発明の実施の形態7による触感制御装置の動作の一例を示す図である。 本発明の実施の形態7による触感制御装置の動作の一例を示す図である。 本発明の実施の形態7による触感制御装置の動作の一例を示す図である。 本発明の実施の形態7による触感制御装置の動作の一例を示す図である。 本発明の実施の形態7による触感制御装置の動作の一例を示す図である。 本発明の実施の形態7による触感制御装置の動作の一例を示す図である。 本発明の実施の形態7による触感制御装置の動作の一例を示す図である。 本発明の実施の形態7による触感制御装置の動作の一例を示す図である。 本発明の実施の形態による触感制御システムの構成の一例を示すブロック図である。 本発明の実施の形態による触感制御システムの構成の他の一例を示すブロック図である。
本発明の実施の形態について、図面に基づいて以下に説明する。
<実施の形態1>
まず、本発明の実施の形態1による触感制御システムの構成について説明する。なお、本実施の形態および以下の各実施の形態においては、触感制御システムを触感制御装置単体で実現した場合について説明する。
図1は、本実施の形態1による触感制御装置1の構成の一例を示すブロック図である。なお、図1では、触感制御装置1を構成する必要最小限の構成要素を示している。
図1に示すように、触感制御装置1は、少なくとも操作検出部2と、触感制御部3とを備えている。
操作検出部2は、タッチパネルまたはタッチパッドの操作面に対するユーザの操作を検出する。
触感制御部3は、操作検出部2にて検出されたユーザの操作を受け付けた領域の触感またはユーザの操作の動きに追従する領域の触感が時間の経過とともに変化するように操作面の触感を制御する。
ここで、触感制御部3が制御する触感について、図2〜6を用いて説明する。
図2は、「つるつる」、「半ザラザラ」、および「ザラザラ」の3つの触感の一例を示す図である。
図2において、横軸は触感の強さを示しており、最も左側の一列は「つるつる」を示し、中央の二列は「半ザラザラ」を示し、最も右側の一列は「ザラザラ」を示している。また、各四角内に示す黒で表現したドットや線のパターン部分を例えば超音波振動によって振動させることによって、四角内全体の触感を表現している。すなわち、例えば各四角内における振動の強さが同じである場合において、図2の左側よりも右側の方が「ザラザラ」の触感が強くなる。具体的には、図2の1行目はドットの目が大きいほどザラザラの触感が強いことを示し、2行目は格子の間隔が狭いほどザラザラの触感が強いことを示し、3行目は線が破線から実線、かつ線が太くなるに従ってザラザラの触感が強いことを示している。なお、ザラザラの触感のパターンは、図2にこだわるものではなく、無限の組み合わせが存在する。
図2の例は、振動の強さが同じであってもパターンを変えることによって異なるザラザラの触感を得る方法を示したが、同一のパターンであっても振動の強さを変えると異なるザラザラの触感を得ることができる。
「つるつる」の触感は、例えば超音波振動を行わないことによって表現することができる。
「ザラザラ」の触感は、例えば予め定められた閾値以上の強さで超音波振動を行うことによって表現することができる。
「半ザラザラ」の触感は、例えば上記の閾値よりも小さい超音波振動を行うことによって表現することができる。
また、振動の強さと、図2に示すようなザラザラの触感のパターンとの両方を組み合わせることによって、ザラザラの触感の強弱を表現することができる。
図2では、ザラザラの触感のパターンと、振動の強度が変化しない静的なザラザラの触感の発生とについて説明したが、振動の強弱を時間的に変化させたり、ザラザラの触感のパターンを時間的に変化させたりすることによって(すなわち、振動の強弱、あるいはザラザラの触感のパターンを動的に変化させることによって)、動くザラザラの触感を表現することもできる。ここで、触感のパターンが同一領域内で変化することを固定型触感変化という。
図3〜5は、振動の強度を時間的に変化させることによって「動くザラザラ」の触感を発生させる一例を示す図である。図3〜5において、横軸は時間、縦軸は触感の強さを示している。
図3は、触感の強さを一定にし、かつ当該触感が一定周期で発生する場合について示している。また、図4は、触感の強さを変化させ、かつ当該触感が一定周期で発生する場合について示している。また、図5は、触感の強さを一定にし、かつ当該触感の発生の周期が変化する場合について示している。
図3〜5に示すように触感を変化させることによって、ユーザは例えば「ザラザラ」した領域が動いているかのような触感(すなわち、「動くザラザラ」の触感)を得ることができる。なお、図3〜5では、「ザラザラ」の触感と「つるつる」の触感とを交互に切り替えているが、「ザラザラ」の触感と「半ザラザラ」の触感とを交互に切り替えてもよく、「ザラザラ」の触感を離散的ではなく連続的に切り替えてもよく、連続的変化と離散的変化とを自由に組み合わせてもよい。
図6は、ザラザラの触感のパターンが時間的に変化することによって「動くザラザラ」の触感を発生させる他の一例を示す図である。図6において、縦軸は時間を示している。また、領域aおよび領域bは、例えば「ザラザラ」の触感を有している。
図6に示すように、領域aおよび領域bは、時間の経過とともに位置が移動している。このように、触感を有する領域aおよび領域bを移動させることによって、ユーザは例えば「ザラザラ」した領域が動いているかのような触感(すなわち、「動くザラザラ」の触感)を得ることができる。なお、領域aおよび領域bの各々は、図3〜5にいずれかに示すような触感を有していてもよい。ここで、触感が発生する位置が時間の経過とともに変化することを移動型触感変化という。
また、図6では、「ザラザラ」の触感の領域と「つるつる」の触感の領域とを時間的に移動させているが、「ザラザラ」の触感の領域と「半ザラザラ」の触感の領域とを構成して時間的に移動させてもよく、「ザラザラ」の触感が離散的または連続的に変化する領域を構成し、当該領域を時間的に移動させるようにしてもよい。図3〜6において、連続的に変化する「ザラザラ」の触感を採用した場合は、滑らかな「動くザラザラ」の触感を得ることができる。
次に、図1の操作検出部2および触感制御部3を含む触感制御装置1の他の構成について説明する。
図7は、触感制御装置4の構成の一例を示すブロック図である。
図7に示すように、触感制御装置4は、操作検出部2と、触感制御部3と、制御部5と、表示情報生成出力部6とを備えている。また、表示情報生成出力部6は表示器7に接続され、操作検出部2および触感制御部3は触感タッチパネル8に接続されている。
制御部5は、触感制御装置4全体の制御を行う。図7に示す例では、制御部5は、触感制御部3および表示情報生成出力部6の制御を行う。
表示情報生成出力部6は、制御部5の指示に従って表示情報を生成する。また、表示情報生成出力部6は、生成した表示情報を映像信号に変換して表示器7に出力する。
触感制御部3は、操作検出部2にて検出されたユーザの操作を受け付けた領域の触感またはユーザの操作の動きに追従する領域の触感が時間の経過とともに変化するように操作面の触感を制御するための触感制御情報を触感タッチパネル8に出力する。
操作検出部2は、触感タッチパネル8から、当該触感タッチパネル8に対するユーザの操作に関する情報を操作情報として取得する(すなわち、触感タッチパネル8に対するユーザの操作を検出する)。
表示器7は、表示情報生成出力部6から入力された表示情報を表示画面に表示する。
触感タッチパネル8は、ユーザによるタッチ操作に関する情報(タッチの有無、タッチの位置、操作内容などの情報)を操作情報として操作検出部2に出力する。また、触感タッチパネル8は、触感制御部3から入力された触感制御情報に基づいて、タッチパネルの任意の位置の触感(「つるつる」、「半ザラザラ」、「ザラザラ」、「動くザラザラ」)を変化させる。
なお、触感タッチパネル8は、表示器7の表示画面上に設けられており、ユーザは表示画面に対して直接的に操作する感覚で使用することができる。すなわち、表示器7の表示画面領域と触感タッチパネル8の触感を発生させる領域とは、完全に一致していてもよい。また、表示器7の表示画面領域と触感タッチパネル8の触感を発生させる領域とのうちのいずれか一方が他方よりも広い領域であってもよい。例えば、触感タッチパネル8の触感を発生させる領域が表示器7の表示画面領域からはみ出すように触感タッチパネル8を設置し、当該はみ出した領域では表示しないがタッチ操作の入力が可能な領域として活用してもよい。
次に触感制御装置4の動作について、図8および図9を用いて説明する。
図8は、触感制御装置4の動作の一例を示すフローチャートである。図9は、触感制御装置4の動作の一例を示す図であり、表示器7に操作アイコン9が表示されている。ここで、操作アイコン9は、ユーザが表示器7の表示画面に表示された情報に対して任意のタッチ入力による操作(アイコン操作)を行うためのアイコンである。
ステップS11において、表示情報生成出力部6は、制御部5の指示に従って表示情報を生成し、生成した表示情報を映像信号に変換して表示器7に出力する。表示器7には、図9に示すような画面が表示される。
ステップS12において、触感制御部3は、制御部5の指示に従って、操作アイコン9の領域の触感制御情報を「ザラザラ」に設定する。
ステップS13において、触感制御部3は、ステップS12にて設定された触感制御情報を触感タッチパネル8に出力する。触感タッチパネル8では、触感制御部3から入力された触感制御情報に基づいて、操作アイコン9の領域の触感が「ザラザラ」となるように制御する。
ステップS14において、制御部5は、操作検出部2による検出結果に基づいて、ユーザが触感タッチパネル8をタッチしたか(操作入力があるか)否かを判断する。ユーザが触感タッチパネル8をタッチするまで待機し、ユーザが触感タッチパネル8をタッチした場合は、ステップS15に移行する。
ステップS15において、触感制御部3は、操作アイコン9の領域の触感を変えるように制御する。
上記より、操作アイコン9の領域の触感は、ユーザが操作アイコン9をタッチしている間変化する。なお、本実施の形態1におけるタッチ入力によるアイコン操作は、ユーザが触感タッチパネル8の操作面に軽く触れた場合はアイコン操作の予備操作として触感を感じることが可能であり、ユーザが操作面を強く押し込んだ場合にアイコン操作を受け付けるような操作方法も含むものとする。以下、操作アイコン9の領域の触感の変化の具体例について説明する。
例えば、操作アイコン9の領域の触感を、時間の経過とともに「ザラザラ」、「つるつる」の2段階に変化させてもよく、時間の経過とともに「ザラザラ」、「動くザラザラ」、「ザラザラ」の3段階に変化させてもよい。また、各触感を組み合わせて多段階に変化させてもよい。
また、図10に示すように、操作アイコン9の領域の触感の強さが、時間の経過とともに段階的(不連続的)に大きくなるようにしてもよい。なお、触感の強さが連続的に大きくなるようにしてもよく、触感のパターンが不連続または連続的に変化するようにしてもよい。図11に示すように、操作アイコン9の領域の触感の強さを一定にし、かつ当該触感の発生の周期が時間の経過とともに短くなるようにしてもよい。すなわち、操作アイコン9の領域の触感が周期の変化とともに(あるいは周期的であってもよい)変化するようにしてもよい。図12に示すように、操作アイコン9の領域の触感の強さを、上側の(下側、右側、あるいは左側であってもよい)の領域のみ変化させるようにしてもよい。すなわち、操作アイコン9内における複数の領域ごとに触感の変化が異なるようにしてもよい。図6に示すように、操作アイコン9の領域の触感を「動くザラザラ」にしてもよい。このような動作を行うことによって、ユーザは操作アイコン9を操作したことを容易に把握することができる。特に、図12では、操作アイコン9の領域のうちの一部の触感を変化させているため、省エネルギーに寄与することができる。なお、図12において、触感の強さは、2段階の触感の変化だけでなく、多段階、あるいは正弦波のように連続的な変化であってもよい。このように、触感制御部3は、予め定められた触感変化規則に基づいて、触感の強さ、触感のパターンが同一領域内で変化する固定型触感変化、または触感を発生させる位置が時間の経過とともに変化する移動型触感変化を発生させるように触感を制御する。
また、図13に示すように、操作アイコン9の領域の触感の強さを一定にし、かつ操作アイコン9の領域における触感が付与される領域の形状を時間の経過とともに変化させるようにしてもよい。図14に示すように、操作アイコン9の領域の触感を変化させ、かつ操作アイコン9の領域における触感が付与される領域の形状を時間の経過とともに変化させるようにしてもよい。図15に示すように、操作アイコン9の領域の触感を変化させ、かつ操作アイコン9の領域における触感が付与される領域の形状を時間の経過とともに回転させるようにしてもよい。このような動作を行うことによって、ユーザは操作アイコン9を操作したことを容易に把握することができる。なお、図13〜15において、操作アイコン9の領域における触感が付与される領域の形状の変化に合わせて、表示器7に表示される操作アイコン9の形状を変化させるようにしてもよい。また、操作アイコン9の領域の触感は、上記のいずれの方法で変化させてもよい。
また、操作アイコン9がモードの切り替え操作を受け付けるアイコンである場合は、操作アイコン9の領域の触感をモードに応じて変えるようにしてもよい。例えば、モードAとモードBとを切り替える場合において、モードAからモードBに切り替える際における操作アイコン9の領域の触感の変化と、モードBからモードAに切り替える際における操作アイコン9の領域の触感の変化とが異なるようにしてもよい。このようにすることによって、ユーザはどのモードに切り替わろうとしているのかを容易に把握することができる。なお、モードの切り替え操作を受け付けるアイコンとしては、例えば表示器7が地図を表示している場合における、ノースアップ地図表示とヘディングアップ地図表示とを切り替えるためのアイコンが挙げられる。また、操作アイコン9の領域の触感は、上記のいずれの方法で変化させてもよい。また、モードの切り替えは、表示内容または表示方法の切り替えにこだわるものではなく、受け付ける操作の種別の変更、または触感制御装置4を含むシステムに接続された機器の動作モードの変更なども含む。
また、図16に示すように、操作アイコン9の領域の触感を変化させるとともに、表示器7に表示される操作アイコン9の表示形態を変化させるようにしてもよい。ここで、操作アイコン9の表示形態とは、操作アイコン9の形状および色を含む。例えば、操作アイコン9がトグルスイッチの形状で表示されている場合において、トグルスイッチの操作が分かるように操作アイコン9の形状を変化させるとともに、操作アイコン9の領域の触感を変化させるようにしてもよい。このとき、操作アイコン9の領域の触感は、上記のいずれの方法で変化させてもよい。このようにすることによって、ユーザは操作アイコン9を操作したことを容易に把握することができる。
次に、ユーザが触感タッチパネル8に対して操作を行ったことを判断する方法について説明する。
例えば、図17に示すように、操作アイコン9の領域の触感の強さを、時間の経過とともに段階的(あるいは連続的であってもよい)に大きくする場合において、触感の大きさが予め定められた閾値を超えたとき(時間t=T1のとき)に、ユーザが触感タッチパネル8に対して操作を行った(操作が有効である)と判断するようにしてもよい。このようにすることによって、誤操作を防ぎ、ユーザが意図する操作を確実に受け付けることができる。
また、図18に示すように、操作アイコン9の領域の触感の強さを一定にし、かつ当該触感の発生の周期を時間の経過とともに短くする場合おいて、周期が予め定められた閾値よりも短くなったとき(時間t=T2のとき)に、ユーザが触感タッチパネル8に対して操作を行った(操作が有効である)と判断するようにしてもよい。このようにすることによって、誤操作を防ぎ、ユーザが意図する操作を確実に受け付けることができる。
また、操作アイコン9に軽く(予め定められた押圧未満で)タッチ(予め定められた第1の操作であるアイコン予備操作)しただけでは操作を行ったと判断せず、操作アイコン9を押し込むように(予め定められた押圧以上で)タッチ(予め定められた第2の操作であるアイコン操作)すると操作を行ったと判断してもよい。このとき、操作アイコン9の領域の触感は、押し込むようにタッチされたときに変化(第2の触感を変化)させてもよく、軽くタッチされたときから押し込むようにタッチされたときまでの間に変化(第1の触感を変化)させてもよく、あるいはこれらの組み合わせであってもよい。なお、操作アイコン9の領域の触感は、上記のいずれの方法で変化させてもよい。このようにすることによって、誤操作を防ぎ、ユーザが意図する操作を確実に受け付けることができる。
以上のことから、本実施の形態1によれば、ユーザによる操作の受け付けに応じて触感を変化させているため、ユーザは操作時に表示画面に視線を集中させる必要がない。すなわち、ユーザにとって使い勝手の良い操作を行うことができる。
なお、実施の形態1で説明した上記機能をスマートフォンにおいて実現してもよい。この場合、スマートフォンの場合は、ユーザが歩行しながら操作することが想定されるため、そのようなときに周囲への注意力低下を防止する効果が得られる。
<実施の形態2>
まず、本発明の実施の形態2による触感制御装置の構成について説明する。
図19は、本実施の形態2による触感制御装置10の構成の一例を示すブロック図である。
図19に示すように、触感制御装置10は、外部機器情報取得制御部11と、車両情報取得部12と、地図情報取得部13とを備えている。また、外部機器情報取得制御部11はオーディオ14およびエアコン15の各々と接続され、地図情報取得部13は地図DB(database)16と接続されている。その他の構成は、実施の形態1(図7参照)と同様であるため、ここでは説明を省略する。
外部機器情報取得制御部11は、ユーザの操作対象となる外部機器(オーディオ14、エアコン15)に関する情報を外部機器情報(操作対象機器情報)として取得する。すなわち、外部機器情報取得制御部11は、操作対象機器情報取得部としての機能を有する。また、外部機器情報取得制御部11は、外部機器(オーディオ14、エアコン15)の制御を行う。
車両情報取得部12は、車内LAN(Local Area Network)を介して、車両内に設けられた各種センサーによって検出されたセンサー情報(車速パルス情報など)、車両の制御情報、あるいはGPS(Global Positioning System)情報などを車両情報として取得する。
地図情報取得部13は、地図DB16から地図情報を取得する。
地図DB16は、地図情報を記憶している。なお、地図DB16は、車両に備えられてもよく、外部に設けられてもよい。
次に、触感制御装置10の動作について説明する。
図20は、触感制御装置10の動作の一例を示すフローチャートである。なお、図20のステップS22,ステップS24〜ステップS26は、図8のステップS11,ステップS13〜ステップS15に対応しているため、ここでは説明を省略する。
ステップS21において、外部機器情報取得制御部11は、外部機器(オーディオ14、エアコン15)から外部機器情報を取得する。取得された外部機器情報は、制御部5に出力される。
ステップS23において、触感制御部3は、制御部5の指示に従って、操作アイコン9の領域の触感制御情報を設定する。具体的には、触感制御部3は、外部機器情報取得制御部11にて取得された外部機器情報に基づいて、外部機器または当該外部機器の機能ごとに触感が異なるように触感制御情報を設定する。
次に、触感制御装置10の具体的な動作例について、図21を用いて説明する。
図21において、表示器7の表示画面には、ナビゲーション操作アイコン17と、エアコン操作アイコン18とが表示されている。また、触感タッチパネル8では、ナビゲーション操作アイコン17の領域の触感は「ザラザラ」、エアコン操作アイコン18の領域の触感は「半ザラザラ」、ナビゲーション操作アイコン17およびエアコン操作アイコン18以外の領域の触感は「つるつる」となっている。
ユーザがナビゲーションに関する操作(例えば、現在地から目的地までの経路探索などを行うための操作)を行う場合は、ナビゲーション操作アイコン17をタッチすることによって操作を行う。例えば、ユーザがナビゲーション操作アイコン17をタッチすると、制御部5は、車両情報取得部12にて取得された車両情報と、地図情報取得部13にて取得された地図情報とに基づいて経路探索等のナビゲーションに関する処理を行う。なお、制御部5は、ナビゲーション機能を有しているものとする。
また、ユーザがエアコン15に関する操作(例えば、温度調整の操作)を行う場合は、エアコン操作アイコン18をタッチすることによって操作を行う。例えばユーザがエアコン操作アイコン18をタッチすると、制御部5は、外部機器情報取得制御部11に対してエアコン15を制御するよう指示する。外部機器情報取得制御部11は、制御部5の指示に従ってエアコン15を制御する。
上記より、ナビゲーション操作アイコン17とエアコン操作アイコン18とは触感が異なっている。この状態でユーザがナビゲーション操作アイコン17またはエアコン操作アイコン18をタッチすると、ナビゲーション操作アイコン17またはエアコン操作アイコン18の領域の触感が各々異なるように変化する。例えば、ナビゲーション操作アイコン17をタッチすると、「ザラザラ」、「動くザラザラ」、「ザラザラ」の順に触感が変化し、エアコン操作アイコン18をタッチすると、「半ザラザラ」、「ザラザラ」、「半ザラザラ」の順に触感が変化する。このとき、外部機器ごとに、各触感が変化するのに要する時間を変えてもよい。このように、外部機器の種別ごとにアイコンの触感の変化を異ならせることによって、ユーザはどの機器の操作を行っているのかを容易に把握することができる。
なお、図21では、外部機器の種別ごとにアイコンの触感の変化を異ならせる場合について説明したが、これに限るものではなく、外部機器の機能ごとに触感の変化を異ならせてもよい。例えば、図21がAV(Audio Visual)画面を表示し、音量調整アイコンおよび局変更アイコンが表示されている場合において、音量調整アイコンの領域と選局アイコンの領域とで触感の変化を異ならせるようにしてもよい。このようにすることによって、ユーザはどの機能の操作を行っているのかを容易に把握することができる。
また、表示器7の表示画面に表示されるアイコンの形状が機能ごとに異なる場合において、当該アイコンごとに触感の変化を異ならせてもよい。例えば、図22に示すように、表示器7の表示画面にAV画面を表示し、選局アイコン19および音量調整アイコン20が表示されている場合において、選局アイコン19の領域と音量調整アイコン20の領域とで触感の変化を異ならせるようにしてもよい。ここで、選局アイコン19は押しボタンをイメージした形状であり、音量調整アイコン20はダイヤルをイメージした形状である。このようにすることによって、ユーザはどのような種類のアイコンを操作しているのかを容易に把握することができる。
また、タッチする操作によるアイコンの触感の変化は、図13のように大きさを変化させてもよく、ダイヤルなど回転操作を行うアイコンまたは回転する動きを行うアイコンの触感の変化は、図15のような回転変化をしてもよい。このように触感を変化させることによって、物理的な押しスイッチ、ジョグスイッチ、または回転スイッチなどを触感で表現することができるため、使い勝手の良い操作を行うことができる。
以上のことから、本実施の形態2によれば、外部機器(操作の対象となる機器種別)ごと、あるいは外部機器の機能(操作の対象となる機器の機能種別)ごとにアイコンの領域の触感の変化を異ならせているため、ユーザは意図するアイコンを選択し操作することができる。すなわち、ユーザにとって使い勝手の良い操作を行うことができる。
<実施の形態3>
本発明の実施の形態3では、触感タッチパネル8が、表示器7の表示画面(表示領域)以外の領域(非表示領域)にまで延在して設けられている場合(すなわち、触感タッチパネル8の操作面が、情報を表示する表示領域と、当該表示領域以外の非表示領域とを含んで面位設置されている場合)について説明する。本実施の形態3による触感制御装置の構成は、実施の形態2による触感制御装置10(図19参照)と同様であるため、ここでは説明を省略する。
図23は、本実施の形態3による触感制御装置の動作の一例を示す図である。
図23において、表示器7の表示画面は表示領域に対応し、触感タッチパネル8の領域は表示領域と非表示領域とを合わせた領域に対応している。表示器7の表示画面には、地図上の自車位置と、各種操作を行うための操作アイコン21(「CD再生」、「CD停止」、「周辺検索」、「ルート変更」)とが表示されている。また、触感タッチパネル8では、表示領域に表示された操作アイコン21の領域の触感は「半ザラザラ」、非表示領域における操作アイコン22の領域の触感は「ザラザラ」となっている。また、ユーザの操作時において、操作アイコン21の領域と操作アイコン22の領域とで触感の変化が異なる。このとき、操作アイコン21の領域および操作アイコン22の領域における各々の触感は、実施の形態1で説明したいずれの方法で変化させてもよい。
なお、操作アイコン22としては、例えばエアコン15の機能を操作するためのボタン、AVの機能を操作するためのボタン、ナビゲーションの機能を操作するためのボタン等が挙げられる。また、操作アイコン22は、物理的に盛り上がった形状であってもよい。
以上のことから、本実施の形態3によれば、触感タッチパネル8の操作面における表示領域に対応する領域と非表示領域に対応する領域とで触感の変化を異ならせているため、ユーザは意図するアイコンを選択し操作することができる。すなわち、ユーザにとって使い勝手の良い操作を行うことができる。
<実施の形態4>
本発明の実施の形態4では、触感制御部3が、ユーザが誤った操作を行った場合に予め定められた触感を付与することを特徴としている。本実施の形態4による触感制御装置の構成は、実施の形態2による触感制御装置10(図19参照)と同様であるため、ここでは説明を省略する。
図24は、本実施の形態4による触感制御装置の動作の一例を示す図である。なお、図24は、車両が走行中における表示および触感を示している。
表示器7の表示画面には、走行操作制限アイコン23および走行操作非制限アイコン24が表示されている。また、触感タッチパネル8では、走行操作制限アイコン23の領域の触感は「つるつる」、走行操作非制限アイコン24の領域の触感は「ザラザラ」、走行操作制限アイコン23および走行操作非制限アイコン24以外の領域の触感は「つるつる」となっている。
具体的には、車両が走行中である場合は、走行操作制限アイコン23の操作は無効状態であるため、その触感は「つるつる」となっている。一方、走行操作非制限アイコン24は、車両の走行状態に関わらず常に操作が有効状態であるため、その触感は「ザラザラ」となっている。なお、走行操作制限アイコン23は、車両が走行中である場合は操作が無効状態となるが、車両が停車中である場合は操作が有効状態となるようにしてもよい。ここで、走行操作制限アイコン23としては、ナビゲーション画面における各種操作アイコンなどが挙げられる。この場合、制御部5は、ナビゲーション機能を有しているものとする。また、走行操作非制限アイコン24としては、オーディオ14の音量調整アイコンや、エアコン15の温度調整アイコンなどが挙げられる。
図24の左図の状態において、ユーザが走行操作制限アイコン23(図中の上側の走行操作制限アイコン23)を操作すべくタッチすると、図24の右図に示すように、タッチした走行操作制限アイコン23の領域の触感が「動くザラザラ」となる。すなわち、操作を受け付けない領域をユーザがタッチすると、当該タッチした領域の触感が変わる。
図25は、本実施の形態4による触感制御装置の動作の他の一例を示す図である。なお、図25は、車両が走行中における表示および触感を示している。
表示器7の表示画面には、操作アイコン25が表示されている。また、触感タッチパネル8では、操作アイコン25の領域の触感は「ザラザラ」、操作アイコン25以外の領域の触感は「半ザラザラ」となっている。なお、図25の左図中に示す破線で囲まれた領域は、ジェスチャー入力領域26を示している。ここで、ジェスチャー入力領域とは、表示器7の表示画面内においてユーザがジェスチャー操作によって入力することが可能な領域のことをいう。また、操作アイコン25は、図24の走行操作非制限アイコン24と同じであってもよい。
具体的には、車両が走行中である場合は、ジェスチャー入力領域26の操作は無効状態であるため、その触感は「半ザラザラ」となっている。一方、操作アイコン25は、車両の走行状態に関わらず常に操作が有効状態であるため、その触感は「ザラザラ」となっている。なお、ジェスチャー入力領域26は、車両が走行中である場合は操作が無効状態となるが、車両が停車中である場合は操作が有効状態となるようにしてもよい。
図25の左図の状態において、ユーザがジェスチャー入力領域26に対してジェスチャー操作を行うべくタッチすると、図25の右図に示すように、タッチしたジェスチャー入力領域26の触感が「動くザラザラ」となる。すなわち、制限されている操作をユーザが行うと、当該操作した領域の触感が変わる。
上記より、操作を受け付けないアイコンまたは領域をタッチ(操作を受け付けない領域に対する操作、または予め定められた条件によって制限された操作)したときに当該タッチした領域の触感を変えることによって、ユーザは誤った操作を行ったことを把握することができる。
なお、上記において、車両が走行中および停車中に関わらず、操作を受け付けない領域をユーザがタッチしたときに、当該タッチした領域の触感を変えるようにしてもよい。また、触感を変える際に、触感が付与された領域の形状を変形させてもよい(例えば、図13〜15参照)。
以上のことから、本実施の形態4によれば、誤った操作を行った場合に触感を変えるため、ユーザは誤った操作を行ったことを容易に把握することができる。すなわち、ユーザにとって使い勝手の良い操作を行うことができる。
<実施の形態5>
本発明の実施の形態5では、触感制御部3が、ユーザによるジェスチャー操作の動きに追従して触感の位置が変化するように制御することを特徴としている。本実施の形態5による触感制御装置の構成は、実施の形態1による触感制御装置4(図7参照)または実施の形態2による触感制御装置10(図19参照)と同様であるため、ここでは説明を省略する。
図26は、本実施の形態5による触感制御装置の動作の一例を示す図である。
表示器7の表示画面には、任意の項目27が表示されており、画面右端にはスクロール操作アイコン28が表示されている。また、触感タッチパネル8では、スクロール操作アイコン28の領域の触感は「ザラザラ」となっている。
図26において、ユーザはスクロール操作アイコン28を画面上下方向にスライド操作することによって、各項目27のうちの1つの項目27を選択することができる。ここで、スライド操作とは、ユーザが触感タッチパネル8の操作面にタッチした状態でスライドさせる操作のことをいい、ジェスチャー操作に含まれる概念である。
例えば、図26の上図は、ユーザがスクロール操作アイコン28をスライド操作すべくタッチした状態を示している。このとき、画面の一番上の項目27が選択されており、スクロール操作アイコン28の領域の触感は「ザラザラ」となっている。次に、図26の下図に示すように、ユーザがスクロール操作アイコン28を画面下側にスライド操作すると、当該スライド操作に追従して画面の上から三番目の項目27が選択される。また、スライド操作に追従して、スクロール操作アイコン28の領域の触感の位置が変化(移動)する。
図27〜31は、本実施の形態5による触感制御装置の動作の他の一例を示す図である。なお、図29〜31に示す破線丸印は、ユーザが最初にタッチした位置を示している。
図27に示すように、ユーザが触感タッチパネル8の操作面をタッチする前は、触感タッチパネル8の操作面に触感は「つるつる」となっている。図28に示すように、ユーザがタッチすると、タッチ位置の領域の触感が「ザラザラ」となる。次いで、図29に示すように、ユーザがジェスチャー操作を行うと、当該ジェスチャー操作の動きに追従して触感の位置が変化(移動)する。このときの触感は「動くザラザラ」となっている。次いで、図30に示すように、ユーザがジェスチャー操作を止めると、触感が「ザラザラ」となる。次いで、図31に示すように、ユーザがタッチを止めると、触感が「つるつる」となる(このとき、ユーザが「つるつる」の触感を得ることはない)。なお、図27〜31において、触感制御部3は、ジェスチャー操作の動きの速さに応じて触感が変化するように制御してもよい。このように、触感制御部3は、ジェスチャー操作の開始時または終了時の触感と、ジェスチャー操作中の触感とが異なるように制御する。従って、ユーザはジェスチャー操作が正しく行われていることを容易に認識することができる。
上記の図27〜31に示す動作は、例えば、表示器7の表示画面に表示された操作アイコン(表示物)の配置変更時に適用することができる。
図32〜34は、本実施の形態5による触感制御装置の動作の他の一例を示す図である。なお、図32,33,34の順に行うジェスチャー操作のことを特にピンチアウト操作といい、図34,33,32の順に行うジェスチャー操作のことを特にピンチイン操作という。以下では、一例としてピンチアウト操作について説明する。
図32に示すように、ユーザが操作面の2点をタッチすると、当該2点が端部に含まれる予め定められた領域(ここでは円形の領域)の触感が「ザラザラ」となる。次いで、図33,34に示すように、ユーザが2点の距離が離れる方向に各々をスライド操作すると、当該スライド操作に追従して図32に示す領域が広がる。このときの触感は「ザラザラ」となっている。
図32〜34に示すように、ユーザがピンチアウト操作またはピンチイン操作を行う場合において、操作中の触感は「ザラザラ」となっている。一方、図27〜31に示すような操作(例えばドラッグ操作)を行う場合において、操作中の触感は「動くザラザラ」となっている。すなわち、触感制御部3は、ジェスチャー操作の種別に応じてジェスチャー操作中の触感が異なるように制御している。このようにすることによって、ユーザはどのようなジェスチャー操作が受け付けられているのかを容易に認識することができる。
なお、図26〜34において、各触感(「つるつる」、「半ザラザラ」、「ザラザラ」、「動くザラザラ」)を適宜組み合わせて用いてもよい。また、図32〜34のピンチアウト操作またはピンチイン操作において、ピンチされた境界線の領域の触感を変化させてもよい。
以上のことから、本実施の形態5によれば、ジェスチャー操作の動きに追従して触感の位置を変化(移動)させているため、ユーザはジェスチャー操作が正しく行われていることを容易に認識することができる。また、ジェスチャー操作の種別に応じてジェスチャー操作中の触感が異ならせているため、ユーザはどのようなジェスチャー操作が受け付けられているのかを容易に認識することができる。
<実施の形態6>
本発明の実施の形態6では、触感制御部3が、ジェスチャー操作の動きに応じて操作面のうちの少なくともジェスチャー操作を行う領域の触感が変化するように制御することを特徴としている。本実施の形態6による触感制御装置の構成は、実施の形態1による触感制御装置4(図7参照)または実施の形態2による触感制御装置10(図19参照)と同様であるため、ここでは説明を省略する。
図35〜38は、本実施の形態6による触感制御装置の動作の一例を示す図である。なお、図35〜38に示す破線丸印は、ユーザがタッチした位置を示している。
図35,36に示すように、ユーザがジェスチャー操作(例えばスクロール操作)する方向に沿って、「ザラザラ」の触感と「つるつる」の触感とが交互になるよう触感タッチパネル8の操作面全体に付与されている。このように操作面全体に付与された「ザラザラ」の触感の領域と「つるつる」の触感の領域とは、ユーザがジェスチャー操作すると、当該ジェスチャー操作の方向とは反対方向に移動する。なお、ここでは「ザラザラ」の触感の位置と「つるつる」の触感の位置とを移動させたが、移動させなくてもよい。これは、指がドラッグ移動するため「ザラザラ」の触感と「つるつる」の触感とを交互に得ることができるからである。
図37,38に示すように、ユーザがジェスチャー操作(例えばスクロール操作)する方向に沿って、「ザラザラ」の触感と「つるつる」の触感とが交互になるよう触感タッチパネル8の操作面の一部に付与されている。このように操作面全体に付与された「ザラザラ」の触感の領域と「つるつる」の触感の領域とは、ユーザがジェスチャー操作すると、当該ジェスチャー操作の方向とは反対方向に移動する。
図35〜38において、ユーザがジェスチャー操作を止めたときに(このとき、ユーザはタッチした状態である)、操作面に付与された各触感の領域をしばらくの間移動させてもよい。このようにすることによって、ユーザはジェスチャー操作の終了時に当該ジェスチャー操作の慣性を感じることができる。
図35〜38において、操作面に付与された各触感の領域は、ジェスチャー操作時に移動させなくてもよい。また、操作面に付与された各触感の領域が移動する方向は、ジェスチャー操作の方向と同方向であってもよい。この場合、操作面に付与された各触感の領域の動きの速さは、ジェスチャー操作の動きの速さよりも速い方が好ましい。
なお、図35〜38において、各触感(「つるつる」、「半ザラザラ」、「ザラザラ」、「動くザラザラ」)を適宜組み合わせて用いてもよい。
上記では、「つるつる」および「ザラザラ」の触感を用いる場合を一例として説明したが、これに限るものではない。例えば、「半ザラザラ」あるいは「動くザラザラ」を適宜組み合わせて用いてもよい。
以上のことから、本実施の形態6によれば、ジェスチャー操作の動きに応じて操作面のうちの少なくともジェスチャー操作を行う領域の触感を変化させているため、ユーザはジェスチャー操作が正しく行われていることを容易に認識することができる。
<実施の形態7>
本発明の実施の形態7では、触感制御部3が、ユーザによるジェスチャー操作の動きに追従して触感の領域が変化するように制御することを特徴としている。本実施の形態7による触感制御装置の構成は、実施の形態1による触感制御装置4(図7参照)または実施の形態2による触感制御装置10(図19参照)と同様であるため、ここでは説明を省略する。
図39〜43は、本実施の形態7による触感制御装置の動作の一例を示す図である。
表示器7の表示画面には、表示領域29および表示領域30が表示されている。また、触感タッチパネル8では、表示領域29の触感は「半ザラザラ」、表示領域30の触感は「つるつる」となっている。
図39〜42に示すように、ユーザが表示領域29をタッチして図面右方向にスライド操作すると、当該スライド操作の動きに追従して表示領域29は広くなり、表示領域30は狭くなる。このとき、表示領域29における触感の領域も表示領域29と一体となって広くなり、表示領域30における触感の領域も表示領域30と一体となって狭くなる。次いで、図43に示すように、ユーザがタッチを止めると、表示領域29および表示領域30の各々の大きさが確定する。
図44〜48は、本実施の形態7による触感制御装置の動作の他の一例を示す図である。
表示器の表示面には、表示領域31が表示されている。また、触感タッチパネル8では、表示領域31の触感は「ザラザラ」となっている。
図44〜47に示すように、ユーザが表示領域31を広げるためにピンチアウト操作を行うと、当該ピンチアウト操作の動きに追従して表示領域31は広くなる。このとき、表示領域31における触感の領域も表示領域31と一体となって広くなる。次いで、図48に示すように、ユーザがタッチを止めると、表示領域31の大きさが確定する。
なお、図39〜48において、各触感(「つるつる」、「半ザラザラ」、「ザラザラ」、「動くザラザラ」)を適宜組み合わせて用いてもよい。
以上のことから、本実施の形態7によれば、ジェスチャー操作の動きに追従して触感の領域を変化させているため、ユーザはジェスチャー操作が正しく行われていることを容易に認識することができる。
以上で説明した触感制御装置は、車載用ナビゲーション装置、すなわちカーナビゲーション装置だけでなく、車両に搭載可能なPND(Portable Navigation Device)および携帯通信端末(例えば、携帯電話、スマートフォン、およびタブレット端末など)、並びにサーバなどを適宜に組み合わせてシステムとして構築されるナビゲーション装置あるいはナビゲーション装置以外の装置にも適用することができる。この場合、触感制御装置の各機能あるいは各構成要素は、上記システムを構築する各機能に分散して配置される。
具体的には、一例として、触感制御装置の機能をサーバに配置することができる。例えば、図49に示すように、ユーザ側に表示装置33および触感タッチパネル34を備え、サーバ32に少なくとも操作検出部2および触感制御部3を備えることによって触感制御システムを構築することができる。なお、操作検出部2および触感制御部3の機能は、図1の操作検出部2および触感制御部3の機能と同様である。また、サーバ32は、必要に応じて図7,19に示すような各構成要素を備えるようにしてもよい。このとき、サーバ32に備えられる各構成要素は、適宜にサーバ32および表示装置33に分散して配置するようにしてもよい。
また、他の一例として、触感制御装置の機能をサーバおよび携帯通信端末に配置することができる。例えば、図50に示すように、ユーザ側に表示装置33および触感タッチパネル34を備え、サーバ35に少なくとも操作検出部2を備え、携帯通信端末36に少なくとも触感制御部3を備えることによって触感制御システムを構築することができる。なお、操作検出部2および触感制御部3の機能は、図1の操作検出部2および触感制御部3の機能と同様である。また、サーバ35および携帯通信端末36は、必要に応じて図7,19に示すような各構成要素を備えるようにしてもよい。このとき、サーバ35および携帯通信端末36に備えられる各構成要素は、適宜に表示装置33、サーバ35、および携帯通信端末36に分散して配置してもよい。
上記の構成とした場合であっても、上記の実施の形態と同様の効果が得られる。
また、上記の実施の形態における動作を実行するソフトウェア(触感制御方法)を、例えばサーバや携帯通信端末に組み込んでもよい。
具体的には、一例として、上記の触感制御方法は、タッチパネルまたはタッチパッドの操作面に対する操作時のユーザの触感を制御する触感制御方法であって、ユーザの操作面への操作を検出し、検出したユーザの操作を受け付けた領域の触感またはユーザの操作の動きに追従する領域の触感が時間の経過とともに変化するように操作面の触感を制御する。
上記より、上記の実施の形態における動作を実行するソフトウェアをサーバや携帯通信端末に組み込んで動作させることによって、上記の実施の形態と同様の効果が得られる。
なお、図1,7,19,49,50において、操作検出部2、触感制御部3、制御部5、表示情報生成出力部6、外部機器情報取得制御部11、車両情報取得部12、および地図情報取得部13の各々は、ソフトウェアに基づくCPU(Central Processing Unit)を用いたプログラム処理を実行することによって実現される。また、可能であれば、操作検出部2、触感制御部3、制御部5、表示情報生成出力部6、外部機器情報取得制御部11、車両情報取得部12、および地図情報取得部13の各々を、ハードウェア(例えば、電気信号に対して特定の演算あるいは処理を行うように構成された演算/処理回路等)として構成するようにしてもよい。また、上記の両者を混在させてもよい。
実施の形態1〜7では、表示器7と触感タッチパネル8とが一体である場合(表示器7の表示画面上に触感タッチパネル8が設けられている場合)について説明したが、これに限るものではない。例えば、表示器7を車両のインストルメントパネル部のメータパネルに設け、触感タッチパネル8をメータパネルとは異なる箇所に別個に設けられた触感タッチパッドとしてもよい。このような構成であっても、ユーザは触感タッチパッドを見ることなく、メータパネルに設けられた表示器7に表示されたアイコン等の操作を行うことが可能となる。すなわち、ユーザにとって使い勝手の良い操作を行うことができる。なお、メータパネルに設けられた表示器7は、メータパネルの一部の領域または全域を表示器7の表示領域としてもよい。また、触感タッチパッドにおける触感が発生する領域の大きさと、表示器7における表示領域の大きさとは、同じであってもよく、相似関係であってもよく、相似関係でなくてもよい。
なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略することが可能である。
本発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
1 触感制御装置、2 操作検出部、3 触感制御部、4 触感制御装置、5 制御部、6 表示情報生成出力部、7 表示器、8 触感タッチパネル、9 操作アイコン、10 触感制御装置、11 外部機器情報取得制御部、12 車両情報取得部、13 地図情報取得部、14 オーディオ、15 エアコン、16 地図DB、17 ナビゲーション操作アイコン、18 エアコン操作アイコン、19 選局アイコン、20 音量調整アイコン、21,22 操作アイコン、23 走行操作制限アイコン、24 走行操作非制限アイコン、25 操作アイコン、26 ジェスチャー入力領域、27 項目、28 スクロール操作アイコン、29,30,31 表示領域、32 サーバ、33 表示装置、34 触感タッチパネル、35 サーバ、36 携帯通信端末。

Claims (15)

  1. タッチパネルまたはタッチパッドの操作面に対する操作時のユーザの触感を制御する触感制御システムであって、
    前記ユーザの前記操作面への操作を検出する操作検出部と、
    前記操作検出部にて前記ユーザがアイコン操作またはジェスチャー操作していることを検出すると、前記ユーザが前記アイコン操作または前記ジェスチャー操作している間、前記アイコン操作または前記ジェスチャー操作を受け付けた領域の触感が予め定められた触感変化規則に基づいて時間の経過とともに変化するように前記操作面の前記触感を制御する触感制御部と、
    を備え、
    前記触感制御部は、前記アイコン操作を受け付けた領域に対する触感の位置が時間の経過とともに変化するように前記操作面の前記触感を制御し、前記アイコン操作を受け付けた領域の形状が時間の経過とともに変化するように制御することを特徴とする、触感制御システム。
  2. 前記触感制御部は、前記アイコン操作を受け付けた領域に対する触感のパターンが時間の経過とともに変化するように前記操作面の前記触感を制御することを特徴とする、請求項1に記載の触感制御システム。
  3. 前記触感制御部は、前記触感の位置が一方から他方に移動するように制御することを特徴とする、請求項1に記載の触感制御システム。
  4. 前記触感制御部は、前記アイコン操作を受け付けた領域の一部の触感の強さが動的に変化するように制御することを特徴とする、請求項1に記載の触感制御システム。
  5. 前記操作を受け付ける操作アイコンが前記操作面に対応して表示される場合において、
    前記操作アイコンは、前記触感制御部による前記アイコン操作を受け付けた領域の触感の変化に応じて表示形態が変化することを特徴とする、請求項1に記載の触感制御システム。
  6. 前記操作を受け付ける操作アイコンが前記操作面に対応して表示される場合において、
    前記触感制御部は、前記操作検出部が予め定められた第1の操作であるアイコン予備操作を検出した場合に第1の触感を発生させ、前記操作検出部が予め定められた第2の操作であるアイコン操作を検出した場合に第2の触感を発生させるように前記触感を制御し、
    前記操作検出部が前記第2の操作を検出した場合は、前記操作が有効であると判断することを特徴とする、請求項1に記載の触感制御システム。
  7. 前記触感制御部は、前記触感の強さを変化させ、かつ当該触感が一定周期で発生するように制御する、または前記触感の強さを一定にし、かつ当該触感の発生の周期が変化するように制御することを特徴とする、請求項1に記載の触感制御システム。
  8. 前記触感制御部は、前記ジェスチャー操作の動きに応じて、前記ジェスチャー操作を受け付けた領域に対する触感の位置が変化するように制御することを特徴とする、請求項1に記載の触感制御システム。
  9. 前記触感制御部は、前記ジェスチャー操作の開始時と前記ジェスチャー操作中とで前記触感が異なり、かつ前記ジェスチャー操作中と前記ジェスチャー操作の終了時とで前記触感が異なるように制御することを特徴とする、請求項に記載の触感制御システム。
  10. 情報を表示する表示器をさらに備え、
    前記タッチパッドは、前記表示器とは別個に設けられていることを特徴とする、請求項1からのいずれか1項に記載の触感制御システム。
  11. 前記触感制御部は、前記ユーザが前記操作を誤った場合において、予め定められた前記触感となるように制御することを特徴とする、請求項1から10のいずれか1項に記載の触感制御システム。
  12. 前記操作の誤りは、操作を受け付けない領域に対して前記操作を行うこと、または予め定められた条件によって制限された操作を行うことであることを特徴とする、請求項11に記載の触感制御システム。
  13. 前記タッチパネルの前記操作面は、情報を表示する表示領域と、当該表示領域以外の非表示領域とを合わせた領域に対応して設けられ、
    前記触感制御部は、前記操作面における前記表示領域に対応する領域と前記非表示領域に対応する領域とで前記触感の変化が異なるように制御することを特徴とする、請求項1に記載の触感制御システム。
  14. タッチパネルまたはタッチパッドの操作面に対する操作時のユーザの触感を制御する触感制御方法であって、
    前記ユーザの前記操作面への操作を検出し、
    前記ユーザがアイコン操作またはジェスチャー操作していることを検出すると、前記ユーザが前記アイコン操作または前記ジェスチャー操作している間、前記アイコン操作または前記ジェスチャー操作を受け付けた領域の触感が予め定められた触感変化規則に基づいて時間の経過とともに変化するように前記操作面の前記触感を制御し、
    前記アイコン操作を受け付けた領域に対する触感の位置が時間の経過とともに変化するように前記操作面の前記触感を制御し、前記アイコン操作を受け付けた領域の形状が時間の経過とともに変化するように制御することを特徴とする、触感制御方法。
  15. 前記触感を制御することは、前記アイコン操作を受け付けた領域に対する触感の位置が時間の経過とともに変化するように前記操作面の前記触感を制御することである、請求項14に記載の触感制御方法。
JP2016547285A 2014-09-09 2014-09-09 触感制御システムおよび触感制御方法 Active JP6258513B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/073770 WO2016038677A1 (ja) 2014-09-09 2014-09-09 触感制御システムおよび触感制御方法

Publications (2)

Publication Number Publication Date
JPWO2016038677A1 JPWO2016038677A1 (ja) 2017-04-27
JP6258513B2 true JP6258513B2 (ja) 2018-01-10

Family

ID=55458470

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016547285A Active JP6258513B2 (ja) 2014-09-09 2014-09-09 触感制御システムおよび触感制御方法

Country Status (5)

Country Link
US (1) US20170115734A1 (ja)
JP (1) JP6258513B2 (ja)
CN (1) CN107077281A (ja)
DE (1) DE112014006935T5 (ja)
WO (1) WO2016038677A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK201670728A1 (en) * 2016-09-06 2018-03-19 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Feedback During Interaction with an Intensity-Sensitive Button
KR102591807B1 (ko) * 2016-11-21 2023-10-23 한국전자통신연구원 촉감자극을 생성하는 방법 및 장치
CN110244845B (zh) * 2019-06-11 2022-08-05 Oppo广东移动通信有限公司 触觉反馈方法、装置、电子设备及存储介质
CN111444494B (zh) 2020-03-26 2022-07-08 维沃移动通信有限公司 一种验证方法、电子设备和计算机可读存储介质
WO2022054382A1 (ja) * 2020-09-11 2022-03-17 菱洋エレクトロ株式会社 電子機器及び電子機器の制御方法
USD1029259S1 (en) 2021-08-31 2024-05-28 New Wave Endo-Surgical Corp. Portion of a medical device
USD1002009S1 (en) 2021-08-31 2023-10-17 New Wave Endo-Surgical Corp. Medical device

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE515663C2 (sv) * 1996-08-23 2001-09-17 Ericsson Telefon Ab L M Pekskärm och användning av pekskärm
JP3069949B2 (ja) * 1996-10-09 2000-07-24 日精樹脂工業株式会社 射出成形機の入力装置
JP3987182B2 (ja) * 1998-01-26 2007-10-03 Idec株式会社 情報表示装置および操作入力装置
JP3949912B2 (ja) * 2000-08-08 2007-07-25 株式会社エヌ・ティ・ティ・ドコモ 携帯型電子機器、電子機器、振動発生器、振動による報知方法および報知制御方法
EP1459245B1 (en) * 2001-12-12 2006-03-08 Koninklijke Philips Electronics N.V. Display system with tactile guidance
JP2005258666A (ja) * 2004-03-10 2005-09-22 Sony Corp 入力装置および電子機器並びに電子機器の感触フィードバック入力方法
JP4896932B2 (ja) * 2008-06-26 2012-03-14 京セラ株式会社 入力装置
TWI405101B (zh) * 2009-10-05 2013-08-11 Wistron Corp 具觸控面板之電子裝置及其運作方法
JP5635274B2 (ja) * 2010-01-27 2014-12-03 京セラ株式会社 触感呈示装置および触感呈示方法
JP5790642B2 (ja) * 2010-03-15 2015-10-07 日本電気株式会社 入力装置、入力方法及びプログラム
JP5580155B2 (ja) * 2010-09-27 2014-08-27 スタンレー電気株式会社 タッチパネル入力装置の製造方法
US20120113008A1 (en) * 2010-11-08 2012-05-10 Ville Makinen On-screen keyboard with haptic effects
EP2456175B1 (en) * 2010-11-19 2014-01-15 BlackBerry Limited Portable electronic device including flexible display
US9448713B2 (en) * 2011-04-22 2016-09-20 Immersion Corporation Electro-vibrotactile display
WO2012159254A1 (en) * 2011-05-23 2012-11-29 Microsoft Corporation Invisible control
JPWO2013183191A1 (ja) * 2012-06-05 2016-01-28 日本電気株式会社 携帯端末装置
CN103782254B (zh) * 2012-06-29 2017-03-01 松下知识产权经营株式会社 带触感提示功能的触摸屏装置
JP6061528B2 (ja) * 2012-07-23 2017-01-18 キヤノン株式会社 操作装置、その制御方法及びプログラム並びに記録媒体
CN103777743B (zh) * 2012-10-23 2016-12-28 联想(北京)有限公司 一种信息处理的方法及电子设备
US9196134B2 (en) * 2012-10-31 2015-11-24 Immersion Corporation Method and apparatus for simulating surface features on a user interface with haptic effects
US9330544B2 (en) * 2012-11-20 2016-05-03 Immersion Corporation System and method for simulated physical interactions with haptic effects
CN103902200A (zh) * 2012-12-24 2014-07-02 联想(北京)有限公司 一种信息处理方法及电子设备
EP2752747A1 (en) * 2013-01-08 2014-07-09 QNX Software Systems Limited On-demand user control
US10359857B2 (en) * 2013-07-18 2019-07-23 Immersion Corporation Usable hidden controls with haptic feedback
JP5427331B1 (ja) * 2013-09-05 2014-02-26 株式会社ポケモン タイピング訓練システム、タイピング訓練方法、及びタイピング訓練プログラム
US9639158B2 (en) * 2013-11-26 2017-05-02 Immersion Corporation Systems and methods for generating friction and vibrotactile effects

Also Published As

Publication number Publication date
US20170115734A1 (en) 2017-04-27
WO2016038677A1 (ja) 2016-03-17
DE112014006935T5 (de) 2017-06-22
JPWO2016038677A1 (ja) 2017-04-27
CN107077281A (zh) 2017-08-18

Similar Documents

Publication Publication Date Title
JP6258513B2 (ja) 触感制御システムおよび触感制御方法
US9836150B2 (en) System and method for feedforward and feedback with haptic effects
JP6429886B2 (ja) 触感制御システムおよび触感制御方法
US20140139451A1 (en) Systems and Methods For Providing Mode or State Awareness With Programmable Surface Texture
US20160162092A1 (en) Operation device
JPWO2018066026A1 (ja) 自動運転制御パラメータ変更装置および自動運転制御パラメータ変更方法
JP5852514B2 (ja) タッチセンサ
JP6463457B2 (ja) 地図表示制御装置および地図スクロールの操作感触制御方法
JPWO2015083267A1 (ja) 表示制御装置
JP6548852B2 (ja) タッチ入力判定装置、タッチパネル入力装置、タッチ入力判定方法、及びタッチ入力判定プログラム
US20160253088A1 (en) Display control apparatus and display control method
US9947081B2 (en) Display control system and display control method
JP2014182808A (ja) タッチスクリーンユーザインターフェースのナビゲーション制御
JP6393604B2 (ja) 操作装置
JP6724172B2 (ja) 座標入力装置
JP6284648B2 (ja) 触感制御システムおよび触感制御方法
JP6433347B2 (ja) 地図表示制御装置および地図の自動スクロール方法
JP6434259B2 (ja) 触感制御システムおよび触感制御方法
JP6483379B2 (ja) 触感制御システムおよび触感制御方法
KR101992314B1 (ko) 포인터 제어 방법 및 그 전자 장치
US20230004285A1 (en) Control Value Setting Device and Control Value Setting Program
JP2015176471A (ja) 表示制御装置、表示制御方法、および、表示制御装置用プログラム
TWI483155B (zh) 電子裝置及觸控回饋方法
JP2014137728A (ja) タッチ式入力装置
JP2015162074A (ja) 操作システム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170530

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170720

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170912

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171108

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20171114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171206

R150 Certificate of patent or registration of utility model

Ref document number: 6258513

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250