JP6134753B2 - 触覚効果を与えるシステム及び方法 - Google Patents

触覚効果を与えるシステム及び方法 Download PDF

Info

Publication number
JP6134753B2
JP6134753B2 JP2015103030A JP2015103030A JP6134753B2 JP 6134753 B2 JP6134753 B2 JP 6134753B2 JP 2015103030 A JP2015103030 A JP 2015103030A JP 2015103030 A JP2015103030 A JP 2015103030A JP 6134753 B2 JP6134753 B2 JP 6134753B2
Authority
JP
Japan
Prior art keywords
haptic
widget
user
haptic effect
brand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015103030A
Other languages
English (en)
Other versions
JP2015181035A (ja
Inventor
デーヴィッド エム. バーンバウム、
デーヴィッド エム. バーンバウム、
ダニー エイ. グラント、
ダニー エイ. グラント、
クリストフ ラムステイン、
クリストフ ラムステイン、
クリストファー ジェイ. ウーリッヒ、
クリストファー ジェイ. ウーリッヒ、
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2015181035A publication Critical patent/JP2015181035A/ja
Application granted granted Critical
Publication of JP6134753B2 publication Critical patent/JP6134753B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0267Wireless devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/18Legal services
    • G06Q50/184Intellectual property management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Human Computer Interaction (AREA)
  • Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本願は、一般には、触覚効果を与えることに関し、より詳細には、触覚ウィジェットを使用すること又はブランド若しくは広告に関係付けられる触覚効果を与えることに関する。
(関連出願への相互参照)
本出願は、“Systems and Methods for Use of Haptic Effects in Promotional and Other Communications”と題された2010年4月23日付けで提出された米国仮特許出願第61/327,450号への優先権を主張する。その全体は参照により本明細書に組み込まれる。
触覚使用可能装置は、様々な装置と共にユーザ体験を向上させるために使用され得る。しかしながら、触覚の使用には改良の余地が残っている。例えば、一般的な触覚の使用は、物体の感覚を模倣し又は仮想環境との現実的な物理的相互作用を可能にするために触覚効果を使用することを含む場合がある。しかしながら、触覚は、触覚の文脈において物理的物体の正確な表現とは無関係の利益をもたらす場合がある。
本発明の実施形態は、触覚的効果を与えるためのシステム及び方法を提供する。例えば、一実施形態では、コンピュータ可読媒体は、触覚ウィジェットを定義するプログラムコードを含むプログラムコードを備える。触覚ウィジェットは、触覚効果を定義するプログラムコードと、触覚ウィジェットに対するインターフェースを定義するプログラムコードと、前記インターフェースを介して、触覚ウィジェットの少なくとも1つのパラメータの構成を受信するプログラムコードと、前記インターフェースを介して、前記触覚効果に対する再生コマンドを受信するプログラムコードと、前記インターフェースを介して、前記触覚効果を引き起こすように構成される信号であって、前記少なくとも1つのパラメータに基づいて前記再生コマンドに応じる信号を出力するプログラムコードとを備える。
この例示の実施形態は、本発明を限定又は定義するために言及されるのではなく、その理解を支援するための例示を提供するものである。例示の実施形態は、詳細な説明において検討されており、そこには本発明の更なる説明が提供されている。本発明の様々な実施形態によってもたらされる利点は、本明細書を吟味することにより更に理解され得る。
本発明のこうした及び他の特徴、態様、並びに利点は、添付の図面を参照して以下の詳細な説明を読むと更によく理解される。
本発明の実施形態による触覚効果を与えるシステムを示す。 本発明の実施形態による触覚効果を与えるシステムを示す。 本発明の実施形態による触覚効果を与えるシステムを示す。 本発明の実施形態による触覚効果を与えるシステムを示す。 本発明の実施形態による触覚ウィジェットを示す。 本発明の実施形態による触覚ウィジェットを示す。 本発明の実施形態による触覚ウィジェットを示す。 本発明の実施形態による触覚ウィジェットを示す。 本発明の実施形態によるブランド固有の触覚効果を与えるシステムを示す。 本発明の実施形態によるブランド固有の触覚効果を与えるシステムを示す。 本発明の実施形態によるブランド固有の触覚効果を与えるシステムを示す。 本発明の実施形態によるブランド固有の触覚効果を与えるシステムを示す。 本発明の一実施形態による隙間広告に基づく触覚効果を与えるシステムを示す。 本発明の一実施形態による肯定的及び否定的な触覚効果を与えるシステムを示す。 本発明の一実施形態による肯定的及び否定的な触覚効果を与えるシステムを示す。 本発明の一実施形態による肯定的及び否定的な触覚効果を与えるシステムを示す。 本発明の一実施形態による肯定的及び否定的な触覚効果を与えるシステムを示す。 本発明の一実施形態による広告において触覚効果を与えるシステムを示す。 本発明の一実施形態による広告において触覚効果を与えるシステムを示す。 本発明の一部の実施形態によって使用可能な異なる種類の触覚効果の図表を示す。 本発明の一実施形態による広告において肯定的及び否定的な触覚効果を与えるシステムを示す。 本発明の一実施形態による広告において肯定的及び否定的な触覚効果を与えるシステムを示す。 本発明の一部の実施形態による触覚効果を与える方法を示す。 本発明の一部の実施形態による触覚効果を与える方法を示す。 本発明の一部の実施形態による触覚効果を与える方法を示す。
次に、多様な及び代替的な例示の実施形態並びに添付の図面への詳細な参照が行われる。各例示は、限定としてではなく、説明目的で提供される。修正及び変更が行われ得ることは、当業者には明らかであろう。例えば、一実施形態の一部として例示され又は記載された特徴は、更なる実施形態を生み出すために別の実施形態に対して使用されてもよい。従って、本開示が修正及び変更を含むことが意図される。
(触覚フィードバックを与えるための例示的な装置)
本発明の1つの例示的な実施形態は、図1に示されたような携帯型コンピュータ装置10を含む。装置10は、筐体12及びディスプレイに組み込まれるタッチセンサ式入力装置14を有する。更に、2つのボタン16、18が筐体に設けられる。図示されていないが、ソフトウェアコードを実行するためのプロセッサ及びメモリが装置10内にある。更に、装置10、タッチセンサ式入力装置14又はボタン16、18に触覚効果を出力するために、複数のアクチュエータが装置内に配置される。
図1に示される装置10は、多くの異なる環境において触覚効果を与えるように構成される。例えば、装置10の電源が入っている場合に、装置の製造業者又はサービスプロバイダに関するロゴが表示される。更に、1つ以上のアクチュエータによってブランド固有の触覚効果が出力(又は「再生」)される。例えば、ECI(Electronics Company Inc.、この例示のための架空の企業)が、装置10を提供して、起動中にECIのロゴを表示するように装置10を構成してもよい。更に、ECIは、触覚ブランド又はブランド固有の触覚効果と呼ばれる、ECIのブランドに関係付けられる触覚効果を装置のアクチュエータに再生させるためのプログラムコードを装置のメモリ内に組み込む。ECIのブランド固有の触覚効果を再生するECI装置のユーザは、ブランド固有の触覚効果とECIとを結びつけて考えるようになってもよい。
更に、装置10は、一旦起動すると、ユーザ入力又はスクリーン上に表示された内容に基づいて様々な触覚効果を与えるように構成される。例えば、タッチセンサ式入力装置14は、複数の実質的に同時の接触を検出して接触ごとに位置情報を与えることが可能な複数接触型タッチセンサ式入力装置である。従って、タッチセンサ式入力装置14とのユーザの相互作用に基づいて、装置のプロセッサは、複数接触型入力に基づいた触覚効果を生成することが可能である。装置14は、複数接触型入力に基づいてジェスチャを決定して、そのようなジェスチャに基づいた触覚効果を生成することが更に可能である。
動作中に、装置10は、オペレーティングシステム又はウェブブラウザ等のプログラムを実行することが可能である。こうしたプログラムの各々は、それに関係付けられる様々な触覚機能を有してもよい。本明細書に開示の様々な実施形態では、触角機能は、「ウィジェット」と呼ばれる明確に定義されたインターフェース要素に組み込まれてもよい。触覚ウィジェットは、様々なオペレーティングシステム機能、ディスプレイに示されるアイコン、又は実行可能な様々なプログラムの異なるGUI要素に関係付けられてもよい。ウィジェットは、より容易に触覚フィードバック機能を与えるために様々な態様のオペレーティングシステム又はアプリケーションと容易に関係付けられ又は非関係付けされ得る明確に定義された触角機能を与えてもよい。
オペレーティングシステム又は様々なアプリケーションとの相互作用に加えて、ユーザは、このようなアプリケーションによって与えられるコンテンツを見てもよい。例えば、ユーザは、ワールドワイドウェブ(「ウェブ」)上の様々なウェブサイトに案内するウェブブラウザを実行するために装置10を使用することが出来る。一部のこうしたウェブサイトは、様々な企業用の広告又はブランドを表示する。装置10は、ディスプレイ上で、例えば、ウェブサイト内に表示されるブランドに対してブランド固有の触覚効果を出力するように構成される。更に、様々なアプリケーション又はウェブサイト内に組み込まれる広告は、例えば、ユーザの注意を広告に惹きつけ又は広告と相互作用するようにユーザを促すために、装置10に触覚効果を出力させる。更に、装置10は、広告又はブランドとユーザの相互作用に基づいて異なる触覚効果を出力してもよい。
この例示の実施形態では、ユーザが広告と相互作用すると、装置10は、広告との相互作用を継続するように、将来同じ企業からの広告と再度相互作用するようにユーザを奨励し、又は広告と相互作用したことでユーザに報償を与えるように設計される肯定的な触覚効果を出力する。代替的に、ユーザがそのような動作を行わないようにするために広告を閉じ又は隠すことを試行する場合、又はユーザが将来そのような動作を行わないようにするために動作を完了する場合、装置10は否定的な触覚効果を出力する。
更に、ユーザは、ディスプレイに、例えば、ウェブページ内に示されるブランド又はロゴと相互作用してもよい。例えば、ユーザは、ブランドに関係付けられる画像に対して接触し又はジェスチャを行ってもよく、それによって、装置10は、ジェスチャ又はブランドに関係付けられる触覚効果を出力する。又は、画像に触れ、画像上で若しくは画像に向かってジェスチャを行って、或いは画像と相互作用することによって、それは、画像のアニメーションを実行する等、その画像の外観を変化させてもよい。このようなアニメーションの間、装置10は、アニメーション化された画像が画面上を歩行する場合の足音又はオレンジの皮を剥くことに対応する振動等のアニメーションの異なる部分に対応する触覚効果を出力する。更に、ユーザは、画像を「押す」又は「引く」又は「ひねる」ために画像に対して複数接触型ジェスチャを含むジェスチャを行うことによって画像と相互作用することが可能であり、それによって異なった表示及び触覚応答がもたらされてもよい。
従って、装置10は、触覚ウィジェット及び相互作用式ブランド及び広告体験を与えることによりユーザにより豊かな触覚体験をもたらす。
次に図1Bを参照すると、図1Bは、1つ以上の触覚効果を与えるための例示のシステム100を示す。特に、この例示では、システム100は、バス106を介して他のハードウェアとインターフェース接続される1つ以上のプロセッサ102を特徴とするコンピュータ装置101を備える。プロセッサは、CPU又はGPS受信機、デジタル信号プロセッサ、若しくは以下により完全に記載される他の特殊プロセッサを含んでもよい。RAM、ROM又はEEPROM等の任意の適切な有形コンピュータ可読媒体を含み得るメモリ104が、コンピュータ装置の動作を構成するプログラム構成要素を記憶するように構成される。この例示では、コンピュータ装置101は、1つ以上のネットワークインターフェース装置110、入力/出力(I/O)インターフェース要素112、及び追加の記憶装置114を更に含む。
図1Bに示されるシステム100の異なる実施形態は、異なるように構成されてもよい。例えば、一実施形態では、システム100の構成要素は、携帯電話、携帯型PDA、タブレットコンピュータ、又はラップトップコンピュータ等の単一の筐体の中に完全に配置されてもよい。別の実施形態では、システム100の構成要素は、別個の1つ以上のディスプレイ又は入力装置を有するデスクトップコンピュータ等の複数の筐体の中に配置されてもよい。
ネットワーク装置110は、ネットワーク接続を容易にする任意の構成要素を表し得る。限定されないが、例示には、Ethernet(登録商標)、USB、IEEE1394等の有線インターフェース、及び/又はIEEE802.11、Bluetooth(登録商標)等の無線インターフェース、又は携帯電話ネットワークにアクセスするための無線インターフェース(例えば、CDMA、GSM(登録商標)、UMTS又は他の移動通信ネットワーク)が含まれる。
I/O構成要素112は、1つ以上のディスプレイ、キーボード、マウス、スピーカ、マイクロホン、及び/又はデータの入力又は出力に使用される他のハードウェア等の装置への接続を容易にするために使用されてもよい。記憶装置114は、装置101に含まれる磁気、光学、又は他の記憶媒体等の不揮発性記憶装置を表す。
システム100は、この例示では、装置101に統合される接触面116を更に含む。接触面116は、ユーザの触覚入力を感知するように構成される任意の表面を表す。1つ以上のセンサ108は、物体が接触面に接触する場合に接触領域における接触を検出して、プロセッサ102によってユーザに適切なデータを提供するように構成される。センサの任意の適切な数、種類、又は配置が使用され得る。例えば、抵抗性及び/又は容量性のセンサが、接触面116に具現化されて、接触の場所及び接触圧等の他の情報を検出するために使用されてもよい。別の例示として、接触位置を決定するために光学センサが使用されてもよい。
一実施形態では、センサは、システムの移動及び方向変化を検出するように構成される。一部の若しくは全てのセンサ又は複数のセンサは、装置の内部又は外部に設置されてもよく、ユーザによって接触されてもよい。センサは、3つの並進軸に沿う及び3つの並進軸周囲を回転する動作を検出することが可能なジャイロスコープセンサを備え得る。しかしながら、他の実施形態では、1つ以上の軸に沿った又は周囲の並進又は回転運動を検出するための1つ以上の加速度計等の他の適切なセンサが用いられてもよい。別の適切なセンサは、装置の位置を決定するための光又は無線発信源、回転速度センサ、光センサ、圧力センサ、テクスチャセンサ、カメラ、マイクロホン、又は他の種類のセンサ等の外部発信源から情報を受信するための受信機を含んでもよい。センサは、装置の制御、選択オプション等に使用される装置の移動及び/又は装置の他の操作を決定するために使用されてもよい。
この例示では、アクチュエータ118がプロセッサ102と通信し、且つ接触面116に結合される。一部の実施形態では、アクチュエータ118は、触覚信号に応じて接触面の摩擦係数を変化させる触覚効果を出力するように構成される。追加的又は代替的に、アクチュエータ118は、制御下で接触面を動かす触覚効果を提供してもよい。一部の触覚効果は、装置の筐体に結合されるアクチュエータを利用してもよい。また、一部の触覚効果は、順番に及び/又は同時に複数のアクチュエータを使用してもよい。例えば、摩擦係数は、異なる周波数で表面を振動させることにより変化し得る。テクスチャの感覚を模倣するために、変化の異なる組み合わせ/順番が使用され得る。例えば、接触インターフェースは、マイクロ及び/又はマクロ面機能が動的に構成又は変化され得る多形面を含んでもよい。装置本体に結合される回転モータ、線形共振アクチュエータ、又は他のアクチュエータを使用して与えられる振動触覚効果等の他の触覚効果は、表面から完全に独立して与えられてもよい。
ここでは単一のアクチュエータ118が示されるが、実施形態は、同じ又は異なる種類の複数のアクチュエータを使用してもよい。例えば、一部の実施形態では、超音波周波数で垂直に及び/又は水平に一部又は全ての接触面及び/又は装置の別の部分を移動させるために圧電アクチュエータが使用される。一部の実施形態では、偏心回転質量モータ及び線形共振アクチュエータ等の複数のアクチュエータが、異なるテクスチャ、変形、及び他の触覚効果を与えるために単独で又は同時に使用され得る。適切なアクチュエータの他の例示は、電気モータ、電磁アクチュエータ、音声コイル、電気活性ポリマ、形状記憶合金、ソレノイド、マイクロ流体アクチュエータ、及び/又は静電若しくは磁気アクチュエータを含み、これらは、単独で又は同じ若しくは異なる種類のアクチュエータと組み合わせて使用されてもよい。
出力を与えるためのアクチュエータの使用と共に複数の触覚効果が検討されているが、一部の触覚効果は、例えば、接触入力、ジェスチャ又は操作に応じた変化を含む触覚効果と共に、触覚入力に対して装置によって応答を変化させることにより生成される。
メモリ104に関しては、例示のプログラム構成要素124、126及び128は、触覚効果を与えるために一部の実施形態では、装置がどのように構成され得るかを示すように描かれている。この例示では、検出モジュール124は、接触の位置又は複数の実質的に同時の接触を決定し、又は触覚効果を要求するイベント又は状態を決定するために、センサ108を介して接触面116を監視するようにプロセッサ102を構成する。例えば、モジュール124は、接触の存在又は不存在を追跡して、接触が存在する場合、位置、経路、速度、加速度、圧力及び/又は経時的な1つ以上の接触の他の特徴を追跡するためにセンサをサンプリングしてもよい。別の例示として、モジュール124は、広告が進行中であることを決定して、広告において及び/又は広告とのユーザ相互作用(又はその欠如)に応じて発生する動作に適合した触覚効果を与えてもよい。更なる例示として、位置センサが、装置の位置、傾斜等の変化を検出して、広告又は他の内容との相互作用に使用される入力等の変化を処理してもよい。
触覚効果決定モジュール126は、生成すべき触覚効果を選択するための接触特徴又は動作状態若しくはイベントに関するデータを分析するプログラム構成要素を表す。例えば、一部の実施形態では、複数接触型入力又は1つ以上の接触の順番を含む入力ジェスチャが認識されて、1つ以上の触覚効果と関連付けられてもよい。別の例として、接触面116の一部又は全ての領域が、グラフィカルユーザインターフェースにマッピングされてもよい。特徴の対応表現がインターフェースに見られるときに特徴が「感知」されるように、接触面116の摩擦を変化させ、振動及び/又は他の効果を与えることにより特徴の存在を模倣するために、接触の位置に基づいて異なる触覚効果が選択されてもよい。しかしながら、触覚効果は、対応要素がインターフェースに表示されなくても、接触面116を介して与えられてもよい(例えば、インターフェースの境界が横断される場合に、境界が表示されていなくても、触覚効果が与えられてもよい)。
触覚効果生成モジュール128は、選択された触覚効果を生成して、又は触覚入力への装置応答を調節することにより触覚効果を与えるために、プロセッサに触覚信号を生成させてアクチュエータ118に送信させるプログラミングを表す。例えば、生成モジュール128は、記憶された波形又はコマンドにアクセスして、アクチュエータ118に送信してもよい。別の例示として、触覚効果生成モジュール128は、適切な信号を生成してアクチュエータ118に送信するために、信号処理アルゴリズムを利用してもよい。更なる例示として、テクスチャに対する目標座標に沿って所望のテクスチャが示されて、表面(及び/又は他の装置要素)の適切な移動を生成してテクスチャを与えるために1つ以上の振動触覚アクチュエータに適切な波形が送信されてもよい。
この例示では、触覚効果を決定して生成するためにローカルプログラム構成要素が使用される。しかしながら、実施形態は、遠隔資源を利用するものを含む。例えば、ウェブページは、本主題の態様に従って含まれる触覚効果を含んでもよい。更に又は代替的に、触覚効果が、一方の装置において別のコンピュータ装置との通信に応じて、与えられてもよい。
コンピュータシステムの特定の実施形態によっては、接触面がディスプレイを覆ってもよく、又は覆わなくてもよい(或いは、対応しても、対応してなくてもよい)。図1Cでは、コンピュータシステム100Bの外観図が示される。コンピュータ装置101は、装置の接触面及びディスプレイを組み合わせたタッチ可能ディスプレイ116を含む。接触面は、ディスプレイ外部又は実際のディスプレイ構成要素上の1つ以上の材料層に対応してもよい。図1Dは、接触可能コンピュータシステム100Cの別の例を示す。この例示では、コンピュータ装置101は、装置101とインターフェース接続されたコンピュータシステム120に含まれるディスプレイ122に設けられるグラフィカルユーザインターフェースにマッピングされる接触面116を特徴とする。例えば、コンピュータ装置101は、マウス、トラックパッド、又は他の装置を備えてもよいが、システム120は、デスクトップ若しくはラップトップコンピュータ、セットトップボックス(例えば、DVDプレーヤ、DVR、ケーブルテレビボックス)、又は別のコンピュータシステムを備えてもよい。別の例示として、接触面116及びディスプレイ122は、ディスプレイ122を特徴とするラップトップコンピュータにおける接触可能トラックパッド等の同じ装置に含まれてもよい。
一部の実施形態では、接触面によって定義される接触領域の位置が戻されて、1つ以上のピクセルアドレスに変換される。ピクセルアドレスに関係付けられる1つ又は複数の値は、(様々な摩擦装置又は他の装置を含む)触覚装置のアクチュエータを駆動するためにアクセスされて使用され得る。例えば、各ピクセルアドレスが、圧電又は他のアクチュエータが駆動される振幅レベルに相関する強度レベルに関係付けられてもよい。より複雑な例示として、各ピクセルアドレスは、3つの強度値(即ち、RGB)に関係付けられてもよい。3つの強度値の各々が、一部の実施形態では、異なるアクチュエータ強度に関係付けられ得る。別の例として、一部の値が強度を特定してもよく、その他が動作期間を特定してもよい。更なる例として、異なるピクセル強度値が、アクチュエータを駆動させて単一のテクスチャを模倣するために使用される所望の異なるテクスチャ又は構成要素に相関してもよい。更に、多層RGB画像ファイルが使用され、各層が特定のアクチュエータに対応してもよい。
接触面及びグラフィカルユーザインターフェースの間のマッピングは、絶対的であってもよく、又はスケーリングされたものであってもよい。例えば、一部の実施形態では、接触箇所が対応する1つ(又は複数の)ピクセルアドレスに直接相関し、関係付けられた値が触覚効果を選択してアクチュエータを駆動するために使用される。他の実施形態では、接触箇所及び速度が考慮される。
別の例として、現在の又は予測される接触箇所が、制御部、テクスチャ内容、境界、及び広告等のGUI機能の場所を識別するデータと比較され得る。GUI機能がその場所で識別されると、1つ以上の触覚効果と機能とを関係付けるデータがアクセスされ得る。例えば、プロセッサが接触箇所を追跡して、グラフィカルユーザインターフェース内の特定の制御部(例えば、ボタン)にマッピングされる接触領域における位置に接触がある又は接近していると判断してもよい。次に、プロセッサは、インターフェース要素のリストを参照して、ボタンに関係付けられる触覚効果(例えば、テクスチャ、摩擦変化)を決定し、触覚効果に基づいて、触覚効果を生成するための更なる動作を行い得る。
触覚効果を生成するために、プロセッサが1つ以上の触覚信号へのアクセス又は生成を行い得る。例えば、プロセッサは、メモリ内に記憶されて特定の触覚効果に関係付けられる駆動信号にアクセスしてもよい。別の例示として、信号は、効果に関係付けられる記憶済みアルゴリズム及び入力パラメータにアクセスすることによって生成されてもよい。例えば、アルゴリズムは、振幅及び周波数パラメータに基づいて駆動信号を生成するのに使用されるデータを出力してもよい。別の例として、触覚信号は、アクチュエータによって復号するためにアクチュエータに送信されるデータを含んでもよい。例えば、アクチュエータ自体が、振幅及び周波数等のパラメータを特定するコマンドに応答してもよい。
一部の実施形態では、装置が生成することが出来る潜在的な効果の範囲を向上させるために、選択された触覚効果がない場合でも、基線触覚信号がアクチュエータに送信されて環境触覚効果を生成してもよい。従って、触覚信号を送信することは、必要に応じて強度を減少させるために、「ストップ」コマンド、「ゼロ」若しくは最小信号、又は別の信号をアクチュエータに送信することを含んでもよい。
例として、圧電アクチュエータ等の所定のアクチュエータを使用することで、摩擦係数の増加ではなく、接触面の摩擦係数の減少が可能になってもよい。選択の範囲を提供するために、接触面が静止しているときに有するであろう摩擦係数より接触面の「通常」の摩擦レベルが低くなるように基線信号が与えられてもよい。従って、触覚効果は、静的というよりは、基線の値に対して定義されてもよい。最大摩擦が望ましい場合、表面の動きを停止するために「ゼロ」信号が圧電アクチュエータに送信されてもよい。
ディスプレイと統合されるか否かに関わらず、本明細書の例示における2−D矩形及び他の接触面の検討は、限定することを意図していない。他の実施形態は、表面ベースの触覚効果を与えるように更に構成される湾曲した又は不規則な接触可能面を含む。更に、接触面及び表面ベースの触覚効果は上記の通りであるが、本発明の態様は、接触面とは独立して使用されることが可能であり、接触可能でない装置に触覚効果を与えるという用途を見つけることさえも可能である。接触可能装置が使用されるか否かに関わらず、実施形態は、表面ベースの触覚効果を含み、又は含まなくてもよい。
様々な触覚効果を与えるハードウェア機構の例示は上述の通り示されている。次に、本開示は、触覚効果の使用の例示的な実施形態に移る。下記の表題は、以下で検討される様々な実施形態を限定することを意図しておらず、独立して又は互いに任意に組み合わせて使用されてもよい。
(触覚ウィジェット)
次に図2Aを参照すると、図2Aは、本発明の一実施形態による触覚ウィジェット200を示す。本実施形態に示されるウィジェット200はユーザにとって視認出来ないので、ウィジェット200は、破線の境界を有するように示される。しかしながら、それは、ウィジェットに関係付けられるアプリケーション又はインターフェース要素に触角機能を与えるように構成される。しかしながら、一部の実施形態では、触覚ウィジェットは、例えば、触覚効果の選択肢としてユーザに与えられる場合、又は単に触覚効果の場所の視認可能な示唆を与えるため、又は触覚効果に対応する視聴覚効果を与えるために視認可能であってもよい。
ウィジェットは、一般に、入力を受信して出力を与えるためのAPI(application programming interface)等の明確に定義されたインターフェースを有する特定の機能、例えば、ボタン又はスクロールバーを具現化するインターフェース要素として理解されてもよい。ウィジェットは、それ自身の内蔵モジュールの実行可能コードであってもよく、又は直接的に若しくはライブラリ(例えば、ダイナミックリンクライブラリ)の一部としてより大きなソフトウェアアプリケーション内に組み込まれてもよい。
図2Aに示される触覚ウィジェット200は、1つ又は複数の特定の触覚効果を与えるためにソフトウェアによって使用され得る機能性を備える。例えば、触覚ウィジェットは、ブランド固有の触覚ウィジェットとしてECI等の企業によって作成されて提供されてもよい。ウィジェット200は、構成機能及びパラメータ等の他の機能性と共に、複数の異なる触覚効果202−208を含んでもよい。また、図2Aに示される実施形態は4つの触覚効果202−208を含む触覚ウィジェット200を示しているが、本発明の実施形態によるウィジェットの特定の要求に従って任意の数の触覚効果が含まれてもよい。図示の実施形態では、触覚ウィジェット200は、複数のブランド固有の触覚ウィジェットであり、ブランド固有の触覚効果202−208を備える。各触覚効果202−208は、ウィジェットによって受信される入力に基づいて出力又は再生され得るブランド固有の触覚効果である。例えば、一実施形態では、図1Aの装置10を再度参照すると、ブランド固有の触覚ウィジェット200は、起動時に再生されるブランド固有の触覚効果202及び停止時に再生されるブランド固有の触覚効果204を備える。更に、触覚ウィジェット200は、装置10が睡眠又は冬眠モードに入るときに再生されるように構成されるブランド固有の触覚効果206、及び装置10が睡眠又は冬眠モードから「起きる」ときに再生されるように構成される別のブランド固有の触覚効果を備える。こうしたブランド固有の触覚効果202−208の各々は、ECIのブランドの付いた装置に関係付けられて、異なる複数の装置に対してECIとの触覚的関連をユーザに与える共通の触覚効果を与えてもよい。更に、ブランド固有の触覚効果の一部は、装置の状態、例えば、起動等の他の示唆を与えてもよい。
上述の通り、触覚ウィジェット200は、明確に定義されたインターフェースを与える。図2Dは、そのインターフェース220を含む触覚ウィジェット200の更なる詳細図を示す。図2Dに示された実施形態では、触覚ウィジェット200は、複数の触覚効果202−208、少なくとも1つの構成パラメータ210、画像212、音声214、及びインターフェース220を備える。図2Dに示された実施形態では、触覚ウィジェットによって与えられる様々な機能性が、インターフェース220を使用することによってのみ利用可能である。インターフェース220は、ウィジェット内で定義される様々な機能性を使用するためにアプリケーション、オペレーティングシステム、又は他の実行可能コードによって使用され又は呼び出され得る。一部の実施形態では、インターフェースは、APIを含む1つ以上の実行可能機能を備えてもよい。一部の実施形態では、インターフェース220は、メッセージングプロトコル又は他の機構を介して渡されるメッセージを受信するように構成されてもよい。
例えば、図2Dに示された実施形態では、インターフェース220は、構成パラメータ210を変更又は検索するように構成される信号を受信し、1つ以上の触覚効果202−208を再生して、1つ又は複数の触覚効果202−208を再生させるように構成される信号を出力し、画像212を出力するための信号を受信して、画像212を表示させるように構成される信号を出力し、且つ音声213を出力するための信号を受信して、音声214を再生させるように構成される信号を出力するように構成される。一部の実施形態では、インターフェース220は、アクティブ化又は非アクティブ化コマンド等の他のコマンドを受信するように構成されてもよい。一実施形態では、アクティブ化コマンドは、触覚ウィジェットをアクティブ化し、又は1つ以上の触覚効果202−208、画像212、若しくは音声214をアクティブ化するように構成されてもよい。同様に、非アクティブ化コマンドは、触覚ウィジェットを非アクティブ化し、又は1つ以上の触覚効果202−208、画像212、若しくは音声214を非アクティブ化するように構成されてもよい。
図2Dに示された実施形態では、ウィジェット220は、様々な触覚効果202−208、画像212、音声214、及び構成パラメータ210に関する情報を定義又は格納するオブジェクトクラス等の複数の他のオブジェクトクラスを含むオブジェクトクラスとして定義される。一部の実施形態では、触覚ウィジェット220は、1つ以上の他のオブジェクトへの参照を含んでもよく、又はウィジェットの機能性を提供するために必要に応じてオブジェクトクラスに対応するオブジェクトのインスタンスを作成してもよい。しかしながら、触覚ウィジェットを定義するために、オブジェクト指向以外の他のプログラミングパラダイムが使用されてもよい。従って、本発明の一部の実施形態による触覚ウィジェットは、他のプログラミングパラダイムに従って定義されてもよい。
ウィジェットの機能性を使用するために、そのインターフェース220と相互作用することによって、実行可能コードがウィジェット200を呼び出す。例えば、本発明の一実施形態では、スマートフォン等のハンドヘルド装置のオペレーティングシステムは、スマートフォンのユーザに利用可能なアプリケーション又は他のウィジェットと触覚ウィジェットとを関係付けるように構成される。ユーザがアプリケーションを実行したことをオペレーティングシステムが決定する場合、オペレーティングシステムは、アプリケーションに関係付けられる触覚ウィジェット200を識別して、触覚ウィジェット200に触覚効果を出力する信号を生成させるために触覚ウィジェットのインターフェース220を呼び出す。オペレーティングシステムは、インターフェース220を介して触覚ウィジェット200から信号を受信して、その信号に基づいてアクチュエータ信号を生成する。このアクチュエータ信号は、スマートフォン内のアクチュエータに触覚効果を出力させるように構成される。一部の実施形態では、オペレーティングシステムは、静電装置を使用して信号に基づく触覚効果を生成してもよい。
例えば、例示的なウィジェットインターフェースは、構成機能、アクティブ化又は非アクティブ化機能、入力機能、登録機能及び1つ以上のこのようなインターフェース機能性のための対応する出力を含んでもよい。例えば、一実施形態では、ウィジェットは、アクティブ化及び非アクティブ化機能を備えてもよい。このような実施形態では、触覚ウィジェットの機能性の一部又は全てがアクティブ化され又は非アクティブ化されてもよい。例えば、図2Dに示される触覚ウィジェット200は、トライアル版としてスマートフォンにインストールされてもよく、従って部分的に使用不能状態でインストールされる。即ち、触覚効果の1つ202は使用可能であるが、残りの204−208は使用不能である。このような実施形態では、スマートフォンのユーザは、ウィジェット200の制限された機能性のみを取得してもよい。しかしながら、ユーザがサービスに登録し又はウィジェット200をアクティブ化するための料金を支払うのであれば、アクティブ化コマンドがウィジェット200に送信されてもよい。アクティブ化コマンドを受信すると、ウィジェット200は、ウィジェットの状態(例えば、「トライアル」から「アクティブ」)を示すパラメータと共に、触覚効果202−208の「使用可能」状態等の1つ以上の構成パラメータを変更してもよい。アクティブ化の成功後、ウィジェット200は、ウィジェットがアクティブ化されたこと又はアクティブ化が部分的にのみ成功又は不成功したことを示す信号を出力してもよい。
後日、ユーザがウィジェット200に関係付けられるサービスを終了し又は単にウィジェット200の非アクティブ化を希望する場合、ウィジェット200を使用不能にするために非アクティブ化コマンドが送信されてもよい。このようなコマンドを受信すると、ウィジェット200は、ウィジェットの状態(例えば、「トライアル」又は「アクティブ」から「非アクティブ化」)を示すパラメータと共に、触覚効果202−208の「使用可能」状態を「使用不能」に設定すること等によって、1つ以上の構成パラメータを変更してもよい。非アクティブ化の成功後、ウィジェット200は、ウィジェットが非アクティブ化されたこと又は非アクティブ化が部分的にのみ成功又は不成功したことを示す信号を出力してもよい。
一部の実施形態では、触覚ウィジェットは、1つ以上の認証機能又はパラメータを含んでもよい。例えば、触覚ウィジェットの配布者は、ウェジェットのアクティブ化を許可する前にウィジェットが適切にライセンス化されたことを確実にすることを希望してもよい。このような場合、触覚ウィジェットは、アクティブ化又は非アクティブ化時に認証コードを要求してもよい。更に、触覚ウィジェットは、アクティブ化又は非アクティブ化が適切に承認されたことを確かめるための信号を遠隔装置に送信するように構成されてもよい。
同様に、触覚ウィジェット200は、受信コマンドに基づいて、認証の識別又は確認を与えるように構成されてもよい。例えば、一実施形態では、触覚ウィジェットの作者は、その認証を確認し又は認証が確認されることを可能にするために、そのウィジェット内に構成パラメータを埋め込んでもよい。例えば、一実施形態では、触覚ウィジェットは、デジタル署名と共に配布されてもよい。このような実施形態では、ユーザは、触覚ウィジェットの認証を確認するためにウェブサイトにアクセスすることが可能であってもよい。その後、ウェブサイトは、そのデジタル署名又は他の認証情報を要求するための信号をウィジェット200に送信してもよい。このような要求に応じて、ウィジェット200は、その真正性を確認するためにウェブサイトによって後で処理されるデジタル署名又は認証情報を与える。確認時、ウェブサイトは、ウィジェットの認証、又はウェブサイトが確認されない場合には認証の欠如の示唆をユーザに与えてもよい。
アクティブ化又は非アクティブ化機能に加えて、触覚ウィジェットのインターフェース220は、ウィジェット200のパラメータ、例えば、動作パラメータを変更するための機能性を与えてもよい。例えば、本発明の一実施形態による触覚ウィジェット200は、触覚ウィジェットを構成するための複数の構成機能を有する。適切な機能は、ウィジェット内で利用可能な1つ以上の触覚効果に対する最大又は最小の振幅又は強度を設定するための1つ以上の「ボリューム」制御、時間ベース設定(例えば、触覚効果の夜間の停止、日中の起動、又は触覚ウィジェットが非アクティブ化されるタイマー)、又は電源設定(例えば、バッテリレベルが20%以下である場合、触覚効果を非アクティブ化する)を含む。
上述の通り、一部の実施形態では、触覚ウィジェットは、構成パラメータ又は他の外部パラメータに基づいて異なる触覚効果を出力することが可能であってもよい。例えば、一実施形態では、携帯電話又はスマートフォンで利用可能なゲームアプリケーションは、オペレーティングシステムによって与えられる触覚ウィジェットに関係付けられてもよい。ウィジェットは、時刻に基づいて異なる触覚効果を出力するように構成されてもよい。例えば、ユーザが平日の午前9時から午後5時までの間にゲームアプリケーションを実行しようとする場合、触覚ウィジェットは、ゲームアプリケーションからの入力なしで、抑止力として否定的な快楽応答(hedonic response:例えば、不快感)を引き起こす触覚効果を自動的に選択して再生してもよい。代替的に、ユーザが夜間又は週末にゲームアプリケーションを実行しようとする場合、触覚ウィジェットは、ゲームアプリケーションからの入力なしで、奨励として肯定的な快楽応答(例えば、愉快感)を引き起こす触覚効果を自動的に選択して再生してもよい。別の実施形態では、オペレーティングシステムは、ゲームがアクティブ化されると肯定的又は否定的な触覚効果を再生するかどうかを決定して、選択された触覚効果をウィジェットに出力するように命令してもよい。
先に検討されたように、本発明の一部の実施形態は、特定のブランド又は企業に関係付けられる触覚ウィジェットを含んでもよい。このような触覚ウィジェットは、様々な設定で触覚的感覚を与えるための他の機能性と結合されてもよい。例えば、一実施形態では、装置10は、少なくとも1つが、他の情報の中でも特に、装置の場所を決定するためにGPS(Global Positioning System)信号を受信して処理するように構成される複数のプロセッサを備える。決定された場所に基づいて、装置10は、特定のブランド又は企業に関係付けられる店、例えば、携帯電話会社の店の接近を決定してもよい。その後、装置10は、携帯電話会社に関係付けられる触覚ウィジェットを識別して、ブランド固有の触覚効果を再生させる少なくとも1つの信号を触覚ウィジェットに送信する。更に、一部の実施形態では、触覚効果の再生と実質的に同時にブランドに関係付けられる画像又は音声も触覚ウィジェットに表示させるための信号を送信してもよい。更に、一部の実施形態では、例えば、ブランド固有の触覚効果又は画像若しくは音声と実質的に同時に、装置10は、付近の店が携帯電話会社によって提供される製品又はサービスを提供することを示すためのメッセージをユーザに更に表示してもよい。このような実施形態では、ユーザは、付近の店の場所の示唆と共にユーザの場所に基づいて特定のブランド又は企業に関係付けられる時宜を得た広告が与えられてもよい。
触覚ウィジェット200は、振動等の触覚効果の種類を具現化し、又は特定の機能性に関係付けられる触覚効果の群を定義するように定義されてもよい。例えば、一実施形態では、ECI等の企業は、各々が1つ以上のブランド固有の触覚効果を含む1つ以上のブランド固有の触覚ウィジェットを生成して、このようなウィジェットにECIによって製造される装置を提供してもよい。更に、ブランド固有のウィジェットは、他の企業によって提供されてECIの装置に組み込まれてもよい。例えば、ECIによって作られる1つ以上の携帯電話装置に対して、携帯電話事業者は、事業者のネットワークで利用可能なECI携帯電話装置に組み込まれる1つ以上の触覚ウィジェットを提供してもよい。例えば、ECIが携帯電話事業者のネットワークに接続すると、装置は、無線事業者のブランド固有の触覚ウィジェットを呼び出して、ユーザに対して無線事業者のブランドを強化するのを支援するためにブランド固有の触覚効果を再生してもよい。同様に、他の企業からの触覚ウィジェットが提供されてもよい。このようなウィジェットは、ECIの装置にインストールされるアプリケーションによって、又は他のアプリケーションに表示されるコンテンツ内の広告によってアクティブ化されてもよい。例えば、ウェブページ内の企業の広告は、企業によって提供された装置上において触覚ウィジェットを識別して呼び出してもよく、それは、装置のユーザにブランドの識別を提供して、広告をユーザに検索させて閲覧させてもよい。
次に、図2B及び2Cを参照すると、他のインターフェース要素、例えば、触覚ウィジェットが、アプリケーション、オペレーティングシステム機能、ボタン等に関係付けられてもよい。図2Bは、複数の触覚ウィジェット222−228及びユーザインターフェーススライダ220を含むシステムを示す。触覚効果をスライダ220に与えるために、触覚ウィジェット222は、図2Cに示されるスライダ220に関係付けられてもよい。図2Cに示された実施形態では、触覚スライダ220は、触覚ウィジェット222に関係付けられている。スライダ220は、装置に利用可能なウィジェットを識別して、使用される適切なウィジェットを選択するように構成されている。例えば、スライダは、特定の快楽応答を引き起こす触覚ウィジェットと共に使用可能であるように構成されてもよく、従って、利用可能な触覚ウィジェットを識別して、後に詳細に記載される快楽触覚効果を与えるウィジェット222から利用可能な機能性を採用するように構成されてもよい。別の実施形態では、スライダ220は、スライダによって利用可能な触覚ウィジェットと共に配布されてもよい。更に別の実施形態では、スライダ220は、特定の種類の機能を提供する又は広く利用可能である触覚ウィジェットに関連付けるように構成されてもよい。触覚ウィジェット222との関連付けの後、スライダ220は、スライダ220の操作に基づいて触覚ウィジェット222内の触覚効果をアクティブ化するように構成される。
一部の実施形態では、本発明による触覚ウィジェットは、触覚効果に特定の「快楽値」を与えるように構成されてもよい。本明細書で使用される場合、「快楽値」は、結果の告知のときに意思決定者によって感知される幸福又は悲哀の程度を意味する。そうでなければ迂回又は無視することが出来るインターフェースの部分を視認すること、そうでなければユーザが無意識の動作を行う意識動作を要求すること、ユーザの注意をインターフェースの一面から別の所へ移すこと、及び/又はアクティブ化ジェスチャの途中でウィジェットをアクティブ化する決定を取り消すための時間をユーザに与えることの1つ以上を設計者がユーザに奨励又は要求するために触覚効果は使用され得る。図12は、快楽触覚効果の種類の基本図表1200を示す。
図12に例示されるように、これは、ジェスチャの完成を奨励するジェスチャの開始時の「肯定的」フィードバックを提示すること、ジェスチャの満足感のある確認及び/又はジェスチャの反復を奨励することを促進するジェスチャの終了時における「肯定的」フィードバックを提示すること、ジェスチャに対するユーザの注意を中断するジェスチャの開始時における「否定的」フィードバックを提示すること(場合によっては視覚的アイテムにユーザの注意を移させ、及び/又は場合によってはユーザにジェスチャを中止させる)、及びユーザに否定的感覚をジェスチャを結び付けて考えさせ、場合によっては次に機会が生じたときにそのジェスチャの使用をユーザに思い留まらせるジェスチャの終了時における「否定的」フィードバックを提示することよって達成され得る。
図13−14は、例示を提供する。ここで、インターフェース1300は、広告1302を特徴とする。広告は、2つのインターフェース要素、申し込みを受け入れるために左から右にドラッグされるスライダ1304及び申し込みを退けるために右から左にドラッグされるスライダ1306を含む。図13に示されるように、触覚的奨励及び/又は確認は、肯定的な感情/体験を1308に示される確認スライダ1304の使用と関係付けるために使用され得る。例えば、摩擦係数は、左から右に移動する場合により低くてもよい。また、チェックマークに到達する場合に好ましい効果(例えば、柔軟な振動)が再生されてもよい。一方で、図14の1310に示されるスライダ1306の使用は、思い留まり/中断されてもよい。例えば、スライダ1306が右から左に移動するにつれて中断(例えば、クリック、ポップ、模倣された粗いテクスチャ、又はそれ以外で警戒心をあおり若しくは気を散らすように設計される触覚効果)が与えられ得る。及び/又は、「X」に到達する場合(ジェスチャが完成している場合)好ましくない効果が再生され得る。
触覚効果を与えるために、こうしたスライダ1304、1306の各々は、図13A及び14Aに示される触覚ウィジェット1320に関係付けられる。図13A及び14Aに示される実施形態では、触覚ウィジェットがドラッグジェスチャに関係付けられる快楽触覚効果を与えるように構成されるので、各スライダ1304、1306は、同じ触覚ウィジェット1320に関係付けられる。従って、各スライダ1304、1306は、単に触覚ウィジェットから適切な触覚効果をアクティブ化することによって、所望の触覚効果を与えてもよい。例えば、スライダ1304は、スライダボタンが移動している間に出力される肯定的な快楽的「動作奨励」触覚効果を、その後、スライダボタンがその経路の終端に到達すると肯定的な快楽的「動作確認」触覚効果をアクティブ化してもよい。同様に、スライダ1306は、スライダボタンが移動を開始し又は移動している間に否定的な快楽的「動作中断」触覚効果をアクティブ化して、ユーザが動作の完成によって満足感を得ないように、又は動作を繰り返し完成しないように、又は将来機会が生じた場合に再度動作を完成しないように、スライダがその経路の終端に到達すると否定的な快楽的「動作抑止」を出力する。
この実施形態では、スライダ1304、1306の各々が同じ触覚ウィジェットに関係付けられるが、図13B及び14Bに示される実施形態では、各スライダ1304、1306は、異なるウィジェット1322、1323に関係付けられる。例えば、1つのウィジェット1322が肯定的な快楽触覚効果を与えてもよく、一方では、他のウィジェット1324が否定的な快楽触覚効果を与える。触覚効果の更に他の組み合わせは、別の組織的スキームに基づいて共通の触覚ウィジェット内でグループ化され得る。更に、各スライダ1304、1306は、様々な異なる触覚効果を各スライダ1304、1306に与えるために複数の触覚ウィジェットに関係付けられてもよい。
異なる快楽触覚効果が、肯定的及び否定的な触覚的感覚を与えるために生成されてもよい。例えば、一実施形態では、肯定的な快楽触覚効果は、摩擦係数を減少させて、ユーザがジェスチャをより容易に完成することを可能にしてもよい。別の実施形態では、肯定的な快楽触覚効果は、心地の良い又は落ち着いた感覚をユーザに与えるために低振幅、低周波数振動を含んでもよい。本発明の一部の実施形態は、肯定的な快楽効果を生成するために複数の触覚効果を組み合わせてもよい。例えば、一実施形態では、肯定的な快楽効果は、低振幅、低周波数振動と組み合わせた低減された摩擦係数を含む。
先に検討されたように、否定的な快楽効果は、ユーザの動作を思い留まらせ又は中断させるために不愉快な触覚的感覚を与えるために生成される。例えば、一実施形態では、否定的な快楽触覚効果は、摩擦係数を増加させ、又はユーザのジェスチャを思い留まらせるために粗い若しくは不愉快なテクスチャを与えてもよい。別の実施形態では、一連の短期間の高振幅「スタッカート」効果が出力されてユーザに不快感を与えてもよい。肯定的な快楽効果と同様に、本発明の一部の実施形態は、否定的な快楽効果を生成するために複数の触覚効果を組み合わせてもよい。例えば、一実施形態では、否定的な快楽効果は、ユーザの動作を思い留まらせ又は中断させるために、一連の短期間の高振幅「スタッカート」効果と組み合わせた増加された摩擦係数を含む。
一部の実施形態では、触覚効果は、ユーザが動作を完成するための努力又は集中のレベルを上げるための擬似力フィードバックを与えることによってユーザの動作を防止するために使用されてもよい。例えば、一実施形態では、触覚効果は、タッチセンサ式入力装置の摩擦係数を増加させることによって、ユーザの動作に実際の抵抗を与えてもよい。一部の実施形態では、触覚効果は、混乱する又は反直感的な触覚的感覚を与えるように構成されてもよい。例えば、一実施形態では、触覚効果は、ユーザの移動方向とは異なる方向にオンスクリーンオブジェクトの移動を示すように構成されてもよい。このような実施形態では、ユーザが右側へスクリーンから離れてスライドすることにより広告を移動させようとする場合、「右」方向ではなく、「上」方向の移動をエミュレートする振動が出力されてもよい。又は、触覚効果は、衝突をエミュレートして(また、画像は「衝突」に続いて動作を停止するように見えてもよい)、それにより、場合によってはユーザが指を持ち上げて再度接触することにより画像と再係合することを必要としてもよい。
次に、図15を参照すると、図15は、本発明の一実施形態による触覚効果を与えるための方法1500を示す。本発明の一部の実施形態の以下の記載は、図1Aに示された装置が参照される。しかしながら、例えば図1B−Cに示されている他の装置は、本発明のこうした他の実施形態と共に使用するのに適している。
図15に示される実施形態では、方法1500は、触覚ウィジェットを識別するステップを有するブロック1502で開始する。先に記載されたように、触覚ウィジェットは、識別情報を記憶して与えることが可能であってもよい。一部の実施形態では、触覚ウィジェットは、名前、ブランド、企業名、ID番号、デジタル署名、又は他の識別情報を記憶してもよい。触覚ウィジェットを識別するために、その識別情報を要求する信号が触覚ウィジェットに送信されてもよい。一実施形態では、触覚ウィジェットは、識別情報を要求する信号を受信してもよい。それに応じて、触覚ウィジェットは、触覚ウィジェットの識別に関係付けられる1つ以上の情報を与える。識別情報を受信した後、装置10は、触覚ウィジェットの識別又はウィジェットの特徴を識別することを決定してもよい。代替的に、発信源が未知若しくは未確認であり、又は与える識別情報を持っていない可能性があるので、触覚ウィジェットは、信号に応答しなくてもよい。
一部の実施形態では、触覚ウィジェットは、アプリケーション、オペレーティングシステム、画像、又は他のオブジェクト若しくはプログラムコードと触覚ウィジェットとの間の関連性を決定することによって識別されてもよい。例えば、一実施形態では、装置10は、触覚ウィジェットとアプリケーション又は他のオブジェクトとの関連性を記述するデータベースを維持する。このような実施形態では、装置10は、データベースに記憶された情報に基づいて触覚ウィジェットを提供し又は触覚ウィジェットへの参照を提供してもよい。更なる実施形態では、アプリケーション又は他のプログラムコードが、例えば、特定の触覚ウィジェットにメッセージを送信することによって、又は触覚ウィジェットのインターフェース機能を呼び出すことによって、呼び出される触覚ウィジェットを識別してもよい。触覚ウィジェットが識別された後、方法1500は、設定が必要とされる場合、ブロック1504に進み、そうでなければ、方法は、ブロック1504を飛ばして、ブロック1506に進んでもよい。
ブロック1504において、触覚ウィジェットが設定される。本発明の一実施形態では、触覚ウィジェットは、触覚ウィジェットをアクティブ化することにより又はそれを登録することにより設定されてもよい。例えば、触覚ウィジェットは、不揮発性コンピュータ可読媒体に触覚ウィジェットを記憶し、ウィジェットをアクティブ化又は認証し、ウィジェットのインターフェースに関する場所及び情報、触覚機能性又はブランド化情報等のウィジェットに関する情報をオペレーティングシステムに与えるインストール手順を実行することによってオペレーティングシステムに登録されてもよい。一実施形態では、触覚ウィジェットは、ウィジェットの「ボリューム」又は触覚ウィジェット内の触覚効果の相対振幅等のウィジェットのパラメータを変更することによって設定されてもよい。一部の実施形態では、毎回使用前にウィジェットを設定し、又は1つ以上のコマンドと共にパラメータをそれに送信する必要があってもよいが、図15に示される方法1500の設定ステップ1504は、方法1500が行われると毎回実行される必要はなくて、その代わり選択的に行われてもよい。ウィジェットの設定後、方法1500は、ウィジェットがアプリケーション、アイコン、又は装置10の他のソフトウェア若しくはハードウェア構成要素に関係付けられる場合、ブロック1506に進む。関係付けステップが不必要な場合、方法は、ブロック1508に進む。例えば、ユーザは、ブランド又はロゴの画像に触ること等によって間接的にそれと相互作用するのではなく、ウィジェット自身と相互作用してもよい。
ブロック1506において、触覚ウィジェットは、装置のソフトウェア又はハードウェア構成要素に関係付けられる。例えば、一実施形態では、ユーザは、自身のスマートフォンにソフトウェアアプリケーション及び触覚ウィジェットをインストールしてもよい。インストール手続きの間、オペレーティングシステムは、アプリケーションが実行されると、オペレーティングシステムが触覚ウィジェットに信号を送信するように、ウィジェットとアプリケーションとを関係付けてもよい。一実施形態では、ウェブページは、ブランド又は広告の画像を含んでもよい。ウェブページが構文解析されて表示されると、ウェブページ内のプログラムコードは、装置10にインストールされている触覚ウィジェットに関する情報を要求する。1つ以上のウィジェットが使用可能であるとプログラムコードが決定する場合、プログラムコードは、ウェブページが視認可能である間に使用されるウィジェットに関する情報を記憶して、ウィジェットを画像又は広告と関係付ける。一実施形態では、プログラムコードは、ユーザがウェブページに案内される初回にのみ関係付けステップが実行されるように、クッキー等に情報を記憶する。しかしながら、別の実施形態では、ウェブページは、ユーザがウェブページに案内されると毎回触覚ウィジェットを再度関係付けてもよい。更なる実施形態では、ユーザは、触覚ウィジェットを装置10のソフトウェア又はハードウェア構成要素と手動で関係付けてもよい。例えば、ユーザは、カレンダのリマインダが触覚ウィジェットに触覚効果を再生させるように触覚ウィジェットをカレンダアプリケーションと関係付け、又はマイクロホンがアクティブ化されると毎回触覚効果が再生されるようにマイクロホンを触覚ウィジェットと関係付けてもよく、例えば、これは不注意で電話をかけた場合にユーザに通知してもよい。
代替的に、ユーザは、触覚ウィジェット及びウィジェット内の個々の触覚効果の双方をソフトウェア構成要素と関係付けてもよい。例えば、ユーザは、カレンダの約束を触覚ウィジェットと関係付けてもよいが、ウィジェット内の異なる触覚効果を異なるリマインダと関係付けてもよい。例えば、ユーザは、低い強度の触覚効果を約束の30分前のリマインダと関係付け、強い否定的な快楽触覚効果を約束に遅れていることをユーザに通知するために約束の時間に又は約束の後の時間に、又はユーザが所定の回数約束をスキップした(例えば、3回以上ジム又はトレーニングの約束をスキップした)場合に起こるリマインダと関係付けてもよい。触覚ウィジェットがソフトウェア又はハードウェア構成要素に関係付けられた後で、方法は、ブロック1508に進む。
ブロック1508において、ウィジェットのインターフェースを介してコマンドが触覚ウィジェットに送信される。例えば、「再生」コマンドが、インターフェースを介して触覚ウィジェットに送信されてもよい。このようなコマンドは、振幅、期間等の1つ以上のパラメータを含んでもよく、又は単に特定の触覚効果を選択してもよい。ここで、ウィジェットは、ウィジェットの構成パラメータに基づいて触覚効果に関するパラメータを決定する。一部の実施形態では、再生コマンドは、出力される複数の触覚効果、又は更に触覚効果、画像、映像、音声、若しくは出力される触覚ウィジェット内の他の効果を識別してもよい。
更に、一部の実施形態では、他のコマンドが触覚ウィジェットに送信されてもよい。例えば、一部の実施形態では、ウィジェットの一部又は全ての機能性をアクティブ化し、又はウィジェットの一部又は全ての機能性を非アクティブ化するために、コマンドが送信されてもよい。一実施形態では、コマンドは、情報を要求し、又は構成設定を与えてもよい。更に、一部の実施形態によれば連続して又は実質的に同時に複数のコマンドが触覚ウィジェットに送信されてもよい。コマンドの受信に応じて、触覚ウィジェットは、触覚効果を引き起こすように構成される信号を生成して与える等のコマンドに関係付けられる機能性を実行する。コマンドがウィジェットに送信された後で、方法1500は終了してもよく、又は別のコマンドが触覚ウィジェットに送信されるステップ1508に戻ってもよく、又はウィジェットが再設定され得るブロック1504に戻ってもよい。一部の実施形態では、更なる機能が実行されてもよく、又は方法1500のステップが異なる順番で実行されてもよい。
(触覚ブランド化)
先に検討されたように、本発明の実施形態は、ブランド又はロゴに関係付けられる触覚効果を与えてもよい。例えば、実施形態は、ウィジェットの使用を介して、このような触覚効果を与えるために本明細書に開示される。しかしながら、触覚使用可能ブランド化は、様々な方法で実装及び使用され得る。
一般的に知られているように、企業等のエンティティは、エンティティに関係付けられる企業又は製品を独自に識別する画像又はロゴを展開する場合がある。このような画像又はロゴは、正式に商標登録される場合があり、又は単に特定の企業若しくは製品に従来から関係付けられる場合がある。しかしながら、特徴を識別する他の発信源が、特定の製品又は企業を参照するために使用されてもよい。例えば、製品及びその包装の触覚的知覚は、品質の知覚及び差別化の重要な部分である。これら双方は、オンラインマーケティングキャンペーンには完全に欠落している。更に、ブランド展開に関して、「タッチポイント(touchpoints)」は、顧客とブランドとの関係の段階である。タッチポイントは、ブランドに関する意見及び感情が形成される重要な点である。ブランドに関する伝統的なタッチポイントの1つは、製品包装である。デジタル及びソーシャル媒体で売買される商品については、触れられる包装が存在しない。触覚学がこの感覚欠如を満たして、ブランドを有形且つ直感的なものにすることが出来る。以下の実施形態は、「ブランドの触覚的構成要素」、顧客の行動に影響を与え得るマーケティングメッセージの一部であるデジタル的に生成される触知性及び力フィードバックに関する。
一実施形態では、触覚効果は、アニメーション化された動作、触覚学、及び/又は相互作用可能なジェスチャの可能性によってユーザの注意を引く企業ロゴに対して相互作用可能なアバターを提供するために使用される。図3Aの200で示される本願の受託者であるイマージョン社のロゴは、人間的に動作させることによって注意及び共感を得るアバターの例示である。実施形態は、アバターが画面を移動し又は波打ち又は「タッピング」すると、ユーザがその移動又はタッピングジェスチャによって引き起こされる振動を感じることが出来るように、ジェスチャに触覚フィードバックを加えて応答し得る。例えば、アバターがアニメーション化されると、振動触覚効果が出力されるようにランタイムパッケージ、アプリケーション、又は命令が与えられ得る。更に、ユーザがアバターに触れると、それは、対応する触覚効果によってハイタッチジェスチャを模倣してもよい。1つ以上の触覚効果を介して、ユーザはロゴと相互作用することが可能であり、ブランドとの様々な相互作用及び触覚体験の豊富さがユーザを引き込んで、ブランドに対する感情的な反応を強化してもよい。
一実施形態では、触覚効果は、ブランドを「成立」させるように顧客を奨励する企業ロゴに対して相互作用可能アイコンを提供するために使用される。対象者に製品の名前を書くように説得すること、又はブランドに対する顧客の行動を「彫刻」することは、ブランドの忠誠心を増加させて、ブランドの擁護を奨励する。従って、触覚効果は、このような行動を促進するために使用可能である。例として、ジェスチャの完成は、愉快な触覚応答によって報いられ得る。例えば、図3Bのロゴ300がオンスクリーンでレンダリングされ得る。ロゴが指でトレースされると、触覚応答を与えるために、接触又は他の入力が検出され得る。更に又は代替的に、触覚フィードバックは、入力の進行中に与えられ得る。同様に、図3Cは、複数の明白な爪跡を含むロゴ320を提示する。本発明の一実施形態によれば、ユーザは、ロゴと相互作用して爪で引っかく動作を模倣するために複数接触型ジェスチャを利用してもよい。ユーザがジェスチャを行っている間、装置10は、例えば、爪が布を引き裂く等の引き裂く感覚を模倣するように構成される触覚効果等、ジェスチャに関係付けられる触覚効果を出力してもよい。
一実施形態では、触覚効果は、製品の識別及び/又は特徴の触覚的構成要素を与えるために使用される。例えば、図4に示される文書400を検討すると、製品402、404、406、408、410、及び412のリストが示されている。例えば、文書400は、異なるデジタルカメラのリストを有するウェブページを含んでもよい。ウェブページ内に表示されている場合、各々のカメラは非常に似ているように見え、品質の知覚に関係付けられる場合が多い重量及びテクスチャ等の特性が顧客に利用可能でない。図4に示される実施形態は、製品の販売者が触覚効果を製品に関係付けることを可能にすることによって、この問題に対処する。例えば、414に示されているように、ユーザが製品の画像上で指をスライドさせると効果が生じ得る。別の例示として、ユーザが検索結果のリストで特定の製品へのリンクに触れると出力される独自の愉快な触覚的「クリック」又は他のブランド固有の触覚効果(例えば、特定のカメラのシャッターのクリック)によって製品を差別化するために効果が使用されてもよい。
本発明の実施形態は、触覚ウィジェットの使用を通じた触覚ブランド化を提供してもよい。例えば、先に検討されたように、触覚ウィジェットはブランド固有の触覚ウィジェットであってもよく、又はブランド固有の触覚効果又はロゴ若しくはブランド等の画像を含んでもよい。一実施形態では、装置10は、ECIに関係付けられるブランド固有の触覚ウィジェットを含んでもよい。このような実施形態では、装置10は、起動時に、ECIに関係付けられる画像を表示すると共に、ECIに関係付けられるブランド固有の触覚効果を出力させるために触覚ウィジェットに信号を送信してもよい。一部の実施形態では、装置10は、画像を表示するように構成されて、実質的に同時にブランド固有の触覚効果を出力するように構成されてもよい。
同様に、アプリケーション、オペレーティングシステム、又はコンテンツは、ブランドに関係付けられるより豊かなユーザ体験を与えるためにブランド固有の触覚ウィジェットを使用するように構成されてもよい。一実施形態では、ウェブページは、ブランド又は企業に関係付けられる画像を含んでもよい。このような実施形態では、ウェブページは、コンピュータシステムで利用可能な触覚ウィジェットに関する情報を要求するように構成されるプログラムコードを含んでもよい。コンピュータシステムは、インストールされ又はアクティブ化されたウィジェットを記述するテーブルを維持してもよく、又は1つ以上のインストールされたウィジェットに問い合わせを行って各々の識別を決定してもよい。このような実施形態では、コンピュータシステムは、要求に応じて利用可能な触覚ウィジェットに関する情報を与える。その後、プログラムコードは、画像に関係付けられる触覚効果を与えることが可能なブランド固有の触覚ウィジェット等の触覚ウィジェットを識別してもよい。次に、プログラムコードは、触覚ウィジェットを呼び出して、選択された触覚効果を与える。このような実施形態は、ユーザのコンピュータ又は装置に以前にインストールされた触覚ウィジェットを利用するより没入型の有益な閲覧体験をユーザに与える。
一実施形態では、サーバ等の遠隔装置によって提供されるウェブページ又は他のコンテンツが、触覚ウィジェットを含んでもよい。例えば、ユーザは、ユーザの装置に送信されてウェブページによって使用される触覚ウィジェットを含むウェブページに進んでもよい。このような実施形態では、ウェブページは、ユーザによる確認の受信後又はユーザの介入無しで自動的に、触覚ウィジェットをインストールしてもよく、その後、例えば、ウェブページ内のコンテンツに基づいてユーザに触覚効果を出力するように触覚ウィジェットを設定し又はアクティブ化してもよい。
別の実施形態では、ユーザは、スマートフォン等のコンピュータ又は装置にアプリケーションをインストールしてもよい。インストールの間又は後で、触覚ウィジェットは、アプリケーションに関係付けられてもよい。例えば、一実施形態では、インストールの間、オペレーティングシステムが、アプリケーションの提供者を決定して、例えば、1つ以上のブランド固有の触覚ウィジェット、又はブランド固有の触覚効果若しくはアプリケーション提供者に関係付けられる画像を含む触覚ウィジェット等、アプリケーションの提供者に関係付けられる1つ以上の触覚ウィジェットを識別してもよい。一実施形態では、実行されると、アプリケーションは、コンピュータ又は装置上で利用可能な触覚ウィジェットを検出して、アプリケーションの起動又は実行中に、1つ以上のブランド固有の触覚効果が再生され得るように、1つ以上のウィジェットをアプリケーションに関係付けてもよい。
次に、図16を参照すると、図16は、本発明の一実施形態による方法1600を示す。図16の記述は、図1Aに示された装置10を参照して行われるであろう。しかしながら、図1B−Cに示されているような他の装置 が本発明のこうした他の実施形態と共に使用するのに適している。
図16に示される実施形態では、方法1600は、ブランドに関係付けられる画像を表示するステップを有するブロック1602で開始する。周知のように、企業は、ロゴ、マスコット等のブランドに関係付けられる画像を生成する場合がある。一実施形態では、画像は、装置10が起動するとき又はアプリケーションが立ち上がるときにスプラッシュスクリーンの一部として表示されてもよい。一実施形態では、画像は、ウェブコンテンツの中又は検索結果のスポンサー付きリンクの組の中に表示されてもよい。一部の実施形態では、画像は、費用無しで配布されたゲームであって、バナー又は隙間広告(interstitial ad)等を介してゲーム内に広告が付いているゲームの中に表示されてもよい画像が表示された後で、方法1600は、ブロック1604に進む。しかしながら、一部の実施形態では、方法は、ブロック1602の後でブロック1606又は1608に進んでもよい。例えば、一部の実施形態では、画像は、アニメーションを含んでもよく、従って、方法は、ブロック1606に進んでもよい。一部の実施形態では、画像及び触覚効果は、実質的に同時に出力されてもよく、この場合、方法1600は、ブロック1608に直接進み、又は実質的に同時にブロック1602及び1608を実行してもよい。
ブロック1604において、装置のプロセッサは、タッチセンサ式入力装置との接触を示す信号を受信する。例えば、一実施形態では、装置は、例えば、ユーザの指から接触を感知するように構成されるタッチセンサ式入力装置を備えてもよい。このような実施形態では、 図1A−Cに関して先に記載されたように、実施形態は、接触に関係付けられる位置情報と共に圧力情報等の他の情報も与えてもよい。接触信号の受信後、一実施形態では、方法1600は、ブロック1606に進む。しかしながら、一部の実施形態では、方法は、ステップ1608に進んでもよい。
ブロック1606では、装置のプロセッサは、表示された画像を更新する。例えば、一実施形態では、表示された画像は、複数の画像を繰り返してアニメーションを与えてもよい。別の実施形態では、表示された画像は修正されてもよく、又はアニメーションは画像に関係付けられるユーザの接触又はジェスチャ等の受信した接触信号によってトリガされてもよい。一実施形態では、ユーザは、画像に接触し又は画像上でジェスチャを実行してもよく、それにより、画像の色、形状等が変更され、又は歩行若しくは跳躍等のアニメーション化された動作が実行されてもよい。しかしながら、一部の実施形態では、画像は変化しなくてもよく、従って、ブロック1606に到達しなくてもよい。しかしながら、ブロック1606が完了した後で、方法1600は、ブロック1608に進む。
ブロック1608において、装置10は、触覚効果を出力する。例えば、一実施形態では、装置10は、画像に関係付けられるブランド固有の触覚効果を出力してもよい。別の実施形態では、装置10は、企業ロゴ又はマスコット等の画像のアニメーションの間に複数のブランド固有の触覚効果を出力してもよい。更なる実施形態では、装置10は、ユーザの接触又はジェスチャに関係付けられるブランド固有の触覚効果を出力してもよい。例えば、ユーザが画像に接触すると、装置10は、肯定的な快楽触覚効果を出力してもよく、又はユーザが企業ロゴを示す画像等の画像を正確にトレースすると、装置10は、ジェスチャの間中肯定的な快楽触覚効果を出力し、ユーザのジェスチャの遂行が成功する場合に第2の肯定的な快楽触覚効果を、ユーザがジェスチャを誤って遂行した場合に否定的な快楽触覚効果を出力し、又は完了の前にジェスチャを停止してもよい。更に、一部の実施形態では、触覚効果は、触覚ウィジェットによって出力されてもよい。例えば、触覚ウィジェットは、画像又は画像に関係付けられるブランドに関係付けられてもよい。このような実施形態では、ユーザが画像と相互作用すると、触覚ウィジェットは、ブランド固有の触覚効果を引き起こす1つ以上の信号を出力するように命令されてもよい。
方法1600の一部の実施形態では、1つ以上のステップが、実質的に同時に、非同期式に、又は異なる順番で実行されてもよい。例えば、アニメーション化された画像が、アニメーションとユーザの接触とは無関係に表示されてもよい。また、触覚効果は、適切な接触が行われ又はジェスチャが実行される場合、アニメーション中の任意の時間に出力されてもよい。更に、一部の実施形態では、示されたステップの全てよりも少ないステップが実行されてもよい。例えば、一実施形態では、画像は、装置10の起動中にブランド固有の触覚効果と実質的に同時に表示されてもよいが、装置10は、スクリーンとユーザの接触を認識しなくてもよく、又は画像を更新若しくは変更しなくてもよい。
(触覚広告)
先に検討されたように、本発明の実施形態は、触覚使用可能広告を提供してもよい。例えば、実施形態は、触覚的スーパースティシャル(superstitial)、触覚映像同期広告、又は相互作用可能触覚バナー広告から成る触覚向上型広告を介して企業が顧客に届くのを支援するために触覚学を使用することを含む。触覚学は、本来的に感情的であり、末梢的に処理され、且つ非常に注意を引くので、このスペースに何らかの独自の利益をもたらす。利点は、限定されないが、販売業者が広告効果を増強するために新しいツールを提供すること、携帯広告のユーザ体験を改善すること(ユーザに焦点を合わせて)、携帯広告をより効果的にすること(広告主に焦点を合わせて)、及び/又は製品の差別化を容易にすることを含み得る。例えば、広告配達エンティティ又はネットワークが、広告に触覚フィードバックを与えることによってそれ自身を差別化してもよい。複数の例示が以下に示される。例えば、いずれか又は全ては、触覚効果を特定する広告又は他の通信を識別するデータにアクセスすることに応じて触覚フィードバックを与えることが可能なブラウザ又は他のアプリケーションを使用することによって実装され得る。ブラウザは、移動装置又は別のコンピュータ装置によって実行されてもよい。
一実施形態では、触覚効果は、隙間と関連して与えられる。隙間(「間」にあるもの)は、ウェブサイト上の編集コンテンツ構造の通常の流れの中に挿入される文書(例えば、画像又はテキストのブロック)又は広告若しくは販売促進を目的とする他の文書の中の部分である。それは非常に侵入的であり、幾分侵入的であり、又は全く侵入的でなくてもよい。また、観察者の反応は、通常、メッセージがどれくらい歓迎的か又は娯楽的かに依存する。
触覚学の使用の一例が図5に示される。ウェブページ又は他の文書500が、コンテンツ502を含む。ブラウザ又は他の表示アプリケーションは、ユーザの注目を広告に移そうとして隙間504が画面上に現れるとき及びそれが画面から消えるときに、触覚効果(警報、テクスチャの変化等)等を再生するように構成される。これは、文書ブラウザ内で文書のスクロール一を制御するためにユーザが既に画面と相互作用しているジェスチャベースのインターフェースにおいて特に効果的であり得る。
更に、「擬似力フィードバック」と見なされる触覚効果が、広告を画面から消すようにスクロールさせるために、スライドスクロールジェスチャがより多くの距離(例えば、508で示される距離)を必要とするように使用され得ることにより、広告を退去させるためにユーザの側により多くの意識的及び物理的努力を必要とし、広告をより長い時間注目させることが出来る。この擬似力フィードバックは、極度に繊細なものであってもよく、その結果、ユーザはスクロール動作が広告の位置によって影響されていることに気付かない。
一実施形態では、スーパースティシャル広告が触覚フィードバックと共に使用される。スーパースティシャル広告は、文書の主要な部分を塞いて、マウスクリック、画面タッピング等のユーザ始動のサーフィンの中断によってのみ再生される。スーパースティシャルは、ブランド化、ダイレクトマーケティング、商業及び娯楽を含む、複数の広告目標を達成するために使用され得る。図6に示されるように、触覚効果(警報、テクスチャの変化等)は、スーパースティシャル602が画面600上に現れたとき及びそれが画面から消えたときに送信され得る。この例示では、スーパースティシャルは、左から右へのジェスチャによってアクティブ化される閉じるボタン604を特徴とする。更に、触覚的抑止606又は報酬608が、それぞれ、ユーザが広告を退去させるのを思い留まらせ、又はユーザが広告と相互作用するのを奨励するために使用され得る。例えば、触覚的抑止は、不愉快な又は鋭い触覚効果であってもよく、閉じるボタン604における抵抗等を含んでもよい。
また、実施形態は、広告固有の相互作用をサポートするために触覚効果を利用してもよい。ここで、触覚学の目的は、ユーザが広告と相互作用している間、触覚効果を介してユーザを更に引き込むことである。これは、広告とのより没入型で愉快なユーザ体験を与えるであろう。カジュアルゲーム(スポーツゲーム、パズルゲーム)は、触覚フィードバックを使用して、引き込み及び没入させることが出来る(バットのタッピング、泥等の中でのアバターのドラッグ、2つのテクスチャの比較)。触覚効果は、最初に、触覚的割り込み(ユーザの注意を引くこと)によってユーザをゲームに惹きつけ、及び/又は没入型の触覚効果によってプレーに報いるために使用され得る。
例えば、図7は、電話又は他の装置を傾けることによって照準702が向けられるシューティングゲーム700を示す。その目的は、恐竜704を狙ってタッピングして撃つことである。706で示されるように、触覚効果は、タッピングが行われたときに与えられ得る。更に、触覚効果は、ゲームが開始するとき、恐竜が狙われるとき等に与えられ得る。図8は、装置を傾けて大理石802を穴804に移動させることが目的であるゲーム800を示す。触覚効果は、例えば、ゲームが開始するとき、806で端にぶつかったとき、808で穴が接近したとき、及びそれ以外のゲームの間に与えられ得る。図9は、模倣されたスクラッチ式ゲーム900を示す。902で示されるタッチ入力は、仮想宝くじ券をスクラッチして出すために使用される。触覚効果(例えば、引っかくようなものから滑らかなものへのテクスチャの変化)が、仮想宝くじ券の被覆がスクラッチにより剥がれるときに使用され得る。
ジェスチャ又はありふれた日常的な手の相互作用を使用して、ユーザが広告と相互作用するのを奨励するために、触覚学が使用され得る。広告に埋め込まれたカジュアルゲーム用の相互作用可能ウィジェットの更なる例示は、光スイッチ、スライダ、宝くじスクラッチカード、及び糸車である。別の可能性は、指を使って又は電話を傾けることによって広告を探索することにより、ユーザが隠された触覚的「イージーエッグ(easier eggs)」を探すことを奨励することである。
また、実施形態は、触覚効果を広告内の映像(及び/又は音声)コンテンツと同期又は調整することを含む。今日、多くの広告が、擬似ソーシャル相互作用シナリオを生成するためにアニメーション/映像、及び音声を利用することによって、注意を引くように作られる。例えば、広告は、カメラのフレーム内を歩き、カメラ(ユーザ)を真っ直ぐにみて、製品について話し始める人物の映像を特徴としてもよい。我々は生まれつき我々を見て我々に向かって話している人物に注意を払う傾向があるので、これには引き付けられる。更に、オブジェクト(特に、人物)を動かすことによって、我々はそれらを直感的に目で追いかける。更に、人物が魅力的であれば、この視線追跡効果は大幅に高められる。
触覚学は、このシナリオの効力を更に改善するために使用され得る。例えば、図10に示されるように、映像1000は、テキスト1004(及び/又はスピーチ)出力が与えられている間、画面上をタッピング又はノックする人物1002を特徴としてもよい。例えば、広告内の人物1002は、指1006を使って画面をタッピングしてもよい。触覚効果1008(例えば、振動、局所的ポップ又はクリック)は、人物1002がノックして、ユーザの注意を広告に引いて、視認を開始するのをユーザが「感知」するように、各タッピングと同期させられ得る。また、この多様なフィードバックの同期は、没入型の擬似ソーシャルシナリオを作り出す。ここでは、広告内の人物がより存在感があるとユーザが感じるので、より現実感があり、それによって、証拠又は他の広告コンテンツに対するユーザの信頼、又は広告へのユーザの興味の強さを改良し得る。触覚効果1008を与えることに加えて又はその代わりに、触覚効果は、(もしある場合)広告の音声部分に調和し得る。例えば、異なる触覚効果が、オーディオ内の特定の単語又はイントネーションに関係付けられ得る。例えば、オーディオが装置のスピーカを介して出力され及び/又は画面上のテキストとして表示されると、オーディオトラックは、分析されて、異なる効果を与えるために使用される触覚データに変換され得る。
広告の文脈で示されているが、このような効果は、他の文脈でも使用され得る。例えば、「映像メール」メッセージが、画面領域と第1の人物の触覚相互作用(例えば、タッピング等)を伴って第1の人物の映像を記録し得る。第2の人物によって(例えば、移動装置を使って)再生されると、映像は、記録された相互作用と共に再生され得る。同様に、触覚効果は、触覚使用可能オーディオメッセージの間に上述の通りオーディオに調和され得る。勿論、触覚効果/相互作用は、リアルタイム通信セッション(例えば、映像チャット/テレビ会議、音声電話等)の間にも、一方の装置から他方へと中継され得る。
この相互作用における感覚的没入は、ジェスチャで映像と相互作用するようにユーザを案内することによって、更に高められる。例えば、図11に示されたように、映像1100における人物1102は、画面に沿って指1106をスライドさせて、(1104で示されたように)経路1108に沿って移動するようにユーザに指1106を追跡しようとすることを求め得る。ユーザがそれを行って成功すると、触覚的な報酬が与えられる。映像内の人物と触覚的に通信するという錯覚は、相互作用における感情応答及び注意の投資を促進して、ユーザを長期間にわたって引き付け続け、及び/又は幸福及び社会的受容の感覚を生成するであろう。
映像同期化触覚広告の更なる例示は、パイ等の飛行するオブジェクトが画面に当たるときの振動又はポップ等、他のオブジェクトとの効果を使用することを含む。こうした他のイベントは、運動学的な動作及び衝突を模倣することによってユーザの注意を得ることが出来る。
次に、図17を参照すると、図17は、本発明の一実施形態による方法1700を示す。図17の記述は、図1Aに示された装置10を参照して行われるであろう。しかしながら、図1B−Cに示されているような他の装置が本発明のこうした他の実施形態と共に使用するのに適している。
図17に示される実施形態では、方法1700は、広告を表示するステップを有するブロック1602で開始する。周知のように、企業は、ウェブページ、ビデオ、ゲーム等のコンテンツ内に埋め込まれる広告を提供してもよい。一実施形態では、広告は、検索結果のスポンサー付きリンクの組の中等、ユーザによって見られるウェブページの中に表示されてもよい。一部の実施形態では、広告は、バナー又は隙間広告等を介して、費用無しで配布されるゲーム内に表示されてもよい。一部の実施形態では、広告は、ユーザが再生するアニメーション又はミニゲームを含んでもよい。広告が表示された後で、方法1700は、ブロック1704に進む。しかしながら、一部の実施形態では、方法は、ブロック1702の後でブロック1706又は1708に進んでもよい。例えば、一部の実施形態では、広告は、ユーザが再生するアニメーション又はミニゲームを含むので、方法は、広告のアニメーションが実行されるとブロック1706に進んでもよい。一部の実施形態では、広告及び触覚効果は、実質的に同時に出力されてもよく、この場合、方法1700は、ブロック1708に直接進み、又は実質的に同時にブロック1702及び1708を実行してもよい。
ブロック1604において、装置のプロセッサは、タッチセンサ式入力装置との接触を示す信号を受信する。例えば、一実施形態では、装置は、例えば、ユーザの指から接触を感知するように構成されるタッチセンサ式入力装置を備えてもよい。このような実施形態では、図1A−Cに関して先に記載されたように、タッチセンサ式入力装置は、接触に関係付けられる位置情報と共に圧力情報等の他の情報も与えてもよい。接触信号の受信後、一実施形態では、方法1600は、ブロック1606に進む。しかしながら、一部の実施形態では、方法は、ステップ1608に進んでもよい。
ブロック1606では、装置のプロセッサは、広告を更新する。例えば、一実施形態では、広告は、複数の画像を繰り返してアニメーションを与え、又はミニチュアゴルフゲーム等のユーザがプレーするミニゲームを与えてもよい。別の実施形態では、広告は修正されてもよく、又はアニメーションは画像に関係付けられるユーザの接触又はジェスチャ等の受信した接触信号によってトリガされてもよい。一実施形態では、ユーザは、広告に触れ又は広告上でジェスチャを行ってもよく、それにより、広告はゲームを開始し又は広告を隠し若しくは閉じてもよい。しかしながら、一部の実施形態では、広告は変化しなくてもよく、従って、ブロック1606に到達しなくてもよい。しかしながら、ブロック1606が完了した後で、方法1600は、ブロック1608に進む。
ブロック1608において、装置10は、触覚効果を出力する。例えば、一実施形態では、装置10は、ボールが画面上を転がり又は拳銃が発射される等の広告内の明白な相互作用に関係付けられる触覚効果等、広告に関係付けられる触覚効果を出力してもよい。別の実施形態では、装置10は、マスコットが画面上を歩き若しくは跳ね回り又は人物が画面上をタッピングするように見える企業ロゴ又はマスコットのアニメーション等、画像のアニメーションの間に複数の触覚効果を出力してもよい。更なる実施形態では、装置10は、広告に又はユーザの接触若しくはジェスチャに関係付けられるブランド固有の触覚効果を出力してもよい。例えば、ユーザが広告に触れると、又はユーザが広告から広告された製品を販売するウェブサイトへと進むジェスチャを行うと、装置10は、肯定的な快楽触覚効果を出力してもよい。このような実施形態では、装置10は、ジェスチャを介して肯定的な快楽触覚効果を出力して、ユーザのジェスチャの完成が成功すると第2の肯定的な快楽触覚効果を出力し、又はユーザがジェスチャを誤って行い、又は完成する前にジェスチャを中止し、又はユーザが広告を閉じ若しくは隠そうとする場合、否定的な快楽触覚効果を出力してもよい。一部の実施形態では、触覚効果は、触覚ウィジェットによって出力されてもよい。例えば、1つ以上の触覚ウィジェットが、広告又は広告に関係付けられるブランドに関係付けられてもよい。このような実施形態では、ユーザが広告と相互作用すると、触覚ウィジェットは、ブランド固有の触覚効果を引き起こす1つ以上の信号を出力するように命令されてもよい。
方法1700の一部の実施形態では、1つ以上のステップが、実質的に同時に、非同期式に、又は異なる順番で実行されてもよい。例えば、アニメーション化された広告が、広告とユーザの接触とは無関係に表示されてもよい。また、触覚効果は、適切な接触が行われ又はジェスチャが実行される場合、広告中の任意の時間に出力されてもよい。更に、一部の実施形態では、示されたステップの全てよりも少ないステップが実行されてもよい。例えば、一実施形態では、広告がウェブページ内で視認可能な間で、ユーザがそれと相互作用する前に、広告がブランド固有の触覚効果と実質的に同時に表示されてもよい。
図1A−1Cを再度参照すると、本主題の態様に従う実施形態は、デジタル電子回路、コンピュータハードウェア、ファームウェア、ソフトウェア、又はこれらの組み合わせに実装され得る。一実施形態では、コンピュータは、1つ又は複数のプロセッサを備えてもよい。プロセッサは、プロセッサに結合されるRAM(random access memory)等のコンピュータ可読媒体を備え、又はそれへのアクセスを有する。プロセッサは、センササンプリングルーチン、触覚効果選択ルーチン、及び上述の通り選択された触覚効果を生成するための信号を生成する適切なプログラミングを含む1つ以上のコンピュータプログラムを実行する等、メモリに記憶されたコンピュータ実行可能プログラム命令を実行する。
このようなプロセッサは、マイクロプロセッサ、DSP(digital signal processor)、ASIC(application−specific integrated circuit)、FPGA(field programmable gate array)、及び状態機械を含む。このようなプロセッサは、PLC、PIC(programmable interrupt controller)、PLD(programmable logic device)、PROM(programmable read−only memorie)、EPROM又はEEPROM(electronically programmable read−only memorie)、又は他の類似の装置等のプログラム可能電子装置を更に備えてもよい。
このようなプロセッサは、媒体、例えば、プロセッサによって実行されると、プロセッサによって遂行又は支援される本明細書に記載のステップをプロセッサに実行させることが出来る命令を記憶し得る有形のコンピュータ可読媒体を備え、又はこれと通信してもよい。コンピュータ可読媒体の実施形態は、限定されないが、プロセッサ、例えばウェブサーバのプロセッサにコンピュータ可読命令を提供することが出来る全ての電子、光学、磁気、又は他の記憶装置を備えてもよい。媒体の他の例は、限定されないが、フロッピー(登録商標)ディスク、CD−ROM、磁気ディスク、メモリチップ、ROM、RAM、ASIC、構成プロセッサ、全ての光学媒体、全ての磁気テープ若しくは他の磁気媒体、又はコンピュータプロセッサが読み取り可能な任意の他の媒体を含む。また、様々な他の装置は、ルータ、プライベート若しくはパブリックネットワーク、又は他の伝送装置等のコンピュータ可読媒体を含んでもよい。記載されたプロセッサ及び処理は、1つ以上の構造内にあってもよく、1つ以上の構造にわたって分散されてもよい。プロセッサは、本明細書に記載の1つ以上の方法(又は方法の一部)を実行するためのコードを備えてもよい。
(概論)
本明細書における「又は」という結合語の使用は、文脈によって示されるように、包括的及び排他的な双方の関係、又は包括的若しくは排他的何れかの関係を含むことが意図されている。
本明細書における「適合される」又は「構成される」の使用は、追加のタスク又はステップを実行するように適合又は構成される装置を排除しない開放的且つ包括的な言語を意図している。更に、「基づいて」の使用は開放的且つ包括的であることが意図されており、即ち、1つ以上の記載された条件又は値に「基づく」処理、ステップ、計算、又は他の動作が、実際には、記載されたものを越える追加の条件又は値に基づいてもよい。本明細書に含まれる表題、リスト、及び番号は、単に説明を容易にするためのものであって、限定することを意図していない。
本主題はその特定の実施形態に関して詳細に記載されているが、上記のことを理解すると、このような実施形態の変形、変化、及び均等物を当業者であれば容易に生み出し得ることが理解されるであろう。従って、本開示は、限定ではなく例示を目的として提示されており、当業者には容易に明らかとなる本主題への修正、変更及び/又は追加を含むことを排除しないことが理解されるべきである。

Claims (5)

  1. 特定のブランドに関係付けられる仮想オブジェクトをディスプレイに表示するステップと、
    前記仮想オブジェクトとのユーザ相互作用を受信するステップと、
    前記ユーザ相互作用に応じて前記特定のブランドに関係付けられる触覚効果を引き起こすように構成される信号を出力するステップと
    を含み、
    前記仮想オブジェクトはスーパースティシャル広告を含み、前記触覚効果は前記スーパースティシャル広告を閉じるように構成される仮想閉じボタンとユーザが相互作用することに対して抵抗するように構成される、方法。
  2. 前記仮想オブジェクトはアニメーション化アバターを含み、前記ユーザ相互作用はタッチセンサ面を介して前記アニメーション化アバターとユーザが相互作用することを含む、請求項に記載の方法。
  3. 前記仮想オブジェクトは前記特定のブランドに関係付けられる特定の製品を含み、前記触覚効果は前記特定の製品に関係付けられる、請求項に記載の方法。
  4. 前記仮想オブジェクトは装置にインストールされるアプリケーションを含み、前記触覚効果は前記アプリケーションの提供者に関係付けられる、請求項に記載の方法。
  5. 前記仮想オブジェクトは映像広告を含み、前記触覚効果は前記映像広告におけるオブジェクトの動きをシミュレートするように構成される、請求項に記載の方法。
JP2015103030A 2010-04-23 2015-05-20 触覚効果を与えるシステム及び方法 Expired - Fee Related JP6134753B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US32745010P 2010-04-23 2010-04-23
US61/327,450 2010-04-23

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013506323A Division JP6111192B2 (ja) 2010-04-23 2011-04-22 触覚効果を与えるシステム及び方法

Publications (2)

Publication Number Publication Date
JP2015181035A JP2015181035A (ja) 2015-10-15
JP6134753B2 true JP6134753B2 (ja) 2017-05-24

Family

ID=44626201

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2013506323A Active JP6111192B2 (ja) 2010-04-23 2011-04-22 触覚効果を与えるシステム及び方法
JP2015103030A Expired - Fee Related JP6134753B2 (ja) 2010-04-23 2015-05-20 触覚効果を与えるシステム及び方法
JP2016035738A Active JP6235636B2 (ja) 2010-04-23 2016-02-26 触覚効果を与えるシステム及び方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2013506323A Active JP6111192B2 (ja) 2010-04-23 2011-04-22 触覚効果を与えるシステム及び方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2016035738A Active JP6235636B2 (ja) 2010-04-23 2016-02-26 触覚効果を与えるシステム及び方法

Country Status (6)

Country Link
US (2) US9678569B2 (ja)
EP (1) EP2561424B1 (ja)
JP (3) JP6111192B2 (ja)
KR (2) KR102068428B1 (ja)
CN (3) CN105824413B (ja)
WO (1) WO2011133860A2 (ja)

Families Citing this family (113)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101668118B1 (ko) * 2010-07-23 2016-10-21 삼성전자주식회사 원격 사용자 인터페이스 시스템에서 원격 사용자 인터페이스 데이터 송/수신장치 및 방법
US8667425B1 (en) * 2010-10-05 2014-03-04 Google Inc. Touch-sensitive device scratch card user interface
US9619567B2 (en) 2011-06-06 2017-04-11 Nfluence Media, Inc. Consumer self-profiling GUI, analysis and rapid information presentation tools
US20140278992A1 (en) * 2013-03-15 2014-09-18 Nfluence Media, Inc. Ad blocking tools for interest-graph driven personalization
US20130135265A1 (en) * 2011-11-30 2013-05-30 Motorola Mobility, Inc. Display mode-based input key function reassignment in a communication device
US20130227411A1 (en) * 2011-12-07 2013-08-29 Qualcomm Incorporated Sensation enhanced messaging
US10013857B2 (en) * 2011-12-21 2018-07-03 Qualcomm Incorporated Using haptic technologies to provide enhanced media experiences
JP6243356B2 (ja) * 2012-02-06 2017-12-06 ホットヘッド ゲームズ インコーポレイテッド カードのボックス及びパックの仮想的な開封
US8684820B2 (en) 2012-02-06 2014-04-01 Hothead Games, Inc. Virtual competitive group management systems and methods
US9411423B2 (en) * 2012-02-08 2016-08-09 Immersion Corporation Method and apparatus for haptic flex gesturing
US8493354B1 (en) * 2012-08-23 2013-07-23 Immersion Corporation Interactivity model for shared feedback on mobile devices
US8711118B2 (en) 2012-02-15 2014-04-29 Immersion Corporation Interactivity model for shared feedback on mobile devices
JP6048489B2 (ja) * 2012-03-02 2016-12-21 日本電気株式会社 表示装置
US8949974B2 (en) * 2012-05-11 2015-02-03 Tyfone, Inc. Mobile device with password protected desktop screen
US8570296B2 (en) 2012-05-16 2013-10-29 Immersion Corporation System and method for display of multiple data channels on a single haptic display
US9891709B2 (en) 2012-05-16 2018-02-13 Immersion Corporation Systems and methods for content- and context specific haptic effects using predefined haptic effects
US20130311881A1 (en) * 2012-05-16 2013-11-21 Immersion Corporation Systems and Methods for Haptically Enabled Metadata
US9600831B1 (en) * 2012-06-22 2017-03-21 Google Inc. User association attribution system
US20140002376A1 (en) * 2012-06-29 2014-01-02 Immersion Corporation Method and apparatus for providing shortcut touch gestures with haptic feedback
US8914453B2 (en) * 2012-07-18 2014-12-16 Blackberry Limited Method and apparatus for motion based ping during chat mode
US9245428B2 (en) 2012-08-02 2016-01-26 Immersion Corporation Systems and methods for haptic remote control gaming
US8651944B1 (en) * 2012-08-09 2014-02-18 Cadillac Jack, Inc. Electronic gaming device with scrape away feature
KR20140023534A (ko) * 2012-08-16 2014-02-27 에스케이플래닛 주식회사 반응형 사용자 인터페이스 제공 장치, 방법, 및 그에 대한 전자장치에서 판독 가능한 기록매체
US20140049473A1 (en) * 2012-08-17 2014-02-20 Yuvee, Inc. User-controlled keypad advertising system
KR101946366B1 (ko) * 2012-08-23 2019-02-11 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
JP5909553B2 (ja) * 2012-09-21 2016-04-26 グリー株式会社 タイムライン領域におけるオブジェクト表示方法、オブジェクト送信方法、オブジェクト表示装置、サーバ及び当該方法を実現するためのプログラムを記録した情報記録媒体
KR102091597B1 (ko) * 2012-09-24 2020-03-20 엘지전자 주식회사 포터블 디바이스 및 그 제어 방법
US8743072B2 (en) * 2012-09-28 2014-06-03 Lg Electronics Inc. Display device and control method thereof
EP2901257A4 (en) * 2012-09-28 2016-06-22 Nokia Technologies Oy DEVICE FOR DISPLAYING ANIMATED IMAGES IN COMBINATION WITH A TOUCH OUTPUT
US10410180B2 (en) 2012-11-19 2019-09-10 Oath Inc. System and method for touch-based communications
JP6020083B2 (ja) * 2012-11-19 2016-11-02 アイシン・エィ・ダブリュ株式会社 操作支援システム、操作支援方法及びコンピュータプログラム
US9330544B2 (en) * 2012-11-20 2016-05-03 Immersion Corporation System and method for simulated physical interactions with haptic effects
US9335822B2 (en) 2012-12-12 2016-05-10 Immersion Corporation Method and system for providing haptic effects based on haptic context information
US11030645B2 (en) * 2013-02-05 2021-06-08 Zembula, Inc. Creation and distribution of reveal-based modular advertising units
US10775888B2 (en) * 2013-02-15 2020-09-15 Facebook, Inc. Method and system for integrating haptic feedback into portable electronic devices
US10504339B2 (en) * 2013-02-21 2019-12-10 Immersion Corporation Mobile device with instinctive alerts
US20140282073A1 (en) * 2013-03-15 2014-09-18 Micro Industries Corporation Interactive display device
US10168766B2 (en) * 2013-04-17 2019-01-01 Nokia Technologies Oy Method and apparatus for a textural representation of a guidance
JP6157215B2 (ja) * 2013-05-23 2017-07-05 キヤノン株式会社 表示制御装置及びその制御方法
US9729730B2 (en) * 2013-07-02 2017-08-08 Immersion Corporation Systems and methods for perceptual normalization of haptic effects
US10037081B2 (en) 2013-08-12 2018-07-31 Immersion Corporation Systems and methods for haptic fiddling
US9443401B2 (en) 2013-09-06 2016-09-13 Immersion Corporation Automatic remote sensing and haptic conversion system
US9711014B2 (en) * 2013-09-06 2017-07-18 Immersion Corporation Systems and methods for generating haptic effects associated with transitions in audio signals
US9576445B2 (en) * 2013-09-06 2017-02-21 Immersion Corp. Systems and methods for generating haptic effects associated with an envelope in audio signals
US9558637B2 (en) 2013-09-10 2017-01-31 Immersion Corporation Systems and methods for performing haptic conversion
KR102201731B1 (ko) * 2013-09-26 2021-01-12 엘지전자 주식회사 택타일 피드백을 발생하는 디스플레이 디바이스 및 그 제어 방법
US9619029B2 (en) * 2013-11-14 2017-04-11 Immersion Corporation Haptic trigger control system
US9164587B2 (en) 2013-11-14 2015-10-20 Immersion Corporation Haptic spatialization system
CN103645825B (zh) * 2013-11-22 2017-03-29 华为终端有限公司 消息的处理方法及装置
US20150149292A1 (en) * 2013-11-25 2015-05-28 John C. Feghali Leveraging sensors on smart mobile phones and tablets to create advertisements to replicate a real world experience
US9489048B2 (en) 2013-12-13 2016-11-08 Immersion Corporation Systems and methods for optical transmission of haptic display parameters
US20150173116A1 (en) * 2013-12-13 2015-06-18 Mediatek Inc. Communications method, device and system
US10218660B2 (en) * 2013-12-17 2019-02-26 Google Llc Detecting user gestures for dismissing electronic notifications
GB2521436A (en) * 2013-12-20 2015-06-24 Nokia Corp Method and apparatus for adaptive feedback
US20150205352A1 (en) * 2013-12-29 2015-07-23 Immersion Corporation Distributed control architecture for haptic devices
US10437341B2 (en) * 2014-01-16 2019-10-08 Immersion Corporation Systems and methods for user generated content authoring
JPWO2015121964A1 (ja) * 2014-02-14 2017-03-30 富士通株式会社 入力装置
JPWO2015121958A1 (ja) * 2014-02-14 2017-03-30 富士通株式会社 電子機器、入力装置、及び電子機器の駆動制御方法
JP5797871B1 (ja) * 2014-02-28 2015-10-21 popIn株式会社 プログラム
USD738910S1 (en) * 2014-03-19 2015-09-15 Wargaming.Net Llp Display screen with animated graphical user interface
US11308518B2 (en) * 2014-03-26 2022-04-19 Verizon Patent And Licensing Inc. Systems and methods for dynamically determining promotions associated with digital coupons
US9258480B2 (en) 2014-03-31 2016-02-09 Facebook, Inc. Techniques to selectively capture visual media using a single interface element
CN106575230A (zh) 2014-09-02 2017-04-19 苹果公司 用于可变触觉输出的语义框架
US10139910B2 (en) * 2014-09-25 2018-11-27 Telefonaktiebolaget Lm Ericsson (Publ) Mobile communications device with adaptive friction of the housing
US10185396B2 (en) 2014-11-12 2019-01-22 Immersion Corporation Haptic trigger modification system
US20160187976A1 (en) * 2014-12-29 2016-06-30 Immersion Corporation Systems and methods for generating haptic effects based on eye tracking
US9619034B2 (en) 2015-02-25 2017-04-11 Immersion Corporation Overlaying of haptic effects
US20160257198A1 (en) 2015-03-02 2016-09-08 Ford Global Technologies, Inc. In-vehicle component user interface
US20160259439A1 (en) * 2015-03-02 2016-09-08 Ford Global Technologies, Llc Multi-touch keyless entry pad
KR20170139508A (ko) 2015-04-21 2017-12-19 임머숀 코퍼레이션 에칭 입력의 동적 렌더링
CN104951686B (zh) * 2015-07-07 2020-08-04 京东方科技集团股份有限公司 一种移动终端及控制移动终端的方法
US20170060241A1 (en) * 2015-08-26 2017-03-02 Fujitsu Ten Limited Input device, display device, method of controlling input device, and program
JP2017045251A (ja) * 2015-08-26 2017-03-02 富士通テン株式会社 入力装置、表示装置、入力装置の制御方法およびプログラム
JP6625372B2 (ja) * 2015-08-27 2019-12-25 株式会社デンソーテン 入力装置および車載装置
US9967717B2 (en) 2015-09-01 2018-05-08 Ford Global Technologies, Llc Efficient tracking of personal device locations
US9740352B2 (en) 2015-09-30 2017-08-22 Elo Touch Solutions, Inc. Supporting multiple users on a large scale projected capacitive touchscreen
US10339915B2 (en) * 2015-10-22 2019-07-02 Disney Enterprises, Inc. Vibration speaker for audio headsets
KR102422461B1 (ko) * 2015-11-06 2022-07-19 삼성전자 주식회사 햅틱 제공 방법 및 이를 지원하는 전자 장치
US10046637B2 (en) 2015-12-11 2018-08-14 Ford Global Technologies, Llc In-vehicle component control user interface
US10200332B2 (en) 2015-12-14 2019-02-05 Immersion Corporation Delivery of haptics to select recipients of a message
US10102722B2 (en) 2015-12-18 2018-10-16 Immersion Corporation Wearable article having an actuator that performs non-haptic and haptic operations
US10082877B2 (en) 2016-03-15 2018-09-25 Ford Global Technologies, Llc Orientation-independent air gesture detection service for in-vehicle environments
US9919213B2 (en) 2016-05-03 2018-03-20 Hothead Games Inc. Zoom controls for virtual environment user interfaces
DK180122B1 (en) 2016-06-12 2020-05-19 Apple Inc. Devices, methods and graphical user interfaces for providing haptic feedback
DK179823B1 (en) 2016-06-12 2019-07-12 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROVIDING HAPTIC FEEDBACK
US10004991B2 (en) 2016-06-28 2018-06-26 Hothead Games Inc. Systems and methods for customized camera views in virtualized environments
US10010791B2 (en) 2016-06-28 2018-07-03 Hothead Games Inc. Systems and methods for customized camera views and customizable objects in virtualized environments
CN107656945B (zh) * 2016-08-25 2020-06-12 腾讯科技(北京)有限公司 信息处理方法及信息处理装置
EP3493136A4 (en) * 2016-08-25 2020-03-11 Tencent Technology (Shenzhen) Company Limited INFORMATION PROCESSING METHOD AND DEVICE, DISPLAY TERMINAL AND STORAGE MEDIUM
DK201670720A1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs
DK179278B1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, methods and graphical user interfaces for haptic mixing
US20180188905A1 (en) * 2017-01-04 2018-07-05 Google Inc. Generating messaging streams with animated objects
DE102017201236B4 (de) * 2017-01-26 2023-09-07 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Bediensystems, Bediensystem und Fahrzeug mit einem Bediensystem
DK201770372A1 (en) 2017-05-16 2019-01-08 Apple Inc. TACTILE FEEDBACK FOR LOCKED DEVICE USER INTERFACES
US10866697B2 (en) * 2017-10-24 2020-12-15 Microchip Technology Incorporated Touch-sensitive user-interface including configurable virtual widgets
JP2019082901A (ja) * 2017-10-31 2019-05-30 富士通コンポーネント株式会社 入力装置及びプログラム
US10955922B2 (en) * 2017-11-29 2021-03-23 International Business Machines Corporation Simulating tactile information for haptic technology
JP6828671B2 (ja) * 2017-12-12 2021-02-10 株式会社デンソー 入力装置
US10564796B2 (en) * 2017-12-14 2020-02-18 Mastercard International Incorporated Haptic interaction
US11204648B2 (en) 2018-06-12 2021-12-21 Mastercard International Incorporated Handshake to establish agreement between two parties in virtual reality
US10976820B2 (en) * 2018-07-12 2021-04-13 Microsoft Technology Licensing, Llc Natural interactions with virtual objects and data through touch
CN109542267A (zh) * 2018-11-14 2019-03-29 Oppo广东移动通信有限公司 电子设备及滑动触感控制方法
CN111723343B (zh) * 2020-05-09 2023-10-20 百度在线网络技术(北京)有限公司 电子设备的交互控制方法、装置以及电子设备
CN116685941A (zh) * 2020-12-31 2023-09-01 斯纳普公司 具有触觉反馈增强的媒体内容项
US20220206584A1 (en) * 2020-12-31 2022-06-30 Snap Inc. Communication interface with haptic feedback response
WO2022147151A1 (en) * 2020-12-31 2022-07-07 Snap Inc. Real-time video communication interface with haptic feedback
EP4272059A1 (en) 2020-12-31 2023-11-08 Snap Inc. Electronic communication interface with haptic feedback response
CN112783591A (zh) * 2021-01-27 2021-05-11 北京字跳网络技术有限公司 互动方法、装置、电子设备和存储介质
KR102450263B1 (ko) * 2021-05-31 2022-10-04 주식회사 파블로아트컴퍼니 반응형 그림 제작 서비스 제공 시스템 및 이의 제어방법
CN113368488B (zh) * 2021-06-11 2022-07-05 西南大学 一种虚拟乒乓球拍及其力反馈方法、系统
US11797091B2 (en) 2021-06-24 2023-10-24 Microsoft Technology Licensing, Llc Computing device with haptic trackpad
WO2023108131A1 (en) * 2021-12-10 2023-06-15 Shaw Industries Group, Inc. Visceral surface covering simulator and method of use
CN116956259A (zh) * 2022-04-13 2023-10-27 腾讯科技(深圳)有限公司 验证方法、装置、计算机设备、后台服务器及介质

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5825308A (en) * 1996-11-26 1998-10-20 Immersion Human Interface Corporation Force feedback interface having isotonic and isometric functionality
US6161126A (en) 1995-12-13 2000-12-12 Immersion Corporation Implementing force feedback over the World Wide Web and other computer networks
US6965868B1 (en) * 1999-08-03 2005-11-15 Michael David Bednarek System and method for promoting commerce, including sales agent assisted commerce, in a networked economy
US6822635B2 (en) * 2000-01-19 2004-11-23 Immersion Corporation Haptic interface for laptop computers and other portable devices
JP3937682B2 (ja) 2000-04-13 2007-06-27 富士ゼロックス株式会社 情報処理装置
JP2001296949A (ja) 2000-04-14 2001-10-26 Fuji Xerox Co Ltd 触力覚呈示装置及び記録媒体
US7159008B1 (en) * 2000-06-30 2007-01-02 Immersion Corporation Chat interface with haptic feedback functionality
JP2002116836A (ja) * 2000-10-11 2002-04-19 Soft Support:Kk 試用期間限定のアプリケーションプログラムを記録した記憶媒体
JP2002218555A (ja) 2001-01-19 2002-08-02 Yoshiaki Masuno 電子チラシシステムおよびその運用方法
US6885876B2 (en) * 2001-03-12 2005-04-26 Nokia Mobile Phones Ltd. Mobile phone featuring audio-modulated vibrotactile module
US6963762B2 (en) 2001-05-23 2005-11-08 Nokia Corporation Mobile phone using tactile icons
JP2003076915A (ja) 2001-08-31 2003-03-14 Pioneer Electronic Corp 旅行プラン提供システム、移動体運行プラン提供システム及び方法、並びにコンピュータプログラム
JP4164288B2 (ja) 2002-04-30 2008-10-15 キヤノンマーケティングジャパン株式会社 広告配信システムおよび広告配信システムの処理方法およびそのプログラム
AU2003285886A1 (en) 2002-10-15 2004-05-04 Immersion Corporation Products and processes for providing force sensations in a user interface
US20060136631A1 (en) * 2002-12-08 2006-06-22 Immersion Corporation, A Delaware Corporation Methods and systems for providing haptic messaging to handheld communication devices
US7779166B2 (en) 2002-12-08 2010-08-17 Immersion Corporation Using haptic effects to enhance information content in communications
US20050021935A1 (en) * 2003-06-18 2005-01-27 Openwave Systems Inc. Method and system for downloading configurable user interface elements over a data network
US20060066569A1 (en) * 2003-12-08 2006-03-30 Immersion Corporation, A Delaware Corporation Methods and systems for providing haptic messaging to handheld communication devices
US20060209037A1 (en) * 2004-03-15 2006-09-21 David Wang Method and system for providing haptic effects
US20060015560A1 (en) * 2004-05-11 2006-01-19 Microsoft Corporation Multi-sensory emoticons in a communication system
JP2006163579A (ja) 2004-12-03 2006-06-22 Sony Corp 情報処理システム、情報処理装置及び情報処理方法
JP2006163206A (ja) 2004-12-09 2006-06-22 Ntt Docomo Inc 触覚提示装置
US20070101279A1 (en) * 2005-10-27 2007-05-03 Chaudhri Imran A Selection of user interface elements for unified display in a display environment
JP2007156987A (ja) * 2005-12-07 2007-06-21 Toshiba Corp ソフトウェア部品およびソフトウェア部品管理システム
US7657849B2 (en) * 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
JP4811206B2 (ja) * 2006-09-12 2011-11-09 トヨタ自動車株式会社 入力装置
CN101506758A (zh) 2006-09-27 2009-08-12 诺基亚公司 触觉型触摸屏
US20080168368A1 (en) * 2007-01-07 2008-07-10 Louch John O Dashboards, Widgets and Devices
US20080209037A1 (en) 2007-02-05 2008-08-28 Dror Zernik System and method for enforcing in real time corporate business rules on web users
US9317110B2 (en) * 2007-05-29 2016-04-19 Cfph, Llc Game with hand motion control
AU2009206331A1 (en) * 2008-01-23 2009-07-30 Sensable Technologies, Inc. Haptically enabled dental modeling system
US9513704B2 (en) * 2008-03-12 2016-12-06 Immersion Corporation Haptically enabled user interface
US9110685B2 (en) 2008-03-25 2015-08-18 Qualcomm, Incorporated Apparatus and methods for managing widgets in a wireless communication environment
EP2277096A1 (en) * 2008-05-09 2011-01-26 Koninklijke Philips Electronics N.V. Method and system for conveying an emotion
KR101498622B1 (ko) * 2008-06-25 2015-03-04 엘지전자 주식회사 촉각 효과를 제공하는 휴대 단말기 및 그 제어방법
JP2011253211A (ja) 2008-09-25 2011-12-15 Access Co Ltd アプリケーション制御方法、アプリケーション制御プログラム、サーバ装置、クライアント装置、およびアプリケーション制御システム
US8004391B2 (en) * 2008-11-19 2011-08-23 Immersion Corporation Method and apparatus for generating mood-based haptic feedback
EP2192474B1 (en) * 2008-12-01 2017-04-12 LG Electronics Inc. Method for operating execution icon of mobile terminal
US9927873B2 (en) * 2009-03-12 2018-03-27 Immersion Corporation Systems and methods for using textures in graphical user interface widgets

Also Published As

Publication number Publication date
US20110264491A1 (en) 2011-10-27
WO2011133860A3 (en) 2012-08-02
KR102068428B1 (ko) 2020-02-11
JP6111192B2 (ja) 2017-04-05
JP2016139418A (ja) 2016-08-04
US10372217B2 (en) 2019-08-06
JP2015181035A (ja) 2015-10-15
KR20180049213A (ko) 2018-05-10
KR20130103664A (ko) 2013-09-24
JP2013528855A (ja) 2013-07-11
CN105824413A (zh) 2016-08-03
CN102906667A (zh) 2013-01-30
CN105824413B (zh) 2019-05-21
CN107102721A (zh) 2017-08-29
US20170308169A1 (en) 2017-10-26
CN102906667B (zh) 2016-11-23
EP2561424B1 (en) 2019-02-20
WO2011133860A2 (en) 2011-10-27
KR101855535B1 (ko) 2018-05-04
US9678569B2 (en) 2017-06-13
JP6235636B2 (ja) 2017-11-22
EP2561424A2 (en) 2013-02-27

Similar Documents

Publication Publication Date Title
JP6235636B2 (ja) 触覚効果を与えるシステム及び方法
US20210208747A1 (en) User interfaces for downloading applications on an electronic device
US20200302513A1 (en) User interfaces for subscription applications
EP3040812A1 (en) Systems and methods for generating haptic effects based on eye tracking
JP6516477B2 (ja) ユーザ生成コンテンツをオーサリングするためのシステム及び方法
JP2018531442A (ja) 圧力ベースのハプティクス
JP2018531442A6 (ja) 圧力ベースのハプティクス
JP2018506765A (ja) ハプティック効果のオーバレイ
CN103858073A (zh) 增强现实系统的免触摸界面
JP2020080152A (ja) カスタマイズ可能な触覚再生を提供するシステムおよび方法
US8845429B2 (en) Interaction hint for interactive video presentations
US20200201437A1 (en) Haptically-enabled media
US20130326382A1 (en) Information processing system, storing medium, information processing device, and display method
US20220394346A1 (en) User interfaces and associated systems and processes for controlling playback of content
JP2018185738A (ja) 情報処理装置および広告制御プログラム
US20230390636A1 (en) Initiating joint gaming applications
US20240077991A1 (en) Content output devices and user interfaces
US11922006B2 (en) Media control for screensavers on an electronic device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160329

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160804

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170307

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170424

R150 Certificate of patent or registration of utility model

Ref document number: 6134753

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees