JP6373588B2 - 触覚装置における3次元レリーフのための摩擦変調 - Google Patents

触覚装置における3次元レリーフのための摩擦変調 Download PDF

Info

Publication number
JP6373588B2
JP6373588B2 JP2014007522A JP2014007522A JP6373588B2 JP 6373588 B2 JP6373588 B2 JP 6373588B2 JP 2014007522 A JP2014007522 A JP 2014007522A JP 2014007522 A JP2014007522 A JP 2014007522A JP 6373588 B2 JP6373588 B2 JP 6373588B2
Authority
JP
Japan
Prior art keywords
haptic effect
display
image
haptic
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014007522A
Other languages
English (en)
Other versions
JP2014142930A (ja
Inventor
ラクロワ,ロバート
レベスク,ヴィンセント
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2014142930A publication Critical patent/JP2014142930A/ja
Application granted granted Critical
Publication of JP6373588B2 publication Critical patent/JP6373588B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means

Description

本発明は、触覚装置における3次元レリーフのための摩擦変調に関する。
人間には物の形を感じたいという生来の願望があるが、現在のタッチスクリーン表示装置はその機能をいかなる形態でも提供していない。さらに、静止した状態での視覚視は形状の曖昧性に帰着することがある。実世界においては、人は物体の形状を脱曖昧化するために触覚を用いる。
ディスプレイを有する電子装置のユーザにとっては、ディスプレイに触れてディスプレイ上の画像の輪郭を感じることができることが望ましい。画像は、無生物である物体、あるいは人の顔もしくは手などの生きている物体であり得る。
本発明の一つの側面に従って、画像を表示するように構成されたディスプレイと、ユーザが該ディスプレイとインタラクトするときに該ユーザに対して触覚効果を生成するように構成された触覚出力装置と、プロセッサとを含む該触覚装置が提供される。当該プロセッサは、該ディスプレイ上に表示された該画像に関連する情報を受け取り、該ディスプレイ上に表示された該画像に関連付けられた摩擦ベースの触覚効果マップを生成し、該ディスプレイ上に該画像が表示されたときに該¥ユーザが該ディスプレイとインタラクトするときに該触覚効果を出力するために該触覚出力装置に対して信号を生成するように構成され、該触覚効果は3次元における該画像の感触をシミュレートするように構成される。
本発明の一つの側面に従って、ディスプレイ上に表示された画像に関連する情報を受け取ることと、該ディスプレイ上に表示された該画像と関連付けられた、該画像の3次元フィーチャを表す摩擦ベースの触覚効果マップを生成することと、該ディスプレイが該画像を表示している間にユーザが該ディスプレイとインタラクトするときに、3次元における該画像の感触をシミュレートする触覚効果を出力することとを含む方法が提供される。
本発明の一つの側面に従って、触覚出力装置を含むタッチスクリーンビデオディスプレイを含むシステムが提供される。該タッチスクリーンビデオディスプレイは、ビデオ信号を受け取り、該ビデオ信号に基づいて画像を表示し、触覚効果を出力するように構成される。該システムは、該ディスプレイ上に表示された該画像に関連する情報を受け取り、該ディスプレイ上に表示された該画像と関連付けられた摩擦ベースの触覚効果マップを生成し、該画像が該ディスプレイ上に表示されているときユーザが該ディスプレイとインタラクトするときに該触覚効果を出力するために該触覚出力装置に対して信号を生成するように構成されたプロセッサを含む。該触覚効果は、3次元における該画像の感触をシミュレートするように構成される。
本発明の一つの側面に従って、画像を含むビデオストリームを受け取ることと、該ビデオストリームを分析して、該ビデオストリームで受け取られている該画像の3次元形状を近似することと、該画像の該3次元形状に基づいて触覚効果を生成することとを含む方法が提供される。
以下の図の構成要素は、本開示の一般的原理を強調するために描かれていて、必ずしも等縮尺で描かれてはいない。対応する構成要素を示す参照記号は、一貫性および明瞭性を目的として図面全体にわたって必要に応じて繰り返されている。
本発明の実施態様に従う、電子装置の略図を示す。
本発明の実施態様に従う、図1の電子装置のタッチスクリーンデバイスの略図を示す。
(a)コンタクトスクリーン、(b)手、および(c)顔を含む、図1の電子装置により表示され得る画像の実施態様を示す。
(a)ソース画像、および(b)該ソース画像に対応するグレイスケールマスクを含む、グレイスケールマスクを用いる顔画像のテクスチャリングの実施態様を示す。
(a)ソース画像、および(b)該ソース画像に対応するテクスチャ領域を含む、ベクトルグラフィックスプリミティブを通してのテクスチャリングの実施態様を示す。
(a)ソース画像、および(b)該ソース画像に対応する種々の強度を有するエッジマップを含む、エッジマップの実施態様を示す。
(a)ソース画像、(b)歪んだソース画像、および(c)その歪んだソース画像に対応するグリッドの歪を含む、タッチ入力における画像の視覚歪の実施態様を示す。
(a)および(c)ソース画像、並びに(b)および(d)該ソース画像のエッジからの距離をそれぞれ含む、許容歪半径の計算の実施態様を示す。
図3bのより詳細な図を示す。
(a)完全な手、(b)皺の無い手、および(c)皺を含む、図9の画像のためのテクスチャマスクの実施態様を示す。
図9の手の画像のエッジの実施態様を示す。
(a)テキストおよび(b)ボタン、および(c)エッジマップのための通信ウィジェットテクスチャマスクのためのテクスチャマスクおよびエッジマップの実施態様を示す。
図3cのより詳細な図を示す。
(a)顔、(b)首、(c)口、(d)鼻、および(e)耳を含む、図13の画像のためのテクスチャマスクの実施態様を示す。
図13の顔画像のエッジマップの実施態様を示す。
本発明の実施態様に従うシステムの略図である。
本発明の実施態様に従う方法の流れ図である。
本発明の実施態様に従う方法の流れ図である。
本開示は、ユーザインターフェース、人間−コンピュータインターフェース、またはユーザ装置の他の部分を介してユーザに触覚効果を与える触覚出力装置を含む触覚装置の実施態様を記述する。特に、本書に記載された触覚装置の実施態様は、ユーザ装置のタッチセンシティブ表面に触覚効果を加えるように構成され得る。タッチセンシティブ表面は、或る実施態様においては、視覚出力メカニズムおよびタッチセンシティブ入力メカニズムの両方を含み得る表示装置の一部であり得る。従って、ユーザのために豊かな感覚的経験を提供するために、電子ハンドヘルド装置などのユーザ装置において触覚フィードバックが加えられ得る。
本書に記載された例の多くはタッチスクリーン装置に関連するけれども、本開示がタッチセンシティブ構造を含む他のタイプの人間−コンピュータインターフェースをも含むということが理解されるべきである。さらに、本開示の一般的原理を読んで理解すれば他のフィーチャおよび利点は当業者にとって明白となろう。これらの他のフィーチャおよび利点も本開示に含まれるべく意図されている。
図1は、本発明の実施態様に従う電子装置10のブロック図である。図示されているように、電子装置10は処理装置(例えば、プロセッサ)12、記憶装置14、および入力/出力装置16を含み、これらはバス18を介して相互に接続されている。一実施態様では、入力/出力装置16はタッチスクリーン装置20または他の人間−コンピュータインターフェース装置を含み得る。
タッチスクリーン装置20は、任意の適切な人間−コンピュータインターフェースまたはタッチ/コンタクト表面アセンブリとして構成され得る。タッチスクリーン装置20は、任意のタッチスクリーン、タッチパッド、タッチセンシティブ構造、コンピュータモニタ、ラップトップ表示装置、ワークブック表示装置、キオスクスクリーン、ポータブル電子装置スクリーン、または他の適切なタッチセンシティブ装置であり得る。タッチスクリーン装置20は、スタイラスなどのユーザ制御装置、指、などとの物理的インタラクションのために構成され得る。或る実施態様では、タッチスクリーン装置20は、少なくとも1つの出力装置および少なくとも1つの入力装置を含み得る。例えば、タッチスクリーン装置20は、視覚ディスプレイと、ユーザの指から入力を受け取るようにその上に重ねられたタッチセンシティブスクリーンとを含み得るであろう。該視覚ディスプレイは高精細度ディスプレイスクリーンを含み得る。
種々の実施態様において、タッチスクリーン装置20は電子装置10の少なくとも一部分に触覚フィードバックを提供し、それは電子装置10と接触しているユーザに伝えられ得る。特に、タッチスクリーン装置20は、ユーザが該スクリーンと接触しているときに触覚効果を加えるために該タッチスクリーン自体に触覚フィードバックを提供することができる。該触覚効果は、ユーザの体験を強化するために使用されることができ、特に、タッチスクリーン装置20により検出されるに十分にユーザが該スクリーンと接触したことの確認をユーザに提供することができる。
電子装置10は、デスクトップコンピュータ、ラップトップコンピュータ、電子ワークブック、電子ハンドヘルド装置(例えば携帯電話、ゲーム装置、パーソナルデジタルアシスタント(personal digital assistant(“PDA”))、携帯電子メール装置、携帯インターネットアクセス装置、計算機など)、キオスク(例えば自動預金受払器、ティッキング購入機など)、プリンタ、ポイントオブセール装置、ゲームコントローラ、または他の電子装置などの、任意の装置であり得る。
処理装置12は、電子装置10の動作および機能を管理または制御するための汎用または特殊目的プロセッサまたはマイクロコントローラであり得る。例えば、処理装置12は、触覚効果を提供するために入力/出力装置16のドライバへの出力信号を制御するように特定用途向け集積回路(application−specific integrated circuit(“ASIC”))として特別に設計され得る。処理装置12は、所定ファクタに基づいて、どんな触覚効果が生成されるべきかを決定し、該触覚効果が生成される順序を決定し、該触覚効果の大きさ、頻度、持続時間、および/または他のパラメータを決定するように構成され得る。処理装置12は、特定の触覚効果を提供するために触覚出力装置を駆動するために使用され得るストリーミングコマンドを提供するようにも構成され得る。或る実施態様では、処理装置12は、電子装置10内で各々一定の機能を実行するように構成された複数のプロセッサを実際に含むことができる。
記憶装置14は、1つ以上の内部に固定されたストレージユニット、取り外し可能なストレージユニット、および/または遠隔アクセス可能なストレージユニットを含み得る。それらの種々のストレージユニットは、揮発性メモリおよび不揮発性メモリの任意の組み合わせを含み得る。該ストレージユニットは、情報、データ、命令、ソフトウェアコードなどの任意の組み合わせを記憶するように構成され得る。より具体的には、該ストレージ装置は、触覚効果プロファイル、入力/出力装置16の触覚出力装置がどのように駆動されるべきかの命令、あるいは触覚効果を生成するための他の情報を含むことができる。
タッチスクリーン装置20に加えて、入力/出力装置16は特定の入力メカニズムおよび出力メカニズムも含むことができる。例えば、該入力メカニズムは、キーボード、キーパッド、カーソル制御装置(例えば、コンピュータマウス)、あるいは他のデータ入力装置のような装置を含むことができる。出力メカニズムは、コンピュータモニタ、仮想現実ディスプレイ装置、オーディオ出力装置、プリンタ、または他の周辺装置を含むことができる。入力/出力装置16は、タッチスクリーン装置の多くの例のような、ユーザから入力を受け取るだけでなくてユーザにフィードバックも提供するように設計されたメカニズムを含むことができる。タッチスクリーン装置20および他の入力/出力装置16は、ボタン、キーパッド、カーソル制御装置、タッチスクリーンコンポーネント、スタイラス受容コンポーネント、または他のデータ入力コンポーネントの任意の適切な組み合わせおよび構成を含むことができる。タッチスクリーン装置20は、コンピュータモニタ、ディスプレイスクリーン、タッチスクリーンディスプレイ、触覚出力装置、あるいはユーザに出力を提供するための他の通知装置の任意の適切な組み合わせを含むこともできる。
一実施態様では、タッチスクリーン装置20はディスプレイ表面22を含み、該ディスプレイ表面は、堅固であり得て、指またはスタイラスを該ディスプレイを横切って動かすときに表示画像に対応する表面レリーフ(例えば、丘および谷)の感覚をユーザに与えるために静電摩擦または超音波表面振動
を含むけれどもこれらには限定されない方法を通してその摩擦特性を変調するように構成される。
図2は、装置の表面110において触覚効果を生成することのできる触覚効果対応ユーザインターフェース装置100の実施態様を示す。装置100の表面110は、図1のタッチスクリーン装置のディスプレイ表面22と同じまたは類似するディスプレイ表面であり得る。触覚効果は、装置100により表される表面フィーチャなどのフィーチャをシミュレートするように生成され得る。例えば、シミュレートされる表面フィーチャは、表面110の、自然のまたは人工的な、シミュレートされたテクスチャ、空間的パターン、エッジもしくは境界、または他の任意の触覚であり得る。一実施態様では、表面110は、シミュレートされるテクスチャまたは他の触覚を有する物体の画像などの、シミュレートされる表面フィーチャに対応する画像を表示するタッチスクリーンであり得る。一実施態様では、表面110は、画像のディスプレイに対応するタッチパッド、または他の任意のタッチインターフェースであり得る。装置100は、携帯電話、タブレットコンピュータ、電子ディスプレイ、タッチパッド、または他の任意の電子ユーザインターフェース装置を含むことができる。
一実施態様では、装置100は、触覚駆動モジュール(例えばコントローラ130)、触覚効果を生成する触覚出力装置120、および駆動信号を触覚出力装置120に加えるようにコントローラ130および触覚出力装置120に作用可能に結合された触覚駆動回路125を含み得る。コントローラ130は、1つ以上のプロセッサまたは他の任意の処理ユニットを含むことができて、図1の処理装置12の一部であり得る。触覚出力装置120は、アクチュエータ(例えば、ボイスコイル、超音波振動装置、ソレノイド、圧電装置、または他の任意のアクチュエータ)、静電装置、または他の任意の触覚出力装置を含むことができる。超音波振動装置は、或る場合には、表面110における摩擦のレベルを減少させることができる。コントローラ130は触覚出力装置120に作用可能に結合されることができ、該触覚出力装置は表面110に作用可能に結合されることができる。触覚出力装置は、“電気振動触覚ディスプレイ(Electro−vibrotactile Display)”と題され、2011年4月22日に出願されて2012年10月25日に米国特許出願公開第2012/0268412号として公開された米国特許出願第13/092,269号においてより詳しく論じられており、その全内容がここに参照により組み込まれる。
一実施態様では、コントローラ130、触覚駆動回路125、および触覚出力装置120は、摩擦のレベルを制御することによって表面110で表面フィーチャをシミュレートすることができる。例えば、触覚出力装置120は、表面110に振動を発生させることによって摩擦を制御し得るアクチュエータを含むことができる。触覚出力装置120は、表面110にまたはその下に電圧を印加することによって摩擦のレベルを制御し得る静電装置を含むことができる。例えば、交流電圧信号は表面110において指F、スタイラス、または他の任意の物体を引き付ける容量性効果を生じさせることができる。表面における引力は、該物体が該表面を横切って動くとき、摩擦として知覚され得る。該引力を強めれば該表面における摩擦のレベルを高めることができる。触覚効果を通して摩擦を制御することは、“電気振動触覚ディスプレイ(Electro−vibrotactile Display)”と題され、2011年4月22日に出願されて2012年10月25日に米国特許出願公開第2012/0268412号として公開された米国特許出願第13/092,269号においてより詳しく論じられており、その全内容がここに参照により組み込まれる。
米国特許出願公開第2012/0268412号に記載されているように、静電装置は、一実施態様では、1つ以上の電極を有する導電層を含みかつ絶縁層を含む表面とともに使用されることができる。その導電層は、任意の半導体または他の導電性材料であり得る。該絶縁層は、ガラス、プラスチック(例えば、熱可塑性材料)、ポリマ、または他の任意の絶縁層であり得る。該静電装置は、一実施態様においては該導電層を表面110の近くのまたは該表面に触れている物体と容量的に結合させるAC信号を印加することによって動作することができる。該AC信号は、高電圧増幅器によって生成され得る。
この容量性結合は、表面110での摩擦のレベルを制御することができる。一実施態様では、テクスチャは表面110での摩擦のレベルを制御することによってシミュレートされ得る。該物体と該導電層との間の引力のレベルを変えることにより、表面110を横切って移動する物体に対する摩擦を変化させることができる。該摩擦力を変化させることによって1つ以上のテクスチャをシミュレートすることができる。
さらに、該容量性結合は、ユーザの指の皮膚の機械受容器などの、表面110の近くのまたは該表面に触れている物体の部分を刺激することによって触覚効果を生じさせることもできる。一例では、導電層は、ユーザの指の導電性部分と結合するAC電圧信号を印加され得る。ユーザがスクリーン上で自分の指を動かすと、ユーザは、チクチクする感じ、ざらついた感じ、でこぼこした感じ、粗い感じ、ねばねばする感じのテクスチャ、または他のなんらかのテクスチャを感じることができる。
一実施態様では、物体が導電層に直接触れることができるように、表面110は絶縁層を持たなくてもよい。触覚効果は、導電層から導電性経路を通して物体に電圧を印加することによって生成され得る。この実施態様は、その代わりに絶縁層を使用することができるけれども、該絶縁層内に1つ以上の電極を含むことができて、該電極は、物体が該絶縁層を横切って移動するときに該導電層から該電極に触れている物体への導電性経路を生じさせることができる。
一実施態様では、触覚効果は電子ユーザインターフェース装置の表面(例えば、表面110)に限定されない。この実施態様では、例えばユーザの手は、タッチスクリーンまたはタッチパッドを超えて物体に触れることができて、それでも触覚効果を知覚することができる。該触覚効果は、例えば、信号発生器または他の任意の電圧発生装置から電圧をユーザの体に直接印加することによって生成され得る。或る場合には、該電圧発生装置は、ユーザの体と頻繁に接触する位置に据え付けられるようにされたスタンドアロン装置であり得る。該電圧は、テクスチャがシミュレートされるべき物体にユーザの体が触れていることをセンサが検出するごとに印加される。該電圧は、ユーザの体に電荷を置くことができる。ユーザの体の上のその電荷と、触れられている該物体との間の容量性相互作用はユーザの体と該物体との間に引力を生じさせることができる。該引力は、該物体の表面での摩擦のレベルを制御することができ、それは、触れられている該物体のテクスチャまたは他の任意の触覚をシミュレートすることができる。ユーザの体に印加される電圧を変えれば、触覚効果を変化させることができ、従ってシミュレートされる触覚を変化させることができる。該電圧が周期信号に基づくならば、該電圧を変化させることは該信号の振幅または周波数を変化させることを含み得る。或る場合に、物体は、絶縁層に囲まれた導電層を有し得る。該容量性相互作用は該導電層とユーザの体の上の電荷との間に存在し得る。或る場合には、触れられている物体と電圧発生装置との両方が共通のグラウンドを有し得る。或る場合には、ユーザの体は接地され得る。或る場合には、ユーザの体は接地されない。
一実施態様では、ユーザは、物体の表面に生成される静電効果と、電子ユーザインターフェース装置により生成される強化された現実体験との両方を通して該物体上のシミュレートされたテクスチャを知覚することができる。例えば、電子ユーザインターフェース装置は、物体の捕獲された画像を表示するとともに該画像上にテクスチャの図式表示を置くことによって、強化された現実体験を生成することができる。該実施態様では、ユーザは、物体に触れることと、電子ユーザインターフェース上で該物体の上に置かれたテクスチャの図式表示を見ることとの両方によって、該物体上のテクスチャを知覚することができる。
一実施態様では、コントローラ130は、触覚出力装置120に周期的触覚効果を生じさせるように構成され得る。例えば、図2は、触覚駆動信号120に基づく周期的触覚効果を示す。或る場合には、該触覚駆動信号は周期的駆動信号であり得る。或る場合には、該触覚駆動信号は、触覚出力装置120により生成される触覚効果を表すことができる。例えば、触覚出力装置120が静電装置を含むならば、触覚駆動信号201に基づく触覚効果は、触覚駆動信号201に調和あるいは比例する周波数および振幅を有する正弦波AC電圧を含むことができる。触覚出力装置120がアクチュエータを含むならば、触覚駆動信号201に基づく触覚効果は、触覚駆動信号201に調和する周波数および振幅を有する振動を含むことができる。周期的触覚効果は、図2に示されている正弦波形、方形波形、三角波形、のこぎり波形、あるいは他の任意の周期的波形に従って変化し得る。例えば、周期的静電効果は、正弦波形、方形波形、三角波形、のこぎり波形、あるいは他の任意の波形を有するAC電圧によって生成され得る。
一実施態様では、コントローラ130は、触覚出力装置120により触覚効果を変化させることができる。例えば、周期的触覚効果の周波数は、タッチ入力を生成する指Fまたは他の任意の物体が表面110を横切って移動するときに変更され得る。例えば、触覚駆動信号は、図2の触覚駆動信号201より大きな周波数を持つように変更され得る。一実施態様では、触覚効果がどのように変化するかは、物体の位置、速度、加速度、移動の方向、加えられた圧力、横力、接触領域、接触領域の形状、近寄り角、方位、温度、コンダクタンス、あるいは乾燥度に基づくことができ、あるいはシステム入力に基づくことができる。一実施態様では、以下でさらに詳しく論じられるように、触覚効果は、タッチ表面を通して表示されている画像のシミュレートされた外形に基づいて変化することができる。
一実施態様では、二人の人間の間のコンピュータメディアテレビ会議との関係で触覚フィードバックを提供するために静電摩擦が使用され得る。図3(a)に示されているように、初めに、302および304で表される選択される2つのコンタクトを含む画像300を含むスクリーンがユーザに与えられる。次にユーザはディスプレイスクリーン上の対応する画像302または304をタップすることによって該コンタクトのうちの1つを選択することができ、それも上で論じられたタッチスクリーン装置20などのタッチスクリーン装置の一部である。次に、図3bに示されている幼児の手の画像310、あるいは図3cに示されている部分顔の画像320などの、リモートコンタクトを表す画像がスクリーン上に示される。ディスプレイにより表示される3つの画像300、310、320は全て以下でより詳しく記述されるテクスチャおよび触覚効果で強化され得る。
一実施態様では、ディスプレイの平面の上のテクスチャの強度を変調するためにアルゴリズムが使用され得る。一実施態様では、ディスプレイのいろいろな位置におけるテクスチャの強度は、グレイスケールビットマップまたはカラービットマップの単一のチャネル(例えば、ARGBビットマップの透明度チャネル)を用いることによって指定され得る。ビットマップは幾つかの方法で生成され得る。一実施態様では、ビットマップは、ADOBE(登録商標)PHOTOSHOP(登録商標)などの画像編集またはペインティングツールを用いることにより手操作で生成され得る。一実施態様では、ビットマップは、グレイスケールへの変換またはエッジ検出などの画像処理手法をソース画像に適用することによって生成され得る。一実施態様では、ソース画像を処理するために両方のアプローチを組み合わせることができ、結果は、例えば或るフィーチャを誇張することによって、手操作で編集され得る。他の実施態様は、専用ハードウェアを用いる代わりに、ビデオデータストリームを観察することによって画像の3次元(3D)形状を近似するソフトウェアアルゴリズムを含むことができる。
図4bは、図4aの部分顔320の画像から明るさ情報を抽出するとともに、該画像の首322、唇324、鼻326、および耳328などの部分を手操作で分けて除くことによって生成されるグレイスケールマスク420の一例を示す。テクスチャリングされた領域の広さおよび強度も、矩形、円および多角形などのベクトルグラフィックスプリミティブを用いることにより指定され得る。このことは、例えばソースコードでテクスチャリングされるべき領域を指定することによってプログラム的に、またはスケーラブルベクトルグラフィックス(Scalable Vector Graphics(SVG))などのベクトルグラフィックス言語ならびにADOBE(登録商標)ILLUSTRATOR(登録商標)およびINKSCAPE(登録商標)などのエディタを通して、行われ得る。
図5bは、図5aの画像300の2つの矩形領域302、304が図5bにおいてそれぞれ502、504で表されるようにテクスチャリングのためにプログラム的にマークされている例500を示す。一実施態様では、テクスチャのレンダリングは、タッチイベントが生成されるごとに、あるいは触覚出力が更新されるごとに、タッチ位置でのマスク強度に従ってテクスチャ強度を選択することによって行われ得る。一実施態様では、このことは30−45msごとに起こり得る。一実施態様では、連続するタッチ入力間の運動をシミュレートすることによってより正確な強度遷移を生じさせるようにサブサンプリングすることによって行われ得る。例えば、時刻Tにおいて更新された触覚テクスチャはタッチ入力XT-1およびXTの間に起こった強度プロファイルを再生することができるであろう。
テクスチャリングされた領域を生じさせるためにビットマップを用いる他の方法が使用され得る。本書に記載された実施態様は、限定をするようには全く意図されていない。例えば、“摩擦ディスプレイにおいてフィーチャを提供するためのシステムおよび方法(Systems and Methods for Providing Features in a Friction Display)”と題され、2010年1月29日に出願されて2010年9月16日に米国特許出願公開第2010/0231367号として公開された米国特許出願第12/696,893号に記載されている方法およびシステムのいずれもが使用され得、該米国特許出願の全体が参照により本書に組み込まれる。
さらに、“テクスチャエンジンのためのシステムおよび方法(Systems and Methods for a Texture Engine)”と題され、2010年1月29日に出願されて2010年9月16日に米国特許出願公開第2010/0231540号として公開された米国特許出願第12/697,010号、“テクスチャを実現するために複数のアクチュエータを使用するためのシステムおよび方法(Systems and Methods for Using Multiple Actuators to Realize Textures)”と題され、2010年1月29日に出願されて2010年9月16日に米国特許出願公開第2010/0231508号として公開された米国特許出願第12/697,042号、“グラフィカルユーザインターフェースウィジェットにおいてテクスチャを用いるためのシステムおよび方法(Systems and Methods for Using Textures in Graphical User Interface Widgets)”と題され、2010年1月29日に出願されて2010年9月16日に米国特許出願公開第2010/0231541号として公開された米国特許出願第12/697,037号、“摩擦ディスプレイおよび追加の触覚効果のためのシステムおよび方法(Systems and Methods for Friction Displays and Additional Haptic Effects)”と題され、2010年1月29日に出願されて2010年9月16日に米国特許出願公開第2010/0231550号として公開された米国特許出願第12/696,900号、および“表面ベースの触覚効果を特徴とするインターフェースのためのシステムおよび方法(Systems and Methods for Interfaces Featuring Surface−Based Haptic Effects)”と題され、2010年1月29日に出願されて2010年9月16日に米国特許出願公開第2010/0231539号として公開された米国特許出願第12/696,908号に記載されている方法および/またはシステムのいずれもが、本発明の実施態様とともに用いられるテクスチャリングされた領域を生じさせるために使用され得、該出願の全ての全体が参照により本書に組み込まれる。
一実施態様では、“触覚効果を用いてユーザインターフェースにおいて表面フィーチャをシミュレートするための方法および装置(Methods and Apparatus for Simulating Surface Features on a user Interface with Haptic Effects)”と題されて2012年10月31日に出願された米国特許出願第13/665,526号に記載されているように確率的テクスチャを生成するための正弦波パターンの組み合わせとランダムネスの使用などの、レンダリングプリミティブは本発明の実施態様とともに用いられ得、該米国特許出願の全体が参照により本書に組み込まれる。
一実施態様では、人の肌など、よりリアルなテクスチャを表現するために空間テクスチャが生成され得る。一実施態様では、“触覚効果を用いてユーザインターフェースにおいて表面フィーチャをシミュレートするための方法および装置(Method and Apparatus for Simulating Surface Features on a user Interface with Haptic Effects)”と題されて2012年10月31日に出願された米国特許出願第13/665,526号に記載されている時間テクスチャの周波数は、空間テクスチャを生成するためにタッチ入力の速度と調和するように変調されることができ、該米国特許出願の全体が参照により本書に組み込まれる。一実施態様では、空間テクスチャを生成するために時間の代わりにタッチ入力の運動に基づく区分的波形が連続的に生成され得る。両方の実施態様において、方形波形を用いて空間格子上での滑りのイリュージョンが生成され得る。タッチスクリーン上での指の運動が水平運動であるならば、水平格子が生成され得る。
一実施態様では、周期的なあるいは非周期的な任意の空間パターンが生成され得る。一実施態様では、該空間パターンは、タッチ入力の絶対運動に基づく空間正弦波形テクスチャの重ね合わせにより生成され得る。各タッチイベントと同時に、タッチ入力が移動した絶対距離が計算されて空間正弦波形テクスチャ内の位置に加えられ得る。その結果は、その方向に関わりなく、スクリーンを背景とする運動に伴って変化する正弦波形テクスチャである。これは、よりリアルなテクスチャをもたらし得る。
一実施態様では、例えば、顔の画像上のグラジエントを強めるためにタッチスクリーン上での運動の方向に基づいてテクスチャの特性が変調され得る。例えば、該画像の水平中心に向かって移動するとき、指は重力に抗して移動すると仮定されることができ、テクスチャ全体が感じられることができる。該中心から遠ざかって移動するときには、指は該顔の方へ落ちてゆくと仮定されることができ、テクスチャは半強度で感じられることができる。
一実施態様では、画像についての高さマップは、3次元(3D)センサ(例えば、MICROSOFT(登録商標)KINECT(登録商標))を用いることにより、画像処理により(例えば、シェーディングからの形状)、あるいはいろいろな画像位置を手操作でコード化することにより、得られ得る。次に、レンダリングソフトウェアは、該3D表面のグラジエントを分析し、それに応じて、鋭い上昇スロープのためにはテクスチャの強度を強め下降スロープのためにはテクスチャの強度を弱めるなどしてテクスチャの強度を変調することができる。一実施態様では、方向の関数として、例えば別々のマスクセット間での補間を用いて、いろいろなテクスチャマスクを指定するためにもビットマップまたはベクトルグラフィックスが使用され得る。
一実施態様では、触覚効果を生じさせるために重ね合わせを介しての正弦波信号の組み合わせが使用され得る。一実施態様では、2つの正弦波信号が、それらを加え合わせる代わりに掛け合わされることができ、このことは高周波数効果で低周波数エンベロープをもたらすことができ、それは明らかに異なる触覚効果を提供する。
一実施態様では、タッチスクリーン上に表示されている画像のエッジをシミュレートするためにエッジ効果が使用され得る。一実施態様では、静電摩擦出力を短時間(〜50ms)にわたって最大電圧にセットすることによってエッジ効果が生成され得る。一実施態様では、現存する静電摩擦出力をミューティングすることによってエッジ効果が生成され得る。一実施態様では、テクスチャマスクを用いることによってエッジ効果が強化され得る。
テクスチャとほぼ同様に、エッジはビットマップまたはベクトルグラフィックスで指定され得る。一実施態様では、エッジの位置はビットマップにおいてグレイスケール画像またはカラー画像のチャネルとして示され得る。そのようなエッジマップは、例えばエッジ検出アルゴリズムを用いることにより自動的に、あるいは例えば画像エディタを用いることにより手操作で、生成され得る。図6は、図6bに示されているエッジマップ610が図6aの手310の画像の外形を手操作で追跡することによって生成された実施態様を示す。
一実施態様では、タッチスクリーン上の画像との各タッチイベントに衝突検出アルゴリズムが使用され得る。一実施態様では、該アルゴリズムは、次の形をとり得る。例えば、ユーザの指の以前の位置はエッジの上にあったけれども該指の現在の位置はエッジの上に無いと判定されたならば、エッジ効果が生成されるべきである。ユーザの指の現在の位置はエッジの上にあるけれども該指の以前の位置がエッジの上には無かったと判定されたならば、ユーザの指はちょうどエッジに入ったばかりであるのでエッジ効果は生成されるべきではない。両方の位置がエッジの上にあると判定されたならば、ユーザの指はエッジの中にあるので、エッジ効果は生成されるべきではない。両方の位置がエッジの上に無いと判定されたならば、以前の位置から現在の位置への直線内で各ピクセルがチェックされるべきである。いずれかのピクセルがエッジの上にあるならば、ユーザの指はエッジを横切ったのであるから、エッジ効果が生成されるべきである。
一実施態様では、エッジ効果の強度は、エッジマップにおいて横切られたエッジのグレイスケール強度に対応し得る。一実施態様では、エッジは、線、円、および多角形などのベクトルグラフィックスプリミティブを用いて指定され得る。そのとき、衝突検出を効率よく実行するために計算幾何学からのアルゴリズムが使用され得る。一実施態様では、図6aの手310の皺312は、図6bのエッジマップ610において短い線のセット612として表されることができて、簡単な線交差アルゴリズムを用いて交差があるかどうかテストされることができる。
一実施態様では、手および顔の画像は、現実の物体との相互作用のイリュージョンを強めるためにタッチ入力の周りで視覚的に歪められることができる。このことの一例が図7に示されている。図7aは手310の部分画像710を示し、図7bは手310上のタッチ730を示し、図7cは図7bの手310のタッチ730のグラフィック表示740を示す。
図7に示されている実施態様では、視覚効果は2つのコンポーネントから成る。第1に、50ピクセルの半径の中のピクセルは、該ピクセルからタッチ入力までの距離の関数として再マッピングされ得る。図7cに示されているように、ピクセルは、中心の近くでは“締め付けられ”、外側の縁の近くでは“押し出される”。第2に、タッチ730を表す変形したディスクの形の陰影がタッチ入力に加えられ得る。明瞭性を目的として該陰影は図7bおよび7cにおいて誇張されている。図7bおよび7cに示されているように、該陰影は、変形したディスク732の頂部732aでは暗くされ、変形したディスク732の底部732bでは明るくされる。図示されているように、該陰影のエッジの近くでは該効果は次第に薄れてゆく。
非現実的な変形を防止するために、手310または顔320のエッジなどにおいては、変形フィルタの半径は、タッチ入力が物体のエッジに近づくにつれて小さくされてゆくことができる。このことは、図8に示されているように、画像のそれぞれのポイントにおいて最も近いエッジからの最小距離を計算することによって行われ得る。例えば、図8bは、画像内のそれぞれのポイントにおける最も近いエッジからの最小距離を表す図8aの手310の画像810を示し、該画像のより明るい部分は、最も近いエッジからのより大きな距離を示す。同様に、図8dは図8cの顔320の画像820を示し、該画像のより明るい部分は最も近いエッジからのより大きな距離を示す。
動作時には、2つのコンタクトを示す図3aのコンタクトスクリーンの画像300が装置のユーザに提示され得る。ユーザは、対応する画像または名前の上でタップすることによって、どのコンタクトを呼び出すか選ぶことができる。ユーザは、スクリーンの内容に触ってみることもできる。例えば、50Hz方形時間正弦曲線でカバーされることによる静電摩擦効果と、該画像に入るときまたは出てゆくときの50msエッジ効果とが2つの画像310、320に提供され得る。該名前は、50ピクセルの空間波長を有する水平空間格子で覆われ得る。
一実施態様では、以下に記載されるように、図3の画像は、ユーザが該画像に触ってみると、該画像の内容のような感じがする。さらに、図3aの“誰を呼び出したいですか?(Who would you like to call?)”というヘッダテキストも格子テクスチャで覆われることができる。
図示されている実施態様では、アロン(Aaron)コンタクトは、図3bに示されている幼児の手を示す画像310と関連付けられる。図9により鮮明に示されているように、手の画像310を表示するスクリーンは、該コンタクトの名前と呼び出しの現在の持続時間とを示すテキスト910を含むウィジェット902をも左下隅に示す。ウィジェット902は三つのボタン904、906、908をも含む。一実施態様では、該ボタンのうちのひとつ904は、触覚効果をオンオフするためにトグルするように構成され得る。他のボタン906、908は、呼び出しを終わらせおよび/または図3aのコンタクトスクリーンに戻るなどの、他の機能を提供するように構成され得る。
図10は、図9の手の画像310とともに用いられ得る種々のテクスチャマスクを示す。一実施態様では、図10aに示されているように、手全体のために単一のテクスチャ1010が使用され得る。このテクスチャは、例えば、70%強度で、12ピクセルの波長を有する空間正弦曲線から成り得る。一実施態様では、該手の皺1014(図10c)および該手の他の領域1012(図10b)に異なるテクスチャが割り当てられ得る。
図11は、図9の手の画像310に対応するエッジマップ1110の実施態様を示す。一実施態様では、タッチ入力が非ゼロ領域を横切るたびに、その横切られたエッジのグレイスケール値に対応する強度で、50msエッジ効果が演じられ得る。
図9の左下隅のコミュニケーションウィジェット902は、テクスチャおよびエッジ効果で強化されることもできる。テキスト910は、図12aに示されているように矩形のマスク1202により範囲を定められ、50ピクセルの空間波長を有する空間格子を伴ってレンダリングされることができる。ボタン904、906、908は、同様に、図12bに示されているように、50Hzの時間方形効果で、マスク1204によって範囲を定められることができる。該ボタンのバーに入るときあるいは出るとき、図12cに示されているエッジマップ1206に従って50msのエッジ効果も感知されることができる。
図示されている実施態様では、スキ(Suki)コンタクトは、図13に示されているように、部分的な女性の顔320の画像と関連付けられている。コミュニケーションウィジェット902は、再び左下隅において利用可能であり、上で論じられたように、図9の手スクリーンについてのと同じ触覚フィードバックで強化されることができる。
図14は、顔画像320に用いられ得るテクスチャマスクの実施態様を示す。該顔の主要部分は、オリジナルの画像の強度とともに変化するグレイスケールマスク1420に従ってテクスチャリングされることができる(図14a)。該テクスチャは、例えば、5ピクセルの波長と75%の強度とを有する空間正弦波形で生成されることができる。グラジエントを強化するために、画像の水平中心から遠ざかるときに強度が半減させられることができる。図14bに示されている首1422は、例えば、10ピクセルの空間波長と50%の強度とを有する方向性正弦波形で同様にテクスチャリングされ得る。図14cに示されている口1424は、例えば、50Hzの周波数と50%の強度とを有する時間正弦波形でテクスチャリングされることができる。図14dに示されている鼻1426および図14eに示されている耳1428は、例えば、30%強度の500Hz正弦波形でテクスチャリングされることができる。
図15は、顔の画像320のためのエッジマップ1520の実施態様を示す。一実施態様では、該エッジマップ上の非ゼロ領域を横切るたびに、その横切られたエッジのグレイスケール値に対応する強度で50msのエッジ効果が感知されることができる。一実施態様では、唇などの一定のフィーチャは、より低い強度を有することができる。
本書に記載された本発明の実施態様は、ディスプレイと、触覚出力装置を含むユーザインターフェースとを含む任意の電子装置に用いられることができる。例えば、本発明の実施態様に従うシステムおよび方法を用いて二人の人がテレビ会議セッションに参加することができる。
テレビ会議システムの一実施態様1600が図16に示されている。例えば、第1の人は、第1の位置にある第1システム1610を使用することができる。図示されている実施態様では、第1システム1610は、ビデオディスプレイ1612、オーディオスピーカ1614、ビデオカメラ1616、3Dビデオ画像スキャナ1618(MICROSOFT(登録商標)KINECT(登録商標)など)、マイクロフォン1620、処理装置1630、およびテレビ会議を可能にする処理装置1630上で動作するソフトウェアアプリケーション1632を含む。第1システム1610は、適切な通信システム1640を介してテレビ会議の他方の端の第2位置にいる第2の人により使用される第2システム1650に接続して該第2システムとデータを送受信するように構成される。処理装置1630は、ビデオカメラ1616、3Dビデオ画像スキャナ1618、およびマイクロフォン1620を通して第1の人の顔、頭、および肩の画像、音、および3D表示を取り込むように構成されることができる。該ビデオ、該ビデオの3D表示、および音は、通信システム1640を通して第2システム1650へ送られることができる。
図示されている実施態様では、第2システム1650は、上記の表面摩擦変調技術の実施態様を組み込んだタッチスクリーンビデオディスプレイ1652を含む。タッチスクリーンビデオディスプレイ1652は、本書に記載された本発明の実施態様に従って触覚効果を出力するように構成された触覚出力装置1653を含む。第2システム1650も、オーディオスピーカ1654、ビデオカメラ1656、マイクロフォン1658、処理装置1660、およびテレビ会議を可能にする処理装置1660上で動作するソフトウェアアプリケーション1662を含むことができる。第2システム1650は、通信システム1640を通して第1システム1610に接続して該第1システムとデータを送受信するように構成される。
第2システム1650では、ソフトウェアアプリケーション1662は第1の人の顔、頭および肩の3D表示を摩擦グラジエントマップに変換するように構成されることができ、該マップは、第1の人の体の輪郭、鼻、唇、眉などのエッジなどの3D形状不連続部がタッチスクリーンビデオディスプレイ1652上の摩擦がより大きな領域として表示され得るように摩擦ディスプレイを駆動するために使用されることができる。一実施態様では、ビデオストリーム解析ソフトウェアがソフトウェアアプリケーション1662に含まれて、通信システム1640を通してストリーミングされている画像の近似3D形状を判定するために使用されることができる。一実施態様では、ビデオデータストリームを観察することにより画像の3D形状を近似するソフトウェアアルゴリズムを用いて触覚効果を近似するために画像ピクセルが解析されることができる。一実施態様では、第1の人の体のフィーチャの局所曲率と、第2の人がタッチスクリーンビデオディスプレイ1602により表示されている第1の人のビデオ画像を横切って指を走らせるときにタッチスクリーンディスプレイ1652の触覚出力装置1653により加えられる静電摩擦との間に関係が存在するように第1の人の3D表示に変換が適用されることができる。
このように、テレビ会議呼び出し中、第2の人は手を伸ばして第1の人の体の輪郭、鼻、あご、肩などを感知することができ、本発明の実施態様に従う第2システム1650は、本発明の実施態様を持たないシステムより高度の“テレプレゼンス”を伝えることができる。
本書において開示された実施態様は、限定をするようには決して意図されていない。例えば、テレビ会議実施態様は、非対称的システムセットアップを示すために提供されている。他の実施態様では、第1システム1610と第2システム1650とは同一のシステムであって、両方の当事者が、本書に記載された技術の全体へのアクセスを有する。
図17は、本発明の実施態様に従う方法1700を示す。図17に示されているように、方法1700は1702から始まる。1704で、ディスプレイ上の画像に関連する情報がプロセッサにより受け取られる。1706で、該プロセッサにより受け取られた該画像に関連する該情報に関連付けられた摩擦ベース触覚効果マップが該プロセッサにより生成される。1708で、ユーザが例えば指またはスタイラスで該ディスプレイとインタラクトするときにユーザに対して触覚効果を生成するために該プロセッサは触覚出力装置へ信号を出力する。ユーザが表示されている画像の3D表示を感知するように、生成される触覚効果は、ディスプレイ上に表示されている画像に対応する。ディスプレイ上で画像が変化すると、該方法は1704に戻ることができる。該方法は1712で終了する。
図18は、本発明の実施態様に従う方法1800を示す。図18に示されているように、方法1800は1802から始まる。1804で、画像を含むビデオストリームが受け取られる。1806で、該ビデオストリームが解析され、該ビデオストリームで受け取られた画像の3次元形状が近似される。1808で、該画像の該3次元形状に基づく触覚効果が生成される。ビデオストリームが受け取られ続けている限り、該方法は1804に戻ることができる。該方法は1812で終了する。
本発明の実施態様は、タッチスクリーンハンドヘルド装置(モバイル装置、PDA、およびナビゲーションシステム)、自動車アプリケーション、ゲームコンソールなどの、種々の電子装置において触覚フィードバックを可能にするために使用されることができる。
本書に記載された実施態様は、幾つかの可能な実施形態および例を代表するものであって、必ずしも本開示を特定の実施態様に限定するように意図されてはいない。代わりに、当業者に理解されるであろうようにこれらの実施態様に種々の改変を加えることができる。そのような改変はすべて本開示の趣旨および範囲の中に含まれ、添付されている請求項により保護されるべく意図されている。

Claims (20)

  1. 画像を表示するように構成されたディスプレイと、
    ユーザが前記ディスプレイとインタラクトするときに前記ユーザに対して触覚効果を生成するように構成された触覚出力装置と、
    プロセッサとを含み、
    当該プロセッサは、前記ディスプレイ上に表示された前記画像に関連する情報を受け取り、
    前記ディスプレイの表面における1つ又はそれ以上の動きの方向を検出し、
    前記画像に対応する複数の触覚効果マップを決定し、該複数の触覚効果マップのそれぞれの触覚効果マップは前記ディスプレイでの異なる場所における触覚効果の強度を特定し、前記表面での異なる方向の動きと関連するものであり、
    前記ディスプレイの表面における前記動きの方向の関数としての前記複数の触覚効果マップの中から1つの触覚効果マップを選択し、
    選択された前記1つの触覚効果マップと前記ディスプレイの表面における前記動きの方向に基づき前記触覚効果の強度を調整し、
    記ディスプレイ上に前記画像が表示されたときに前記ユーザが前記ディスプレイとインタラクトするときに前記触覚効果を出力するために前記触覚出力装置に対して信号を生成するように構成され、前記触覚効果は3次元における前記画像の感触をシミュレートするように構成される、
    触覚装置。
  2. 前記触覚効果は静電摩擦を含む、請求項1に記載の触覚装置。
  3. 前記触覚効果は超音波振動を含む、請求項1に記載の触覚装置。
  4. 前記触覚効果は3次元における前記画像の外形をシミュレートするように構成される、請求項1に記載の触覚装置。
  5. 前記触覚効果は前記画像のテクスチャをシミュレートするように構成される、請求項1に記載の触覚装置。
  6. ディスプレイ上に表示された画像に関連する情報を受け取ることと、
    前記ディスプレイの表面における1つ又はそれ以上の動きの方向を検出することと、
    前記画像に対応する複数の触覚効果マップを決定するものであり、該複数の触覚効果マップのそれぞれの触覚効果マップは前記ディスプレイでの異なる場所における触覚効果の強度を特定し、前記表面での異なる方向の動きと関連するものであることと、
    前記ディスプレイの表面における前記動きの方向の関数としての前記複数の触覚効果マップの中から1つの触覚効果マップを選択することと、
    選択された前記1つの触覚効果マップと前記ディスプレイの表面における前記動きの方向に基づき前記触覚効果の強度を調整することと、
    記ディスプレイが前記画像を表示している間にユーザが前記ディスプレイとインタラクトするときに、3次元における前記画像の感触をシミュレートする触覚効果を出力することと、
    を含む方法。
  7. 前記触覚効果は静電摩擦を含む、請求項6に記載の方法。
  8. 前記触覚効果は超音波振動を含む、請求項6に記載の方法。
  9. 前記触覚効果は3次元における前記画像の外形をシミュレートする、請求項6に記載の方法。
  10. 前記触覚効果はテクスチャをシミュレートする、請求項6に記載の方法。
  11. ビデオ信号を受け取り、前記ビデオ信号に基づいて画像を表示し、触覚効果を出力するように構成された、触覚出力装置を含むタッチスクリーンビデオディスプレイと、
    前記ディスプレイ上に表示された前記画像に関連する情報を受け取り、
    前記ディスプレイの表面における1つ又はそれ以上の動きの方向を検出し、
    前記画像に対応する複数の触覚効果マップを決定し、該複数の触覚効果マップのそれぞれの触覚効果マップは前記ディスプレイでの異なる場所における触覚効果の強度を特定し、前記表面での異なる方向の動きと関連するものであり、
    前記ディスプレイの表面における前記動きの方向の関数としての前記複数の触覚効果マップの中から1つの触覚効果マップを選択し、
    選択された前記1つの触覚効果マップと前記ディスプレイの表面における前記動きの方向に基づき前記触覚効果の強度を調整し、
    記画像が前記ディスプレイ上に表示されているときユーザが前記ディスプレイとインタラクトするときに前記触覚効果を出力するために前記触覚出力装置に対して信号を生成するように構成されたプロセッサと、を含むシステムであって、前記触覚効果は3次元における前記画像の感触をシミュレートするように構成される、
    システム。
  12. 前記触覚効果は静電摩擦を含む、請求項11に記載のシステム。
  13. 前記触覚効果は超音波振動を含む、請求項11に記載のシステム。
  14. 前記触覚効果は3次元における前記画像の外形をシミュレートするように構成される、請求項11に記載のシステム。
  15. 前記触覚効果はテクスチャをシミュレートするように構成される、請求項11に記載のシステム。
  16. 前記ユーザの画像を取り込むように構成されたビデオカメラと、前記ユーザの前記取り込まれた画像を他の位置へストリーミングするように構成された通信システムとをさらに含む、請求項11に記載のシステム。
  17. 前記ユーザの前記取り込まれた画像を第2のユーザに対して表示するように構成されて前記他の位置に置かれたビデオディスプレイをさらに含む、請求項16に記載のシステム。
  18. 前記他の位置に置かれた第2のビデオカメラおよび3次元ビデオ画像スキャナをさらに含み、前記ビデオカメラおよび3次元ビデオ画像スキャナは前記タッチスクリーンビデオディスプレイにより表示される前記画像を生成するように構成され、前記タッチスクリーンビデオディスプレイにより表示される前記画像は第2のユーザの画像である、請求項16に記載のシステム。
  19. 画像を含むビデオストリームを受け取ることと、
    前記ビデオストリームを解析し、前記ビデオストリームで受け取られている前記画像の3次元形状を近似することと、
    前記画像の前記3次元形状に基づいて触覚効果を生成することと、
    を含み、
    前記画像の前記3次元形状に基づく触覚効果の生成は、前記ディスプレイの表面における1つ又はそれ以上の動きの方向を検出し、
    前記画像に対応する複数の触覚効果マップを決定し、該複数の触覚効果マップのそれぞれの触覚効果マップは前記ディスプレイでの異なる場所における触覚効果の強度を特定し、前記表面での異なる方向の動きと関連するものであり、
    前記ディスプレイの表面における前記動きの方向の関数としての前記複数の触覚効果マップの中から1つの触覚効果マップを選択し、
    選択された前記1つの触覚効果マップと前記ディスプレイの表面における前記動きの方向に基づき前記触覚効果の強度を調整する、ことを含む方法。
  20. 前記画像を表す前記3次元形状を摩擦グラジエントマップに変換することをさらに含み、前記触覚効果は、前記摩擦グラジエントマップに基づく強度を有する静電摩擦を含む、請求項19に記載の方法。
JP2014007522A 2013-01-24 2014-01-20 触覚装置における3次元レリーフのための摩擦変調 Active JP6373588B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201361756355P 2013-01-24 2013-01-24
US61/756,355 2013-01-24
US13/793,843 US9880623B2 (en) 2013-01-24 2013-03-11 Friction modulation for three dimensional relief in a haptic device
US13/793,843 2013-03-11

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018135411A Division JP6840702B2 (ja) 2013-01-24 2018-07-18 触覚装置における3次元レリーフのための摩擦変調

Publications (2)

Publication Number Publication Date
JP2014142930A JP2014142930A (ja) 2014-08-07
JP6373588B2 true JP6373588B2 (ja) 2018-08-15

Family

ID=50002558

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2014007522A Active JP6373588B2 (ja) 2013-01-24 2014-01-20 触覚装置における3次元レリーフのための摩擦変調
JP2018135411A Active JP6840702B2 (ja) 2013-01-24 2018-07-18 触覚装置における3次元レリーフのための摩擦変調
JP2021023412A Ceased JP2021099822A (ja) 2013-01-24 2021-02-17 触覚装置における3次元レリーフのための摩擦変調

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2018135411A Active JP6840702B2 (ja) 2013-01-24 2018-07-18 触覚装置における3次元レリーフのための摩擦変調
JP2021023412A Ceased JP2021099822A (ja) 2013-01-24 2021-02-17 触覚装置における3次元レリーフのための摩擦変調

Country Status (5)

Country Link
US (3) US9880623B2 (ja)
EP (1) EP2759915A3 (ja)
JP (3) JP6373588B2 (ja)
KR (1) KR102260705B1 (ja)
CN (2) CN109683717A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11054907B2 (en) 2013-01-24 2021-07-06 Immersion Corporation Friction modulation for three dimensional relief in a haptic device

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2313820B1 (en) 2008-07-15 2017-04-05 Immersion Corporation Systems and methods for physics-based tactile messaging
US9981193B2 (en) 2009-10-27 2018-05-29 Harmonix Music Systems, Inc. Movement based recognition and evaluation
WO2011056657A2 (en) * 2009-10-27 2011-05-12 Harmonix Music Systems, Inc. Gesture-based user interface
US9041647B2 (en) 2013-03-15 2015-05-26 Immersion Corporation User interface device provided with surface haptic sensations
US10220303B1 (en) 2013-03-15 2019-03-05 Harmonix Music Systems, Inc. Gesture-based music game
WO2014147443A1 (en) * 2013-03-20 2014-09-25 Nokia Corporation A touch display device with tactile feedback
JP2015028766A (ja) * 2013-06-24 2015-02-12 パナソニックIpマネジメント株式会社 触感呈示装置および触感呈示方法
GB2516820A (en) * 2013-07-01 2015-02-11 Nokia Corp An apparatus
JP2015130168A (ja) * 2013-12-31 2015-07-16 イマージョン コーポレーションImmersion Corporation 摩擦拡張制御、及び、タッチコントロールパネルのボタンを摩擦拡張制御部へと変換する方法
EP3128396B1 (en) 2014-03-31 2019-08-21 Sony Corporation Tactile sense presentation device, signal generating device, tactile sense presentation system, and tactile sense presentation method
US9690381B2 (en) * 2014-08-21 2017-06-27 Immersion Corporation Systems and methods for shape input and output for a haptically-enabled deformable surface
FR3026866B1 (fr) * 2014-10-02 2019-09-06 Dav Dispositif et procede de commande pour vehicule automobile
KR102313364B1 (ko) * 2015-04-01 2021-10-18 삼성디스플레이 주식회사 표시 장치
CN108883335A (zh) * 2015-04-14 2018-11-23 约翰·詹姆斯·丹尼尔斯 用于人与机器或人与人的可穿戴式的电子多感官接口
KR102512840B1 (ko) * 2015-10-15 2023-03-22 삼성전자주식회사 실행 화면 레코딩 방법 및 그 방법을 처리하는 전자 장치
CN105607787A (zh) * 2015-10-16 2016-05-25 宇龙计算机通信科技(深圳)有限公司 终端的控制方法、终端的控制装置和终端
US9895607B2 (en) * 2015-12-15 2018-02-20 Igt Canada Solutions Ulc Haptic feedback on a gaming terminal display
US10591993B2 (en) 2016-09-21 2020-03-17 Apple Inc. Haptic structure for providing localized haptic output
JP6797406B2 (ja) * 2016-11-04 2020-12-09 高知県公立大学法人 接触式入力装置
US11229787B2 (en) 2016-11-25 2022-01-25 Kinaptic, LLC Haptic human machine interface and wearable electronics methods and apparatus
US10101813B2 (en) * 2016-12-14 2018-10-16 Immersion Corporation Automatic haptic generation based on color features and motion analysis
US10147460B2 (en) * 2016-12-28 2018-12-04 Immersion Corporation Haptic effect generation for space-dependent content
JP7032048B2 (ja) 2017-02-03 2022-03-08 株式会社デンソーテン 制御装置、入力システムおよび制御方法
US10416772B2 (en) 2017-09-06 2019-09-17 Apple Inc. Electrical haptic output array
US10775890B2 (en) 2017-09-27 2020-09-15 Apple Inc. Electronic device having a piezoelectric body for friction haptics
US10585482B2 (en) 2017-09-27 2020-03-10 Apple Inc. Electronic device having a hybrid conductive coating for electrostatic haptics
US10248211B1 (en) 2017-09-28 2019-04-02 Apple Inc. Ground-shifted touch input sensor for capacitively driving an electrostatic plate
CN107831892B (zh) * 2017-11-01 2020-12-29 东南大学 一种基于指套式装置的虚拟物体三维形状再现方法
US10916105B2 (en) 2018-09-06 2021-02-09 Bank Of America Corporation Processing system for providing enhanced reality interfaces at an automated teller machine (ATM) terminal platform
US10755250B2 (en) 2018-09-07 2020-08-25 Bank Of America Corporation Processing system for providing a teller assistant experience using enhanced reality interfaces
US10462425B1 (en) 2018-09-07 2019-10-29 Bank Of America Corporation Processing system for providing a teller assistant experience using enhanced reality interfaces
US10659614B1 (en) * 2018-11-20 2020-05-19 International Business Machines Corporation Haptic feedback during phone calls
US10930265B2 (en) * 2018-11-28 2021-02-23 International Business Machines Corporation Cognitive enhancement of communication with tactile stimulation
US10908693B2 (en) 2019-02-20 2021-02-02 Wuhan Tianma Micro-Electronics Co., Ltd. Tactile presentation device
US11520406B2 (en) * 2019-05-28 2022-12-06 Tanvas, Inc. Bipolar projected haptics with balanced loading
US11789539B2 (en) * 2020-05-29 2023-10-17 Mitsubishi Electric Corporation Display
CN113628294B (zh) * 2021-07-09 2023-06-20 南京邮电大学 一种面向跨模态通信系统的图像重建方法及装置
US20230152896A1 (en) * 2021-11-16 2023-05-18 Neosensory, Inc. Method and system for conveying digital texture information to a user

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0561970A (ja) * 1991-08-30 1993-03-12 Canon Inc 画像処理装置及び方法
US5999185A (en) * 1992-03-30 1999-12-07 Kabushiki Kaisha Toshiba Virtual reality control using image, model and control data to manipulate interactions
US6650338B1 (en) * 1998-11-24 2003-11-18 Interval Research Corporation Haptic interaction with video and image data
US6496200B1 (en) * 1999-11-02 2002-12-17 Interval Research Corp. Flexible variation of haptic interface resolution
US7774075B2 (en) * 2002-11-06 2010-08-10 Lin Julius J Y Audio-visual three-dimensional input/output
US20040196282A1 (en) * 2003-02-14 2004-10-07 Oh Byong Mok Modeling and editing image panoramas
JP2004310518A (ja) * 2003-04-08 2004-11-04 Fuji Xerox Co Ltd 画像情報処理装置
US7812815B2 (en) * 2005-01-25 2010-10-12 The Broad of Trustees of the University of Illinois Compact haptic and augmented virtual reality system
CN100517060C (zh) * 2006-06-01 2009-07-22 高宏 一种三维人像摄影方法
US8248462B2 (en) * 2006-12-15 2012-08-21 The Board Of Trustees Of The University Of Illinois Dynamic parallax barrier autosteroscopic display system and method
US8072432B2 (en) 2008-01-15 2011-12-06 Sony Ericsson Mobile Communications Ab Image sense tags for digital images
JP4903170B2 (ja) * 2008-02-28 2012-03-28 日本放送協会 触覚情報表示装置
US20090251421A1 (en) * 2008-04-08 2009-10-08 Sony Ericsson Mobile Communications Ab Method and apparatus for tactile perception of digital images
WO2010009552A1 (en) * 2008-07-23 2010-01-28 Research In Motion Limited Tactile feedback for key simulation in touch screens
DE102008054570A1 (de) * 2008-12-12 2010-06-17 Robert Bosch Gmbh FMCW-Radarsensor für Kraftfahrzeuge
US10564721B2 (en) 2009-03-12 2020-02-18 Immersion Corporation Systems and methods for using multiple actuators to realize textures
WO2010105010A1 (en) * 2009-03-12 2010-09-16 Immersion Corporation Systems and methods for using textures in graphical user interface widgets
KR101952002B1 (ko) * 2009-03-12 2019-02-25 임머숀 코퍼레이션 마찰 디스플레이 및 부가의 햅틱 효과에 대한 시스템 및 방법
WO2010105006A1 (en) * 2009-03-12 2010-09-16 Immersion Corporation Systems and methods for interfaces featuring surface-based haptic effects
US9746923B2 (en) 2009-03-12 2017-08-29 Immersion Corporation Systems and methods for providing features in a friction display wherein a haptic effect is configured to vary the coefficient of friction
US9696803B2 (en) 2009-03-12 2017-07-04 Immersion Corporation Systems and methods for friction displays and additional haptic effects
US9927873B2 (en) 2009-03-12 2018-03-27 Immersion Corporation Systems and methods for using textures in graphical user interface widgets
US9874935B2 (en) 2009-03-12 2018-01-23 Immersion Corporation Systems and methods for a texture engine
US10007340B2 (en) 2009-03-12 2018-06-26 Immersion Corporation Systems and methods for interfaces featuring surface-based haptic effects
JP4854819B2 (ja) * 2009-05-18 2012-01-18 小平アソシエイツ株式会社 画像情報出力方法
JP4778591B2 (ja) * 2009-05-21 2011-09-21 パナソニック株式会社 触感処理装置
US8294557B1 (en) * 2009-06-09 2012-10-23 University Of Ottawa Synchronous interpersonal haptic communication system
KR20110062099A (ko) * 2009-12-02 2011-06-10 엘지전자 주식회사 화상 회의 시스템 및 그 방법
WO2011121375A1 (en) * 2010-03-31 2011-10-06 Nokia Corporation Apparatuses, methods and computer programs for a virtual stylus
WO2011135352A1 (en) * 2010-04-26 2011-11-03 Hu-Do Limited A computing device operable to work in conjunction with a companion electronic device
US20120327006A1 (en) * 2010-05-21 2012-12-27 Disney Enterprises, Inc. Using tactile feedback to provide spatial awareness
US8836643B2 (en) * 2010-06-10 2014-09-16 Qualcomm Incorporated Auto-morphing adaptive user interface device and methods
US20130300740A1 (en) * 2010-09-13 2013-11-14 Alt Software (Us) Llc System and Method for Displaying Data Having Spatial Coordinates
JP5496032B2 (ja) * 2010-09-17 2014-05-21 京セラ株式会社 触感呈示装置及び触感呈示装置の制御方法
US9542000B2 (en) 2011-02-10 2017-01-10 Kyocera Corporation Electronic device and control method for electronic device
US8837578B2 (en) * 2011-03-16 2014-09-16 Verizon Patent And Licensing Inc. MPEG-W decoder
US9448713B2 (en) * 2011-04-22 2016-09-20 Immersion Corporation Electro-vibrotactile display
TWI431516B (zh) 2011-06-21 2014-03-21 Quanta Comp Inc 觸覺回饋方法及其電子裝置
GB201114591D0 (en) * 2011-08-23 2011-10-05 Tomtom Int Bv Methods of and apparatus for displaying map information
FR2980896B1 (fr) * 2011-09-30 2016-07-01 Soc Tech Michelin Methode d'analyse rapide des elements en relief figurant sur la surface interne d'un pneumatique
US9746945B2 (en) * 2011-12-19 2017-08-29 Qualcomm Incorporated Integrating sensation functionalities into a mobile device using a haptic sleeve
WO2013114792A1 (ja) * 2012-01-31 2013-08-08 パナソニック株式会社 触感呈示装置および触感呈示方法
JP2013235513A (ja) 2012-05-10 2013-11-21 Sony Computer Entertainment Inc 画像生成装置、画像生成方法、プログラム及び情報記憶媒体
US9200919B2 (en) * 2012-06-05 2015-12-01 Apple Inc. Method, system and apparatus for selectively obtaining map image data according to virtual camera velocity
US9069440B2 (en) * 2012-06-05 2015-06-30 Apple Inc. Method, system and apparatus for providing a three-dimensional transition animation for a map view change
US20140015826A1 (en) * 2012-07-13 2014-01-16 Nokia Corporation Method and apparatus for synchronizing an image with a rendered overlay
US9046925B2 (en) * 2012-09-11 2015-06-02 Dell Products L.P. Method for using the GPU to create haptic friction maps
US9196134B2 (en) 2012-10-31 2015-11-24 Immersion Corporation Method and apparatus for simulating surface features on a user interface with haptic effects
US9536345B2 (en) * 2012-12-26 2017-01-03 Intel Corporation Apparatus for enhancement of 3-D images using depth mapping and light source synthesis
US9071116B2 (en) 2013-01-17 2015-06-30 Remy Technologies, Llc Apparatus for installing stator winding conductors
US9880623B2 (en) 2013-01-24 2018-01-30 Immersion Corporation Friction modulation for three dimensional relief in a haptic device
CN105529262A (zh) 2014-09-29 2016-04-27 无锡华润华晶微电子有限公司 一种垂直双扩散金属氧化物半导体场效应管及其制作方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11054907B2 (en) 2013-01-24 2021-07-06 Immersion Corporation Friction modulation for three dimensional relief in a haptic device

Also Published As

Publication number Publication date
CN103970267A (zh) 2014-08-06
US11054907B2 (en) 2021-07-06
CN109683717A (zh) 2019-04-26
US20180067560A1 (en) 2018-03-08
JP2018190443A (ja) 2018-11-29
EP2759915A3 (en) 2016-10-05
JP6840702B2 (ja) 2021-03-10
US9880623B2 (en) 2018-01-30
EP2759915A2 (en) 2014-07-30
US20140208204A1 (en) 2014-07-24
JP2014142930A (ja) 2014-08-07
CN103970267B (zh) 2019-02-12
KR102260705B1 (ko) 2021-06-07
KR20140095432A (ko) 2014-08-01
US20200272238A1 (en) 2020-08-27
US10649530B2 (en) 2020-05-12
JP2021099822A (ja) 2021-07-01

Similar Documents

Publication Publication Date Title
US11054907B2 (en) Friction modulation for three dimensional relief in a haptic device
Kim et al. Tactile rendering of 3D features on touch surfaces
US10514761B2 (en) Dynamic rendering of etching input
JP5948021B2 (ja) タッチ面用電気振動
JP6234364B2 (ja) 電気振動型タクタイル・ディスプレイ
JP2019133679A (ja) ガイド及び静電的摩擦との協力のための触覚的な手がかり(Haptic Cues)を提供する方法及び装置
US10474238B2 (en) Systems and methods for virtual affective touch
CN107831892B (zh) 一种基于指套式装置的虚拟物体三维形状再现方法
JP2018113025A (ja) 触覚によるコンプライアンス錯覚のためのシステム及び方法
US20140082491A1 (en) Electronic device and editing method for synthetic image
Nishino et al. An iec-based haptic rendering optimizer
Chen et al. Comparative Experimental Research on Haptic Display Methods of Virtual Surface Shape Based on Touch Screen
KR20140078083A (ko) 증강 현실이 구현된 만화책
EP3367216A1 (en) Systems and methods for virtual affective touch
WO2023116282A1 (en) Systems and methods for generating pseudo haptic feedback
Asai et al. Revisiting gradient-based haptic rendering for lateral force feedback in SPIDAR-mouse
DeCorato Creating A Basis For Three Dimensional Sketching
Asai et al. Displaying haptic interaction with a synthesized model of real objects using SPIDAR-mouse

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161031

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180619

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180718

R150 Certificate of patent or registration of utility model

Ref document number: 6373588

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250