JP2015531932A - マルチモードフィードバックでイメージを認識するシステム及び方法 - Google Patents

マルチモードフィードバックでイメージを認識するシステム及び方法 Download PDF

Info

Publication number
JP2015531932A
JP2015531932A JP2015528394A JP2015528394A JP2015531932A JP 2015531932 A JP2015531932 A JP 2015531932A JP 2015528394 A JP2015528394 A JP 2015528394A JP 2015528394 A JP2015528394 A JP 2015528394A JP 2015531932 A JP2015531932 A JP 2015531932A
Authority
JP
Japan
Prior art keywords
image
feedback
user
feedback effect
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015528394A
Other languages
English (en)
Other versions
JP2015531932A5 (ja
JP6359538B2 (ja
Inventor
アビーシェク・ナガール
アンドリュー・ディカーソン
カウシク・ジョシアム
ティモシー・トンプソン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2015531932A publication Critical patent/JP2015531932A/ja
Publication of JP2015531932A5 publication Critical patent/JP2015531932A5/ja
Application granted granted Critical
Publication of JP6359538B2 publication Critical patent/JP6359538B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis

Abstract

本発明は、イメージに対するフィードバック効果を提供する方法に関し、システム及びコンピュータ可読記録媒体が提供される。その方法は、イメージ区域で1つ以上の特徴を確認するステップを含む。また、その方法は、確認された1つ以上の特徴を複数のフィードバック効果様態(modalities)のうち少なくとも1つにマッピングするステップを含む。また、その方法は、イメージ区域に該当するユーザ入力座標に応じてイメージに関連づけられたユーザインタフェースが複数のフィードバック効果様態のうち少なくとも1つをユーザに提供するように、フィードバック効果の出力のためのパラメータを生成し、生成されたパラメータをイメージに関連づけて保存するステップを含む。複数のフィードバック効果様態は、1つ以上の視覚フィードバック効果、1つ以上の触覚フィードバック効果、及び1つ以上のオーディオフィードバック効果を含む。

Description

本発明は、一般にイメージ認識に関し、特にマルチモードフィードバックでイメージを認識することに関する。
写真、グラフィック、及び背景のようなイメージは、一般に静止画ビューを介して電子装置のユーザインタフェースのみで認識される。近年、増加している数多くのコンシューマ電子装置はタッチスクリーン、スピーカ及び触覚(haptic)フィードバックを提供する機能を含む。触覚フィードバックは、振動又はモーション(motion)のような動きを使用するタッチ感覚を介してユーザに提供されるフィードバックである。
したがって、マルチモードフィードバックの使用によってイメージ認識を向上する必要がある。
本発明の目的は、マルチモードフィードバックでイメージを認識するシステム及び方法を提供することにある。
一実施形態において、イメージに対するフィードバック効果を提供する方法が提供される。その方法は、イメージ区域で1つ以上の特徴を確認するステップを含む。その方法は、確認された1つ以上の特徴を複数のフィードバック効果様態(modalities)のうち少なくとも1つにマッピング(mapping)するステップを含む。また、その方法は、イメージ区域に該当するユーザ入力座標に応じてイメージに関連づけられたユーザインタフェースが複数のフィードバック効果様態のうち少なくとも1つをユーザに提供するようにフィードバック効果の出力のためのパラメータを生成し、生成されたパラメータをイメージに関連づけて保存するステップを含む。複数のフィードバック効果様態は、1つ以上の視覚フィードバック効果、1つ以上の触覚フィードバック効果、及び1つ以上のオーディオフィードバック効果を含む。
別の実施形態において、イメージに対するフィードバック効果を提供するシステムが提供される。そのシステムは、少なくとも1つのプロセッサ及びプログラムコードを保存する少なくとも1つのストレージ装置を含む。そのプロセッサは、イメージ区域から1つ以上の特徴で確認するプログラムコードを実行し、1つ以上の確認された特徴を複数のフィードバック効果様態のうち少なくとも1つにマッピングし、イメージ区域に該当するユーザ入力座標に応じてイメージに関連づけられたユーザインタフェースが複数のフィードバック効果様態のうち少なくとも1つをユーザに提供するようにフィードバック効果の出力のためのパラメータを生成し、イメージに関連づけて生成されたパラメータを保存する。
さらに別の実施形態において、イメージに対するフィードバック効果を提供するプログラムコードを具現する非一時的コンピュータ可読記録媒体が提供される。コンピュータ可読記録媒体は、イメージ区域で1つ以上の特徴を確認するステップに対するプログラムコードを含む。また、コンピュータ可読記録媒体は、確認された1つ以上の特徴を複数のフィードバック効果様態のうち少なくとも1つにマッピングするステップに対するプログラムコードを含む。また、コンピュータ可読記録媒体は、イメージ区域に該当するユーザ入力座標に応じてイメージに関連づけられたユーザインタフェースが複数のフィードバック効果様態のうち少なくとも1つをユーザに提供するようにフィードバック効果の出力のためのパラメータを生成し、生成されたパラメータをイメージに関連づけて保存するステップに対するプログラムコードを含む。
下記の詳細な説明を作成する前に、本願文書全体にわたって使用される単語及び句について定義することが有利であろう。用語「又は」は、包括的な(inclusive)意味であって、「及び/又は」を意味する。句「…と関連付けられた」、「…その中で関連付けられる」及びその派生語らは、「含む」、「…の内で含む」、「互いに接続する」、「含有する」、「…の内で含有する」、「…に、あるいは…と接続される」、「…に、あるいは…と結合される」、「…と通信可能である」、「…と協力する」、「挟む」、「並置する」、「隣接する」、「…に、あるいは…と縛られる」、「持つ」、「…の特性を持つ」などを意味し得る。そして、用語「制御器」は、少なくとも1つの動作を制御する任意の装置、システム、又はその一部を意味し、そのような装置は、ハードウェア、ファームウェアもしくはソフトウェア、又はそれらの少なくとも2つの組み合わせで具現化することができる。任意の特定の制御部に関連づけられた機能は、ローカル又はリモートに集中化又は分散化することができる。特定の単語及び句に対する定義は、本特許文書全般にわたって提供されるものであって、本発明の属する技術分野における当業者は、ほとんどの場合ではないとしても、多くの場合、そのように定義された単語及び句の今後の使用だけでなく、従来にも適用されるということを理解すべきである。
本発明及びその長所に対するより完全な理解のために添付された図面を参照して次の詳細な説明が行われる。図面における同じ符号は同じ構成要素を示す。
本発明の様々な実施形態を具現するために使用され得る電子装置を示した図である。 本発明の様々な実施形態によるイメージに対するフィードバック効果を生成するシステムを示した図である。 図2に示すシステムにおける再均衡モジュール(rebalancing module)の例示的な実施形態を示した図である。 本発明の様々な実施形態による潜在的なテクスチャ値に基づいてイメージパッチを分類するプロセスを示したフローチャートである。 本発明の例示的な実施形態による粗悪度(coarseness)、コントラスト(contrast)及び勾配(gradient)に対する平均値によって分類された他のクラスタからのパッチを示した図である。 本発明の例示的な実施形態によるテクスチャ(texture)マップ、強度(intensity)マップ、及びカラーマップに抽出された入力イメージの例を示した図である。 本発明の例示的な実施形態によるイメージに対するユーザタッチに応じて提供されたフィードバック効果を示した図である。 本発明の例示的な実施形態によるイメージに対するユーザタッチに応じて提供されたフィードバック効果を示した図である。 本発明の例示的な実施形態によるイメージで波及効果(ripple effect)を示した図である。 本発明の例示的な実施形態によるイメージでグロー効果(glow effect)を示した図である。 本発明の例示的な実施形態によるイメージでブラー効果(blur effect)を示した図である。 本発明の例示的な実施形態による抽出されたイメージ特徴とフィードバック効果との間の例示的なマッピングを示した図である。 本発明の例示的な実施形態による携帯電話のためのユーザインタフェースに表示されたイメージを示した図である。 本発明の様々な実施形態によるイメージに対するフィードバック効果を生成するプロセスを示した図である。 本発明の様々な実施形態によってイメージフィードバック効果をユーザに提供するプロセスを示した図である。
以下で図示された図1乃至12及び本明細書で本発明の原理を記述するために使用される様々な実施形態は単に説明のためのものであって、本発明の範囲を制限するものとして解釈されてはならない。本発明の原理は任意の適切に配置されたシステム又は装置で具現され得ることが当業者にとって自明である。
本発明の様々な実施形態は、触覚(haptic)フィードバック(feedback)が、特に、例えば、ノイズ環境で生産性を増加させることができることを認める。また、本発明の様々な実施形態は、触覚フィードバックが包まれるような感覚経験をやり取りするためのイメージのような視覚的コンテンツコンテキストに拡張されることができることを認める。イメージは、所望する場合、経験を思い出させる視覚的媒体で現在の感覚経験を維持する。しかし、場面での聴覚、タッチ及び他の感覚コンテンツはこの過程で捨てられる。感覚経験の一部は視覚、聴覚及び触覚効果が集中したアプリケーションを介してイメージを見る際に再度作られることができる。例えば、本発明の実施形態は、触覚フィードバックの強度をプローブの(probe)形状、ユーザが仮想表面でプローブを動かす速度及び仮想表面の形状に基づいて認識する。本発明の実施形態は、イメージに対する触覚フィードバックを結合しようとする既存のアプローチの限界が他の種類の触覚フィードバック結合の有効性を評価するための触覚及びユーザ研究の不足以外にも視覚及び聴覚効果の同時結合が不足していたことにあったことを認める。
また、本発明の様々な実施形態は、聴覚フィードバックがイメージ認知を向上させることができることを認める。例えば、聴覚フィードバックは、ユーザが画面で特別な種類のテクスチャをタッチする時、特別な音を発生するシステムを含む。本発明の実施形態は、そのようなシステムの限界が計算の複雑度にあることを認める。例えば、計算の複雑度は生成された様々な声を制限する場合がある。また、本発明の様々な実施形態は、視覚フィードバックが視覚的コンテンツを変更してイメージ認識を向上しようとするアプローチを含むことを認める。本発明の実施形態は、触覚及びオーディオのように視覚フィードバックシステムが拡張された手動調整が必要であることを認める。
よって、本発明の実施形態は、表示されたイメージに関連づけられたアプリケーションを利用したりイメージを見ているユーザに視覚、触覚及び所望の(例えば、自然的な及び/又は魅力的な)感覚フィードバックを提供するための他の感覚効果の調和を提供する。様々な実施形態は、ユーザがイメージの他の部分をタッチしている間、例えば、タッチに敏感なディスプレイユニットを使用して正常なイメージビューを超えた聴覚、視覚、及び触覚フィードバックをユーザに提供する。聴覚効果はユーザがイメージの特定の領域で指をタッチしたり動かしている間、特定の音を再生することを含む。触覚効果とも呼ばれる触覚効果は、ユーザがイメージの特定の領域で指をタッチしたり動かしている間、合成された触覚フィードバックを再生することを含む。触覚フィードバックの例としては、ハンドヘルド(handheld)装置で一般に使用できる触覚振動のオン−オフシーケンスがある。他のオン−オフパターンを有する他の振動シーケンスは振動を経験したユーザに他の感覚反応を引き出す。一方、視覚的効果は、例えば、ユーザがイメージをタッチしているポイント周辺を表示するイメージ区域のカラー及び強度を変更して視覚的コンテンツを変更する。このような3種の形態のフィードバックと、できる限り他の形態が体系的に選択され、これに対するパラメータは、ユーザプロファイル、装置タイプなどのような様々な要因によって左右され、イメージコンテンツの感覚認知を向上させる。
図1は、電子装置100に具現された様々な実施形態を説明する。図1の説明は他の実施形態が具現され得る方式を物理的又はアーキテクチャ的に制限することを意図しない。本発明の他の実施形態は、任意の適切に配置されたシステム又は装置で具現され得る。
図1は、本発明の様々な実施形態を具現するために使用され得る電子装置100を示した図である。例えば、一部の実施形態において、電子装置100は、タッチスクリーンが使用可能な装置であって、イメージに関連づけられた聴覚、視覚及び/又は触覚フィードバックを電子装置100のユーザに提供する。一部の実施形態において、電子装置100は、イメージの特徴を確認してイメージとともに提供される聴覚、視覚、及び/又は触覚フィードバックに対するパラメータを生成する。制限的でない例を挙げると、電子装置100は、サーバ(server)コンピュータ、個人用(personal)コンピュータ、ラップトップ(laptop)コンピュータ、タブレット(tablet)コンピュータ、携帯電話(mobile phone)、PDA(personal digital assistant)、TVなどである場合がある。
本例示的な実施形態において、電子装置100は、アンテナ105、無線周波数(RF)トランシーバ110、送信(TX)処理回路115、マイク120及び受信(RX)処理回路125を含む。また、電子装置100は、スピーカ130、プロセッサ140、入出力(I/O)インタフェース(IF)145、キーパッド150、タッチスクリーン155、及びメモリ160を含む。メモリ160は、基本オペレーティングシステム(OS)プログラム165をさらに含む。
本発明の有利な実施形態において、プロセッサ14は、マイクロプロセッサ又はマイクロコントローラである。メモリ160は、プロセッサ140と結合される。本発明の有利な実施形態によれば、メモリ160の一部は、ランダムアクセスメモリ(RAM)を含み、メモリ160の他の一部は、読み出し専用メモリ(ROM)として動作するフラッシュメモリのような不揮発性メモリを含む。
プロセッサ140は、電子装置100の全体動作を制御するためにメモリ160に保存された基本オペレーティングシステム(OS)プログラム165を実行する。そのような動作で、プロセッサ140は、周知の原理に従って、無線周波数(RF)トランシーバ110、受信処理回路125、及び送信処理回路115による順方向チャネル信号の受信及び逆方向チャネル信号の送信を制御する。
本例示的な実施形態において、また、電子装置100は、スピーカ130、プロセッサ140、入出力(I/O)インタフェース(IF)145、キーパッド150、タッチスクリーン155、及びメモリ160を含む。メモリ160は、基本オペレーティングシステム(OS)プログラム165をさらに含む。
プロセッサ140は、メモリ160に常駐する他のプロセス及びプログラムを実行できる。様々な実施形態において、プロセッサ140は、フィードバックプログラム170のプログラムコードを実行してイメージに対する聴覚、視覚及び/又は触覚フィードバックを生成及び/又は提供する。プロセッサ140は、実行プロセスによって要求されるようにメモリ160へ/からデータを移動させることができる。また、プロセッサ140は、入出力(I/O)インタフェース145と結合される。I/Oインタフェース145は、電子装置100とラップトップコンピュータ及びハンドヘルドコンピュータのような他の装置を接続する能力を提供する。I/Oインタフェース145は、該アクセサリ及びプロセッサ140の間の通信経路である。
また、プロセッサ140は、キーパッド150及びタッチスクリーン155と結合される。一部の実施形態において、電子装置100のユーザはキーパッド150を使用して電子装置100にデータを入力できる。別の実施形態において、電子装置100は、タッチスクリーンを使用してユーザ入力を受信することができる。例えば、タッチスクリーン155は、例えば、抵抗式、又は静電容量式タッチプレートのようなタッチプレート及びディスプレイをすべて含むことができる。タッチスクリーン155でディスプレイは、例えば、テキスト及び/又は少なくともウェブサイトからの制限されたグラフィックをレンダリングできる液晶ディスプレイ、発光ダイオードディスプレイ及び/又は有機発光ダイオードディスプレイである場合がある。代案的な実施形態は、他のタイプのディスプレイを使用することができる。
触覚フィードバック装置175は、触覚フィードバックを提供する装置である。例えば、触覚フィードバック装置175は、モータを含んで電子装置100に動き及び/又は振動を生成して電子装置100のユーザに触覚フィードバックを提供する。センサ180は、電子装置100が位置する環境の条件を感知するセンサである。制限的でない例を挙げると、センサ180は、近接センサ、光センサ又は電子装置100が位置する環境の条件を感知する他の形態のセンサであり得る。様々な実施形態において、電子装置100は、フィードバックタイプに対する制限条件の決定にセンサ180を使用してイメージとともに提供できる。
電子装置100及びその中に含まれたコンポーネントに対する説明は例示的なものであって、本発明の原理に従って具現され得る様々な実施形態に物理的な又はアーキテクチャ的な制限を加えることを意図しない。例えば、必要な電子装置タイプによって、電子装置100の実施形態は、図1に示す全てのコンポーネントを含まない場合もある。例えば、個人用コンピュータ、又はサーバコンピュータのようなコンピュータはLAN及びカードを使用して有線接続を介して通信することができ、例えば、アンテナ105、無線周波数(RF)トランシーバ110、送信(TX)処理回路115、マイク120及び/又は受信(RX)処理回路125のような無線通信素子を含まない場合がある。様々な実施形態において、電子装置100は、マウスを使用するユーザからカーソル入力を受信できる、又は電子装置100はキーパッド150を含まない場合がある。別の実施形態において、電子装置100がイメージに対する聴覚、視覚及び/又は触覚フィードバックパラメータの生成のみを行う場合、電子装置100は、センサ180及び/又は触覚フィードバック装置175を含まない場合がある。別の実施形態において、イメージを表示する電子装置100は、提供され得るフィードバックタイプに対する物理的な制限を有する場合がある。例えば、そのような実施形態において、電子装置100は、触覚フィードバック装置175を含まない場合があり、タッチスクリーンが使用可能ではない場合があり、スピーカ130を含まない場合がある。
図2は、本発明の様々な実施形態によるイメージに対するフィードバック効果を生成するシステム200を示した図である。本例示的な実施形態において、システム200は、特徴の抽出及びフィードバック効果の間のマッピングを介してイメージに対するフィードバック効果を生成する。システム200は、例えば、図1に示す電子装置100及びフィードバックプログラム170によって具現され得る。
本例示的な実施形態において、システム200は、聴覚、視覚、触覚及び他の感覚効果に対するアプリケーション及び調和を提供して所望の(例えば、自然的な及び/又は魅力的な)感覚フィードバックをユーザに提供する。システム200は、コンテンツ及びユーザインタラクション(user interaction)のような入力を受信する入力モジュール205を含む。入力コンテンツは、グラフィック、写真、背景などのようなイメージを含むことができる。ユーザインタラクション入力は、タッチスクリーンへのユーザタッチ入力座標、又はマウスを使用したカーソル又はポインタ入力座標を含むことができる。システム200は、イメージに対する理想的な認知を判断するための理想的な認知を確認するイメージ認知モジュール210を含み、表示されたイメージにある場面に実際に存在する観察者に対するシミュレーションを提供する。また、システム200は、再均衡(rebalancing)モジュール215を含んでイメージ特徴の抽出及びフィードバック効果の間のマッピングを使用してイメージに対して新しい所望の認知を可能にする。所望の認知が可能なように再均衡モジュール215は、特徴抽出モジュール220及び効果生成モジュール225を含む。
様々な実施形態において、特徴抽出モジュール220は、以下で論議されるように、イメージから様々なイメージテクスチャ特徴を確認及び/又は抽出する。そのような特徴の例は、田村(Tamura)テクスチャ特徴、局所勾配ベクター(local gradient vector)などを含む。特徴抽出モジュール220を使用して抽出された特徴はイメージとともに提供される効果のパラメータ推定に使用されるべき局所イメージ特性を測定するように期待される。別の例において、特徴抽出モジュール220は、場面の要素(例えば、芝、木、人々等)を認識することができ、局所の又はクラウドベースのオブジェクト認識システム使用を含むことができる。
様々な実施形態において、効果生成モジュール225は、特徴抽出モジュール、イメージ自体、及びユーザが装置と対話する方式(例えば、ユーザが装置をタッチしていたりカーソル入力が検出された位置のxy座標)を確認してイメージに対する聴覚、視覚及び触覚効果を含むことができる感覚フィードバックを生成する。以下、効果生成モジュール225によって提供され得る様々な聴覚、視覚及び触覚効果が詳しく論議される。一部の方式において、視覚効果は表示されているイメージを変形するが、一方で、聴覚及び触覚効果はイメージを表示する装置によって直接再生されて及び/又は提供される。
再均衡モジュール215は、その後、様々な効果をイメージの適用可能な区域にマッピングしてイメージ効果を提供する出力パラメータ230を生成する。例えば、出力パラメータ230はあるイメージの他の区域にマッピングされるイメージに対する効果のライブラリに保存された効果を提供する命令であり得る。ユーザが入力座標を提供する場合、システム200は、ライブラリからの出力パラメータ230とユーザ入力座標に該当する領域の間のマッピングを確認する。確認された出力パラメータ230は、検索及び処理されて所望のフィードバック効果を提供する。
図3は、図2に示すシステム200内の再均衡モジュール215の例示的な実施形態を示した図である。様々な実施形態において、特徴抽出モジュール220は、入力データ305(例えば、イメージ)を受信し、例えば、テクスチャ、強度、カラー及び/又はタッチ又はカーソル入力のようなイメージとのユーザインタラクションなどのようなイメージの特徴を抽出及び/又は確認する。本実施形態において、特徴抽出モジュール220は、同時生起行列(co−occurrence matrices)、マルコフランダムフィールド(Markov random fields)、ガボー(Garbor)テクスチャ特徴及び田村特徴を含む様々な技術を使用してイメージ特徴を抽出できる。テクスチャ特徴抽出のための追加的な技術は、例えば、本発明に参照として含まれたTuceryan,M.,and Jain,A.K.,C.Chen,L.Pau,and P.Wangの“The Handbook Pattern Recognition and Computer Vision”、World Scientific Publishing Co.,1998の特に2.1章の“Texture Analysis”に記載されている。同時生起行列、マルコフランダムフィールド、ガボーテクスチャ特徴及び田村特徴は、主にテクスチャ分類に使用されるが、この方法に対する値が与えられる場合、テクスチャ種類を推論したり視覚化することは難しい場合がある。一方、田村テクスチャ特徴は、特にそれぞれ他の特徴に意味を提供する。6つの田村特徴は粗悪度(coarseness)、コントラスト、方向性、線類似性(line likeness)、規則性及び粗さ(roughness)を含み、本発明に参照として含まれた“Texture features corresponding to visual perception” by H.Tamura,S.Mori,and T.Yamawaki in IEEE Transactions on Systems,Man,and Cybernetics,vol.SMC−8,no.6,1978,460−473,論文に詳細に記載されている。
粗悪度は、基本的にイメージでテクスチャ要素の大きさを定量化する。テクスチャで要素が大きいほどより粗い。例えば、大きな石に対するイメージは小さな石に対するイメージに比べ粗い。拡大されたイメージバージョンは元のイメージに比べ大きい粗悪値を有すると知られる。コントラストは、基本的にイメージ内の局所的に存在する強度値の範囲を測定する。例えば、黒/白チェッカー板イメージは空のイメージに比べ大きなコントラストを有する。方向性は、優勢な(dominant)勾配を有する他の方向の数を定量化する。例えば、窓ブラインドに対するイメージは、石イメージに比べさらに方向性を有する。線類似性は、イメージに存在する薄い線の量を測定する。例えば、ワイヤメッシュ(wire mesh)イメージは石イメージに比べ線のように見える。規則性は、テクスチャ要素がどのくらい規則的に位置するかを測定する。例えば、層をなしたブロックのイメージはガラスのイメージに比べ規則的である。荒さは、粗悪度とコントラスト値の合計で得られる。テクスチャがどのくらい粗く認知されるかを測定する。田村特徴の以外にも特徴抽出モジュール220は、ソーベル(Sobel)演算子を使用して計算されたイメージ勾配を使用してタッチされた位置を多くの所定のカテゴリーのうち1つに分類できる。局所テクスチャカテゴリーは順に再生される聴覚、視覚及び触覚効果を決定するために使用される。
別の例において、また、特徴抽出モジュール220は、イメージの強度及びカラーに対する値を確認してフィードバック効果のマッチングのための確認された特徴として使用することができる。例えば、図6は、本発明の例示的な実施形態によるテクスチャマップ605、強度マップ610、及びカラーマップ615に抽出された入力イメージ600の例を示した図である。この例で、特徴抽出モジュール220は、イメージ600で様々なポイントに対するテクスチャ、強度及び/又はカラー値を確認し、フィードバック効果は、イメージのテクスチャ、強度及びカラーのうち1つ以上にマッピングされることができる。例えば、特徴抽出モジュール220は、テクスチャ値の範囲、強度及び/又はカラーを確認し、再均衡モジュール215が聴覚、視覚効果及び/又は触覚効果の該当範囲をマッピングすること(例えば、振動周波数又は強度)を理解できる。
一部の実施形態において、システム200は、潜在的なテクスチャ、強度及び/又はカラー値に基づいてイメージ区域、パッチ、又は区域を分類し、視覚、触覚及び聴覚効果パラメータを分類されたイメージ区域、パッチ、又は区域のそれぞれにマッピングできる。例えば、図4は、本発明の様々な実施形態による潜在的なテクスチャ値に基づいてイメージパッチを分類するプロセスを示したフローチャートである。本実施形態において、システム200は、イメージを受信し(ステップ400)、イメージを複数の領域、パッチ又は区域に分割する(ステップ405)。システム200は、各パッチのポイント又はピクセルのテクスチャを分析する(ステップ410)。例えば、システム200は、田村特徴を抽出してイメージ内の勾配を確認する。システム200は、抽出された特徴に基づいて各パッチを分類する(ステップ415)。例えば、システム200は、タッチされた位置を所定のカテゴリーに分類するように計算されたイメージ勾配を使用しパッチで特徴を分類できる。以降、システム200は、イメージの各パッチを分類する(ステップ420)。例えば、システム200は、例えば、粗悪度、コントラスト、方向性、線類似性、規則性及び粗さのような田村特徴のすべてに対する様々なレベルにパッチを分類できる。パッチのカテゴリーは順に聴覚、視覚、及び触覚効果が再生されたり、そのパッチに対するユーザ入力に関連づけられるように決定するために使用される。
図5は、本発明の例示的な実施形態による粗悪度、コントラスト及び勾配の平均値によって分類された他のクラスタ(cluster)からのパッチを示した図である。本例示的な実施形態において、システム200は、テクスチャパッチプール(pool)(例えば、50x50のサイズ)で粗悪度、コントラスト及び局所勾配の大きさを抽出し、K−平均(means)クラスタリングを使用してパッチをクラスタリングしてk個の互いに異なるクラスタセットを生成する。
イメージ特徴を確認した後、システム200は、1つ以上のフィードバック効果を確認されたイメージ特徴に割り当て、生成及び/又はマッピングする。様々な実施形態において、該フィードバック効果は、少なくとも3種のタイプ、すなわち、聴覚、視覚及び触覚を含む。本発明の様々な実施形態で使用された視覚効果は3種以外のタイプ:変位(displacement)効果、照明効果、及びブラー(blur)効果を含む。
変位効果は、ユーザが領域をタッチする際のイメージ内の一部の領域の移動を含む。この効果は、動きによってタッチに反応する場面に存在する物理的なオブジェクトを摸写する(simulate)。変位効果の例は、以下で詳しく説明される波及(Ripple)効果である。一方、照明効果は、イメージで一部の領域を強調(highlight)するために使用される光源を摸写する。光源は他のカラーの波長を有する特定のカラーのセットを含むことができる。照明効果の例は、以下で詳しく説明されるグロー(glow)効果である。視覚効果の第3のカテゴリーは、素早く動くオブジェクトを見る時、特にオブジェクトが焦点から離れた時、基本的に人間の認知の限界を強調するイメージの一部の領域をぼかすことを含む。ブラー効果の例は、以下で詳しく説明されるモーションブラー(motion−blur)効果である。この効果は互いに相補的であるとともに、順に又は同時に再生されたり提供され得る。
図8Aは、本発明の例示的な実施形態によるイメージで波及効果を示した図である。図示のように、波及効果は、ユーザが水の表面をタッチしていれば水が画面上に広がるシナリオを摸写する。ここで、各ピクセルの位置はその位置における水の高さに基づいて更新されることができる。各フレームで、特定のポイントで水の高さは前の2フレームの隣接ポイントだけでなくそのポイントにおける水の高さを使用して決定される。ユーザが画面をタッチすると、タッチポイントの隣接領域でその瞬間表示されたイメージフレーム内の水の高さは特定のレベルまで上がる。その効果は前のフレームによって左右されるため、効果は後続のフレームで継続して再生され、イメージ上を流れる波の感覚が認知される。この効果を摸写する2つのパラメータがあって、ユーザがイメージをタッチする時、水の高さが影響を受ける円形の周囲領域の大きさとダンピング(damping)パラメータである。ダンピングパラメータは、基本的に摸写された流体の粘性を摸写する。ダンピングパラメータ値が小さければ、波は流体の粘性が非常に高いと認知されることを表して非常に速く消える。一方で、ダンピングパラメータ値が可能な最大値(すなわち、1)を有する場合、波は中止されない。
図8Bは、本発明の例示的な実施形態によるイメージでグロー効果(glow effect)を示した図である。この例で、ユーザが現在、表面をタッチしている位置周辺の領域は効果パラメータに基づいて変更される。波及効果とは違って、この効果は一時的な効果である。これはユーザが画面をタッチしている位置を変更した途端、効果もそれに従って動くということを意味する。現在の具現では、表示されているイメージに関連づけられたカラー値の強度コンポーネントを増加させるグロー類似(glow−like)効果が生成される。特定のポイント(x,y)でイメージのRGBカラー値がそれぞれr、g、及びbであれば、更新されたカラー値は下記式1によって計算できる。
Figure 2015531932
ここで、Xは、この効果によって影響を受けるイメージ区域の大きさを調節するために使用されるパラメータで、Dは、タッチポイントの位置から考慮された現在のピクセルのユークリッド(Euclidean)距離で、Fは、効果の強度を調節するパラメータである。常数RMAX、GMAX、及びBMAXは、赤、緑、及び青に対して許容された最大値を表す。
図8Cは、本発明の例示的な実施形態によるイメージでブラー効果を示した図である。モーション効果は、ユーザがイメージを横切って指を動かしており、ユーザがイメージをタッチしている領域でイメージが局所的にぼかされるシナリオを摸写する(simulate)。ぼかされる方向はユーザが指を動かしている方向と同じである。グロー効果と類似してこの効果は局所的かつ一時的である、すなわち、ブラーは、その値がユーザが画面をタッチするポイント周辺で効果パラメータで調整されることができる半径内の領域でのみ現れる。ユーザが現在、(Tx,Ty)ポイントでタッチしており、ユーザが指を動かす速度が(Vx,Vy)であれば、効果はそのピクセル自体を含む7個の隣接ピクセルのピクセル値に対する加重平均を行う。この7という値のパラメータは例示的なものであって、他の値も使用され得る。このモーションブラー効果を調節するために使用されるパラメータは選択された隣接ポイントのタッチポイントからの距離を決定する効果の大きさである。モーションブラー効果の他のパラメータはカラー値がこの効果の結果によって影響を受けるタッチポイント周辺の領域である。
上述したものと類似に使用され得る視覚効果の追加的かつ非制限的な例は以下を含む:3Dメッシュレンダリング(3D mesh rendering);スポットライト(spotlight);カラーシフティング(color shifting);メッシュ分解ポリゴン(mesh explode polygons);ポイントライト(point light);セピアトーン(Sepia tone);波(wave);方向性光(directional light);レンヴィネット(len vignette); ウォータフィル(water fill);ピクセル別照明(per pixel lighting);メタル、ラバー又はウッドシェーディング(metal、rubber or wood shading);フィッシュアイ(fish eye);影(shadows);バンプマッピング(bump mapping);ライトニング(lightning);ファイヤー(fire);ファー(fur);スモーク(smoke);ファイヤーボール(fireball);遅延(dilation);霧(fog);水性ペイント(water paint);侵食(erosion);拡大鏡(magnifying glass);一時的なカーテン効果(ephemeral curtain);シャープ効果(sharpen);雪粒子(snow particles);グロー(glow);エンボス(emboss);ピクシーダスト(pixie dust); ブルーム(bloom);モノクロ(black and white);チェリーブロッサムパーティクル(cherry blossom particles);ヒートウェーブ(heat wave);クロスハッチ(cross hatch);他の粒子効果(other particle effects);サイン波(sine waves);カートゥーンシェーディング(cartoon shading);反射(reflection);熱画像(thermal vision)(プレデターモード(predator mode));ネガティブ(negative);屈折(refraction);ナイトビジョン(night vision);ジェロゼラチン効果(Jell−O gelatin effect);モーションブラー(motion blur);ソーベルエッジ検出(Sobel edge detection);クロスリップル(cloth ripple);モーショントレーラー(motion trailer); ラプラシアンエッジ検出(Laplacian edge detection);ジニーエフェクト(genie effect);レンズフレア(lens flare);ブライトン(brighten);TV静的(static)ノイズ(noise);ゴッドレイ(god rays);ダークン(darken);反転タイル(flipping tiles);ガウシアンブラー(Gaussian blur);色づけ(colorize); ポリゴンビデオ(video on polygons);デプスオブフィールド(depth of field);カラーチャネル及びメッシュ変形除去(remove color channels and mesh deformations)。
また、本発明の様々な実施形態は、触覚フィードバック効果を提供する。触覚フィードバック効果は、オン−オフスイッチング回路によって駆動される非対称の重み値を有するコアレス(coreless)DCモータを使用して生成される振動触覚(vibrotactile)フィードバックを含むことができる。オン−オフスイッチングソフトウェア(例えば、イマージョン(immersion)ソフトウェア)は、様々なスイッチングシーケンス(例えば、振動周波数及びパターン)を提供でき、それぞれは装置をタッチするユーザによって特定のセンサ応答を引き出すために使用され得る。任意の他のソフトウェアで駆動される触覚/触覚フィードバックも使用され得る。例示的な一実施形態において、図7Aに示すように、ユーザが水が存在するイメージ上の区域をタッチすると、穏やかな又は低い周波数振動が再生され得る。別の例において、図7Bに示すように、ユーザが岩をタッチすると、より強いまたはより高い周波数の振動が再生され得る。
また、本発明の様々な実施形態は、聴覚フィードバック効果を提供する。例えば、ユーザがタッチに敏感な画面をタッチした途端、サウンドが再生され始めることができる。再生される特定のサウンドはタッチポイントに関連づけられてテクスチャ特徴値に基づいて決定されることができる。一部の例において、サウンドはユーザが画面をタッチしている限りループ内で継続して再生されることができる。再生されるサウンドは局所的なテクスチャ特徴又はカラー値によって変わることができる。例えば、再生速度、サウンド強度又はサウンドタイプが変わることができる。
一部の例において、再生速度はユーザがイメージをタッチしているポイントに関連付けられたピクセルのテクスチャ特徴又はカラー値の関数で計算されることができる。テクスチャ特徴又はカラー値をサウンド再生速度にマッピングするために使用される関数は任意的な場合がある。例示的な関数として、再生速度sはs=s*(fd)で計算されることができ、ここで、fは、掛け算因子で、dは、タッチポイントで特定のテクスチャ特徴を測定する1以上の整数である。上記例で、速度sはサウンドが正常速度のs倍で再生されていることを意味する。d値はイメージテクスチャの任意の単調な(monotonic)又は非単調な関数であり得る。一部の例において、再生されるサウンド強度は、再生速度計算に使用されるものと類似の方式で計算されることもできる。
一部の例において、再生速度又はサウンド強度の変更と同様に、再生されたサウンドタイプもタッチポイントでテクスチャ特徴値に基づいて変更され得る。サウンドの2種の異なるカテゴリー−自然及び合成が使用され得る。自然的なサウンドはサウンドが自然に存在する場所(例えば、滝)からマイクを使用して録音され、合成サウンドはサウンドのオーディオ波形を特定して生成される。合成サウンドの例は、特定の周波数を有するサンプリングされたサイン(sine)波形である。別の例において、サウンド又は単語の他のライブラリタイプは特定の確認された特徴にマッピングされることができる。例示的な一実施形態として、図7Aに示すように、ユーザが水が存在するイメージ上の区域をタッチすると、水が流れるように心を落ち着かせるサウンドが再生されることができる。別の例において、図7Bに示すように、ユーザが岩をタッチすると、衝突雑音のようなより激しいサウンドが再生されることができる。さらに別の例において、「水」又は「岩」に対する単語の録音が再生されることができる。そのような実施形態は、特に視覚が損傷している人及び語彙を学ぶ子供を助けるために有用である場合がある。
本発明の様々な実施形態において、効果は抽出されたイメージテクスチャ特徴に基づいて変更され得る。図9は、本発明の例示的な実施形態による抽出されたイメージ特徴とフィードバック効果の間の例示的なマッピングを示した図である。本実施形態において、システム200は、ユーザが表面をタッチする方式だけでなく潜在的なイメージテクスチャに基づいてフィードバック効果パラメータを決定する。この例示的な実施形態において、6つの主な要因がフィードバック効果を調節するために使用される。
この例示的な実施形態において、抽出された粗悪度の値はグロー効果のサイズパラメータを決定するために使用され得る。粗悪度が大きいほどパラメータのサイズが大きくなる。このような連関性は、大きな要素を有するテクスチャが小さな要素を有するテクスチャに比べてユーザにイメージのより大きな領域に集中させるという事実に基づく。この効果を達成するために、グローの半径はユーザの選好に基づいて正規化された粗悪度の値に掛けられ得る。一般的な粗悪度の値を使用すると、照明タイプの視覚的効果によって影響を受けるイメージ区域の大きさを増加させるようになる。
フリック(flick)速度は、ユーザがディスプレイ上で指(又はカーソル)を動かす速度である。この例で、フリック速度はモーション効果を調節するために使用される。速度が大きいほどモーションブラーのサイズ又は任意のブラータイプの視覚効果のサイズも大きくなる。フリック方向はユーザがディスプレイ上で指(又はカーソル)を動かす方向である。この例で、フリック方向もイメージがフリック方向のみに従ってぼかされるモーション効果を調節するために使用される。
勾配の大きさは、x、y方向のすべてに関連付けられたソーベル(Sobel)カーネルを有するイメージをコンボリューション(convolution)して計算された値である。一例として、3x3ソーベルカーネルはx、y方向のすべてに対して使用され得る。この例で、勾配の大きさは波及効果を調節するために使用され得る。高い勾配値は、当然、より大きいダンピング(damping)を引き起こさなければならないので、ダンピングファクターは勾配値と掛けられ得る。したがって、波はより大きな勾配を有する地域に比べ速く流れない。勾配値は一般に変位タイプの視覚的効果で変位量を制限するために使用され得る。勾配方向は勾配に関連付けられた方向である。この例で、勾配方向は、基本的に後述の妨害(obstruction)値の決定に使用される。
妨害値は、基本的にフリック方向による勾配量を決定する。フリックベクター(Fx,Fy)及び勾配ベクター(Gx,Gy)が与えられると、妨害値はフリックベクターと勾配ベクターの内積(すなわち、O=Fx*Gx+Fy*Gy)で計算される。この例で、妨害値は、順に聴覚及び触覚効果を調節するために使用される。妨害値が大きいほど期待されるフィードバックを引き出すことに関連付けられたエネルギーが大きくなる。聴覚及び触覚効果でエネルギーは強度及び周波数のような特性に関連づけられることができる。
このパラメータが関連づけられた効果に適用される前に、その値はユーザの選好度によって調節されたり変更され得る。機械学習(machine−learning)システムもユーザプロファイルに基づいてユーザ選好度を推論するように設計されることができる。図9に示したマッピングは例示的なものであって、本発明の原理に従って具現され得る他のマッピングの数又はタイプに対する制限を暗示しない。
図10は、本発明の例示的な実施形態による携帯電話1000のためのユーザインタフェース1005に表示されたイメージを示した図である。本実施形態において、携帯電話1000は、図1における電子装置100の一例である。この例で、携帯電話1000のタッチスクリーン1010は、ユーザインタフェース1005で着信電話に関連付けられたイメージ1015(例えば、着信電話又はユーザオプションに関するグラフィック)を表示する。また、ユーザインタフェース1005は、ショートメッセージ応答、電話通話及び電話拒否オプションのうち1つを送信する電話処理に対するオプションを表示する。
この実施形態において、システム200は、該イメージ1015に対するフィードバック効果を生成してユーザがイメージ1015を認識することを助け、着信電話に応答することを助ける。例えば、ユーザは、携帯電話1000を聞いたり見たりすることに制限がある会議中、または映画を観ている場合がある。この例で、携帯電話1000は、ユーザに触覚フィードバックを提供してイメージ1015を認知したり着信電話に応答するように助けることができる。例えば、ユーザは、電子装置の隅の一箇所をタッチして電話処理のためのオプションのうち1つを選択するように促す振動を感じることができる。非制限的な例において、電話を受けるためにイメージ1015の一区域をタッチすると、短い1つの振動触覚パルスフィードバックをトリガーすることができ、「拒否」をタッチすると長い1つの振動触覚パルスフィードバックをトリガーすることができる。同様に、「後ほど電話させていただきます」というショートメッセージを送るためにイメージ1015の一区域をタッチすると、2つの振動触覚パルスフィードバックがトリガーされ、「今は通話できません。どのようなご用件でしょうか?」 というテキストをタッチすると、3つの振動触覚パルスフィードバックがトリガーされ得る。すると、ユーザは、携帯電話1000を見る必要なく電話に応答するためのオプションのうちいずれかを選択したかを知り、これはユーザが携帯電話1000を見られない状況にある場合、有利であり得る。他のテキストに関連付けられた触覚振動パルスパターンは他のテキストボックスに対する背景イメージとして示され得る、異なるようにテクスチャされたイメージに関連付けられたパラメータとして得られることができる。
上述した例示的な実施形態で論議され、図示されたように、システム200は、イメージに対するフィードバック効果パラメータを生成することにおいて、制限条件310内の要因を確認することができる。制限条件310は、例えば、イメージを表示する装置の物理的な制限条件及び、ユーザが装置を見ることができなかったり(例えば、ユーザのポケットに装置があったりユーザが運転中であったりユーザに視覚障害があったり等)、現在の環境で雑音が容認されない場合(例えば、装置が黙音モード)又はタッチが意図されていない装置(例えば、コンピュータモニタ又はTV)のような環境的な制限条件が与えられた場合に提供され得るフィードバック効果様態(modalities)の数及びタイプに対する制限である。システム200は、イメージを表示する装置(例えば、タッチスクリーンが使用できない装置は触覚フィードバック装置175を含まず、スピーカ130などを含まない)でコンポーネントに関する情報及び装置の設定(例えば、装置が黙音動作モード、駆動動作モード、非ディスプレイ動作モードなどである)からこの制限条件を確認することができたり、又はセンサ180を使用して、例えば、光又は近接検出(例えば、光が感知されなかったり装置が識別されて/遮断されて視覚フィードバック効果が制限される場合がある)を介して自動的に確認されることができる。
制限条件310を確認した時、システムは、イメージとともに提供されたフィードバック様態を制限できる。例えば、ユーザが運転中であるか、視覚障害を持つ場合、イメージとともに提供されたフィードバック様態は触覚及び聴覚フィードバック効果に制限されることができる。別の例において、ユーザが会議中であるか、映画を観ている場合は、イメージとともに提供されたフィードバック様態は触覚効果に制限されることができる。別の例において、ユーザがイメージをプロジェクタやTVで見せたりウェブサイトにアップロードしたりする場合、イメージとともに提供されるフィードバック様態は、視覚及び聴覚フィードバック効果に制限されることができる。さらに別の例において、医者が重要な収差(aberration)観察で失敗しないように医療イメージを感じることを希望する場合は、フィードバック効果は触覚フィードバック効果に制限されることができる。
このような制限点は、イメージを表示する前に含まれ、後の表示に関連づけられて保存されることができる。例えば、システム200は、表示の際、1つ以上のフィードバック様態が制限されるイベントで表示されたイメージに提供されるフィードバック様態に対する他のオプションを含むことができる。別の例において、システム200は、イメージ表示の際、確認された制限条件310に基づいてイメージに対するフィードバック効果を生成できる。
図11は、本発明の様々な実施形態によるイメージに対するフィードバック効果を生成するプロセスを示した図である。例えば、図11に示すプロセスは、図1の電子装置100又は図2のシステム200によって行われることができる。
プロセスは、イメージ区域で特徴(複数可)を確認することによって開始される(ステップ1105)。例えば、ステップ1105にて、プロセスは、様々なイメージ区域に関連付けられたテクスチャ、強度及びカラーを確認することができる。また、プロセスはイメージにあるオブジェクトを確認する。領域内の特徴であるユーザのタッチ又はフリックのようなイメージとのインタラクションに基づいて抽出されて確認されることができる。
その後、プロセスは、特徴(複数可)を複数のフィードバック効果様態のうち少なくとも1つにマッピングする(ステップ1110)。例えば、ステップ1110にて、プロセスはイメージ又は特定の領域内の特徴を提供される他のフィードバック効果にマッピングできる。複数のフィードバック効果様態は1つ以上の視覚フィードバック効果、1つ以上の触覚フィードバック効果及び1つ以上の聴覚フィードバック効果を含むことができる。このステップの一部として、また、プロセスは、どのフィードバック効果様態がマッピングされることができるかに対する制限条件を確認する。また、プロセスは、ユーザのフリック方向又は速度のようなイメージとのインタラクションに基づいてフィードバック効果をマッピングできる。
その後、プロセスは、フィードバック効果出力に対するパラメータを生成する(ステップ1115)。例えば、ステップ1115にて、プロセスはユーザがタッチ又はカーソルを介してイメージとインタラクションを行う時、フィードバック効果を提供するようにパラメータを生成できる。その後、プロセスは、生成されたパラメータをイメージに関連づけて保存する(ステップ1120)。例えば、ステップ1120にて、プロセスは、イメージ区域に該当するユーザ入力座標に応じてイメージに関連づけられたユーザインタフェースがユーザに複数のフィードバック効果様態のうち少なくとも1つを提供するように生成されたパラメータを保存することができる。このプロセスの一部として、ユーザは生成されたパラメータ値を変更できる。
図12は、本発明の様々な実施形態によってユーザにイメージフィードバック効果を提供するプロセスを示した図である。例えば、図12に示すプロセスは、図1の電子装置100又は図2のシステム200によって行われることができる。
プロセスは、イメージを表示することによって開始される(ステップ1205)。例えば、ステップ1205にて、プロセスは、タッチスクリーンが使用可能な装置を使用してイメージを表示できる。その後、プロセスは、ユーザから入力を受信する(ステップ1210)。例えば、ステップ1210にて、入力はタッチスクリーンのタッチを介して又はマウスのカーソルを介して行われることができる。その後、プロセスは、ユーザ入力に該当するイメージ座標を確認する(ステップ1215)。例えば、ステップ1215にて、プロセスは、イメージ上のタッチ又はカーソル位置に対するx,y座標を確認することができる。また、プロセスは、フリック方向及び速度のようなイメージとのインタラクションの特徴を確認することができる。
その後、プロセスは、イメージ区域で特徴(複数可)にマッピングされたフィードバック効果(複数可)を確認する(ステップ1220)。例えば、ステップ1220にて、プロセスは、ユーザ入力に該当するイメージで抽出された特徴に基づいてフィードバック効果を生成できる。また、プロセスは、イメージ区域又は特徴と、フィードバック効果との間の保存されたマッピングからフィードバック効果を確認することができる。フィードバック効果は1つ以上の視覚フィードバック効果、1つ以上の触覚フィードバック効果及び1つ以上の聴覚フィードバック効果を含むことができる。このステップの一部として、また、プロセスは、他のフィードバック効果タイプに対する制限条件を確認し、どのフィードバック効果が提供されるかを制限できる。
その後、プロセスは、フィードバック効果(複数可)を提供する(ステップ1225)。例えば、ステップ1225にて、プロセスは、検出されたユーザ入力に反応して1つ以上の視覚フィードバック効果、1つ以上の触覚フィードバック効果及び/又は1つ以上の聴覚フィードバック効果を提供できる。
図11及び12は、それぞれイメージに対するフィードバック効果を生成してユーザにイメージフィードバック効果を提供するプロセスの例を図示しているが、図11及び12に様々な変更が行われることができる。例えば、一連のステップとして図示されたが、各図面内の様々なステップは、重複したり並列して起こったり他の順番で起こったり、又は複数回起こったりすることができる。
本発明が複数の例を挙げて説明されたが、様々な変化及び変更が当業者に提示されることができる。本発明は、そのような変更及び変形が添付された請求の範囲内に属するように包括することが意図される。
100 電子装置
105 アンテナ
110 無線周波数(RF)トランシーバ
115 送信(TX)処理回路
120 マイク
125 受信(RX)処理回路
130 スピーカ
140 プロセッサ
145 入出力(I/O)インタフェース(IF)
150 キーパッド
155 タッチスクリーン
160 メモリ
165 基本オペレーティングシステム(OS)プログラム
170 フィードバックプログラム
175 触覚フィードバック装置
180 センサ
200 システム
205 入力モジュール
210 イメージ認知モジュール215 再均衡モジュール
215 再均衡(rebalancing)モジュール
220 特徴抽出モジュール
225 効果生成モジュール
230 出力パラメータ

Claims (15)

  1. イメージ(image)に対するフィードバック(feedback)効果を提供する方法において:
    イメージ区域で1つ以上の特徴を確認するステップ;
    前記1つ以上の特徴を複数のフィードバック効果様態のうち少なくとも1つにマッピング(mapping)するステップ;及び
    前記イメージ区域に該当するユーザ入力の座標に応じて前記イメージに関連づけられたユーザインタフェースは、ユーザに複数のフィードバック効果様態のうち少なくとも1つを提供するようにフィードバック効果の出力のためのパラメータを生成し、前記イメージに関連づけて生成されたパラメータを保存するステップを含むことを特徴とする方法。
  2. イメージに対するフィードバック効果を提供するシステムにおいて:
    少なくとも1つのプロセッサ;及び
    プログラムコードを保存する少なくとも1つのストレージ装置を含み、
    前記プロセッサは、
    イメージ区域で1つ以上の特徴を確認し、
    前記1つ以上の特徴を複数のフィードバック効果様態のうち少なくとも1つにマッピングし、
    前記イメージ区域に該当するユーザ入力の座標に応じて前記イメージに関連づけられたユーザインタフェースは、ユーザに複数のフィードバック効果様態のうち少なくとも1つを提供するようにフィードバック効果の出力のためのパラメータを生成し、前記イメージに関連づけて生成されたパラメータを保存するプログラムコードを実行することを特徴とするシステム。
  3. 前記複数のフィードバック効果様態は、1つ以上の視覚フィードバック効果、1つ以上の触覚フィードバック効果、及び1つ以上の聴覚フィードバック効果を含むことを特徴とする請求項1又は2に記載の方法又はシステム。
  4. タッチスクリーンが使用可能な装置を使用してイメージを表示するステップ;
    ユーザのタッチ入力に対応する前記イメージの座標を確認するステップ;
    前記イメージの一区域にマッピングされたフィードバック効果を確認するステップ;及び
    前記タッチスクリーンが使用可能な装置を使用して前記フィードバック効果を提供するステップをさらに含むことを特徴とする請求項1又は2に記載の方法又はシステム。
  5. 前記1つ以上の確認された特徴は、前記イメージ区域に関連付けられたテクスチャ(texture)、強度、及びカラーを含むことを特徴とする請求項1又は2に記載の方法又はシステム。
  6. ユーザに1つ以上の前記フィードバック効果様態を提供することに対する制限条件を確認するステップ;及び
    前記1つ以上の確認された特徴の制限されないフィードバック効果様態のみへのマッピングを制限するステップを含むことを特徴とする請求項3に記載の方法又はシステム。
  7. 前記制限条件は、視覚的に損傷した動作モードであって、
    前記1つ以上の確認された特徴のマッピングを制限するステップは、前記1つ以上の確認された特徴を1つ以上の触覚フィードバック効果又は1つ以上の聴覚フィードバック効果のうち少なくとも1つにマッピングすることを制限するステップを含むことを特徴とする請求項6に記載の方法又はシステム。
  8. 前記制限条件を確認するステップは、センサを使用して光量がしきい値より低いことを確認するステップ、及び
    前記1つ以上の確認された特徴のマッピングを制限するステップは、前記1つ以上の確認された特徴を1つ以上の触覚フィードバック効果又は1つ以上の聴覚フィードバック効果のうち少なくとも1つにマッピングすることを制限するステップを含むことを特徴とする請求項6に記載の方法又はシステム。
  9. 前記制限条件は、黙音動作モードであって、
    前記1つ以上の確認された特徴のマッピングを制限するステップは、前記1つ以上の確認された特徴を1つ以上の触覚フィードバック効果又は1つ以上の聴覚フィードバック効果のうち少なくとも1つにマッピングすることを制限するステップを含むことを特徴とする請求項6に記載の方法又はシステム。
  10. 前記イメージは受信中の電話に関連付けられ、前記イメージの他の区域は前記電話に応じて取られ得る他の行動に対応し、前記マッピングされたフィードバック効果は、ユーザからのタッチ入力に応じて取られた行動であることを示す触覚フィードバック効果であることを特徴とする請求項9に記載の方法又はシステム。
  11. イメージに対するフィードバック効果を提供するプログラムコードを具現する非一時的コンピュータ可読記録媒体において、前記コンピュータ可読記録媒体は:
    イメージ区域で1つ以上の特徴を確認するステップ;
    前記1つ以上の特徴を複数のフィードバック効果様態のうち少なくとも1つにマッピングするステップ;及び
    前記イメージの一区域に該当するユーザ入力の座標に応じて前記イメージに関連づけられたユーザインタフェースは、ユーザに複数のフィードバック効果様態のうち少なくとも1つを提供するようにフィードバック効果の出力のためのパラメータを生成し、前記イメージに関連づけて生成されたパラメータを保存するステップを含むプログラムコードを含むことを特徴とするコンピュータ可読記録媒体。
  12. 前記複数のフィードバック効果様態は、1つ以上の視覚フィードバック効果、1つ以上の触覚フィードバック効果、及び1つ以上の聴覚フィードバック効果を含むことを特徴とする請求項11に記載のコンピュータ可読記録媒体。
  13. タッチスクリーンが使用可能な装置を使用してイメージを表示するステップ;
    ユーザのタッチ入力に対応する前記イメージの座標を確認するステップ;
    前記イメージの一区域にマッピングされたフィードバック効果を確認するステップ;及び
    前記タッチスクリーンが使用可能な装置を使用して前記フィードバック効果を提供するステップをさらに含むことを特徴とする請求項11に記載のコンピュータ可読記録媒体。
  14. 前記1つ以上の確認された特徴は、前記イメージ区域に関連付けられたテクスチャ、強度、及びカラーを含むことを特徴とする請求項11に記載のコンピュータ可読記録媒体。
  15. ユーザに前記複数のフィードバック効果様態のうち1つ以上を提供することに対する制限条件を確認するステップ;及び
    前記1つ以上の確認された特徴を制限されないフィードバック効果様態のみへのマッピングを制限するステップを含むことを特徴とする請求項12に記載のコンピュータ可読記録媒体。
JP2015528394A 2012-08-20 2013-08-16 マルチモードフィードバックでイメージを認識するシステム及び方法 Expired - Fee Related JP6359538B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201261691135P 2012-08-20 2012-08-20
US61/691,135 2012-08-20
US201261709870P 2012-10-04 2012-10-04
US61/709,870 2012-10-04
US13/954,523 US9280206B2 (en) 2012-08-20 2013-07-30 System and method for perceiving images with multimodal feedback
US13/954,523 2013-07-30
PCT/KR2013/007406 WO2014030888A1 (en) 2012-08-20 2013-08-16 System and method for perceiving images with multimodal feedback

Publications (3)

Publication Number Publication Date
JP2015531932A true JP2015531932A (ja) 2015-11-05
JP2015531932A5 JP2015531932A5 (ja) 2016-10-06
JP6359538B2 JP6359538B2 (ja) 2018-07-18

Family

ID=50099733

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015528394A Expired - Fee Related JP6359538B2 (ja) 2012-08-20 2013-08-16 マルチモードフィードバックでイメージを認識するシステム及び方法

Country Status (6)

Country Link
US (1) US9280206B2 (ja)
EP (1) EP2885690A4 (ja)
JP (1) JP6359538B2 (ja)
KR (1) KR102162419B1 (ja)
CN (1) CN104583912B (ja)
WO (1) WO2014030888A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020024684A (ja) * 2018-08-08 2020-02-13 エーエーシー テクノロジーズ ピーティーイー リミテッド ヒューマンコンピュータインタラクション方法、装置、端末とコンピュータ可読記憶媒体
JP2022539228A (ja) * 2019-07-02 2022-09-07 インダストリー-ユニバーシティー コーペレイション ファンデーション ハンヤン ユニバーシティー エリカ キャンパス 植物エクソソームの大量生産方法

Families Citing this family (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
CN107728906B (zh) 2012-05-09 2020-07-31 苹果公司 用于移动和放置用户界面对象的设备、方法和图形用户界面
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
CN109298789B (zh) 2012-05-09 2021-12-31 苹果公司 用于针对激活状态提供反馈的设备、方法和图形用户界面
EP2847659B1 (en) 2012-05-09 2019-09-04 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
CN105260049B (zh) 2012-05-09 2018-10-23 苹果公司 用于响应于用户接触来显示附加信息的设备、方法和图形用户界面
EP3410287B1 (en) 2012-05-09 2022-08-17 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
JP6082458B2 (ja) 2012-05-09 2017-02-15 アップル インコーポレイテッド ユーザインタフェース内で実行される動作の触知フィードバックを提供するデバイス、方法、及びグラフィカルユーザインタフェース
EP2939095B1 (en) 2012-12-29 2018-10-03 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
AU2013368440B2 (en) 2012-12-29 2017-01-05 Apple Inc. Device, method, and graphical user interface for navigating user interface hierarchies
KR102001332B1 (ko) 2012-12-29 2019-07-17 애플 인크. 콘텐츠를 스크롤할지 선택할지 결정하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
WO2014105275A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
CN104903834B (zh) 2012-12-29 2019-07-05 苹果公司 用于在触摸输入到显示输出关系之间过渡的设备、方法和图形用户界面
WO2014147443A1 (en) * 2013-03-20 2014-09-25 Nokia Corporation A touch display device with tactile feedback
US10021247B2 (en) 2013-11-14 2018-07-10 Wells Fargo Bank, N.A. Call center interface
US10037542B2 (en) 2013-11-14 2018-07-31 Wells Fargo Bank, N.A. Automated teller machine (ATM) interface
US9864972B2 (en) 2013-11-14 2018-01-09 Wells Fargo Bank, N.A. Vehicle interface
US11023655B2 (en) 2014-06-11 2021-06-01 Microsoft Technology Licensing, Llc Accessibility detection of content properties through tactile interactions
KR102096146B1 (ko) 2014-09-02 2020-04-28 애플 인크. 가변 햅틱 출력을 위한 시맨틱 프레임워크
CN107111883B (zh) * 2014-10-30 2020-12-08 皇家飞利浦有限公司 用于图像数据的纹理分析图
US9971406B2 (en) * 2014-12-05 2018-05-15 International Business Machines Corporation Visually enhanced tactile feedback
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10048757B2 (en) * 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US10067653B2 (en) 2015-04-01 2018-09-04 Apple Inc. Devices and methods for processing touch inputs based on their intensities
KR20160137258A (ko) * 2015-05-22 2016-11-30 삼성전자주식회사 전자 장치 및 그의 화면 표시 방법
KR101654906B1 (ko) * 2015-05-28 2016-09-22 경희대학교 산학협력단 캐릭터 동작 제어 장치 및 방법
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
KR102516670B1 (ko) * 2015-08-18 2023-04-03 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
KR20170039379A (ko) * 2015-10-01 2017-04-11 삼성전자주식회사 전자 장치 및 이의 제어 방법
US10600336B2 (en) * 2015-10-02 2020-03-24 Purdue Research Foundation Multimodal image perception system and method
WO2017081614A1 (en) * 2015-11-09 2017-05-18 Dalley Edward Noel Trampoline for use as an input device for an electronic game
US10296088B2 (en) * 2016-01-26 2019-05-21 Futurewei Technologies, Inc. Haptic correlated graphic effects
KR102456953B1 (ko) * 2016-03-11 2022-10-21 한국전자통신연구원 이미지 제공 장치 및 방법
DK179823B1 (en) 2016-06-12 2019-07-12 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROVIDING HAPTIC FEEDBACK
CN106383587B (zh) * 2016-10-26 2020-08-04 腾讯科技(深圳)有限公司 一种增强现实场景生成方法、装置及设备
US10831277B2 (en) 2016-12-21 2020-11-10 Telefonaktiebolaget Lm Ericsson (Publ) Region of interest classification
US10147460B2 (en) * 2016-12-28 2018-12-04 Immersion Corporation Haptic effect generation for space-dependent content
EP3427664A1 (en) * 2017-07-13 2019-01-16 Koninklijke Philips N.V. A device for scatter correction in an x-ray image and a method for scatter correction in an xray image
KR102429901B1 (ko) * 2017-11-17 2022-08-05 삼성전자주식회사 부분 영상을 생성하기 위한 전자 장치 및 그의 동작 방법
US11227382B2 (en) * 2018-01-11 2022-01-18 Intelinair, Inc. Change detection system
CN108803925A (zh) * 2018-05-24 2018-11-13 上海闻泰信息技术有限公司 触屏效果的实现方法、装置、终端和介质
IT201800009989A1 (it) * 2018-10-31 2020-05-01 Neosperience Spa Metodo per gestire una interazione informativa con un utente, programma software per eseguire detto metodo e dispositivo elettronico dotato di detto software
CN109343716B (zh) * 2018-11-16 2022-05-10 Oppo广东移动通信有限公司 一种图像显示方法及装置、计算机可读存储介质
US11927944B2 (en) * 2019-06-07 2024-03-12 Honeywell International, Inc. Method and system for connected advanced flare analytics
CN110244845B (zh) * 2019-06-11 2022-08-05 Oppo广东移动通信有限公司 触觉反馈方法、装置、电子设备及存储介质
US11645323B2 (en) 2020-02-26 2023-05-09 Samsung Electronics Co.. Ltd. Coarse-to-fine multimodal gallery search system with attention-based neural network models
CN112099667B (zh) * 2020-09-11 2024-03-08 京东方科技集团股份有限公司 一种触觉传感及反馈基板及其驱动方法
US20210117003A1 (en) * 2020-10-23 2021-04-22 Intel Corporation Computing platforms and related methods for providing accessible user interfaces
CN112596612A (zh) * 2020-12-28 2021-04-02 北京小米移动软件有限公司 触感反馈生成方法、触感反馈生成装置及存储介质
CN113704922B (zh) * 2021-09-01 2024-02-02 江苏师范大学 一种基于声振及纹理特征预测表面粗糙度的方法
US20230152896A1 (en) * 2021-11-16 2023-05-18 Neosensory, Inc. Method and system for conveying digital texture information to a user

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1185400A (ja) * 1997-09-11 1999-03-30 Sony Corp 表示装置
JPH11212725A (ja) * 1998-01-26 1999-08-06 Idec Izumi Corp 情報表示装置および操作入力装置
JP2001189774A (ja) * 1999-12-28 2001-07-10 Nec Corp スケジュール管理装置とスケジュール管理方法及びスケジュール管理プログラムを記録した記録媒体
JP2006074477A (ja) * 2004-09-02 2006-03-16 Pioneer Electronic Corp 通信用端末装置、通信用端末装置の機能設定変更方法及びそのプログラム
JP2008219709A (ja) * 2007-03-07 2008-09-18 Pioneer Electronic Corp 遠隔操作装置
US20090167701A1 (en) * 2007-12-28 2009-07-02 Nokia Corporation Audio and tactile feedback based on visual environment
JP2011501298A (ja) * 2007-10-18 2011-01-06 マイクロソフト コーポレーション 音声、視覚、および触覚のフィードバックを使用した三次元オブジェクトシュミレーション
JP2011248884A (ja) * 2010-05-21 2011-12-08 Disney Enterprises Inc タッチ面用電気振動
JP2012084096A (ja) * 2010-10-14 2012-04-26 Utsunomiya Univ 知覚刺激情報生成システム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6226399B1 (en) 1999-05-27 2001-05-01 Integral Vision, Inc. Method and system for identifying an image feature and method and system for determining an optimal color space for use therein
US7225115B2 (en) * 2001-10-04 2007-05-29 Novint Technologies, Inc. Coordinating haptics with visual images in a human-computer interface
JP2008033739A (ja) * 2006-07-31 2008-02-14 Sony Corp 力覚フィードバックおよび圧力測定に基づくタッチスクリーンインターラクション方法および装置
US8138896B2 (en) * 2007-12-31 2012-03-20 Apple Inc. Tactile feedback in an electronic device
US20090207175A1 (en) * 2008-02-15 2009-08-20 Apple Inc. Animation Using Animation Effect and Trigger Element
US9357052B2 (en) * 2008-06-09 2016-05-31 Immersion Corporation Developing a notification framework for electronic device events
US9696803B2 (en) * 2009-03-12 2017-07-04 Immersion Corporation Systems and methods for friction displays and additional haptic effects
WO2011011552A1 (en) 2009-07-22 2011-01-27 Immersion Corporation Interactive touch screen gaming metaphors with haptic feedback across platforms
KR101324687B1 (ko) * 2009-08-10 2013-11-04 한국과학기술원 이미지에 햅틱 정보를 인코딩하는 방법, 이미지로부터 햅틱 정보를 디코딩하는 방법 및 이를 위한 햅틱 정보 처리 장치
WO2011029055A1 (en) * 2009-09-03 2011-03-10 Obscura Digital, Inc. Apparatuses, methods and systems for a visual query builder
US8171049B2 (en) 2009-09-18 2012-05-01 Xerox Corporation System and method for information seeking in a multimedia collection
US20110267181A1 (en) 2010-04-29 2011-11-03 Nokia Corporation Apparatus and method for providing tactile feedback for user
US9417665B2 (en) * 2010-06-28 2016-08-16 Apple Inc. Providing an alternative human interface
US8693788B2 (en) 2010-08-06 2014-04-08 Mela Sciences, Inc. Assessing features for classification
TWI435251B (zh) * 2011-08-09 2014-04-21 Wistron Corp 推估觸摸螢幕之壓力變化之方法及系統
US9063570B2 (en) * 2012-06-27 2015-06-23 Immersion Corporation Haptic feedback control system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1185400A (ja) * 1997-09-11 1999-03-30 Sony Corp 表示装置
JPH11212725A (ja) * 1998-01-26 1999-08-06 Idec Izumi Corp 情報表示装置および操作入力装置
JP2001189774A (ja) * 1999-12-28 2001-07-10 Nec Corp スケジュール管理装置とスケジュール管理方法及びスケジュール管理プログラムを記録した記録媒体
JP2006074477A (ja) * 2004-09-02 2006-03-16 Pioneer Electronic Corp 通信用端末装置、通信用端末装置の機能設定変更方法及びそのプログラム
JP2008219709A (ja) * 2007-03-07 2008-09-18 Pioneer Electronic Corp 遠隔操作装置
JP2011501298A (ja) * 2007-10-18 2011-01-06 マイクロソフト コーポレーション 音声、視覚、および触覚のフィードバックを使用した三次元オブジェクトシュミレーション
US20090167701A1 (en) * 2007-12-28 2009-07-02 Nokia Corporation Audio and tactile feedback based on visual environment
JP2011248884A (ja) * 2010-05-21 2011-12-08 Disney Enterprises Inc タッチ面用電気振動
JP2012084096A (ja) * 2010-10-14 2012-04-26 Utsunomiya Univ 知覚刺激情報生成システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020024684A (ja) * 2018-08-08 2020-02-13 エーエーシー テクノロジーズ ピーティーイー リミテッド ヒューマンコンピュータインタラクション方法、装置、端末とコンピュータ可読記憶媒体
JP2022539228A (ja) * 2019-07-02 2022-09-07 インダストリー-ユニバーシティー コーペレイション ファンデーション ハンヤン ユニバーシティー エリカ キャンパス 植物エクソソームの大量生産方法

Also Published As

Publication number Publication date
CN104583912A (zh) 2015-04-29
WO2014030888A1 (en) 2014-02-27
KR20150046105A (ko) 2015-04-29
CN104583912B (zh) 2017-08-25
US9280206B2 (en) 2016-03-08
EP2885690A4 (en) 2016-01-27
US20140049491A1 (en) 2014-02-20
KR102162419B1 (ko) 2020-10-06
EP2885690A1 (en) 2015-06-24
JP6359538B2 (ja) 2018-07-18

Similar Documents

Publication Publication Date Title
JP6359538B2 (ja) マルチモードフィードバックでイメージを認識するシステム及び方法
JP6840702B2 (ja) 触覚装置における3次元レリーフのための摩擦変調
US11170210B2 (en) Gesture identification, control, and neural network training methods and apparatuses, and electronic devices
CN111541907B (zh) 物品显示方法、装置、设备及存储介质
US10891800B1 (en) Providing features of an electronic product in an augmented reality environment
US11776182B1 (en) Techniques for enabling drawing in a computer-generated reality environment
US20190369714A1 (en) Displaying physical input devices as virtual objects
US20210117048A1 (en) Adaptive assistive technology techniques for computing devices
US11915671B2 (en) Eye gaze control of magnification user interface
CN108632496A (zh) 用户终端装置及其控制方法
KR20180071156A (ko) 동영상을 필터링하는 방법 및 장치
US11620790B2 (en) Generating a 3D model of a fingertip for visual touch detection
CN116507997A (zh) 在环境中显示用户界面的方法及对应电子设备和计算机可读存储介质
US11782548B1 (en) Speed adapted touch detection
EP4250713A2 (en) Color correction pipeline
US11237671B1 (en) Temporal filter touch detection
CN113795816A (zh) 生成物理布景的语义构造
CN113542598B (zh) 图像处理方法、装置、电子设备及可读存储介质
WO2023188904A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20230419439A1 (en) Warping an input image based on depth and offset information
CN107277489B (zh) 图像处理方法及装置
DE102022206804A1 (de) Generieren und anzeigen von inhalt basierend auf jeweiligen positionen von personen
JP2021060789A (ja) 映像処理システム
CN113703622A (zh) 显示界面处理方法、装置、电子设备和存储介质
CN111444770A (zh) 图像处理方法、装置、电子设备及介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160816

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160816

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171213

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180502

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180620

R150 Certificate of patent or registration of utility model

Ref document number: 6359538

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees