JP2016126773A - 視線追跡に基づく触覚効果を生成するシステム及び方法 - Google Patents

視線追跡に基づく触覚効果を生成するシステム及び方法 Download PDF

Info

Publication number
JP2016126773A
JP2016126773A JP2015242787A JP2015242787A JP2016126773A JP 2016126773 A JP2016126773 A JP 2016126773A JP 2015242787 A JP2015242787 A JP 2015242787A JP 2015242787 A JP2015242787 A JP 2015242787A JP 2016126773 A JP2016126773 A JP 2016126773A
Authority
JP
Japan
Prior art keywords
user
image
sight
haptic
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015242787A
Other languages
English (en)
Inventor
レベスク,ヴィンセント
Levesque Vincent
マヌエル クルス−ヘルナンデス,ファン
Manuel Cruz-Hernandez Juan
マヌエル クルス−ヘルナンデス,ファン
ダウハージュレ,アブラハム
Dauhajre Abraham
レインズ,ペイジ
Raynes Paige
シン バティア,サトヴィール
Singh Bhatia Satvir
シン バティア,サトヴィール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2016126773A publication Critical patent/JP2016126773A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】読む又は見る体験を更に向上させ、視聴者により没入感のある体験を提供する。【解決手段】システム100は、画像を含むメディアコンテンツを見ている間のユーザの視線を追跡するように構成された視線追跡装置と、一又は複数のコンピュータプログラムモジュールを実行するように構成されたプロセッサとを備える。一又は複数のコンピュータプログラムモジュールは、前記プロセッサによって実行されると前記画像を特定するべく前記メディアを解析するコンテンツ判定モジュールと、前記プロセッサによって実行されると前記画像を見ている間の前記ユーザの視線の注視位置を特定する視線判定モジュールと、前記プロセッサによって実行されると、前記画像の特定及び前記注視位置に基づいて、トリガすべきイベントを決定するイベント判定モジュールとを含む。【選択図】図1

Description

本発明は、視線追跡に基づく触覚効果を生成するシステム及び方法に関する。
触覚コンテンツは現在、例えば、動画の視聴及びビデオゲームをプレイする体験を拡張するのに利用されている。その他の種類の多くの体験は、本、新聞、雑誌等を読むといったように、視覚的側面に限定される。印刷媒体は、グラフィック及びフォントの視覚的デザインを利用して、より注意を引き楽しくなるように工夫がなされている。印刷媒体の中には、デジタル媒体に移行したものもあり、この場合、音声コンテンツのような更なるマルチメディアコンテンツを容易に付加することができる。読む又は見る体験を更に向上させ、視聴者により没入感のある体験を提供できることが望まれている。また、ユーザがマルチメディアコンテンツのヴィジュアルコンテンツとインタラクションを行う場合に、人間とコンピュータとの間のインタラクションを容易にすることが望まれている。
本発明の一側面によれば、画像を含むメディアコンテンツを見ている間のユーザの視線を追跡するように構成された視線追跡装置と、一又は複数のコンピュータプログラムモジュールを実行するように構成されたプロセッサとを備えるシステムが提供される。前記一又は複数のコンピュータプログラムモジュールは、前記プロセッサによって実行されると前記画像を特定するべく前記メディアを解析するコンテンツ判定モジュールと、前記プロセッサによって実行されると前記画像を見ている間の前記ユーザの視線の注視位置を特定する視線判定モジュールと、前記プロセッサによって実行されると、前記画像の特定及び前記注視位置に基づいて、トリガすべきイベントを決定するイベント判定モジュールとを含む。
一実施形態において、前記システムは、前記画像を含む前記メディアコンテンツを表示する用に構成されたディスプレイを備える。
一実施形態において、前記システムはユーザインターフェースを更に備え、前記ディスプレイは前記ユーザインターフェースの一部である。
一実施形態において、前記システムは、前記注視位置、前記画像の特定及び/又は前記イベントのトリガに基づいて、前記ユーザに対する触覚効果を生成するように構成された触覚出力装置を更に備える。
一実施形態において、前記ディスプレイ、前記視線検出装置、前記プロセッサ及び前記触覚出力装置は、一つの統合された装置の一部である。一実施形態において、前記一つの統合された装置は、スマートフォン、タブレット及び電子書籍リーダからなる群から選択される。
一実施形態において、前記触覚出力装置は、前記イベントの前記トリガに基づいて前記触覚効果を生成するように構成される。
一実施形態において、前記メディアコンテンツはマルチメディアコンテンツであり、前記画像は前記マルチメディアコンテンツの一部として提供される。
一実施形態において、前記イベントは、前記マルチメディアコンテンツ上の、前記ディスプレイによって表示されるウィンドウの開閉である。
一実施形態において、前記ウィンドウは広告を含む。
一実施形態において、前記システムは、ウェアラブル電子装置を更に備え、前記触覚出力装置は、前記ウェアラブル電子装置に位置する。
一実施形態において、前記ウェアラブル装置は、スマートウォッチを含む。
本発明の一側面によれば、ユーザが画像を含むメディアコンテンツを見ている時の前記ユーザの視線を追跡する工程と、前記画像を特定するべく、前記メディアコンテンツの解析を行う工程と、前記ユーザの視線の注視位置を特定する工程と、特定された前記画像及び前記注視位置に基づいてトリガすべきイベントを判定する工程とを備える方法が提供される。
一実施形態において、前記方法は、前記画像の特定、前記ユーザの視線の前記注視位置及び/又は前記イベントのトリガに基づいて、前記ユーザに対して触覚効果を生成する工程を更に備える。
一実施形態において、前記方法は、前記ユーザが見る前記画像の変化に基づいて、前記触覚効果を調整する工程を更に備える。
一実施形態において、前記方法は、前記ユーザの視線の前記注視位置の変化に基づいて、前記触覚効果を調整する工程を更に備える。
一実施形態において、前記方法は、前記イベントをトリガする工程を更に備え、前記触覚出力を生成する工程は、前記イベントの前記トリガに基づく。
一実施形態において、前記イベントは、広告を表示するべくウィンドウを開くこと、又は、前記ウィンドウを閉じる工程をことを含む。
一実施形態において、前記方法は、ディスプレイを使用して、前記メディアコンテンツを表示する工程を備える。
一実施形態において、前記方法は、前記ディスプレイを使用して広告を表示する工程と、前記広告内の位置に向けられた前記ユーザの視線を追跡する工程と、前記広告と関連付けられた少なくとも一つの触覚効果を生成する工程とを備える。
一実施形態において、前記ユーザが前記広告における第1画像を見ている場合には第1触覚効果が生成され、前記ユーザが、前記第1画像とは異なる前記広告における第2画像を見ている場合には、前記第1触覚効果とは異なる第2触覚効果が生成される。
本発明の上記及び上記以外の目的、特徴、及び性質、並びに、関連する構成要素の動作方法及び機能、そして製造における各部分の組み合わせと経済性については、添付図面を参照しつつ以下の詳細な説明と添付の特許請求の範囲を検討することによってさらに明らかになる。これらはいずれも本明細書の一部を構成する。添付図面は例示及び説明のためのものであり、本発明の発明特定事項の定義として用いることは意図されていない。本明細書及び特許請求の範囲における用法によれば、単数形の「a」、「an」及び「the」には複数のものへの言及が含まれる。ただし、文脈によって別に解すべきことが明白な場合はこの限りでない。
以下の図面の構成要素は、本開示の原理の概略を強調するように描写されており、必ずしも寸法通りには記載されていない。一貫性及び明瞭性を確保するために、対応する構成要素を指し示す参照符号は、必要に応じ、複数の図面にわたって繰り返し用いられる。
本発明の実施形態にかかるシステムの模式図である。
本発明の実施形態にかかる図1のシステムのプロセッサの模式図である。
図1のシステムの一実施形態の模式図である。
図1のシステムの一実施形態の模式図である。
図1のシステムの一実施形態の模式図である。 図1のシステムの一実施形態の模式図である。 図1のシステムの一実施形態の模式図である。 図1のシステムの一実施形態の模式図である。
本発明の実施形態にかかる方法のフローチャートである。
本発明の実施形態にかかる方法のフローチャートである。
図1は、本発明の一実施形態に係るシステム100の模式図である。システム100又はシステム100のある部分は、デスクトップ・コンピュータ、ラップトップ・コンピュータ、電子ワークブック、電子ハンドヘルド装置(例えば、携帯電話、スマートフォン、ゲーム装置、携帯情報端末(personal digital assistant:「PDA」)、携帯用電子メール装置、携帯用インターネット・アクセス装置、電子書籍リーダー、計算機等)、POS(point−of−sale)装置、ゲーム・コントローラ、ウェアラブルデバイス等の電子装置、又は、他の電子装置であってもよい。図示されるように、システム100は、プロセッサ110、メモリデバイス120、及び、入出力装置130を備えており、これらはバス140を介して相互に接続されている。一実施形態において、入出力装置130は、視線追跡装置150、触覚出力装置160、ディスプレイ170、タッチスクリーン装置180、及び/又は、システム100のユーザからの入力を受信するその他の入力装置、及び、システム100のユーザに情報を提供する出力デバイスを含み得る。一実施形態において、システム100は、図1に示された構成要素を全てを1つの装置に組み込んだ一つの統合された電子装置であってもよい。一実施形態において、図1に示す様々な構成要素を同一の場所に配置してもよいし、以下に詳細に記載するように、その他の構成要素は、一の又は複数の別個の装置の一部分であってもよい。
入出力装置130は、特定の入力装置及び出力装置を含んでもよい。例えば、入力装置は、キーボード、キーパッド、カーソル・コントロール装置(例えば、コンピュータのマウス)のようなデバイス、その他のデータ入力装置、又は、マイクのようなオーディオ受信装置を含み得る。出力装置は、コンピュータのモニタ、仮想現実ディスプレイ装置、スピーカのような音声出力装置、プリンタ、又は、その他の周辺装置を含み得る。入出力装置130は、ユーザからの入力を受けるだけでなくユーザにフィードバックを提供するように設計された装置を含み、例えば、タッチ・スクリーン装置の多くの例が該当する。
視線追跡装置150は、システム100のユーザの視線を検出して追跡するのに使用される任意の検出手段を含み得る。例えば、視線追跡装置150は、システム100のユーザの目の画像を撮像するように構成されたカメラと、この画像に基づいて視線の方向を判定するように構成されたプロセッサとを備えてもよい。カメラは、赤外光源を備えてもよい。一実施形態において、プロセッサは、図1に示すプロセッサ110であってもよい。視線の方向を判定する画像処理技術は文献により公知であり、本明細書においては詳述しない。
一実施形態において、視線追跡装置150は、ユーザの目の付近の筋肉の動きを監視するように構成されたセンサと、監視された動きに基づいて視線の方向を判定するように構成されたプロセッサとを備えてもよい。一実施形態において、センサは、目を動かす筋肉の電気的な活動を測定するように構成されてもよい。一実施形態において、プロセッサは、図1に示したプロセッサ110であってもよい。本発明の実施形態において、ユーザの視線の方向を判定するのに、その他の検出手段が使用されてもよい。例えば、一実施形態において、ユーザの視線の方向はユーザの体や頭部の姿勢を分析することによって推定される。
視線追跡装置150は、例えば、ディスプレイ170のように、システム100のユーザ環境に搭載される別個の装置であってもよいし、又は、視線追跡装置150は、眼鏡のようなユーザが装着する装置であってもよい。あるいは、視線追跡をコンタクトレンズを介して実行してもよい。一実施形態において、視線追跡装置150は、電子書籍リーダー、タブレット又はスマートフォンのような、ハンドヘルド電子装置の一部分であってもよい。一実施形態では、視線追跡装置150は、ヘッドマウントディスプレイ、グーグルグラス(登録商標)、コンタクトレンズのようなウェアラブルデバイスの一部であってもよい。一実施形態において、視線追跡装置150は、触覚出力効果が生成されると期待されるオブジェクト内に又は付近に埋め込まれてもよい。
典型的な視線追跡装置は、目の動きを検出するが、当該目が具体的に何のコンテンツ又はオブジェクトを見ているかを特定してはいない。このような情報は、例えば、ユーザに特定の場所を凝視させ、視線追跡装置150を較正することによって得ることができる。例えば、ユーザが漫画(graphic novel)又は活字を読んでいる場合、較正は、ユーザが見ているであろう場所を推定して、徐々に、目の動きと視線の位置との間の関係について学習することによって行われる。一実施形態において、視線追跡装置150だけでは、注視している場所に何があるのかを知りえないが、カメラ及び画像認識を使用することによって、何があるのかの判定を行うことができる。ユーザがテキストを見ている場合には、例えば、ヘッドマウントカメラ及び光学式文字認識(OCR)ソフトウェアを使用することにより、どの単語を見ているか判定することが可能となる。
一実施形態において、視線追跡装置150は、例えば、ユーザがどのピクセルを見ているかを判定するように構成されたタブレットの一部分であってもよい。システム100は、そのピクセルにどのようなコンテンツ又はオブジェクトが位置しているか、例えば、文字なのか写真なのかを判定する。同様に、視線追跡装置150は、更に大きな視線追跡システムの一部分であってもよく、視線追跡システムは、注視されている位置に実際に何のオブジェクトが存在するのかを判定可能であってもよい。視線追跡装置150に関連したオブジェクトの位置についての情報が必要となることから、対象のオブジェクトが動かない場合、又は、対象のオブジェクトの位置をRFIDのような別の追跡システムを使用して判定可能な場合に、うまく機能すると考えられる。
一実施形態において、視線追跡装置150はまた、ユーザの現在の視線方向のどこに焦点が合っているかを判定するように構成されてもよい。これは、ユーザの目の虹彩の位置及び形状を判定する画像処理技術と、予め提供される虹彩の基準画像又はモデルとの組み合わせを使用することにより、達成できると考えられる。一実施形態において、ユーザの視線の方向は、各々の目についてピッチ角およびヨー角として記憶されてもよい。この情報を用いて、ユーザの現在の注視範囲の奥行きを判定してもよい。一実施形態において、視線追跡装置150に加えて、典型的には機能的磁気共鳴画像法(fMRI)または脳波図(EEG)に関連するセンサなどの他のセンサを用いて、ユーザの意図や意思をより精度良く判定してもよい。
様々な実施形態において、触覚出力装置160は、システム100のユーザがシステム100の少なくとも一部に接触している間に、当該ユーザに触覚フィードバックを提供するように構成され得る。例えば、触覚出力装置160は、ユーザが、タッチスクリーン装置180及び/又はシステム100別の部分、例えば、入出力装置130を収容する筐体に接触している時に、触覚効果を与えるべく、タッチスクリーン装置180に触覚フィードバックを提供してもよい。以下に詳細に記載するように、システム100とのインタラクションが発生する時のユーザの体験を向上させるのに、触覚効果を使用してもよい。
触覚出力装置160によって提供される触角フィードバックは、振動、変形、運動感覚、静電摩擦又は超音波摩擦等の触覚効果を生成する任意の方法によって生成されてもよい。一実施形態において、触覚出力装置160が備え得るアクチュエータは、例えば、偏心質量体がモータにより動かされる偏心回転質量体(「ERM」)などの電磁アクチュエータ、ばねに取り付けられた質量体が前後に駆動されるリニア共振アクチュエータ(「LRA」)、又は圧電材料、電気活性ポリマー、もしくは形状記憶合金などの「スマートマテリアル」、マクロ複合繊維アクチュエータ、静電気アクチュエータ、電気触感アクチュエータ、及び/又は、例えば、振動触覚フィードバックである物理的フィードバックを提供する他の種類のアクチュエータである。触覚出力装置160は、非機械的装置又は非振動装置、例えば、静電摩擦(「ESF」)や超音波摩擦(「USF」)を用いる装置、超音波触覚トランスデューサを用いて音響放射圧力を生じさせる装置、触覚基板及び可撓性もしくは変形可能な表面を用いる装置、又は、熱的効果を提供する装置、又は、エアジェットを用いた空気の吹きかけなどの発射型の触覚出力を提供する装置などを含んでもよい。以下に更に詳細に説明するように、複数の触覚出力装置160を使用して、様々な異なる触覚効果を生成してもよい。
ディスプレイ170は、画像を含むメディアコンテンツを表示するように構成される。一実施形態において、ディスプレイ170は、高画質の画像を表示するように構成された高精彩(HD)ディスプレイであってもよい。一実施形態において、特に、ディスプレイ170が電子書籍リーダの一部分、又は、かつては印字されていたメディアコンテンツ、例えば、電子書籍又はオンライン新聞紙等の形態で提示されるメディアコンテンツを表示するその他のハンドヘルドデバイスの一部分である場合には、ディスプレイ170は、文字又は写真のような静止画像を含むメディアコンテンツを表示してもよい。一実施形態において、ディスプレイ170は、動的な画像、すなわち、動画を含むメディアコンテンツを表示してもよく、例えば、スポーツイベントのような生放送のイベントや、テレビ番組や映画のような予め作成されるイベントのコンテンツを表示してもよい。本明細書において使用されているメディアコンテンツという言葉は、ディスプレイを含まない実施形態においては、言葉、写真、グラフィックスのような印刷された画像も含む。
タッチ・スクリーン装置180は、任意の適切なユーザインターフェースまたはタッチ/コンタクト表面アセンブリとして構成されてもよい。タッチ・スクリーン装置180は、任意のタッチ・スクリーン、タッチ・パッド、タッチセンサー構造体(touch sensitive structure)、コンピュータ・モニタ、ラップトップディスプレイ装置、ワークブックディスプレイ装置、キオスク・スクリーン、ポータブル電子装置のスクリーン、又は、その他の好適な接触感知装置であってもよい。タッチ・スクリーン装置180は、スタイラスや指などのユーザによって制御された装置との物理的なインタラクションのために構成され得る。実施形態によっては、タッチ・スクリーン装置180は少なくとも1つの出力装置および少なくとも1つの入力装置を備えている。例えば、タッチ・スクリーン装置180は、ディスプレイ170と、当該ディスプレイに重ねて設けられる少なくとも1つのセンサを含みユーザの指又はユーザが制御するスタイラスからの入力を受信するタッチセンサー式スクリーンと、を備える。
プロセッサ110は、汎用又は特殊用途プロセッサ、あるいはシステム100の動作及び機能を管理又は制御するマイクロ・コントローラである。例えば、プロセッサ110は、触覚効果を提供するために、触覚出力装置160への出力信号を制御する特定用途向け集積回路(application−specific integrated circuit:「ASIC」)として、特に設計されてもよい。プロセッサ110は、プロセッサ110が受信した又は決定した触覚信号に基づいてどのような触覚効果が生成されるべきか、当該触覚効果がどのような順序で生成されるべきか、及び、どの程度の大きさ、頻度、持続時間の触覚効果とすべきか、及び/又は、触覚効果のその他のパラメータについて、所定の因子に基づいて決定してもよい。また、プロセッサ110は、特定の触覚効果を提供するために触覚出力装置160を駆動するのに使用することができるストリーミング・コマンドを提供するように構成されてもよい。ある実施形態では、プロセッサ110は複数のプロセッサであってもよく、当該複数のプロセッサの各々がシステム100の内部で特定の機能を果たすように構成されている。プロセッサ110についての詳細は後述する。
メモリデバイス120としては、内部に固定された1つ又は複数の記憶ユニット、リムーバブル記憶ユニット及び/又はリモート・アクセスが可能な記憶ユニットを含む。これら様々な記憶ユニットは、揮発性メモリと不揮発性メモリとのいかなる組合せをも含み得る。記憶ユニットは、情報、データ、命令、ソフトウェア・コードなどのいかなる組合せをも記憶し得るように構成されている。より具体的には、記憶ユニットは、触覚効果のプロフィール、触覚出力装置160がいかにして駆動されるかを指示する命令又は触覚効果を生成するためのその他の情報を含む。
図2は、プロセッサ110の一実施形態をより詳細に例示している。プロセッサ110は、一つの又は複数のコンピュータプログラムモジュールを実行するように構成されてもよい。一又は複数のコンピュータ・プログラム・モジュールは、コンテンツ判定モジュール112、視線判定モジュール114、イベント判定ジュール116、触覚出力装置制御モジュール118、及び/又は、これら以外のモジュールの一又は複数を備えてもよい。プロセッサ110は更に、メモリデバイス120と同じであってもよい電子記憶装置119を備えてもよい、又は、メモリデバイス120に加えて当該電子記憶装置を備えてもよい。プロセッサ110は、モジュール112、114、116、及び/又は118を実行する際に、ソフトウェア、ハードウェア、ファームウェア、及び/又は、ソフトウェア、ハードウェア及び/又はファームウェアの任意の組み合わせを用いてもよい、及び/又はプロセッサ110の処理能力を構成する他の機構を用いてもよい。
図2においてモジュール112、114、116、及び118は単一の処理装置内の同じ位置に配置されるものとして示されるが、プロセッサ110が複数の処理装置を含む実施形態においては、モジュール112、114、116、及び/又は118のうちの一又は複数が他のモジュールから離れて配置されてもよい。以下の異なるモジュール112、114、116、及び/又は118によって提供される機能の記述は説明のためのものであり、限定を意図したものではない。モジュール112、114、116、及び/又は118はいずれも記述されるよりも多くの、又は少ない機能を提供してもよい。例えば、モジュール112、114、116、及び/又は118のうちの一又は複数を取り除き、その機能の一部又はすべてを、モジュール112、114、116、及び/又は118のうちの他のモジュールで提供してもよい。他の例として、以下でモジュール112、114、116、及び/又は118のうちの1つに帰せられる機能の一部又はすべてを実行する1つ又は複数の追加的なモジュールを実行するように、プロセッサ110が構成されてもよい。
コンテンツ判定モジュール112は、ユーザが見ている又は眺めているメディアコンテンツと関連付けられた入力信号を受信するように構成される。
コンテンツを含むメディアストリームによって入力信号が提供されてもよい、又は、視線追跡装置150がカメラを含み、当該カメラがユーザが見ている又は眺めているコンテンツの少なくとも一部の画像を撮像するように構成されている場合には、視線追跡装置150によって入力信号が提供されてもよい。コンテンツ判定モジュール112は、リアルタイムで又はオフラインでこのようなメディアコンテンツを解析するように構成されてもよく、更なる処理のために、信号をイベント判定モジュール118に送信してもよい。
視線判定モジュール114は、検出器110によって生成される出力信号からの情報に基づいて、ユーザの視線の方向を判定するように構成される。視線方向判定モジュール114によって判定されるユーザの視線の方向に関する情報は、絶対座標系における他のオブジェクトに対するベクトルとして、および/または他のコンテキストで、その方向を記述してもよい。そのような情報には、座標および/または例えば上述のピッチ角およびヨー角などの角度関係が含まれてもよいが、これらには限定されない。視線追跡装置150によって生成される視線経路(gaze path)には、ノイズが多い場合がある。目の動きは通常、ある場所を凝視した後に、サッカード(saccade)と呼ばれる素早い眼球運動が続く。視線追跡装置150によって出力された信号をフィルタリングして、どのオブジェクト又は画像に対してユーザが注意を払っているかを判定してもよい。例えば、触覚効果をトリガするには、一定期間、凝視が続いていることが必要であってもよい。視線判定モジュール114は、イベント判定モジュール116及び触覚出力装置制御モジュール118に信号を出力してもよい。
イベント判定モジュール116は、コンテンツ判定モジュール112及び視線判定モジュール114からの出力信号を受信して、受信した信号に基づいてトリガすべきイベントを判定するように構成される。以下に詳細に説明するように、イベントには例えば、グラフィックユーザインターフェースにおけるプロセス又はウィンドウの開閉、並びに/又は、視線の位置及び/若しくは解析されたメディアコンテンツに基づく触覚効果又は触覚トラックの再生が含まれ得る。
触覚出力装置制御モジュール118は、コンテンツ判定モジュール112、視線判定モジュール114及びイベント判定モジュール116からの出力信号を受信して、触覚出力装置160が生成すべき触覚効果を判定するように構成される。注視位置からユーザの視覚的注意を推測し、ユーザが見ている内容が判定されると、触覚出力装置制御モジュール118は、どんな触覚出力装置を生成すべきであるかを決定し、信号を触覚出力装置160へと出力する。
触覚出力装置160によって生成される触覚効果には、振動、摩擦、変形、力フィードバック、発射型の触覚出力、又は、上記の技術のようなその他の触覚技術を含み得る。触覚フィードバックは、スマートフォン又はタブレットのようなハンドヘルドデバイス、スマートウォッチ、指輪、ヘッドマウントディスプレイ等のウェアラブルデバイス、若しくは、マウス、その他の手で掴むことができる装置、キーボードのようなその他利用可能なデバイスを介して提供されてもよいし、空気の吹きかけのように非接触型の触覚インターフェースを介して提供されてもよい。
メディアコンテンツが本又は漫画の形態である一実施形態では、システム100は最初に、どの印刷コンテンツが読まれているかを判定し、コンテンツから触覚効果へのマッピングを読み出してもよい。判定は、明示的にユーザによって行われてもよいし、画像認識技術を使用して黙示的にタイトル又はコンテンツを特定することによって行われてもよいし、その他の識別子、例えば、RFIDタグを使用して行ってもよい。そしてシステム100は、対象のオブジェクトを伝達することにより(例えば、拡張本(augmented book))又はクラウドサービスにより、又は、システム100に格納する情報を使用することにより、マッピングを取得してもよい。例えば、マッピングがメモリデバイス120又は電子記憶装置119に格納されて、プロセッサ110が実行するときに触覚出力装置制御モジュール118によって読み出されてもよい。
ユーザが見ているコンテンツ又は画像が、特定の効果又は効果の変化をトリガしてもよい。例えば、爆発についての本を読んでいる場合には、強い振動がトリガされてもよい。これに替えて、一つの段落が読み進められるのに合わせて、触覚トラックが徐々に進行して、コンテンツにムードを与えてもよい(映画の音楽と同様に)。システム100は、何のコンテンツが見られているか(すなわち、どのような本が見られているが)を知らないが、認識可能な特定の言葉又は画像のマッピングを有してもよく、例えば、「爆発」又は「現在位置(you are here)」といった言葉が認識可能であってもよい。
現実世界のオブジェクトの場合、システム100は、どのマッピングが現在アクティブであるかを判定可能である。これは、ユーザによって明示的に(例えば、旅行アプリケーションをロードすることにより)行われてもよいし、ジオロケーション(geolocation)、アクティブビーコンに基づいて黙示的に、又は、環境でどの触覚コンテンツが利用可能か示すその他の手段により行われてもよい。システム100はまた、特定のオブジェクトを可視的に認識する又はRFIDタグを使用するようにプログラムされて、ユーザがオブジェクトを見た時に特定の触覚出力効果が生成されるようにプログラムされてもよい。
一実施形態において、視線追跡装置150によって判定されるようにユーザが見ているオブジェクト、言葉又はグラフィックコンテンツ(すなわち、ヴィジュアルコンテンツ又は画像)と触覚効果とが関連付けされてもよい。一実施形態において、例えば、特定の言葉が印刷された本で読まれると、又は、漫画で特定の絵が見られると、触覚効果がトリガされてもよい。ユーザの環境下における異なるオブジェクトをユーザが見ている間にも触覚効果を同様にトリガしてもよい。
一実施形態において、本又はその他の印刷されたテキスト内の特定の言葉をシステム100のユーザが読むと、漫画本の中の絵をユーザが見ると、又は、環境下におけるオブジェクトをユーザが見ると、異なる触覚効果が生成されてもよい又は触覚トラックが変更されてもよい。
オーディオ・ビデオコンテンツに伴う触覚トラックを使用する場合は、時間及びオーディオ・ビデオコンテンツとの同期に単純に基づくのとは異なり、本発明の一実施形態に係る触覚トラックの進行はユーザがどこを見ているかによって決定される。上記したように、特定の言葉、特定のグラフィックコンテンツ又は特定のオブジェクトが見られると、特定の効果がトリガされてもよい。システム100はまた、ユーザがどこを見ているかに応じて、触覚効果のトラックを進めてもよい。例えば、ユーザが文章を読み始めるとゴロゴロという音がなる効果が開始されて、段落の終了まで続き、段落の終点に達すると、イベントを示すべく爆発効果が生成されるようにしてもよい。
コンテンツが紙に印刷されている実施形態では、読者が注意を向けている画像を捕捉及び解析することによって判定が行われる。そして、コンテンツをデータベース(例えば、言葉と触覚効果との紐付け)と比較する、又は、読まれている特定のコンテンツと関連付けされたインデックス(例えば、特定の言葉における触覚トリガを伴う小説のデジタル版)と比較する。コンテンツがデジタルである実施形態では、視線追跡装置150は、ユーザの視線の位置を判定して、見られている言葉又はグラフィックを、上記の画像解析を使用せずに抽出する。
一実施形態では、イベント判定モジュール116は、スマートアルゴリズムを使用してプログラムされて、言葉又は文が読み返された場合、又は、ユーザが一文中の次の言葉を前もって見るべく素早いサッカードを行った場合に、触覚フィードバックが繰り返されてしまうのを防ぐようにしてもよい。このようなアルゴリズムでは、コンテンツ判定モジュール112及び視線判定モジュール114から出力される信号を処理して、コンテンツが読み返されているのか又はユーザがコンテンツを飛ばして次を読んでいるのかを判定する。このような判定がなされる場合、信号は、触覚出力装置制御モジュール118へと出力される。言葉又は文章が読み返されていると判定された場合には、触覚出力装置制御モジュール118は信号を触覚出力装置160へと出力しなくてもよい、又は、ユーザが飛ばして読んでおり重要な言葉又は文章を見落としてしまっていると判定された場合には、触覚出力装置制御モジュール118は信号を触覚出力装置160へと出力して触覚効果を生成してもよい。
一実施形態において、コンテンツはマップであってもよい。システム100のユーザがマップ上の様々な要素を見ると、様々な触覚効果がトリガされてもよい。例えば、異なる触覚効果が、場所、道路、現在位置及び/又は目的地に割り当てられてもよい。一実施形態において、コンテンツは印刷された広告を含んでもよい。例えば、ユーザが特定のブランドのロゴを見た時に、ブランド固有の触覚効果がトリガされてもよい。
一実施形態において、コンテンツはユーザ環境における任意のオブジェクトを含んでもよい。例えば、旅行アプリケーションの場合、ユーザが肝心な点を見る都度、触覚効果がトリガされてもよい。推奨システムでは同様に、ユーザが良い又は悪いレストラン又はメニューの項目を見ると、触覚効果がトリガされてもよい。ユーザはまた、システム100をプログラムして、関係するオブジェクトに対する触覚効果がトリガされるようにしてもよい。例えば、ユーザが探している人物を見た時には、ユーザがポジティブな効果を感じるようにしてもよく、ユーザが食べるべきでないケーキを見た時には、ユーザがネガティブな効果を感じるようにしてもよい。
一実施形態において、触覚効果又は触覚トラックを印刷されたコンテンツと関連付けるのに視線追跡を利用してもよい。例えば、触覚効果又は触覚トラックを加えようとする人は、単語を見て選択して、選択した当該単語と触覚効果とを関連付けてもよい。これは、触覚効果又は触覚トラックを加えようとする人が、再生すべき効果の名前を声に出して言うことで選択できる場合、又は、キーボード上の対応するキーを見ずに押すことによって選択できる場合には、早く関連付けできると考えられる。一実施形態では、触覚効果がオーディオブック又はポッドキャストのコンテンツと同期されてもよく、読者がデジタル漫画におけるタイル間でフリップすると触覚効果が生成されてもよい。
図3は、本発明の一実施形態の一実装形態を示す。図示の実施形態では、システム100のユーザは、本実施形態ではタブレット300であるハンドヘルド電子装置上での本を読んでいる。上記した視線追跡装置150のような視線追跡装置350が、タブレット300に又はその一部に搭載されている。例えば、ユーザが「爆発」といった特定の言葉310を読んでいる時に、視線追跡装置350がユーザの注視位置を検出して、上記したプロセッサ110のようなタブレット300内のプロセッサが、本の中の当該注視位置と爆発効果とを関連付けると決定する。上記の触覚出力装置160のような、タブレット300内の触覚出力装置が、読書をより没入感のある体験とするべく振動の形態の触覚効果HEを生成する。
図4は、本発明の一実施形態の一実装形態を示す。図示の実施形態では、システム100のユーザは、ヘッドマウントディスプレイ400を装着して漫画を読んでいる。ヘッドマウントディスプレイ400は、ユーザの視線方向をトラックし続け、ユーザが爆発を有するタイル410に到達した時を判定する。ヘッドマウントディスプレイ400は爆発を模した振動の形態の触覚効果HEをちょうど良いタイミングでヘッドマウントディスプレイ400上で生成して、漫画をより没入感を提供できるものとする。
ある実装形態では、システム100のユーザは、タブレットでサイエンスフィクション小説を読む及び楽しむことができる。小説の中の主人公が追われて活気のある市場の中を走る場面をユーザが読むと、システム100によって生成される触覚効果を介してアクションをユーザが感じられるようにしてもよい。主人公がドアに衝突する場面をユーザが読むと、ユーザはユーザの手の中で衝突か起きたかのような触覚効果を感じるようにしてもよい。例えば、主人公が水のプールに落ちる、襲撃者をパンチする、地上に落ちる等、お話の各場面をユーザが読んでいると判定されると、その他の触覚効果が生成されてもよい。
ある実装形態では、システム100のユーザは、より没入感のある別の本を読んでいる。ユーザが特定の場面を読んでいる時に個別の触覚効果を発生させる代わりに、この本では、ユーザが本を読み異なる部分に到達すると、連続的に変化する複雑な触覚トラックを伴うムードが生成される。
一実装形態では、システム100のユーザは、グーグルグラス(登録商標)のようなヘッドマウントディスプレイを装着して漫画を読んでいる。ヘッドマウントディスプレイは、上記したような視線追跡装置150を備えており、ユーザが何を見ているかを検出して、漫画をより没入感のあるものとするべく最適なタイミングで振動する。ユーザが爆発、パンチ等を漫画の中で読むと、その爆発、パンチ等をユーザが感じるようにしてもよい。
一実装形態において、システム100のユーザは、パリの地下鉄の地図を理解しようとする。ユーザが地図の異なる部分を見ると、自身の現在地、目的地、グーグルグラスユニットが推奨するルート等について、異なる効果をユーザが感じるようにしてもよい。
ある実装形態では、システム100のユーザは、スマートフォンを使用して、バルセロナの徒歩旅行をする。ユーザが自身にとって特別な意味を持つ建物又は場所を見る時に、特別な効果をユーザが感じられるようにしてもよい。ユーザが、ユーザが見ているものと合致する雰囲気の効果を選択可能としてもよい。例えば、歴史的な戦いが行われた地では戦場のような触覚効果が生成されてもよいし、古い工場では工場で作業がなされているリズムを触覚トラックを介して感じられるようにしてもよい。
一実施形態では、システム100のユーザが読んでいる又は見ているテキスト又はイラストが動いてもよい。触覚トラックは、例えば、ディスプレイ170上でテキストストロークとして再生されてもよい。例えば、一部のウェブブラウザ及び電子書籍リーダは、自動的にテキストをスクロールしてページをめくるように設定されていてもよい。このような手法は、視線追跡が利用可能であれば、静的なテキストの場合と同様である。視線追跡が利用不可能である場合には、ディスプレイ170で現在表示されているコンテンツに基づいて、触覚効果が生成される。ある実装形態では、触覚効果は、ページの全体的なムード又は表示される極端なイベント(例えば、極めて感情的なコンテンツ)に基づいてもよい。ある実装形態では、ディスプレイ170は、一度に数単語のみを表示するようにして、触覚効果の紐付けを容易にするようにしてもよい。
一実施形態では、視線追跡装置150は、ユーザが単語又は文を飛ばして読んだことを検出してもよい。これは、例えば、ユーザが速く読もうと思っている場合(斜め読み)、又は、テキストが読むには速く動き過ぎている場合(例えば、移動中のバスの中の広告)におきる。このような場合、システム100は、例えば、小説の中で決定的なイベント又は読者の興味対象である何かのように読み飛ばすべきでないコンテンツをユーザが読み飛ばしたかを判定してもよい。そしてシステム100は、ユーザに警告するべく触覚通知を生成して、読み飛ばされた言葉を視覚的にハイライトしてもよい。特定の言葉又は名前についてリストの中から探している場合にも、同様の構成を適用できる。
一実施形態において、システム100は、使用されているフォントに基づいて、本で使用される触覚効果を調整してもよい。システム100は例えば、草書体又は曲線的な及び見た目に美しいフォントが使用されている場合には、滑らかで弱い触覚効果を選択してもよい。システム100が、タイプライターの文字盤のように「がっちりとした(blocky)」フォントが使用されている場合には、シャープな触覚効果が選択されてもよい。触覚効果は、テキストを構成したソースに縛られてもよく、例えば、ペンで書かれたものとタイプライターで作成されたものとで異なってもよい。システム100は、セリフ(serif)があるかないか、太字体かイタリック体か、テキストのサイズ、ハイライト等の要素を考慮するように構成されてもよい。解析は、本のデジタルコンテンツに基づいてもよいし(例えば、フォントの名前及びプロパティ)、画像処理を通じて(例えば、シャープさ又は一筆の動きの長さ等)なされてもよい。一実施形態では、解析は、プロセッサ110によって実行されるとコンテンツ判定モジュール114によって完了してもよい。
一実施形態において、触覚フィードバックは、本又は新しい記事の構造を強化してもよい。例えば、表題は、テキスト本体とは異なるように感じられてもよい。一実施形態において、触覚フィードバックを使用して、様々なセクション又は章のコンテキストを設定してもよい。例えば、触覚フィードバックにより、どの登場人物が現在の章でナレーションをしているかについて読者に思い出させてもよい。触覚フィードバックはまた、どの登場人物が現在話しているかを示してもよい。
一実施形態において、本の触覚トラックを、小説のオーディオブック版の少なくとも一部から読み出してもよい。例えば、アマゾンのキンドル(登録商標)は、本の中のある場所を、オーディオブック中の場所とどのように関連付けするか分かっている。一実施形態において、システム100は、オーディオブックにおける音楽及び音響効果、読者のトーン、及び、(実際の又はうその)声の変化を解析してもよい。この情報を使用することにより、ユーザが印刷された本又はオーディブックの電子書籍版を読んでいる時に、例えば、章のムードに合致する触覚効果、話をしている登場人物の性格に合った触覚効果を生成することができる。
一実施形態では、触覚トラックで使用される触覚テーマを、本の内容又は読者についての情報に合わせてもよい。例えば、触覚トラックは、読者の年齢及び性別に依存してもよいし、読者がこの本を読むのが初めてか否かに依存してもよい。また、テーマが、本の言語、及び、本又はセクションで記載される概念的テーマ(例えば、恋愛小説の愛)に依存してもよい。また、触覚効果を、読まれるコンテンツの種類に適合させてもよい。例えば、推理小説とは反対に、新聞記事のコンテキストで読まれる場合には、爆発を異なって感じさせるようにしてもよい。
一実施形態では、読者がコンテンツに注意を払っているか否かをモニタするのに視線追跡を利用してもよい。例えば、ユーザが考えている、気が散っている又は寝ているのを、目の動きから検出することが可能である。触覚効果を使用して、例えば、勉強すべき時など望ましい場合には、読者の「目を覚まして」本へと注意を戻させるようにしてもよい。一実施形態では、システム100は、ユーザがページから目をそらした場合には、自動的にそのページにしおりを配置して、触覚効果を通じてしおりが配置されたことをユーザに通知してもよい。一実施形態において、システムは、ユーザが長時間読書をしている場合には、当該ユーザに警告する触覚効果を生成してもよい。
一実施形態において、視線追跡を使用して、ユーザ入力を行ってもよい。例えば、選択、ハイライト、辞書を引く又はページをめくる動作をトリガするのに視線を使用すると同時に、触覚フィードバックが生成されてもよい。一実施形態において、目のジェスチャを使用してパスワードを入力してもよいし、スマートウォッチを見ただけで当該スマートウォッチが起動されてもよい。一実施形態において、多眼ジェスチャ(multi−eye gesture)を、例えば入力に利用して、見ている画像にズームするべくユーザは自身の眼を寄り目にしてもよい。
一実施形態において、視線追跡をナビゲーションコンテキストで使用してもよい。例えば、運転者の意図をユーザの視線から推測することで、ナビゲーションキューを触覚効果と共に提供してもよい。次に曲がるべき道路を判断するべく、運転者がGPSを見る場合がある。この場合、システム100は、運転者が見ている道路が曲がるべき正しい道路であることを、触覚効果を使用して運転者に確認させる通知を提供してもよい。
図5A〜5Dに示される一実施形態では、ユーザが例えば、携帯装置で動画を見ている時に突然現れる広告を閉じるのに視線追跡を使用してもよい。例えば、図5Aには、スマートフォンのような携帯装置500に、夕日の動画が再生されている様子が示されている。上記した視線追跡装置150のような視線追跡装置は、図5Aにおいて参照番号510で示される場所の太陽をユーザが見ていることを検出する。図5Bに示すように、ユーザが夕日を見ている時に、携帯装置のディスプレイ570上に広告ADが立ち上がり、図5Cに示すように夕日の動画の上に重ねて表示されたとする。図示の実施形態では、広告は自動車に関するものである。図5Cの場所510の位置で示されるように、ユーザが広告を見ている。広告は、広告の視覚的効果を改善するべく、及び/又は、広告に関連付けられた触覚ブランドを再生するべく、触覚効果を含む。ユーザが十分に広告を見た後、又は、1〜2秒のような所定の期間広告を見た後、図5Dに示すように、ユーザはウィンドウのディスプレイ570の左下の角部に配置されたXボタンを見て、広告ADを閉じることができる。特に、スマートフォンのような小型のディスプレイに表示された広告を閉じるには、指を使用するよりも視線追跡を入力として使用した方が容易であると考えられる。広告ウィンドウが表示される場合、ユーザの目が広告に注目している場合、及び/又は、ユーザが所定期間、広告を見た後で当該広告を閉じる場合に、触覚出力装置160によって触覚効果が生成されてもよい。ユーザの視線を追跡することにより、ユーザが広告を見ずに閉じているのではなく、ユーザが実際に広告を見ていることを確かめることができる。
一実施形態において、動画が再生されている間に当該動画内の広告にユーザが注意を向けている時に、音声、動画及び触覚コンテンツを含む広告を再生するのに視線追跡を利用してもよい。例えば、一実施形態では、システム100のユーザは、ディスプレイ170で生放送しているフットボールの試合を見ている場合がある。カメラがスタジアムを一周するように撮影すると、スタジアムに貼られた広告バナーがユーザの目に入る。視線追跡装置150を使用して広告バナーの位置を見ているユーザの視線を追跡してもよく、プロセッサ110は、広告の内容を判定して、動画上に短時間だけ広告されている製品の画像の表示をトリガするようにしてもよい。触覚効果を使用して広告を強化してもよく、または、元のマルチメディアストリームの音声、動画及び触覚効果に重ねてもよい。
一実施形態において、視線追跡を使用して、ユーザの視線の位置に応じた触覚コンテンツを再生してもよい。例えば、動画が再生されている間にユーザが高級スポーツカーに注目している場合、当該高級スポーツカーの触覚サインが生成されてもよく、ユーザが経済的な車に注目している場合には、当該経済的な車について異なる触覚サインが生成されてもよい。一実施形態において、システム100のユーザがユーザの目で仮想/拡張環境を探索している場合、当該仮想/拡張環境におけるオブジェクトと関連付けされて生成される触覚効果は、ユーザが注意を向けている位置に依存してもよい。
一実施形態において、システム100のユーザが、ビデオゲーム機のゲームを行っているライブ動画ストリーミングを視聴している場合、ユーザは、ゲーム内の様々なプレーヤの全てのアクションを見ている場合がある。観客としてのユーザに対して生成される触覚効果は、ユーザがプレーヤ1を見ているのか、又は、プレーヤNを見ているのかによって異なってもよい。例えば、プレーヤ1がマシンガンを有する場合、ユーザがマシンガンに関連する触覚効果を感じてもよく、ユーザが怪我をしており素手で戦っているプレーヤNを見ている場合は、ユーザは当該キャラクターに関する全ての触覚インタラクション、例えば、手や体に感じるパンチを感じてもよい。
一実施形態において、一の電子装置から別の電子装置へのコンテンツの転送を行うのに視線追跡を使用してもよい。例えば、システム100のユーザは、一の部屋に配置されるテレビの形態のディスプレイ170に表示される動画を視聴しており、当該動画を見続けたいと望んでいるにも関わらず別の部屋に行くと決めたとする。この場合、ユーザは、当該ユーザのスマートウォッチを見て、当該ビデオコンテンツを当該スマートウォッチへと転送してもよく、これによりユーザはスマートウォッチで動画を視聴し続けることができる。
コンピュータ及び携帯装置の場合、ユーザは典型的にこれらの装置に対して、キーボード、マウス及び/又はタッチスクリーンを介して入力を提供するが、これには、機械的動作が必要とされ、特に、小さな領域でのインタラクションではユーザが正確に入力を行うのが難しく、長く時間がかかりイライラする場合がある。本発明の一実施形態では、ユーザの視線を検出するのに視線追跡を利用してもよく、コンピュータに対する入力として検出した視線を利用してもよい。例えば、ユーザはプログラム/アプリケーションを一定期間見るだけで当該コンピュータプログラム/アプリケーションを閉じることができてもよく、ユーザは指を使わないので、手や指を動かす機械的な特性によって更なる時間をかけることがない。
一実施形態において、ユーザがマルチメディアコンテンツの特定の領域を注目すると、新たなコンテンツが表示されてもよい。例えば、双方向メディア内で、新たなプログラム又はアプリケーションが開かれる又は起動されてもよく、ユーザに対するその他の有用な情報を含む、触覚サイン又はブランドが再生されてもよい。
図6は、本発明の一実施形態に係る方法600を示す。610において、上記した視線追跡装置150を使用して、ユーザの視線の方向を検出する。620において、コンテンツ判定モジュール112がプロセッサ110によって実行されると、コンテンツ判定モジュール112は、当該検出された注視位置における画像を特定する。630において、触覚出力装置制御モジュール118がプロセッサ110によって実行されると、触覚出力装置制御モジュール118は特定された画像に基づく触覚効果を決定する。640において、決定された触覚効果が触覚出力装置160によって生成される。
図7は、本発明の一実施形態に係る方法700を示す。710において、ユーザが画像を含むメディアコンテンツを見ている時のユーザの視線の追跡が行われる。ユーザの視線は、上記した視線追跡装置150によって追跡されてもよい。720において、前記画像を特定するべく、メディアコンテンツの解析が行われる。コンテンツ判定モジュール112がプロセッサ110によって実行されると、コンテンツ判定モジュール112を使用して、メディアコンテンツの解析が行われる。730において、ユーザの視線の注視位置が特定される。視線判定モジュール114がプロセッサ110によって実行されると、視線判定モジュール114によって注視位置が判定される。740において、トリガすべきイベントを、特定された画像及び注視位置に基づいて決定する。イベント判定モジュール116がプロセッサ110によって実行されると、イベント判定モジュール116によってイベントが決定されてもよい。750において、画像、注視位置及びイベントのトリガの特定に基づいて、ユーザに対して触覚効果が生成されてもよい。触覚出力装置制御モジュール118がプロセッサ110によって実行されると、触覚出力装置制御モジュール118によって触覚効果が決定されて、触覚出力装置160により触覚効果が生成されてもよい。
上記の本発明の実施形態は、新聞を読む場合も含めて、本及び漫画のようなその他の種類のメディアに対して触覚コンテンツの刺激をもたらし、それにより、ビデオゲームやテレビ等の刺激があって面白いとされているマルチメディア体験とと同等なメディアとすることができる。上記の本発明の実施形態によれば、市のガイドツアーで建物を見学する時のようにその他の実際の体験に対して、触覚コンテンツを紐付けすることができ、それにより、当該体験をより説得力があり楽しめるものとすることができる。
本明細書に記載された実施形態は、実施可能な実装例および実施例であるが、本発明を特定の実施形態に制限することを必ずしも意図するものではない。むしろ、これらの実施形態には、当該技術分野における当業者に理解できるような変更を加えることができる。このような変更が加えられた態様も本発明の要旨及び範囲に含まれ、そして以下の請求項によって保護されるべきものである。

Claims (21)

  1. 画像を含むメディアコンテンツを見ている間のユーザの視線を追跡するように構成された視線追跡装置と、
    一又は複数のコンピュータプログラムモジュールを実行するように構成されたプロセッサと、を備え、前記一の又は複数のコンピュータプログラムモジュールは、
    前記プロセッサによって実行されると、前記画像を特定するべく前記メディアを解析するコンテンツ判定モジュールと、
    前記プロセッサによって実行されると、前記画像を見ている間の前記ユーザの視線の注視位置を特定する視線判定モジュールと、
    前記プロセッサによって実行されると、前記画像の特定及び前記注視位置に基づいて、トリガすべきイベントを決定するイベント判定モジュールとを含む、システム。
  2. 前記画像を含む前記メディアコンテンツを表示するように構成されたディスプレイを更に備える、請求項1に記載のシステム。
  3. ユーザインターフェースを更に備え、前記ディスプレイは前記ユーザインターフェースの一部である、請求項2に記載のシステム。
  4. 前記注視位置、前記画像の特定及び/又は前記イベントのトリガに基づいて、前記ユーザに対する触覚効果を生成するように構成された触覚出力装置を更に備える、請求項2に記載のシステム。
  5. 前記ディスプレイ、前記視線検出装置、前記プロセッサ及び前記触覚出力装置は、一つの統合された装置の一部である、請求項4に記載のシステム。
  6. 前記一つの統合された装置は、スマートフォン、タブレット及び電子書籍リーダからなる群から選択される、請求項5に記載のシステム。
  7. 前記触覚出力装置は、前記イベントのトリガに基づいて前記触覚効果を生成するように構成される、請求項4に記載のシステム。
  8. 前記メディアコンテンツはマルチメディアコンテンツであり、前記画像は前記マルチメディアコンテンツの一部として提供される、請求項7に記載のシステム。
  9. 前記イベントは、前記マルチメディアコンテンツ上の、前記ディスプレイによって表示されるウィンドウの開閉である、請求項8に記載のシステム。
  10. 前記ウィンドウは、広告を含む請求項9に記載のシステム。
  11. ウェアラブル電子装置を更に備え、
    前記触覚出力装置は、前記ウェアラブル電子装置に位置する、請求項4に記載のシステム。
  12. 前記ウェアラブル電子装置は、スマートウォッチを含む請求項11に記載のシステム。
  13. ユーザが画像を含むメディアコンテンツを見ている時の前記ユーザの視線を追跡する工程と、
    前記画像を特定するべく、前記メディアコンテンツの解析を行う工程と、
    前記ユーザの視線の注視位置を特定する工程と、
    特定された前記画像及び前記注視位置に基づいてトリガすべきイベントを判定する工程と、を備える方法。
  14. 前記画像の特定、前記ユーザの視線の前記注視位置及び/又は前記イベントのトリガに基づいて、前記ユーザに対して触覚効果を生成する工程を更に備える、請求項13に記載の方法。
  15. 前記ユーザが見る前記画像の変化に基づいて、前記触覚効果を調整する工程を更に備える、請求項14に記載の方法。
  16. 前記ユーザの視線の前記注視位置の変化に基づいて、前記触覚効果を調整する工程を更に備える、請求項14に記載の方法。
  17. 前記イベントをトリガする工程を更に備え、
    前記触覚出力を生成する工程は、前記イベントの前記トリガに基づく、請求項14に記載の方法。
  18. 前記イベントは、広告を表示するべくウィンドウを開くこと、又は、前記ウィンドウを閉じることを含む、請求項17に記載の方法。
  19. ディスプレイを使用して、前記メディアコンテンツを表示する工程を更に備える、請求項13に記載の方法。
  20. 前記ディスプレイを使用して広告を表示する工程と、
    前記広告内の位置に向けられた前記ユーザの視線を追跡する工程と、
    前記広告と関連付けられた少なくとも一つの触覚効果を生成する工程と、を更に備える請求項19に記載の方法。
  21. 前記ユーザが前記広告における第1画像を見ている場合には第1触覚効果が生成され、
    前記ユーザが前記第1画像とは異なる前記広告における第2画像を見ている場合には、前記第1触覚効果とは異なる第2触覚効果が生成される、請求項20に記載の方法。
JP2015242787A 2014-12-29 2015-12-14 視線追跡に基づく触覚効果を生成するシステム及び方法 Pending JP2016126773A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/584,098 US20160187976A1 (en) 2014-12-29 2014-12-29 Systems and methods for generating haptic effects based on eye tracking
US14/584,098 2014-12-29

Publications (1)

Publication Number Publication Date
JP2016126773A true JP2016126773A (ja) 2016-07-11

Family

ID=55024914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015242787A Pending JP2016126773A (ja) 2014-12-29 2015-12-14 視線追跡に基づく触覚効果を生成するシステム及び方法

Country Status (5)

Country Link
US (1) US20160187976A1 (ja)
EP (1) EP3040812A1 (ja)
JP (1) JP2016126773A (ja)
KR (1) KR20160080083A (ja)
CN (1) CN105739680A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101802700B1 (ko) * 2017-03-15 2017-11-29 한국전자통신연구원 실감 미디어 저작 방법 및 장치
WO2019039378A1 (ja) * 2017-08-23 2019-02-28 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像表示方法
CN109661646A (zh) * 2016-07-13 2019-04-19 万杰成礼品有限合伙公司 用于交互式阅读的系统、装置和方法
WO2020131905A1 (en) * 2018-12-21 2020-06-25 Immersion Corporation Haptically-enabled media
JP2022553581A (ja) * 2019-11-05 2022-12-23 マイクロン テクノロジー,インク. 眼球運動に部分的に基づいたユーザーインターフェース
WO2023058457A1 (ja) * 2021-10-05 2023-04-13 株式会社デンソー 表示装置、画像の表示方法および画像の表示プログラム
US11972049B2 (en) 2017-08-23 2024-04-30 Neurable Inc. Brain-computer interface with high-speed eye tracking features
JP7492951B2 (ja) 2018-09-21 2024-05-30 ニューラブル インコーポレイテッド ユーザ相互作用の高速且つ正確な追跡を使用する人間/コンピュータインターフェース
US12001602B2 (en) 2017-11-13 2024-06-04 Neurable Inc. Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9753539B2 (en) 2014-10-02 2017-09-05 Futureplay Inc. Method, device, system and non-transitory computer-readable recording medium for providing user interface
US10070183B2 (en) * 2014-12-15 2018-09-04 Verizon Digital Media Services Inc. Processing techniques in audio-visual streaming systems
EP3734661A3 (en) 2015-07-23 2021-03-03 Artilux Inc. High efficiency wide spectrum sensor
US10761599B2 (en) 2015-08-04 2020-09-01 Artilux, Inc. Eye gesture tracking
US10861888B2 (en) 2015-08-04 2020-12-08 Artilux, Inc. Silicon germanium imager with photodiode in trench
TWI744196B (zh) 2015-08-04 2021-10-21 光程研創股份有限公司 製造影像感測陣列之方法
US10707260B2 (en) 2015-08-04 2020-07-07 Artilux, Inc. Circuit for operating a multi-gate VIS/IR photodiode
US10387570B2 (en) * 2015-08-27 2019-08-20 Lenovo (Singapore) Pte Ltd Enhanced e-reader experience
EP3341970B1 (en) 2015-08-27 2020-10-07 Artilux Inc. Wide spectrum optical sensor
US10418407B2 (en) 2015-11-06 2019-09-17 Artilux, Inc. High-speed light sensing apparatus III
US10886309B2 (en) 2015-11-06 2021-01-05 Artilux, Inc. High-speed light sensing apparatus II
US10739443B2 (en) 2015-11-06 2020-08-11 Artilux, Inc. High-speed light sensing apparatus II
US10254389B2 (en) 2015-11-06 2019-04-09 Artilux Corporation High-speed light sensing apparatus
US10741598B2 (en) 2015-11-06 2020-08-11 Atrilux, Inc. High-speed light sensing apparatus II
CN105528577B (zh) * 2015-12-04 2019-02-12 深圳大学 基于智能眼镜的识别方法
JP2018045373A (ja) * 2016-09-13 2018-03-22 富士通株式会社 情報処理プログラム、情報処理端末及び情報処理方法
WO2018081609A1 (en) * 2016-10-27 2018-05-03 Livelike Inc. Spatial audio based advertising in virtual or augmented reality video streams
US10416757B2 (en) * 2016-12-08 2019-09-17 Raymond Maurice Smit Telepresence system
US10324531B2 (en) 2016-12-27 2019-06-18 Immersion Corporation Haptic feedback using a field of view
US20180231975A1 (en) * 2017-02-16 2018-08-16 GM Global Technology Operations LLC Vehicle entertainment system
CN106980983A (zh) * 2017-02-23 2017-07-25 阿里巴巴集团控股有限公司 基于虚拟现实场景的业务认证方法及装置
CN106973222A (zh) * 2017-02-28 2017-07-21 维沃移动通信有限公司 一种数码变焦的控制方法和移动终端
US10877647B2 (en) 2017-03-21 2020-12-29 Hewlett-Packard Development Company, L.P. Estimations within displays
US11393352B2 (en) * 2017-03-23 2022-07-19 Hello Clover , Llc Reading and contingent response educational and entertainment method and apparatus
US10396272B2 (en) * 2017-05-04 2019-08-27 International Business Machines Corporation Display distortion for alignment with a user gaze direction
US10810773B2 (en) * 2017-06-14 2020-10-20 Dell Products, L.P. Headset display control based upon a user's pupil state
KR102495234B1 (ko) 2017-09-06 2023-03-07 삼성전자주식회사 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체
TWI788246B (zh) 2018-02-23 2022-12-21 美商光程研創股份有限公司 光偵測裝置
US11105928B2 (en) 2018-02-23 2021-08-31 Artilux, Inc. Light-sensing apparatus and light-sensing method thereof
JP7212062B2 (ja) 2018-04-08 2023-01-24 アーティラックス・インコーポレイテッド 光検出装置
TWI795562B (zh) 2018-05-07 2023-03-11 美商光程研創股份有限公司 雪崩式之光電晶體
US10969877B2 (en) 2018-05-08 2021-04-06 Artilux, Inc. Display apparatus
CN109254659A (zh) * 2018-08-30 2019-01-22 Oppo广东移动通信有限公司 穿戴式设备的控制方法、装置、存储介质及穿戴式设备
US11435820B1 (en) * 2019-05-16 2022-09-06 Facebook Technologies, Llc Gaze detection pipeline in an artificial reality system
US11093033B1 (en) * 2019-10-28 2021-08-17 Facebook, Inc. Identifying object of user focus with eye tracking and visually evoked potentials
US11209902B2 (en) * 2020-01-09 2021-12-28 Lenovo (Singapore) Pte. Ltd. Controlling input focus based on eye gaze
EP3953008B1 (en) * 2020-06-22 2024-05-22 Audiomob Ltd Adding audio content to digital works
GB2603564A (en) 2020-06-22 2022-08-10 Audiomob Ltd Sending audio content to digital works
WO2022066159A1 (en) * 2020-09-24 2022-03-31 Hewlett-Packard Development Company, L.P. Bookmarks
CN113126762B (zh) * 2021-04-21 2022-08-16 惠东县人民医院 一种用于监测医疗行为的医疗数据核查装置及方法
WO2022241002A1 (en) * 2021-05-11 2022-11-17 Stake Drive Systems, Llc Object orientation indicator
TR2021019123A2 (tr) * 2021-12-06 2021-12-21 T C Bartin Ueniversitesi Rektoerluegue Göz taki̇p si̇stemi̇ i̇le okunan cümledeki̇ duyguya göre müzi̇k çalan si̇stem
TWI802216B (zh) * 2022-01-11 2023-05-11 崑山科技大學 以眼球追蹤凸顯授課重點的方法、電腦程式產品及電腦可讀取媒體
WO2023174538A1 (en) * 2022-03-17 2023-09-21 Telefonaktiebolaget Lm Ericsson (Publ) Controlling a haptic touchscreen
EP4266156A1 (en) * 2022-04-20 2023-10-25 BIC Violex Single Member S.A. Apparatus and method for haptically augmented display of visual cues
CN117389441B (zh) * 2023-11-23 2024-03-15 首都医科大学附属北京天坛医院 基于视觉追随辅助的书写想象汉字轨迹确定方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007524903A (ja) * 2003-06-16 2007-08-30 クラリア コーポレイション コンピュータネットワーク内のエンドユーザに対するメッセージの提示
JP2012511749A (ja) * 2008-12-09 2012-05-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 実体験のように感じる効果を提供する方法及びシステム
JP2013528855A (ja) * 2010-04-23 2013-07-11 イマージョン コーポレイション 触覚効果を与えるシステム及び方法
WO2014081508A1 (en) * 2012-11-20 2014-05-30 Immersion Corporation Systems and methods for providing mode or state awareness with programmable surface texture
JP2014516181A (ja) * 2011-05-25 2014-07-07 株式会社ソニー・コンピュータエンタテインメント 視線によるデバイスの挙動の変更
US20140256438A1 (en) * 2013-03-11 2014-09-11 Immersion Corporation Haptic sensations as a function of eye gaze

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6152563A (en) * 1998-02-20 2000-11-28 Hutchinson; Thomas E. Eye gaze direction tracker
US6195640B1 (en) * 1999-01-29 2001-02-27 International Business Machines Corporation Audio reader
WO2006100645A2 (en) * 2005-03-24 2006-09-28 Koninklijke Philips Electronics, N.V. Immersive reading experience using eye tracking
US20060256133A1 (en) * 2005-11-05 2006-11-16 Outland Research Gaze-responsive video advertisment display
US20100295667A1 (en) * 2009-05-22 2010-11-25 Electronics And Telecommunications Research Institute Motion based pointing apparatus providing haptic feedback and control method thereof
US20120166472A1 (en) * 2010-12-22 2012-06-28 Xerox Corporation System and method for collaborative graphical searching with tangible query objects on a multi-touch table
US10013053B2 (en) * 2012-01-04 2018-07-03 Tobii Ab System for gaze interaction
US9041622B2 (en) * 2012-06-12 2015-05-26 Microsoft Technology Licensing, Llc Controlling a virtual object with a real controller device
US8854447B2 (en) * 2012-12-21 2014-10-07 United Video Properties, Inc. Systems and methods for automatically adjusting audio based on gaze point
US9466187B2 (en) * 2013-02-04 2016-10-11 Immersion Corporation Management of multiple wearable haptic devices
US9395816B2 (en) * 2013-02-28 2016-07-19 Lg Electronics Inc. Display device for selectively outputting tactile feedback and visual feedback and method for controlling the same
JP2014211738A (ja) * 2013-04-18 2014-11-13 株式会社デンソー 車載機器の制御装置、車載機器
US20150113454A1 (en) * 2013-10-21 2015-04-23 Motorola Mobility Llc Delivery of Contextual Data to a Computing Device Using Eye Tracking Technology
KR20150054413A (ko) * 2013-11-12 2015-05-20 삼성전자주식회사 시선 데이터에 따라 컨텐츠의 위치를 결정하는 전자 장치 및 방법
US9342147B2 (en) * 2014-04-10 2016-05-17 Microsoft Technology Licensing, Llc Non-visual feedback of visual change
US10001837B2 (en) * 2014-12-23 2018-06-19 Intel Corporation Technologies for interacting with computing devices using haptic manipulation
US9744853B2 (en) * 2014-12-30 2017-08-29 Visteon Global Technologies, Inc. System and method of tracking with associated sensory feedback

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007524903A (ja) * 2003-06-16 2007-08-30 クラリア コーポレイション コンピュータネットワーク内のエンドユーザに対するメッセージの提示
JP2012511749A (ja) * 2008-12-09 2012-05-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 実体験のように感じる効果を提供する方法及びシステム
JP2013528855A (ja) * 2010-04-23 2013-07-11 イマージョン コーポレイション 触覚効果を与えるシステム及び方法
JP2014516181A (ja) * 2011-05-25 2014-07-07 株式会社ソニー・コンピュータエンタテインメント 視線によるデバイスの挙動の変更
WO2014081508A1 (en) * 2012-11-20 2014-05-30 Immersion Corporation Systems and methods for providing mode or state awareness with programmable surface texture
US20140256438A1 (en) * 2013-03-11 2014-09-11 Immersion Corporation Haptic sensations as a function of eye gaze
CN104049731A (zh) * 2013-03-11 2014-09-17 英默森公司 依据眼睛注视的触觉感觉
JP2014197388A (ja) * 2013-03-11 2014-10-16 イマージョン コーポレーションImmersion Corporation 視線に応じた触覚感覚

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109661646A (zh) * 2016-07-13 2019-04-19 万杰成礼品有限合伙公司 用于交互式阅读的系统、装置和方法
JP2019527887A (ja) * 2016-07-13 2019-10-03 ザ マーケティング ストア ワールドワイド,エルピー インタラクティブなリーディングのためのシステム、装置、及び方法
KR101802700B1 (ko) * 2017-03-15 2017-11-29 한국전자통신연구원 실감 미디어 저작 방법 및 장치
WO2019039378A1 (ja) * 2017-08-23 2019-02-28 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像表示方法
JP2019039988A (ja) * 2017-08-23 2019-03-14 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像表示方法
US11231587B2 (en) 2017-08-23 2022-01-25 Sony Interactive Entertainment Inc. Information processing apparatus and image display method
US11972049B2 (en) 2017-08-23 2024-04-30 Neurable Inc. Brain-computer interface with high-speed eye tracking features
US12001602B2 (en) 2017-11-13 2024-06-04 Neurable Inc. Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions
JP7492951B2 (ja) 2018-09-21 2024-05-30 ニューラブル インコーポレイテッド ユーザ相互作用の高速且つ正確な追跡を使用する人間/コンピュータインターフェース
WO2020131905A1 (en) * 2018-12-21 2020-06-25 Immersion Corporation Haptically-enabled media
JP2022553581A (ja) * 2019-11-05 2022-12-23 マイクロン テクノロジー,インク. 眼球運動に部分的に基づいたユーザーインターフェース
WO2023058457A1 (ja) * 2021-10-05 2023-04-13 株式会社デンソー 表示装置、画像の表示方法および画像の表示プログラム

Also Published As

Publication number Publication date
KR20160080083A (ko) 2016-07-07
US20160187976A1 (en) 2016-06-30
EP3040812A1 (en) 2016-07-06
CN105739680A (zh) 2016-07-06

Similar Documents

Publication Publication Date Title
JP2016126773A (ja) 視線追跡に基づく触覚効果を生成するシステム及び方法
CN110168618B (zh) 增强现实控制系统和方法
US10241580B2 (en) Overlaying of haptic effects
JP6235636B2 (ja) 触覚効果を与えるシステム及び方法
US8549418B2 (en) Projected display to enhance computer device use
US9329678B2 (en) Augmented reality overlay for control devices
US20170337897A1 (en) Head mounted display device and method for controlling the same
US20120169583A1 (en) Scene profiles for non-tactile user interfaces
CN103858073A (zh) 增强现实系统的免触摸界面
US9087056B2 (en) System and method for providing augmented content
US20150097767A1 (en) System for virtual experience book and method thereof
KR101647969B1 (ko) 사용자 시선을 검출하기 위한 사용자 시선 검출 장치 및 그 방법과, 그 방법을 실행하기 위한 컴퓨터 프로그램
CN109154862B (zh) 用于处理虚拟现实内容的装置、方法和计算机可读介质
US20220012283A1 (en) Capturing Objects in an Unstructured Video Stream
Toyama et al. Wearable reading assist system: Augmented reality document combining document retrieval and eye tracking
US20210056866A1 (en) Portable Reading, Multi-sensory Scan and Vehicle-generated Motion Input
US11367416B1 (en) Presenting computer-generated content associated with reading content based on user interactions
US10580188B2 (en) Method of creating animated image based on key input, and user terminal for performing the method
JP5651639B2 (ja) 情報処理装置、情報表示装置、情報処理方法およびプログラム
JP7291106B2 (ja) コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム
US20190235710A1 (en) Page Turning Method and System for Digital Devices
Annapoorna et al. Hand Gesture Recognition and Conversion to Speech for Speech Impaired
Monea 13. Captured Time: Eye Tracking and the Attention Economy
NL2014682B1 (en) Method of simulating conversation between a person and an object, a related computer program, computer system and memory means.
JP2022184702A (ja) コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181106

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190809

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190815

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191018

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200120

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200522