JP5536092B2 - 実体験のように感じる効果を提供する方法及びシステム - Google Patents

実体験のように感じる効果を提供する方法及びシステム Download PDF

Info

Publication number
JP5536092B2
JP5536092B2 JP2011539124A JP2011539124A JP5536092B2 JP 5536092 B2 JP5536092 B2 JP 5536092B2 JP 2011539124 A JP2011539124 A JP 2011539124A JP 2011539124 A JP2011539124 A JP 2011539124A JP 5536092 B2 JP5536092 B2 JP 5536092B2
Authority
JP
Japan
Prior art keywords
image
effect
data
subject
feels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011539124A
Other languages
English (en)
Other versions
JP2012511749A (ja
Inventor
ジョウ,シャオミン
エイ トクマコフ,アンドリュー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2012511749A publication Critical patent/JP2012511749A/ja
Application granted granted Critical
Publication of JP5536092B2 publication Critical patent/JP5536092B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、実体験のように感じる効果(immersive effects)を提供する方法、実体験のように感じる効果の提供を制御するシステム及びコンピュータプログラムに関する。
WO2006/100645は、ユーザが現在見ている文書について、「実体験のように感じる読書体験(immersive reading experience)」を生成するシステムを開示している。このシステムは、文書を見ているユーザの画像を捕捉する少なくとも1つのカメラ、及びカメラに結合され、カメラからの画像を受ける少なくとも1つのプロセッサを有する。このプロセッサは、画像を処理し、画像を使用して、ユーザが現在見ている文書における位置を判定する。プロセッサは、文書における位置を処理して、ユーザが見ている現在の文書に対応する出力に関連する少なくとも1つの実体験のように感じる効果を生成する。1実施の形態では、このシステムは、e-bookを含む。e-bookのメモリは、e-bookのプロセッサが表示するのに使用する作品のテキストの電子的なバージョンを記憶する。その場合、効果に関連するデータは、ソフトウェアレイヤに含まれるか、又はユーザにとって見ることができないテキストの電子的なバージョン又はサブコードで含まれることが好ましい。プロセッサは、現在の見ている位置を使用し、ディスプレイのその位置で現在表示されているテキストを識別する。プロセッサは、表示されているテキストのメモリ位置を使用し、対応する実体験のように感じる効果のデータを読み出す。ペーパーブックを使用した代替的な実施の形態では、実体験のように感じる効果のデータは、頁に従ってメモリにおいて照会され、対応するテキストが現れるペーパーブックの頁に位置合わせされる。カメラは、頁の画像それ自身を捕捉するために使用され、書籍が開いている頁番号を認識するために画像処理が使用される。
公知の方法は、たとえばe-bookといったレンダリング装置により、注視点(gaze point)を実体験のように感じる効果に関連付けし、テキストを認識した位置を追跡するために画像を生成する構造化されたデータを使用している。
特に動画(動態イメージ)の系列を含めて、広範な画像の使用に適した開始節で定義されるタイプの方法、システム及びコンピュータプログラムを提供することが望まれる。
上記目的は、本発明に係る方法により達成され、本方法は、少なくとも1つの画像を表すデータを受信するステップ、少なくとも1つの画像のデータを分析して、少なくとも1つの画像で識別された少なくとも1つのオブジェクトを探すステップ、少なくとも1つの画像を観察可能な少なくとも1つの主体の注視焦点(visual focus of attention)を推定するステップ、少なくとも1つの主体に実体験のように感じる効果を与えるため、少なくとも1つの画像における少なくとも1つのオブジェクトの位置に対する相対的な注視焦点の位置に依存する少なくとも1つの信号をシステムに供給するステップを含む。
少なくとも1つの画像を表すデータを受信し、少なくとも1つの画像を分析して、少なくとも1つの画像で識別される少なくとも1つのオブジェクトを探すステップにより、当該方法は、画像の位置の暗黙的又は明示的なマッピングを提供することなしに、それぞれの画像について機能することができる。画像の系列の場合、これは、本方法を実行しているシステムには、係るマッピングを含む同期されたデータストリームが提供される必要がないことを意味する。同じ理由について、本方法は、たとえばデジタル表現が分析されるハードコピーにおける任意の画像といった広範な画像により機能することができる。係る実施の形態では、オブジェクトが認識され、実体験のように感じる効果に関連付けされる限りは、画像の位置と実体験のように感じる効果とのマッピングを含む構造化されたデータが必要とされない。
この開示の文脈では、用語「主体“subject”」は、生きた主体、すなわち人間、又はペット等のような動物を示す。
本方法の実施の形態は、少なくとも1つの画像を観察可能な多数の主体のそれぞれの注視焦点を推定し、主体の注視焦点に依存して実体験のように感じる効果を提供するためのシステムへの少なくとも1つの信号を適合させる。
この実施の形態は、本質的に全ての主体が同じオブジェクトに焦点を合わせているときに、同じ実体験のように感じる効果が全ての主体に提供されるのを可能にする。全ての主体が同じオブジェクトに焦点を合わせていないときには、弱められた実体験のように感じる効果が提供されるか又はフィードバックが全くない。代替的に、この実施の形態は、区別されたフィードバックを生成するポテンシャルを提供する。
多数の出力位置のそれぞれで個別の実体験のように感じる効果をシステムが提供する変形例は、少なくとも出力位置に関連して、主体の位置を決定することを含む。
この変形例は、たとえば多数の主体が異なる物を見ているとしても、適切な実体験のように感じる効果を複数の主体にフィードバックとして提供するのを可能にする。
実施の形態では、少なくとも1つの信号は、触覚型のフィードバックを提供する少なくとも1つの装置を含む実体験のように感じる効果を提供するシステムに供給される。
触覚型のフィードバックは、主体に力、振動及び/又は動きを伝えることを含めて、本質的に直接的な接触のみを通して、短い距離でのみ伝達することができる。効果は、ある主体にフィードバックとして提供される実体験のように感じる効果は、他の主体により知覚されない可能性が高いことである。従って、多数の主体が画像を観察することができるが、そのうちの1人のみが画像内の特定のオブジェクトを見ている状況では、そのオブジェクトに関連するフィードバックは、他の主体の邪魔になることなしに、その特定の主体のみに向けられる。
本方法の実施の形態は、主体を識別することを含む。
この環境では、「識別する“identifying”」とは、多数の主体のそれぞれを認識することであり、すなわち、ディスプレイ上で画像の環境において、たとえば5人の異なる主体が存在することを検出することである。代替的に、それら主体に、たとえば“Bob”、“Mary”等といった一般に予め決定された識別子である固有の識別子を関連付けすることを含む。効果は、識別されたフィードバックの提供が容易であり、本質的に、その注視焦点が推定される主体のうちの特定の1人にフォードバックが向けられるのを可能にする。
本実施の形態の変形例では、ある主体を識別することは、その主体を予め決定された識別子に関連付けすることを含み、実体験のように感じる効果を提供するシステムへの少なくとも1つの信号は、その識別子に関連付けされる設定にも依存して提供される。
効果は、たとえ制限された量の効果データが画像におけるオブジェクトと関連付けされるか、又はオブジェクトの特性に基づいて又は画像データと受信された効果データに基づいて画像におけるオブジェクトと関連付けすることができるとしても、実体験のように感じる効果を異なる主体により精密にチューニングすることが可能なことである。識別は、意義のある効果を達成するために固有である必要はない。たとえば、識別は、主体のカテゴリとすることができ、実体験のように感じる効果は、その主体のカテゴリに関連される設定に基づいて提供される。従って、異なる効果を子供に対して、そして大人に対して提供することができる。また、効果は、選択的に提供することができ、すなわち大人のみであって、子供には提供しないといった選択的に提供することができることである。識別が特定の個人からなる場合、本方法は、あるタイプの学習を実現し、これにより実体験のように感じる効果は、その個々の主体に関連する好みに基づいて提供される。
実施の形態では、注視焦点は時間を通して追跡され、実体験のように感じる効果を提供するシステムへの少なくとも1つの信号は、少なくとも1つの画像における少なくとも1つのオブジェクトの位置と相対的な注視焦点の位置に基づく信号を平滑化機能にかけることで提供される。
この実施の形態は、ある主体が、非常に異なるタイプのフィードバックを生じる複数のオブジェクトを含む画像をある主体がスキャンするときに生じる問題を回避する。はじめに、このシナリオでは、実体験のように感じる効果を提供するシステムは、遅延なしに正しい効果を提供するために、迅速な応答時間を有する必要がある。第二に、たとえこれら迅速な応答時間が与えられたとしても、その主体は、迅速且つ極端に変化する実体験のように感じる効果を受けた場合に、主体が非常にいらいらする場合がある。平滑化機能は、僅かに長い応答時間を有する実体験のように感じる効果を提供するシステムの使用を可能にし、この主体のいらいらを回避する。
実施の形態では、受信されたデータは、動画の系列を表し、画像における少なくとも1つのオブジェクトを識別するデータに関連するデータが受信される。
効果は、リアルタイムで受信された動画データに、オブジェクト識別アルゴリズムを実行することが必ずしも可能ではないシステムにおいて本方法のリアルタイムの実現が可能となることである。しかし、システムは画像データを分析してオブジェクトを探すため、画像系列のそれぞれについて実施するため、画像の位置をマッピングするデータのストリームを提供することが必要ではない。
この方法の変形例では、オブジェクトを識別するデータは、多数の画像のうちの第一の画像におけるオブジェクトの位置を識別するデータと関連付けされる。
言い換えれば、システムには、オブジェクトも最初の位置を詳細に説明する位置データが提供され、次いで、システムは、後続する画像を通して独立にオブジェクトを追跡することができる。これは、本方法を実現するシステム(たとえばデジタルテレビジョンセット又はセットトップボックス)に伝達される必要があるオブジェクトに関連されるデータの量における節約を表す。位置データは、画像データ及び/又はオブジェクトを識別するデータのソースから分離したソースにより提供することができる。
本方法の実施の形態は、少なくとも1つのオブジェクトの少なくとも1つの特性を決定するステップを含んでおり、少なくとも1つの画像における少なくとも1つのオブジェクトの位置と相対的な注視焦点の少なくとも1つの位置に依存して少なくとも1つの主体に実体験のように感じる効果を与える少なくとも1つの信号をシステムに供給するステップは、オブジェクトの特性に関連される効果に基づいて信号を調節するステップを含む。
効果は、ある主体の中位が特定のオブジェクトに向けられたときに適切な効果を提供することができることであるが、必ずしも特定のオブジェクトと特定の効果データとが関連付けされる必要はないことである。係る特定の効果データが供給される必要がないので、画像データのソースと本方法を実現するシステムのプロバイダとの間で標準化される必要がない。たとえば、オブジェクトは、それに関連される特性「動的“dynamic”」を有することができる。本方法を実現するシステムは、その特性をこの特性に適切な制御信号のセットにマッピングし、実体験のように感じる効果を提供する利用可能なシステムに適合させる。
この方法の変形例は、少なくとも1つの画像を表すデータと関連して、少なくとも1つの画像における少なくとも1つのオブジェクトを識別するデータを受信するステップ、少なくとも1つのオブジェクトを識別するデータを使用して少なくとも1つのオブジェクトの特性を決定するステップを含む。
この変形例は、比較的迅速に特性を決定する問題を解決する。これらの特性は、少なくとも1つのオブジェクトを識別するデータに含まれる場合があり、又は、シソーラス又は他の種類のマッピングを使用して、少なくとも1つのオブジェクトを識別するデータに基づいて特性を決定することができる。
別の態様によれば、本発明に係る実体験のように感じる効果の提供を制御するシステムは、少なくとも1つの画像を表すデータを受信するインタフェース、少なくとも1つの画像を分析して、少なくとも1つの画像で識別される少なくとも1つのオブジェクトを探すデータ処理システム、少なくとも1つの画像を観察可能な少なくとも1つの主体の注視焦点を推定するシステム、及び少なくとも1つの主体に実体験のように感じる効果を提供するための少なくとも1つの信号をシステムに供給するインタフェースを有しており、実体験のように感じる効果の提供を制御するシステムは、少なくとも1つの画像における少なくとも1つのオブジェクトの位置に対して相対的な注視焦点の位置に依存する信号を供給する。
本システムは、少なくとも1つの画像をレンダリングするシステムに含まれるか、デジタル形式で少なくとも1つの画像を捕捉するシステムと協働することができる。
実施の形態では、本システムは、本発明に係る方法を実行する。
本発明の別の態様によれば、コンピュータ読み取り可能な記録媒体に組み込まれたときに、情報処理機能を有するシステムに本発明に係る方法を実行させることが可能な命令のセットを含むコンピュータプログラムが提供される。
本発明は、添付図面を参照して更に詳細に説明される。
動画の系列に関連する実体験のように感じる効果を提供する第一のシステムのブロック図である。 静止画像又は低速で交互する画像の系列に関連する、実体験のように感じる効果を提供する第二のシステムのブロック図である。 実体験のように感じる効果を提供する方法のフローチャートである。
図1を参照して、おそらく連続するハーフイメージ(half-image)又はフレームの形式で、画像の系列を含むビデオ信号が放送局1によりサテライトリンク2を通してケーブルヘッドエンド3にはじめにブロードキャストされる。そこから、ビデオ信号は、デジタルテレビジョンセット4又は類似のブロードキャストレシーバに供給される。
デジタルテレビジョンセット4は、ビデオ信号、少なくとも1つの同期されたオーディオストリーム及び同期されたデータストリームを取得するための、ケーブルネットワークインタフェース5、チューナ6、復調器7及びデマルチプレクサ8を含む。これらのストリームは、1つのイベントに属するものであり、たとえばDVB(Digital Video Broadcasting)規格から公知のやり方で、ブロードキャストマルチプレックスにおけるテーブルにより互いにリンクされる。
ビデオ信号は、ディスプレイ9に供給され、オーディオ信号は、オーディオコーデック10、増幅器11及び1以上のラウドスピーカ12,13に供給される。
データ処理ユニット14及びメモリ15は、デジタルテレビジョンセット4の動作を制御し、デジタルテレビジョンセット4がディスプレイ9で画像を見ているユーザに実体験のように感じるフィードバックを供給するためにシステムを制御するのを可能にする1以上のルーチンを実行する制御ルーチンを実行するために設けられる。このため、デジタルテレビジョンセット4は、実体験のように感じる効果を提供するために多数の装置17から19へのインタフェース16を含む。
例示される実施の形態における装置17〜19は、触覚による、すなわち力、動き及び振動の少なくとも1つを、装置に非常に近くにいる主体、一般に装置と接触している主体にフィードバックを提供する装置を含む。特に装置17〜19は、たとえば手袋の形式といった、実体験のように感じる効果が提供されることとなる主体が装着する装置を含む。代替的に、装置17〜19は、ソファ、クッション、絨毯等のような家具又は備え付け家具に統合される。
触覚による効果は、ターゲットとされるやり方で供給することができるタイプの実体験のように感じる型の効果であり、任意の他のタイプの実体験のように感じる型の効果は、付加的又は代替的に装置17〜19に供給することができるか、又はラウドスピーカ12,13により供給することができる。この環境では、実体験のように感じる型の効果は、ある画像におけるオブジェクトを知覚する体験を強化する、任意のタイプの知覚できる効果を含むことが考慮される。係る効果は、視覚的に知覚されるものと更に適合されるように、ユーザの知覚される環境を適合する。従って、効果は、触覚、嗅覚、聴覚、視覚等を含む多数の異なる感覚の何れかを刺激する場合がある。たとえば、環境の背景の照明が適合されるか、特定のサウンドスケープが提供される場合がある。
多数のユーザのそれぞれがディスプレイ9の画像の異なる部分に注意を払っているか、又はディスプレイの画像に全く注意を払っていない場合がある事実を考慮するため、例示されるシステムは、彼等がどこで見ているかに依存して、特定のユーザを実体験のように感じる効果の対象とすることができる。このため、システムには、少なくとも1つのカメラ、ここでは2つのカメラへのインタフェース20が設けられ、システムが、ユーザ間を識別、彼等の注視焦点を追跡することを可能にする。これを行う1つの適切な技術は、Smith K. et all“Tracking the visual focus of attention for varying number of wandering people”, IEEE Trans. on Pattern Analysis and Machine Intelligence, 30(7), July 2008に記載されている。ここに記載される技術のような方法は、2つのコンポーネント、すなわちマルチパーソン追跡方法、及びヘッド−ポーズ追跡方法を有する。マルチパーソン追跡方法は、時間を通してビデオにおいて変化する動く主体を探す。ヘッド−ポーズ追跡方法は、主体の頭部を探し、空間におけるそれらの向きを推定する。原理的に、注視焦点の推定は、ヘッドセットの装着者の注視点を決定するセンサを含むヘッドセットをデジタルテレビジョン4のユーザに設けることで代替的に実行することができる。代替的に、赤外線追跡方法が存在し、人間の目の向きを直接的に決定する(視線検出方法)。しかし、カメラ21,22を使用する本方法は、ユーザの数及び位置に関する事前情報を必要とせず、控えめであって且つ長い距離(3m以上)にわたる測定に基づく推定値を提供することができ、本実施の形態で記載される実体験のように感じる効果を提供する方法の実現に特に適している。
図2では、実体験のように感じる効果を提供する方法を実現する第二の環境が例示を通して説明される。この設定において、通行人は、広告ボード23の画像又は画像の循環する系列を観察することができる。画像及び潜在的な観察者の両者は、カメラ2425により捕捉され、これらのカメラは、デジタル画像を、ビデオカード27、データ処理ユニット28及びメモリ29が設けられたコンピュータ装置26に供給する。また、コンピュータ装置26は、実体験のように感じる効果を提供するシステムへのインタフェース30を有する。例示される実施の形態では、実体験のように感じる効果を提供するシステムは、制御装置31及び実体験のように感じる効果を提供する3つの装置32〜34を有する。実体験のように感じる効果は、広告ボード23上の画像が目に見ることができる広告ボード23の環境において4つのセクタ35〜38のうちの任意の1つに向けることができる。たとえば、装置32〜34は、フェーズドアレイにおけるラウドスピーカであるか、又は1以上のセクタ35〜38に向けられる嗅覚のディスペンサである場合がある。
カメラ24,25からの画像は、コンピュータ装置26がユーザを識別して探し、ユーザの注視焦点を追跡する画像分析の方法を実行する。再び、Smith K. et all“Tracking the visual focus of attention for varying number of wandering people”, IEEE Trans. on Pattern Analysis and Machine Intelligence, 30(7), July 2008に記載される技術が使用される場合がある。
図3は、主体が画像における特定のオブジェクトを観察しているかに依存して、ディスプレイ9上の画像又は広告ボード23上の広告を観察することができる主体に実体験のように感じる効果を提供するための、図1のデジタルテレビジョンセット4、図2のコンピュータ装置26による実行の幾つかのステップを例示する。
第一のステップ39は、デジタルテレビジョンセット4による実行に適しており、原理的に任意である。このステップは、ディスプレイ9上の画像を観察可能な主体を識別し、特に、これら主体を予め決定された識別子に関連付けすることを含む。このため、デジタルテレビジョンセット4は、メモリ15において既知のユーザの識別子からなるデータベースを保持する。係るデータベースは、利用可能な実体験のように感じる効果に関してユーザの好みを記録するユーザプロファイルを有することができる。
1つの変形例では、ユーザは、それらの存在についてデジタルテレビジョンセット4に通知するためにユーザインタフェースを使用する。別の実施の形態では、ユーザには、トランスポンダをもつ携帯用装置が設けられ、デジタルテレビジョンセット4は、それらの存在を自動的に認識する。係る実施の形態を実現するために必要とされる技術は、視聴者測定の分野から知られる。別の変形例では、ユーザは、カメラ21,22のうちの1つの前に自身を配置することでユーザ自身を登録し、これに応じて、ユーザは、顔認識技術を使用して識別される。たとえば手袋の形態といった、装置17〜19がユーザにより装着される実施の形態では、このステップ39は、装置17から9の少なくとも1つを識別されたユーザと関連付けすることを含む。
図2の実施の形態では、第一のステップ39は、どの位多くの主体がセクタ35〜38に存在するかを判定すること、それら主体に追跡の目的で一時的な識別子を割り当てることを含む場合がある。しかし、特定の主体が子供又は大人であるかのような、ユーザの所定の特性が判定される場合もある。
別の実施の形態では、第一のステップ39は、装置17〜19のそれぞれについて、ある主体が装置のそれぞれと関連付けされているか、又はセクタ35〜38のそれぞれについて、ある主体がセクタのそれぞれに存在するかを判定するステップにより置き換えられる。
ユーザの注視焦点の追跡は、連続して実行されるステップ40で行われる。
同時に、ディスプレイ上の画像におけるオブジェクトが識別され(ステップ41)、画像におけるそれらの位置が追跡される(ステップ42)。例示される実施の形態では、それぞれのオブジェクトの位置及び特性を含むテーブル43の使用が行われる。
1実施の形態では、デジタルテレビジョン4は、オブジェクトを識別するデータを取得し、任意に、それらの最初の位置、及びケーブルヘッドエンド3からビデオデータと関連して提供されるデータストリームからの少なくとも1つの特性を取得する。この実施の形態の実現では、ケーブルヘッドエンド3は、放送局1から受信された画像データを分析し、ビデオを構成する動画におけるオブジェクトを識別及び記述するデータを作成するビデオデータ処理装置(図示せず)を有する。このため、ケーブルヘッドエンドは、画像におけるオブジェクトを識別及び発見するため、イメージセグメンテーション及び類似のデジタル画像処理方法を実行することができる。イベントを構成するマルチプレックスに追加されるデータは、オブジェクトの少なくとも識別子を含み、たとえば、色、オブジェクトが動的又は静的であるか、更にオブジェクトが何を表すか、といった幾つかの特性を含む。また、データは、画像におけるオブジェクトの位置を示す位置データを含むことができる。1実施の形態では、動画の系列のそれぞれにおけるオブジェクトの位置は、ケーブルヘッドエンド3に含まれる遠隔画像分析システムにより実体験のように感じる効果を提供するシステムに供給されるデータにおいてエンコードすることができる。これは、比較的低レベルにサテライトリンク2を通して伝送されるデータの量を保持するが、デジタルテレビジョンセット4に伝送されるデータの量を増加させる。このデータ量を低くすることが必要であるか又は望まれる場合、オブジェクトの最初の位置、すなわちオブジェクトが登場する画像の系列の最初におけるオブジェクトの位置が、ビデオデータを伴うデータストリームにおいて表される。次いで、デジタルテレビジョンセット4は、これらの画像を表すデータを分析することで、後続する画像のおけるオブジェクトを追跡する。
代替的に、デジタルテレビジョンセット4は、画像をエンコードするビデオデータを分析し、任意の位置データに頼ることなしにオブジェクトを探すことができる。確かに、デジタルテレビジョンセット4は、ビデオデータのみに基づいてオブジェクトを識別するステップ41を実行する場合がある。又は、コンピュータ装置26が捕捉された画像データのみに基づいて上述されたステップ41,42を実行する図2の実施の形態についても当てはまる。オブジェクトを識別するステップ41は、特性が画像において支配的である1以上のオブジェクトを選択するために、画像及び最初に識別されたオブジェクトの特性の分析を含む。従って、追跡されるべきオブジェクトの数が低減される。さらに、どのオブジェクトが識別される解像度は、ユーザの注視焦点を推定することができる精度に適合することができる。
テーブル43及び主体の注視焦点の情報を使用して、これらの注視焦点をディスプレイ上の現在の画像におけるオブジェクトの位置に関連付けすることが可能である(ステップ44)。例示される実施の形態では、ユーザが見ているオブジェクトを追跡するためにテーブル45が使用される。
実体験のように感じるフィードバックを提供するため、装置17〜19,32〜34の出力は、関連される主体が焦点を当ているオブジェクトの種類に一致すべきである。このように、例示される実施の形態では、(任意の)ステップ46が実行され、デジタルテレビジョン4又はコンピュータ装置26は、識別及び追跡されたオブジェクトの特性を判定する。デジタルテレビジョンセット4の場合、特性は、動画の系列と関連して供給されるデータストリームにおいて表現することができ、これにより、係る情報は、データストリームは単に取り出される必要がある。
別の実施の形態では、特性を判定するステップ46を省略することができるように、実際の効果は、受信されたデータストリームで表現される。しかし、これは、特性をエンコードする標準化された手法を必要とし、利用可能な物理的な装置17〜19から取り除かれる。このように、一般に、特性にマッピングすることができる特性又はデータが提供されるべきである。代替的に、デジタルテレビジョンセット4又はコンピュータ装置26は、画像データのみを使用して、動きの状態、温度、匂い、又は音のような特性を判定するために画像分析を実行する。
例示される実施の形態では、特性は、ルールからなるデータベース48を使用して効果47に変換される。このデータベース48により、フィードバック効果からオブジェクトの特性を取り除くことができ、利用可能な装置17〜19,32〜34の構成に特有である。
つぎに(ステップ49)、それぞれ識別されたユーザの注視焦点の位置を追跡するテーブル45を使用して、それぞれのユーザについて適切なフィードバックが決定される。
このように、デジタルテレビジョンセット4又はコンピュータ装置26が、ある主体が非常に動的なオブジェクト(飛んでいる蝶、爆弾の爆発、自動車事故等)を見ていることを検出した場合、システムは、たとえば、(図1の構成における)強い触覚によるフィードバック又は(図1の構成におけるラウドスピーカ12,13及び図2の構成における装置32〜34を使用して)強い振動によるフィードバックをその特定の主体に割り当てる。主体が背景の詳細を見ている場合、又はディスプレイ9又は広告ボード23を全く見ていない場合、フィードバックが提供される必要がない。
ユーザが予め決定された識別子に関連付けされるように第一のステップ39がユーザを識別する実施の形態では、識別子に関連される設定に適合するように、フィードバックを調節することができる。従って、ユーザプロファイルにおいて表される個人の好みを考慮することができる。代替的に、予め決定された識別子が主体のクラス(子供、大人、男性、女性、人間、動物)からなる場合、その主体が属するように決定されるクラスに適した設定を適用することができる。
なお、図3に例示されるステップは連続的に実行され、それぞれの主体について連続的又は擬似連続的なフィードバック信号が供給される。主体はオブジェクトをほんの少し見るか、比較的迅速に全体の画像をスキャンする場合があるので、平滑化機能50がフィードバック信号に適用される。
最後に、適切な出力信号は、その注視焦点が追跡されている主体に実体験のように感じる効果を提供する装置17〜19,32〜34に供給される。特に、主体が1つの特定の装置17〜19,32〜34と関連付けされていない場合、正しい装置17〜19,32〜34に正しい制御信号を供給するため、その主体の位置を追跡することが必要である(ステップ52)。例示される実施の形態では、主体の位置を追跡するためにテーブル53が使用される。なお、このステップ52は、一般に、主体の注視焦点を追跡するステップ40と組み合わせる。
なお、上述された実施の形態は、本発明を限定するものではなく例示するものであり、当業者であれば、特許請求の範囲の記載から逸脱することなしに、多くの代替的な実施の形態を設計することができる。請求項において、括弧間に配置される参照符号は、請求項を限定するものとして解釈されるべきではない。単語「備える“comprising”」は、請求項で列挙されたエレメント又はステップ以外のエレメント又はステップの存在を排除するものではない。エレメントに先行する単語“a”又は“an”は、複数の係るエレメントの存在を排除するものではない。所定の手段が相互に異なる従属の請求項で引用される事実は、これらの手段の組み合わせを使用することができないことを示すものではない。
図3に例示される方法は、それぞれのシートを通して力によるフィードバックを提供するために映画館で実現することができる。シートの占有者の注視焦点を追跡することは、赤外線カメラを使用して行うことができるか、又は特に映画が3D効果を含み、ユーザにこれらの効果を観察するためにメガネが提供される場合には、メガネを使用して行うことができる。
それぞれのユーザにフィードバックを提供するステップ49は、それぞれのユーザが同じフィードバックを受けるステップにより繰り返すことができるが、フィードバックは、画像における多数の主体の注視焦点に分散に依存する。従って、フィードバックの強さは、特性がフィードバックを決定するオブジェクト(たとえば画像における支配的なオブジェクト)を実際に観察している主体の割合に依存する場合がある。
本発明の原理は、画像データがブロードキャストされる実施の形態、及び画像がカメラを使用して捕捉される実施の形態を使用して説明されたが、画像データは、光ディスクのようなデータキャリアで代替的に供給される場合がある。また、このディスクは、画像データに存在するオブジェクトを説明するメタデータを含む場合がある。

Claims (13)

  1. 実体験のように感じる効果を提供する方法であって、
    少なくとも1つの画像を表すデータを受信するステップと、
    ディスプレイに表示される前記少なくとも1つの画像を見ることができる複数のセクタのそれぞれについて少なくとも1つの主体を識別するステップと、
    前記少なくとも1つの画像を分析して、前記少なくとも1つの画像において識別される少なくとも1つのオブジェクトを探すステップと、
    前記少なくとも1つの画像を観察することができる少なくとも1つの主体の注視焦点を推定するステップと、
    前記画像内に前記注視焦点を有する少なくとも1つの主体が存在する少なくとも1つのセクタに実体験のように感じる効果が向けられるように該実体験のように感じる効果を提供するシステムへ、前記少なくとも1つの画像における前記少なくとも1つのオブジェクトの位置に対する前記注視焦点の相対的な位置に依存する少なくとも1つの信号供給するステップと、
    を含むことを特徴とする方法。
  2. 前記少なくとも1つの画像を観察することができる複数の主体のそれぞれの注視焦点を推定するステップと、
    前記複数の主体のそれぞれの注視焦点に依存して、前記実体験のように感じる効果を提供するシステムへの前記少なくとも1つの信号を適合させるステップと、
    を含む請求項1記載の方法。
  3. 前記システムは、複数の出力位置のそれぞれで個別の実体験のように感じる効果を提供し、
    当該方法は、前記複数の出力位置のそれぞれに関して前記複数の主体のそれぞれの位置を決定するステップを更に含む、
    請求項2記載の方法。
  4. 前記少なくとも1つの信号は、触覚によるフィードバックを提供する少なくとも1つの装置を含む、前記実体験のように感じる効果を提供するシステムに供給される、
    請求項1記載の方法。
  5. 前記複数の主体のそれぞれを識別するステップを含む、
    請求項1記載の方法。
  6. 前記複数の主体のそれぞれを識別するステップは、主体のそれぞれに予め決定された識別子を関連付けするステップを含み、
    前記実体験のように感じる効果を提供するシステムへの前記少なくとも1つの信号は、更に前記予め決定された識別子に関連付けられた設定に依存して供給される、
    請求項5記載の方法。
  7. 前記注視焦点は時間とともに追跡され、
    前記実体験のように感じる効果を提供するシステムへの前記少なくとも1つの信号は、前記少なくとも1つの画像における前記少なくとも1つのオブジェクトの位置に対する前記注視焦点の相対的な位置に基づく信号を平滑化することで供給される、
    請求項1記載の方法。
  8. 前記受信するステップで受信される前記データは、動画の系列を表し、
    前記受信されデータは、前記動画の系列における少なくとも1つのオブジェクトを識別するデータと共に受信される、
    請求項1記載の方法。
  9. 前記少なくとも1つのオブジェクトを識別するデータは、前記動画の系列のうちの最初の画像におけるオブジェクトの位置を識別するデータと関連付けられる
    請求項8記載の方法。
  10. 前記少なくとも1つのオブジェクトの少なくとも1つの特性を決定するステップを更に含み、
    前記実体験のように感じる効果を提供するシステムへ前記少なくとも1つの信号を前記少なくとも1つの画像における前記少なくとも1つのオブジェクトの位置に対する前記注視焦点の相対的な位置に依存して供給する前記ステップは、前記少なくとも1つのオブジェクトの前記少なくとも1つの特性に関連付けられた効果のデータに基づいて前記少なくとも1つの信号を適合させるステップを含む、
    請求項1記載の方法。
  11. 前記少なくとも1つの画像を表すデータに関連して前記少なくとも1つの画像における少なくとも1つのオブジェクトを識別するデータを受信するステップと、
    前記少なくとも1つのオブジェクトを識別するデータを使用して、前記少なくとも1つのオブジェクトの特性を決定するステップとを含む、
    請求項10記載の方法。
  12. 実体験のように感じる効果の提供を制御するシステムであって、
    少なくとも1つの画像を表すデータを受信する第一インタフェースと、
    ディスプレイに表示される前記少なくとも1つの画像を見ることができる複数のセクタの夫々について少なくとも1つの主体を識別する識別手段と、
    前記少なくとも1つの画像を分析して、前記少なくとも1つの画像において識別される少なくとも1つのオブジェクトを探すデータ処理手段と、
    前記少なくとも1つの画像を観察することができる少なくとも1つの主体の注視焦点を推定する推定手段と、
    前記少なくとも1つの主体に実体験のように感じる効果を提供するシステムへ少なくとも1つの信号供給する第二インタフェースとを備え、
    当該実体験のように感じる効果の提供を制御するシステムは、前記画像内に前記注視焦点を有する少なくとも1つの主体が存在する少なくとも1つのセクタに前記実体験のように感じる効果が向けられるように、前記少なくとも1つの画像における前記少なくとも1つのオブジェクトの位置に対する前記注視焦点の相対的な位置に依存して前記少なくとも1つの信号を供給する、
    ことを特徴とする実体験のように感じる効果の提供を制御するシステム。
  13. コンピュータに、請求項1乃至11の何れか記載の方法を実行させるための命令を含むコンピュータプログラム。
JP2011539124A 2008-12-09 2009-11-18 実体験のように感じる効果を提供する方法及びシステム Expired - Fee Related JP5536092B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP08171041.0 2008-12-09
EP08171041 2008-12-09
PCT/IB2009/055133 WO2010067221A1 (en) 2008-12-09 2009-11-18 Method and system for providing immersive effects

Publications (2)

Publication Number Publication Date
JP2012511749A JP2012511749A (ja) 2012-05-24
JP5536092B2 true JP5536092B2 (ja) 2014-07-02

Family

ID=42124407

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011539124A Expired - Fee Related JP5536092B2 (ja) 2008-12-09 2009-11-18 実体験のように感じる効果を提供する方法及びシステム

Country Status (6)

Country Link
US (1) US9411414B2 (ja)
EP (1) EP2376998B1 (ja)
JP (1) JP5536092B2 (ja)
KR (1) KR101618590B1 (ja)
CN (1) CN102246119B (ja)
WO (1) WO2010067221A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7765333B2 (en) 2004-07-15 2010-07-27 Immersion Corporation System and method for ordering haptic effects
US8571550B2 (en) 2009-02-09 2013-10-29 Qualcomm Incorporated Managing access control to closed subscriber groups
US20110237250A1 (en) * 2009-06-25 2011-09-29 Qualcomm Incorporated Management of allowed csg list and vplmn-autonomous csg roaming
US9225969B2 (en) 2013-02-11 2015-12-29 EchoPixel, Inc. Graphical system with enhanced stereopsis
US9833697B2 (en) * 2013-03-11 2017-12-05 Immersion Corporation Haptic sensations as a function of eye gaze
US20160187976A1 (en) * 2014-12-29 2016-06-30 Immersion Corporation Systems and methods for generating haptic effects based on eye tracking
JP6525150B2 (ja) 2015-08-31 2019-06-05 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation テレプレゼンス・ロボットに用いる制御シグナルを発生させるための方法、テレプレゼンス・システムおよびコンピュータ・プログラム
EP3179336A1 (en) * 2015-12-07 2017-06-14 Thomson Licensing Method and device for rendering haptic effects in an immersive content
KR102573933B1 (ko) * 2016-10-04 2023-09-05 한국전자통신연구원 기계 학습 기반의 실감 미디어 저작 방법 및 장치
KR102009145B1 (ko) * 2016-11-17 2019-08-09 한국전자통신연구원 미디어 객체 기반의 저작 방법 및 장치
US10324531B2 (en) * 2016-12-27 2019-06-18 Immersion Corporation Haptic feedback using a field of view
JP7428134B2 (ja) * 2018-10-29 2024-02-06 ソニーグループ株式会社 情報処理装置及び情報処理装置、並びに情報処理システム
WO2021119910A1 (zh) * 2019-12-16 2021-06-24 瑞声声学科技(深圳)有限公司 一种触觉反馈分享方法、装置及系统

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5382970A (en) * 1991-07-19 1995-01-17 Kiefl; John B. Television viewer monitoring system including portable data meter for each viewer
JPH11327425A (ja) * 1998-05-19 1999-11-26 Techno Works:Kk 画像処理による注視点検出手段を利用したバーチャルリアリティの実現方式
US7921036B1 (en) * 2002-04-30 2011-04-05 Videomining Corporation Method and system for dynamically targeting content based on automatic demographics and behavior analysis
US7050078B2 (en) * 2002-12-19 2006-05-23 Accenture Global Services Gmbh Arbitrary object tracking augmented reality applications
JP4328136B2 (ja) 2003-06-19 2009-09-09 国立大学法人 奈良先端科学技術大学院大学 関心度推定装置
US20050285844A1 (en) * 2004-06-29 2005-12-29 Ge Medical Systems Information Technologies, Inc. 3D display system and method
JP4061379B2 (ja) * 2004-11-29 2008-03-19 国立大学法人広島大学 情報処理装置、携帯端末、情報処理方法、情報処理プログラム、およびコンピュータ読取可能な記録媒体
WO2006100645A2 (en) * 2005-03-24 2006-09-28 Koninklijke Philips Electronics, N.V. Immersive reading experience using eye tracking
JP4677633B2 (ja) * 2005-09-09 2011-04-27 学校法人東海大学 匂い提示システム
WO2007128057A1 (en) * 2006-05-04 2007-11-15 National Ict Australia Limited An electronic media system
JP4231884B2 (ja) 2006-09-27 2009-03-04 株式会社デンソーアイティーラボラトリ 注視対象物検出装置および注視対象物検出方法

Also Published As

Publication number Publication date
EP2376998B1 (en) 2015-11-04
US9411414B2 (en) 2016-08-09
EP2376998A1 (en) 2011-10-19
JP2012511749A (ja) 2012-05-24
KR20110102427A (ko) 2011-09-16
US20110227824A1 (en) 2011-09-22
CN102246119B (zh) 2016-01-20
KR101618590B1 (ko) 2016-05-09
WO2010067221A1 (en) 2010-06-17
CN102246119A (zh) 2011-11-16

Similar Documents

Publication Publication Date Title
JP5536092B2 (ja) 実体験のように感じる効果を提供する方法及びシステム
US9848244B2 (en) Method of providing user specific interaction using device and digital television (DTV), the DTV, and the user device
JP6773190B2 (ja) 情報処理システム、制御方法、および記憶媒体
US8201080B2 (en) Systems and methods for augmenting audio/visual broadcasts with annotations to assist with perception and interpretation of broadcast content
US20120072936A1 (en) Automatic Customized Advertisement Generation System
CN105247879A (zh) 客户机设备、控制方法、系统和程序
Kim et al. Saliency-driven real-time video-to-tactile translation
KR101507242B1 (ko) 영상 분석을 통하여 모션 햅틱 효과를 제공하는 장치 및 방법
Lin et al. Progress and opportunities in modelling just-noticeable difference (JND) for multimedia
Covaci et al. How do we experience crossmodal correspondent mulsemedia content?
KR20160135552A (ko) 가상 현실 장치 및 피드백 장치, 실감형 서비스 제공 시스템 및 방법
Fryer et al. Visual impairment and presence: measuring the effect of audio description
US20170188066A1 (en) Technologies for immersive user sensory experience sharing
WO2018135334A1 (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
Yang et al. Audio augmented reality: A systematic review of technologies, applications, and future research directions
Leroy et al. Second screen interaction: an approach to infer tv watcher's interest using 3d head pose estimation
Zhang et al. Automatic generation of spatial tactile effects by analyzing cross-modality features of a video
WO2021124680A1 (ja) 情報処理装置及び情報処理方法
Rummukainen et al. Influence of visual content on the perceived audio quality in virtual reality
CN106973282B (zh) 一种全景视频沉浸感增强方法和系统
US20240104863A1 (en) Contextual presentation of extended reality content
Salido et al. Sainet: An image processing app for assistance of visually impaired people in social interaction scenarios
CN113825018B (zh) 一种基于图像处理的视频处理管理平台
Mesfin et al. Inverse and transitivity of cross-modal correspondence in mulsemedia
WO2018168444A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140325

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140423

R150 Certificate of patent or registration of utility model

Ref document number: 5536092

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees