JP2018527655A - ユーザ・ハプティック空間(HapSpace)に基づくハプティック・フィードバックおよびインタラクティブ性を提供する方法および装置 - Google Patents

ユーザ・ハプティック空間(HapSpace)に基づくハプティック・フィードバックおよびインタラクティブ性を提供する方法および装置 Download PDF

Info

Publication number
JP2018527655A
JP2018527655A JP2018500919A JP2018500919A JP2018527655A JP 2018527655 A JP2018527655 A JP 2018527655A JP 2018500919 A JP2018500919 A JP 2018500919A JP 2018500919 A JP2018500919 A JP 2018500919A JP 2018527655 A JP2018527655 A JP 2018527655A
Authority
JP
Japan
Prior art keywords
haptic
user
bitstream
space
descriptor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018500919A
Other languages
English (en)
Other versions
JP2018527655A5 (ja
Inventor
ギロテル,フイリツプ
ダニユー,フアビアン
フリユーロー,ジユリアン
ドウアヤン,デイデイエ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2018527655A publication Critical patent/JP2018527655A/ja
Publication of JP2018527655A5 publication Critical patent/JP2018527655A5/ja
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

特に、ハプティック・フィードバックおよびインタラクティブ性(HapSpace)のためのユーザ環境空間の実施態様が提案される。一実施形態においては、HapSpaceは、ユーザに付帯する仮想空間であり、ユーザの身体が到達可能な最大距離によって定義される。HapSpaceは、ユーザの動きに伴い、動くことがある。ハプティック・オブジェクトおよびハプティック装置、および関連するハプティック特性をHapSpace内で定義することもできる。ユーザとハプティック・オブジェクト/装置との間での正確な位置を決定し、リンクを作成する新たな記述子は、HapSpaceを記述するために定義される。【選択図】図3

Description

本発明は、ハプティック・フィードバック(haptic feedback)およびインタラクティブ性(interactivity)を提供する方法および装置に関し、より具体的には、本発明は、ユーザ・ハプティック空間(HapSpace)に基づくハプティック・フィードバックおよびインタラクティブ性を提供する方法および装置に関する。
新たな技術開発により、次第に没入感を得られるマルチメディア・システムを作成できるようになってきている。今では、3D画像および音声の空間化がユーザの居住空間で行われるようになっている。これらのシステムは、通常、2つの感覚、すなわち、視覚および聴覚をシミュレートすることに関する。さらに、仮想現実における研究により、ハプティック知覚が、没入感に強く結びついているであろうことが明らかとなり、これにより、ハプティック知覚およびオーディオビジュアル(A/V)のコンテンツの双方を考慮した新たな科学的な技術分野、HAV(ハプティック−オーディオビジュアル)の技術分野が定義されるに至っている。
本願の原理の一態様によれば、ハプティック効果を送信する方法が提供される。この方法は、ユーザがアクセス可能な少なくとも1つのハプティック・オブジェクトを含む空間を定義するステップと、少なくとも1つのハプティック・オブジェクトに関連付けられたハプティック特性を特定するステップと、ビットストリーム内に、少なくとも1つのハプティック・オブジェクトに関連付けられたハプティック特性を符号化するステップと、通信インタフェースを介してビットストリームを送信するステップと、を含む。本願の実施形態は、さらに、これらのステップを実行する装置を提供する。
本願の原理の別の態様によれば、ハプティック・フィードバックを提供する方法が提供される。この方法は、ユーザがアクセス可能な少なくとも1つのハプティック・オブジェクトを含む空間を定義するステップと、ビットストリームから、少なくとも1つのハプティック・オブジェクトに関連付けられたハプティック特性を復号するステップと、少なくとも1つのハプティック・オブジェクトに関連付けられた復号されたハプティック特性に応答してユーザにハプティック・フィードバックを提供するステップと、を含む。本願の実施形態は、さらに、これらのステップを実行する装置を提供する。
本願の原理の別の態様によれば、信号は、ユーザがアクセス可能な少なくとも1つのハプティック・オブジェクトを含む空間と、ユーザがハプティック効果を受信する空間における位置(position)と、3つのカルテシアン座標(Cartesian coordinates)によって特定される、少なくとも1つのハプティック・オブジェクトに関連付けられたハプティック特性と、を含むようにフォーマットされている。
本願の実施形態は、さらに、上述した方法に従ってハプティック効果を送信または提供する命令を記憶したコンピュータ読み取り可能記憶媒体を提供する。
本願の実施形態は、さらに、上述した方法に従って生成されたビットストリームを記憶したコンピュータ読み取り可能記憶媒体を提供する。
本願の原理の一態様によれば、ハプティック効果を表すデータを含むビットストリームを送信する方法が提供される。この方法は、ビットストリーム内に、空間の起点の位置(location)を表す第1の記述子を符号化するステップと、上記ビットストリーム内に、上記空間に関して、ハプティック特性が関連付けられている仮想オブジェクトの位置を表す第2の記述子を符号化するステップと、上記ビットストリームを送信するステップと、を含む。
一実施形態によれば、この方法は、上記ビットストリーム内に、上記空間に関して、ハプティック装置の位置を表す第3の記述子を符号化するステップをさらに含む。
本願の原理の一態様によれば、ハプティック効果を表す情報を復号する方法が提供される。この方法は、ビットストリームを受信するステップと、上記ビットストリームから空間の起点の作成を表す第1の記述子を復号するステップと、上記ビットストリームから、上記空間に関して、ハプティック特性が関連付けられている仮想オブジェクトの位置を表す第2の記述子を復号するステップと、を含む。
一実施形態によれば、上記ビットストリームから、上記空間に関して、ハプティック装置の位置を表す第3の記述子を復号するステップをさらに含む。
本願の原理の態様によれば、ハプティック効果を表すデータを含むビットストリームを送信するように構成された装置が提供される。この装置は、上記ビットストリーム内に、空間の起点の位置を表す第1の記述子を符号化し、上記ビットストリーム内に、上記空間に関して、ハプティック特性が関連付けられている仮想オブジェクトの位置を表す第2の記述子を符号化するように構成された符号化器と、上記ビットストリームを送信する送信機と、を含む。
本願の一態様によれば、ハプティック効果を表すデータを含むビットストリームを送信するように構成された装置が提供される。この装置は、上記ビットストリーム内に、空間の起点の位置を表す第1の記述子を符号化する手段と、上記ビットストリーム内に、上記空間に関して、ハプティック特性が関連付けられている仮想オブジェクトの位置を表す第2の記述子を符号化する手段と、上記ビットストリームを送信する手段と、を含む。
本願の原理の一態様によれば、ハプティック効果を表す情報を復号するように構成された装置が提供される。この装置は、ビットストリームを受信する受信機と、上記ビットストリームから、空間の起点の位置を表す第1の記述子を復号し、上記ビットストリームから、上記空間に関して、ハプティック特性が関連付けられている仮想オブジェクトの位置を表す第2の記述子を復号するように構成された復号器と、を含む。
本発明の一態様によれば、ハプティック効果を表す情報を復号するように構成された装置が提供される。この装置は、ビットストリームを受信する手段と、上記ビットストリームから、空間の起点の位置を表す第1の記述子を復号する手段と、上記ビットストリームから、上記空間に関して、ハプティック特性が関連付けられている仮想オブジェクトの位置を表す第2の記述子を復号するように構成された手段と、を含む。
本願の原理の一態様によれば、ハプティック効果を表すデータを含む少なくともパケットを搬送する信号が提供される。この信号は、空間の起点の位置を表す第1の記述子と、上記空間に関して、ハプティック特性が関連付けられている仮想オブジェクトの位置を表す第2の記述子と、をさらに搬送する。
本願の原理の一態様によれば、プロセッサに少なくとも送信方法のステップを実行させる命令を記憶した非一時的プロセッサ読み取り可能媒体が提供される。
本願の原理の一態様によれば、プロセッサに少なくとも復号方法のステップを実行させる命令を記憶した非一時的プロセッサ読み取り可能媒体が提供される。
例示的なHAVシステムのワークフローを示す図である。 位置モデルを示す図である。 本願の原理の実施形態に従った、例示的なHapSpaceを示す図である。 身体の部分の位置を示す図である。 例示的なオーサリング・ツール(H−STUDIO)を示す図である。 本願の原理の実施形態に従った、オーディオビジュアル(AV)・コンテンツと共にハプティック効果を生成する例示的な方法を示す図である。 本願の原理の実施形態に従った、HapSpace内のハプティック効果を記述する例示的な方法を示す図である。 本願の原理の実施形態に従った、AVコンテンツと共にハプティック効果をレンダリングする例示的な方法を示す図である。 本願の原理の実施形態に従った、HapSpace内のハプティック効果を解釈する例示的な方法を示す図である。 本願の原理の例示的な実施形態の様々な態様を実施可能な例示的なシステムを示すブロック図である。 1つ以上の実施態様に使用することが可能なビデオ処理システムの例を描いたブロック図である。 1つ以上の実施態様に使用することが可能なビデオ処理システムの別の例を描いたブロック図である。
図1は、ハプティック効果(haptic effects)およびオーディオビジュアル(AV)効果(audiovisual
effects)の双方を提供する例示的なHAVシステム100のワークフローを例示している。このワークフローは、制作(production)(110)、レンダリング(rendering)(130)、および配信(distribution)(120)の3つの主要部分を含む。
ハプティック・データの制作/作成(Production/Creation)(110)
コンテンツの制作、すなわち、AVコンテンツと同期したハプティック効果の作成および生成は、様々な技術を使用して行うことができる。例えば、図1に示されているように、ハプティック効果の制作は、センサ(例えば、慣性運動計測装置、GPS)から取得されたデータをキャプチャおよび処理するステップ(111)と、AVメディアのうちの1つ以上のコンポーネントから(114、例えば、画像、オーディオまたはアノテーションから)自動抽出を行うステップ(112)と、例えば、グラフィック・ユーザ・インタフェース(GUI)を使用して、ハプティック効果を手動でオーサリングするステップ(113)と、を含むステップによって行うことができる。制作方法の選択は、用途および創作者の意図に依存して行われる。なお、センサ(111)から取得されたデータを使用して、または、AVメディアからの自動抽出(113)を使用してハプティック効果(115)が生成されたとき、一般的には、ハプティック効果を合成するために、依然として、制作は、オーサリング・ツール(113)を通して行われる。
様々なタイプのハプティック知覚能力、例えば、限定するものではないが、触覚、運動感覚、自己受容感覚が存在し、創造すべきハプティック効果は、表1に例示されているような、温度、振動、圧力、移動、力、身体動作に分類される。本願では、用語「ハプティック効果」および用語「ハプティック・フィードバック」を区別せずに同じ意味で使用する。
ハプティック・フィードバックのレンダリング(130)
AVコンテンツと共にハプティック・フィードバックを提供する際の大抵の既存の処理は、振動触覚装置の使用に依存している。この振動触覚装置は、スタンドアロンの装置であることもあれば、チェアまたはフォースフィードバック装置に組み込まれていることもある。大抵の振動触覚シートは、低周波音を振動に変換する。サブウーファのように、このタイプのシートは、低周波オーディオ・チャンネルにつながれるが、実際の音声の代わりに振動を伝える。このタイプのシートは、全体的に振動することもあれば、幾つかの振動モータが埋め込まれていることもある。近年開発された振動触覚チェアにおいては、チェアの後部に12個の振動触覚アクチュエータのアレイが埋め込まれ、ユーザの感覚が錯触覚(tactile illusions)を通じて制御される。これによって、アクチュエータが離れた位置にあっても、ユーザに対して連続的な刺激が与えられる。一般的には、振動触覚装置によって提供されるハプティック効果は、比較的に単純であり、これにより、人工的な振動パターンまたは抽象的なフォースフィードバックが提供される。
モーション(motion:運動、動作)のレンダリングは、通常、上述した振動のレンダリングよりも複雑である。モーション・シミュレータは、ユーザにモーションを感じさせるように設計された公知の装置である。モーション・シミュレータは、学習目的の運転または飛行シミュレータにおいて、または、遊園地において主に使用される。モーション・シミュレータの多くは、スチュワート・プラットフォーム(Stewart’s platform)に基づいており、これは、6つの油圧シリンダを使用した6つの自由度(DOF:Degrees of Freedom)プラットフォームである。モーション・シミュレータは、基本的には、このようなプラットフォームに取り付けられたシートである。プラットフォームには、複数のシートを設定することができ、例えば、「4Dシネマ」では、4つの(またはそれ以上の)シートが一緒に動く。消費者向けの同様のシステムがD−Boxによって開発されている。シートは、限定された動きの振幅を提供する、3DOF(ピッチ(pitch)、ロール(roll)、およびヒーブ(heave))を可能とする4つのアクチュエータ上に載置される。より大きな振幅を提供するために、シミュレータを、レール上に、または回転面上に取り付けることができる。例えば、401CRモーション・シミュレータは、回転するプラットフォーム上に取り付けられた3DOFシミュレータ(ロール、ピッチ、ヒーブ)であり、その回転動作(ヨー(yaw))は、潜在的には制限がない。
単純な振動と複雑なモーションとの間のハプティック効果をレンダリングする中継装置は、Gシートであり、モーションの感覚に関係した運動感覚の合図をユーザに提供するように設計されている。例えば、上向きの移動は、ユーザの背中に対する圧力によってシミュレートされる。運動感覚系の刺激は、股領域に対する圧力を提供するためのエアセル(air cells)の2つのモザイク、ユーザの脚の側部に対して圧力を提供する2つのクラムシェル形状のエア・セル、および腹側の領域に対して圧力変化を生じさせるラップベルト(lap belt)によって生成される。
広範囲のハプティック効果を提供できるビデオの視聴に特化したハプティック装置も近年提案されている。1つのアプローチにおいては、モバイル・アームレストまたはヘッドレストなどの、1組のフォースフィードバック装置がシートの周りに配置され、これらのフォースフィードバック装置は、ユーザの身体に力を加えてパッシブなナビゲーションを体験させるモーションの感覚を生成する。本願においては、ハプティック装置は、ハプティック・フィードバック、例えば、表1に規定されたようなものを提供する任意の装置を指す。
図1に示されているように、レンダリング側において、AVレンダラ(131)によってAV情報を再構築することができる。そして、再生のために、ディスプレイ画面または1つ以上のスピーカ(134)に出力が送信される。
さらに、ハプティック効果をハプティック・レンダラ133によってレンダリングすることもできる。そして、ハプティック装置135に出力が送信され、ハプティック効果を提供する。AVメディアからハプティック効果が抽出される場合、自動抽出モジュール(132)を使用してAVレンダラ(131)の出力を処理し、入力をハプティック・レンダラ(133)に提供する。したがって、AV効果およびハプティック効果の双方を享受することができるため、ユーザはより没入感のある体験をすることができる。
フォーマット表現および配信(120)
AVメディアおよびハプティック効果を符号化し(121)、コンテナ・ファイルに記憶し(123)、または、ネットワークを通じて送信することができる(122)。そして、レンダリングのために、AVメディアおよびハプティック効果を復号する(124)ことができる。レンダリングが行われる前に、AVメディアおよびハプティック効果が復号される。MPEGによって提供されるトランスポート・プロトコルまたはオーディオ/ビデオ圧縮規格を図1に示されているようなワークフローにおいて使用することができる。
メディアのタイプに対し、メディア・フォーマットは、データ・タイプおよび内部表現の詳細を含む、構造を定義する。AVコンテンツに対するメディア・フォーマットは十分に確立されているものの、ハプティック・メディア・フォーマットに対応するための試みはほとんど存在しない。ハプティック・メディア・フォーマットを定義する大抵の既存のアプローチは、XML(Extensible Markup Language、多目的な記述言語)または単純なCSV(Comma Separated Values)フォーマットのような一般的なフォーマットに依存している。例えば、感覚効果記述言語(SEDL:sensory effect description language)は、XMLに基づいており、MPEG−4 BIFS(Binary Format for Scenes)フォーマットは、VRML/X3D(3Dワールドを表すために使用されるVirtual Reality Modeling Language)に基づいており、最新のMPEG−V規格は、XMLに基づいており、これは、先進のインタラクション装置を使用することによってマルチメディアのプレゼンテーションおよびアプリケーションを制御するために、オーディオ/ビデオ・データに関連付けられたマルチ感覚型コンテンツを提供するように特に設計されている。
既存のハプティック・フォーマットには、幾らかの制約または情報の欠落を伴う。例えば、ユーザが触ることのできる前方の効果の特定法やユーザに与えられる、ユーザの前方で飛行するまたはユーザの身体の部分に接触する効果の記述法が不明である。後述するように、本願では、オブジェクトを含めることができるユーザ・スケルトンおよびユーザ空間の概念を追加している。これらのオブジェクトおよびその空間内の位置、ユーザの身体の部分の位置を知ることで、オブジェクトがユーザに接触する、または、圧力を与える時点を知ること、または、ユーザ空間におけるオブジェクト変位を記述することができる。
MPEG−V規格は、オブジェクト、ハプティック装置および効果と共に、センサおよび装置の特性を記述している。例えば、表2において、MPEG−Vは、XMLを使用し、図2に例示されているような位置モデルに従って、ユーザの視点から受け取られると想定される振動効果の位置を特定する。特に、この例は、オーディオ触覚リソースを使用した触覚効果の記述を示している。触覚効果は、si:pts=“5”で起動し、好ましくは、この触覚効果は、振動である。この位置は、人間の胸部前方の、心臓領域近傍であると特定される。振動効果は、触覚リソースに基づいて作成され、この触覚リソースは、SEDLスクリプト自体のような同一のペアレント位置(URL)に記憶される、MP3フォーマットのオーディオ・ファイル(すなわち、heartbeat1.mp3)である。触覚効果の長さおよび速度は、オーディオ・ファイルの長さおよびデフォルトの速度から全てが導出される。
以下において、本願では、MPEG−Vに存在する概念を使用し、MPEG−V規格を補完する実施形態を提供する。なお、本願の原理は、限定するものではないが、仮想現実、没入感のある体験、およびハプティック効果および処理などの主題に関連する他の規格に適用することもできる。
MPEG−Vに従った位置の記述では、オブジェクトおよびユーザの正確な位置を示すことができない。MPEG−Vのシンタックスには、MPEG−V位置フィールドにおいてユーザを特定するようなものは存在しない。さらに、MPEG−V規格には、ユーザの動作および身体の部分についての概念は存在しない。
本願の原理は、ハプティック・フィードバックおよびインタラクティブ性(ハプティック空間またはHapSpaceとも称する)のためのユーザ環境空間の概念を導入することによって、ハプティック・フィードバックおよびインタラクティブ性を提供する方法および装置に関する。一実施形態においては、ユーザのハプティック空間は、例えば、ユーザがアクセス可能なものを包むボックスとして、ユーザがアクセスすることのできる空間、または、ユーザの物理的な到達範囲内の任意の空間を含み、定義されたユーザ・ボックスを通じて特定される。定義された空間は、ユーザを含み、様々なハプティック装置およびハプティック・オブジェクトを含むことがある。ハプティック・オブジェクトは、ハプティック特性に関連付けられた仮想オブジェクトである。一例においては、ユーザがハプティック・オブジェクトに接触すると、何らかの振動がユーザに与えられるため、ユーザは、オブジェクトの表面に接触する感覚を受ける。別の例においては、ユーザが仮想的な楽器に接触すると、ハプティック装置もまた、リアルタイムな音声を生成することで、インタラクティブ性を提供することができる。
図3は、本願の原理に従った例示的なHapSpaceを例示している。ここで、HapSpaceは、ハプティック・レンダリング装置、ハプティック・オブジェクト、およびフェンシングのゲームを行うユーザを含む。ユーザは、ローリング・カーペット(310)、振動ベスト(320)、およびファン(340)を含む、幾つかのハプティック装置からのハプティック・フィードバックを受けることができる。ユーザは、さらに、タッチ・センサ(330)およびアイコン(350)を含む、幾つかのハプティック・オブジェクトにアクセスすることができる。より具体的には、ローリング・カーペット(310)は、ユーザが移動するときに、歩行効果を提供することができ、振動ベスト(320)は、ユーザが別のプレイヤによって接触されたときに接触感覚を提供することができ、タッチ・センサ(330)は、ユーザがこのタッチ・センサ(330)を押したときに光を提供することができ、ファン(340)は、屋外のゲームをシミュレートする風効果を提供することができ、アイコン(350)は、このアイコンに触れられたときに振動を提供することができる。さらに、風効果がユーザに到達する限り、HapSpaceの外側にファンを置くことができる。ハプティック装置がHapSpaceの外側に存在する場合には、ハプティック装置からのハプティック効果の存在を管理するための外部HapSpace符号語を使用することができる。
より一般的には、HapSpaceをオブジェクト、ユーザ、および効果を正確に特定するフレームワークを提供するために定義することができる。一実施形態においては、HapSpaceは、最大距離でユーザの全周囲にある、ユーザの手書きで描かれた球を含むキューブに対応し、ユーザが静止している、1に正規化された寸法を用いたキューブによって表すことができる(ボックス・サイズは、各軸(X、Y、Z)において[0−1]の間で正規化される)。一般的には、HapSpaceは、ユーザの身体の任意の部位でユーザが到達可能な任意の場所を含む、どのような形状の3D空間であってもよい。HapSpaceの起点は、ユーザの骨盤でもよく、ユーザの別の部位でもよく、ユーザの周りの位置、例えば、ユーザの1フィート手前でもよく、ユーザの関わる他の別の位置でもよい。ユーザに対してHapSpaceを定義することによって、ユーザもまた、空間内のハプティック・オブジェクト/装置のハプティック特性を送信するだけでよい。HapSpaceは、ユーザに対して相対的に定義されるため、ユーザが動くと、ユーザに追従してボックスも動く。複数のユーザが存在する場合には、各ユーザは、個別にHapSpaceを定義することができる。
ハプティック装置またはハプティック・オブジェクトは、例えば、重心を用いて、または、空間の起点に対する座標(x,y,z)に位置する幾何学的な中心を用いて、この空間において位置することもできる。通常、ゲームなどの何らかのアプリケーションにおいては、オブジェクトの概略的な記述では、インタラクティブ性を提供するのに十分ではない。一実施形態においては、インタラクティブ性を確保するために、表3に示されているようなメッセージを提案し、3つのカルテシアン座標を使用することによって、HapSpaceにおけるユーザまたは任意のハプティック装置およびハプティック・オブジェクトに対する正確な位置を提供する。以下の例において、MPEG−Vの概念を使用した新たな記述子を提案する。これらの新しい記述子は、ハプティック空間をより正確に記述するために、MPEG−Vを補完することができる。
表3において、2つの新たな記述子を導入する。これらは、RelativePositionTypeおよびFloat3DpositionTypeである。記述子RelativePositionTypeは、正規化されたHapSpaceにおける位置を特定する。記述子Float3DPositionTypeは、RelativePositionType記述子のパラメータを特定し、浮動小数点表現を用いたX、Y、およびZにおける位置(0および1の間)を特定するのに有用となることがある。
そして、(例えば、表2、8行目において示されているような)MPEG−V位置フィールドは、例として、位置=「:0.01:0.983:0.134」のような、位置=「RelativePositionType」フィールドによって置き換えることができる。ここで、3つの値は、HapSpace内の座標、すなわち、X=0.01、Y=0.983、Z=0.134を表す。
提案しているHapSpaceにおいて、ハプティック装置またはハプティック・オブジェクトをユーザにリンクさせることができる。一実施形態において、表4に示されているようなメッセージを提案し、ユーザとハプティック装置/オブジェクトとの間のリンクを提供する。
表4において、別の新たな記述子BodyLinkTypeを導入する。記述子BodyLinkTypeは、パラメータBodyPartを用いたユーザの身体上に存在する
ハプティック装置/オブジェクトの場所を特定する。例えば、時計をユーザの左の手首にリンクさせることができ、位置=「LeftWrist」を用いてこれを記述することができる。
ユーザの物理的なプロパティは、限定するものではないが、例えば、「armspan」高さおよび重さを、例えば、MPEG−V(パート2)の感覚プリファレンス仕様を用いて記述することができる。各身体部分位置を特定するために、図4に例示されているような身体のモデルを使用することができる。これは、F. Danieau、J. Fleureau、P. Guillotel、およびD. Doyenによる「ハプティック装置を制御するための方法および装置(Method and device for controlling a haptic
device)」と題された共同所有特許出願(代理人整理番号PF140144)に記述されており、この特許出願の開示内容を参照することで本願に盛り込んだものとする。本特許出願において、表5に示されているような身体の部分の位置を記述する新たな記述子をさらに導入する。
記述子BodyDescriptionTypeは、定義されたユーザ空間における様々なユーザの身体部分の位置を記述する。ユーザが動く度に、新しい位置、例えば、移動する部分の位置のみが送信される必要がある。
上記の身体モデルに対応し、ハプティック特性(すなわち、ハプティック効果のパラメータ)を、運動感覚効果を記述する以下のもの(表6)などの、MPEG−Vメッセージによって定義することができる。
同様に、他のハプティック効果のプロパティを定義することができる。例えば、VibrationSpecificationTypeタイプ記述子を定義して振動を記述することができる。振幅には、2つの属性として、信号の振幅および周波数を含めることができる。
ユーザの「armspan」高さおよび他の物理的なパラメータが既知であると仮定すると、HapSpaceサイズは、例えば、armspanの値1を用いて、レンダラによって計算することができる。さらに、定義されたハプティック・プロパティを作成するために、レンダラは、(例えば、Kinectなどの適切なセンサを使用して)ユーザの動きをトラッキングする必要がある。
オブジェクトが位置している場所のより精度の高いマップを提供するために、(定義された空間に関連する)深度マップを拡張として提供することができる。深度マップを各ハプティック装置/オブジェクトまたはユーザに関連付けて空間内の位置を記述することができる。
表7において、深度マップの(x、y)サイズは、深度−xおよび深度−yのパラメータによって特定される。ここで、深度マップは、HapSpaceに対して相対的であり、ハプティック装置/オブジェクトに関連付けられる深度は、深度マップに対して最も空間的に近い位置にあるものとする。深度マップは、位置を特定する際の代替手段を提供する。
以下において、前方に振動ボールを有するユーザが1人存在し、HapSpaceがユーザの周囲のキューブとして定義される。MPEG−V仕様を使用した表8において、このシーンを記載する。なお、この表8は、概念をハイレベルで示している。正確なシンタックスについては、MPEG−V仕様を参照するとよい。特に、この例は、ユーザの位置=「:0.01:0.283:0.134」を規定している。振動ボールは、位置=「:0.51:0.983:0.8」で振動を生成する。振動の周波数および振幅は、(xn,an)によって特定されているように、時間の経過と共に変化する。
表9において、ボールが身体の部分(右手)にリンクされている場所の別の例を示す。ボールは右手で、(xn,an)で特定された周波数および振幅で振動する。
表10において、Z軸における位置を提供する深度マップを使用する例を示す。表9の例では、ユーザの位置=「:0.01:0.283:0.134」となっているが、今度は、位置=「:0.01:0.283:depth1(201,301)」で表されている。
なお、表8〜10における記述は例示的なものに過ぎず、厳密には、実施態様によっては異なることがある。表記を簡単にするために、表8〜10に示されているハプティック特性の記述をハプティック記述またはハプティック効果記述として示す。一般的には、ハプティック記述は、例えば、限定するものではないが、シンタックス構造、擬似コード、または、ハプティック特性を記述するソフトウェア・コードである。
ハプティック記述の作成は、アーティストによって行うことができる。ハプティック効果の作成は、必要なインタフェースを用いた、ハプティック編集ソフトウェアを使用して行うことができる。図5には、例示的なオーサリング・ツール、H−STUDIOが示されている。ここでは、モーション効果が編集されている。特に、図5においては、モーション方向(矢印で示されている)および反復方向(車によって示されている)は、時点tで定義される。オーサリング・ツールによって、アーティストは、AVコンテンツと同期してハプティック特性(すなわち、ハプティック・トラック)のシーケンスを生成することもできる。代替的には、モーション・ユニットを使用して、キャラクタの動作をキャプチャし、ハプティック記述内に動作情報を挿入することができる。
ハプティック記述を、例えば、mp4ファイルまたはTSストリーム内にカプセル化した後、受信機に送信することができる。受信機は、様々なハプティック・フィードバック装置を使用して定義された効果をレンダリングするためにハプティック記述を復号し、シンタックスを解釈するアダプテーション・エンジンを含む。適切な信号をハプティック装置に送信し、明細書中で定義されたように動作させる通信リンクが存在すると仮定する。信号に含まれているハプティック記述は、ハプティック装置を受信する能力に基づいて適応させることができる。一実施形態においては、受信機は、シーン(範囲)の各ハプティック装置/オブジェクトの「性能」を把握しており、各レンダリング装置は、送信される値を自己の性能の範囲内になるように変換するアダプテーション・エンジンを含む。例えば、最大周波数が100Hzであり、受信機が200Hzの振動をレンダリングするコマンドを受信する場合には、アダプテーション・エンジンは、周波数を100Hzにクリッピングすることを決定することができる。
例えば、表8に示されているように、専用の振動信号をユーザの前方のボールに対して送信することができる。プレイヤが完全なレンダリング性能を有するハプティック装置にアクセスする場合には、ボールがユーザに示され、ユーザがボールに触れた場所に振動が付与される。レンダリング性能がより限定されたハプティック装置に対するアクセスを有する別のユーザに対しては、例えば、単純なスマートフォンを有するユーザに対しては、ボールはユーザに示されず、ボールの振動は、スマートフォンの振動によって置き換えられる。より複雑なシナリオを、様々な性能を有する装置に適応するように定義することができる。
本実施形態は、任意の種類のレンダリング装置、例えば、シート、センサ、ファン、ピエゾ素子、およびスピーカを考慮して、ユーザに対するハプティック効果をレンダリングするために使用することができる。このようなハプティック効果は、AV(映画)コンテンツにリンクされるだけでなく、ユーザが、例えば、ユーザ・インタフェースを通じて操作可能な仮想オブジェクトにリンクされる。
図6は、本願の原理に従ったAVコンテンツと共にハプティック効果を生成する例示的な方法600を示している。方法600は、ステップ605で開始する。ステップ610において、AVコンテンツおよびユーザのHapSpaceを用いたハプティック効果が入力としてアクセスされる。ハプティック効果は、センサを用いてキャプチャすることができるし、AVコンテンツから抽出することもできるし、アーティストによって作成することもできる。ステップ620において、ハプティック効果は、次に、上述したように、ハプティック記述を使用して記述することができる。ハプティック効果記述は、そして、ステップ630において、AVコンテンツと共に符号化される。ハプティック効果記述は、例えば、限定するものではないが、zipアルゴリズム、MPEG BIFSバイナリ・フォーマットを用いて符号化することができる。HapSpaceのサイズもまた、ビットストリーム内で示すことができる。そして、ステップ640において、符号化結果、すなわち、符号化されたビットストリームは、記憶、または送信される。方法600は、ステップ699で終了する。
図7は、本願の原理に従ってHapSpace内のハプティック効果を記述する例示的な方法700を示している。方法700は、方法600におけるステップ620を実行するために使用することができる。ステップ710において、HapSpaceがユーザに基づいて、例えば、ユーザが到達可能なものを含むキューブとして定義される。そして、ハプティック効果の特性およびHapSpace内のハプティック効果の位置がユーザ、ハプティック装置、およびハプティック・オブジェクトに対して定義される。例えば、ステップ720において、例えば、表3および表7に記載された記述子を使用して、正確な位置および/または位置の深度マップが定義される。ステップ730において、例えば、表4に記述された記述子を使用して、ハプティック・オブジェクト/装置をユーザにリンクさせることもできる。ステップ740において、例えば、表5に記述された記述子を使用して、身体の部分の位置が特定される。ハプティック効果のハプティック特性は、ステップ750で定義することができる。ステップ760において、より多くの記述子が必要であるかどうかがチェックされる。より多くの記述子が必要である場合には、制御がステップ720に戻る。ユーザの移動により、HapSpaceの起点が移動する場合には、ステップ770でHapSpaceを更新することができる。
図7において示されているものとは異なる順序で方法700のステップを実行することができる。例えば、ステップ720〜750を任意の順序で実行することができる。また、ステップ720〜750のいずれか1つを、記述が必要なハプティック効果の内容に依存し実施してもよいし、実施しなくともよい。ユーザが移動しない場合、ステップ770をスキップしてもよい。
図8は、本願の原理に従った、AVコンテンツと共にハプティック効果をレンダリングする例示的な方法800を示している。方法800は、ステップ805で開始する。ステップ810において、AVコンテンツおよびハプティック効果を含むビットストリームが入力としてアクセスされる。例えば、方法600に従って生成されたビットストリームを入力として使用することができる。ビットストリームは、複数の異なるトラックに整理することができる。このうち、幾らかのトラックはオーディオのためのものであり、幾らかのトラックはビデオのためのものであり、幾らかのトラックはハプティックのためのものであり、全て、同期されている。代替的には、符号化されたハプティック効果のビットストリームをAVビットストリームとは別個に送信し、ビットストリームおよび出力再生を同期する受信機によって受信することができる。
ステップ820において、AVコンテンツおよびハプティック効果の記述が復号される。そして、復号されたAVコンテンツおよびハプティック効果は、ステップ830でのレンダリングのために利用可能である。レンダリング装置は、HapSpaceのサイズの導出の仕方を把握すべきである。例えば、HapSpaceがユーザの腕の長さに基づく場合には、レンダリング装置は、腕の長さを把握するべきであり、したがって、HapSpaceのサイズを導出することができる。代替的には、HapSpaceのサイズは、情報が送信される場合には、ビットストリームから導出することができる。ステップ840において、AVコンテンツをハプティック・フィードバックを用いた再生のために提供することができる。例えば、AVコンテンツをディスプレイおよびサウンド・スピーカに送信することができ、ハプティック効果をハプティック装置を使用して提供することができる。方法800は、ステップ899で終了する。そして、解釈されたハプティック効果をレンダリングのために使用することができる。
図9は、本願の原理に従った、HapSpace内でハプティック効果を解釈する例示的な方法900を示す。方法900は、方法800におけるステップ830を実行するように使用することができる。ステップ910において、ハプティック効果の記述がアクセスされる。そして、ハプティック効果が解釈される。特に、例えば、表3および表7に記載された方法を使用して、位置を解釈することができる。ステップ930において、例えば、表4に記述されている記述子を使用して、ユーザにリンクされるハプティック・オブジェクトを解釈することができる。ステップ940において、表5に記述されている記述子を使用して、身体の部分の位置を解釈することができる。ステップ950において、ハプティック効果のためのハプティック特性を解釈することができる。ステップ960において、より多くの記述を解釈する必要があるかどうかがチェックされる。より多くの記述を解釈する必要がある場合には、制御がステップ920に戻る。レンダリング装置の性能に依存して、ステップ970において、ハプティック効果を適応化することもできる。
図9において示されているものとは異なる順序で方法900のステップを実行することができる。例えば、ステップ920〜950を任意の順序で実行することができる。また、ステップ920〜950のいずれか1つを、記述が必要なハプティック効果の内容に依存して実施してもよいし、実施しなくともよい。ハプティック装置が完全なレンダリング性能を有する場合、ステップ970をスキップしてもよい。
有益には、本願の実施形態は、仮想空間、すなわち、ユーザに付帯するユーザのHapSpaceを提供する。この仮想空間は、ユーザと共に移動することができる。HapSpaceもまた、ユーザがアクセス可能なハプティック・オブジェクトおよびユーザにハプティック効果を提供可能なハプティック装置を含む。HapSpaceは、ユーザに基づいて定義され、好ましくは、ユーザが自己の身体で接触する空間として定義される。HapSpaceにおいては、ハプティック・オブジェクトをこのハプティック・オブジェクトのハプティック特性を用いて定義することができる。さらに、ユーザおよび様々なハプティック・レンダリング装置をHapSpaceに正確に位置決めすることができる。
図10は、本願の原理の例示的な実施形態の様々な態様を実施することが可能な例示的なシステムのブロック図を示している。システム1000は、以下に記載する様々なコンポーネントを含み、上述した処理を実行するように構成された装置として実施することができる。このような装置の例としては、限定するものではないが、パーソナル・コンピュータ、ラップトップ・コンピュータ、スマートフォン、タブレット・コンピュータ、ディジタルメディア・セットトップ・ボックス、ディジタル・テレビジョン受信機、パーソナル・ビデオ・レコーディング・システム、コネクテッドホーム家電、およびサーバが挙げられる。システム1000を他の同様のシステムと、さらに、ディスプレイに、図10に示されており、当業者によって公知な通信システムを介して通信可能に結合させることができ、上述した例示的なビデオ・システムを実施することができる。
システム1000には、上述した様々な処理を実施するためにロードされた命令を実行するように構成された少なくとも1つのプロセッサ1010を含めることができる。プロセッサ1010には、内蔵メモリ、入出力インタフェース、および当該技術分野で公知な様々な他の回路を含めることができる。さらに、システム1000には、少なくとも1つのメモリ1020(例えば、揮発性メモリ装置、不揮発性メモリ装置)を含めることができる。システム1000には、さらに、記憶装置1040を含めることができ、この記憶装置1040は、限定するものではないが、EEPROM、ROM、PROM、RAM、DRAM、SRAM、フラッシュ、磁気ディスク・ドライブ、および/または光学ディスク・ドライブを含めることができる。記憶装置1040は、限定するものではないが、例えば、内蔵記憶装置であってもよいし、取り付けられた記憶装置でもよいし、さらに/または、ネットワークによってアクセス可能な記憶装置であってもよい。システム1000は、さらに、符号化されたHAVコンテンツまたは復号されたHAVコンテンツを提供するためにデータを処理するように構成された符号化器/復号器モジュール1030を含めることができる。
符号化器/復号器モジュール1030は、符号化および/または復号の機能を実行するために装置に含めることができるモジュールを表す。公知であるように、装置には、符号化モジュールおよび復号モジュールの1つまたは双方を含めることができる。さらに、符号化器/復号器モジュール1030は、システム1000の別個の要素として実施することもできるし、当業者にとって公知なハードウェアおよびソフトウェアを組み合わせてプロセッサ1010内に組み込むこともできる。
上述した様々な処理を実行するためのプロセッサ1010にロードされるべきプログラム・コードは、プロセッサ1010による実行のために、記憶装置1040に記憶され、続いて、メモリ1020にロードされる。本願の原理の例示的な実施形態に従って、1つ以上のプロセッサ1010、メモリ1020、記憶装置1040、および符号化器/復号器モジュール1030は、限定するものではないが、ベース・レイヤー入力ビデオ、拡張レイヤー入力ビデオ、等式、公式、行列、変数、処理、処理ロジックを含む、1つ以上の項目を上述した処理の実行中に記憶することができる。
システム1000には、通信チャンネル1060を通じて他の装置との通信を可能にする通信インタフェース1050をさらに含めることができる。通信インタフェース1050には、限定するものではないが、通信チャンネル1060に対してデータを送受信するように構成された送受信機を含めることができる。通信インタフェースには、限定するものではないが、モデムまたはネットワーク・カードを含めることができ、通信チャンネルは、有線および/または無線媒体内で実施することができる。システム1000の様々なコンポーネントを、限定するものではないが、内部バス、有線、およびプリント回路基板を含む、様々な適切な接続部を使用して、互いに接続することができる。
本願の原理に従った例示的な実施形態は、プロセッサ1010によって実行されるコンピュータ・ソフトウェアによって実施することができるし、ハードウェアによって実施することができるし、ハードウェアおよびソフトウェアを組み合わせて実施することもできる。限定するものではないが、例として、本願の原理に従った例示的な実施形態は、1つまたは複数の集積回路によって実施することができる。メモリ1020は、限定するものではないが、例として、光学メモリ装置、磁気メモリ装置、半導体ベースのメモリ装置、固定メモリ、着脱可能なメモリなど、技術的な環境に適したどのようなタイプのものでもよく、適切なデータ記憶技術を使用して実施することができる。プロセッサ1010は、技術的な環境に適したどのようなタイプのものでもよく、限定するものではないが、例えば、1つ以上のマイクロプロセッサ、汎用コンピュータ、特定目的コンピュータ、およびマルチコア・アーキテクチャに基づくプロセッサを含むことができる。
図11を参照すると、上述した特徴事項および原理を適用可能なデータ送信システム1100が示されている。例えば、データ送信システム1100は、例えば、衛星、ケーブル、電話線、または地上ブロードキャストのような様々なメディアのいずれかを使用した信号を送信するヘッドエンドまたは送信システムとすることができる。さらに、データ送信システム1100を記憶のための信号を提供するために使用することができる。送信は、インターネットまたは何らかの他のネットワークを介して行うことができる。データ送信システム1100は、例えば、AVコンテンツおよびハプティック効果を生成し、受け渡す機能を有する。
データ送信システム1100は、プロセッサ1101から処理されたデータおよび他の情報を受信する。一実施態様においては、プロセッサ1101は、ハプティック効果を生成、キャプチャし、AVコンテンツからのハプティック効果を抽出し、または、アーティストによって作成されたハプティック効果を受け入れる。さらに、プロセッサ1101は、メタデータをデータ送信システム1100に提供してもよい。
データ送信システムまたはデータ送信装置1100は、符号化器1102および符号化された信号を送信可能な送信機1104を含む。符号化器1102は、プロセッサ1101からデータ情報を受信する。符号化器1102は、符号化された信号を生成する。
符号化器1102には、例えば、様々な情報を受信し、記憶または送信のための構造的なフォーマットに組み立てるアセンブリ・ユニットを含め、サブモジュールを含めることができる。様々な情報には、例えば、符号化されたまたは符号化されていないビデオ、さらに、符号化されたまたは符号化されていない要素を含めることができる。実施態様によっては、符号化器1102は、プロセッサ1101を含めることができ、したがって、プロセッサ1101の処理を実行する。
送信機1104は、符号化器1102から符号化された信号を受信し、1つまたは複数の出力信号で符号化された信号を送信する。送信機1104は、例えば、符号化されたピクチャおよび/またはこれに関連する情報を表す1つまたは複数のビットストリームを有するプログラム信号を送信するように構成することができる。通常の送信機は、例えば、エラー訂正符号化、信号内のデータのインタリーブ、信号内のエネルギーのランダム化、変調器1106を使用した1つ以上のキャリア上への信号の変調などのうちの1つ以上の機能を実行する。送信機1104には、アンテナ(図示せず)を含めてもよく、送信機1104がアンテナ(図示せず)とのインタフェースとなってもよい。さらに、送信機1104の実施態様は、変調器1106に限定されることがある。
さらに、データ送信システム1100は、記憶ユニット1108に通信可能に結合される。一実施態様においては、記憶ユニット1108は、符号化器1102に結合され、符号化器1102からの符号化されたビットストリームを記憶する。別の実施態様においては、記憶ユニット1108は、送信機1104に結合され、送信機1104からのビットストリームを記憶する。送信機1104からのビットストリームは、例えば、送信機1104によってさらに処理された1つ以上の符号化されたビットストリームを含むことがある。記憶ユニット1108は、1つ以上の標準的なDVD、ブルーレイ・ディスク、または何らかの他の記憶装置など、様々な態様で実施される。
図12を参照すると、上述した特徴事項および原理を実施可能なデータ受信システム1200が示されている。データ受信システム1200は、記憶装置、衛星、ケーブル、電話線、または、地上ブロードキャストなど、様々なメディアを介して信号を受信するように構成することができる。信号は、インターネットまたは他のネットワークを介して受信することができる。
データ受信システム1200は、符号化されたビデオを受信し、例えば、表示(例えば、ユーザに対する表示)、処理、または記憶を行うための復号されたビデオ信号を提供する、例えば、携帯電話、コンピュータ、セットトップ・ボックス、テレビジョン、または他の装置である。したがって、データ受信システム1200は、その出力を、例えば、テレビジョンの画面、コンピュータ・モニタ、(例えば、記憶、処理、または表示のための)コンピュータ、G−シート、振動ベスト、または何らかの他の記憶装置、処理装置、ハプティック装置、または表示装置に提供することができる。
データ受信システム1200は、データ情報を受信、処理する機能を有する。データ受信システムまたはデータ受信装置1200は、例えば、本願の実施態様において記載されている信号のような、符号化された信号を受信する受信機1202を含む。受信機1202は、例えば、ビットストリームを提供する信号、または、図11のデータ送信システム1100から出力された信号を受信することができる。
受信機1202は、例えば、符号化されたAVコンテンツおよびハプティック効果を表す複数のビットストリームを有するプログラム信号を受信するように構成されている。通常の受信機は、例えば、変調および符号化されたデータ信号を受信し、復調器1204を使用して1つ以上のキャリアからのデータ信号を復調し、信号内のエネルギーを逆ランダム化し、信号内のデータを逆インタリーブし、信号をエラー訂正復号することのうちの1つ以上の機能を実行する。受信機1202には、アンテナ(図示せず)を含めてもよく、受信機1202がアンテナ(図示せず)とのインタフェースとなってもよい。さらに、受信機1202の実施態様は、復調器1204に限定されることがある。
データ受信システム1200は、復号器1206を含む。受信機1202は、受信した信号を復号器1206に提供する。受信機1202によって復号器1206に提供される信号には、1つ以上の符号化されたビットストリームを含めることができる。復号器1206は、例えば、ビデオ情報、オーディオ信号、およびハプティック効果の記述を含む、復号されたビデオ信号など、復号された信号を出力する。
データ受信システムまたはデータ受信装置1200もまた、記憶ユニット1207と通信可能に結合される。一実施態様においては、記憶ユニット1207は、受信機1202に結合され、受信機1202は、記憶ユニット1207からのビットストリームにアクセスする。別の実施態様においては、記憶ユニット1207は、復号器1206に結合され、復号器1206は、記憶ユニット1207からのビットストリームにアクセスする。記憶ユニット1207からアクセスされたビットストリームは、様々な実施態様において、1つ以上の符号化されたビットストリームを含む。記憶ユニット1207は、様々な実施態様において、1つ以上の標準的なDVD、ブルーレイ・ディスク、ハードドライブ、または何らかの他の記憶装置である。
復号器1206からの出力データは、一実施態様においては、プロセッサ1208に提供される。プロセッサ1208は、一実施態様においては、後処理を行うように構成されたプロセッサである。実施態様によっては、復号器1206は、プロセッサ1208を含み、したがって、プロセッサ1208の処理を行う。他の実施態様においては、プロセッサ1208は、例えば、セットトップ・ボックスまたはテレビジョンのようなダウンストリーム装置の一部である。
本明細書において記載された実施態様は、例えば、方法またはプロセス、装置、ソフトウェア・プログラム、データストリーム、または信号で実施することができる。単一の実施態様の文脈で説明している場合であっても(例えば、方法としてのみ説明している場合であっても)、説明した特徴事項の実施態様を他の形態で(例えば、装置またはプログラムで)実施することもできる。装置は、例えば、適切なハードウェア、ソフトウェア、およびファームウェアで実施することができる。例えば、この方法を、例えば、プロセッサのような装置で実施することができる。プロセッサは、一般的には、例えば、コンピュータ、マイクロプロセッサ、集積回路、または、プログラマブル論理装置を含む処理装置を指す。さらに、プロセッサには、例えば、コンピュータ、携帯電話、携帯/個人情報端末(PDA)およびエンドユーザ間の情報の通信を容易にする他の装置などの通信装置が含まれる。
本願の原理の「一実施形態」、「実施形態」、「一実施態様」、または「実施態様」と言及した場合、さらに、他の類似する表現を使用した場合、これは、実施形態に関連して説明した特定の特徴事項、構造、特性などが本願の原理の少なくとも一実施形態に含まれることを意味する。したがって、明細書全体にわたって様々な箇所に存在する「一実施形態においては」、「実施形態においては」、「一実施態様においては」、「実施態様においては」、さらに、他の類似する表現は、必ずしも全てが同一の実施形態を指すものではない。
さらに、本願明細書または本願の請求の範囲は、様々な情報を「決定する」と記載している場合がある。情報を決定するとは、例えば、情報を推定すること、情報を計算すること、情報を予測すること、または、メモリから情報を取得することのうちの1つ以上を含むことがある。
さらに、本願明細書または本願の請求の範囲は、様々な情報に「アクセスする」と記載している場合がある。情報にアクセスするとは、例えば、情報を受信すること、情報を(例えば、メモリから)取得すること、情報を記憶すること、情報を処理すること、情報を送信すること、情報を移動すること、情報を複製すること、情報を削除すること、情報を計算すること、情報を決定すること、情報を予測すること、または、情報を推定することのうちの1つ以上を含むことがある。
さらに、本願明細書または本願の請求の範囲は、様々な情報を「受信する」と記載している場合がある。「アクセスする」ことと同様に、受信することは、広い範囲の用語であることを意図している。情報を受信するとは、例えば、情報にアクセスすることまたは情報を(例えば、メモリから)取得することのうちの1つ以上を含むことがある。さらに、「受信すること」は、通常、処理の間に、或る意味、または別の意味で、例えば、情報を記憶すること、情報を処理すること、情報を送信すること、情報を移動すること、情報を複製すること、情報を削除すること、情報を計算すること、情報を判定すること、情報を予測すること、または、情報を推定することなどに関わる。
当業者であれば理解できるであろうが、実施態様は、例えば、記憶または送信される情報を搬送するようにフォーマットされた様々な信号を生成する。情報は、例えば、方法を実行する命令、または記載された実施態様のうちの1つによって生成されたデータを含むことがある。例えば、信号は、記載した実施形態のビットストリームを搬送するようにフォーマットされることがある。このような信号は、例えば、(例えば、スペクトラムの無線周波数部分を使用した)電磁波としてフォーマットすることができ、または、ベースバンド信号としてフォーマットすることができる。フォーマット化には、例えば、データ・ストリームを符号化することおよび符号化されたデータストリームを用いてキャリアを変調することが含まれることがある。信号が搬送する情報は、例えば、アナログ情報またはディジタル情報とすることができる。信号は、公知である様々な有線リンクまたは無線リンクを介して送信することができる。信号は、プロセッサ読み取り可能媒体上に記憶することができる。

Claims (15)

  1. ハプティック効果を表すデータを含むビットストリームを送信する方法であって、
    前記ビットストリーム内に、空間の起点の位置を表す第1の記述子を符号化するステップと、
    前記ビットストリーム内に、前記空間に関して、ハプティック特性が関連付けられている仮想オブジェクトの位置を表す第2の記述子を符号化するステップと、
    前記ビットストリームを送信するステップと、
    を含む、前記方法。
  2. 前記ビットストリーム内に、前記空間に関して、ハプティック装置の位置を表す第3の記述子を符号化するステップをさらに含む、請求項1に記載の方法。
  3. ハプティック効果を表す情報を復号する方法であって、
    ビットストリームを受信するステップと、
    前記ビットストリームから空間の起点の作成を表す第1の記述子を復号するステップと、
    前記ビットストリームから、前記空間に関して、ハプティック特性が関連付けられている仮想オブジェクトの位置を表す第2の記述子を復号するステップと、
    を含む、前記方法。
  4. 前記ビットストリームから、前記空間に関して、ハプティック装置の位置を表す第3の記述子を復号するステップをさらに含む、請求項3に記載の方法。
  5. 前記第2の記述子は、前記仮想オブジェクトが位置するユーザの身体の部分を示す、請求項1〜4のいずれか1項に記載の方法。
  6. 前記第3の記述子は、前記ハプティック装置が位置するユーザの身体の部分を示す、請求項2または4に記載の方法。
  7. 前記第1の記述子は、第1の座標に対応し、前記第2の記述子は、第2の座標に対応する、請求項1または3に記載の方法。
  8. 所定の時点でのユーザの身体の少なくとも一部の位置を表す第4の記述子をさらに含む、請求項1または2に記載の方法。
  9. 所定の時点でのユーザの身体の少なくとも一部の位置を表す第4の記述子をさらに含む、請求項3または4に記載の方法。
  10. 前記起点は、ユーザの身体の一部に関連付けられる、請求項1〜9のいずれか1項に記載の方法。
  11. ハプティック効果を表すデータを含むビットストリームを送信するように構成された装置であって、
    前記ビットストリーム内に、空間の起点の位置を表す第1の記述子を符号化し、
    前記ビットストリーム内に、前記空間に関して、ハプティック特性が関連付けられている仮想オブジェクトの位置を表す第2の記述子を符号化するように構成された符号化器と、
    前記ビットストリームを送信する送信機と、
    を含む、前記装置。
  12. ハプティック効果を表す情報を復号するように構成された装置であって、
    ビットストリームを受信する受信機と、
    前記ビットストリームから、空間の起点の位置を表す第1の記述子を復号し、
    前記ビットストリームから、前記空間に関して、ハプティック特性が関連付けられている仮想オブジェクトの位置を表す第2の記述子を復号するように構成された復号器と、
    を含む、前記装置。
  13. ハプティック効果を表すデータを含む少なくともパケットを搬送する信号であって、
    前記信号は、空間の起点の位置を表す第1の記述子と、
    前記空間に関して、ハプティック特性が関連付けられている仮想オブジェクトの位置を表す第2の記述子と、をさらに搬送する、前記信号。
  14. プロセッサに少なくとも請求項1に記載の方法のステップを実行させる命令を記憶した非一時的プロセッサ読み取り可能媒体。
  15. プロセッサに少なくとも請求項3に記載の復号する方法のステップを実行させる命令を記憶した非一時的プロセッサ読み取り可能媒体。
JP2018500919A 2015-07-13 2016-07-07 ユーザ・ハプティック空間(HapSpace)に基づくハプティック・フィードバックおよびインタラクティブ性を提供する方法および装置 Pending JP2018527655A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP15306156.9 2015-07-13
EP15306156.9A EP3118723A1 (en) 2015-07-13 2015-07-13 Method and apparatus for providing haptic feedback and interactivity based on user haptic space (hapspace)
PCT/EP2016/066157 WO2017009181A1 (en) 2015-07-13 2016-07-07 Method and apparatus for providing haptic feedback and interactivity based on user haptic space (hapspace)

Publications (2)

Publication Number Publication Date
JP2018527655A true JP2018527655A (ja) 2018-09-20
JP2018527655A5 JP2018527655A5 (ja) 2019-08-15

Family

ID=53758150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018500919A Pending JP2018527655A (ja) 2015-07-13 2016-07-07 ユーザ・ハプティック空間(HapSpace)に基づくハプティック・フィードバックおよびインタラクティブ性を提供する方法および装置

Country Status (10)

Country Link
US (1) US11964200B2 (ja)
EP (2) EP3118723A1 (ja)
JP (1) JP2018527655A (ja)
KR (1) KR20180030515A (ja)
CN (1) CN107835971B (ja)
BR (1) BR112018000796A2 (ja)
CA (1) CA2992128A1 (ja)
MX (1) MX2018000441A (ja)
RU (1) RU2721410C2 (ja)
WO (1) WO2017009181A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019121368A (ja) * 2017-12-28 2019-07-22 イマージョン コーポレーションImmersion Corporation 直観的な触覚設計
WO2020080433A1 (ja) * 2018-10-19 2020-04-23 ソニー株式会社 情報処理装置、情報処理方法、および、プログラム
WO2020080432A1 (ja) * 2018-10-19 2020-04-23 ソニー株式会社 情報処理装置、情報処理方法、および、プログラム
WO2021172040A1 (ja) * 2020-02-28 2021-09-02 ソニーグループ株式会社 情報処理装置および方法
WO2023176928A1 (ja) * 2022-03-18 2023-09-21 ソニーグループ株式会社 情報処理装置および方法
US11954324B2 (en) 2020-07-22 2024-04-09 Samsung Electronics Co., Ltd. Method for performing virtual user interaction, and device therefor
US12003886B2 (en) 2018-12-26 2024-06-04 Sony Group Corporation Transmission device, transmission method, reception device, and reception method

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3112987A1 (en) * 2015-06-29 2017-01-04 Thomson Licensing Method and schemes for perceptually driven encoding of haptic effects
KR101678455B1 (ko) * 2015-10-14 2016-11-23 한국과학기술연구원 질감인지공간을 이용한 햅틱 속성 적용 장치 및 방법
US11379042B2 (en) 2017-07-10 2022-07-05 Telefonaktiebolaget Lm Ericsson (Publ) Transmission of haptic input
CN111095018B (zh) 2017-08-31 2022-03-29 深圳市大疆创新科技有限公司 固态光探测和测距(lidar)系统、用于提高固态光探测和测距(lidar)分辨率的系统和方法
US10698490B2 (en) * 2018-01-10 2020-06-30 Jonathan Fraser SIMMONS Haptic feedback device, method and system
CN111712779A (zh) * 2018-02-20 2020-09-25 索尼公司 信息处理装置、信息处理方法和程序
CN112673334B (zh) * 2018-09-11 2024-06-25 索尼公司 信息处理装置、信息处理方法和记录介质
CN113260488A (zh) * 2019-02-01 2021-08-13 索尼集团公司 解码装置、解码方法和程序
US11698680B2 (en) * 2020-06-23 2023-07-11 Immersion Corporation Methods and systems for decoding and rendering a haptic effect associated with a 3D environment
TWI831081B (zh) * 2021-11-11 2024-02-01 國立陽明交通大學 模組化氣動體感裝置
WO2023099233A1 (en) * 2021-12-03 2023-06-08 Interdigital Ce Patent Holdings, Sas Adaptation of a haptic signal to device capabilities
US11775072B1 (en) * 2022-04-13 2023-10-03 Immersion Corportion Methods and systems for distributing and/or generating a haptic effect associated with video content and/or audio content
WO2024002508A1 (en) * 2022-07-01 2024-01-04 Go Touch Vr Method and apparatus of transmitting haptic data
US20240127680A1 (en) * 2022-10-18 2024-04-18 Tencent America LLC Method and apparatus for timed referenced access unit packetization of haptics elementary streams

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3983640A (en) 1974-11-06 1976-10-05 The Singer Company Advanced G seat for aircraft simulation
JP4173951B2 (ja) 2000-10-25 2008-10-29 日本放送協会 多感覚情報送信装置及び多感覚情報受信装置
US7667700B1 (en) * 2004-03-05 2010-02-23 Hrl Laboratories, Llc System and method for navigating operating in a virtual environment
US7990374B2 (en) 2004-06-29 2011-08-02 Sensable Technologies, Inc. Apparatus and methods for haptic rendering using data in a graphics pipeline
JP4795091B2 (ja) 2006-04-21 2011-10-19 キヤノン株式会社 情報処理方法および装置
RU2407072C1 (ru) 2006-09-29 2010-12-20 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способы и устройства кодирования и декодирования объектно-ориентированных аудиосигналов
US8952888B2 (en) * 2008-05-09 2015-02-10 Koninklijke Philips N.V. Method and system for conveying an emotion
JP5502348B2 (ja) 2009-03-12 2014-05-28 ファナック株式会社 シミュレーション方法
US8009022B2 (en) * 2009-05-29 2011-08-30 Microsoft Corporation Systems and methods for immersive interaction with virtual objects
US8659658B2 (en) * 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US8540571B2 (en) 2010-03-31 2013-09-24 Immersion Corporation System and method for providing haptic stimulus based on position
KR101108145B1 (ko) 2010-05-07 2012-02-06 광주과학기술원 고해상도 타일드 디스플레이를 지원하는 햅틱기반 네트워크 가상환경 구현 장치 및 방법
US20130208899A1 (en) 2010-10-13 2013-08-15 Microsoft Corporation Skeletal modeling for positioning virtual object sounds
US9480907B2 (en) * 2011-03-02 2016-11-01 Microsoft Technology Licensing, Llc Immersive display with peripheral illusions
US9478067B1 (en) * 2011-04-08 2016-10-25 Amazon Technologies, Inc. Augmented reality environment with secondary sensory feedback
US10013857B2 (en) * 2011-12-21 2018-07-03 Qualcomm Incorporated Using haptic technologies to provide enhanced media experiences
KR101546654B1 (ko) 2012-06-26 2015-08-25 한국과학기술원 웨어러블 증강현실 환경에서 증강현실 서비스 제공 방법 및 장치
US8532675B1 (en) * 2012-06-27 2013-09-10 Blackberry Limited Mobile communication device user interface for manipulation of data items in a physical space
US9836150B2 (en) * 2012-11-20 2017-12-05 Immersion Corporation System and method for feedforward and feedback with haptic effects
US9230368B2 (en) * 2013-05-23 2016-01-05 Microsoft Technology Licensing, Llc Hologram anchoring and dynamic positioning
US9274603B2 (en) * 2013-05-24 2016-03-01 Immersion Corporation Method and apparatus to provide haptic feedback based on media content and one or more external parameters
CN103543830B (zh) 2013-10-28 2017-02-15 四川大学 一种人体骨骼点映射至立体显示中虚拟三维空间点的方法
US9349378B2 (en) * 2013-11-19 2016-05-24 Dolby Laboratories Licensing Corporation Haptic signal synthesis and transport in a bit stream
US20150178930A1 (en) 2013-12-20 2015-06-25 Qualcomm Incorporated Systems, methods, and apparatus for generating metadata relating to spatial regions of non-uniform size

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019121368A (ja) * 2017-12-28 2019-07-22 イマージョン コーポレーションImmersion Corporation 直観的な触覚設計
WO2020080433A1 (ja) * 2018-10-19 2020-04-23 ソニー株式会社 情報処理装置、情報処理方法、および、プログラム
WO2020080432A1 (ja) * 2018-10-19 2020-04-23 ソニー株式会社 情報処理装置、情報処理方法、および、プログラム
JPWO2020080433A1 (ja) * 2018-10-19 2021-09-09 ソニーグループ株式会社 情報処理装置、情報処理方法、および、プログラム
JPWO2020080432A1 (ja) * 2018-10-19 2021-09-16 ソニーグループ株式会社 情報処理装置、情報処理方法、および、プログラム
US11738262B2 (en) 2018-10-19 2023-08-29 Sony Group Corporation Information processor, information processing method, and program
JP7424301B2 (ja) 2018-10-19 2024-01-30 ソニーグループ株式会社 情報処理装置、情報処理方法、および、プログラム
JP7452430B2 (ja) 2018-10-19 2024-03-19 ソニーグループ株式会社 情報処理装置、情報処理方法、および、プログラム
US12003886B2 (en) 2018-12-26 2024-06-04 Sony Group Corporation Transmission device, transmission method, reception device, and reception method
WO2021172040A1 (ja) * 2020-02-28 2021-09-02 ソニーグループ株式会社 情報処理装置および方法
US11954324B2 (en) 2020-07-22 2024-04-09 Samsung Electronics Co., Ltd. Method for performing virtual user interaction, and device therefor
WO2023176928A1 (ja) * 2022-03-18 2023-09-21 ソニーグループ株式会社 情報処理装置および方法

Also Published As

Publication number Publication date
EP3118723A1 (en) 2017-01-18
CN107835971A (zh) 2018-03-23
KR20180030515A (ko) 2018-03-23
RU2018105082A3 (ja) 2019-12-17
CA2992128A1 (en) 2017-01-19
US20180200619A1 (en) 2018-07-19
WO2017009181A1 (en) 2017-01-19
RU2018105082A (ru) 2019-08-13
CN107835971B (zh) 2023-06-20
EP3323032A1 (en) 2018-05-23
RU2721410C2 (ru) 2020-05-19
US11964200B2 (en) 2024-04-23
BR112018000796A2 (pt) 2018-09-04
MX2018000441A (es) 2018-05-17

Similar Documents

Publication Publication Date Title
US11964200B2 (en) Method and apparatus for providing haptic feedback and interactivity based on user haptic space (HapSpace)
CN106303555A (zh) 一种基于混合现实的直播方法、装置和系统
CN108111899A (zh) 视频传输方法、客户端、服务器
CN114450966A (zh) 用于异构沉浸式媒体的表示和流式传输的数据模型
CN113891117B (zh) 沉浸媒体的数据处理方法、装置、设备及可读存储介质
US10536682B2 (en) Method for reproducing an item of audiovisual content having haptic actuator control parameters and device implementing the method
Kim et al. Construction of a haptic-enabled broadcasting system based on the MPEG-V standard
JP7447293B2 (ja) 異種クライアントエンドポイントへのストリーミングのための2dビデオの適応のためのニューラルネットワークモデルの参照
US10440446B2 (en) Method for generating haptic coefficients using an autoregressive model, signal and device for reproducing such coefficients
US10096213B2 (en) Signal for carrying washout request in haptic audiovisual content, related method and device
US11937070B2 (en) Layered description of space of interest
WO2023046899A1 (en) Location-based haptic signal compression
KR101731476B1 (ko) 가상 인체를 통한 촉각 상호작용 방법과 장치
KR20220110787A (ko) 이기종 클라이언트 종단점에 대한 스트리밍을 위한 2d 비디오의 적응
JP2023518676A (ja) 没入型メディアの設置、及び没入型メディアから異種クライアントエンドポイントへの配信
US11943271B2 (en) Reference of neural network model by immersive media for adaptation of media for streaming to heterogenous client end-points
CN116490922A (zh) 声学场景和视觉场景的一致性
CN118317066A (en) Data processing method of haptic media and related equipment
KR20240088941A (ko) 위치 기반 햅틱 신호 압축
CN118264827A (en) Data transmission method and electronic equipment
Yamanaka et al. Web-and mobile-based environment for designing and presenting spatial audiovisual content

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180223

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181220

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190705

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190705

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201201

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210422