JP2017005709A - ブロードキャスト用ハプティクスアーキテクチャ - Google Patents

ブロードキャスト用ハプティクスアーキテクチャ Download PDF

Info

Publication number
JP2017005709A
JP2017005709A JP2016114961A JP2016114961A JP2017005709A JP 2017005709 A JP2017005709 A JP 2017005709A JP 2016114961 A JP2016114961 A JP 2016114961A JP 2016114961 A JP2016114961 A JP 2016114961A JP 2017005709 A JP2017005709 A JP 2017005709A
Authority
JP
Japan
Prior art keywords
data
haptic
sensor
user device
live event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2016114961A
Other languages
English (en)
Inventor
ヘマン アブデルウェアブ
Hamam Abdelwahab
ヘマン アブデルウェアブ
マニュアル クルズ ヘルナンデス ジュアン
Manuel Cruz-Hernandez Juan
マニュアル クルズ ヘルナンデス ジュアン
セボン ジェマール
Saboune Jamal
セボン ジェマール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2017005709A publication Critical patent/JP2017005709A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2353Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/756Media network packet handling adapting media to device capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/565Conversion or adaptation of application format or content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • H04N21/41265The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • H04N9/8715Regeneration of colour television signals involving the mixing of the reproduced video signal with a non-recorded signal, e.g. a text signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】ハプティックデータをライブイベントからエンドユーザ装置に転送するためのシステムが提供される。
【解決手段】レコーダが、ライブイベントの映像データを記録するように構成される。センサが、ライブイベントに関連付けられたパラメータを検知し、検知されたパラメータをセンサデータとして出力するように構成される。変換部が、センサからのセンサデータを受信し、センサデータを、ライブイベントに関連付けられたハプティックデータを含む信号に変換するように構成される。エンドユーザ装置が、変換部からハプティックデータを受信するように構成され、ライブイベントの映像データを受信するように構成される。エンドユーザ装置は、ハプティックデータに基づいてユーザに対するハプティック効果を生成するように構成されたハプティック出力装置を含み、映像データを表示するように構成されたディスプレイを含む。
【選択図】図1

Description

実施形態は、概略としてマルチメディアコンテンツの処理及び表示に関し、特に、音声−映像コンテンツをハプティック効果で強化することに関する。
映像ゲーム産業において一般に使用されるハプティック効果は、ユーザ体験を強化する触覚的なキューを与え、ユーザに対する仮想環境をよりインタラクティブにすることができる。例えば、振動効果、すなわち振動触覚ハプティック効果は、電子装置のユーザにキューを与えて特定のイベントに対してユーザを喚起する際に有用なことがあり、又はリアルなフィードバックを与えて模擬若しくは仮想環境内でより深い感覚的没入を作り出すことができる。スポーツイベントなどのライブイベントを観る際のユーザの体験は、ハプティック効果をライブイベントの音声及び映像成分に付加することによって強化され得る。本実施形態は、ハプティックデータをライブイベントからエンドユーザ装置に転送するためのアーキテクチャに関する。
実施形態は、ハプティックデータをライブイベントからエンドユーザ装置に転送するためのシステムに関する。システムは、レコーダ、センサ、変換部及びエンドユーザ装置を含む。レコーダは、ライブイベントの映像データを記録するように構成される。センサは、ライブイベントに関連付けられたパラメータを検知し、検知されたパラメータをセンサデータとして出力するように構成される。変換部は、センサからのセンサデータを受信し、センサデータをライブイベントに関連付けられたハプティックデータを含む信号に変換するように構成される。エンドユーザ装置は、変換部からハプティックデータを受信するように構成され、ライブイベントの映像データを受信するように構成される。エンドユーザ装置は、ハプティックデータに基づいてユーザに対するハプティック効果を生成するように構成されたハプティック出力装置を含み、映像データを表示するように構成されたディスプレイを含む。
実施形態は、レコーダ、センサ、現地送信局、変換部及びエンドユーザ装置を含むシステムに関する。レコーダは、ライブイベントの映像データを記録するように構成される。センサは、ライブイベントに関連付けられたパラメータを検知し、検知されたパラメータをセンサデータとして出力するように構成される。現地送信局は、ライブイベントの現地に配置される。現地送信局は、ライブイベントの映像データを受信するように構成され、ライブイベントの映像データを処理するためのプロセッサを含む。変換部は、センサからのセンサデータを受信し、センサデータをライブイベントに関連付けられたハプティックデータを含む信号に変換するように構成される。エンドユーザ装置は、ハプティックデータを変換部から受信するように構成され、処理された映像データを現地送信局のプロセッサから受信するように構成される。エンドユーザ装置は、ハプティックデータに基づいてユーザに対してハプティック効果を生成するように構成されたハプティック出力装置を含み、映像データを表示するように構成されたディスプレイを含む。
実施形態はまた、ハプティックデータをライブイベントからエンドユーザ装置に転送する方法に関する。ライブイベントの映像データが記録される。ライブイベントに関連付けられたパラメータが検知され、検知されたパラメータがセンサデータとして出力される。センサからのセンサデータが受信され、センサデータが、ライブイベントに関連付けられたハプティックデータを含む信号に変換される。ハプティックデータが、エンドユーザ装置で受信される。エンドユーザ装置は、映像データを表示するように構成されたディスプレイを含む。ライブイベントの映像データが、エンドユーザ装置で受信される。エンドユーザ装置は、ハプティックデータに基づいてユーザに対するハプティック効果を生成するように構成されたハプティック出力装置を含む。少なくとも1つのハプティック効果が、ハプティックデータに基づいてハプティック出力装置で生成され、映像データがディスプレイに表示される。
発明の上記及び他の構成及び効果は、添付図面に示す本実施形態の以降の説明から明らかとなる。添付図面は、ここに取り込まれて明細書の一部を構成するものであり、発明の原理を説明し、当業者が発明を生産及び使用することを可能とするようにさらに作用する。図面は寸法通りではない。
図1は、ハプティックデータをライブイベントからエンドユーザ装置に転送するための簡略化されたフローチャートを示す。 図2はハプティックデータをライブイベントからエンドユーザ装置に転送する際に利用される基本的な構成要素を含む、より詳細なフローチャートを示し、処理済み音声及び/又は映像データ並びにハプティックデータは個別又は別個の信号としてエンドユーザ装置に送信される。 図3は他の実施形態によってハプティックデータをライブイベントからエンドユーザ装置に転送する際に利用される基本的な構成要素を含む、より詳細なフローチャートを示し、処理済み音声及び/又は映像データ並びにハプティックデータは複合信号としてエンドユーザ装置に送信される。 図4は、実施形態によるエンドユーザ装置のブロック図である。 図5は実施形態においてエンドユーザ装置として使用され得るマルチデバイスシステムのブロック図であり、マルチデバイスシステムは主エンドユーザ装置及び副エンドユーザ装置を含む。 図6は、実施形態によるブロードキャスト用ハプティクスアーキテクチャの説明図であり、ハプティックデータの変換がハプティックイベントの手動挿入を介して現地の処理又は送信局で行われる。 図7は他の実施形態によるブロードキャスト用ハプティクスアーキテクチャの説明図であり、元のセンサデータのハプティックデータへの変換が現地の処理又は送信局の後段でエンドユーザ装置への到達前に行われる。 図8は他の実施形態によるブロードキャスト用ハプティクスアーキテクチャの説明図であり、元のセンサデータのハプティックデータへの変換が現地の処理若しくは送信局又はその前段で行われ、エンドユーザ装置への配信に中央処理サーバを利用する。 図9は他の実施形態によるブロードキャスト用ハプティクスアーキテクチャの説明図であり、元のセンサデータのハプティックデータへの変換が現地の処理若しくは送信局又はその前段で行われ、エンドユーザ装置への配信に中央処理サーバを利用しない。 図10は他の実施形態によるブロードキャスト用ハプティクスアーキテクチャの説明図であり、元のセンサデータのハプティックデータへの変換がセンサ自体で行われる。 図11は他の実施形態によるブロードキャスト用ハプティクスアーキテクチャの説明図であり、元のセンサデータのハプティックデータへの変換がエンドユーザ装置で行われる。
図面を参照して本発明の具体的実施形態をここに説明する。同様の参照符号は同一の要素又は機能的に同様の要素を示す。以降の詳細な説明は、単に例示的なものであり、本発明又は本願、及び発明の使用を限定するものではない。またさらに、上記の技術分野、技術背景、発明の概要又は以降の詳細な説明で示されるいずれの明示又は示唆される理論にも拘束されるものではない。
実施形態は、ライブハプティック効果とともにライブ映像を見ることを可能とするために、ハプティックデータをライブイベントからエンドユーザ装置に転送するためのアーキテクチャに関する。言い換えると、ここに記載されるアーキテクチャは、ブロードキャストされるライブ映像及び/又は音声にハプティックデータを埋め込み、又は含めてユーザの体験を強化するのに適する。イベントのリアルタイム的側面がライブ映像でハプティック効果又は感覚として再生され、ライブ映像を見ているユーザに対して一層リアルで没入的な体験を与えることができるように、ライブイベントの映像を記録しつつ、同時にライブイベントのリアルタイム的側面を記録できることが望ましい。シーンにおける対象物からリアルタイムデータを記録してその体験をハプティック的に再生することは、ハプティック効果を映像に同期させることを試みるプログラミングツール及び書込み同期コードによるオフラインでの芸術的編集と比べた場合、体験を捕捉又は再形成する際のより本能的な方法である。また、現実世界のセンサデータを記録及び変換してハプティック出力を生成することは、ハプティック信号の手書き合成と比べた場合、ハプティックコンテンツを生成するためのよりコスト効率の高い態様である。
より詳細には、図1のフローチャート100を参照すると、ステップ102に示すように、これに限定されないがスポーツイベントなど、遠隔ユーザにブロードキャストされるライブイベントは、音声、映像及び/又はセンサデータなどの種々の形態の元データを生成する。より詳細をここで説明するように、センサデータを出力するように構成されたセンサは、ライブイベントにおいて利用される機器に対応付けられ、又はライブイベントに参加している1人以上の選手に対応付けられる。元データ、すなわち元の音声、映像及び/又はセンサデータはステップ104に示すように1以上の処理を受け、それによりステップ106に示すように、1以上のエンド装置が、センサデータに由来する音声、映像及び/又はハプティックデータをユーザに出力することができる。実施形態は、ライブイベントからエンドユーザ装置への、1以上のセンサに由来するハプティックデータを読み出し、解析し、及び/又は変換するためのアーキテクチャに関する。ここで使用されるハプティックデータは、ハプティック情報を搬送するデータを生成するのに使用され、又はそれに変換されるセンサデータを含むので、ハプティックデータはライブイベントに関係し、又は関連付けられる。より詳細には、ハプティックデータは、ハプティック情報を搬送するデータを生成するのに手動で(すなわち、人間の設計者又はオペレータによって)使用されるセンサデータ、及びハプティック情報を搬送するデータに自動的に(すなわち、1以上のプロセッサを介した自動変換によって)変換されるセンサデータを含む。ハプティックデータは、ハプティック効果を再生又は出力するハプティック出力装置又はハプティック周辺装置のアクチュエータに入力又は供給される制御信号である。音声及び/又は映像伝送チャネルとは別の又は独立した独立チャネルにおいて伝送される。ハプティックデータについての独立チャネルを形成することによって、実施における多様性が与えられ、音声又は映像データによるだけでは必ずしも識別できない種々のイベント(すなわち、ハプティクスが音声又は映像データから直接生成される場合)が区別され、それにより、確実にこれらのイベントがハプティック効果に変換され、検出されないことがない。
図2は、ハプティックデータをライブイベントからエンドユーザ装置に転送する際に利用される基本的な構成要素を含む、より詳細なフローチャート200を示す。音声及び/又は映像レコーダ108は、元の音声及び/又は映像データを捕捉するためにライブイベントに配置され、一方、センサ110は元のセンサデータを捕捉するためにライブイベントに配置されるとともにライブイベントで利用される機器に対応付けられる。元の音声及び/又は映像データを含む信号112は音声及び/又は映像レコーダ108からプロセッサ又はエンコーダ116に送信され、元のセンサデータを含む信号114はセンサ110からプロセッサ又は変換部118に送信される。プロセッサ又はエンコーダ116は、元の音声及び/又は映像データを含む信号112を処理し、処理済み音声及び/又は映像データを含む信号120は、処理済み音声及び/又は映像データをそれぞれ出力するスピーカ及び/又はディスプレイ124を有するエンドユーザ装置に対してプロセッサ又はエンコーダ116から送信又はブロードキャストされる。より詳細には、元の音声及び/又は映像データの処理は、自動的に行われてもよいし、又は例えば入力の遅延若しくは品質を制御できる人間のオペレータ及び/又はどの音声入力若しくは視野角をブロードキャストするかを選択できる人間のオペレータによって手動で行われてもよい。変換部118は元のセンサデータを含む信号114をハプティックデータに処理し、ハプティックデータを含む信号122は、ハプティックデータを出力するためのハプティック出力装置126を有するエンドユーザ装置に対して変換部118から送信又はブロードキャストされる。ステップ104において、元の音声及び/又は映像データを含む信号112の処理は、元のセンサデータを含む信号114の処理と同じ時間又は場所で実行される必要はない。図6〜11の実施形態に関してここに開示されるアーキテクチャは、元のセンサデータを含む信号114の処理のための異なる時間及び場所を記述する。
図2の実施形態において、処理済み音声及び/又は映像データを含む信号120並びにハプティックデータを含む信号122は、1以上のエンド装置に配信される個別又は別個の信号として示される。一方、図3に示す他の実施形態では、処理済み音声及び/又は映像データ並びにハプティックデータ(すなわち、変換部118によって処理されたセンサデータ)を含む複合信号328が1以上のエンド装置に配信される。複合信号328は、映像コンテンツ又はデータ、音声コンテンツ又はデータ、及びハプティックコンテンツ又はデータを含み、そのような部分は時系列でインタリーブされて配信されるか、又はそのような部分は順序付けられずに配信されるがエンド装置によるユーザへの提示のための正しい時系列での再構成のために解釈され得る順序付け情報を含む。エンコーダ(不図示)は、ハプティックデータを含む信号122を取得し、それを処理済み音声及び/又は映像データを含む信号120に符号化する。符号化のための適切なエンコーダ及び方法は、米国特許出願公開第2014/0347177号、Phan他(Attorney Docket No.IMM489)に記載され、これは参照としてここに取り込まれる。符号化は、Moving Picture Experts Group(MPEG)コンテナにおける専用トラック又は既存の音声若しくは映像ストリームにおける未使用/使用中の特殊成分としての形式であればよい。符号化ストリームは、オーバージエア(OTA)アナログブロードキャスト、衛星、インターネットプロトコル(IP)ネットワーク又は他の既存のスポーツ送信方法を介して遠隔視聴者に配信され得る。処理済み音声及び/又は映像データ並びにハプティックデータは任意の形式、すなわち、ここに記載されるアーキテクチャの実施形態の処理又は変換ステップのいずれかの前及び/又は後において、個別又は別個の信号又は複合信号の形式をとり得る。言い換えると、ハプティックデータ並びに処理済み音声及び/又は映像データは、同じコンテナ若しくは入力においてともに符号化され、又はここに記載されるいずれかの実施形態における個別入力として入力又は送信され得る。また、デコーダは、入力(すなわち、音声、映像及びハプティクス)のいずれかを複合信号から抽出し、抽出された入力を処理又は変換するように、ここに記載されるアーキテクチャの実施形態の変換又は処理段のいずれかに存在し得る。処理又は変換の後に、変換された入力は、個別の入力としてブロードキャストされ、又はエンコーダの補助によって複合信号に再符号化され得る。さらに、いずれかの実施形態において、ここに記載される信号(信号112、114、120、122及び/又は328を含む)は、メタデータを含んでいてもよい。一実施形態では、メタデータは、米国特許出願公開第2008/0223627号、Lacroix他(Attorney Docket No.IMM250)に記載されるようなハプティック効果並びに音声及び/若しくは映像データの同期に利用可能であり、米国特許出願公開第2013/0311811号、Birmbaum他(Attorney Docket No.IMM392)に記載されるようなハプティック効果、イベント及び/若しくはハプティック効果とイベントの間の対応を少なくともある程度特定することに利用可能であり、並びに/又は米国特許出願公開第2014/0340209号、Lacroix他(Attorney Docket No.IMM459)に記載されるようにその他利用可能であり、その各々がその全体において参照としてここに取り込まれる。
図2又は図3のステップ106において、1以上のエンドユーザ装置が、処理済み音声及び/又は映像データ並びにハプティックデータを出力するのに利用される。言い換えると、1以上のエンドユーザ装置はブロードキャストストリーム、すなわち、信号120及び122を映像、音声及びハプティック成分に復号し、各成分は同じ物理エンドユーザ装置又は異なる物理エンドユーザ装置(すなわち、映像についてはコンピュータ又はテレビ、音声についてはスピーカ又はヘッドフォン、及びハプティックについてはウェアラブルハプティック周辺装置又はモバイル装置)によって表示又は出力され得る。
より詳細には、一実施形態では、単一のエンドユーザ装置はスピーカ及び/又はディスプレイ124並びにハプティック出力装置126を含み、処理済み音声及び/又は映像データ並びにハプティックデータを出力するのに利用され得る。例えば、遠隔ユーザは、電話機又はタブレットなどのモバイル装置上でスポーツイベントを見ているものとする。この実施形態では、送信用にセルラ又はWi−Fi技術が使用され、映像、音声及びハプティックコンテンツは同じ装置を介して出力されることになる。他の実施形態では、ユーザは、スタジアム又はアリーナにおけるスポーツイベントのライブを観ているものとする。この実施形態では、モバイル装置は同じ位置において更なる没入感を与え、試合の全体的な雰囲気及び背景を強化することになる。モバイル装置は、ユーザの手に保持されてもよいし、ハプティックコンテンツを依然出力するようにしてユーザのポケットに入れられてもよい。
より詳細には、図4は、音のコンテンツ又はデータを出力するためのスピーカ424、映像コンテンツ又はデータを出力するための表示画面424及びハプティックコンテンツ又はデータを出力するためのハプティック出力装置426を含む1つのエンドユーザ装置430のブロック図を示す。ハプティック効果を知覚又は感得するために、エンドユーザ装置430は、ユーザに保持され、ユーザに装着又は結合され、あるいはユーザにハプティック又は覚知効果を伝達することができる表面を有する装置である。一実施形態によると、エンドユーザ装置430は、モバイル電話機、タブレットコンピュータ、ゲーム機器、パーソナルデジタルアシスタント(PDA)などのような、ハプティック効果レンダリング機能を含む電子的ハンドヘルド装置である。例えば、エンドユーザ装置430は、Apple(登録商標)、Ipad(登録商標)、Kindle(登録商標)、Fire(登録商標)、及びSamsung(登録商標)Galaxy Tab(登録商標)などの周知及び市販のタブレットコンピュータであればよい。エンドユーザ装置430のための他の適切な装置は、以下に限定されないが、パーソナルデジタルアシスタント(PDA)、コンピュータ、ゲーム周辺装置及び当業者に知られている他の装置を含む。
図4のブロック図に示すように、エンドユーザ装置430は、受信機434、プロセッサ432、メモリ436、ハプティック出力装置426、表示画面424及びスピーカ424を含む。エンドユーザ装置430は、メモリ436に記憶されてプロセッサ432によって実行されるソフトウェアアプリケーションを実行する。プロセッサ432は、任意のタイプの汎用プロセッサであればよく、又はハプティック効果信号を供給するように特別に設計されたプロセッサであってもよい。メモリ436は、これらに限定されないが、ランダムアクセスメモリ(RAM)又は読出し専用メモリ(ROM)などの任意のタイプの記憶装置又はコンピュータ可読媒体であればよい。メモリ436はまた、プロセッサの内部に配置されてもよいし、内部及び外部メモリの任意の組合せであってもよい。スピーカ424は、エンドユーザ装置430がスピーカ424を介して音声を出力する能力を有するように、例えば、エンドユーザ装置430に内蔵又は結合されたスピーカであればよい。エンドユーザ装置430はまた、表示画面424を介して映像を出力する能力を有する。表示画面424はエンドユーザ装置430に結合されていてもよいし、当業者に知られているように、エンドユーザ装置430及び表示画面424は単一の装置に一体化されていてもよい。さらに、利用されているブロードキャスト信号のタイプに応じて、エンドユーザ装置430は、インターネットからストリーミング信号を受信するための内蔵型有線又は無線モデム(不図示)を含み得る。
動作において、エンドユーザ装置430の受信機434は、ハプティックデータを含む信号122を受信し、又は複合信号328を受信し、そのハプティック成分を認識する。そして、ハプティックデータを含む信号122又は複合信号328のハプティック成分が、プロセッサ432に方向付け又は送信される。ハプティックデータを含む信号122又は複合信号328のハプティック成分は、例えば、直接のハプティック効果ストリーム、又はどのハプティック効果が実行されなければならいかを示す命令の組を含み得る。ハプティックデータを含む受信信号122又は複合信号328のハプティック成分に応じて、プロセッサ432は、1以上のハプティック効果をユーザに供給又は出力するようにハプティック出力装置426に指示する。プロセッサ432は、どのようなハプティック効果をハプティック出力装置426に送信するか、及びそのハプティック効果をどのような順序で送信するかを決定することができる。例えば、ハプティックデータを含む信号122又は複合信号328のハプティック成分は、電圧の大きさ及び継続時間を含み得る。他の例では、ハプティックデータを含む信号122又は複合信号328のハプティック成分は、ハプティック出力装置426によって出力されるべきハプティック効果のタイプ(例えば、振動、急激な揺れ、戻り止め、叩くことなど)のような上位命令をプロセッサ432に与えることができ、それにより、プロセッサ432は、出力されるべきハプティック効果の所定の特性(例えば、大きさ、周波数、継続時間など)に関してハプティック出力装置426を指示する。プロセッサ432は、ハプティック効果のタイプ、大きさ、周波数、継続時間又は他の特性を、それに結合されたメモリ436から取得する。他の実施形態では、ハプティックデータを含む信号122又は複合信号328のハプティック成分は、プロセッサ432のメモリに予め記憶されたハプティック効果に対応するコード又は識別番号をプロセッサ432に供給することができる。
ハプティックフィードバックはユーザ体験を強化する。ここで、運動効果(能動及び抵抗性ハプティックフィードバックなど)及び/又は触覚効果(振動、手触り及び熱など)は、まとめて「ハプティックフィードバック」又は「ハプティック効果」として知られる。集合的なハプティック効果によって、複数の感覚種、例えば映像、音声及びハプティクスが同時に関与するので、音声−映像コンテンツへのより大きな没入感がユーザに与えられる。例えば、振動効果、すなわち振動触覚ハプティック効果は、ユーザにキューを与えて特定のイベントに対してユーザを喚起し、又はリアルなフィードバックを与えて模擬若しくは仮想環境内でのより深い感覚的没入を作り出すのに有用となる。エンドユーザ装置430のプロセッサ432は、ハプティックデータをレンダリングしている特定のタイプのエンドユーザ装置430を最適化するようにハプティックデータをさらに適応又は調整する稼働中ソフトウェアアルゴリズムであってもよい。
ハプティック出力装置426によって与えられるハプティック効果は、これに限定されないが、急激な揺れ又は振動などの過渡的な効果を含み得る。ハプティック出力装置426は、物理的及び/又は非物理的なアクチュエータであればよい。可能な物理的アクチュエータは、以下に限定されないが、偏心質量体がモータによって移動する偏心回転質量体(ERM)アクチュエータ、弾性体に装着された質量体が前後に駆動されるリニア共振アクチュエータ(LRA)、圧電アクチュエータ、偏心質量体がモータによって移動する電磁モータ、振動触覚アクチュエータ、慣性アクチュエータ、又は他の適切なタイプの作動装置を含む。可能な非物理的アクチュエータは、以下に限定されないが、静電摩擦(ESF)、超音波表面摩擦(USF)及び他の非物理的アクチュエータを含む。他の実施形態では、ハプティック出力装置426は、例えば、エンドユーザ装置430のハウジングの剛性/制動を変化させるソレノイド、ハウジングの大きさを変化させる小型エアバッグ又は形状変化材料を含む運動ハプティックフィードバックを用いることができる。
ハプティック出力装置426によって出力されるハプティック効果は、以下に限定されないが、変動する度合いの振動、変動する度合いの急激な揺れ、又は他のタイプのハプティック効果を含み得る。エンドユーザ装置が複数のハプティックアクチュエータを含む場合、プロセッサ432は、どのハプティックアクチュエータにおいて各ハプティック効果がユーザに対して実行及び提供されるべきかを特定することができる。そのような実施形態では、上位ハプティックパラメータ又はストリーミング値が、エンドユーザ装置のメモリに記憶されたソフトウェアコードにおいて生成される。パラメータ又は値はプロセッサによって処理され、それにより各ハプティックアクチュエータに対して適切な電圧レベルが生成される。これによって、エンドユーザ装置が適切なハプティック効果をユーザに与え、各ハプティック出力装置426に対して生成される異なる電圧レベルによってハプティック効果の量又はタイプを変化させることが可能となる。
他の実施形態では、エンドユーザ装置430は、ユーザに結合され、又はユーザに近接して位置するように構成されたウェアラブルハプティック周辺装置であってもよい。例えば、エンドユーザ装置430は、スピーカ424又は表示画面424を含む必要はないが、ウェアラブルハプティック周辺装置のハプティック出力装置がハプティック効果をユーザの関連身体部位(すなわち、パンチが打たれた身体部位)に伝達可能となるように、ユーザの身体に装着され、又はユーザに近接位置にある衣服若しくは装備に装着されるように構成されることが好ましい。
図5に示す他の実施形態において、マルチデバイスシステム538は、処理済み音声及び/又は映像データを出力するテレビなどの第1又は主エンドユーザ装置540並びにハプティックデータを出力する副エンドユーザ装置530を含む。例えば、ユーザは、大画面テレビ、すなわち主エンドユーザ装置540でスポーツイベントも見ているが、電話機、タブレット又はリモートコントローラなどの副エンドユーザ装置530を「第2の画面」として用いているかもしれない。スポーツイベント中、第2の画面装置は、スポーツの統計及び広告などのイベントに関するメタデータ又は拡張情報を見るのによく使用される。本実施形態では、映像及び/若しくは音声データ又はコンテンツは主エンドユーザ装置540の大型画面上で主に使用されるが、ハプティックデータ又はコンテンツは副エンドユーザ装置530で体験され得る。副エンドユーザ装置530は、ユーザの手に保持されてもよいし、ハプティックコンテンツを依然出力するようにしてユーザのポケットに入れられてもよい。マルチデバイスシステムのための種々のアーキテクチャは、米国仮特許出願第62/021663号、Lacroix他(Attoenry Docket No.IMM533P)、発明の名称「Second Screen Haptics」に記載され、その全体において参照によりここに取り込まれる。
主エンドユーザ装置540は、処理済み音声及び/若しくは映像データを含む信号120又は複合信号328の音声及び/若しくは映像成分を出力するように構成されたテレビすなわちTVなどの音声−映像表示装置である。図5のブロック図に示すように、主エンドユーザ装置540は、受信機542、スピーカ524及び表示画面524を含む。受信機542は、処理済み音声及び/若しくは映像データを含む信号120又は複合信号328の音声及び/若しくは映像成分を受信し、その信号を、画像及び音に処理可能な電気信号に変換する。スピーカ524は、例えば、主エンドユーザ装置540に内蔵又は結合されたスピーカであればよく、電気信号を音波に変換して映像画像とともに音声を再生する。したがって、主エンドユーザ装置540は、スピーカ524を介して音声を出力する。表示画面524は電気信号を可視光に変換するように構成され、ユーザに映像を出力する任意のタイプの媒体であればよく、これは、以下に限定されないが、モニタ、テレビ画面、プラズマ、LCD、プロジェクタ又は他の表示装置を含む。したがって、主エンドユーザ装置540は、表示画面524を介して映像を出力する。以下に限定されないが、スマートフォン、ゲームコンソール、パーソナルデジタルオーガナイザ、ノートブックコンピュータ、及び結合された表示画面を有する他の任意のタイプのコンピュータを含むTV以外の音声−映像表示装置が、主エンドユーザ装置540として使用され得る。利用されるブロードキャスト信号のタイプに応じて、主エンドユーザ装置540は、インターネットからのストリーミング信号を受信するための内蔵型有線又は無線モデム(不図示)を含み得る。上述した主エンドユーザ装置540は音声及び映像コンテンツをそれぞれ出力するための表示画面及び音響装置を含むが、代替的に主エンドユーザ装置は音声コンテンツのみ(例えば、映像コンテンツなしの音楽)を出力してもよいし、代替的に映像コンテンツのみ(例えば、音声コンテンツなしの無声映画)を出力してもよい。
図5のブロック図に示すように、副エンドユーザ装置530はエンドユーザ装置430と同様であり、受信機534、プロセッサ532、メモリ536、ハプティック出力装置526、表示画面524及びスピーカ524を含む。副エンドユーザ装置530は、メモリ536に記憶されてプロセッサ532によって実行されるソフトウェアアプリケーションを実行する。プロセッサ532は、任意のタイプの汎用プロセッサであればよく、又はハプティック効果信号を供給するように特別に設計されたプロセッサであってもよい。メモリ536は、これらに限定されないが、ランダムアクセスメモリ(RAM)又は読出し専用メモリ(ROM)などの任意のタイプの記憶装置又はコンピュータ可読媒体であればよい。メモリ536はまた、プロセッサの内部に配置されてもよいし、内部及び外部メモリの任意の組合せであってもよい。スピーカ524は、副エンドユーザ装置530がスピーカ524を介して音声を出力する能力を有するように、例えば、副エンドユーザ装置530に内蔵又は結合されたスピーカ又はヘッドフォンであればよい。副エンドユーザ装置530はまた、表示画面524を介して映像を出力する能力を有する。さらに、利用されているブロードキャスト信号に応じて、副エンドユーザ装置530は、インターネットからストリーミング信号を受信するための内蔵型有線又は無線モデム(不図示)を含み得る。ここに記載される副エンドユーザ装置530は、選択的に音声及び/又は映像コンテンツを出力するための表示画面及び/又は音響装置を含むことが好ましいが、副エンドユーザ装置はこれらの構成要素及び機能を有する必要はない。例えば、ハプティック出力に加えて、副装置は映像出力を有していてもよいし、音声出力を有していてもよいし、映像出力及び音声出力の双方を有していてもよいし、映像出力も音声出力も有していなくてもよい。
マルチデバイスシステム538は、副エンドユーザ装置530で出力されているハプティックコンテンツと主エンドユーザ装置540で出力されている音声−映像コンテンツの同期を保証する手段を含み得る。例えば、主エンドユーザ装置540及び副エンドユーザ装置530は、それぞれの装置で出力されているコンテンツの同期を保証するために相互に直接通信することができる。再生ロケータ信号548は、主エンドユーザ装置540と副エンドユーザ装置530との間で通信されて、信号120及び122又は複合信号328に対する時間基準点を特定するように機能し得る。時間的基準点は、例えば、時間コード、カウンタ、使用されたメディア再生の秒数、メディアファイルにおける現時点の再生位置、又は再生位置の他の任意の表示であればよい。主エンドユーザ装置540の再生ロケータ546は再生位置を副エンドユーザ装置530の再生ロケータ544に時折通信し、又はその逆を行い、主エンドユーザ装置540で出力されている信号120又は信号328の音声及び/若しくは映像成分が、副エンドユーザ装置530で出力されている信号122又は信号328のハプティック成分に充分に同期された態様でレンダリングされることを保証する。
前述したように、図6〜11の実施形態に関してここに開示されるアーキテクチャは、元のセンサデータを含む信号114のハプティックデータへの処理のための様々な時と場所を記述する。言い換えると、図6〜11の実施形態に関してここに開示されるアーキテクチャは、元のセンサデータを有する信号114からハプティックデータを有する信号122への変換又は複合信号328のハプティック成分への変換が、ライブイベント位置からエンドユーザ装置までにある配信チェーンに沿うどの段階において行われることになるのかを説明する。
図6は、一実施形態によるブロードキャスト用ハプティクスアーキテクチャ650を示す。本実施形態では、ハプティックデータへの処理又は変換、すなわち図2又は図3の変換部118の動作は、現地の処理又は送信局652で行われる。ここで用いる「処理又は送信局」は、元の音声及び/又は映像データを含むライブ信号を処理するためにライブイベントの現地に存在又は位置する処理設備をいう。
ブロードキャスト用ハプティクスアーキテクチャ650において、音声−映像レコーダ608はライブイベントにおけるライブ音声及び映像データを記録する。より詳細には、音声−映像レコーダ608は、以下に限定されないが、ビデオカムコーダ、スマートフォンなど、映像データとしての画像及び音声データとしての音の双方を記録又は捕捉するように構成された記録装置である。ここに記載される任意のアーキテクチャの実施形態では、シーン又はイベントの映像及び音声は、個別に捕捉若しくは記録されてもよいし(すなわち、音声及び映像機能が個別又は異なる装置にある)、映像のみが捕捉若しくは記録されてもよいし、又は音声のみが捕捉若しくは記録されてもよい。また、ここに記載される任意のアーキテクチャの実施形態において、音声−映像レコーダは、複数の映像及び/又は音声入力のための複数の映像及び/又は音声記録装置のシステムを含み得る。元の音声及び/又は映像データを含むライブ信号612が現地の処理又は送信局652に送信される。元の音声及び/又は映像データをレビュー又は処理してそのコンテンツがブロードキャストに適切又は適当であることを判定するために、ライブ信号612が現地の処理又は送信局652からブロードキャストされる前に、バッファ期間、例えば7秒間のバッファ期間がある。本実施形態では、人間のオペレータが、現地の処理又は送信局652においてライブ信号612を見て、挿入654で表すようにバッファ期間内に手動でハプティクス効果を挿入する。言い換えると、人間のオペレータは、バッファ期間又は強制的なブロードキャスト遅延中に、既知のハプティック効果作成ツールを用いてハプティック効果を作成する。ハプティック効果の手動挿入があれば、ライブイベントにおけるスマート機器又はセンサは不要となる。逆に、人間のオペレータが、所定又は関連のハプティック効果を対応のイベントに挿入し、又は埋め込む。一例として、ライブイベントはボクシングの試合であり、オペレータは現地の処理又は送信局652からその試合を見ているものとする。オペレータは、頭部へのパンチを見た時に、所定又は関連の頭部打撃ハプティック効果を送信ストリームに挿入する。他の例として、ライブイベントはテニスの試合であり、オペレータは現地の処理又は送信局652からその試合を見ているものとする。オペレータは、選手がボールを打つのを見た時に、所定又は関連の打球ハプティック効果を送信ストリームに挿入する。
元の音声及び/又は映像データを含むライブ信号612が現地の処理又は送信局652において処理又はレビューされ、ハプティック効果が送信ストリームに埋め込まれるように挿入654が行われた後に、処理済み音声及び/又は映像データ並びに埋込みハプティックデータの双方を有する複合信号628がブロードキャスト局656に送信される。そして、ブロードキャスト局656は、処理済み音声及び/又は映像データ並びに埋込みハプティックデータの双方を有する複合信号628を1以上のエンドユーザ装置430に送信する。図6に示すように、複合信号628はマルチデバイスエンドユーザ装置に送信され得るので、エンドユーザ装置430はエンドユーザ装置430、エンドユーザ装置430及びエンドユーザ装置430として図示される。複合信号628は、映像、音声及びそのハプティック成分の出力のために単一の物理エンドユーザ装置430に送信されるものとして図示されるが、代替的に、ここに記載されるマルチデバイスシステム538などのマルチデバイスシステムに送信されてもよい。他の実施形態では、手動で挿入されたハプティック効果は、別個又は個別の信号としてエンドユーザ装置430に送信される。
上述したように、ブロードキャストハプティックアーキテクチャ650は、ハプティック効果の手動挿入によってライブイベントにおけるスマート機器又はセンサを必要としない。一方、他の実施形態では、1以上のセンサ(不図示)がライブイベントにおいてセンサデータを記録し、人間のオペレータは現地の処理又は送信局652においてセンサデータを受信する。挿入654によって表されるような手動挿入されたハプティック効果は、元の音声及び/又は映像データを含むセンサデータ及び/又はライブ信号612に基づいていればよい。したがって、本実施形態では、センサデータは捕捉され、元の音声及び/又は映像データを含むライブ信号612とともに現地の処理又は送信局652に送信される。本実施形態で利用される例示のセンサ及び検知データが、ブロードキャスト用ハプティクスアーキテクチャ750及びセンサ710に関してここに記載される。
図7は、他の実施形態によるブロードキャスト用ハプティクスアーキテクチャ750を示す。本実施形態では、ハプティックデータへの処理又は変換、すなわち図2又は図3の変換部118の動作は、現地の処理又は送信局752において、音声及び/又は映像データの処理後に、ただしエンドユーザ装置430への到達前に行われる。言い換えると、ハプティックデータへの処理又は変換は、ライブイベントから、及びエンドユーザ装置から遠隔に位置するオフサイトプロセッサにおいて実行される。
ブロードキャスト用ハプティクスアーキテクチャ750では、音声−映像レコーダ708がライブイベントにおいてライブ音声及び映像データを記録し、センサ710がライブイベントにおいてセンサデータを記録する。ここで説明するいずれかのアーキテクチャの実施形態では、センサは、複数のセンサ入力のための複数のセンサのシステムであってもよい(すなわち、単一のセンサとして説明するが、複数のセンサが利用され得る)。概略として、センサ710は、ライブイベントに関連付けられた物体、機器又は人のパラメータを検知し、検知されたパラメータをセンサデータに変換するように構成されたセンサである。一実施形態では、センサ710は、ボクシングのグローブ、サッカーボール、テニスラケット、ヘルメット又は他のタイプのスポーツイベント関連アイテムなど、ライブイベントにおいて利用される装備760に結合又は装着され、センサ710は物体の動き又は速度を検知し、検知された動きをセンサデータに変換するように構成される。センサ710は、加速度計、ジャイロスコープ、接触圧センサ、全地球測位システム(GPS)センサ、回転速度センサ、又は加速度、傾き、慣性力、動き若しくは位置の変化を検出するように構成された他の何らかのタイプのセンサであればよい。他の実施形態では、センサ710は、ライブイベントに参加している1人以上の選手に対応付けられ、生理学的信号の(すなわち、脈波計)センサであってもよい。ここで使用する生理学的信号は、その感情状態に変換されることもある選手の肉体的又は生物学的な状態を記述する任意の信号を含む。例えば、生理学的信号は、以下に限定されないが、ガルバニック皮膚反応に関する信号、血圧、体温、ECG信号、EMG信号及び/又はEEG信号を含む。他の実施形態では、センサ710は、ライブイベントに関連付けられた物体又は装備の他のパラメータを検知し、検知されたパラメータをセンサデータに変換するように構成されるが、物体又は装備に結合される必要はない。例えば、センサ710は、ハプティック効果に変換されるべき特定の音声及び/若しくは映像信号又は入力を記録するように構成され得る。例えば、センサ710は、ハプティック効果に変換され得る特定のノイズ(例えば、エンジンノイズ)を捕捉するための専用マイクロフォンであってもよい。センサ710からの音声及び/又は映像信号は、音声−映像レコーダ708からの信号とは異なり、ブロードキャストされず、視覚及び聴覚的フィードバックを伝達するのにも使用されず、専らハプティック的な目的のために使用される。
本実施形態では、元データの全て(すなわち、元の映像、音声及びセンサデータ)が、その処理又は変換のために遠隔の又は現地から離れた場所に一度に同時に転送される。より詳細には、元の音声及び/又は映像データを含むライブ信号712は現地の処理又は送信局752に送信され、元のセンサデータを含むライブ信号712も現地の処理又は送信局752に送信される。現地の処理又は送信局752は、そこでのいずれの処理も行うことなく、元の音声及び/又は映像データ並びに元のセンサデータをそれぞれ有するライブ信号712及び714をブロードキャスト局756に送信する。そして、ブロードキャスト局756は、元の音声及び/又は映像データ並びに元のセンサデータをそれぞれ有するライブ信号712及び714をローカル又は地域の処理局758に送信する。ローカル又は地域の処理局758は、元の音声及び/又は映像データをレビュー又は処理してそのコンテンツがブロードキャストに対して適切又は適当であることを判定するプロセッサ、すなわち図2又は3のプロセッサ又はエンコーダ116を含むとともに、センサ710からの元データをハプティックデータに変換するプロセッサ又は変換部、すなわち図2又は3の変換部118を含む。ローカル又は地域の処理局758は、ライブイベントから、及びエンドユーザ装置から遠隔にある。他の実施形態では、上述したように、元のセンサデータを含むライブ信号714がローカル又は地域の処理局758で処理されつつ、現地の処理又は送信局752が、ライブ信号712の元の音声及び/又は映像データをレビュー又は処理してそのコンテンツがブロードキャストに対して適切又は適当であることを判定するプロセッサ、すなわち図2又は3のプロセッサ又はエンコーダ116を含む。
一実施形態では、センサ710からの元データは、イベントのタイプ並びに応力及び強度などの付随するセンサ情報に応じてハプティックイベント検出値又は識別値を含むハプティックデータに変換される。その全体において参照によりここに取り込まれる米国特許出願公開第2015/0054727号、Saboune他(Attorney Docket No.IMM450)により詳細が記載されるように、センサ710からの元データは、n個(入力)からm個(出力)として表されるハプティックイベント検出値又は識別値に変換される。再生されるハプティック効果の位置、強度及び性質は、ハプティックイベント識別値の特性に関係し得る。例えば、ノックアウトの打撃は強い衝突に変換される一方で、失敗した蹴りは弱い振動によって表現され得る。元のセンサデータをハプティックデータ又は命令に変換するための他の処理技術が利用されてもよく、それは、以下に限定されないが、振動、表面摩擦変調、肌をつねること、肌を押し込むことなどを含む。例えば、米国特許出願公開第2014/0205260号、Lacroix他(Attorney Docket No.IMM439)、及び米国仮特許出願第61/968799、Saboune他(Attorney Docket No.IMM520P)は、各々がその全体において参照によりここに取り込まれるものであり、センサのデータをハプティック効果に変換するためのシステム及び方法を記載する。
ローカル又は地域の処理局758は、信号712及び714からの元データの全てをレビュー又は処理した後に、ハプティック化されたライブイベントを、エンドユーザ装置430を有するそのローカル契約者に送信する。図7に示すように、ローカル又は地域の処理局758は、処理済み音声及び/又は映像データを有する信号720並びにハプティックデータを有する信号722を含む2つの個別又は別個の信号を同時に送信することができる。他の実施形態では、ローカル又は地域の処理局758は、ハプティックデータを含む信号722を取得し、それを処理済み音声及び/又は映像データを含む信号720に符号化して、図3に関して上述したように1以上のエンド装置に伝達される処理済み音声及び/又は映像データ並びにハプティックデータを含む複合信号を形成するエンコーダ(不図示)をさらに含む。図7に示すように、信号720及び722はマルチデバイスエンドユーザ装置に送信され得るので、エンドユーザ装置430はエンドユーザ装置430、エンドユーザ装置430及びエンドユーザ装置430として図示される。信号720及び722は、映像、音声及びそのハプティック成分の出力のために単一の物理エンドユーザ装置430に送信されるものとして図示されるが、代替的に、ここに記載されるマルチデバイスシステム538などのマルチデバイスシステムに送信されてもよい。
ブロードキャスト用ハプティクスアーキテクチャ750の一例として、ライブイベントは、元のセンサデータを含む信号を増幅器(不図示)を介して現地の処理又は送信局752に送信するセンサ710が装備されたサッカーボールを利用するサッカーの試合である。現地の処理又は送信局752は、元の音声/映像/センサ信号を多数のローカル又は地域の処理局758に送信する。ローカル又は地域の処理局758は情報の全てを処理し、ハプティック化されたライブイベントをエンドユーザ装置430に送信する。
図8は、他の実施形態によるブロードキャスト用ハプティクスアーキテクチャ850を示す。本実施形態では、ハプティックデータへの処理又は変換、すなわち図2又は図3の変換部118の動作は、現地の処理又は送信局852における音声及び/又は映像データの処理の以前に行われる。
ブロードキャスト用ハプティクスアーキテクチャ850では、音声−映像レコーダ808がライブイベントにおいてライブ音声及び映像データを記録し、センサ810がライブイベントにおいてセンサデータを記録する。センサ710と同様に、センサ810は、ライブイベントに関連付けられた物体、装備又は人のパラメータを検知し、検知されたパラメータをセンサデータに変換するように構成されたセンサである。一実施形態では、センサ810は、ボクシングのグローブ、サッカーボール、テニスラケット、ヘルメット又は他のタイプのスポーツイベント関連アイテムなど、ライブイベントにおいて利用される装備860に結合又は装着され、センサ810は物体の動き又は速度を検知し、検知された動きをセンサデータに変換するように構成される。センサ810は、加速度計、ジャイロスコープ、接触圧センサ、全地球測位システム(GPS)センサ、回転速度センサ、又は加速度、傾き、慣性力、動き若しくは位置の変化を検出するように構成された他の何らかのタイプのセンサであればよい。他の実施形態では、センサ810は、ライブイベントに参加している1人以上の選手に対応付けられ、生理学的信号の(すなわち、脈波計)センサであってもよい。他の実施形態では、センサ710に関して上述したように、センサ810は、ライブイベントに関連付けられた物体又は装備の他のパラメータを検知し、検知されたパラメータをセンサデータに変換するように構成されるが、物体又は装備に結合される必要はない。
本実施形態では、センサ810からの元データを有する信号814は、まず現地の処理若しくは送信局852又はその前段でローカルに処理され、その後現地の処理又は送信局852によって、様々なエンドユーザ装置への配信を担う中央処理サーバ864に送信される。より詳細には、元の音声及び/又は映像データを含むライブ信号812が現地の処理又は送信局852に送信され、元のセンサデータを含むライブ信号814が現地の変換部又はプロセッサ862に送信される。現地の変換部又はプロセッサ862、すなわち図2又は3の変換部118は、センサ810からの元データをハプティックデータに変換し、その後ハプティックデータを含む信号822を現地の処理又は送信局852に送信する。ブロードキャスト用ハプティクスアーキテクチャ750に関して説明したように、センサ810からの元データが、イベントのタイプ並びに応力及び強度などの付随するセンサ情報に応じてハプティックイベント検出値又は識別値を含むハプティックデータに変換されてもよいし、元のセンサデータをハプティックデータ又は命令に変換するための他の処理技術が利用されてもよい。現地の変換部又はプロセッサ862は、ライブイベントと同じ建物又は現地に物理的に配置されてもよいし、現地の処理又は送信局852内に配置されてもよい。
現地の処理又は送信局852は、元の音声及び/又は映像データをレビュー又は処理してそのコンテンツがブロードキャストに適切又は適当かを判定するプロセッサ、すなわち図2又は3のプロセッサ又はエンコーダ116を含む。そして、現地の処理又は送信局852は、処理済み音声及び/又は映像データを有する信号820並びにハプティックデータを有する信号822を含む2つの個別又は別個の信号を同時にブロードキャスト局856に送信することができる。ブロードキャスト局856は、信号820及び822を、様々なエンドユーザ装置430への配信を担う中央処理サーバ864に送信する。図8に示すように、信号820及び822はマルチデバイスエンドユーザ装置に送信され得るので、エンドユーザ装置430はエンドユーザ装置430、エンドユーザ装置430及びエンドユーザ装置430として図示される。信号820及び822は、映像、音声及びそのハプティック成分の出力のために単一の物理エンドユーザ装置430に送信されるものとして図示されるが、代替的に、ここに記載されるマルチデバイスシステム538などのマルチデバイスシステムに送信されてもよい。他の実施形態では、現地の処理又は送信局852又は中央処理サーバ864は、ハプティックデータを含む信号822を取得し、それを処理済み音声及び/又は映像データを含む信号820に符号化して、図3に関して上述したように1以上のエンド装置に伝達される処理済み音声及び/又は映像データ並びにハプティックデータを含む複合信号を形成するエンコーダ(不図示)をさらに含み得る。
図9は、他の実施形態によるブロードキャスト用ハプティクスアーキテクチャ950を示す。本実施形態では、ハプティックデータへの処理又は変換、すなわち図2又は図3の変換部118の動作は、現地の処理又は送信局852における音声及び/又は映像データの処理の以前に行われる。
ブロードキャスト用ハプティクスアーキテクチャ950では、音声−映像レコーダ908がライブイベントにおいてライブ音声及び映像データを記録し、センサ910がライブイベントにおいてセンサデータを記録する。センサ710と同様に、センサ910は、ライブイベントに関連付けられた物体、装備又は人のパラメータを検知し、検知されたパラメータをセンサデータに変換するように構成されたセンサである。一実施形態では、センサ910は、ボクシングのグローブ、サッカーボール、テニスラケット、ヘルメット又は他のタイプのスポーツイベント関連アイテムなど、ライブイベントにおいて利用される装備960に結合又は装着され、センサ910は物体の動き又は速度を検知し、検知された動きをセンサデータに変換するように構成される。センサ910は、加速度計、ジャイロスコープ、接触圧センサ、全地球測位システム(GPS)センサ、回転速度センサ、又は加速度、傾き、慣性力、動き若しくは位置の変化を検出するように構成された他の何らかのタイプのセンサであればよい。他の実施形態では、センサ910は、ライブイベントに参加している1人以上の選手に対応付けられ、生理学的信号の(すなわち、脈波計)センサであってもよい。他の実施形態では、センサ710に関して上述したように、センサ910は、ライブイベントに関連付けられた物体又は装備の他のパラメータを検知し、検知されたパラメータをセンサデータに変換するように構成されるが、物体又は装備に結合される必要はない。
本実施形態では、センサ910からの元データを有する信号914は、まず現地の処理若しくは送信局952又はその前段でローカルに処理され、その後、図8の実施形態で説明したような中央処理サーバを用いることなく、現地の処理又は送信局952によって様々なエンドユーザ装置に直接送信される。各エンドユーザ装置430は、信号920を介してストリーミング処理された音声及び/又は映像データを、信号922を介してハプティックデータを再生することによって、それ自体のサーバとして作用する。ブロードキャスト用ハプティクスアーキテクチャ850に対するブロードキャスト用ハプティクスアーキテクチャ950の有利な効果は、これが望まれる場合には付近のローカルなエンドユーザ装置への送信である。一例として、ライブイベントは、加速度及びジャイロスコープ情報を送信するセンサ910で装備されたラケットを利用するテニスの試合である。元のセンサデータ又は信号914は、スタジアムにおける現地の変換部又はプロセッサ962において処理され、その後、信号922を介したハプティックデータが信号920を介した処理済み音声及び/又は映像データとともに現地の処理又は送信局952によって、そのライブイベントのチケットが売切れてしまったためにスタジアムに入場できなかったスタジアム周辺のエンドユーザ装置を有する人々に送信される。周辺の人々は、試合を彼らの電話機又はタブレットで観戦し、ハプティックデータを有する信号922によるハプティック効果を感じている。
より詳細には、元の音声及び/又は映像データを含むライブ信号912は現地の処理又は送信局952に送信され、元のセンサデータを含むライブ信号914は現地の変換部又はプロセッサ962に送信される。現地の変換部又はプロセッサ962、すなわち図2又は3の変換部118は、センサ910からの元データをハプティックデータに変換し、その後ハプティックデータを含む信号922を現地の処理又は送信局952に送信する。ブロードキャスト用ハプティクスアーキテクチャ750に関して説明したように、センサ910からの元データが、イベントのタイプ並びに応力及び強度などの付随するセンサ情報に応じてハプティックイベント検出値又は識別値を含むハプティックデータに変換されてもよいし、元のセンサデータをハプティックデータ又は命令に変換するための他の処理技術が利用されてもよい。現地の変換部又はプロセッサ962は、ライブイベントと同じ建物又は現地に物理的に配置されてもよいし、現地の処理又は送信局952内に配置されてもよい。
現地の処理又は送信局952は、元の音声及び/又は映像データをレビュー又は処理してそのコンテンツがブロードキャストに適切又は適当かを判定するプロセッサ、すなわち図2又は3のプロセッサ又はエンコーダ116を含む。そして、現地の処理又は送信局952は、処理済み音声及び/又は映像データを有する信号920並びにハプティックデータを有する信号922を含む2つの個別又は別個の信号を様々なエンドユーザ装置430に同時に直接送信する。図9に示すように、信号920及び922はマルチデバイスエンドユーザ装置に送信され得るので、エンドユーザ装置430はエンドユーザ装置430、エンドユーザ装置430及びエンドユーザ装置430として図示される。信号920及び922は、映像、音声及びそのハプティック成分の出力のために単一の物理エンドユーザ装置430に送信されるものとして図示されるが、代替的に、ここに記載されるマルチデバイスシステム538などのマルチデバイスシステムに送信されてもよい。他の実施形態では、現地の処理又は送信局952は、ハプティックデータを含む信号922を取得し、それを処理済み音声及び/又は映像データを含む信号920に符号化して、図3に関して上述したように1以上のエンド装置に伝達される処理済み音声及び/又は映像データ並びにハプティックデータを含む複合信号を形成するエンコーダ(不図示)をさらに含み得る。
図10は、他の実施形態によるブロードキャスト用ハプティクスアーキテクチャ1050を示す。本実施形態では、ハプティックデータへの処理又は変換、すなわち図2又は図3の変換部118の動作は、現地の処理又は送信局1052における音声及び/又は映像データの処理の前に行われる。
ブロードキャスト用ハプティクスアーキテクチャ1050では、音声−映像レコーダ1008がライブイベントにおけるライブ音声及び映像データを記録し、センサ1010Aがライブイベントにおけるセンサデータを記録する。より詳細を以下に説明するように、センサ1010は、センサ1010からの元データをハプティックデータに変換するように構成されたマイクロプロセッサ又はマイクロコントローラ、すなわち図2又は3の変換部118を含むことを除いてセンサ710と同様である。センサ1010は、ライブイベントに関連付けられた物体、装備又は人のパラメータを検知し、検知されたパラメータをセンサデータに変換するように構成されたセンサである。一実施形態では、センサ1010は、ボクシングのグローブ、サッカーボール、テニスラケット、ヘルメット又は他のタイプのスポーツイベント関連アイテムなど、ライブイベントにおいて利用される装備1060に結合又は装着され、センサ1010は物体の動き又は速度を検知し、検知された動きをセンサデータに変換するように構成される。センサ1010は、加速度計、ジャイロスコープ、接触圧センサ、全地球測位システム(GPS)センサ、回転速度センサ、又は加速度、傾き、慣性力、動き若しくは位置の変化を検出するように構成された他の何らかのタイプのセンサであればよい。他の実施形態では、センサ1010は、ライブイベントに参加している1人以上の選手に対応付けられ、生理学的信号の(すなわち、脈波計)センサであってもよい。他の実施形態では、センサ1010は、ライブイベントに関連付けられた物体又は装備の他のパラメータを検知し、検知されたパラメータをセンサデータに変換するように構成されるが、物体又は装備に結合される必要はない。例えば、センサ1010は、センサ710に関して上述したように、ハプティック効果に変換されるべき特定の音声及び/若しくは映像信号又は入力を記録するように構成され得る。
本実施形態では、センサ信号の変換はセンサ自体の内部で行われる。センサ1010は、元のセンサデータを処理して元のセンサデータをハプティックデータに変換するように構成されたマイクロプロセッサ又はマイクロコントローラを含む。ブロードキャスト用ハプティクスアーキテクチャ1050の有利な効果は、より高いローカルなループレートに起因して、ローカルなセンサ処理によってハプティックイベント検出値又は識別値が向上し、又はより良好となることである。ブロードキャスト用ハプティクスアーキテクチャ750に関して説明したように、センサ1010からの元データが、イベントのタイプ並びに応力及び強度などの付随するセンサ情報に応じてハプティックイベント検出値又は識別値を含むハプティックデータに変換されてもよいし、元のセンサデータをハプティックデータ又は命令に変換するための他の処理技術が利用されてもよい。
より詳細には、元の音声及び/又は映像データを含むライブ信号1012は現地の処理又は送信局1052に送信され、ハプティックデータを含む信号1022は現地の処理又は送信局1052に送信される。現地の処理又は送信局1052は、元の音声及び/又は映像データをレビュー又は処理してそのコンテンツがブロードキャストに適切又は適当かを判定するプロセッサ、すなわち図2又は3のプロセッサ又はエンコーダ116を含む。そして、現地の処理又は送信局1052は、処理済み音声及び/又は映像データを有する信号1020並びにハプティックデータを有する信号1022を含む2つの個別又は別個の信号を様々なエンドユーザ装置430に同時に送信する。図10に示すように、信号1020及び1022はマルチデバイスエンドユーザ装置に送信され得るので、エンドユーザ装置430はエンドユーザ装置430、エンドユーザ装置430及びエンドユーザ装置430として図示される。信号1020及び1022は、映像、音声及びそのハプティック成分の出力のための単一の物理エンドユーザ装置430に送信されるものとして図示されるが、代替的に、ここに記載されるマルチデバイスシステム538などのマルチデバイスシステムに送信されてもよい。他の実施形態では、現地の処理又は送信局1052は、ハプティックデータを含む信号1022を取得し、それを処理済み音声及び/又は映像データを含む信号1020に符号化して、図3に関して上述したように1以上のエンド装置に伝達される処理済み音声及び/又は映像データ並びにハプティックデータを含む複合信号を形成するエンコーダ(不図示)をさらに含み得る。
図示されていないが、ブロードキャスト用ハプティクスアーキテクチャ1050は、エンドユーザ装置への配信のためのブロードキャスト局及び/又は中央処理サーバをさらに含み得る。より詳細には、現地の処理又は送信局1052は、処理済み音声及び/又は映像データを有する信号1020並びにハプティックデータを有する信号1022を含む2つの個別又は別個の信号をブロードキャスト局に同時に送信し、その後ブロードキャスト局は信号1020及び1022を、様々なエンドユーザ装置430への配信を担う中央処理サーバに送信することができる。言い換えると、様々なエンドユーザ装置430への信号1020及び1022の配信の方法は、前述の実施形態のいずれかで説明したように、すなわち、図8のブロードキャスト用ハプティクスアーキテクチャ850又は図9のブロードキャスト用ハプティクスアーキテクチャ950に関して説明したようにして実現され得る。
図11は、他の実施形態によるブロードキャスト用ハプティクスアーキテクチャ1150を示す。本実施形態では、ハプティックデータへの処理又は変換、すなわち図2又は図3の変換部118の動作は、エンドユーザ装置430のプロセッサにおいて行われる。ブロードキャスト用ハプティクスアーキテクチャ1150は、元のセンサデータを有する信号1114がエンドユーザ装置430まで完全に送信されるので帯域幅の観点では最も効率が低いが、センサデータの変換/処理の全てがエンドポイントにオフロードされるので処理の観点では最も効率が高い。
ブロードキャスト用ハプティクスアーキテクチャ1150では、音声−映像レコーダ1108がライブイベントにおいてライブ音声及び映像データを記録し、センサ1110がライブイベントにおいてセンサデータを記録する。センサ1110はセンサ710と同様であり、ライブイベントに関連付けられた物体、装備又は人のパラメータを検知し、検知されたパラメータをセンサデータに変換するように構成されたセンサである。一実施形態では、センサ1110は、ボクシングのグローブ、サッカーボール、テニスラケット、ヘルメット又は他のタイプのスポーツイベント関連アイテムなど、ライブイベントにおいて利用される装備1160に結合又は装着され、センサ1110は物体の動き又は速度を検知し、検知された動きをセンサデータに変換するように構成される。センサ1110は、加速度計、ジャイロスコープ、接触圧センサ、全地球測位システム(GPS)センサ、回転速度センサ、又は加速度、傾き、慣性力、動き若しくは位置の変化を検出するように構成された他の何らかのタイプのセンサであればよい。他の実施形態では、センサ1110は、ライブイベントに参加している1人以上の選手に対応付けられ、生理学的信号の(すなわち、脈波計)センサであってもよい。他の実施形態では、センサ710に関して上述したように、センサ1110は、ライブイベントに関連付けられた物体又は装備の他のパラメータを検知し、検知されたパラメータをセンサデータに変換するように構成されるが、物体又は装備に結合される必要はない。
元の音声及び/又は映像データを含むライブ信号1112は現地の処理又は送信局1152に送信され、センサ1160からの元データを含む信号1114も現地の処理又は送信局1152に送信される。現地の処理又は送信局1152は、元の音声及び/又は映像データをレビュー又は処理してそのコンテンツがブロードキャストに適切又は適当かを判定するプロセッサ、すなわち図2又は3のプロセッサ又はエンコーダ116を含む。そして、現地の処理又は送信局1152は、処理済み音声及び/又は映像データを有する信号1120並びにセンサ1160からの元データを含む信号1114を含む2つの個別又は別個の信号を様々なエンドユーザ装置430に同時に送信する。図11に示すように、信号1120及び1114はマルチデバイスエンドユーザ装置に送信され得るので、エンドユーザ装置430はエンドユーザ装置430、エンドユーザ装置430及びエンドユーザ装置430として図示される。信号1120及び1114は、映像、音声及びそのハプティック成分の出力のために単一の物理エンドユーザ装置430に送信されるものとして図示されるが、代替的に、ここに記載されるマルチデバイスシステム538などのマルチデバイスシステムに送信されてもよい。
図示されていないが、ブロードキャスト用ハプティクスアーキテクチャ1150は、エンドユーザ装置への配信のためのブロードキャスト局及び/又は中央処理サーバをさらに含み得る。より詳細には、現地の処理又は送信局1152は、処理済み音声及び/又は映像データを有する信号1120並びにセンサ1160からの元データを含む信号1114を含む2つの個別又は別個の信号をブロードキャスト局に同時に送信し、その後、ブロードキャスト局は信号1120及び1114を、様々なエンドユーザ装置430への配信を担う中央処理サーバに送信することができる。言い換えると、様々なエンドユーザ装置430への信号1120及び1122の配信の方法は、前述の実施形態のいずれかで説明したように、すなわち、図8のブロードキャスト用ハプティクスアーキテクチャ850又は図9のブロードキャスト用ハプティクスアーキテクチャ950に関して説明したようにして実現され得る。信号1120及び1122はライブイベントの参加者にローカルに配信されてもよいし、他の実施形態では遠隔エンドユーザ装置に到達する前にブロードキャスト局及び/又は中央処理を介して送信されてもよい。
本発明による種々の実施形態を上述したが、それらは限定ではなく説明及び例示としてのみ提示されたことが理解されるべきである。発明の精神及び範囲から逸脱することなく形式及び詳細における種々の変更がなされ得ることは当業者には明らかである。例えば、ここに記載されるアーキテクチャはライブイベントについての映像及び/又は音声データをハプティックデータとともに送信又はブロードキャストすることを含むが、ここに記載されるアーキテクチャは、音声データのみを無線ブロードキャストするのと同様にしてライブイベントからハプティックデータのみをブロードキャストするように変形され得る。例えば、ハプティックデータのみをブロードキャストすることが、得点が毎分若しくは他の所定時間毎にハプティック的にブロードキャストされ、又は得点が変化する毎に得点がハプティック的にブロードキャストされるスポーツの試合において利用されてもよい。したがって、本発明の幅及び範囲は、上述の例示の実施形態のいずれにも限定されるべきものではなく、添付の特許請求の範囲及びその均等物によってのみ規定されるべきものである。ここで述べた各実施形態及びここで引用した各文献の各構成が他のいずれかの実施形態の構成と組み合わせにおいても用いられ得ることも理解される。ここで述べた全ての特許及び公開公報はその全体において参照によりここに取り込まれる。

Claims (20)

  1. ハプティックデータをライブイベントからエンドユーザ装置に転送するためのシステムであって、
    ライブイベントの映像データを記録するように構成されたレコーダ、
    前記ライブイベントに関連付けられたパラメータを検知し、検知された前記パラメータをセンサデータとして出力するように構成されたセンサ、
    前記センサから前記センサデータを受信し、前記センサデータを、前記ライブイベントに関連付けられたハプティックデータを含む信号に変換するように構成された変換部、及び
    前記変換部から前記ハプティックデータを受信するように構成され、前記ライブイベントの前記映像データを受信するように構成されたエンドユーザ装置であって、前記ハプティックデータに基づいてユーザに対するハプティック効果を生成するように構成されたハプティック出力装置を含み、前記映像データを表示するように構成されたディスプレイを含む、エンドユーザ装置
    を備えたシステム。
  2. 前記変換部は、前記センサに配置されたマイクロコントローラである、請求項1に記載のシステム。
  3. 前記変換部は、前記エンドユーザ装置内に配置されたプロセッサである、請求項1に記載のシステム。
  4. 前記ライブイベントの現地に配置された現地送信局をさらに備え、前記現地送信局は前記ライブイベントの前記映像データを処理するためのプロセッサを含む、請求項1に記載のシステム。
  5. 前記変換部は、前記ライブイベントの現地に、又は前記現地送信局内に配置された現地プロセッサであり、前記ハプティックデータを前記現地送信局に送信するように構成される、請求項4に記載のシステム。
  6. ブロードキャスト局をさらに備え、前記ブロードキャスト局は、処理された前記映像データ及び前記ハプティックデータを前記現地送信局から受信するように構成される、請求項5に記載のシステム。
  7. 中央処理サーバが、前記処理された映像データ及び前記ハプティックデータを前記ブロードキャスト局から受信するように構成され、前記処理された映像データ及び前記ハプティックデータを前記エンドユーザ装置に送信するように構成される、請求項6に記載のシステム。
  8. 現地送信局が、処理された前記映像データ及び前記ハプティックデータを前記エンドユーザ装置に送信するように構成される、請求項5に記載のシステム。
  9. 前記ライブイベントの現地に配置された現地送信局であって、前記ライブイベントの前記映像データ及び前記センサからの前記センサデータを受信するように構成された現地送信局、
    前記ライブイベントの前記映像データ及び前記センサデータを前記現地送信局から受信するように構成されたブロードキャスト局、及び
    前記映像データ及び前記センサデータを前記ブロードキャスト局から受信するように構成された地域処理局であって、前記変換部が前記地域処理局に配置されたプロセッサであり、前記ハプティックデータを前記エンドユーザ装置に送信するように構成された地域処理局
    をさらに備えた請求項1に記載のシステム。
  10. 前記地域処理局は、前記ライブイベントの前記映像データを処理するように構成された第2のプロセッサをさらに含み、前記地域処理局は、処理された前記映像データ及び前記ハプティックデータを前記エンドユーザ装置に送信するように構成される、請求項9に記載のシステム。
  11. 前記ハプティック出力装置及び前記ディスプレイは同じ電子装置の一部である、請求項1に記載のシステム。
  12. 前記エンドユーザ装置は、前記ディスプレイを含む主エンドユーザ装置、及び前記ハプティック出力装置を含む副ユーザ装置を含む、請求項1に記載のシステム。
  13. 前記レコーダはさらに前記映像データとともに前記ライブイベントの音声データを記録するように構成され、前記エンドユーザ装置は、前記音声データを出力するように構成されたスピーカを含む、請求項1に記載のシステム。
  14. 前記センサは、前記ライブイベントにおいて利用される装備又は前記ライブイベントの参加者に結合される、請求項1に記載のシステム。
  15. ハプティックデータをライブイベントからエンドユーザ装置に転送するためのシステムであって、
    ライブイベントの映像データを記録するように構成されたレコーダ、
    前記ライブイベントに関連付けられたパラメータを検知し、検知された前記パラメータをセンサデータとして出力するように構成されたセンサ、
    前記ライブイベントの現地に配置され、前記ライブイベントの前記映像データを受信するように構成された現地送信局であって、前記ライブイベントの前記映像データを処理するためのプロセッサを含む現地送信局、
    前記センサからの前記センサデータを受信し、前記センサデータを前記ライブイベントに関連付けられたハプティックデータを含む信号に変換するように構成された変換部、及び
    前記ハプティックデータを前記変換部から受信するように構成され、処理された前記映像データを前記現地送信局の前記プロセッサから受信するように構成されたエンドユーザ装置であって、前記ハプティックデータに基づいてユーザに対してハプティック効果を生成するように構成されたハプティック出力装置を含み、前記映像データを表示するように構成されたディスプレイを含むエンドユーザ装置
    を備えたシステム。
  16. ハプティックデータをライブイベントからエンドユーザ装置に転送する方法であって、
    ライブイベントの映像データを記録するステップ、
    前記ライブイベントに関連付けられたパラメータを検知し、検知された前記パラメータをセンサデータとして出力するステップ、
    前記センサからの前記センサデータを受信し、前記センサデータを、前記ライブイベントに関連付けられたハプティックデータを含む信号に変換するステップ、
    エンドユーザ装置において前記ハプティックデータを受信するステップであって、前記エンドユーザ装置は、前記映像データを表示するように構成されたディスプレイを含む、ステップ、
    前記エンドユーザ装置において前記ライブイベントの前記映像データを受信するステップであって、前記エンドユーザ装置は、前記ハプティックデータに基づいてユーザに対するハプティック効果を生成するように構成されたハプティック出力装置を含む、ステップ、
    前記ハプティックデータに基づいて前記ハプティック出力装置で少なくとも1つのハプティック効果を生成するステップ、及び
    前記映像データを前記ディスプレイに表示するステップ
    を備える方法。
  17. 前記センサからの前記センサデータを受信し、前記センサデータを、ハプティックデータを含む信号に変換するステップは、前記センサに配置されたマイクロコントローラにおいて実行される、請求項16に記載の方法。
  18. 前記センサからの前記センサデータを受信し、前記センサデータを、ハプティックデータを含む信号に変換するステップは、前記エンドユーザ装置内に配置されたプロセッサにおいて実行される、請求項16に記載の方法。
  19. 前記センサからの前記センサデータを受信し、前記センサデータを、ハプティックデータを含む信号に変換するステップは、前記ライブイベントの現地に配置された現地プロセッサで、又は前記ライブイベントの現地に配置された現地送信局内で実行される、請求項16に記載の方法。
  20. 前記センサからの前記センサデータを受信し、前記センサデータを、ハプティックデータを含む信号に変換するステップは、前記ライブイベントから、及び前記エンドユーザ装置から遠隔に配置されたオフサイトプロセッサで実行される、請求項16に記載の方法。
JP2016114961A 2015-06-12 2016-06-09 ブロードキャスト用ハプティクスアーキテクチャ Withdrawn JP2017005709A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/738,707 US20160366450A1 (en) 2015-06-12 2015-06-12 Broadcast haptics architectures
US14/738,707 2015-06-12

Publications (1)

Publication Number Publication Date
JP2017005709A true JP2017005709A (ja) 2017-01-05

Family

ID=56134121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016114961A Withdrawn JP2017005709A (ja) 2015-06-12 2016-06-09 ブロードキャスト用ハプティクスアーキテクチャ

Country Status (5)

Country Link
US (1) US20160366450A1 (ja)
EP (1) EP3104258A1 (ja)
JP (1) JP2017005709A (ja)
KR (1) KR20160146551A (ja)
CN (1) CN106249868A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101766892B1 (ko) 2017-01-16 2017-08-23 안병문 연동장치, 이를 포함하는 전동장치 시스템 및 그 제어방법
JP2018129035A (ja) * 2017-02-08 2018-08-16 イマージョン コーポレーションImmersion Corporation 選択ハプティックメタデータによるハプティックブロードキャスト
JP2019050558A (ja) * 2017-09-08 2019-03-28 イマージョン コーポレーションImmersion Corporation 非オーディオデータを用いたヘッドホン上でのハプティックのレンダリング
WO2020059758A1 (ja) * 2018-09-20 2020-03-26 日本電産株式会社 コンテンツ再生装置、触覚振動発生方法、コンピュータプログラム、触覚振動データ配信システム、及び触覚振動提供装置
WO2021172040A1 (ja) * 2020-02-28 2021-09-02 ソニーグループ株式会社 情報処理装置および方法
WO2023204289A1 (ja) * 2022-04-22 2023-10-26 ソニーグループ株式会社 情報処理装置および方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017531930A (ja) * 2014-07-07 2017-10-26 イマージョン コーポレーションImmersion Corporation セカンドスクリーン触覚
CN106534142B (zh) * 2016-11-22 2018-04-20 包磊 多媒体数据的实时传输方法及装置
US10297120B2 (en) * 2016-12-13 2019-05-21 Disney Enterprises, Inc. Haptic effect generation system
KR101901364B1 (ko) * 2017-09-18 2018-11-22 주식회사 씨케이머티리얼즈랩 햅틱 장치를 위한 무선 제어 장치 및 방법
KR102208810B1 (ko) * 2017-10-20 2021-01-28 주식회사 씨케이머티리얼즈랩 촉각 정보 제공 시스템
WO2021035362A1 (en) * 2019-08-30 2021-03-04 Vrx Ventures Ltd. Systems and methods for mapping motion-related parameters of remote moving objects
US20210110841A1 (en) * 2019-10-14 2021-04-15 Lofelt Gmbh System and method for transforming authored haptic data to fit into haptic bandwidth
KR20210114059A (ko) * 2020-06-30 2021-09-17 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 비디오 처리 방법, 장치, 전자 기기 및 저장 매체
US20230396815A1 (en) * 2020-10-21 2023-12-07 Interactive Cyber Experience Holdings, Llc System for communicating sensations from a first person perspective

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6357042B2 (en) * 1998-09-16 2002-03-12 Anand Srinivasan Method and apparatus for multiplexing separately-authored metadata for insertion into a video data stream
CN104063056B (zh) * 2006-04-06 2018-04-20 意美森公司 用于增强的触觉效果的系统和方法
US8098234B2 (en) * 2007-02-20 2012-01-17 Immersion Corporation Haptic feedback system with stored effects
US7911328B2 (en) * 2007-11-21 2011-03-22 The Guitammer Company Capture and remote reproduction of haptic events in synchronous association with the video and audio capture and reproduction of those events
WO2010011765A2 (en) * 2008-07-22 2010-01-28 Entrex, Inc. Perpetual revenue participation interests and methods related thereto
US20120221148A1 (en) * 2011-02-28 2012-08-30 D-Box Technologies Inc. Real-time performance enabled by a motion platform
US20140063259A1 (en) * 2012-08-31 2014-03-06 Ihigh.Com, Inc. Method and system for video production
US9992491B2 (en) * 2013-03-15 2018-06-05 Immersion Corporation Method and apparatus for encoding and decoding haptic information in multi-media files
US20150054727A1 (en) * 2013-08-23 2015-02-26 Immersion Corporation Haptically enabled viewing of sporting events

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101766892B1 (ko) 2017-01-16 2017-08-23 안병문 연동장치, 이를 포함하는 전동장치 시스템 및 그 제어방법
JP2018129035A (ja) * 2017-02-08 2018-08-16 イマージョン コーポレーションImmersion Corporation 選択ハプティックメタデータによるハプティックブロードキャスト
JP2019050558A (ja) * 2017-09-08 2019-03-28 イマージョン コーポレーションImmersion Corporation 非オーディオデータを用いたヘッドホン上でのハプティックのレンダリング
WO2020059758A1 (ja) * 2018-09-20 2020-03-26 日本電産株式会社 コンテンツ再生装置、触覚振動発生方法、コンピュータプログラム、触覚振動データ配信システム、及び触覚振動提供装置
WO2021172040A1 (ja) * 2020-02-28 2021-09-02 ソニーグループ株式会社 情報処理装置および方法
WO2023204289A1 (ja) * 2022-04-22 2023-10-26 ソニーグループ株式会社 情報処理装置および方法

Also Published As

Publication number Publication date
EP3104258A1 (en) 2016-12-14
KR20160146551A (ko) 2016-12-21
US20160366450A1 (en) 2016-12-15
CN106249868A (zh) 2016-12-21

Similar Documents

Publication Publication Date Title
JP2017005709A (ja) ブロードキャスト用ハプティクスアーキテクチャ
US20200245038A1 (en) Second screen haptics
US10445941B2 (en) Interactive mixed reality system for a real-world event
US8990842B2 (en) Presenting content and augmenting a broadcast
EP2840463A1 (en) Haptically enabled viewing of sporting events
JP6664069B2 (ja) 触覚コンテンツを伴う視点動画を記録及び再生するシステム並びに方法
JP6664071B2 (ja) マルチメディアデータで使用する触覚データを記録するシステムおよび方法
JP2017033536A (ja) 観衆ベースのハプティック
CN106303555A (zh) 一种基于混合现实的直播方法、装置和系统
CN105915849A (zh) 一种虚拟现实体育赛事播放方法及系统
US8869199B2 (en) Media content transmission method and apparatus, and reception method and apparatus for providing augmenting media content using graphic object
JP2015185167A (ja) 感覚データを触覚効果に変換するシステム及び方法
WO2016136104A1 (ja) 情報処理装置、情報処理方法及びプログラム
US20160179206A1 (en) Wearable interactive display system
CN113853571A (zh) 信息处理设备以及信息处理终端
CN114930274A (zh) 信息处理设备、信息处理终端和程序
CN114945893A (zh) 信息处理设备以及信息处理终端
JP6523038B2 (ja) 感覚提示装置
CN112619042A (zh) 健身用的即时影音及数据显示系统与其显示方法
US11381413B2 (en) Audio-orientated immersive experience of an event
EP4270155A1 (en) Virtual content
JP2021096583A (ja) プログラム、情報処理装置、及び情報処理方法
CN109845246A (zh) 信息处理装置、信息处理方法、程序和通信系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190607

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20200409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200410