JP2016119071A - マルチメディアデータで使用する触覚データを記録するシステムおよび方法 - Google Patents

マルチメディアデータで使用する触覚データを記録するシステムおよび方法 Download PDF

Info

Publication number
JP2016119071A
JP2016119071A JP2015229334A JP2015229334A JP2016119071A JP 2016119071 A JP2016119071 A JP 2016119071A JP 2015229334 A JP2015229334 A JP 2015229334A JP 2015229334 A JP2015229334 A JP 2015229334A JP 2016119071 A JP2016119071 A JP 2016119071A
Authority
JP
Japan
Prior art keywords
recorder
data
sensor
haptic
vibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015229334A
Other languages
English (en)
Other versions
JP6664071B2 (ja
Inventor
ジェイ. ウルリッヒ,クリストファー
j ullrich Christopher
ジェイ. ウルリッヒ,クリストファー
ラクロワ,ロバート
Lacroix Robert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2016119071A publication Critical patent/JP2016119071A/ja
Application granted granted Critical
Publication of JP6664071B2 publication Critical patent/JP6664071B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H9/00Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves by using radiation-sensitive means, e.g. optical means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42201Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/10537Audio or video recording

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurosurgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】対象物の音声および/または動画を記録し、対象物の記録を出力するように構成されたレコーダと、当該レコーダと関連付けられた非接触センサとを備えるシステムを提供する。【解決手段】非接触センサ102は、レコーダ104と実質的に同じ視点からおよびレコーダと同時に、対象物の動きおよび/または振動を測定するように構成および配置される。システムは、非接触センサによって測定された対象物の動きおよび/または振動を、触覚データストリームへと変換する制御装置110とを備える。触覚データストリームは、レコーダによって記録された対象物の記録と共に再生されるべく触覚表示装置130へと送信され、測定された動きおよび/または振動に対応する触覚効果が、記録と同期して触覚表示装置のユーザに提供される。【選択図】図1A

Description

本発明は、マルチメディアデータで使用する触覚データを記録するシステムおよび方法に関する。
ライブコンテンツまたは事前に制作されるコンテンツの制作において、動作を設定したり動作を捉えたりする技術が確立されている。例えば、現場から生中継で配信されるスポーツイベントの場合、通常、現場担当のプロデューサがイベントの1週間から2週間前にイベント会場に赴き、会場からの素晴らしいライブ作品(放送)のマルチメディアデータストリームを作成できるように、様々な位置にカメラを設定する。そして、ロケ班のスタッフが、各カメラ位置において”自己中心的定位(egocentric)”の音場を作成するべく、現場に配置された一連のマイクをプリミックスする。それにより、放送番組の視聴者が臨場感を感じることができるようにしている。
例えば、スポーツスタジアムでは、スタンドの上に配置されるカメラは、観衆の音響効果とフィールド上(競技場)の音響効果とが等しく録音されるように構成され得る。フィールド側のカメラは、フィールドに居るかのように感じられるように、パラボラマイクまたは集音マイクを備えてもよい。競技者に搭載されたカメラは、競技者に搭載されるマイクを有してもよく、また、フィールド側のカメラと混合することにより、競技者視点およびスタジアム体験を提供することができる。映画およびテレビ用の予め作成されるコンテンツについても同様な手法を用いることができ、この場合、最終的なコンテンツの作成のために、撮影後の音声の編集が多くなされる。
ユーザの電子機器においてストリーミングおよび再生することかできる放送番組に触覚(ハプティック)コンテンツを付加することにより、ライブ配信のスポーツイベントやその他の娯楽番組を当該電子機器で視聴する視聴者に没入感を感じさせる番組を作成できることが望ましい。また、実在の触覚データの取得をより容易にし、人間がほとんど介入することなく実在の触覚データの変換を行えるようにすることで、触覚体験を容易に伝達し、そのような触覚体験をユーザが容易に受け取れるようにして、触覚コンテンツが広く受け入れられるようにすることが望まれている。
本発明の一側面によれば、対象物の音声および/または動画を記録し、対象物の記録を出力するように構成されたレコーダと、当該レコーダと関連付けられた非接触センサとを備えるシステムを提供する。非接触センサは、レコーダと実質的に同じ視点からおよびレコーダと同時に、対象物の動きおよび/または振動を測定するように構成および配置される。システムは、非接触センサによって測定された前記対象物の前記動きおよび/または振動を、触覚データストリームへと変換する制御装置を備え、前記触覚データストリームは、前記レコーダによって記録された前記対象物の前記記録と共に再生されるように触覚表示装置へ送信され、前記測定された動きおよび/または振動に対応する触覚効果が、前記記録と同期して前記触覚表示装置のユーザに提供される。
一実施形態において、前記非接触センサは、レーザ振動計を含む一実施形態において、前記非接触センサは、追跡装置を含む。
一実施形態において、前記非接触センサは、動画ストリーム解析アルゴリズムを含む。
一実施形態において、前記レコーダと前記非接触センサは、同じ位置に配置される。
一実施形態において、前記システムは、前記制御装置によって制御され、前記レコーダと実質的に同じ視点を有する位置および/または向きへと前記非接触センサを移動させるように構成および配置された第1サーボ機構を備える。一実施形態において、前記制御装置によって制御され、前記レコーダを移動させるように構成および配置された第2サーボ機構を更に備える。前記第1サーボ機構は前記第2サーボ機構と同期されて、前記非接触センサの移動が、前記レコーダの移動と同期される。
一実施形態において、前記システムは、前記レコーダによって記録される対象と接触し、前記対象物の動きおよび/または振動を検出するように構成および配置された第2センサを更に備える。前記制御装置は更に、前記非接触センサから受信したデータと、前記第2センサから受信したデータとを組み合わせて、前記組み合わせたデータを前記触覚データストリームへと変換する、一実施形態において、前記制御装置は、異なるサンプリングレートおよび/または感度を有するセンサ信号を混合して、当該変換された混合データを出力するように構成および配置された変換器を有する。
本発明の一側面によれば、レコーダを使用して、対象物の音声および/または動画を記録する工程と、前記対象物と関連付けられ前記レコーダと実質的に同じ視点を有する非接触センサを使用して、前記対象物の動きおよび/または振動を測定する工程とを備える方法を提供する。方法は更に、制御装置を使用して、測定された前記動きおよび/または振動を、触覚データストリームへと変換する工程を備え、前記触覚データストリームは、前記対象物の前記記録と共に再生されるべく触覚表示装置へと送信され、前記測定された動きおよび/または振動に対応する触覚効果が、前記記録と同期して前記触覚表示装置のユーザに提供される。
一実施形態において、前記方法は、前記レコーダが移動して視点が変化した場合に、前記制御装置によって制御される第1サーボ機構を使用して、前記非接触センサを、前記レコーダと実質的に同じ視点を有する位置へと移動させる工程を更に備える。一実施形態において、前記制御装置によって制御される第2サーボ機構を使用して、前記レコーダを移動させる工程を備える。前記第1サーボ機構は前記第2サーボ機構と同期されて、前記非接触センサの移動が、前記レコーダの移動と同期される。
一実施形態において、前記方法は、前記対象物と接触する第2センサーを使用して、前記対象物の動きおよび/または振動を検出する工程と、前記非接触センサから受信したデータと前記第2センサから受信したデータとを組み合わせる工程と、前記組み合わせたデータを前記触覚データストリームへと変換する工程とを備える。
一実施形態において、前記方法は、異なるサンプリングレートおよび/または感度を有するセンサ信号を変換し、当該変換後の混合データを出力する工程を更に備える。
本発明の上記および上記以外の目的、特徴、および性質、並びに、関連する構成要素の動作方法および機能、そして製造における各部分の組み合わせと経済性については、添付図面を参照しつつ以下の詳細な説明と添付の特許請求の範囲を検討することによってさらに明らかになる。これらはいずれも本明細書の一部を構成する。添付図面は例示および説明のためのものであり、本発明の発明特定事項の定義として用いることは意図されていない。本明細書および特許請求の範囲における用法によれば、単数形の「a」、「an」および「the」には複数のものへの言及が含まれる。ただし、文脈によって別に解すべきことが明白な場合はこの限りでない。
以下の図面の構成要素は、本開示の原理の概略を強調するように描写されており、必ずしも寸法通りには記載されていない。一貫性および明瞭性を確保するために、対応する構成要素を指し示す参照符号は、必要に応じ、複数の図面にわたって繰り返し用いられる。
本発明の一実施形態にかかるシステムを模式的に示す。
図1Aのシステムの制御装置の詳細を模式的に示す。
本発明の一実施形態に係る、図1のシステムの実装形態を模式的に示した図である。
図2Aに示された本発明の実施形態の更なる詳細を模式的に示す。
本発明の一実施形態にかかる、非接触センサおよび動画/音声レコーダから、再生装置へのデータの流れを模式的に示す。
本発明の一実施形態にかかる、非接触センサ、接触センサおよび動画/音声レコーダから、再生装置へのデータの流れを模式的に示す。
本発明の一実施形態にかかる方法を模式的に示す。
図1Aは、本発明の一実施形態にかかるシステム100を模式的に示す。図に示すように、システム100は、イベントの対象物が体験する動きおよび/または振動を一定の距離から検出し、検出した動きおよび/または振動を、電子再生装置130のユーザが触覚効果として再生するための触覚効果データへと変換するように構成された一つのまたは複数のセンサ102を備えてもよく、これについては以下に詳細に説明する。一実施形態において、センサ102は、以下に詳細に説明するような非接触センサである。
一実施形態において、センサ102は、例えば、スポーツイベント等の一部である選手および/もしくは器具またはその他の対象物の動き並びに/または振動を検出するように構成および配置される。一実施形態において、センサ102は、競技場/リンク/コートでの周囲の動きおよび振動、並びに、競技場/リンク/コート等の境界を検出してもよい。センサ102の実施形態の詳細については後述する。センサ102が検出する振動は、いかなる周波数帯域であってもよく、人間の機械的受容器が通常感じることができない振動周波数帯域であってもよい。このような一実施形態において、センサのデータの変換時に、振動を、機械受容性を有する帯域へと変換または転移させてもよい。センサデータの触覚効果データへの変換については、以下で詳細に記載する。
システム100はまた、対象物の画像を撮像し、対象物の音を捉えるように構成および配置された一つのまたは複数のカメラ104を備える。カメラ104は、一体化した動画/音声レコーダを備えてもよいし、図1Aに示すように、それぞれ別個に設けられた動画レコーダ106および音声レコーダ108を備えてもよい。音声レコーダ108は、イベントに関連する音を捉えるように構築および配置された一つのまたは複数のマイクを有してもよい。例えば、イベントがフットボールの試合の場合、競技場のサイドライン上にフィールドレベルで一つのまたは複数のマイクを配置してもよく、また、例えば、現在のフットボールの試合の放送で行われているように、競技場の上部の位置に一つのまたは複数のマイクを配置してもよい。本明細書において使用されている「カメラ」という言葉は、動画レコーダ106および音声レコーダ108の組み合わせを指し、これら2つのレコーダが同じ位置に配置されていない場合や物理的に別個に設けられている場合も含む。一実施形態において、センサ102、動画レコーダ106および音声レコーダ108は、同じ電子装置の一部分であってもよい。一実施形態において、センサ102、動画レコーダ106および音声レコーダ108は、別個のスタンドアローンの装置、または、別個のスタンドアローンの装置の一部分であってもよい。
図1Aに示すように、システム100は、センサ102、動画レコーダ106および音声レコーダ108に対して制御信号を出力し、電子再生装置130へと最終的に送信するべく処理を行うためにセンサ102、動画レコーダ106および音声レコーダ108からデータ信号を受信するように構成および配置された制御装置110を備える。制御装置110は、センサ102、動画レコーダ106および音声レコーダ108が出力した信号およびデータを処理するように構成および配置された一つのまたは複数のプロセッサ112を有する。プロセッサ112は、以下に詳細に記載するような制御装置110の様々な機能を実行するための実行可能命令を含むコンピュータプログラムモジュールを実行するようにプログラムされていてもよい。一実施形態において、一つのまたは複数のセンサ102は、プロセッサ112とは別のプロセッサを有してもよいし、プロセッサ112がセンサの一部であってもよい。
電子再生装置130は、電子再生装置130のユーザに対して触覚効果を出力するように構成された触覚出力装置132、例えば、動画レコーダ106が撮像した画像である画像を表示するように構成されたディスプレイ134、および、例えば、音声レコーダ108によって録音された音声である音声を出力するように構成されたスピーカ136を備える。一実施形態において、触覚出力装置132は、ブレスレット、腕時計、アームバンド、ヘッドバンド、ヘッドマウントディスプレイ等のウェアラブルデバイスの一部であってもよい。一実施形態において、触覚出力装置132、ディスプレイ134およびスピーカ136は、例えば、互いに無線により接続されるように構成された別個の装置であってもよい。一実施形態において、触覚出力装置132は、ウェアラブルデバイスの一部であってもよく、ディスプレイ134は、テレビの一部であってもよく、スピーカ136は、ディスプレイ134とは別個に設けられた無線スピーカであってもよい。
触覚出力装置132はアクチュエータを含み得るが、このアクチュエータは、例えば、偏心質量体がモータにより動かされる偏心回転質量体(「ERM」)などの電磁アクチュエータ、ばねに取り付けられた質量体が前後に駆動されるリニア共振アクチュエータ(「LRA」)、または圧電材料、電気活性ポリマー、もしくは形状記憶合金などの「スマートマテリアル」、マクロ複合繊維アクチュエータ、静電気アクチュエータ、電気触感アクチュエータ、および/または触覚(例えば、振動触知)フィードバックなどの物理的フィードバックを提供する他の種類のアクチュエータ、である。触覚出力装置132は、非機械的または非振動装置、例えば、静電摩擦(「ESF」)や超音波表面摩擦(「USF」)を用いる装置、超音波触覚変換器デューサを用いて音響放射圧力を生じさせる装置、触覚基板および可撓性もしくは変形可能な表面を用いる装置、またはエアジェットを用いた空気の吹きかけなどの発射型の触覚出力を提供する装置などを含んでもよい。
図1Bには、本発明の一実施形態にかかる制御装置110がより詳細に示されてる。制御装置110は、システム100の動作および機能を管理若しくは制御する汎用若しくは特殊用途マイクロコントローラであってもよい。例えば、制御装置110は、触覚効果を提供するために、触覚出力装置132への出力信号を制御する特定用途向け集積回路(application−specificintegratedcircuit:「ASIC」)として、特に設計されてもよい。制御装置110は、どのような触覚効果が生成され、当該触覚効果がどのような順序で生成され、および/またはどの程度の大きさ、頻度、持続時間、および/またはその他のパラメータを触覚効果が有するかを、所定の係数に基づいて決定する。また、制御装置110は、特定の触覚効果を提供するために触覚出力装置132を駆動するのに使用することができるストリーミング・コマンドを提供するように構成されてもよい。一実施形態において、制御装置110は2つ以上のプロセッサ112、すなわち、各々がシステム100の内部で特定の機能を果たすように構成されている複数のプロセッサ112を含んでもよい。制御装置110は、触覚効果プロファイル、触覚出力装置132がどのように駆動されるべきか示した命令、および/または、触覚効果を生成するためのその他の情報を含んでもよい一のまたは複数の記憶装置を備える電子メモリを有してもよい。一実施形態において、電子メモリ114はプロセッサ112の一部分であってもよい。
電子メモリ114は、センサ102が検出したデータ、動画レコーダ106によって記録されたデータ、および、音声レコーダ108によって記録されたデータを格納するのに使用されてもよい。電子メモリ114としては、内部に固定された1つまたは複数の記憶ユニット、リムーバブル記憶ユニットおよび/またはリモート・アクセスが可能な記憶ユニットが含まれ得る。これら様々な記憶ユニットは、揮発性メモリと不揮発性メモリとのいかなる組合せをも含み得る。記憶ユニットは、情報、データ、命令、ソフトウェアコード等の任意の組み合わせを格納するように構成されてもよい。
図に示すように、制御装置110はまた、入力変換器116、センサデータ・エンコーダ118、動画/音声データエンコーダ120、デコーダ122、および、出力変換器122を備える。上記したように、センサ102によって生成されたデータが、電子メモリ114に格納されてもよい。加えて、センサ102によって生成されるデータは、電子メモリ114に格納される前に、入力変換器116によって変換されてもよい。センサデータの変換は、任意に行われる工程と考えられ、変換が必要であるか否かは、使用されるセンサの性質による。例えば、それぞれがサンプリングに異なる周波数を使用する複数のセンサ102が用いられる実施形態では、データを同じ周波数を有する一つのデータストリームへと組み込むように当該データを変換するのに入力変換器116を使用してもよい。
一実施形態において、センサデータエンコーダ118は、録画/録音中にセンサデータを、例えば、MPEG−4ファイルのようなフレキシブルなコンテナフォーマットに配置するように構成されてもよく、それにより、動画および音声以外のデータを一つのファイルコンテナに格納することができる。同様に、動画/音声データエンコーダ120は、録画/録音中に、動画および音声データをMPEG−4ファイルのようなフレキシブルなコンテナフォーマットに配置するように構成されてもよい。一実施形態において、センサデータを別個のファイルに格納するようにソフトウェアを書いてもよいが、再生時に動画/音声データとの適切な同期を可能とするべくセンサデータに特別なマーカが必要となる。このような実施形態では、設計された記録フォーマットの制約に適合させるようにセンサデータを整形する以外に、入力変換を行う必要はほとんどない。正確なフォーマットは、実装者によって決定されてもよい。イベントを録画/録音するユーザが、アクティビティを完了させると、録画/録音が停止されてもよい。そして、MPEG−4ファイルが閉じられて、センサデータの全てが、動画/音声データを有する電子メモリ114内のMPEG−4ファイル内に存在するようにしてもよい。
図に示すように制御装置110の一部であってもよいデコーダ122、または、動画、すなわち、メディアファイルを再生するように構成された電子再生装置のメディアプレーヤの一部を構成してもよいデコーダ122は、センサ102によって生成されたデータを電子メモリ114から読み出し、電子メモリ114に格納されている記録済みの音声データおよび動画データと、当該読み出したデータとを時間的に関連付ける。メディア再生の間に、デコーダ122は、センサのデータを出力変換器124を通過させてもよく、出力変換器114は、センサデータを触覚出力信号へと変換するように構成される。触覚出力信号は、これに限定されないが、例えば、振動、表面摩擦変調、皮膚をつまむ、皮膚を強く押す、といった一のまたは複数の触覚効果または触覚感覚のコマンドを生成するために生成される。デコーダ122は、センサデータから変換された触覚出力信号と、動画データおよび音声データとを同期させて、再生の際に、触覚効果が、動画および音声と同期されるようにする。一実施形態において、再生の間に動画データ、音声データおよび触覚効果における時間が一致していることを確かにすることで、完了する。
触覚出力装置132を含む電子再生装置130を通じてメディアを体験する人が、再生されるイベントをより完全に体験できるようにするべく、触覚出力信号が、デコーダ122から触覚出力装置132へと送信されてもよい。電子再生装置130は、電子携帯端末のような任意の装置であってよく、例えば、携帯電話、ゲーム機器、パーソナルデジタルアシスタント(PDA)、ポータブル電子メール装置、ポータブルインターネットアクセス装置、タブレット等であってもよい。電子再生装置130は、これに限定されないが、ディスプレイ134を備える携帯用デバイスまたはウェアラブルデバイスを含んでもよい。ディスプレイ120は、メディアを再生する高画質ディスプレイであってもよい。電子再生装置130は更に、触覚感覚または触覚効果を生成することができる携帯可能な物体、ユーザの身体に取り付けることができる物体、ユーザに寄り掛からせることができる物体、または、ユーザに触知的感覚送信することができる物体を備えてもよい。振動、動画および音声データを含むデータストリームの全ての同期は、図1Aおよび図1Bに示したシステム100のプロセッサ112内に配置されていてもよい記録ソフトウェアによって管理されてもよい。
アクティビティが実行された後にまたは実行されるのと同時に、一のまたは複数の視聴者が、アクティビティを体験するのに興味を示したとする。アクティビティを再生するべく、視聴者は、自身の電子再生装置130で適切な再生ソフトウェアを起動してもよい。一実施形態において、再生ソフトウェアは、上記したデコーダ122によって実行されるセンサデコード方式を組み込んだ再生ソフトウェアアプリケーション、および、電子再生装置130における触覚出力装置132に適した触覚出力信号へとセンサデータを変換するべく出力変換器124によって実行されてもよい出力変換ソフトウェアを含んでもよい。一実施形態において、再生ソフトウェアアプリケーションは、センサデコード方式を組み込んでもよい。再生ソフトウェアは、電子再生装置130内に存在するまたは予めインストールされる出力変換ソフトウェアを利用してもよく、当該出力変換ソフトウェアは、電子再生装置130における触覚出力装置132に適した触覚出力信号へとセンサデータを変換してもよい。すなわち、出力変換器124および/またはデコーダ122は、電子再生装置130に位置してもよい。
一実施形態において、電子再生装置130は、動画データストリームおよび触覚効果データストリームをデコードして、動画データと触覚効果データとの間の同期を維持するように構成されてもよい。電子再生装置130における一つのマイクロコントローラは、例えば、動画ストリームおよび触覚効果ストリームに基づいて、動画ディスプレイ134および触覚出力装置132両方の制御を行ってもよい。一実施形態において、再生ソフトウェアアプリケーションは、メディア再生を実行するべく、センサでコード方式を組み込んだ再生装置のオペレーティングシステムソフトウェアを利用してもよい。オペレーティングシステムソフトウェアは、電子再生装置130内に存在するまたは予めインストールされる出力変換ソフトウェアを利用してもよく、当該出力変換ソフトウェアは、電子再生装置130における触覚出力装置132に適した触覚出力信号へとセンサデータを変換してもよい。そして、視聴者は、イベントまたはパフォーマンスの視聴と関連付けられた触覚感覚を体験する。触覚効果は、出力変換ソフトウェアによって生成される。一実施形態において、出力変換は、電子再生装置130の外部で行われてもよく、クラウドに格納された放送局が所有するサーバで行われてもよい。このような実施形態では、触覚トラックの複数のバージョンが様々な装置および/または様々な装置の種類に対して生成されてもよく、適切な触覚トラックが選択されて、電子再生装置130内の触覚出力装置132へと送信される。
一実施形態において、動画ストリーム、音声ストリームおよびセンサデータストリームは、同期され、結合されて、再生装置130に送信されてもよい。有線または無線ネットワークを介して通信を行う独立した複数の装置によって撮像が行われていることを考慮して、例えば、動画フレームごとおよびセンサ測定ごとにタイムスタンプを組み込むことにより同期を行ってもよい。したがって、記録装置は、例えば、GPSシステムからの共通の時間基準を取得する必要がある。一実施形態では、動画ストリームおよびセンサデータストリームの両方において検出可能な特定のアクションを実行することにより、同期が行われてもよい。
その結果生成されたデータは、振動と、音声を含み得る動画との両方を組み合わせた一つのデータストリームとして、または、同期情報を伴った2つのデータストリームとして、送信されてもよい。データストリームは、順次、電子再生装置130へと送信されてもよいし、後の再生に備えてファイルに格納されてもよい。一実施形態において、触覚効果は、編集ツールを使用してオフラインで生成されて、撮影後の編集段階で動画に付加されてもよい。
動画は、一のまたは複数の受信者によって、後で再生されてもよいし、リアルタイムでストリーミングされてもよい。ビデオは、これらに限定されないが、スマートフォンまたはタブレット、コンピュータ、ホームシアターシステム等を含む複数の装置で再生され得る。触覚効果は同様に、スマートフォン若しくはタブレット、ヘッドマウントディスプレイ装置、リストバンド、指輪若しくは手袋のようなウェアラブルデバイス、または、椅子若しくは机のような家具といった場所に設けられる、様々な触覚出力装置132を使用して生成されてもよい。
図2Aには、図1Aおよび図1Bを参照して上記で説明したシステム100の一実施形態であるシステム200が模式的に示されている。図2Aに示す実施形態では、センサ102は、対象物の動きおよび/もしくは振動を測定するように構築および配置された非接触測定装置212、ならびに/または、対象物の動きおよび/もしくは振動を測定するように構築および配置された追跡装置(tracking device)214を有してもよい、動き/振動記録装置210を備え得る。図では、非接触測定装置212および追跡装置214の両方が、動き/振動記録装置210の一部として描かれているが、ある実施形態では、動き/振動記録装置210が、非接触測定装置212および追跡装置214のどちらか一方のみを備えてもよい。システム200はまた、動画/音声レコーダ220、変換器230、および、電子再生装置240を備える。電子再生装置240は、動き/振動記録装置210によって記録された動きおよび/または振動を表す触覚効果HEを生成するように構成された少なくとも一つの触覚出力装置242、および、動画/音声レコーダ220によって撮像された画像を表示するように構成されたディスプレイ244を備える。
一実施形態において、非接測定装置212は、対象物の振動を測定するように構成されたレーザ振動計であってもよい。当技術分野で知られるように、レーザ振動計は使用時に、対象物に向けられた第1周波数のレーザビームを発射して、対象物によって反射され、光検出器によって検出されたレーザービームの第2周波数を測定する。対象物が動いている場合、例えば、振動している場合、周波数シフトが起こり、第2周波数は第1周波数とは異なる。周波数シフトと、対象物の振動とを、相互に比較して相互に関連付けることができる。追跡装置214は、3次元まで対象物の動きをトラックするように構成されてもよく、周知の方法により画像解析することによって対象物の振動を決定することができる。一実施形態において、画像解析ソフトウェアを使用して、2次元または3次元動画ストリームから、動きおよび/または振動を求めてもよい。
一実施形態において、例えば、加速度計のような、動きおよび/または振動を検出するように構成された一のまたは複数の更なるセンサ216を、対象物に配置してもよい。このようなセンサ216は、対象物と非接触ではなく、対象物と接触するという点において、本明細書の非接触センサとは異なる。
一実施形態において、一のまたは複数の更なるセンサ(図示せず)は、特定のレンジにおける対象物を取り囲む明視野における変化を追跡するように構成された光学センサを含んでもよく、明視野における変化を動き/振動を示すセンサデータとして使用してもよい。
また図2Aに示すように、カメラであってもよい動画/音声レコーダ220は、図1Aを参照して上記で説明した動画レコーダ106および音声レコーダ108として実装され、対象物の画像および音声を記録してもよい。動画/音声レコーダ220が一体化された装置として示されているが、上記したように、本発明の様々な実施形態は、動画レコーダが音声レコーダとは別個に設けられた構成も含む。一実施形態において、動き/振動記録装置210および動画/音声レコーダ220は、同じ電子装置内に配置されてもよい。
動き/振動記録装置210および接触センサ216によって記録されたデータは、変換器230によって処理されて、触覚効果データとして電子再生装置240へ送信するべく出力されてもよい。一実施形態において、後にレンダリングするべくまたはライブイベントの観客に対して即時に放送するために触覚効果データは、動画‐音声データと共にまたはインターリーブして、格納されてもよい。
一実施形態において、例えば、異なるセンサ212、214、216が、異なるサンプリングレートを使用するおよび/または異なる感度を有する場合には、変換器230は、カルマンフィルタのようなセンサデータ融合技術を使用してもよい。変換器230が出力する触覚効果データは、電子再生装置240に転送される前にエンコードされて、電子再生装置240において再生される時にデコードされてもよい。動画/音声レコーダ220によって記録されたメディアデータも、音声/動画データとして電子再生装置240に送信されるが、上記したように送信の前にエンコードされ、電子再生装置において再生される時にデコードされてもよい。
図2Aに示す実施形態では、システムによって記録されるイベントは、ホッケーの試合であり、現在の対象物は、ホッケーのスティックHSによって打たれるホッケーのパックHPである。非接触動き/振動記録装置210は、ホッケーのスティックHSによって打たれる時のホッケーのパックHPの動き/振動を記録する。同時に、ホッケーのパックHPと接触する接触センサ216は、ホッケーのスティックHSによってホッケーのパックHPが打たれる時に生成される振動を測定する。動き/振動記録装置210および接触センサ216によって記録されたデータが処理されて、変換器230によって触覚効果データへと変換され、音声/動画データと共にまたは音声/動画データとインターリーブされて、電子再生装置240へと送信される。電子再生装置240はデータを受信すると、後の再生のために電子メモリに当該データを格納してもよいし、ディスプレイ244に動画画像を表示させるおよび触覚出力装置242を使用して検出した振動に対応する触覚効果HEを表示させる処理をすすめてもよい。これにより、電子再生装置240を持つユーザは、ホッケーのスティックHSがホッケーのパックHPを叩くのと関連付けされた振動を感じることができる。
一実施形態において、電子再生装置240は、図1の電子再生装置130であってもよく、ディスプレイ134、スピーカ136、および、触覚効果を提供する触覚出力装置132のような振動装置を有する携帯電話またはタブレットの形態であってもよい。一実施形態において、触覚出力装置242は、ユーザの装置に取り付けられるまたはユーザによって保持されるように構成および配置された電子装置の一部であってもよい。例えば、触覚表示装置242は、スマートフォンのような携帯電話、タブレット、ゲームパッド、および、スマートウォッチ、リストバンド、アームバンド、ヘッドバンド、ヘッドマウントディスプレイのようなウェアラブルデバイスの一部であってもよい。
動画/音声レコーダ(すなわち、カメラ104)の自己中心的定位の視点を維持するべく、センサ102は、知覚的に有意な態様で、カメラ104の視点を追跡してもよい。例えば、フットボールの試合の間に、カメラ104がフィットボールを追いかけている場合には、センサ102もカメラ104と同期した視点を維持するべくセンサ102を移動させる。カメラ104とセンサ102との間の同期は、様々な方法で達成可能である。一実施形態では、マーカを使用したオブジェクトトラッキングまたはビデオベースの追跡技術を使用してもよい。一実施形態において、カメラ104およびセンサ102の位置および向きを、カメラ104およびセンサ102の操作者によって手動で制御してもよい。
図2Bに示す実施形態では、動き/振動記録装置210(すなわち、非接触センサ)に対する動画/音声レコーダ220(すなわち、カメラ)の位置および向きのサーボマッチングを利用してもよい。図に示すように、システムは、制御装置250、当該制御装置250によって制御され非接触測定装置212の位置および/または向きを制御するように構成および配置された第1サーボ機構(「サーボ」)252、制御装置250によって制御され追跡装置214の位置および/または向きを制御するように構成および配置された第2サーボ機構(「サーボ」)254、ならびに、制御装置250によって制御され動画/音声レコーダ220の位置および/または向きを制御するように構成および配置された第3サーボ機構(「サーボ」)256を備える。制御装置250は3次元画像解析のソフトウェアを実行するように構成されたプロセッサを有してもよく、当該ソフトウェアは、サーボ252、254、256に対するサーボ位置コマンドへと変換可能な対象物マーカを制御装置250に提供する。一実施形態において、3次元画像解析ソフトウェアは、対象物の動き/振動を判断して、電子再生装置のユーザに対して表示される触覚効果へと変換され得る信号を出力するアルゴリズムを有してもよい。一実施形態において、制御装置250は、既存のビーコン&三角測量システムと同様な技術を用いて、3次元空間における対象物を追跡する位置追跡システム260からの指令を受けてもよい。位置追跡システム260は、制御装置250に対するサーボ位置コマンドへと変換され得る対象物マーカを提供する。
図3には、非接触センサ310および動画/音声レコーダ320から、電子再生装置330へのデータフロー300の一実施形態が示されている。図に示すように、センサ310によって出力されたデータは、312において較正マッピングが施され、314においてサンプリングしなおされた後、上記で説明したような当業者に周知のフォーマットを使用して316においてエンコーダによりエンコードされる。データがエンコードされた後、エンコーダは、例えば、インターネットを介してストリーミングされるメディア340へと組み込まれる信号318を出力する。メディアは、電子再生装置330の再生メディア350として消費される。これと同時にまたは実質的に同時に、動画/音声レコーダ320からのデータが、上記で説明したような当業者に周知のフォーマットを使用して322においてエンコーダによりエンコードされて、再生装置330へとストリーミングされるメディア320へと組み込まれるエンコード済み信号324が用意される。エンコードされた信号318、324は、再生装置330へとストリーミングされる(もしくは配信される)前に同期されてもよい、または、上記したように再生装置330に配信された後でエンコードされた信号318、324をローカルに再生装置330において同期してもよい。エンコードされた信号318、324は、互いに並列にストリーミングされてもよいし、一つの信号へとインターリーブされてもよい。
図4には、対象物の振動を測定する非接触センサ410および対象物と接触している接触センサ420のような複数のセンサ、ならびに、対象物を記録する動画/音声レコーダ430のから、電子再生装置440へのデータの流れ400の一実施形態が示されている。一実施形態において、較正およびサンプリングレートの一貫性を確保するべくセンサデータに処理が行われてもよい。一つの触覚信号を生成するべく、状態推定、混合、平均化等の様々な技術を用いて、複数のセンサデータチャネルを組み合わせる。図4に示す実施形態では、非接触センサ410によって出力されたデータは、412において較正マッピングが行われ、414においてサンプリングしなおされる。接触センサ420によって出力されたデータは、422において較正マッピングが行われ、424においてサンプリングしなおされる。414および424においてサンプリングしなおされたデータは、状態推定のために416において変換される。例えば、2つのストリームにおけるデータが異なる周波数であった場合、2つのデータ信号の推定を行って一つのデータ信号へと変換した後、418において上記で示したような当業者に周知のフォーマットを使用してエンコーダによりエンコードされてもよい。一実施形態において、2つのストリームにおけるデータは、一つのまたは複数の触覚データチャネルから構成される触覚出力ストリームへと変換されてもよい。エンコーダは、例えば、インターネットを介してストリーミングされるメディア436へと組み込まれる信号426を出力する。メディアは、電子再生装置440の再生メディア438として消費される。これと同時にまたは実質的に同時に、動画/音声レコーダ430からのデータを、上記で説明したような当業者に周知のフォーマットを使用して432においてエンコーダによりエンコードして、再生装置440へとストリーミングされるメディア436へと組み込まれるエンコード済み信号434を用意する。エンコードされた信号426、434は、再生装置440へとストリーミングされるもしくは配信される前に同期されてもよい、または、上記したように再生装置440に配信された後であって再生メディア438が再生される前に、エンコードされた信号426、434をローカルに再生装置440において同期してもよい。エンコードされた信号426、434は、互いに並列にストリーミングされてもよいし、一つの信号へとインターリーブされてもよい。
図3および図4に示された両方の実施形態において、現場ベースの触覚検出の出力は、2つの異なる種類のデータエンコーディングを含んでもよい。例えば、完全であり、現場の検出源からの混合されていない純粋なセンサデータを含むRAWマスタレコードと、混合され放送できる状態の触覚トラックを含み、全ての触覚センサの最終的な混合結果として放送されるダウンミックスレコードと、の2種類を含んでもよい。ある実施形態では、ダウンミックスレコードは、イベントにおける各カメラについて利用可能であってもよい。センサ技術の違いがあることから、RAWレコードは、様々なサンプリングレートを有してもよい。一方で、ダウンミックスは、ダウンストリームミックスおよび端末装置のレンダリングを容易にするために、標準的なサンプリングレート(例えば、200Hz)に準拠してもよい。
本発明の実施形態によれば、上記のシステム100、200は、メディアサーバによって起動されてもよい。メディアサーバは、例えばNETFLIX(登録商標)のようなクラウドビデオストリーミングサービス、例えばNBCのような放送ネットワーク提供サービス、例えばマイクロソフト(登録商標)のXbox(登録商標)のようなゲーム機、または、その他の種類のサーバであってもよい。触覚効果データは、メディアサーバから電子再生装置130、240へと有線でまたは無線で通信される信号として提供されてもよい。信号は、直接的な触覚効果ストリームもしくはコマンドのセットに始まり、数多くのアクションを実行すべきであると触覚出力装置132、242に対して指示する抽象的な通知に至るまで、様々含まれ得る。数多くのアクションのうちの一つとしては、触覚効果データに基づく触覚効果のレンダリングが挙げられる。
本発明の実施形態によれば、システム100、200は、PVDによって起動されてもよい。PVDは、触覚効果データ信号を認識して、同じ触覚効果データ信号をまたは当該触覚効果データ信号から変換された異なる信号を送信して、最終的には、触覚効果が触覚出力装置132、242によって生成される。
図5には、本発明の一実施形態にかかる方法500が模式的に示されている。510において、上記の動画レコーダ106および/もしくは音声レコーダ108または動画/音声レコーダ220のような記録装置によって、動画および/または音声が記録される。520において、上記したような動き/振動記録装置210のような少なくとも一つの非接触センサによって、動きおよび/または振動の検出が行われる。一実施形態において、動き/振動データは、触覚データストリームへと変換されてもよい。530において、上記のプロセッサ112のようなプロセッサを使用して、触覚データストリーム内の動画および振動が同期される。540において、ディスプレイ134、スピーカ136および触覚出力装置132を備える上記した電子再生装置130、または、上記の電子再生装置240のような電子再生装置を使用して、同期された動画および/または音声ならびに振動が再生される。
上記の本発明の実施形態では、マルチメディアデータストリームにおいて、動画および/または音声データと共に使用される触覚効果データを生成するべく動き/振動の記録を利用することを意図して、対象物の動きおよび/または振動を記録している。動き/振動の記録は、対象物の非接触観察を伴う。
上記した本発明の実施形態は、少なくとも一つの非接触触覚センサを組み込んだイベントのライブ配信を作成する能力を提供する。上記の本発明の実施形態は特に、接触ベースの触覚検出に適さない繊細なまたは極限環境条件を有するイベントに有用である。
上記の本発明の実施形態は、カメラをベースとする自己中心的定位の音場を提供することができ、当該音場を拡張して、音声および触覚フィードバックの両方を、スポーツの放送または撮影の一部として記録およびレンダリング可能とすることができる。また、上記の本発明の実施形態は、対象物に接触した触覚検出技術と、非接触の触覚検出技術との組み合わせを提供し、これらを混合することにより、各カメラの視点に対するエンドユーザの好適な体験を生成することができる。
本明細書に記載された実施形態は、実施可能な実装例および実施例であるが、本発明を特定の実施形態に制限することを必ずしも意図するものではない。むしろ、これらの実施形態には、当該技術分野における当業者に理解できるような変更を加えることができる。このような変更が加えられた態様も本発明の要旨および範囲に含まれ、そして以下の請求項によって保護されるべきものである。

Claims (14)

  1. 対象物の音声および/または動画を記録し、前記対象物の記録を出力するように構成されたレコーダと、
    前記レコーダと関連付けられ、前記レコーダと実質的に同じ視点からおよび前記レコーダと同時に、前記対象物の動きおよび/または振動を測定するように構成および配置された非接触センサと、
    前記非接触センサによって測定された前記対象物の前記動きおよび/または振動を、触覚データストリームへと変換する制御装置と、を備え、
    前記触覚データストリームは、前記レコーダによって記録された前記対象物の前記記録と共に再生されるように触覚表示装置へ送信され、前記測定された動きおよび/または振動に対応する触覚効果が前記記録と同期して前記触覚表示装置のユーザに提供される、システム。
  2. 前記非接触センサは、レーザ振動計を含む、請求項1に記載のシステム。
  3. 前記非接触センサは、追跡装置を含む、請求項1に記載のシステム。
  4. 前記非接触センサは、動画ストリーム解析アルゴリズムを含む、請求項1に記載のシステム。
  5. 前記レコーダと前記非接触センサは、同じ位置に配置される、請求項1に記載のシステム。
  6. 前記制御装置によって制御され、前記レコーダと実質的に同じ視点を有する位置および/または向きへと前記非接触センサを移動させるように構成および配置された第1サーボ機構を更に備える、請求項1に記載のシステム。
  7. 前記制御装置によって制御され、前記レコーダを移動させるように構成および配置された第2サーボ機構を更に備え、
    前記第1サーボ機構は前記第2サーボ機構と同期されて、前記非接触センサの移動が、前記レコーダの移動と同期される、請求項6に記載のシステム。
  8. 前記レコーダによって記録される対象と接触し、前記対象物の動きおよび/または振動を検出するように構成および配置された第2センサを更に備え、前記制御装置は、前記非接触センサから受信したデータと、前記第2センサから受信したデータとを組み合わせて、前記組み合わせたデータを前記触覚データストリームへと変換する、請求項1に記載のシステム。
  9. 前記制御装置は、異なるサンプリングレートおよび/または感度を有するセンサ信号を混合して、当該変換後の混合データを出力するように構成および配置された変換器を更に有する、請求項8に記載のシステム。
  10. レコーダを使用して、対象物の音声および/または動画を記録する工程と、
    前記対象物と関連付けられ前記レコーダと実質的に同じ視点を有する非接触センサを使用して、前記対象物の動きおよび/または振動を測定する工程と、
    制御装置を使用して、測定された前記動きおよび/または振動を、触覚データストリームへと変換する工程と、を備え、
    前記触覚データストリームは、前記対象物の前記記録と共に再生されるべく触覚表示装置へと送信され、前記測定された動きおよび/または振動に対応する触覚効果が、前記記録と同期して前記触覚表示装置のユーザに提供される、を備える方法。
  11. 前記レコーダが移動して視点が変化した場合に、前記制御装置によって制御される第1サーボ機構を使用して、前記非接触センサを、前記レコーダと実質的に同じ視点を有する位置へと移動させる工程を更に備える、請求項10に記載の方法。
  12. 前記制御装置によって制御される第2サーボ機構を使用して、前記レコーダを移動させる工程を更に備え、
    前記第1サーボ機構が前記第2サーボ機構と同期されることにより、前記非接触センサの移動が前記レコーダの移動と同期される、請求項11に記載の方法。
  13. 前記対象物と接触する第2センサーを使用して、前記対象物の動きおよび/または振動を検出する工程と、
    前記非接触センサから受信したデータと前記第2センサから受信したデータとを組み合わせる工程と、
    前記組み合わせたデータを前記触覚データストリームへと変換する工程と、を更に備える請求項10に記載の方法。
  14. 異なるサンプリングレートおよび/または感度を有するセンサ信号を変換し、当該変換後の混合データを出力する工程を更に備える、請求項13に記載の方法。
JP2015229334A 2014-12-19 2015-11-25 マルチメディアデータで使用する触覚データを記録するシステムおよび方法 Expired - Fee Related JP6664071B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/576,589 US9812165B2 (en) 2014-12-19 2014-12-19 Systems and methods for recording haptic data for use with multi-media data
US14/576,589 2014-12-19

Publications (2)

Publication Number Publication Date
JP2016119071A true JP2016119071A (ja) 2016-06-30
JP6664071B2 JP6664071B2 (ja) 2020-03-13

Family

ID=55024811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015229334A Expired - Fee Related JP6664071B2 (ja) 2014-12-19 2015-11-25 マルチメディアデータで使用する触覚データを記録するシステムおよび方法

Country Status (5)

Country Link
US (2) US9812165B2 (ja)
EP (2) EP3575933A1 (ja)
JP (1) JP6664071B2 (ja)
KR (1) KR20160075341A (ja)
CN (1) CN105721814B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019163283A1 (ja) * 2018-02-23 2019-08-29 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
WO2020031527A1 (ja) * 2018-08-10 2020-02-13 ソニー株式会社 信号生成装置、信号生成方法、プログラム、再生装置

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9635440B2 (en) * 2014-07-07 2017-04-25 Immersion Corporation Second screen haptics
US9972216B2 (en) * 2015-03-20 2018-05-15 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for storing and playback of information for blind users
JP6522454B2 (ja) * 2015-07-28 2019-05-29 ローム株式会社 センサ情報無線送信装置
ITUA20164783A1 (it) * 2016-06-30 2017-12-30 Lacs S R L Un sistema di controllo di simulazioni tattiche
KR101879445B1 (ko) * 2016-11-03 2018-07-18 재단법인 실감교류인체감응솔루션연구단 데이터 유형별 패키지 처리를 위한 센싱 데이터 전송 장치 및 센싱 데이터 수신 장치
CN106534142B (zh) * 2016-11-22 2018-04-20 包磊 多媒体数据的实时传输方法及装置
US10528815B2 (en) * 2016-12-31 2020-01-07 Vasuyantra Corp. Method and device for visually impaired assistance
JP7331697B2 (ja) * 2017-10-30 2023-08-23 ソニーグループ株式会社 振動発生装置、振動制御方法及びプログラム
CN108593087A (zh) * 2018-03-29 2018-09-28 湖南科技大学 一种薄壁件工作模态参数确定方法及系统
WO2021035362A1 (en) * 2019-08-30 2021-03-04 Vrx Ventures Ltd. Systems and methods for mapping motion-related parameters of remote moving objects
CN111525700B (zh) * 2020-05-23 2021-09-24 宁波市电力设计院有限公司 一种变电站远程可视化智能巡视系统
CN116506673B (zh) * 2023-06-30 2023-09-12 安格利(成都)仪器设备有限公司 一种音像记录与检测设备数据同步联动及声控检索方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08111838A (ja) * 1994-10-07 1996-04-30 Hitachi Ltd 映像記録再生システム
JPH11282479A (ja) * 1998-03-27 1999-10-15 Daiichikosho Co Ltd 歌唱する姿をビデオカメラで撮影して記録する機能を付加したカラオケ装置
JP2002027453A (ja) * 2000-07-05 2002-01-25 Hitachi Ltd コンサート臨場感補助システム
JP2007036360A (ja) * 2005-07-22 2007-02-08 Nec Corp バーチャル映像用信号生成方法および送受信端末
JP2007285898A (ja) * 2006-04-17 2007-11-01 Tokai Univ レーザ振動計
WO2013008869A1 (ja) * 2011-07-14 2013-01-17 株式会社ニコン 電子機器及びデータ生成方法
JP2014160529A (ja) * 2013-01-24 2014-09-04 Immersion Corp 触感記録および再生

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7623114B2 (en) 2001-10-09 2009-11-24 Immersion Corporation Haptic feedback sensations based on audio output from computer devices
US20050062841A1 (en) 2003-09-18 2005-03-24 Rivera-Cintron Carlos A. System and method for multi-media record, distribution and playback using wireless communication
US8700791B2 (en) 2005-10-19 2014-04-15 Immersion Corporation Synchronization of haptic effect data in a media transport stream
KR101384434B1 (ko) 2006-04-06 2014-04-10 임머숀 코퍼레이션 햅틱 효과 개선을 위한 시스템들 및 방법들, 및 기록 매체
US8378964B2 (en) 2006-04-13 2013-02-19 Immersion Corporation System and method for automatically producing haptic events from a digital audio signal
US7979146B2 (en) 2006-04-13 2011-07-12 Immersion Corporation System and method for automatically producing haptic events from a digital audio signal
US8000825B2 (en) 2006-04-13 2011-08-16 Immersion Corporation System and method for automatically producing haptic events from a digital audio file
US8199009B2 (en) * 2007-06-08 2012-06-12 Bas Strategic Solutions, Inc. Method and system for administering remote area monitoring system
NO327577B1 (no) * 2007-07-31 2009-08-24 Kongsberg Defence & Aerospace Naerobservasjonssensor med folgestyring og malbestemmelse for vapenstasjon
US9019087B2 (en) 2007-10-16 2015-04-28 Immersion Corporation Synchronization of haptic effect data in a media stream
US7911328B2 (en) 2007-11-21 2011-03-22 The Guitammer Company Capture and remote reproduction of haptic events in synchronous association with the video and audio capture and reproduction of those events
CN102473172A (zh) 2009-07-24 2012-05-23 数字标记公司 改进的音频/视频方法和系统
US8717152B2 (en) 2011-02-11 2014-05-06 Immersion Corporation Sound to haptic effect conversion system using waveform
US9448626B2 (en) 2011-02-11 2016-09-20 Immersion Corporation Sound to haptic effect conversion system using amplitude value
US20120221148A1 (en) * 2011-02-28 2012-08-30 D-Box Technologies Inc. Real-time performance enabled by a motion platform
US8842969B2 (en) 2012-09-28 2014-09-23 Intel Corporation Haptic playback of video
US9277204B2 (en) * 2013-01-23 2016-03-01 Advanced Scientific Concepts, Inc. Modular LADAR sensor

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08111838A (ja) * 1994-10-07 1996-04-30 Hitachi Ltd 映像記録再生システム
JPH11282479A (ja) * 1998-03-27 1999-10-15 Daiichikosho Co Ltd 歌唱する姿をビデオカメラで撮影して記録する機能を付加したカラオケ装置
JP2002027453A (ja) * 2000-07-05 2002-01-25 Hitachi Ltd コンサート臨場感補助システム
JP2007036360A (ja) * 2005-07-22 2007-02-08 Nec Corp バーチャル映像用信号生成方法および送受信端末
JP2007285898A (ja) * 2006-04-17 2007-11-01 Tokai Univ レーザ振動計
WO2013008869A1 (ja) * 2011-07-14 2013-01-17 株式会社ニコン 電子機器及びデータ生成方法
JP2014160529A (ja) * 2013-01-24 2014-09-04 Immersion Corp 触感記録および再生

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019163283A1 (ja) * 2018-02-23 2019-08-29 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
US11774991B2 (en) 2018-02-23 2023-10-03 Sony Corporation Information processing apparatus, information processing method, and computer program product for controlling vibration
WO2020031527A1 (ja) * 2018-08-10 2020-02-13 ソニー株式会社 信号生成装置、信号生成方法、プログラム、再生装置
US11656683B2 (en) 2018-08-10 2023-05-23 Sony Corporation Signal generation device, signal generation method, and reproduction device

Also Published As

Publication number Publication date
CN105721814A (zh) 2016-06-29
EP3575933A1 (en) 2019-12-04
EP3035161A1 (en) 2016-06-22
KR20160075341A (ko) 2016-06-29
CN105721814B (zh) 2020-05-01
US10650859B2 (en) 2020-05-12
EP3035161B1 (en) 2019-09-18
US9812165B2 (en) 2017-11-07
US20180033459A1 (en) 2018-02-01
JP6664071B2 (ja) 2020-03-13
US20160180879A1 (en) 2016-06-23

Similar Documents

Publication Publication Date Title
JP6664071B2 (ja) マルチメディアデータで使用する触覚データを記録するシステムおよび方法
JP6664069B2 (ja) 触覚コンテンツを伴う視点動画を記録及び再生するシステム並びに方法
US10593167B2 (en) Crowd-based haptics
JP6664137B2 (ja) 触感記録および再生
JP6585358B2 (ja) 感覚データを触覚効果に変換するシステム及び方法
JP6565903B2 (ja) 情報再生装置及び情報再生方法
JP2017005709A (ja) ブロードキャスト用ハプティクスアーキテクチャ
US20150054727A1 (en) Haptically enabled viewing of sporting events
CN105915849A (zh) 一种虚拟现实体育赛事播放方法及系统
JP6523038B2 (ja) 感覚提示装置
Series Collection of usage scenarios of advanced immersive sensory media systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190827

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20200122

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200130

R150 Certificate of patent or registration of utility model

Ref document number: 6664071

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees