JP2014194765A - 動画コンテンツの分析に基づいて触覚フィードバックを生成する方法及び装置 - Google Patents

動画コンテンツの分析に基づいて触覚フィードバックを生成する方法及び装置 Download PDF

Info

Publication number
JP2014194765A
JP2014194765A JP2014044872A JP2014044872A JP2014194765A JP 2014194765 A JP2014194765 A JP 2014194765A JP 2014044872 A JP2014044872 A JP 2014044872A JP 2014044872 A JP2014044872 A JP 2014044872A JP 2014194765 A JP2014194765 A JP 2014194765A
Authority
JP
Japan
Prior art keywords
motion
estimate
computer
videos
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014044872A
Other languages
English (en)
Other versions
JP2014194765A5 (ja
JP6456593B2 (ja
Inventor
Saboune Jamal
サボウヌ,ジャマール
Manuel Cruz-Hernandez Juan
クルス−ヘルナンデス,ファン,マヌエル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2014194765A publication Critical patent/JP2014194765A/ja
Publication of JP2014194765A5 publication Critical patent/JP2014194765A5/ja
Application granted granted Critical
Publication of JP6456593B2 publication Critical patent/JP6456593B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B6/00Tactile signalling systems, e.g. personal calling systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】動画コンテンツの分析、動画の一又は複数のオブジェクトのモーションの一又は複数の測定結果を含むセンサからのセンサ情報、および/または一又は複数のイメージキャプチャデバイスによるモーションの一又は複数の測定結果を含むセンサ情報に基づいて触覚フィードバックを生成する。
【解決手段】動画コンテンツ分析は、当該動画の画像処理を含む。システムは、当該画像処理に基づいて一又は複数のイベントを特定し、一又は複数のイベントに基づいて触覚フィードバックを発生させる。触覚フィードバックは、画像処理に基づいて定められる、動画のシーンのオブジェクトの推定加速度に基づいて変化する。推定加速度は、高速ではセンサ情報を用いることにより高精度となり、センサ情報に基づく推定加速度は低速では上記の画像処理に基づいて高精度にすることができる。
【選択図】図5

Description

本開示は、動画コンテンツの分析、動画に現れる一又は複数のオブジェクトのモーションの一又は複数の測定結果を含む一又は複数のセンサからのセンサ情報、および/または一又は複数のイメージキャプチャデバイスによるモーションの一又は複数の測定結果を含むセンサ情報に基づいて触覚フィードバックを生成するシステム及び方法に関する。
動画等の従来のマルチメディアコンテンツは触覚フィードバックによって改善可能である。しかしながら、このような改善を実現するためには、通常、触覚フィードバックを符号化した情報を動画に直接埋め込むことが必要となる。よって、この技術では、触覚フィードバックを符号化した情報で注釈が付けられていない既存の動画に対してリアルタイムの触覚フィードバックを提供することはできない。
また、従来のメディア再生システムは、触覚フィードバックを生成するために、動画のシーンに登場するオブジェクトのモーションを示すセンサ情報を利用していない。さらに、動画情報に基づくオブジェクトの加速度の推定は、オブジェクトが高速で移動している場合にはブラーやアーチファクトのために不正確なものとなる一方、オブジェクトに取り付けたセンサからの情報を用る場合には低速の場合に不正確となる。
本発明は、動画コンテンツの分析、動画に現れる人物等の一又は複数のオブジェクトのモーションの一又は複数の測定結果を含む一又は複数のセンサからのセンサ情報、および/または一又は複数のイメージキャプチャデバイスによるモーションの一又は複数の測定結果を含むセンサ情報に基づいて触覚フィードバックを生成するシステム及び方法に関する。一般に、当該システムは、一又は複数のプロセッサを有するコンピュータ装置を備える。当該一又は複数のプロセッサは、動画コンテンツ分析を行い、および/または、当該センサ情報を用いて生成されるべき触覚フィードバックを発生させることによりユーザ体験を向上させることができる。
当該触覚フィードバックは、前記画像処理に基づいて定められる、当該動画のシーンのオブジェクトの推定加速度に基づいて変化する。当該推定加速度は、高速ではセンサ情報を用いることにより高精度となり、当該センサ情報に基づく推定加速度は低速では上記の画像処理に基づいて高精度にすることができる。
一部の実施態様において、当該動画コンテンツ分析は、当該動画の一又は複数のフレームの画像処理を行うことを含む。当該コンピュータ装置は、当該画像処理に基づいて一又は複数のイベントを特定し、当該一又は複数のイベントに基づいて触覚フィードバックを発生させることができる。このイベントは、例えば、画像キャプチャ装置の動き、オブジェクトの外観、体の部分の外観、爆発、移動中のオブジェクト、特定の認識可能な画像の特徴、顔の表情、ジェスチャ、シーンのテーマ、および/または当該画像処理により特定可能な前記以外のイベントを含む。
このコンピュータ装置は、触覚フィードバックを発生させる制御信号を生成し、当該制御信号を、当該触覚フィードバックを出力する一又は複数の触覚出力装置に送信することができる。この触覚出力装置は、当該コンピュータ装置の具体的な用途や実装に応じて様々な方法で構成される。例えば、触覚出力装置は、コンピュータ装置(例えば、共通のハウジングに収容される)、ユーザインタフェース装置、ウェアラブルデバイス、椅子(例えば、当該コンピュータ装置が映画への画像処理を実行し映画視聴中に没入的な触覚フィードバックを提供することができる映画館内にあるもの)、および/または具体的な実装に応じた前記以外の構成と一体に構成されてもよい。
当該触覚フィードバックは画像処理に基づいて生成されるので、当該コンピュータ装置は、触覚フィードバックをマルチメディアファイルまたはマルチメディアストリームに符号化した情報の埋め込みや設定を行うことなく、リアルタイムの触覚フィードバックを促進することができる。このように、当該コンピュータ装置は、動画が触覚フィードバックを発生させる情報と対応付けて提供されておらず、または、触覚フィードバックを発生させる情報に組み込まれていなくても、当該動画(および/または画像処理が実行される動画以外のマルチメディアコンテンツ)を触覚フィードバックを用いて改善することができる。
一部の実装携帯において、当該コンピュータ装置は、動画等のマルチメディアコンテンツに関連するモーションの一又は複数の測定結果を含むセンサ情報を用い、触覚フィードバックを発生させる制御信号を生成することができる。例えば、動画をキャプチャする時点で、一又は複数のセンサは、当該センサが当該画像キャプチャ装置および/またはオブジェクトのモーションを測定するように、画像キャプチャ装置(例えばビデオカメラ)および/またはトラック対象のオブジェクト(例えば当該動画に出現するオブジェクト)に接続することができ、その測定結果を含む情報を出力することができる。これにより、触覚フィードバックを提供するために用いられるセンサ情報を提供するために、当該オブジェクトおよび/または画像キャプチャ装置のモーションが測定される。キャプチャされた動画および/またはセンサ情報は、リアルタイミングでストリーミングされ、および/または、再生用にコンピュータ装置に提供するために記憶される。
コンピュータ装置はセイン差情報を取得し、当該センサ情報に応答して制御信号を生成することができる。たとえば、当該センサ情報は、動画の特定のシーンにおいて画像キャプチャ装置が移動していることを示すことができる。当該コンピュータ装置は、特定のシーンをキャプチャしている間に、画像キャプチャ装置のモーションに応答して、センサ情報に基づいて定められる制御信号を生成することができる。同様に、センサ情報は動画のシーンに登場するオブジェクトが移動していることを示すことができる。当該コンピュータ装置は、特定のシーンをキャプチャしている間に、オブジェクトのモーションに応答して、センサ情報に基づいて定められる制御信号を生成することができる。一部の実装態様において、コンピュータ装置は、画像キャプチャ装置およびトラック対象のオブジェクトのモーションに基づいて、触覚フィードバックを発生させる制御信号を生成することができる。
一部の実装態様において、コンピュータ装置は、画像処理に基づいてオブジェクトのスピード、加速度、および/または角速度の第1推定値を生成し、センサ情報に基づいて当該オブジェクトのスピード、加速度、および/または角速度の第2推定値を生成する。コンピュータ装置は、当該第1推定値および第2推定値に基づいて、当該オブジェクトのスピード、加速度、および/または角速度の融合された推定値を生成することができる。融合された推定値を用いることにより、コンピュータ装置は制御信号を生成することができる。一部の実装態様において、コンピュータ装置は、当該第1推定値(画像処理に基づくもの)のみを用いて制御信号を生成することができる。
制御信号を生成するために動画に関連するモーション情報の使用に関する上述した実装態様のいずれを用いた場合であっても、コンピュータ装置は、シーンに登場するオブジェクトおよび/またはシーンをキャプチャする画像キャプチャ装置が動いているときに触覚フィードバックを発生させることにより、動画体験を向上させることができる。例えば、コンピュータ装置は、オブジェクトがシーンの間に加速していると決定した場合には、強度(intensity)を増加させる触覚フィードバックを発生させる制御信号を提供することができる。
一部の実装態様において、コンピュータ装置は、動画の画像処理のみを用いて触覚フィードバックを発生させる制御信号を生成することができる。他の実装態様において、コンピュータ装置は、センサ情報のみを用いて触覚フィードバックを発生させる制御信号を生成することができる。さらに他の実装態様において、コンピュータ装置は、動画の画像処理をセンサ情報と組み合わせて触覚フィードバックを発生させる制御信号を生成することができる。
本技術の上記及び上記以外の特徴、及び性質、並びに、関連する構成要素の動作方法及び機能、そして製造における各部分の組み合わせと経済性については、添付図面を参照しつつ以下の詳細な説明と添付の特許請求の範囲を検討することによってさらに明らかになる。これらはいずれも本明細書の一部を構成する。本明細書において、同様の参照符号は種々の図における対応部分を表している。添付図面は例示及び説明のためのものであり、本発明の発明特定事項の定義として用いることは意図されていない。本明細書及び特許請求の範囲における用法によれば、単数形の“a”,“an”及び“the
”には複数のものへの言及が含まれる。ただし、文脈によって別に解すべきことが明白
な場合はこの限りでない。
本発明の一態様に従って、動画コンテンツの分析に基づいて触覚フィードバックを生成するように構成されたシステムを示す。
本発明の一態様に従って、静止している画像キャプチャ装置によって撮影(film)されているオブジェクトにIMUセンサが結合されており、触覚フィードバックを生成するために当該オブジェクトのモーションがIMUセンサによって測定されているシナリオの例を示す。
本発明の一態様に従って、オブジェクトおよび画像キャプチャ装置にIMUセンサが結合されており、触覚フィードバックを生成するために当該オブジェクトのモーションがIMUセンサによって測定されているシナリオの例を示す。
本発明の一態様に従って、移動している画像キャプチャ装置によって撮影(film)されているオブジェクトにIMUセンサが結合されており、触覚フィードバックを生成するために当該オブジェクトのモーションがIMUセンサによって測定されているシナリオの例を示す。
本発明の一態様に従って、動画コンテンツの分析に基づいて触覚フィードバックを生成するように構成されたコンピュータ装置の実装態様の例を示す。
本発明の一態様に従って、様々なユーザ接触点に組み込まれる触覚出力装置の実装態様の例を示す。
本発明の一態様に従って、動画コンテンツの分析に基づいて触覚フィードバックを生成するプロセスの例を示す。
本発明の一態様に従って、動画に現れるオブジェクトのモーションの一又は複数のモーションの測定結果を含むセンサ情報に基づいて触覚フィードバックを生成するプロセスの一例を示す。
本開示は、動画コンテンツの分析、および/または、動画に現れる一又は複数のオブジェクトのモーションの一又は複数の測定結果を含むセンサからのセンサ情報、および/または一又は複数のイメージキャプチャデバイスによるモーションの一又は複数の測定結果を含むセンサ情報に基づいて触覚フィードバックを生成するシステム及び方法に関する。
図1は、本発明の一態様に従って、動画コンテンツの分析に基づいて触覚フィードバックを生成するように構成されたシステム100を示す。システム100は、慣性測定ユニット(「IMU」)センサ110、画像キャプチャ装置120、コンピュータ装置130、コンピュータ装置140、動画出力装置141、触覚出力装置143、オーディオ出力装置145、および/または前記以外の構成要素を備える。図1には、上記の構成要素が一つだけ示されているが、2以上の構成要素を用いることが可能である。例えば、一又は複数のIMUセンサ110を用いることができる。IMUセンサ110は、異なる周波数および/または測定範囲で個別に動作することができる。一部の実施態様において、異なるIMUセンサ110を異なるオブジェクトおよび/または所定のシーンに関連する異なる画像キャプチャ装置120に取り付けることができる。
一部の実施態様において、IMUセンサ110は、3次元(「3D」)ジャイロスコープ111、3D加速度計113、3D磁力計115、および/または前記以外のセンサ装置117を備えることができる。3Dジャイロスコープ111、3D加速度計113、3D磁力計115、および/または前記以外のセンサ装置117を用いることにより、IMUセンサ110は、IMUセンサ110のモーションの一又は複数の測定結果を含むセンサ情報112を生成することができる。例えば、IMUセンサ110がオブジェクトに取り付けられたとき、3Dジャイロスコープ111、3D加速度計113、3D磁力計115、および/または前記以外のセンサ装置117は、当該オブジェクトのモーションを測定し、センサ情報112を生成してコンピュータ装置130へ送信することができる。一部の実施態様において、画像キャプチャ装置120は、ビデオカメラおよび/またはそれ以外の画像装置または画像キャプチャ装置を備える。画像キャプチャ装置120は、一又は複数の画像をキャプチャし、動画122を生成してコンピュータ装置130に送信することができる。一部の実施態様においては、2以上の画像キャプチャ装置120によって、所定のシーンにおける同一のまたは異なるオブジェクトを、異なるアングルおよび/またはビューから撮像することができる。一部の実施態様において、IMUセンサ110は、画像キャプチャ装置120のモーションが取得され、センサ情報112においてレポートされるように、画像キャプチャ装置120に取り付けられる。一部の実施態様においては、第1のIMUセンサ110を画像キャプチャ装置120に取付、第2のIMUセンサ110をオブジェクトに取り付けてもよい。さらに別のIMUセンサ110は、さらに別のオブジェクトおよび/または別の画像キャプチャ装置120等に取り付けられてもよい。
一部の実施態様において、コンピュータ装置130は、センサ情報112および/または動画112をデータベースに格納し、後でコンピュータ装置140に提供できるようにしてもよい。コンピュータ装置130は、センサ情報112および/または動画122をコンピュータ装置140に提供することができる。センサ情報112および動画122が提供されると、センサ情報112は、データを受け入れるための従来の動画フォーマットを用いて動画112に埋め込まれる。または、コンピュータ装置130は、センサ情報112と動画122を個別に提供することもできる。一部の実施態様において、センサ情報112および/または動画122は、一又は複数の読み取り可能な媒体132の形態でコンピュータ装置140に提供される。この媒体は、コンピュータ装置130および/またはそれ以外の装置により生成できる。
一部の実施態様において、コンピュータ装置140は、一又は複数のコンピュータプログラムモジュールでプログラムされる一又は複数のプロセッサ142を備える。当該モジュールは、一又は複数の不揮発性ストレージメディア144に格納されてもよい。コンピュータ装置140は、動画122への画像処理を行い、並びに/または、センサ情報112を組み込んで動画122への画像処理および/もしくはセンサ情報112の使用に基づいて触覚フィードバックを発生させる一又は複数の制御信号を生成できるように、当該モジュールによってプログラムされ得る。
このモジュールには、画像処理モジュール150、センサ処理モジュール152、画像ベースモーション推定モジュール154、センサベースモーション推定モジュール156、データ融合モジュール158、設定管理モジュール160、制御信号生成モジュール162、コーディネーションモジュール164、および/または前記以外のモジュールが含まれる。
一部の実施態様において、画像処理モジュール150は、動画122に対する動画コンテンツ分析を実行するように構成される。動画122がコンピュータ装置130からストリーミングされるか、ダウンロードされ再生用にローカルに保存されるか、メディア132から読み出されるか、および/または、他の方法により取得されるかによらず、画像処理モジュール150は、動画122をメモリバッファし、関連する一又は複数のイベントを検出するために、当該動画の一又は複数の画像を処理する。異なる種類の関連するイベントを様々な方法で検出することができる。
一実施態様において、画像処理モジュール150は、一の画像フレームに関して他の画像フレームに対する当該物体のオプティカル・フローを決定することにより、所定のシーンにおいて静的なオブジェクトに対するモーションを検出することができる。このような処理は、動画122を生成するために用いられる画像キャプチャ装置が動いていたことを示す。画像処理モジュール150は、画像処理に基づいてモーションの速度を決定することができ、速度が決定されると、触覚フィードバックを発生させる制御信号の生成が開始される。画像処理モジュール150は、当業者に容易に理解できる、従来のオプティカル・フロー演算を実行することができる。
一部の実施態様において、画像ベースモーション推定モジュール154は、動画122を用いた画像処理に基づいて、シーンに現れるオブジェクトのモーションのスピード(speed)、加速度、および/または速度(velocity)を決定することができる。2以上の動画122を用いた実装においては、並列動画フィードを用いて、シーンの立体視やそれ以外の2以上の異なるパースペクティブを得ることができる。これによって、より少ない数の動画フィードを用いる場合と比べてモーション推定の精度を高めることができる。このような物体のモーションのスピード、加速度、および/または速度は、制御信号の生成を開始させる検出イベントに含まれる。
一部の実施態様において、画像処理モジュール150は、体のパーツ(例えば、顔、手など)のデータベースとの比較に基づいて、新しい体のパーツが所定のシーンにエントリーしたことを検出することができる。新しい体のパーツのエントリーは、当該シーンに新しいキャラクタが入ってきたことを示すことができ、これにより、触覚フィードバックを生成する制御信号の生成を開始することができる。
一部の実施態様において、画像処理モジュール150は、所定のシーンと次のシーンとでの、色の分布や構成の変化を検出することができる(一又は複数の画像フレームに反映される)。例えば、画像処理モジュール150は、異なるフレーム例えば連続する複数のフレームについてHSV(Hue Saturation Value)カラー・ヒストグラムを決定し、そのHSVカラー・ヒストグラムがあるフレームと別のフレームとで変化しているか決定することができる。HSVカラー・ヒストグラムが変化している場合には、画像処理モジュール150は、新しいオブジェクトまたはそれ以外の変化が当該シーンにおいて発生したと決定することができる。
一部の実装態様において、画像処理モジュール150は、明から暗へおよびその逆の変化を検出することができ、これにより、シーンの環境の変化を示すことができる場合がある。この検出により、触覚フィードバックを発生させる制御信号の生成を開始することができる。一部の実装態様において、シーンの環境の変化は、当該環境の変化に基づいて調整される触覚フィードバックを発生させることができる。
一部の実装態様において、画像処理モジュール150は、従来の画像処理技術やムード検出技術に基づいて、所定のシーンにおいてアクターのムードや感情を検出することができる。これにより、触覚フィードバックを発生させる制御信号の生成を開始することができる。
一部の実装態様において、画像処理モジュール150は、発砲、爆発、および/または画像に於いて特定のパターンの色を発生させる前記以外の出来事を検出することができる。これにより、触覚フィードバックを発生させる制御信号の生成を開始することができる。一部の実装態様において、画像処理モジュール150は、スクリーンにおける特定の人物やオブジェクトを検出することができる。例えば、ユーザは、特定のオブジェクトや人物が所定のシーンに入ってきたときに触覚フィードバックが提供されることを指定することができる。
画像処理モジュール150は、画像フレームを処理する際に、上述のイベント検出および/または上記以外のイベント検出の全部または一部を実行することができる。制御信号生成モジュール162は、検出されたイベントに応答して、触覚フィードバックを生成するための一又は複数の制御信号を生成することができる。複数の制御信号によって、検出されたイベントに応じて異なる触覚効果を生成することができる(例えば、より速く動く画像キャプチャ装置やオブジェクトによって、より遅く動く画像キャプチャ装置やオブジェクトよりも大きな振幅またはそれ以外の特性を有する触覚フィードバックを発生させることができる)。また、画像処理モジュール150は、異なる種類の検出イベントおよび/または検出イベントの異なる組み合わせのために異なる制御信号(異なる触覚フィードバックを発生させる)を生成することができる。
一部の実施態様において、センサ処理モジュール152は、センサ情報112に基づいてセンサベースイベントを検出するように構成される。例えば、センサベースイベントは、オブジェクト、人物、画像キャプチャ装置120、および/または動画122に関連する前記以外のモーションの特定のモーションを含む。一部の実施態様において、センサベースモーション推定モジュール156は、センサ情報112の処理に基づいて、スピード、加速度、速度、および/または前記以外のモーションの特性を検出するように構成される。センサベースイベントによって、触覚フィードバックを提供するための制御信号が生成される。前記触覚効果は、当該センサベースイベントに基づいて変化してもよい。具体例として、オブジェクトのモーションが検出されると、触覚フィードバックを発生させるための制御信号が生成される。かかる触覚フィードバックは、検出されたモーションのレベルに基づいて変化してもよい。
一部の実施態様において、単一の装置がセンサ情報および動画の生成のために用いられたか否かに基づいて、センサ処理モジュール152は、センサ情報112を動画122と同期させることができる(例えば、センサおよび画像キャプチャ装置を両方とも備えるモバイル装置等の装置を用いることにより動画のキャプチャとセンサ情報の収集が両方とも行われる)。動画およびセンサ情報をキャプチャするために単一の装置が用いられた場合には、その動画とセンサ情報は、典型的には、当該単一の装置によって同期される。他方、当該単一の装置がセンサ情報と動画とを同期させない場合には、センサ処理モジュール152が一般的な時刻基準として用いられるタイムスタンプ(例えば、GPS時刻)および/または本明細書で説明されるイベント検出に基づいて当該2つの情報を同期させることができる。
一部の実施態様において、データ融合モジュール158は、物体の加速度の推定を向上させるために、画像処理モジュール150、センサ処理モジュール152、画像ベースモーション推定モジュール154、および/またはセンサベースモーション推定モジュール156からの情報を組み合わせるように構成され、これにより、当該加速度の推定値に応じて提供される触覚フィードバックのクオリティを改善することができる。この点は、図2A〜図2Cを参照してさらに説明される。
一部の実装態様において、設定管理モジュール160は、特定のイベントの検出に応答して提供されるべき触覚フィードバックまたはそのレベルを示すユーザ選択またはそれ以外の入力を取得するように構成される。例えば、ユーザは、触覚効果を発生させるイベント(もしあれば)および/または触覚効果のレベルを特定または指定することができる。これにより、ユーザは、動画視聴と触覚フィードバックの生成をカスタマイズすることができる。
一部の実施態様において、制御信号生成モジュール162は、触覚フィードバックを発生させる一又は複数の制御信号を生成するように構成される。制御信号生成モジュール162は、画像処理モジュール150、センサ処理モジュール152、画像ベースモーション推定モジュール154、センサベースモーション推定モジュール156、データ融合モジュール158、および/または設定管理モジュール160によって検出されまたはこれらから出力される上記のイベントに応答して制御信号を生成することができる。一部の実装態様において、制御信号生成モジュール162は、制御信号に応答して触覚フィードバックを生成する一又は複数の触覚出力装置143の特定の設定(例えば、数、種類、場所等)に基づいて制御信号を生成することができる。これにより、コンピュータ装置140は、異なる種類のイベント、イベントの特性(例えば、所定のシーンに登場するオブジェクトの推定スピード)、および/またはユーザ選択/設定に基づいて、様々な種類の触覚フィードバックを促進することができる。
一部の実施態様において、コーディネーションモジュール164は、動画出力、制御信号出力、およびオーディオ出力を動画出力装置141は、タッチスクリーンディスプレイ、モニター、および/または動画出力を表示可能な前記以外のディスプレイを含む。一部の実装態様において、コーディネーションモジュール164は、動画122に埋め込まれた同期コードおよび/または動画出力、オーディオ出力、および触覚フィードバックの各々の出力時刻を設定するタイムスタンプに基づいて、動画出力、制御信号(例えば、当該制御信号によって発生する触覚フィードバック)、およびオーディオ出力を同期させる。
触覚出力装置143が含み得るアクチュエータは、例えば、偏心質量体がモータにより動かされる偏心回転質量体(「ERM」)などの電磁アクチュエータ、ばねに取り付けられた質量体が前後に駆動されるリニア共振アクチュエータ(「LRA」)、または圧電材料、電気活性ポリマー、もしくは形状記憶合金などの「スマートマテリアル」、マクロ複合繊維アクチュエータ、静電気アクチュエータ、電気触感アクチュエータ、および/または触覚(例えば、振動触知)フィードバックなどの物理的フィードバックを提供する他の種類のアクチュエータ、である。触覚出力装置143は、非機械的または非振動装置、例えば、静電摩擦(「ESF」)や超音波表面摩擦(「USF」)を用いる装置、超音波触覚トランスデューサを用いて音響放射圧力を生じさせる装置、触覚基板および可撓性もしくは変形可能な表面を用いる装置、またはエアジェットを用いた空気の吹きかけなどの発射型の触覚出力を提供する装置などを含んでもよい。
オーディオ出力装置145には、スピーカまたはオーディオを発生可能なそれ以外の装置が含まれる。一部の実装態様において、動画出力装置141、触覚出力装置143、および/またはオーディオ出力装置145は、コンピュータ装置140と一体に構成されてもよい。一部の実装態様において、動画出力装置141、触覚出力装置143、および/またはオーディオ出力装置145は、コンピュータ装置140とは別体に収容されてもよい。
一部の実装態様において、コンピュータ装置130は、コンピュータ相イット140に関連して説明したモジュールでプログラムされてもよい。このように、コンピュータ装置140に関連して説明された昨日の一部または全部はコンピュータ装置130において実行されてもよい。例えば、コンピュータ装置130は、自らが生成しする画像および/またはそれ以外の方法で提供する動画への画像処理を、提供される動画が当該動画と同期された制御信号で改善されるように実行することができる。これにより、動画および制御信号を使用するユーザ装置は、当該動画を再生し、また、同期された触覚フィードバックを生成することができる。
不揮発性ストレージメディア144の電子ストレージメディアには、コンピュータ装置140と一体に(すなわち、実質的に着脱不能に)設けられたシステムストレージ、及び、例えばポート(例えばUSBポート、ファイヤーワイヤーポート等)やドライブ(例えばディスクドライブ等)を介してコンピュータ装置140と着脱可能に接続されたリムーバブルストレージの少なくとも一方が含まれる。不揮発性ストレージメディア144には、光学的に読み取り可能な記憶メディア(例えば光学ディスク等)、磁気的に読み取り可能な記憶メディア(例えば磁気テープ、磁気ハードドライブ、フロッピードライブ等)、電荷型ストレージメディア(例えばEEPROM、RAM等)、ソリッドステート・ストレージメディア(例えばフラッシュドライブ等)、及び/又は前記以外の電子的に読み取り可能なストレージメディアが含まれる。不揮発性ストレージメディア144には、一又は複数の仮想ストレージリソース(例えば、クラウドストレージ、仮想プライベートネットワーク、及び/又はこれら以外の仮想ストレージリソース)が含まれる。不揮発性ストレージメディア144は、ソフトウェアアルゴリズム、単数又は複数のプロセッサ142によって決定された情報、コンピュータ装置140から受信した情報、及び/又はコンピュータ装置140が本明細書で説明したように機能できるようにする前記以外の情報を記憶することができる。
単数又は複数のプロセッサ142は、コンピュータ装置140における情報処理能力を提供するように構成される。したがって、単数又は複数のプロセッサ142は、デジタルプロセッサ、アナログプロセッサ、情報処理用のデジタル回路、情報処理用のアナログ回路、ステートマシン、及び/又は電子的に情報を処理する前記以外のメカニズムの一又は複数を備えることができる。図1においては、単数又は複数のプロセッサ142は単一の要素として示されているが、これは説明の便宜上に過ぎない。一部の実装態様においては、プロセッサ142は複数のプロセッシングユニットを備えることができる。これらのプロセッシングユニットは物理的に同じ装置に配置されてもよいし、単数又は複数のプロセッサ142は、連携して動作する複数の装置の処理機能を表すことができる。単数又は複数のプロセッサ142は、モジュールを実行する際に、ソフトウェア、ハードウェア、ファームウェア、何らかの方法で組み合わされたソフトウェア、ハードウェア、及び/またはファームウェア、及び/または単数又は複数のプロセッサ142の処理能力を構成する他の機構を用いてもよい。
本明細書で説明されるモジュールは例示に過ぎない。説明した以外の構成や数のモジュールを用いることもできるし、一又は複数の物理的なプロセッサが本明細書の機能を実現するためにプログラムされる限りにおいては、モジュール化しないアプローチを取ることもできる。図1においてモジュール150、152、154、156、158、160、162、及び164は単一の処理装置内の同じ位置に配置されるものとして示されるが、プロセッサ142が複数の処理装置を含む実施形態においては、一又は複数のモジュールを他のモジュールとは分離して配置してもよい。以下の異なるモジュールによって提供される機能の記述は説明のためのものであり、限定を意図したものではない。モジュールはいずれも記述されるよりも多くの、または少ない機能を提供してもよい。例えば、当該モジュールのうちの一または複数を取り除き、その機能の一部またはすべてを、当該モジュールのうちの他のモジュールで提供してもよい。他の例として、以下でモジュールのうちの1つに帰せられる機能の一部またはすべてを実行する1または複数の追加的なモジュールを実行するように、プロセッサ142が構成されてもよい。
図1に示される構成要素は、ネットワーク等の様々な通信リンクを介して互いに通信可能に結合される。当該ネットワークには、有線接続又は無線接続が含まれる。本発明の一部の態様において、当該ネットワークは、例えば、インターネット、イントラネット、PAN(Personal Area Network)、LAN(Local Area Network)、WAN(Wide Area Network)、SAN(Storage Area Network)、MAN(Metropolitan Area Network)、無線ネットワーク、セルラー通信ネットワーク、公衆交換電話網、および/またはこれら以外のネットワークの一又は複数である。
様々な入力、出力、設定、および/または本明細書で記憶され(stored)又は記憶可能(storable)として説明される前記以外の情報は、一又は複数のデータベース(図1には示されていない)に記憶することができる。かかるデータベースは、例えば、オラクルコーポレーションによって市販されているオラクル(商標)リレーショナル・データベースであり、当該リレーショナル・データベースを含み、または当該リレーショナル・データベースと接続することができる。これ以外のデータベース、たとえば、Informix(商標)、DB2(Database 2)、又はこれら以外のデータストレージを使用し、組み込み、又はこれらにアクセスすることができる。このデータストレージには、ファイルベースのもの、クエリフォーマット、またはOLAP(On Line Analytical Processing)、SQL(On Line Analytical Processing)、SAN(Storage Area Network)、Microsoft Access(商標)又は前記以外のリソースが含まれる。このデータベースは、一又は複数の物理的な装置および一又は複数の物理的な場所に配置されるようなデータベースを含む。このデータベースは、複数の種類のデータおよび/もしくはファイル、並びに/または、関連するデータ記述もしくはファイル記述、管理情報、または前記以外の任意の情報を記憶することができる。
図2Aは、本発明の一態様に従って、静止している画像キャプチャ装置120によって撮影(film)されているオブジェクト202AにIMUセンサ110が結合されており、オブジェクト201の加速度の推定を改善するために当該オブジェクト202AのモーションがIMUセンサ110によって測定されているシナリオ200Aの例を示す。
画像キャプチャ装置は情報を組み立て、対象となるオブジェクト202Aについての基本的な情報が、従来のコンピュータ・ビジョン・アプローチを用いて固定された画像キャプチャ装置の基準(referential)において、その3次元のモーションおよび位置を推定するために用いられる。オブジェクト202Aに取り付けられたIMUセンサ110は、慣性データ推定(inertial data estimation)を提供する。この慣性データ推定は、画像キャプチャ装置120によって提供されるデータを用いることによって、より正確なものとなる。
触覚フィードバックを提供する基礎として用いられるオブジェクト202Aは、事前にユーザによって選択され得る。画像ベースモーション推定モジュール154は、従来のテンプレート照合法(例えば、オプティカルフロー、HOG(Histogram of Oriented Gradients)、3D姿勢推定等)を用いることにより、2以上の連続する画像においてオブジェクト202Aを検出することにより(その特徴または特徴点の一部を前提とする)、オブジェクト202Aの加速度を決定することができる。一部の実装態様において、データ融合モジュール158は、イメージベースモーション推定モジュール154によって推定されたモーションをセンサベースモーション推定モジュール156によって推定されたモーションと組み合わせることにより、オブジェクト202Aのモーションを決定することができる。
図2Bは、本発明の一態様に従って、オブジェクト202Bおよび画像キャプチャ装置120にIMUセンサ110が結合されており、オブジェクト202Bの加速度の推定を改善するために当該オブジェクト202BのモーションがIMUセンサ110によって測定されているシナリオ200Bの例を示す。
イメージベースモーション推定モジュール154は、コンピュータ・ビジョン・アルゴリズムを適用し、シーンにおける視覚固定不変特性(visual fix invariant features)を用いて、連続するフレームから3Dカメラの姿勢(固定された基準(referential)における位置および向き)を推定することができる。カメラ姿勢の推定は、この例におけるオブジェクト姿勢の推定と等価である。推定されたデータは、データ融合モジュール158を用いて当該データをより正確なものとするために、オブジェクト202Bに取り付けられたIMUセンサ110によって提供されるデータと組み合わせされる。
触覚フィードバックが画像キャプチャ装置120のモーションと関連するものである場合には、当該画像キャプチャ装置の内部パラメータのみを用いてもよい。イメージベースモーション推定モジュール154は、シーンにおける幾つかの不変な静的特徴(例えば、Scale−Invariant Feature Transforms、Speeded Up Robust Featuresなど)についてオプティカルフローを決定することができる。画像キャプチャ装置120/オブジェクト202Bのモーションは、算出されるオプティカルフローを反転したものである。
図2Cは、本発明の一態様に従って、静止している画像キャプチャ装置120によって撮影(film)されているオブジェクト202CにIMUセンサ110が結合されており、オブジェクト202Cの加速度の推定を改善するために当該オブジェクト202CのモーションがIMUセンサ110によって測定されているシナリオ200Cの例を示す。一部の実装態様において、図2Cには示されていないが、IMUセンサ110は、画像キャプチャ装置120に結合し、その一又は複数のモーションの測定結果を提供することができる。
イメージベースモーション推定モジュール154は、コンピュータ・ビジョン・アルゴリズムを適用し、シーンにおける視覚固定不変特性(visual fix invariant features)を用いて、連続するフレームから3Dカメラの姿勢(固定された基準(referential)における位置および向き)を推定することができる。画像キャプチャ装置は情報を組み立て、オブジェクト202Cについての基本的な情報が、従来のコンピュータ・ビジョン・アプローチを用いて、固定された画像キャプチャ装置の基準(referential)において、その3次元のモーションおよび位置を推定するために用いられる。オブジェクトの位置およびモーションは、グローバル固定基準(global fixed referential)に変換され、データ融合モジュール158を持ち手IMU110からのセンサ情報と融合される。
画像キャプチャ装置の内部パラメータおよび触覚フィードバックが生成される動画フィード中のオブジェクト/人物の特徴を用いることができる。イメージベースモーション推定モジュール154は、シーンの不変な静的特徴(invariant stationary features)についてオプティカルフローを計算することにより、画像キャプチャ装置120のモーションを決定する。IMUセンサ110が画像キャプチャ装置120と結合している場合には、このモーションは、データ融合モジュール158を用いることで、より高い精度で推定可能となる。IMUセンサが装置120と結合している場合には、データ融合モジュール158を用いたテンプレート照合により、このモーションはより高い精度で推定可能となり、シーンにおけるオブジェクト202Cの相対的なモーションを推定することができる。両方の値を相互に比較することにより、固定基準(fix referential)におけるモーションが評価される。
図3は、本発明の一態様に従って、動画コンテンツの分析に基づいて触覚フィードバックを生成するように構成されたコンピュータ装置140の実装態様の例を示す。コンピュータ装置140Aは、動画出力装置141(例えばタッチスクリーンディスプレイ)、触覚出力装置143、およびオーディオ出力装置143を内蔵するスマートフォンモバイルデバイスとして構成されている。この実装態様において、コンピュータ装置140Aを用いることにより、当該モバイルデバイスを通じて触覚フィードバックを受けながら動画コンテンツを視聴することができる。一部の実装態様において、有線または無線の接続を介して外部触覚装置をコンピュータ装置140Aに結合することができる。
コンピュータ装置140Bは、触覚出力装置143およびオーディオ出力装置145を内蔵するラップトップコンピュータ等のポータブルコンピュータ装置として構成されている。この実装態様において、コンピュータ装置140Bを用いることにより、当該ポータブルコンピュータ装置を通じて触覚フィードバックを受けながら動画コンテンツを視聴することができる。一部の実装態様において、有線または無線の接続を介して外部触覚装置をコンピュータ装置140Bに結合することができる。
コンピュータ装置140Cは、デスクトップコンピュータ、ゲームコンソール等のスタンドアローン型のコンピュータ装置として構成されている。この実装態様において、コンピュータ装置140Cは、別体の動画出力装置141、別体のオーディオ出力装置145、および触覚出力装置143を収容できる別体のユーザ接触点302と接続されている。
図4は、本発明の一態様に従って、様々なユーザ接触点に組み込まれる触覚出力装置143の実装態様の例を示す。例えば、接触点302Aおよび302Bは、ウェアラブルグラスやウェアラブルガーメント等のウェアラブルデバイスとして構成される。他の種類のウェアラブルデバイスを用いることもできる。接触点302Cは、触覚出力装置143(図4では触覚出力装置143A、143B・・・143Cとして図示されている)を備える様々なユーザデバイスとして構成される。この接触点302Cには、スマートフォン、キーボード、マウス、ゲームコンソールおよび前記以外のユーザデバイス等のデバイスが含まれる。
図5は、本発明の一態様に従って、動画コンテンツの分析に基づいて触覚フィードバックを生成するプロセス500の例を示す。図5のフローチャートおよび他の図面に示された様々な処理工程が以下で詳細に説明される。説明される工程は、上述したシステム構成要素の一部または全部を使用して実現される。本発明の一態様に従って、様々な工程が異なるシーケンスで実行され得る。他の実装態様においては、図5および他の図面に示した工程の一部または全部とともに追加的な工程を実行することができ、一部の工程を省略することができる。さらに他の実装態様においては、一又は複数の工程が同時に実行され得る。また、図示された(また以下で詳細に説明する)工程は、本質的に例示に過ぎず、限定的なものと理解されるべきではない。
工程502において、一又は複数の画像フレームを有する動画が取得される。これには、キャプチャされたものおよび/または読み込まれたものが含まれる。工程504において、当該一又は複数の画像フレームに対して画像処理が実行される。工程506において、画像処理に基づくイベントが検出される。工程508において、当該検出されたイベントに基づいて制御信号が提供される。この制御信号により、触覚出力装置は触覚フィードバックを提供する。このように、触覚フィードバックは、動画について実行される画像処理に基づいて生成される。
図6は、本発明の一態様に従って、動画に現れるオブジェクトのモーションの一又は複数のモーションの測定結果を含むセンサ情報に基づいて触覚フィードバックを生成するプロセス600の一例を示す。
工程602において、動画および当該動画に関連付けられたセンサ情報が取得される。これには、キャプチャされたものおよび/または読み込まれたものが含まれる。このセンサ情報は、当該動画に関連してキャプチャされたモーションの一又は複数の測定結果が含まれる。このモーションには、オブジェクトのモーション、動画のキャプチャ中に移動する画像キャプチャ装置のモーション、および/または当該動画に関連して測定可能な前記以外のモーションが含まれる。
工程604において、当該センサ情報に基づいて制御信号が生成される。この制御信号は、触覚効果を発生させるように構成される。一部の実施態様において、この制御信号は、センサ情報および動画の画像処理の出力に基づくものであってもよい。
工程606において、この制御信号は、動画に関連してキャプチャされたモーションと同期して提供される。
本発明の他の態様、使用、および有利な効果は、明細書を考慮し、本明細書に記載された発明の実施を通じて、当業者に明らかなものとなる。本明細書は例示的なものに過ぎず、本発明の趣旨は以下の特許請求の範囲に基づいてのみ限定されることが意図されている。

Claims (24)

  1. コンピュータプログラムモジュールでプログラムされるプロセッサを備えるコンピュータ装置で実行される、動画画像処理に基づいて触覚フィードバックを提供するコンピュータ実行可能な方法であって、
    一又は複数の画像フレームを含む一又は複数の動画を読み込む工程と、
    当該一又は複数の画像フレームに画像処理を実行する工程と、
    当該画像処理に基づいてイベントを検出する工程と、
    検出されたイベントに基づいて、触覚出力を発生させるように構成された制御信号を提供する工程と、
    を備える方法。
  2. 前記イベントを検出する工程は、画像キャプチャ装置の動き、オブジェクトの外観、体の部分の外観、爆発、移動中のオブジェクト、特定の認識可能な画像の特徴、顔の表情、ジェスチャ、またはシーンのテーマを含む一又は複数の種類のイベントを検出する工程を含む、請求項1に記載のコンピュータ実行可能な方法。
  3. 検出されたときに制御信号が提供される少なくとも1種類のイベントを指定する一又は複数のユーザ選択を受信する工程をさらに備え、
    前記制御信号を提供することには、前記一又は複数のユーザ選択によって指定された前記少なくとも1種類のイベントが検出されたときに、前記制御信号を提供することが含まれる、
    請求項2に記載のコンピュータ実行可能な方法。
  4. 前記制御信号に基づいて触覚出力装置によって前記触覚フィードバックを生成する工程をさらに含む、請求項1に記載のコンピュータ実行可能な方法。
  5. 前記一又は複数の動画が前記触覚フィードバックと協調して表示されるようにする工程をさらに備える、請求項3に記載のコンピュータ実行可能な方法。
  6. 前記制御信号が前記一又は複数の動画に埋め込まれるように前記イベントをリアルタイムで検出する工程をさらに備える、請求項1に記載のコンピュータ実行可能な方法。
  7. 前記一又は複数の動画に前記制御信号を埋め込む工程と、前記一又は複数の動画を遠隔の装置に送信する工程と、をさらに備え、
    前記一又は複数の動画および前記触覚フィードバックは、前記遠隔の装置において提供される、
    請求項1に記載のコンピュータ実行可能な方法。
  8. 前記一又は複数の画像フレームに関連付けられたセンサ情報を取得する工程をさらに備え、前記制御信号は、さらに前記センサ情報に基づくものである、請求項1に記載のコンピュータ実行可能な方法。
  9. 前記一又は複数の画像フレームは前記一又は複数の画像フレームにキャプチャされたオブジェクトを含み、前記センサ情報は、前記オブジェクトのモーションの一又は複数のセンサ測定結果に関連する、請求項7に記載のコンピュータ実行可能な方法。
  10. 前記一又は複数の画像フレームに基づいて前記オブジェクトの前記モーションの第1推定値を生成し、前記一又は複数のセンサ情報の測定結果に基づいて前記オブジェクトの前記モーションの第2推定値を生成する工程と、
    前記オブジェクトの前記モーションの前記第1推定値を前記オブジェクトの前記モーションの前記第2推定値で更新し、または、前記オブジェクトの前記モーションの前記第2推定値を前記オブジェクトの前記モーションの前記第1推定値で更新する工程と、をさらに備える、
    請求項8に記載のコンピュータ実行可能な方法。
  11. 取得された前記センサ情報は、前記一又は複数の画像をキャプチャするために用いられる画像キャプチャ装置のモーションの一又は複数のセンサ測定結果に関するものである、請求項7に記載のコンピュータ実行可能な方法。
  12. 前記一又は複数の画像フレームに基づいて前記画像キャプチャ装置の前記モーションの第1推定値を生成し、前記一又は複数のセンサ情報の測定結果に基づいて前記画像キャプチャ装置の前記モーションの第2推定値を生成する工程と、
    前記画像キャプチャ装置の前記モーションの前記第1推定値を前記画像キャプチャ装置の前記モーションの前記第2推定値で更新し、または、前記画像キャプチャ装置の前記モーションの前記第2推定値を前記画像キャプチャ装置の前記モーションの前記第1推定値で更新する工程と、をさらに備える、
    請求項10に記載のコンピュータ実行可能な方法。
  13. 取得された前記センサ情報は、前記一又は複数の動画に出現するオブジェクトのモーションの一又は複数の第1センサ測定結果および前記一又は複数の動画をキャプチャするために用いられる画像キャプチャ装置のモーションの一又は複数の第2センサ測定結果を含む、請求項7に記載のコンピュータ実行可能な方法。
  14. 前記一又は複数の画像フレームおよび前記一又は複数の第1センサ測定結果に基づいて前記画像キャプチャ装置の前記モーションの推定値を生成する工程と、
    前記一又は複数の画像フレームおよび前記一又は複数の第2センサ測定結果に基づいて前記オブジェクトの前記モーションの推定値を生成する工程と、
    前記画像キャプチャ装置の前記モーションの前記推定値および前記オブジェクトの前記モーションの前記推定値に基づいて、前記オブジェクトの前記モーションの前記推定値を更新する工程と、
    をさらに備える、請求項12に記載のコンピュータ実行可能な方法。
  15. 前記一又は複数の画像フレームに関連付けられたセンサ情報を取得する工程と、
    前記センサ情報に基づいて第2の制御信号を提供する工程と、
    をさらに備える、請求項1に記載のコンピュータ実行可能な方法。
  16. コンピュータプログラムモジュールでプログラムされるプロセッサを備えるコンピュータ装置で実行される、動画と関連付けられたセンサ情報に基づいて触覚フィードバックを提供するコンピュータ実行可能な方法であって、
    前記一又は複数の動画に関連付けてキャプチャされたモーションの一又は複数の測定結果を含み、一又は複数の動画および当該一又は複数の動画に対応付けられたセンサ情報を読み取る工程と、
    前記センサ情報に基づいて、触覚出力を発生させるように構成された制御信号を提供する工程と、
    前記一又は複数の動画と関連付けてキャプチャされた前記モーションと同期させて前記制御信号を提供する工程と、
    を備える方法。
  17. 前記一又は複数の動画は、当該一又は複数の動画にキャプチャされたオブジェクトを含む一又は複数の画像フレームを有し、前記モーションは、前記オブジェクトのモーションを含む、請求項15に記載のコンピュータ実行可能な方法。
  18. 前記一又は複数の画像フレームに基づいて前記オブジェクトの前記モーションの第1推定値を生成し、前記一又は複数のセンサ情報の測定結果に基づいて前記オブジェクトの前記モーションの第2推定値を生成する工程と、
    前記オブジェクトの前記モーションの前記第1推定値を前記オブジェクトの前記モーションの前記第2推定値で更新し、または、前記オブジェクトの前記モーションの前記第2推定値を前記オブジェクトの前記モーションの前記第1推定値で更新する工程と、
    をさらに備える、請求項16に記載のコンピュータ実行可能な方法。
  19. 前記モーションは、前記一又は複数の動画をキャプチャするために用いられる画像キャプチャ装置のモーションを含む、請求項15に記載のコンピュータ実行可能な方法。
  20. 前記一又は複数の画像フレームに基づいて前記画像キャプチャ装置の前記モーションの第1推定値を生成し、前記一又は複数のセンサ情報の測定結果に基づいて前記画像キャプチャ装置の前記モーションの第2推定値を生成する工程と、
    前記画像キャプチャ装置の前記モーションの前記第1推定値を前記画像キャプチャ装置の前記モーションの前記第2推定値で更新し、または、前記画像キャプチャ装置の前記モーションの前記第2推定値を前記画像キャプチャ装置の前記モーションの前記第1推定値で更新する工程と、
    をさらに備える、請求項18に記載のコンピュータ実行可能な方法。
  21. 取得された前記センサ情報は、前記一又は複数の動画に出現するオブジェクトのモーションの一又は複数の第1センサ測定結果および前記一又は複数の動画をキャプチャするために用いられる画像キャプチャ装置のモーションの一又は複数の第2センサ測定結果を含む、請求項15に記載のコンピュータ実行可能な方法。
  22. 前記一又は複数の動画は、当該一又は複数の動画にキャプチャされたオブジェクトを含む一又は複数の画像フレームを有し、
    前記方法は、
    前記一又は複数の画像フレームおよび前記一又は複数の第1センサ測定結果に基づいて前記画像キャプチャ装置の前記モーションの推定値を生成する工程と、
    前記一又は複数の画像フレームおよび前記一又は複数の第2センサ測定結果に基づいて前記オブジェクトの前記モーションの推定値を生成する工程と、
    前記画像キャプチャ装置の前記モーションの前記推定値および前記オブジェクトの前記モーションの前記推定値に基づいて、前記オブジェクトの前記モーションの前記推定値を更新する工程と、
    をさらに備える、請求項20に記載のコンピュータ実行可能な方法。
  23. 動画画像処理に基づいて触覚フィードバックを提供するシステムであって、当該システムはプロセッサを備え、当該プロセッサは、
    一又は複数の画像フレームを含む一又は複数の動画を読み込み、
    当該一又は複数の画像フレームに画像処理を実行し、
    当該画像処理に基づいてイベントを検出し、
    検出された前記イベントに基づいて触覚出力を発生させるように構成された制御信号を提供する、
    ように構成される、システム。
  24. 動画画像処理に基づいて触覚フィードバックを提供するシステムであって、当該システムはプロセッサを備え、当該プロセッサは、
    前記一又は複数の動画に関連付けてキャプチャされたモーションの一又は複数の測定結果を含み、一又は複数の動画および当該一又は複数の動画に対応付けられたセンサ情報を読み取り、
    前記センサ情報に基づいて、触覚出力を発生させるように構成された制御信号を提供し、
    前記一又は複数の動画と関連付けてキャプチャされた前記モーションと同期させて前記制御信号を提供する、
    ように構成される、システム。
JP2014044872A 2013-03-15 2014-03-07 動画コンテンツの分析に基づいて触覚フィードバックを生成する方法及び装置 Expired - Fee Related JP6456593B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/843,092 US9064385B2 (en) 2013-03-15 2013-03-15 Method and apparatus to generate haptic feedback from video content analysis
US13/843,092 2013-03-15

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018206818A Division JP6559316B2 (ja) 2013-03-15 2018-11-01 動画コンテンツの分析に基づいて触覚フィードバックを生成する方法及び装置

Publications (3)

Publication Number Publication Date
JP2014194765A true JP2014194765A (ja) 2014-10-09
JP2014194765A5 JP2014194765A5 (ja) 2017-03-23
JP6456593B2 JP6456593B2 (ja) 2019-01-23

Family

ID=50478171

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014044872A Expired - Fee Related JP6456593B2 (ja) 2013-03-15 2014-03-07 動画コンテンツの分析に基づいて触覚フィードバックを生成する方法及び装置
JP2018206818A Active JP6559316B2 (ja) 2013-03-15 2018-11-01 動画コンテンツの分析に基づいて触覚フィードバックを生成する方法及び装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018206818A Active JP6559316B2 (ja) 2013-03-15 2018-11-01 動画コンテンツの分析に基づいて触覚フィードバックを生成する方法及び装置

Country Status (5)

Country Link
US (3) US9064385B2 (ja)
EP (2) EP2779675B1 (ja)
JP (2) JP6456593B2 (ja)
KR (1) KR20140113495A (ja)
CN (2) CN110536162A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018513430A (ja) * 2015-02-25 2018-05-24 イマージョン コーポレーションImmersion Corporation スローモーションのためのハプティック効果の修正
WO2020153194A1 (ja) * 2019-01-23 2020-07-30 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US11842502B2 (en) 2018-05-11 2023-12-12 Mitsubishi Electric Corporation Data synchronization device, data synchronization method, and computer readable medium

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014183559A (ja) * 2013-03-21 2014-09-29 Casio Comput Co Ltd 報知制御装置、報知制御方法及びプログラム
US10248206B2 (en) 2013-08-20 2019-04-02 Xsync Technologies Llc Systems and methods for multimedia tactile augmentation
US9703379B2 (en) 2013-08-20 2017-07-11 Xsync Technologies Llc Systems and methods for multimedia tactile augmentation
US9652945B2 (en) * 2013-09-06 2017-05-16 Immersion Corporation Method and system for providing haptic effects based on information complementary to multimedia content
US9576445B2 (en) 2013-09-06 2017-02-21 Immersion Corp. Systems and methods for generating haptic effects associated with an envelope in audio signals
WO2015033810A1 (ja) * 2013-09-06 2015-03-12 ソニー株式会社 撮像装置および方法、並びにプログラム
US9619980B2 (en) 2013-09-06 2017-04-11 Immersion Corporation Systems and methods for generating haptic effects associated with audio signals
US9426539B2 (en) * 2013-09-11 2016-08-23 Intel Corporation Integrated presentation of secondary content
US9112940B2 (en) * 2013-11-25 2015-08-18 VideoGorillas LLC Correlating sensor inputs with content stream intervals and selectively requesting and transmitting content streams
KR20170030510A (ko) 2014-07-07 2017-03-17 임머숀 코퍼레이션 제2 스크린 햅틱
US9879958B2 (en) 2014-09-19 2018-01-30 ARC Technology, LLC Haptic feedback spark device for simulator
US9719759B2 (en) * 2014-09-19 2017-08-01 ARC Technology, LLC Haptic feedback device for simulator
KR102254705B1 (ko) * 2014-09-19 2021-05-24 삼성전자주식회사 단말 장치 및 그 제어방법
US10166466B2 (en) 2014-12-11 2019-01-01 Elwha Llc Feedback for enhanced situational awareness
US10449445B2 (en) * 2014-12-11 2019-10-22 Elwha Llc Feedback for enhanced situational awareness
US9919208B2 (en) * 2014-12-11 2018-03-20 Immersion Corporation Video gameplay haptics
US9600076B2 (en) * 2014-12-19 2017-03-21 Immersion Corporation Systems and methods for object manipulation with haptic feedback
US9658693B2 (en) 2014-12-19 2017-05-23 Immersion Corporation Systems and methods for haptically-enabled interactions with objects
US10225442B2 (en) * 2015-02-16 2019-03-05 Mediatek Inc. Electronic device and method for sensing air quality
KR20160135552A (ko) * 2015-05-18 2016-11-28 삼성전자주식회사 가상 현실 장치 및 피드백 장치, 실감형 서비스 제공 시스템 및 방법
JP6641731B2 (ja) * 2015-06-05 2020-02-05 ソニー株式会社 送信装置及び送信方法、並びに受信装置及び受信方法
KR102414356B1 (ko) 2015-06-26 2022-06-29 삼성전자 주식회사 전자 장치 및 그의 햅틱 피드백 제공 방법
US9734866B2 (en) 2015-09-25 2017-08-15 Intel Corporation Perceptual computing input to determine post-production effects
WO2017053761A1 (en) * 2015-09-25 2017-03-30 Immersion Corporation Haptic effects design system
US20180046250A1 (en) * 2016-08-09 2018-02-15 Wipro Limited System and method for providing and modulating haptic feedback
US20180067335A1 (en) * 2016-09-07 2018-03-08 Google Inc. Optical image stabilization for folded optics camera modules
US10102723B2 (en) 2016-10-31 2018-10-16 Immersion Corporation Dynamic haptic generation based on detected video events
CN106534142B (zh) * 2016-11-22 2018-04-20 包磊 多媒体数据的实时传输方法及装置
CN106454365B (zh) * 2016-11-22 2018-07-10 包磊 多媒体数据的编码、解码方法及编码、解码装置
US10101813B2 (en) * 2016-12-14 2018-10-16 Immersion Corporation Automatic haptic generation based on color features and motion analysis
US10600290B2 (en) * 2016-12-14 2020-03-24 Immersion Corporation Automatic haptic generation based on visual odometry
US11337456B2 (en) * 2017-07-17 2022-05-24 Rai Strategic Holdings, Inc. Video analytics camera system for an aerosol delivery device
US10281983B2 (en) * 2017-09-20 2019-05-07 Alex Hamid Mani Haptic feedback device and method for providing haptic sensation based on video
US11726571B2 (en) 2017-09-20 2023-08-15 Niki Mani Assistive device for non-visually discerning a three-dimensional (3D) real-world area surrounding a user
US10503310B2 (en) 2017-09-20 2019-12-10 Alex Hamid Mani Assistive device for non-visually discerning a three-dimensional (3D) real-world area surrounding a user
US10275083B2 (en) 2017-09-20 2019-04-30 Alex Hamid Mani Assistive device with a refreshable haptic feedback interface
US11561619B2 (en) 2017-09-20 2023-01-24 Niki Mani Haptic feedback device and method for providing haptic sensation based on video
US11513627B2 (en) 2017-09-20 2022-11-29 Niki Mani Assistive device with a refreshable haptic feedback interface
NL2020023B1 (en) * 2017-12-05 2019-06-13 Feel Robotics B V Method and apparatus for adding a control signal for an auxiliary device to a sexually arousing video movie
CN108399642B (zh) * 2018-01-26 2021-07-27 上海深视信息科技有限公司 一种融合旋翼无人机imu数据的通用目标跟随方法和系统
US20200012347A1 (en) * 2018-07-09 2020-01-09 Immersion Corporation Systems and Methods for Providing Automatic Haptic Generation for Video Content
US11656683B2 (en) * 2018-08-10 2023-05-23 Sony Corporation Signal generation device, signal generation method, and reproduction device
US10638174B2 (en) * 2018-09-24 2020-04-28 Brian Sloan Synchronized video control system for sexual stimulation devices
US11185465B2 (en) * 2018-09-24 2021-11-30 Brian Sloan Automated generation of control signals for sexual stimulation devices
US11197074B2 (en) * 2018-09-24 2021-12-07 Brian Sloan Synchronized video annotation and control system for sexual stimulation devices
CN113841107A (zh) * 2019-04-26 2021-12-24 惠普发展公司,有限责任合伙企业 空间音频和触觉
WO2020258319A1 (zh) * 2019-06-28 2020-12-30 瑞声声学科技(深圳)有限公司 触感信号生成方法、装置和计算机设备
AU2020417826A1 (en) 2019-12-31 2022-06-16 Human Mode, LLC Proxy controller suit with optional dual range kinematics
CN111610856B (zh) * 2020-04-30 2024-04-26 北京小米移动软件有限公司 震动反馈方法、震动反馈装置及存储介质
US11755643B2 (en) 2020-07-06 2023-09-12 Microsoft Technology Licensing, Llc Metadata generation for video indexing
JP6839783B1 (ja) * 2020-09-29 2021-03-10 Dmg森精機株式会社 回転速度判定装置
CN114694545B (zh) * 2020-12-30 2023-11-24 成都极米科技股份有限公司 图像显示方法、装置、投影仪及存储介质
CN113436261B (zh) * 2021-06-24 2022-04-29 湖南大学 一种面向封闭园区自动驾驶的单目视觉惯性定位方法
KR102505225B1 (ko) * 2021-10-22 2023-03-02 (주)인티그리트 시각화된 가상 안내 정보를 제공하는 자율주행장치 및 이의 동작방법
CN115758107B (zh) * 2022-10-28 2023-11-14 中国电信股份有限公司 触觉信号传输方法及装置、存储介质及电子设备
WO2024101688A1 (ko) * 2022-11-10 2024-05-16 삼성전자주식회사 미디어 콘텐트로부터 햅틱 정보를 획득하기 위한 전자 장치 및 그 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099177A (ja) * 2001-09-21 2003-04-04 Fuji Xerox Co Ltd 触覚情報作成方法、触覚情報提示方法および触覚情報提示装置
JP2011501575A (ja) * 2007-10-16 2011-01-06 イマージョン コーポレイション 媒体トランスポートストリームにおける触覚効果データの同期化
WO2011007289A2 (en) * 2009-07-17 2011-01-20 Koninklijke Philips Electronics N.V. A method and a system for a generation of an excitation effect
JP2013500544A (ja) * 2009-07-24 2013-01-07 ディジマーク コーポレイション 改善された音声/映像の方法及びシステム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003009177A (ja) * 2001-06-21 2003-01-10 For-A Co Ltd 画像合成システム
JP4078365B2 (ja) * 2005-07-13 2008-04-23 キヤノン株式会社 画像処理装置およびその制御方法
US8700791B2 (en) * 2005-10-19 2014-04-15 Immersion Corporation Synchronization of haptic effect data in a media transport stream
CN104063056B (zh) * 2006-04-06 2018-04-20 意美森公司 用于增强的触觉效果的系统和方法
US7979146B2 (en) * 2006-04-13 2011-07-12 Immersion Corporation System and method for automatically producing haptic events from a digital audio signal
US20090189748A1 (en) * 2006-08-24 2009-07-30 Koninklijke Philips Electronics N.V. Device for and method of processing an audio signal and/or a video signal to generate haptic excitation
KR20080048308A (ko) * 2006-11-28 2008-06-02 삼성전자주식회사 기본 장치와 확장 장치의 연동 장치 및 방법
US9170649B2 (en) * 2007-12-28 2015-10-27 Nokia Technologies Oy Audio and tactile feedback based on visual environment
US8300117B2 (en) * 2008-03-28 2012-10-30 Fuji Xerox Co., Ltd. System and method for exposing video-taking heuristics at point of capture
US9400555B2 (en) * 2008-10-10 2016-07-26 Internet Services, Llc System and method for synchronization of haptic data and media data
CN102227694A (zh) * 2008-10-10 2011-10-26 因特网服务有限责任公司 供触觉编码的媒体使用的触觉输出装置
ES2364999B1 (es) * 2009-09-07 2012-08-07 Juan Zarza Goyenechea Dispositivo publicitario y probador de visionado con perspectiva.
JP2013047878A (ja) * 2011-08-29 2013-03-07 Toshiba Corp 道路状況把握装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099177A (ja) * 2001-09-21 2003-04-04 Fuji Xerox Co Ltd 触覚情報作成方法、触覚情報提示方法および触覚情報提示装置
JP2011501575A (ja) * 2007-10-16 2011-01-06 イマージョン コーポレイション 媒体トランスポートストリームにおける触覚効果データの同期化
WO2011007289A2 (en) * 2009-07-17 2011-01-20 Koninklijke Philips Electronics N.V. A method and a system for a generation of an excitation effect
JP2013500544A (ja) * 2009-07-24 2013-01-07 ディジマーク コーポレイション 改善された音声/映像の方法及びシステム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018513430A (ja) * 2015-02-25 2018-05-24 イマージョン コーポレーションImmersion Corporation スローモーションのためのハプティック効果の修正
US11842502B2 (en) 2018-05-11 2023-12-12 Mitsubishi Electric Corporation Data synchronization device, data synchronization method, and computer readable medium
WO2020153194A1 (ja) * 2019-01-23 2020-07-30 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP7480710B2 (ja) 2019-01-23 2024-05-10 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JP6456593B2 (ja) 2019-01-23
EP2779675B1 (en) 2019-07-10
EP3570553B1 (en) 2021-05-19
US20150262376A1 (en) 2015-09-17
US9911196B2 (en) 2018-03-06
EP2779675A3 (en) 2015-03-04
EP3570553A1 (en) 2019-11-20
US20140267904A1 (en) 2014-09-18
KR20140113495A (ko) 2014-09-24
US9064385B2 (en) 2015-06-23
US10482608B2 (en) 2019-11-19
EP2779675A2 (en) 2014-09-17
US20180144480A1 (en) 2018-05-24
JP6559316B2 (ja) 2019-08-14
JP2019036351A (ja) 2019-03-07
CN110536162A (zh) 2019-12-03
CN104049749B (zh) 2019-09-20
CN104049749A (zh) 2014-09-17

Similar Documents

Publication Publication Date Title
JP6559316B2 (ja) 動画コンテンツの分析に基づいて触覚フィードバックを生成する方法及び装置
CN112738408B (zh) 图像修改器的选择性识别和排序
US10488195B2 (en) Curated photogrammetry
US9336602B1 (en) Estimating features of occluded objects
CN109154862B (zh) 用于处理虚拟现实内容的装置、方法和计算机可读介质
US20160227868A1 (en) Removable face shield for augmented reality device
US20190155465A1 (en) Augmented media
US11836847B2 (en) Systems and methods for creating and displaying interactive 3D representations of real objects
JP7293362B2 (ja) 撮影方法、装置、電子機器及び記憶媒体
JP2014170367A (ja) 物体検出装置、物体検出方法、物体検出システム及びプログラム
US20230386202A1 (en) Creation and usage of multidimensional reality capture
JP2019045211A (ja) 情報処理装置、情報処理方法及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170210

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180112

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181101

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20181108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181219

R150 Certificate of patent or registration of utility model

Ref document number: 6456593

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D04

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees