JP2015219917A - 触覚設計オーサリングツール - Google Patents

触覚設計オーサリングツール Download PDF

Info

Publication number
JP2015219917A
JP2015219917A JP2015098815A JP2015098815A JP2015219917A JP 2015219917 A JP2015219917 A JP 2015219917A JP 2015098815 A JP2015098815 A JP 2015098815A JP 2015098815 A JP2015098815 A JP 2015098815A JP 2015219917 A JP2015219917 A JP 2015219917A
Authority
JP
Japan
Prior art keywords
event
haptic effect
multimedia
authored
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015098815A
Other languages
English (en)
Other versions
JP6544991B2 (ja
Inventor
ジャマル サボウン
Saboune Jamal
ジャマル サボウン
ユアン マヌエル クルス−エルナンデス
Manuel Cruz-Hernandez Juan
ユアン マヌエル クルス−エルナンデス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2015219917A publication Critical patent/JP2015219917A/ja
Application granted granted Critical
Publication of JP6544991B2 publication Critical patent/JP6544991B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B6/00Tactile signalling systems, e.g. personal calling systems

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Stored Programmes (AREA)

Abstract

【課題】1以上の触覚効果を推奨するオーサリングツールを提供する。【解決手段】1以上の触覚効果を推奨する触覚オーサリングツールが提供され、人間の触覚設計者のスタイルを学習することによって生成される触覚化モデルを提供する。触覚オーサリングツールは、音声及び映像のうち1以上と、複数のイベントと、を含む入力を受信する。触覚オーサリングツールは続いて、前記入力内の対応するイベントに関連付けるための一の種類の触覚効果を、学習された触覚化モデルに基づいて推奨する。【選択図】図1

Description

一の実施形態は、概してシステムに関し、特に、触覚設計を推奨するシステムに関する。
ハプティクス(haptics)は、触覚及び力フィードバックの技術であり、力、振動、及び動きといった触覚フィードバック効果(「触覚効果」)をユーザーに適用する事によってユーザーの触覚を利用する。モバイル装置、タッチスクリーン装置、及びパーソナルコンピュータ等の装置は、触覚効果を生成するように構成することが可能である。通常、触覚効果を生成可能な埋め込みハードウェア(アクチュエータ等)への呼び出しは装置のオペレーティングシステム(OS)内でプログラム可能である。これらの呼び出しはどの触覚効果を再生するかを指定する。例えば、ユーザーが例えばボタン、タッチスクリーン、レバー、ジョイスティック、ホイール、又はその他の制御を用いて装置とインタラクトする際、装置のOSは制御回路を通じて埋め込みハードウェアへ再生コマンドを送信できる。埋め込みハードウェアはその後、適切な触覚効果を生起する。
触覚効果がその他のコンテンツと一体化するように、装置は、触覚効果の出力をその他のコンテンツ、例えば音声、の出力に連動させるよう構成されてよい。例えば、音声効果の開発者は、マシンガンの発射、爆発、自動車の衝突等、装置によって出力できる音声効果を開発してよい。更に、映像効果等のその他の種類のコンテンツが開発され、引き続き、該装置によって出力されてよい。触覚効果の開発者は、引き続き、該装置用の触覚操作をオーサリングしてよく、該装置は、その他のコンテンツと共に該触覚操作を出力するよう構成されてよい。
しかしながら、このような手順は一般的に、音声効果やその他の種類のコンテンツに調和する触覚効果をオーサリングするために、触覚効果の開発者による手動入力を必要とする。このような手動の手順は煩雑であり長い時間がかかる。
一の実施形態は、1以上の触覚効果を推奨するシステムである。システムは、人間の触覚設計者のスタイルを学習することによって生成される触覚化モデルを提供する。システムは、音声及び映像のうち1以上と、複数のイベントと、を含む入力を受信する。システムは続いて、前記入力内の対応するイベントに関連付けるための一の種類の触覚効果を、前記学習された触覚化モデルに基づいて推奨する。
添付の図面と併せて参照される以下の好適な実施形態の詳細な説明から、更なる実施形態、詳細、利点、及び変形が明らかになるだろう。
本発明の一の実施形態に係るシステムのブロック図である。 本発明の一の実施形態に係る触覚設計システムのブロック図である。 本発明の一の実施形態に係る触覚設計モジュールのフロー図である。 本発明の一の実施形態に係る高レベルな意味論記述子を用いるベイジアンネットワークを示す図である。 本発明の一の実施形態に係る低レベルの記述子を用いるベイジアンネットワークを示す図である。
一の実施形態は、触覚効果の開発者による先行する触覚設計に基づいて触覚化モデルを学習し、学習された触覚化モデルを用いてマルチメディアクリップ等の新規のコンテンツ用の新規の触覚設計を推奨するシステムである。
図1は、本発明の一の実施形態に係るシステム10のブロック図である。一の実施形態において、システム10は、触覚オーサリング装置(haptic authoring device)の一部であり、システム10は、触覚オーサリング装置のための触覚設計機能を提供する。単一のシステムとして図示されてはいるが、システム10の機能は、分散システムとして実装可能である。システム10は、情報通信用のバス12又はその他の通信機構と、バス12に連結される情報処理用のプロセッサ22とを含む。プロセッサ22は、任意の種類の汎用又は特定用途プロセッサであり得る。システム10は、情報及びプロセッサ22によって実行される命令を格納するためのメモリ14を更に含む。メモリ14は、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、磁気又は光学ディスク等の静的記憶装置、又はその他任意の種類のコンピュータ読み取り可能媒体の任意の組み合わせで構成されてよい。
コンピュータ読み取り可能媒体は、プロセッサ22によってアクセス可能な任意の利用可能な媒体であり得て、揮発性媒体と不揮発性媒体の両方、リムーバブル媒体と非リムーバブル媒体、通信媒体、及び記憶媒体を含み得る。通信媒体はコンピュータ読み取り可能命令、データ構造、プログラムモジュール、又は、搬送波やその他の搬送機構等の変調されたデータ信号内のその他のデータを含み得て、更に、公知のその他任意の形式の情報伝達媒体を含み得る。記憶媒体には、が含まれ得る。RAM、フラッシュメモリ、ROM、消去可能プログラマブルリードオンリーメモリ(EPROM)、電気的消去可能リードオンリーメモリ(EEPROM)、レジスタ、ハードディスク、リムーバブルディスク、コンパクトディスクリードオンリーメモリ(CD−ROM)、又は公知のその他任意の形式の記憶媒体を含み得る。
一の実施形態において、メモリ14は、プロセッサ22によって実行された際に機能を提供するソフトウェアモジュールを格納する。モジュールは、システム10にオペレーティングシステム機能を提供するオペレーティングシステム15と、一の実施形態における触覚オーサリング装置の残りの部分を含む。モジュールは、以下に詳述するとおり、入力を受けて触覚設計を推奨する触覚設計モジュール16を更に含む。特定の実施形態において、触覚設計モジュール16は、各々が、触覚設計を推奨又は生成するための個別の特定の機能を提供する複数のモジュールを含んでよい。システム10は典型的に、追加の機能を含めるために、Immersion Corporation製のHaptic Studio(商標)ソフトウェアのような1以上の追加のアプリケーションモジュール18を含むだろう。
リモートのソースからデータを送受信する実施形態において、システム10は、赤外線、無線、Wi−Fi、又は携帯ネットワーク通信のようなモバイルワイヤレスネットワーク通信を提供するために、ネットワークインターフェイスカードのような通信装置20を更に含む。他の実施形態において、通信装置20は、イーサネット(登録商標)接続又はモデム等の有線ネットワーク接続を提供する。
プロセッサ22は、グラフィック描写又はユーザーインターフェイスをユーザーに向けて表示するために、バス12を経由して液晶ディスプレイ(LCD)等のディスプレイ24に更に連結される。ディスプレイ24は、プロセッサ22との間で信号を送受信するよう構成される、タッチスクリーン等のタッチ式の入力装置であり得て、また、マルチタッチタッチスクリーンであり得る。
一の実施形態において、システム10はアクチュエータ26を更に含む。アクチュエータ26は、触覚効果が当該システム上で生成される実施形態において用いられる。そうでない場合、アクチュエータ26は別の装置の一部であってよい。プロセッサ22は、生成された触覚効果に関連付けられた触覚信号をアクチュエータ26に送信し得て、アクチュエータ26は、振動触知(vibrotactile)触覚効果、静電摩擦触覚効果、又は変形触覚効果等の触覚効果を出力する。アクチュエータ26はアクチュエータ駆動回路を含む。アクチュエータ26はまた、例えば電気モータ、電磁アクチュエータ、ボイスコイル、形状記憶合金、電気活性ポリマー、ソレノイド、偏心回転質量モータ(ERM)、リニア共振アクチュエータ(LRA)、圧電アクチュエータ、広帯域アクチュエータ、電気活性ポリマー(EAP)アクチュエータ、静電摩擦ディスプレイ、又は超音波振動発生器であり得る。代替的な実施形態において、システム10は、アクチュエータ26に加えて、1以上の追加のアクチュエータを含んでよい(図1には図示せず)。アクチュエータ26は、駆動信号を受けて、振動触知触覚効果、静電摩擦触覚効果、又は変形触覚効果等の触覚効果を出力するように構成される触覚出力装置の一例である。代替的な実施形態において、アクチュエータ26はいくつかのその他の主対の触覚出力装置によって置換可能である。更に、別の代替的な実施形態において、システム10は、アクチュエータ26を含まなくてもよく、システム10とは別の装置がアクチュエータ、又は、触覚効果を生成するその他の触覚出力装置を含み、システム10は生成された触覚信号を、通信装置20を経由してその装置へ送信する。
一の実施形態において、システム10は、スピーカー28を更に含む。スピーカー28は、音声が当該システム上で生成される実施形態において用いられる。そうでない場合、スピーカー28は別の装置の一部であってよい。プロセッサ22は、音声信号をスピーカー28に送信し得て、スピーカー28は音声効果を出力する。スピーカー28は、例えば、ダイナミックスピーカー、動電型スピーカー、圧電スピーカー、磁歪スピーカー、静電スピーカー、リボン及び平面磁気スピーカー、屈曲波スピーカー、フラットパネルスピーカー、ハイルエアモーショントランスデューサー、プラズマアークスピーカー、及びデジタルスピーカーであり得る。代替的な実施形態において、システム10は、スピーカー28に加えて、1以上の追加のスピーカーを含んでよい(図1には図示せず)。更に、別の代替的な実施形態において、システム10は、スピーカー28を含まなくてもよく、システム10とは別の装置が音声効果を出力するスピーカーを含み、システム10は、音声信号を、通信装置20を経由してその装置へ送信する。
一の実施形態において、システム10は、データベース30を更に含む。データベース30は、触覚設計モジュール16の格納を提供し、触覚設計データ等を格納するよう構成されてよい。
図2は、本発明の一の実施形態に係る触覚設計システム200のブロック図である。触覚設計システム200は、触覚オーサリングシステム210、データベース220、及び触覚設計推奨部230を含む。触覚設計推奨部230は、図1の触覚設計モジュール16を用いて実装されてよい。
操作時に、設計者はまず触覚オーサリングシステム210を操作して、例えば触覚オーサリングシステム210上で実行される触覚設計ソフトウェアを用いて、マルチメディアクリップ内のイベント(例えば、動画内の1シーン、又は音声の一部)用の触覚効果を手動でオーサリング(manually author)してよい。対応するマルチメディアイベントの、手動でオーサリングされた触覚効果及び特性を表すPCM信号及び/又はタグは、データベース220に格納、及び/又は触覚設計推奨部230に直接転送されてよい。以下に詳述するとおり、一部の実施形態において、データベース220は、提案/推奨された効果を生成するために用いることができる触覚化モデルを構築するために用いられてよい。触覚設計推奨部230は、効果の特徴(例えば、期間、振幅、波形(shape)、及び周波数等)を検出でき、図3に後述される機能に従って、触覚効果を、マルチメディアクリップ内で同じタイミングで発生する対応するイベント(すなわち、触覚化の対象となるイベント)の特性に関連付けることができる。一般的に、特定の触覚効果を定義する高レベルのパラメータとしては、強度、周波数、及び期間が含まれる。特定の触覚効果を決定するために、ストリーミングモータコマンド(streaming motor command)のような低レベルのパラメータも使用可能である。触覚効果が生成される際にこれらのパラメータのいくつかの変化が含まれる場合、もしくはユーザーのインタラクションに基づいたこれらのパラメータの1つの変化が含まれる場合、触覚効果は「動的」であると見なされ得る。
一部の実施形態において、マルチメディアイベントの特性には、音声特性又は/及び映像特性が含まれてよい。これらの特性は、イベントの動態(dynamics of the event)(例えば、イベントと、クリップ内におけるその前後の部分との間の移行)をキャプチャすることも可能である。音声特性は、スペクトル的(例えば、周波数成分、メル周波数ケプストラム係数(MELFCC)、周波数帯ごとの力等)及び時間的(例えば、波形、振幅、タイミング)であってよい。映像特性は、例えば、色のヒストグラム、オプティカルフロー(例えばシーン内のオブジェクトの動きの推定)、特定の色パターンの存在、等を含んでよい。システム200はシーンの動態(dynamics of the scene)(例えば、イベントそのものだけでなく)をキャプチャすることも可能である。例えば、システム200は、イベントに対する音の振幅が増大又は減衰している場合や、イベント又はシーン中に色のヒストグラムがどのように変化したか等をキャプチャ可能である。
一部の実施形態において、触覚設計推奨部230は分類及びクラスタリングの技術(例えば隠れマルコフモデル(HMM)、混合ガウスモデル(GMM)、K平均法、K近傍法(KNN)、ベイジアンネットワーク等)を用いて効果の種類とイベントの種類とを関連付ける。このような実施形態において、新規のマルチメディアクリップをオーサリングする際、触覚設計推奨部230は、すでに学習したものと同様のイベントを検出すると、新規コンテンツの特性を分析し、効果を提案/推奨できる。
一部の実施形態において、触覚設計推奨部230は、触覚オーサリングシステム210上で実行中の触覚設計ソフトウェアにおけるバックグラウンドプロセスのように、リアルタイムで動作可能である。一部の実施形態において、触覚設計推奨部230は、「Immersion」フォーマット又はD−BOX Technologies Inc.によって採用されるフォーマットで保存された触覚効果データを読み出す等して、あらかじめオーサリングされたコンテンツ上でオフラインで動作可能である。一部の実施形態において、触覚効果推奨部230は、新規のマルチメディアクリップに効果を推奨する際、その作者がすでにオーサリングした効果のみを考慮することにより、異なる触覚効果製作者に適応することができる。別法として別の実施形態において、触覚効果推奨部230は、新規のマルチメディアクリップに効果を推奨する際、複数の製作者がすでにオーサリングした効果を考慮するよう構成されてよい。
図3は、本発明の一の実施形態に係るシステムによって実行される触覚設計機能のフロー図である。一部の実施形態において、図3の機能はメモリ、もしくはその他のコンピュータ読み取り可能媒体に格納されたソフトウェアによって実装され、プロセッサによって実行される。本実施形態において、各機能は、触覚設計モジュール(図1の触覚設計モジュール16等)によって行われ得る。別の実施形態において、各機能は、ハードウェア(例えば、特定用途向けIC(ASIC)、プログラム可能ゲートアレイ(PGA)、フィールドプログラム可能ゲートアレイ(FPGA)等を用いる)又はハードウェアとソフトウェアとの任意の組み合わせによって行われ得る。
該実施形態によれば、フローは、マルチメディアクリップ315向けの触覚効果を、例えば触覚設計ソフトウェアを用いてユーザーが手動でオーサリング/設計する310において開始する。この効果は、マルチメディアクリップ内のイベントに対応する。フローは320に続く。
320において、ユーザーはオーサリングされた触覚効果とイベントにタグ付けしてよい。ユーザーは、マルチメディアクリップ全体を、例えばマルチメディアクリップの種類又はジャンルをタグ付けすることにより、タグ付けしてよい。一部の実施形態において、ユーザーは、効果/イベントにタグ付けする必要がなく、手動で入力されたタグを用いずに、後述する340において自動的に検出/抽出された特性が用いられる。フローは330に続く。
330において、モジュール16は、触覚効果、イベント、及びタグ(与えられている場合)を受信する。フローは340に続く。
340において、モジュール16は、マルチメディアクリップ315から低レベルの特性(音声及び/又は映像)を、また、330で受信したイベントと効果の信号から効果の特徴を、自動的に検出/抽出する。例えば、各イベントを記述する特性(及び上述したそのコンテクスト)は、自動的に検出/抽出され、その後、イベントと、対応する効果を記述する特徴とを関連付けるために用いることができる。イベントの特性には、例えば音声特性(スペクトル的及び/又は時間的)及び/又は映像特性(色及び/又は動きの情報)が含まれてよい。コンテクスト(context)特性は、同じ性質のものであってよいが、上述したものよりも詳細でない。例えば、イベントは、イベント中の音声の周波数成分及び/又は色のヒストグラムの変動を用いて記述されてよく、シーン/コンテクストは音声の平均振幅によって記述されてよい。
一部の実施形態において、2つのレベルの記述子の組み合わせ(手動で入力したタグと自動的に抽出/検出された特性)をコンテクスト情報として用いることができる。イベント/効果はユーザーによってタグ付けされてよく、同時に、その関連する特性はキャプチャされてよい。このような実施形態において、効果を提案するための全自動又は半自動的アプローチを用いて、新規のマルチメディアクリップに対して効果が提案されることができる。フローは350に続く。
350において、モジュール16は触覚効果を、その対応するイベント又はイベントの連続体に関連付け、この関連付けを、図1のデータベース30のようなデータベースに格納する。触覚効果は、例えば高レベルなイベント/効果記述子(例えば、320において手動で入力され330で受信されるタグのような意味論記述子)又は低レベルのイベント/効果記述子(例えば、信号特性のような自動的に検出/抽出される特性)を用いて、イベントに関連付けることができる。
330でタグデータが受信される実施形態において、「一連のうち最初の爆発」としてタグ付けされたイベントは、例えば「強い爆発」としてタグ付けされた触覚効果と関連付けることができる。別の例において、「ミュージックビデオ」としてタグ付けされたクリップ内の「車のエンジン」としてタグ付けされたイベントには何の触覚効果も関連付けられなくてよいが、クリップ「アクションビデオ」内の同じイベントは「エンジンをふかす音」としてタグ付けされた触覚効果と関連付けることができる。このような実施形態において、タグは、各イベント/効果の設計に際し、設計者によって手動で関連付けられる。この特定のタグ付け作業のために、設計者は、各イベントのコンテクストのキャプチャを可能にするタグ付け情報(例えば、イベントの名称、シーンの種類、先行及び後続のイベント、クリップの種類、フォアグラウンドとバックグラウンドの他のイベント等)を提供する。一部の実施形態において、各効果に割り当てられたタグ付けデータは基本タグ(例えば、効果の名称、強度のレベル(level of intensity))であってよい。フローは360に続く。
360において、モジュール16は、効果とイベントとの関連付けを用いて、触覚化モデル(例えばベイジアンモデル、マルコフモデル等)を構築(又は学習)する。モデルは、設計者(ユーザー)のスタイルを記述するために構築される。モデルは、新規のマルチメディアクリップ用に、提案/推奨された効果を後に生成するために用いられる。モデルは、必要とされる全ての情報(イベント、コンテクスト、効果)をキャプチャする包括的なものであってよい。例えば、高レベルの記述子を用いたベイジアンネットワークの実装において、離散状態変数は、イベントの種類、次又は後続のイベントの種類、これらのイベントまでの時間、シーンのテーマ等を記述(各1つ)できる。
低レベルの記述子が用いられる実施形態において、イベントの種類もモデルを通じて表現されるであろうことから、モデルはより複雑であってよい。このモデルのベイジアンネットワーク実装において、例えば、変数は連続的で、各々が一のイベントの一の特性を表してよい。ベイジアンネットワーク実装の一例が以下の図4及び5に示される。一部の実施形態において、モデルはデータベースに格納される。別法として、モデルはデータベースに格納されるデータから構築される。フローは370に続く。
370において、モジュール16は、新規のマルチメディアクリップ325からイベントの特性を自動的に抽出する、及び/又はユーザー(例えば触覚設計者)が新規のマルチメディアクリップ325内の1以上のイベントにタグ付けする。
380において、モジュール16は、モデルを用いて、新規のマルチメディアクリップ325又は新規のマルチメディアクリップ325内の1以上のイベントに向けて、提案/推奨された触覚効果を生成する。提案/推奨は、モデルからの尤度の推定に基づいてよく、モデルの構築に高レベル(タグ付けデータ)及び/又は低レベル(自動抽出された特性データ)が用いられたかによって、全自動又は半自動モードで行われてよい。例えば、360においてモデルの構築に低レベルのデータが用いられた場合、触覚効果の提案/推奨は後述のように全自動で行うことができる。別の例で、360においてモデルの構築に高レベルのデータが用いられた場合、触覚効果の提案/推奨は後述のように半自動(新規のマルチメディアクリップ内のイベントに対するタグの入力をユーザー(設計者)に要求する)で行うことができる。
例えば、半自動モードでは、設計者/ユーザーは、触覚化したいイベント、ならびに、例えばコンテクスト情報を提供するための周辺のイベント及びシーンをタグ付けする必要がある。モジュール16は、設計者のスタイル(モデルによって決定される)と、タグ付けされたイベントの異なる状態/種類を基に、機械学習アルゴリズムを用いて最も可能性の高い触覚効果を決定する。半自動モードを行うとき、データベースの構築は、低レベルの特性を用いる又は用いない、320及び330で上述した設計者のタグ付け作業を用いて行われるのが好ましい。このモードにおいて、例えば設計者は、イベントを、爆発に続く発砲としてタグ付けし、このシーンを「アクション」としてタグ付けできる。この情報を利用して、モデルを与えられたモジュール16はこの構成に最適な効果を見つけることができる。モデルは可能性のある全ての構成を含まない場合があるため、一部の提案はモデルを用いた尤度の推定に基づいてよい。追加する効果の種類が決定されると、モジュール16はイベントの時間特性を利用してそれを適切に調整できる(例えば、強度、期間)。
全自動モードにおいては、例えば設計者による介入(例えば手動による入力)が一切必要ない。このモードでは、モジュール16が音声又は映像コンテンツの特性を自動的に分析し、これらの特性を基に効果を関連付ける試みが可能である。このモードでは、全てのイベント、効果、及びコンテクストが、その特性と特徴によって記述され、モジュール16は異なる特性値を参照し、学習されたモデルを用いて最も可能性の高い一連の効果の特徴を見つけることができる。
一部の実施形態において、推奨された触覚効果は、ユーザー/設計者による介入なしで新規のマルチメディアクリップ324向けの触覚効果を作成するのに用いられる。例えば、このような実施形態において、380でモジュール16によって推奨された触覚効果は、人間の介入なしで新規のマルチメディアクリップに自動的に適用される(例えばユーザー/設計者が推奨を受け入れる必要がない)。このような実施形態は、学習された触覚化モデルにおいて表される設計者(人間)がオーサリングした触覚効果の人間味と、自動化された触覚処理のスピードとを両立する。
一部の実施形態において、モデルは動的であってよい。つまり、ユーザー/設計者が、提案/推奨された効果を却下して新規の効果を提案してよく、この新規の効果は再度取り入れられてモデルが更新されるだろう。
特定の実施形態において、モジュール16は、パーソナライズされた進化モデルを学習する(例えば一から作成されて学習し続ける、設計者当たり1つのモデル)。別の実施形態において、モジュール16は、複数のユーザー向けの、あらかじめ搭載された包括的及び/又は静的モデルを用いてよい(例えば、経験の少ないユーザー向け、又は著名な設計者等の他の設計者のモデルをユーザーが用いるため)。
特定の実施形態において、図3に図示する触覚設計機能は、リアルタイムで行われてもよいし(すなわち、ユーザーが効果を設計している間に学習する)、あらかじめ設計されたマルチメディア及び触覚作品において実行されてもよい。これは、異なるアプローチを用いて制作されたトラック(例えば、Haptic Studio等のImmersion Corporation製のオーサリングツールを使って制作されたトラック、D−Box Technology, Inc.製の装置での使用向けに制作されたトラック等)に適用されることもできる。
図4は、本発明の一の実施形態に係る、高レベルの意味論記述子を用いるベイジアンネットワーク400を図示する。離散変数を用いるベイジアンネットワーク400は、異なる観察の状態(影付きのノード)が隠れた変数の状態(白いノード)に影響する触覚効果設計モデルを記述する。本稿において、観察は既知の状態(モジュール16によって推定される)を有する変数である一方、隠れた変数の状態は不明でありモデルによって提案される。
ベイジアンネットワーク400を用いる実施形態において、ユーザーはシーンの種類、現在のイベントの種類、先行するイベントの種類、及びその関連する効果ならびにその効果の長さと強さ、をタグ付けする。このような実施形態において、モジュール16はモデル内のこの全てのデータを用いて可能性を算出し、現在のイベントに対して特定の種類の効果、ならびにその強度と持続時間、を提案できる。この算出は、過去にモデルに対して提供された、イベント/効果の前例に基づく。
図5は、本発明の一の実施形態による、低レベルの記述子を用いるベイジアンネットワーク500を図示する。連続変数を用いるベイジアンネットワーク500は、異なる観察の状態(影付きのノード)が隠れた変数の状態(白いノード)に影響する触覚効果設計モデルを記述する。本稿において、観察は既知の状態(モジュール16によって推定される)を有する変数である一方、隠れた変数の状態は不明でありモデルによって提案される。
ベイジアンネットワーク500を用いる実施形態において、モジュール16は、先行するイベントの効果の長さ、強さ、及び特徴(例えば周波数、パターン、波形)を自動的に検出/抽出する。このような実施形態において、モジュール16は、現在のイベントの音声/映像特性(例えば音声周波数プロファイル、色のヒストグラムの変化等)も自動的に検出する。このような実施形態において、モジュール16は、モデル内のこの全てのデータを用いて可能性を算出し、現在のイベントに対して効果(強さ、強度、及び種類によって記述される)を提案できる。
音声、映像、及び/又は知覚データからの、既知の自動触覚変換アルゴリズムのいくつかは、人間的な芸術的感性をしばしば欠いている。1つのマルチメディアクリップ内の同じイベントは、イベントのコンテクストに基づいて、異なる設計者によって異なる方法で触覚化されることができる。一方、実施形態は、異なる設計された効果を、特定のコンテクスト(例えば、マルチメディアのテーマ、周辺のイベントの種類等)で取り込まれた異なるマルチメディアイベントに関連付けることにより、この人間味をキャプチャする。実施形態は、次に、このキャプチャされた情報を用いて、同じ性質のイベントに遭遇した際に効果を提案できる。例えば、連続する爆発を含むアクションムービーにおいて、設計者は、最初の爆発をより重視し、強い効果でそれを触覚化し、その一方で、後続の爆発はより弱く触覚化するかもしれない。しかしながら、既知の自動変換ツールは、同様のイベントには同様の効果を割り当てる。これに対して、実施形態は、このコンテクスト要素及び芸術的感性を自動変換に取り入れる。
開示されるとおり、実施形態は、人間の触覚効果設計者の芸術的感性を考慮に入れて学習された触覚化モデルを用い、入力されたマルチメディアクリップに対し触覚効果を自動的に推奨し得る触覚設計オーサリングツールを実装する。このようにして、ユーザー/設計者が各触覚効果を手動で設計することなく、触覚効果を自動的に推奨することが可能である。
いくつかの実施形態が、本稿において具体的に図示及び/又は記載されている。しかしながら、開示された実施形態の変形及び変異が、本発明の精神及び意図される範囲から逸脱することなく、上述の記載によって網羅され、添付される請求の範囲に包含されることが理解される。

Claims (20)

  1. プロセッサによって実行された際、プロセッサに1以上の触覚効果をオーサリングさせる命令が格納されたコンピュータ読み取り可能媒体であって、前記オーサリングは、
    人間の触覚設計者のスタイルを学習することによって生成される触覚化モデルを提供するステップと、
    音声及び映像のうち1以上と、複数のイベントとを含む入力を受信するステップと、
    前記入力内の対応するイベントに関連付けるための一の種類の触覚効果を、学習された前記触覚化モデルに基づいて推奨するステップと、
    を含む、コンピュータ読み取り可能媒体。
  2. 請求項1に記載のコンピュータ読み取り可能媒体であって、前記オーサリングは、
    1以上のオーサリングされた触覚効果について、オーサリングされた触覚効果の特徴を受信し、1以上のマルチメディアイベントについて、マルチメディアイベントの特性を受信するステップと、
    オーサリングされた前記触覚効果の特徴と前記マルチメディアイベントの特性とに基づいて、オーサリングされた触覚効果の種類をマルチメディアイベントの種類に関連付けるステップと、
    前記関連付けの結果に基づいて、学習された前記触覚化モデルを構築するステップと、
    を更に含む、コンピュータ読み取り可能媒体。
  3. 請求項2に記載のコンピュータ読み取り可能媒体であって、
    前記オーサリングは、オーサリングされた前記触覚効果の特徴と前記マルチメディアイベントの特性とに対応する手動タグデータを受信するステップを更に含み、
    前記手動タグデータは、それぞれの触覚効果とマルチメディアイベントについてコンテクストを提供し、
    前記関連付けるステップは、少なくとも前記手動タグデータに基づく、
    コンピュータ読み取り可能媒体。
  4. 請求項2に記載のコンピュータ読み取り可能媒体であって、
    オーサリングされた前記触覚効果の特徴に対応する手動タグデータは、オーサリングされた前記触覚効果の名称、又は前記触覚効果の強度のレベルのうち1以上を含む、
    コンピュータ読み取り可能媒体。
  5. 請求項2に記載のコンピュータ読み取り可能媒体であって、
    前記マルチメディアイベントの特性に対応する手動タグデータは、前記イベントの名称、シーンの種類、先行のイベント、後続のイベント、クリップの種類、フォアグラウンドにおけるその他のイベント、又はバックグラウンドにおけるその他のイベントのうち1以上を含む、
    コンピュータ読み取り可能媒体。
  6. 請求項2に記載のコンピュータ読み取り可能媒体であって、
    前記オーサリングは、オーサリングされた前記触覚効果の各効果を記述する1以上の抽出された特徴と、前記マルチメディアイベントの各イベントを記述する1以上の抽出された特性とを抽出するステップを更に含み、
    前記関連付けるステップは、少なくとも前記抽出された特徴と前記抽出された特性とに基づいて、オーサリングされた前記触覚効果の特徴と前記マルチメディアイベントの特性とを関連付けることを含み、
    各効果を記述する前記抽出された特徴は、期間、振幅、波形、及び周波数を含み、
    各イベントを記述する前記抽出された特性は、音声及び映像特性、シーン動態、及び前記イベントのコンテクストを含む、
    コンピュータ読み取り可能媒体。
  7. 請求項2に記載のコンピュータ読み取り可能媒体であって、
    前記オーサリングは、前記マルチメディアイベント内の各イベントを記述する1以上の抽出された特性を抽出するステップを更に含み、
    前記関連付けるステップは、少なくとも前記抽出された特性に更に基づく、
    コンピュータ読み取り可能媒体。
  8. 請求項2に記載のコンピュータ読み取り可能媒体であって、学習された前記触覚化モデルを構築するステップは、ベイジアンモデルを構築することを含む、コンピュータ読み取り可能媒体。
  9. 1以上の触覚効果をオーサリングするための、コンピュータに実装された方法であって、
    人間の触覚設計者のスタイルを学習することによって生成される触覚化モデルを提供するステップと、
    音声及び映像のうち1以上と、複数のイベントとを含む入力を受信するステップと、
    前記入力内の対応するイベントに関連付けるための一の種類の触覚効果を、学習された前記触覚化モデルに基づいて推奨するステップと、
    を含む、コンピュータに実装された方法。
  10. 請求項9に記載のコンピュータに実装された方法であって、
    1以上のオーサリングされた触覚効果について、オーサリングされた触覚効果の特徴を受信し、1以上のマルチメディアイベントについて、マルチメディアイベントの特性を受信するステップと、
    オーサリングされた前記触覚効果の特徴と前記マルチメディアイベントの特性とに基づいて、オーサリングされた前記触覚効果の種類をマルチメディアイベントの種類に関連付けるステップと、
    前記関連付けの結果に基づいて、学習された前記触覚化モデルを構築するステップと、
    を更に含む、コンピュータに実装された方法。
  11. 請求項10に記載のコンピュータに実装された方法であって、
    オーサリングされた前記触覚効果の特徴と前記マルチメディアイベントの特性とに対応する手動タグデータを受信するステップを更に含み、
    前記手動タグデータは、それぞれの触覚効果とマルチメディアイベントについてコンテクストを提供し、
    前記関連付けるステップは、少なくとも前記手動タグデータに基づく、
    コンピュータに実装された方法。
  12. 請求項10に記載のコンピュータに実装された方法であって、
    オーサリングされた前記触覚効果の特徴に対応する手動タグデータは、オーサリングされた前記触覚効果の名称、又は前記触覚効果の強度のレベルのうち1以上を含み、
    前記マルチメディアイベントの特性に対応する前記手動タグデータは、前記イベントの名称、シーンの種類、先行のイベント、後続のイベント、クリップの種類、フォアグラウンドにおけるその他のイベント、又はバックグラウンドにおけるその他のイベントのうち1以上を含む、
    コンピュータに実装された方法。
  13. 請求項10に記載のコンピュータに実装された方法であって、
    オーサリングされた前記触覚効果の各効果を記述する1以上の抽出された特徴と、前記マルチメディアイベントの各イベントを記述する1以上の抽出された特性とを抽出するステップを更に含み、
    前記関連付けるステップは、少なくとも前記抽出された特徴と前記抽出された特性とに基づいて、オーサリングされた前記触覚効果の特徴と前記マルチメディアイベントの特性とを関連付けることを含み、
    各効果を記述する前記抽出された特徴は、期間、振幅、波形、及び周波数を含み、
    各イベントを記述する前記抽出された特性は、音声及び映像特性、シーン動態、及び前記イベントのコンテクストを含む、
    コンピュータに実装された方法。
  14. 請求項10に記載のコンピュータに実装された方法であって、
    前記マルチメディアイベント内の各イベントを記述する1以上の抽出された特性を抽出するステップを更に含み、
    前記関連付けるステップは、少なくとも前記抽出された特性に更に基づく、
    コンピュータに実装された方法。
  15. 触覚設計モジュールを格納するよう構成されるメモリ装置と、
    前記メモリ装置と通信する処理装置であって、前記メモリ装置に格納された前記触覚設計モジュールを実行して触覚効果をオーサリングするように構成される処理装置と、を備え、
    前記オーサリングは、
    人間の触覚設計者のスタイルを学習することによって構築される触覚化モデルを構築すること、
    音声及び映像のうち1以上と、複数のイベントとを含む入力を受信すること、及び
    前記入力内の対応するイベントに関連付けるための一の種類の触覚効果を、学習された前記触覚化モデルに基づいて推奨すること、
    を含む、
    システム。
  16. 請求項15に記載のシステムであって、前記オーサリングは、
    1以上のオーサリングされた触覚効果について、オーサリングされた触覚効果の特徴を受信し、1以上のマルチメディアイベントについて、マルチメディアイベントの特性を受信すること、
    オーサリングされた前記触覚効果の特徴と前記マルチメディアイベントの特性とに基づいて、オーサリングされた前記触覚効果の種類をマルチメディアイベントの種類に関連付けること、及び
    前記関連付けの結果に基づいて、学習された前記触覚化モデルを構築すること、
    を更に含む、システム。
  17. 請求項16に記載のシステムであって、
    前記オーサリングは、オーサリングされた前記触覚効果の特徴と前記マルチメディアイベントの特性とに対応する手動タグデータを受信することを更に含み、
    前記手動タグデータは、それぞれの触覚効果とマルチメディアイベントについてコンテクストを提供し、
    前記関連付けは、少なくとも前記手動タグデータに基づく、
    システム。
  18. 請求項16に記載のシステムであって、
    オーサリングされた前記触覚効果の特徴に対応する手動タグデータは、オーサリングされた前記触覚効果の名称、又は前記触覚効果の強度のレベルのうち1以上を含み、
    前記マルチメディアイベントの特性に対応する前記手動タグデータは、前記イベントの名称、シーンの種類、先行のイベント、後続のイベント、クリップの種類、フォアグラウンドにおけるその他のイベント、又はバックグラウンドにおけるその他のイベントのうち1以上を含む、
    システム。
  19. 請求項16に記載のシステムであって、
    前記オーサリングは、オーサリングされた前記触覚効果の各効果を記述する1以上の抽出された特徴と、前記マルチメディアイベントの各イベントを記述する1以上の抽出された特性とを抽出することを更に含み、
    前記関連付けは、少なくとも前記抽出された特徴と前記抽出された特性とに基づいて、オーサリングされた前記触覚効果の特徴と前記マルチメディアイベントの特性とを関連付けることを含み、
    各効果を記述する前記抽出された特徴は、期間、振幅、波形、及び周波数を含み、
    各イベントを記述する前記抽出された特性は、音声及び映像特性、シーン動態、及び前記イベントのコンテクストを含む、
    システム。
  20. 請求項16に記載のシステムであって、
    前記オーサリングは、前記マルチメディアイベント内の各イベントを記述する1以上の抽出された特性を抽出することを更に含み、
    前記関連付けは、少なくとも前記抽出された特性に更に基づく、
    システム。
JP2015098815A 2014-05-20 2015-05-14 触覚設計オーサリングツール Expired - Fee Related JP6544991B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/282,476 2014-05-20
US14/282,476 US9330547B2 (en) 2014-05-20 2014-05-20 Haptic effect authoring tool based on a haptification model

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019110340A Division JP2019169195A (ja) 2014-05-20 2019-06-13 触覚設計オーサリングツール

Publications (2)

Publication Number Publication Date
JP2015219917A true JP2015219917A (ja) 2015-12-07
JP6544991B2 JP6544991B2 (ja) 2019-07-17

Family

ID=53275974

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015098815A Expired - Fee Related JP6544991B2 (ja) 2014-05-20 2015-05-14 触覚設計オーサリングツール
JP2019110340A Withdrawn JP2019169195A (ja) 2014-05-20 2019-06-13 触覚設計オーサリングツール

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019110340A Withdrawn JP2019169195A (ja) 2014-05-20 2019-06-13 触覚設計オーサリングツール

Country Status (5)

Country Link
US (3) US9330547B2 (ja)
EP (1) EP2947547A1 (ja)
JP (2) JP6544991B2 (ja)
KR (1) KR20150133643A (ja)
CN (1) CN105094798A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020052839A (ja) * 2018-09-27 2020-04-02 富士通株式会社 質感提示方法、質感提示プログラム、情報処理装置および質感提示システム
WO2020080432A1 (ja) * 2018-10-19 2020-04-23 ソニー株式会社 情報処理装置、情報処理方法、および、プログラム
WO2020080433A1 (ja) * 2018-10-19 2020-04-23 ソニー株式会社 情報処理装置、情報処理方法、および、プログラム

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7765333B2 (en) 2004-07-15 2010-07-27 Immersion Corporation System and method for ordering haptic effects
US9202352B2 (en) * 2013-03-11 2015-12-01 Immersion Corporation Automatic haptic effect adjustment system
US9971406B2 (en) 2014-12-05 2018-05-15 International Business Machines Corporation Visually enhanced tactile feedback
WO2017175867A1 (ja) 2016-04-07 2017-10-12 国立研究開発法人科学技術振興機構 触覚情報変換装置、触覚情報変換方法、および、触覚情報変換プログラム
US10296091B2 (en) * 2016-10-13 2019-05-21 Immersion Corporation Contextual pressure sensing haptic responses
US10732714B2 (en) 2017-05-08 2020-08-04 Cirrus Logic, Inc. Integrated haptic system
US10832537B2 (en) * 2018-04-04 2020-11-10 Cirrus Logic, Inc. Methods and apparatus for outputting a haptic signal to a haptic transducer
US11269415B2 (en) 2018-08-14 2022-03-08 Cirrus Logic, Inc. Haptic output systems
GB201817495D0 (en) 2018-10-26 2018-12-12 Cirrus Logic Int Semiconductor Ltd A force sensing system and method
US10828672B2 (en) 2019-03-29 2020-11-10 Cirrus Logic, Inc. Driver circuitry
US10955955B2 (en) 2019-03-29 2021-03-23 Cirrus Logic, Inc. Controller for use in a device comprising force sensors
US12035445B2 (en) 2019-03-29 2024-07-09 Cirrus Logic Inc. Resonant tracking of an electromagnetic load
US11644370B2 (en) 2019-03-29 2023-05-09 Cirrus Logic, Inc. Force sensing with an electromagnetic load
US11509292B2 (en) 2019-03-29 2022-11-22 Cirrus Logic, Inc. Identifying mechanical impedance of an electromagnetic load using least-mean-squares filter
GB2584167B (en) 2019-05-24 2023-06-28 Sensae Aps User interface, user interface system and method
US10976825B2 (en) 2019-06-07 2021-04-13 Cirrus Logic, Inc. Methods and apparatuses for controlling operation of a vibrational output system and/or operation of an input sensor system
GB2604215B (en) 2019-06-21 2024-01-31 Cirrus Logic Int Semiconductor Ltd A method and apparatus for configuring a plurality of virtual buttons on a device
EP4046001A1 (en) * 2019-10-14 2022-08-24 Lofelt GmbH Systems and methods for authoring an audio signal and for transforming the authored audio signal into a haptic data file
US11408787B2 (en) 2019-10-15 2022-08-09 Cirrus Logic, Inc. Control methods for a force sensor system
US11380175B2 (en) 2019-10-24 2022-07-05 Cirrus Logic, Inc. Reproducibility of haptic waveform
US11662821B2 (en) 2020-04-16 2023-05-30 Cirrus Logic, Inc. In-situ monitoring, calibration, and testing of a haptic actuator
WO2021220515A1 (ja) * 2020-05-01 2021-11-04 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法及びプログラム
CN111897524B (zh) * 2020-07-06 2022-04-29 瑞声新能源发展(常州)有限公司科教城分公司 实现Haptics触觉效果的方法及系统
KR200493408Y1 (ko) 2020-10-22 2021-03-24 한윤석 소화기 보관함
US11933822B2 (en) 2021-06-16 2024-03-19 Cirrus Logic Inc. Methods and systems for in-system estimation of actuator parameters
US11908310B2 (en) 2021-06-22 2024-02-20 Cirrus Logic Inc. Methods and systems for detecting and managing unexpected spectral content in an amplifier system
US11765499B2 (en) 2021-06-22 2023-09-19 Cirrus Logic Inc. Methods and systems for managing mixed mode electromechanical actuator drive

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005506613A (ja) * 2001-10-09 2005-03-03 イマージョン コーポレイション コンピュータ装置からのオーディオ出力に基づく触覚フィードバック感覚
JP2005506614A (ja) * 2001-10-10 2005-03-03 イマージョン コーポレイション 触覚フィードバックを使用する音声データ出力および操作
JP2009532808A (ja) * 2006-04-06 2009-09-10 イマージョン コーポレイション 触覚効果強化のためのシステムおよび方法
JP2009540725A (ja) * 2006-06-13 2009-11-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 周囲環境及びコンテンツの配信
JP2011501575A (ja) * 2007-10-16 2011-01-06 イマージョン コーポレイション 媒体トランスポートストリームにおける触覚効果データの同期化

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5633484A (en) 1994-12-26 1997-05-27 Motorola, Inc. Method and apparatus for personal attribute selection and management using a preference memory
JPH10513593A (ja) 1995-11-24 1998-12-22 フィリップス エレクトロニクス ネムローゼ フェンノートシャップ 触覚刺激によって強調された仮想現実を示す方法と、この方法を実行するシステム
US6650338B1 (en) 1998-11-24 2003-11-18 Interval Research Corporation Haptic interaction with video and image data
US8000825B2 (en) 2006-04-13 2011-08-16 Immersion Corporation System and method for automatically producing haptic events from a digital audio file
US20120084812A1 (en) 2010-10-04 2012-04-05 Mark Thompson System and Method for Integrating Interactive Advertising and Metadata Into Real Time Video Content
US20120109868A1 (en) 2010-11-01 2012-05-03 Microsoft Corporation Real-Time Adaptive Output
EP3557388A1 (en) 2012-02-03 2019-10-23 Immersion Corporation Sound to haptic effect conversion system using waveform
US8903778B2 (en) 2012-10-17 2014-12-02 Yahoo! Inc. Visible personalization
US9092059B2 (en) 2012-10-26 2015-07-28 Immersion Corporation Stream-independent sound to haptic effect conversion system
US8754757B1 (en) * 2013-03-05 2014-06-17 Immersion Corporation Automatic fitting of haptic effects
US9202352B2 (en) * 2013-03-11 2015-12-01 Immersion Corporation Automatic haptic effect adjustment system
KR102096146B1 (ko) * 2014-09-02 2020-04-28 애플 인크. 가변 햅틱 출력을 위한 시맨틱 프레임워크

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005506613A (ja) * 2001-10-09 2005-03-03 イマージョン コーポレイション コンピュータ装置からのオーディオ出力に基づく触覚フィードバック感覚
JP2005506614A (ja) * 2001-10-10 2005-03-03 イマージョン コーポレイション 触覚フィードバックを使用する音声データ出力および操作
JP2009532808A (ja) * 2006-04-06 2009-09-10 イマージョン コーポレイション 触覚効果強化のためのシステムおよび方法
JP2009540725A (ja) * 2006-06-13 2009-11-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 周囲環境及びコンテンツの配信
JP2011501575A (ja) * 2007-10-16 2011-01-06 イマージョン コーポレイション 媒体トランスポートストリームにおける触覚効果データの同期化

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020052839A (ja) * 2018-09-27 2020-04-02 富士通株式会社 質感提示方法、質感提示プログラム、情報処理装置および質感提示システム
JP7200576B2 (ja) 2018-09-27 2023-01-10 富士通株式会社 質感提示方法、質感提示プログラム、情報処理装置および質感提示システム
WO2020080432A1 (ja) * 2018-10-19 2020-04-23 ソニー株式会社 情報処理装置、情報処理方法、および、プログラム
WO2020080433A1 (ja) * 2018-10-19 2020-04-23 ソニー株式会社 情報処理装置、情報処理方法、および、プログラム
JPWO2020080433A1 (ja) * 2018-10-19 2021-09-09 ソニーグループ株式会社 情報処理装置、情報処理方法、および、プログラム
JPWO2020080432A1 (ja) * 2018-10-19 2021-09-16 ソニーグループ株式会社 情報処理装置、情報処理方法、および、プログラム
US11738262B2 (en) 2018-10-19 2023-08-29 Sony Group Corporation Information processor, information processing method, and program
JP7424301B2 (ja) 2018-10-19 2024-01-30 ソニーグループ株式会社 情報処理装置、情報処理方法、および、プログラム
JP7452430B2 (ja) 2018-10-19 2024-03-19 ソニーグループ株式会社 情報処理装置、情報処理方法、および、プログラム

Also Published As

Publication number Publication date
CN105094798A (zh) 2015-11-25
US20180173311A1 (en) 2018-06-21
US9921653B2 (en) 2018-03-20
KR20150133643A (ko) 2015-11-30
EP2947547A1 (en) 2015-11-25
JP2019169195A (ja) 2019-10-03
US20160209925A1 (en) 2016-07-21
US9330547B2 (en) 2016-05-03
US20150339898A1 (en) 2015-11-26
US10191552B2 (en) 2019-01-29
JP6544991B2 (ja) 2019-07-17

Similar Documents

Publication Publication Date Title
JP2019169195A (ja) 触覚設計オーサリングツール
JP6595686B2 (ja) ハプティック効果の自動適合
US10726836B2 (en) Providing audio and video feedback with character based on voice command
US10388122B2 (en) Systems and methods for generating haptic effects associated with audio signals
US10276004B2 (en) Systems and methods for generating haptic effects associated with transitions in audio signals
US9508236B2 (en) Haptic warping system that transforms a haptic signal into a collection of vibrotactile haptic effect patterns
JP6537795B2 (ja) マルチメディアコンテンツを補足する情報に基づいて触覚効果を提供するための方法及びシステム
WO2019087811A1 (ja) 情報処理装置、及び情報処理方法
US11276419B2 (en) Synchronized sound generation from videos
JP2015185168A (ja) ハプティック効果の自動チューニング
US10901689B1 (en) Dynamic augmented reality interface creation
CN110968185A (zh) 用于在人机接口的背景下向人工智能添加常识推理的方法和装置
JP2020529680A (ja) 通話中の感情を認識し、認識された感情を活用する方法およびシステム
CN111107407A (zh) 一种音视频播放控制方法、装置、设备及计算机可读存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190618

R150 Certificate of patent or registration of utility model

Ref document number: 6544991

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees