JP2019125376A - ユーザ生成コンテンツをオーサリングするためのシステム及び方法 - Google Patents
ユーザ生成コンテンツをオーサリングするためのシステム及び方法 Download PDFInfo
- Publication number
- JP2019125376A JP2019125376A JP2019031909A JP2019031909A JP2019125376A JP 2019125376 A JP2019125376 A JP 2019125376A JP 2019031909 A JP2019031909 A JP 2019031909A JP 2019031909 A JP2019031909 A JP 2019031909A JP 2019125376 A JP2019125376 A JP 2019125376A
- Authority
- JP
- Japan
- Prior art keywords
- haptic
- user
- video signal
- haptic effect
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000000694 effects Effects 0.000 claims abstract description 253
- 238000004891 communication Methods 0.000 claims description 7
- 229920001746 electroactive polymer Polymers 0.000 claims description 4
- 229910001285 shape-memory alloy Inorganic materials 0.000 claims description 4
- 230000003993 interaction Effects 0.000 description 14
- 230000033001 locomotion Effects 0.000 description 14
- 230000009471 action Effects 0.000 description 10
- 239000010410 layer Substances 0.000 description 10
- 238000003860 storage Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 239000000463 material Substances 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 241000282326 Felis catus Species 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 241000699666 Mus <mouse, genus> Species 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000035807 sensation Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 239000012530 fluid Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- BQCADISMDOOEFD-UHFFFAOYSA-N Silver Chemical compound [Ag] BQCADISMDOOEFD-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011554 ferrofluid Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 239000011810 insulating material Substances 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000012528 membrane Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 239000002071 nanotube Substances 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 210000001640 nerve ending Anatomy 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000015541 sensory perception of touch Effects 0.000 description 1
- 229910052709 silver Inorganic materials 0.000 description 1
- 239000004332 silver Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 239000002344 surface layer Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8545—Content authoring for generating interactive applications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/414—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
- H04N21/41407—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43072—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/433—Content storage operation, e.g. storage operation in response to a pause request, caching operations
- H04N21/4334—Recording operations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47205—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/014—Force feedback applied to GUI
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- Databases & Information Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Abstract
Description
(関連出願の相互参照)
本願は、2014年1月16日に提出され、“User Generated Content Authoring”と題された仮出願第61/928,357号への優先権を主張し、その全体は参照により本明細書に組み込まれる。
本開示の例示の実施形態は、タブレット、Eリーダ、携帯電話、又はラップトップ若しくはデスクトップコンピュータ又は装着可能装置等のコンピュータ等の電子装置を含む。
電子装置は、ディスプレイ(例えば、タッチスクリーンディスプレイ)、メモリ、及びこうした要素の各々と通信するプロセッサを備える。
触覚効果は、猫がのどを鳴らすことをシミュレートするように構成される振動を含んでもよい。
このような実施形態では、カメラは、テニス等のゲームをプレーしているユーザの映像をキャプチャしてもよい。プロセッサは、ゲームに関係付けられる様々なジェスチャ(例えば、フォアハンド又はバックハンド等の手の動き、及びステップ等の足のジェスチャ)を決定してもよい。プロセッサは、こうしたジェスチャに関係付けられる触覚効果を決定してもよい。こうした触覚効果は、ユーザの映像に関係付けられてもよい。代替的に、こうした触覚効果は、触覚ライブラリに関係付けられて、他のアプリケーション又は映像で使用するために後で選択されてもよい。
図1Aは、ユーザ生成コンテンツをオーサリングするための例示のシステム100を示す。特に、この例示では、システム100は、バス106を介して他のハードウェアとインターフェース接続されるプロセッサ102を有するコンピュータ装置101を含む。RAM、ROM又はEEPROM等の任意の適切な有形の(及び一時的でない)コンピュータ可読媒体を含み得るメモリ104が、コンピュータ装置の動作を構成するプログラム要素を具現化する。この例示では、コンピュータ装置101は、1つ以上のネットワークインターフェース装置110、入力/出力(I/O)インターフェース要素112、及び追加の記憶装置114を更に含む。
1つ以上のセンサ108は、物体がタッチ面に接触する場合に接触領域における接触を検出して、プロセッサ102によってユーザに適切なデータを提供するように構成されてもよい。センサの任意の適切な数、種類、又は配置が使用され得る。例えば、抵抗性及び/又は容量性のセンサが、タッチ面116に組み込まれて、タッチの場所及び圧力等の他の情報を検出するために使用されてもよい。別の例示として、接触位置を決定するためにタッチ面のビューを備える光学センサが使用されてもよい。一部の実施形態では、センサ108及びタッチ面116は、タッチスクリーン又はタッチパッドを含んでもよい。例えば、一部の実施形態では、タッチ面116及びセンサ108は、表示信号を受信して、ユーザに画像を出力するように構成されるディスプレイの上(overtop)に取り付けられるタッチスクリーンを含んでもよい。他の実施形態では、センサ108は、LED検出器を含んでもよい。例えば、一実施形態では、タッチ面116は、ディスプレイの側部に取り付けられるLED指検出器を含んでもよい。一部の実施形態では、プロセッサは単一のセンサ108と通信し、他の実施形態では、プロセッサは複数のセンサ108、例えば、第1のタッチスクリーン及び第2のタッチスクリーンと通信する。一部の実施形態では、1つ以上のセンサ108は、移動装置の運動を検出するように構成される1つ以上のセンサ(例えば、加速度計、ジャイロスコープ、カメラ、GPS、又は他のセンサ)を更に含む。こうしたセンサは、X、Y又はZ平面に装置を移動させるユーザ相互作用を検出するように構成されてもよい。センサ108は、ユーザ相互作用を検出し、ユーザ相互作用に基づいて、プロセッサ102に信号を送信するように構成される。一部の実施形態では、センサ108は、ユーザ相互作用の複数の態様を検出するように構成されてもよい。例えば、センサ108は、ユーザ相互作用の速度及び圧力を検出して、この情報をインターフェース信号に組み込んでもよい。更に、一部の実施形態では、ユーザ相互作用は、装置から離れた多次元ユーザ相互作用を含む。例えば、一部の実施形態では、装置に関係付けられるカメラが、ユーザの動き、例えば、手、指、体、頭、目若しくは足の動作又は別の人物若しくはオブジェクトとの相互作用を検出するように構成されてもよい。
例えば、一部の実施形態では、表面テクスチャは、異なる周波数で表面を振動させることによりシミュレートされてもよい。このような実施形態では、触覚出力装置118は、例えば、圧電アクチュエータ、電気モータ、電磁アクチュエータ、音声コイル、形状記憶合金、電気活性ポリマ、ソレノイド、偏心回転質量モータ(ERM)又は線形共振アクチュエータ(LRA)の1つ以上を含んでもよい。一部の実施形態では、触覚出力装置118は、複数のアクチュエータ、例えば、ERM及びLRAを含んでもよい。
このような実施形態では、静電アクチュエータは、導電層及び絶縁層を含んでもよい。このような実施形態では、導電層は、任意の半導体又は銅、アルミニウム、金又は銀等の他の導電性材料であってもよい。また、絶縁層は、ガラス、プラスチック、ポリマ、又は任意の他の絶縁性材料であってもよい。
タッチ面は、ディスプレイ外部又は実際のディスプレイ構成要素上の1つ以上の材料層に対応してもよい。
down)、バンプ(bump)、シャープヒット(sharp hit)、ダブルヒット(double hit)、テクスチャ、摩擦、鼓動、トゥインクル(twinkle)、驚き、ワオ(wow)、エンジェル、喝采、ヒュー(whoosh)、ポップ(pop)、バン(bam)、ポカン(pow)、破壊、ザップ(zap)、又は振動、表面ベースの効果、表面変形若しくは当技術分野で周知の他の種類の触覚効果を用いて生成され得る何らかの他の種類の触覚効果を含んでもよい。
図6は、一実施形態によるユーザ生成コンテンツをオーサリングするための方法を実行するためのステップのフローチャートである。一部の実施形態では、図6のステップは、例えば、汎用コンピュータ、移動装置又はサーバにおけるプロセッサによって実行されるプログラムコードで実装されてもよい。一部の実施形態では、こうしたステップは一群のプロセッサによって実装されてもよい。一部の実施形態では、図6に示される1つ以上のステップは省略され又は異なる順番で行われてもよい。同様に、一部の実施形態では、図6に示されない追加のステップが実行されてもよい。以下のステップは図1に示されたコンピュータ装置100に関して記載された構成要素を参照して記載される。
例えば、ユーザは、触覚効果に関係付けられる持続時間、周波数、強度、又は触覚効果に関係付けられる何らかの他の特性を修正してもよい。一部の実施形態では、プロセッサ102は、触覚効果を自動的に選択してもよい。例えば、一部の実施形態では、プロセッサ102は、映像内で起こるイベントに関係付けられる触覚効果を選択してもよい。こうしたイベントは、映像イベント又は音声イベントを含んでもよい。例えば、プロセッサ102は、例えば、滑降するスキーヤーの映像において発生するアクションイベントに触覚効果を関係付けてもよく、プロセッサ102は、スキーヤーの各衝突に関係付けられる触覚効果を決定してもよい。代替的に、プロセッサは、映像に関係付けられる鋭い音声、例えば、スキー映像における最初の銃の発射を検出して、この音声に触覚効果を関係付けてもよい。
例えば、一実施形態では、ユーザは、装置を激しく振ることにより新しい触覚効果を作成してもよい。この振ることは、慣性センサによって検出されてもよい。プロセッサ102は、装置が激しく振られることをシミュレートするように構成される触覚効果を決定するために慣性センサからの信号を使用してもよい。一部の実施形態では、プロセッサ102は、ユーザ相互作用に関係付けられる特性に基づいて触覚効果を決定する。例えば、プロセッサ102は、ユーザ相互作用の種類、場所、持続時間、又は他の特性に基づいて触覚効果を決定してもよい。更に、プロセッサ102は、多次元触覚効果を決定してもよい。
例えば、プロセッサ102は、装置を下方に動かしたジェスチャをシミュレートするためにZ平面に力を出力する触覚効果を決定してもよい。更に、プロセッサは、タッチスクリーンの表面におけるジェスチャをシミュレートするためにX又はY平面に出力する触覚効果(例えば、タッチスクリーンの表面における表面ベースの効果)も決定してもよい。一部の実施形態では、こうした触覚効果は、映像内のオブジェクト(例えば、ユーザによって追加されたステッカー又は既に映像にあるオブジェクト)が動く感覚をシミュレートしてもよい。例えば、触覚効果は、オブジェクトが左右に、上下に、前後に動き、動作中に傾斜し、又はディスプレイの内外に動く感覚をシミュレートしてもよい。一部の実施形態では、こうした触覚効果は、ディスプレイにおける視覚効果、例えば、ステッカーに関係付けられるアニメーションに対応してもよい。
プロセッサは、ディスプレイの左側からディスプレイの右側に動くオブジェクトの「質量(mass)」をシミュレートするように構成される触覚を決定してもよい。
ユーザ生成コンテンツのオーサリングには多くの利点がある。例えば、映像の触知性強化は、創作的なコンテンツ作成への道を開いてもよい。アニメーション化されたステッカー又は触知のみと向上したアニメーション化されたステッカーとの結合は、映像作成におけるユーザ体験に対する追加のはけ口を更に提供してもよい。更に、アニメーション化されたオーバレイ概念に追加された追加の特徴として触知性強化の使用(例えば、映画内のアニメーション化されたステッカー)は、ユーザ体験を更に高めることができる。
上記の方法、システム及び装置は例示である。様々な構成によって、適宜、様々な手続き又は構成要素が省略、置換、又は追加されてもよい。例えば、代替的な構成では、方法は記載されたものとは異なる順序で実行されてもよく、及び/又はステージが追加、省略及び/又は結合されてもよい。また、所定の構成に関して記載された機能は、様々な他の構成に結合されてもよい。構成の異なる態様及び要素が、同様に結合されてもよい。また、技術は進歩するものであり、そのため要素の多くは例示であり、本開示又は請求項の範囲を限定しない。
Claims (22)
- 映像信号を受信するステップと、
触覚オーサリングに関係付けられるユーザインターフェースを表示するステップと、
触覚効果に関係付けられるジェスチャを検出するステップと、
前記ジェスチャに部分的に基づいて触覚効果を決定するステップと、
前記触覚効果を前記映像信号内の場所と関係付けるステップと、
前記映像信号及び関係付けられた触覚効果を記憶するステップと
を含む、コンテンツオーサリングのための方法。 - 前記ユーザインターフェースは、前記映像信号に関係付けられる画像及び前記画像の上にタイムラインを含む、請求項1に記載の方法。
- 前記タイムラインは、前記触覚効果のグラフィカル表現を含む、請求項2に記載の方法。
- 前記映像信号は、移動装置のカメラから受信される信号を含む、請求項1に記載の方法。
- 前記ジェスチャに基づいて触覚効果を決定するステップは、ユーザが選択した触覚効果を決定することを含む、請求項1に記載の方法。
- 前記映像信号及び前記関係付けられた触覚効果を記憶するステップは、前記映像信号及び前記関係付けられた触覚効果を単一のメディアファイルに記憶することを含む、請求項1に記載の方法。
- 前記映像信号及び関係付けられた触覚効果を記憶するステップは、前記映像信号を前記触覚効果とは別のファイルに記憶することを含む、請求項1に記載の方法。
- 前記映像信号にステッカーを関係付けるステップを更に含む、請求項1に記載の方法。
- 前記ステッカーは、ユーザが選択したステッカーを含む、請求項7に記載の方法。
- 前記ステッカー、前記映像信号、及び前記関係付けられた触覚効果を単一のファイルに記憶するステップを更に含む、請求項7に記載の方法。
- 映像信号を受信して、前記映像信号に関係付けられるユーザインターフェースを出力するように構成されるディスプレイと、
ジェスチャを検出して、前記ジェスチャに関係付けられるセンサ信号を送信するように構成されるセンサと、
前記センサ及び前記ディスプレイと通信するプロセッサであって、
前記センサ信号を受信して、前記ジェスチャに部分的に基づいて触覚効果を決定すること、
触覚効果を前記映像信号内の場所と関係付けること、及び
前記映像信号及び関係付けられた触覚効果を記憶すること
を行うように構成されるプロセッサと
を備える、コンテンツオーサリングのためのシステム。 - 前記ユーザインターフェースは、前記映像信号に関係付けられる画像及び前記画像の上にタイムラインを含む、請求項11に記載のシステム。
- 前記タイムラインは、前記触覚効果のグラフィカル表現を含む、請求項12に記載のシステム。
- 画像をキャプチャするように構成されるカメラを更に備え、前記映像信号が前記画像に関係付けられる、請求項11に記載のシステム。
- 前記ユーザ入力に基づいて触覚効果を決定することは、ユーザが選択した触覚効果を決定することを含む、請求項11に記載のシステム。
- 前記映像信号及び前記関係付けられた触覚効果を記憶することは、前記映像信号及び前記関係付けられた触覚効果を単一のメディアファイルに記憶することを含む、請求項11に記載のシステム。
- 前記プロセッサは、前記映像信号にステッカーを関係付けるように更に構成される、請求項11に記載のシステム。
- 前記ステッカーは、ユーザが選択したステッカーを含む、請求項17に記載のシステム。
- 前記プロセッサは、前記ステッカー、前記映像信号、及び前記関係付けられた触覚効果を単一のファイルに記憶するように更に構成される、請求項18に記載のシステム。
- 前記プロセッサと通信する触覚出力装置を更に備える、請求項11に記載のシステム。
- 前記触覚出力装置は、圧電アクチュエータ、電気モータ、電磁アクチュエータ、音声コイル、形状記憶合金、電気活性ポリマ、ソレノイド、偏心回転質量モータ(ERM)又は線形共振アクチュエータ(LRA)の1つ以上を含む、請求項20に記載のシステム。
- プロセッサによって実行されると、前記プロセッサに
映像信号を受信すること、
触覚オーサリングに関係付けられるユーザインターフェースに関係付けられる表示信号をディスプレイに送信すること、
触覚効果に関係付けられるジェスチャを検出すること、
前記ジェスチャに基づいて触覚効果を決定すること、
前記触覚効果を前記映像信号内の場所と関係付けること、及び
前記映像信号及び関係付けられた触覚効果を記憶すること
を行わせるように構成されるプログラムコードを含む、一時的でないコンピュータ可読媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201461928357P | 2014-01-16 | 2014-01-16 | |
US61/928,357 | 2014-01-16 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015005703A Division JP6516477B2 (ja) | 2014-01-16 | 2015-01-15 | ユーザ生成コンテンツをオーサリングするためのシステム及び方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019125376A true JP2019125376A (ja) | 2019-07-25 |
Family
ID=52434541
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015005703A Expired - Fee Related JP6516477B2 (ja) | 2014-01-16 | 2015-01-15 | ユーザ生成コンテンツをオーサリングするためのシステム及び方法 |
JP2019031909A Pending JP2019125376A (ja) | 2014-01-16 | 2019-02-25 | ユーザ生成コンテンツをオーサリングするためのシステム及び方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015005703A Expired - Fee Related JP6516477B2 (ja) | 2014-01-16 | 2015-01-15 | ユーザ生成コンテンツをオーサリングするためのシステム及び方法 |
Country Status (5)
Country | Link |
---|---|
US (2) | US10437341B2 (ja) |
EP (2) | EP3448053A1 (ja) |
JP (2) | JP6516477B2 (ja) |
KR (1) | KR20150085801A (ja) |
CN (1) | CN104793737B (ja) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9971406B2 (en) * | 2014-12-05 | 2018-05-15 | International Business Machines Corporation | Visually enhanced tactile feedback |
KR20180048629A (ko) * | 2015-09-25 | 2018-05-10 | 임머숀 코퍼레이션 | 햅틱 효과 설계 시스템 |
KR102512840B1 (ko) * | 2015-10-15 | 2023-03-22 | 삼성전자주식회사 | 실행 화면 레코딩 방법 및 그 방법을 처리하는 전자 장치 |
US10031580B2 (en) | 2016-01-13 | 2018-07-24 | Immersion Corporation | Systems and methods for haptically-enabled neural interfaces |
US10102723B2 (en) | 2016-10-31 | 2018-10-16 | Immersion Corporation | Dynamic haptic generation based on detected video events |
US10101813B2 (en) * | 2016-12-14 | 2018-10-16 | Immersion Corporation | Automatic haptic generation based on color features and motion analysis |
US10147460B2 (en) * | 2016-12-28 | 2018-12-04 | Immersion Corporation | Haptic effect generation for space-dependent content |
FR3064504B1 (fr) * | 2017-03-31 | 2022-02-04 | Commissariat Energie Atomique | Interface offrant une modulation de friction localisee par lubrification acoustique |
US10194128B2 (en) | 2017-06-12 | 2019-01-29 | Amazon Technologies, Inc. | Systems and processes for generating a digital content item |
US10684689B2 (en) * | 2018-04-20 | 2020-06-16 | Immersion Corporation | Cross-platform dynamic haptic effect design tool for augmented or virtual reality environments |
US20200012347A1 (en) * | 2018-07-09 | 2020-01-09 | Immersion Corporation | Systems and Methods for Providing Automatic Haptic Generation for Video Content |
CN109379485B (zh) * | 2018-09-26 | 2021-03-19 | 腾讯数码(天津)有限公司 | 应用程序的反馈方法、装置、终端及存储介质 |
US20200150765A1 (en) * | 2018-11-14 | 2020-05-14 | Immersion Corporation | Systems and methods for generating haptic effects based on visual characteristics |
US20200192480A1 (en) * | 2018-12-18 | 2020-06-18 | Immersion Corporation | Systems and methods for providing haptic effects based on a user's motion or environment |
CN110572709B (zh) * | 2019-08-30 | 2022-01-25 | 杭州影笑科技有限责任公司 | 一种贴纸快捷定位方法 |
US10972682B1 (en) * | 2019-12-12 | 2021-04-06 | Facebook, Inc. | System and method for adding virtual audio stickers to videos |
KR20210114059A (ko) * | 2020-06-30 | 2021-09-17 | 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 | 비디오 처리 방법, 장치, 전자 기기 및 저장 매체 |
US11579838B2 (en) * | 2020-11-26 | 2023-02-14 | Verses, Inc. | Method for playing audio source using user interaction and a music application using the same |
US11989348B2 (en) | 2020-12-31 | 2024-05-21 | Snap Inc. | Media content items with haptic feedback augmentations |
KR20230124086A (ko) | 2020-12-31 | 2023-08-24 | 스냅 인코포레이티드 | 햅틱 피드백 응답을 갖는 전자 통신 인터페이스 |
KR20230128063A (ko) | 2020-12-31 | 2023-09-01 | 스냅 인코포레이티드 | 햅틱 피드백을 갖는 실시간 비디오 통신 인터페이스 |
US12050729B2 (en) | 2021-03-31 | 2024-07-30 | Snap Inc. | Real-time communication interface with haptic and audio feedback response |
JP7386363B2 (ja) * | 2021-05-19 | 2023-11-24 | アルプスアルパイン株式会社 | 感覚制御方法、感覚制御システム、変換モデル生成方法、変換モデル生成システム、関係式変換方法、およびプログラム |
CN113949900B (zh) * | 2021-10-08 | 2023-11-24 | 上海哔哩哔哩科技有限公司 | 直播贴图处理方法、系统、设备及存储介质 |
US11809630B1 (en) * | 2022-04-21 | 2023-11-07 | Meta Platforms Technologies, Llc | Using a haptic effects library to determine whether to provide predefined or parametrically-defined haptic responses, and systems and methods of use thereof |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000250689A (ja) * | 1999-03-03 | 2000-09-14 | Minolta Co Ltd | 仮想物体呈示システム |
EP1758398A1 (en) * | 2005-08-23 | 2007-02-28 | Syneola SA | Multilevel semiotic and fuzzy logic user and metadata interface means for interactive multimedia system having cognitive adaptive capability |
JP2008522275A (ja) * | 2004-11-25 | 2008-06-26 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | コンテンツ編集のためのユーザインタフェース |
JP2008165768A (ja) * | 2006-12-18 | 2008-07-17 | Samsung Electronics Co Ltd | 動的映像物を生成するためのテンプレートを編集する装置および方法。 |
WO2008090859A1 (ja) * | 2007-01-22 | 2008-07-31 | Sony Corporation | 情報処理装置および方法、並びにプログラム |
JP2011528476A (ja) * | 2008-07-15 | 2011-11-17 | イマージョン コーポレイション | 物理法則に基づく触覚メッセージングのためのシステム及び方法 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7623114B2 (en) | 2001-10-09 | 2009-11-24 | Immersion Corporation | Haptic feedback sensations based on audio output from computer devices |
US8700791B2 (en) * | 2005-10-19 | 2014-04-15 | Immersion Corporation | Synchronization of haptic effect data in a media transport stream |
US20090079690A1 (en) | 2007-09-21 | 2009-03-26 | Sony Computer Entertainment America Inc. | Method and apparatus for enhancing entertainment software through haptic insertion |
KR101556522B1 (ko) * | 2008-06-27 | 2015-10-01 | 엘지전자 주식회사 | 촉각 효과를 제공하는 휴대 단말기 및 그 제어방법 |
US20100033426A1 (en) | 2008-08-11 | 2010-02-11 | Immersion Corporation, A Delaware Corporation | Haptic Enabled Gaming Peripheral for a Musical Game |
EP2350773B1 (en) | 2008-10-10 | 2017-04-19 | Internet Services, Llc | Haptic otuput device for use with haptic encoded media |
US8540571B2 (en) | 2010-03-31 | 2013-09-24 | Immersion Corporation | System and method for providing haptic stimulus based on position |
US9678569B2 (en) | 2010-04-23 | 2017-06-13 | Immersion Corporation | Systems and methods for providing haptic effects |
EP2585895A1 (en) | 2010-06-28 | 2013-05-01 | TP Vision Holding B.V. | Enhancing content viewing experience |
US20120210200A1 (en) * | 2011-02-10 | 2012-08-16 | Kelly Berger | System, method, and touch screen graphical user interface for managing photos and creating photo books |
US8923684B2 (en) * | 2011-05-23 | 2014-12-30 | Cctubes, Llc | Computer-implemented video captioning method and player |
US8493354B1 (en) | 2012-08-23 | 2013-07-23 | Immersion Corporation | Interactivity model for shared feedback on mobile devices |
US8711118B2 (en) | 2012-02-15 | 2014-04-29 | Immersion Corporation | Interactivity model for shared feedback on mobile devices |
KR102035305B1 (ko) * | 2013-01-15 | 2019-11-18 | 삼성전자주식회사 | 휴대 단말에서 햅틱 효과를 제공하는 방법 및 기계로 읽을 수 있는 저장 매체 및 휴대 단말 |
US9997032B2 (en) | 2013-04-09 | 2018-06-12 | Immersion Corporation | Offline haptic conversion system |
US20140380380A1 (en) | 2013-06-24 | 2014-12-25 | Cinematique, L.L.C. | System and method for encoding media with motion touch objects and display thereof |
-
2015
- 2015-01-14 US US14/596,569 patent/US10437341B2/en not_active Expired - Fee Related
- 2015-01-15 EP EP18198360.2A patent/EP3448053A1/en not_active Withdrawn
- 2015-01-15 EP EP15151346.2A patent/EP2897026A1/en not_active Ceased
- 2015-01-15 JP JP2015005703A patent/JP6516477B2/ja not_active Expired - Fee Related
- 2015-01-16 CN CN201510097741.0A patent/CN104793737B/zh not_active Expired - Fee Related
- 2015-01-16 KR KR1020150008066A patent/KR20150085801A/ko not_active Application Discontinuation
-
2019
- 2019-02-25 JP JP2019031909A patent/JP2019125376A/ja active Pending
- 2019-08-23 US US16/549,762 patent/US20200057506A1/en not_active Abandoned
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000250689A (ja) * | 1999-03-03 | 2000-09-14 | Minolta Co Ltd | 仮想物体呈示システム |
JP2008522275A (ja) * | 2004-11-25 | 2008-06-26 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | コンテンツ編集のためのユーザインタフェース |
EP1758398A1 (en) * | 2005-08-23 | 2007-02-28 | Syneola SA | Multilevel semiotic and fuzzy logic user and metadata interface means for interactive multimedia system having cognitive adaptive capability |
JP2008165768A (ja) * | 2006-12-18 | 2008-07-17 | Samsung Electronics Co Ltd | 動的映像物を生成するためのテンプレートを編集する装置および方法。 |
WO2008090859A1 (ja) * | 2007-01-22 | 2008-07-31 | Sony Corporation | 情報処理装置および方法、並びにプログラム |
JP2011528476A (ja) * | 2008-07-15 | 2011-11-17 | イマージョン コーポレイション | 物理法則に基づく触覚メッセージングのためのシステム及び方法 |
Non-Patent Citations (1)
Title |
---|
DANIEAU, FABIEN: "H-Studio: an authoring tool for adding haptic and motion effects to audiovisual content", PROCEEDINGS OF THE ADJUNCT PUBLICATION OF THE 26TH ANNUAL ACM SYMPOSIUM ON USER INTERFACE SOFTWARE A, JPN7020001502, 31 October 2013 (2013-10-31), pages 83 - 84, XP058934225, ISSN: 0004452541, DOI: 10.1145/2508468.2514721 * |
Also Published As
Publication number | Publication date |
---|---|
US20150199024A1 (en) | 2015-07-16 |
EP2897026A1 (en) | 2015-07-22 |
US10437341B2 (en) | 2019-10-08 |
CN104793737A (zh) | 2015-07-22 |
KR20150085801A (ko) | 2015-07-24 |
JP2015135678A (ja) | 2015-07-27 |
US20200057506A1 (en) | 2020-02-20 |
EP3448053A1 (en) | 2019-02-27 |
JP6516477B2 (ja) | 2019-05-22 |
CN104793737B (zh) | 2020-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6516477B2 (ja) | ユーザ生成コンテンツをオーサリングするためのシステム及び方法 | |
JP6985134B2 (ja) | 視野を用いる触覚フィードバック | |
US10276004B2 (en) | Systems and methods for generating haptic effects associated with transitions in audio signals | |
US10203757B2 (en) | Systems and methods for shape input and output for a haptically-enabled deformable surface | |
US9934660B2 (en) | Systems and methods for generating haptic effects associated with an envelope in audio signals | |
US10474238B2 (en) | Systems and methods for virtual affective touch | |
JP6598500B2 (ja) | ビューポートベースの拡張現実感触覚効果のシステム、方法及び非一時的コンピュータ可読媒体 | |
US8711118B2 (en) | Interactivity model for shared feedback on mobile devices | |
CN108255295A (zh) | 用于空间依赖性内容的触觉效果生成 | |
KR20160062698A (ko) | 변형 기반의 햅틱 효과들을 위한 시스템들 및 방법들 | |
US20180232051A1 (en) | Automatic localized haptics generation system | |
KR20170059368A (ko) | 햅틱 가능 플렉시블 디바이스들 | |
US20160246375A1 (en) | Systems And Methods For User Interaction With A Curved Display | |
JP2018113025A (ja) | 触覚によるコンプライアンス錯覚のためのシステム及び方法 | |
US11681372B2 (en) | Touch enabling process, haptic accessory, and core haptic engine to enable creation and delivery of tactile-enabled experiences with virtual objects | |
US10101813B2 (en) | Automatic haptic generation based on color features and motion analysis | |
EP3367216A1 (en) | Systems and methods for virtual affective touch |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190327 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190327 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200616 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210302 |