JP2021026618A - 生成装置、生成方法、プログラム及び触覚提示デバイス - Google Patents

生成装置、生成方法、プログラム及び触覚提示デバイス Download PDF

Info

Publication number
JP2021026618A
JP2021026618A JP2019145674A JP2019145674A JP2021026618A JP 2021026618 A JP2021026618 A JP 2021026618A JP 2019145674 A JP2019145674 A JP 2019145674A JP 2019145674 A JP2019145674 A JP 2019145674A JP 2021026618 A JP2021026618 A JP 2021026618A
Authority
JP
Japan
Prior art keywords
tactile
identification information
time
control signal
generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019145674A
Other languages
English (en)
Inventor
諒 横山
Ryo Yokoyama
諒 横山
伊藤 鎮
Osamu Ito
鎮 伊藤
山野 郁男
Ikuo Yamano
郁男 山野
雅子 門林
Masako Kadobayashi
雅子 門林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2019145674A priority Critical patent/JP2021026618A/ja
Priority to PCT/JP2020/028178 priority patent/WO2021024788A1/ja
Priority to US17/631,547 priority patent/US20220276710A1/en
Priority to CN202080055849.2A priority patent/CN114206454A/zh
Publication of JP2021026618A publication Critical patent/JP2021026618A/ja
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0016Means for indicating which keys, frets or strings are to be actuated, e.g. using lights or leds
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1037Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted for converting control signals received from the game device into a haptic signal, e.g. using force feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • G10H2220/015Musical staff, tablature or score displays, e.g. for score reading during a performance.
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/021Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs, seven segments displays
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/101Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters
    • G10H2220/106Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters using icons, e.g. selecting, moving or linking icons, on-screen symbols, screen regions or segments representing musical elements or parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/265Key design details; Special characteristics of individual keys of a keyboard; Key-like musical input devices, e.g. finger sensors, pedals, potentiometers, selectors
    • G10H2220/311Key design details; Special characteristics of individual keys of a keyboard; Key-like musical input devices, e.g. finger sensors, pedals, potentiometers, selectors with controlled tactile or haptic feedback effect; output interfaces therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/321Garment sensors, i.e. musical control means with trigger surfaces or joint angle sensors, worn as a garment by the player, e.g. bracelet, intelligent clothing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/321Garment sensors, i.e. musical control means with trigger surfaces or joint angle sensors, worn as a garment by the player, e.g. bracelet, intelligent clothing
    • G10H2220/326Control glove or other hand or palm-attached control device

Abstract

【課題】表現したい触感を実際に体感する以外の方法で共有しつつ、触覚提示のための制御信号を生成すること。【解決手段】視覚的に表現された、触感を示す信号の識別情報および時系列的特徴を取得する取得部と、上記取得部によって取得された上記識別情報および上記時系列的特徴に基づいて触覚提示デバイスの制御信号を生成する生成部とを備える。【選択図】図2

Description

本開示は、生成装置、生成方法、プログラム及び触覚提示デバイスに関する。
ユーザに対し、力や振動、動き等による触覚刺激を提示することによって、例えば実際には存在しない物体等への触感を知覚させる、いわゆるハプティクスを用いた各種の技術が提案されている。
例えば、特許文献1には、ゲーム等の仮想現実空間において爆発といった所定のイベントが生じた場合に、触覚提示デバイスであるゲームコントローラを介してユーザへ所定の触感を知覚させる技術が開示されている。
特開2015−166890号公報
しかしながら、人が知覚する触感は、実際に体感する以外の方法では共有しづらいという問題がある。
例えば、触覚提示デバイスは、デバイス内に搭載されたアクチュエータの駆動に基づく振動等により触覚刺激を提示する。この場合、提示したい触覚刺激、言い換えれば、表現したい触感は、視覚的にはアクチュエータを制御する制御信号の波形でしか表すことができない。これはまた、かかる制御信号を作成することでしか、表現したい触感をデザインすることができないことを示している。
このため、例えば、触覚提示を含むコンテンツの制作においては、コンテンツの中で表現したい触感を共有しづらく、かかる触感を考える人と、実際に前述の制御信号を作成する人とを分けづらかった。
そこで、本開示では、表現したい触感を実際に体感する以外の方法で共有しつつ、触覚提示のための制御信号を生成することを可能とする、新規かつ改良された生成装置、生成方法、プログラム及び触覚提示デバイスを提案する。
本開示によれば、視覚的に表現された、触感を示す信号の識別情報および時系列的特徴を取得する取得部と、前記取得部によって取得された前記識別情報および前記時系列的特徴に基づいて触覚提示デバイスの制御信号を生成する生成部とを備える、生成装置が提供される。
また、本開示によれば、コンピュータが実行する生成方法であって、視覚的に表現された、触感を示す信号の識別情報および時系列的特徴を取得することと、取得された前記識別情報および前記時系列的特徴に基づいて触覚提示デバイスの制御信号を生成することとを含む、生成方法が提供される。
また、本開示によれば、視覚的に表現された、触感を示す信号の識別情報および時系列的特徴を取得する取得手順と、前記取得手順によって取得された前記識別情報および前記時系列的特徴に基づいて触覚提示デバイスの制御信号を生成する生成手順とをコンピュータに実行させる、プログラムが提供される。
また、本開示によれば、振動部と、制御部とを備え、前記制御部は、視覚的に表現された、触感を示す信号の識別情報および時系列的特徴を取得し、取得した前記識別情報および前記時系列的特徴に基づいて前記振動部を振動させる制御信号を生成する、触覚提示デバイスが提供される。
実施形態に係る生成システムの概要説明図(その1)である。 実施形態に係る生成システムの概要説明図(その2)である。 実施形態に係る生成システムの概要説明図(その3)である。 実施形態に係る生成システムの概要説明図(その4)である。 実施形態に係る生成システムの概要説明図(その5)である。 実施形態に係る生成システムの構成例を示すブロック図である。 実施形態に係るパラメータの説明図である。 第1のデザイン例を示す図である。 第2のデザイン例を示す図である。 その他のデザイン例を示す図(その1)である。 その他のデザイン例を示す図(その2)である。 第1の変形例を示す図である。 第2の変形例を示す図である。 第3の変形例を示す図である。 実施形態に係る生成装置が実行する処理手順を示すフローチャートである。 生成装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.実施形態に係る生成方法の概要
2.実施形態に係る生成システムの構成
3.実施形態に係る触感のデザイン例
3−1.第1のデザイン例
3−2.第2のデザイン例
3−3.その他のデザイン例
4.変形例に係る触感のデザイン例
4−1.第1の変形例
4−2.第2の変形例
4−3.第3の変形例
5.実施形態に係る生成システムの処理手順
6.ハードウェア構成
7.まとめ
<1.実施形態に係る生成方法の概要>
まず、実施形態に係る生成方法の概要について、図1A〜図1Eを用いて説明する。図1A〜図1Eは、実施形態に係る生成方法の概要説明図(その1)〜(その5)である。
図1Aに示すように、実施形態に係る生成システム1は、触覚提示デバイス100を含む。触覚提示デバイス100は、ユーザへ触覚刺激を提示するデバイスであり、例えば内部に複数の振動部103を有する。
振動部103は、例えばアクチュエータであり、後述する生成装置10によって生成される制御信号により駆動して振動を発生させ、かかる振動を触覚刺激として提示させる。アクチュエータとしては、例えば、偏心モータや、リニア・バイブレータ、圧電素子等を用いることができる。
なお、図1Aでは、触覚提示デバイス100が、6個の振動部103を有する場合を示しているが、あくまで一例であって、振動部103の個数を限定するものではない。
また、図1Aでは、触覚提示デバイス100が、袖なしのベスト型である場合を示しているが、無論、袖ありのウェア型であってもよい。かかる袖ありの場合、振動部103は、ユーザの胸部および腹部だけでなく、ユーザの両腕に対応する位置にも一以上配置することができる。
また、触覚提示デバイス100は、ウェアラブル型として構成される場合、図1Aに示すような上着に限らず、ズボンや靴下、靴、ベルト、帽子、手袋、眼鏡、または、マスク等として構成されてもよい。
また、触覚提示デバイス100は、ウェアラブル型に限らず、ユーザが手に持つ機器、例えばゲームコントローラやスマートフォン、携帯型音楽プレーヤ等に搭載されるオンハンド型として構成されてもよい。
また、触覚提示デバイス100は、ウェアラブル型やオンハンド型に限らず、ベッドや椅子といった家具または各種設備に搭載されるスレート/フロア型として構成されてもよい。
ところで、人が知覚する触感は、実際に体感する以外の方法では共有しづらいという問題がある。例えば、ユーザへ提示したい触覚刺激、言い換えれば、ユーザに対して表現したい触感は、視覚的には前述の振動部103を振動させる制御信号の波形でしか表すことができない。これはまた、触覚提示を含むコンテンツの制作者が、かかる制御信号を作成することでしか、表現したい触感をデザインすることができないことを示している。
このため、前述のコンテンツの制作においては、コンテンツの中で表現したい触感を考える人と、実際に前述の制御信号を作成する人とを分けづらい事態が起こりうる。
ここで、仮に、触感を考える人を「クリエイター」、制御信号を作成する人を「再現者」として、敢えて分けた場合を想定する。「クリエイター」は、例えばコンテンツ制作における監督や、演出家等に相当する。「再現者」は、例えば技術スタッフ等に相当する。
かかる場合、クリエイターの考える触感は、上述したように視覚的には前述の振動部103を振動させる制御信号の波形でしか表すことができないため、クリエイターは、図1Bに示すように、表現したい触感を例えば再現者に口頭で指示することとなる。
これを受けて再現者は、指示の内容に基づいて触覚提示デバイス100の制御信号を作成し、触覚提示デバイス100を駆動して実際に触覚を提示させる。すると、クリエイターは、かかる触覚提示を例えば自身で体感し、自身が表現したい触感に合致すればOKを出し、合致しなければ合致するまで再現者にトライアル・アンド・エラーを行わせる必要がある。
このように、クリエイターと再現者とが分かれている状況において、クリエイターが表現したい触感を触覚的にしか再現者と共有できない場合、クリエイターの意図が再現者に伝わりにくく、例えば映像コンテンツの制作に煩雑な手間がかかってしまう。
なお、コンテンツが例えば触覚提示を含む音響コンテンツであり、かかる音響コンテンツにおける触覚提示パートの作成者である「クリエイター」と、触覚提示パートを実演する触覚提示デバイス100のマニピュレーターである「再現者」とを分けたい場合にも同様のことが言える。
かかる場合、例えばライブ会場等で音響コンテンツを公開しようとしても、クリエイターが表現したい触感をやはり触覚的にしか再現者と共有できないとすれば、触覚提示パートの実演につき、準備段階から煩雑な手間がかかってしまう。
そこで、実施形態に係る生成方法では、視覚的に表現された、触感を示す信号の識別情報および時系列的特徴を取得し、取得された識別情報および時系列的特徴に基づいて触覚提示デバイス100の制御信号を生成することとした。
具体的に、コンテンツが触覚提示を含む音響コンテンツである場合を考える。上述したように、触覚提示パートの「クリエイター」と「再現者」とは分かれているものとする。
かかる場合、図1Cに示すように、実施形態に係る生成方法では、表現したい触感を、他の音楽パートと同様に例えば五線譜に視覚的に表現することとした。かかる表現には、少なくとも触感の識別情報および時系列的特徴が含まれる。ここに言う時系列的特徴は、例えば時間的推移である。
例えば、図中の「触感#1」は、予め設定された触感の識別情報を示している。また、かかる「触感#1」パートの五線譜上に描かれた曲線が、時間的推移を示している。以下、このように記譜された触感の視覚的表現を「触譜」と言う場合がある。
触譜は、五線譜上の記譜法であるので、音楽の場合と同様に、横が時間を表し、左から右へ描かれる。したがって、図1Dに示すように、左端の始点が「出力開始」の位置を表し、右端の終点が「出力終了」の位置を表している。また、始点と終点の間が、「継続時間」を表す。
また、触譜は、縦は音楽の場合の音高と同様に、レベル値を表す。なお、触譜は、触覚提示デバイス100の制御信号の波形を直接に表すものではなく、制御信号が触感を示すデータとして有している特徴をパラメータ化し、かかるパラメータの識別情報および時間的推移を表すものである。したがって、前述のレベル値はかかるパラメータのレベル値を示す。パラメータの具体例については、図3A〜図3Eを用いた説明で後述する。
かかる触譜は、図1Eに示すように、例えば生成装置10が備えるタッチパネル21から、電子ペンP等のポインティングデバイスや、指を用いつつ入力することが可能である。したがって、例えば音響コンテンツの楽曲の作曲者が触感提示パートの作成者を兼ねる「クリエイター」である場合、かかるクリエイターは、タッチパネル21を介して楽譜および触譜を並行して作成することができる。
また、再現者は、かかるクリエイターにより作成され、クリエイターが楽曲にあわせて表現したい触感が視覚的に表現された触譜に基づいて、触覚提示デバイス100の制御信号を生成し、クリエイターの意図に応じた触覚提示デバイス100のマニピュレートを行うことができる。
なお、音響コンテンツの楽曲の作曲者が、必ずしも触感提示パートの作成者であるクリエイターである必要はない。かかる場合、クリエイターは、例えば作曲者の楽譜を参照しつつ、これに触感提示パートを付記する形で、表現したい触感をデザインすることができる。
また、ここでは、再現者が触譜に基づいて触覚提示デバイス100の制御信号を生成し、触覚提示デバイス100をマニピュレートする場合を例に挙げたが、再現者によらず、触譜に基づいて触覚提示デバイス100の制御信号を自動生成し、自動的に触覚提示デバイス100がマニピュレートされるようにしてもよい。
また、ここでは、コンテンツが触覚提示を含む音響コンテンツである場合を例に挙げたが、コンテンツが映像コンテンツであってもよい。かかる場合の触感のデザイン例については、図4Aおよび図4Bを用いて後述する。
また、かかる触感のデザインに際しては、GUI(Graphical User Interface)を介した視覚的かつ直感的なデザインを行うことができる。かかる場合についても、図4Aおよび図4Bを用いて後述する。
以下、上述した実施形態に係る生成方法を適用した生成システム1の構成例について、より具体的に説明する。
<2.実施形態に係る生成システムの構成>
図2は、実施形態に係る生成システム1の構成例を示すブロック図である。なお、図2では、実施形態の特徴を説明するために必要な構成要素のみを表しており、一般的な構成要素についての記載を省略している。
換言すれば、図2に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。例えば、各ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。
また、図2を用いた説明では、既に説明済みの構成要素については、説明を簡略するか、省略する場合がある。
図2に示すように、実施形態に係る生成システム1は、生成装置10と、触覚提示デバイス100とを含む。生成装置10と、触覚提示デバイス100とは、有線通信や無線通信を介して相互通信可能に設けられる。
生成装置10は、入力部2と、出力部3と、通信部11と、記憶部12と、制御部13とを備える。入力部2は、制作者からの入力を受け付ける入力デバイスである。ここで、制作者は、前述の「クリエイター」や「再現者」を含む。出力部3は、例えば表示デバイスである。出力部3は、入力部2を兼ねてもよい。前述のタッチパネル21は、かかる出力部3が入力部2を兼ねる例に相当する。
通信部11は、例えば、NIC(Network Interface Card)等によって実現される。通信部11は、触覚提示デバイス100と有線または無線で接続され、触覚提示デバイス100との間で情報の送受信を行う。
記憶部12は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現され、図2の例では、GUI部品情報12aと、パラメータ関連情報12bと、デザイン情報12cと、制御信号情報12dとを記憶する。
GUI部品情報12aは、触感のデザイン画面に対して配置される各種のGUI部品に関する情報である。パラメータ関連情報12bは、前述のパラメータに関する情報であり、例えば各パラメータの識別情報等を含む。
デザイン情報12cは、制作者によってデザインされた触感のデザイン内容が格納される。制御信号情報12dは、デザイン情報12cに基づいて生成される触覚提示デバイス100の制御信号が格納される。
制御部13は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、生成装置10内部のROM(Read Only Memory)といった記憶デバイスに記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部13は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現することができる。
制御部13は、GUI制御部13aと、取得部13bと、生成部13cと、出力制御部13dとを有し、以下に説明する情報処理の機能や作用を実現または実行する。
GUI制御部13aは、制作者に対するGUIに関する制御処理を行う。具体的には、GUI制御部13aは、GUI部品情報12aとパラメータ関連情報12bとを関連付けつつ、GUI部品を配置した触感のデザイン画面を生成し、出力部3へ出力する。
また、GUI制御部13aは、かかるデザイン画面を介して入力部2から入力される入力内容を受け付け、かかる入力内容に応じて適宜デザイン画面を更新し、出力部3へ出力する。
取得部13bは、デザイン画面を介して入力された触感のデザイン内容をGUI制御部13aから取得し、デザイン情報12cへ格納する。
生成部13cは、デザイン情報12cに基づき、触覚提示デバイス100の制御信号を生成し、制御信号情報12dへ格納する。
出力制御部13dは、制御信号情報12dに基づき、通信部11を介して触覚提示デバイス100へ向け制御信号を出力し、触覚提示デバイス100に触覚刺激を提示させる。
触覚提示デバイス100は、通信部101と、制御部102と、振動部103とを備える。通信部101は、上述した通信部11と同様に、例えばNIC等によって実現される。通信部101は、生成装置10と有線または無線で接続され、生成装置10との間で情報の送受信を行う。
制御部102は、上述した制御部13と同様に、コントローラであり、例えば、CPUやMPU等によって、触覚提示デバイス100内部のROM等に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部102は、上述した制御部13と同様に、例えば、ASICやFPGA等の集積回路により実現することができる。
制御部102は、通信部101を介して入力された制御信号に基づいて振動部103を駆動させる。振動部103については既に述べたため、ここでの説明は省略する。
<3.実施形態に係る触感のデザイン例>
ところで、上述した触譜の説明に際し、触譜が、触覚提示デバイス100の制御信号が触感を示すデータとして有している特徴をパラメータ化し、かかるパラメータの識別情報および時間的推移を表すものである点については既に述べた。
そこで次に、かかるパラメータの具体例およびかかるパラメータを用いた触感のデザイン例について、図3A〜図3Eを用いて説明する。図3Aは、実施形態に係るパラメータの説明図である。また、図3Bは、第1のデザイン例を示す図である。また、図3Cは、第2のデザイン例を示す図である。また、図3Dおよび図3Eは、その他のデザイン例を示す図(その1)および(その2)である。
[3−1.第1のデザイン例]
触覚提示デバイス100の制御信号が触感を示すデータとして有している特徴をパラメータ化する場合、図3Aに示すように、例えば、「強さ」、「粗さ」、「ピッチ」等の各成分にパラメータ化することができる。
ここで、「強さ」は、提示される触覚刺激の強さを示すパラメータである。出力の大小を表現するパラメータと言い換えてもよい。
また、「粗さ」は、同じ信号が続かないさまを示すパラメータである。振動で言うと、かかる「粗さ」が大きいほど、様々な周波数成分を含むこととなり、最終的にはホワイトノイズのような状態となる。温度で言うと、20℃から10℃、10℃から30℃のように、様々な温度に素早く変化するような状態となる。
また、「ピッチ」は、大きくなるほど、振動周波数が高くなったり、温度が大きくなったりするパラメータである。
図3Aには、これら「強さ」、「粗さ」、「ピッチ」のそれぞれを変化させた組み合わせ4種類についての制御信号の波形を示している。触感のデザインに関し、かかる「強さ」、「粗さ」、「ピッチ」のパラメータ化は、制御信号が有する物性値からのアプローチによるものと言える。
そして、図3Bに示すように、例えばこれら「強さ」、「粗さ」、「ピッチ」をそれぞれ識別情報とした触譜を入力することによって、音響コンテンツにおける触感の視覚的なデザインを実現することができる。
[3−2.第2のデザイン例]
また、触覚提示デバイス100の制御信号が触感を示すデータとして有している特徴をパラメータ化する場合、図3Cに示すように、例えば、「激しさ」、「軽さ」、「鋭さ」、「快さ」等の各成分にパラメータ化することができる。かかるパラメータ化は、触感を知覚するユーザがどう感じるかを示すものであり、前述の物性値に対して感性値からのアプローチによるものと言える。
ここで、「激しさ」は、大きくなるほど、激しさが感じられるパラメータである。例えばこれは、前述の「強さ」が時間的に目まぐるしく、かつ、大きな変化量で変化することに相当する。
また、「軽さ」は、大きくなるほど、軽やかさが感じられるパラメータである。例えば周波数が高いほど、重々しい印象は小さくなる、すなわち軽やかさが増すことができる。
また、「鋭さ」は、大きくなるほど、鋭さが感じられるパラメータである。例えば、出力開始時だけ触覚刺激を瞬間的に強く出力したり、継続時間を短くしたりすることによって、鋭さを感じさせることができる。
また、「快さ」は、大きくなるほど、快さが感じられるパラメータである。例えば、混ざっている周波数成分を少なくすることで、快さを感じさせることができる。
そして、図3Cに示すように、例えばこれら「激しさ」、「軽さ」、「鋭さ」、「快さ」をそれぞれ識別情報とした触譜を入力することによっても、音響コンテンツにおける触感の視覚的なデザインを実現することができる。
なお、図3Cに示した例は、触感を知覚するユーザの感性値に基づくパラメータ化であるので、他にも、「嬉しさ」や「湿っぽさ」、「柔らかさ」等、種々の表現を用いることができる。
[3−3.その他のデザイン例]
また、触譜は、図3Dおよび図3Eに「お腹パート」や「手首パート」として示すように、触感を与えたい部位を触感の識別情報として含むように指定してもよい。また、図3Dに示すように、例えば各触譜の冒頭部分等に、データID等の触感の識別情報を指定するようにしてもよい(図中の破線の閉曲線で囲まれた部分参照)。
データIDは、例えば予め所定の触感データ群が登録されているデータライブラリ中の、各データの識別情報である。かかるデータライブラリは、生成装置10が有していてもよいし、触覚提示デバイス100が有していてもよい。また、ネットワーク通信が可能な専用デバイスや、クラウドサーバ等が有していてもよい。
また、図3Eに示すように、触覚提示デバイス100をマニピュレートするデバイスである振動コントローラがあるものとして、例えばかかる振動コントローラの操作ボタンの形状や、操作ボタンに描かれたマークを、各触譜の冒頭部分等に指定するようにしてもよい(図中の破線の閉曲線で囲まれた部分参照)。
これにより、触感の視覚的なデザインを、より分かりやすく共有させることが可能となる。
なお、これまで示した触感のデザイン例は、主に音響コンテンツにおいて、触感の「クリエイター」と「再現者」との間でデザインを共有させるものである。ただし、上述したように、触覚提示デバイス100の制御信号の波形自体や、具体的な温度値等ではなく、あくまで制御信号が触感を示すデータとして有している特徴をパラメータ化し、共有可能に視覚的かつ時系列的に表したものである。
したがって、クリエイターの意図を完全再現すると言うよりは、あくまで再現者による再現の方向性を示すものと言える。このため、再現者による触感の実演がなされた場合に、再現者によるバラツキや味付けは含まれやすいものの、少なくともクリエイターの意図は、大きくは損なわれないと言う結果を得ることができる。
また、上述したパラメータ化、すなわち符号化により、時系列的な情報量の削減に資することができる。
<4.変形例に係る触感のデザイン例>
ところで、これまでは、主に触覚提示を含む音響コンテンツの制作における触感のデザイン例について述べてきたが、実施形態に係る生成方法は、触覚提示を含む映像コンテンツの制作においても適用することができる。
そこで次に、変形例として、映像コンテンツの制作における触感のデザイン例について、図4A〜図4Cを用いて説明する。図4Aは、第1の変形例を示す図である。また、図4Bは、第2の変形例を示す図である。また、図4Cは、第3の変形例を示す図である。
[4−1.第1の変形例]
まず、図4Aに映像コンテンツの制作におけるデザイン画面を示す。かかるデザイン画面は、例えばタッチパネル21に表示される。また、かかるデザイン画面は、デザインエリアDRと、部位オブジェクト(OBJ)O1〜O3と、効果オブジェクトO4〜O7と、保存ボタンB1と、生成ボタンB2とを有する。
デザインエリアDRには、例えば映像コンテンツの絵コンテを入力することができる。かかる絵コンテは、前述の電子ペンP等により直接デザインエリアDRに入力されてもよいし、作成済みの絵コンテデータが読み込まれ、デザインエリアDRに編集可能に展開されてもよい。
また、デザインエリアDRには、触感のデザイン入力が可能な「触覚効果」欄が、絵コンテ欄とともに設けられる。かかる「触覚効果」欄には、部位オブジェクトO1〜O3および効果オブジェクトO4〜O7を例えばドラッグ・アンド・ドロップし、組み合わせることで、表現したい触感をデザインすることが可能である。
例えば、部位オブジェクトO1および効果オブジェクトO4の組み合わせにより、ベスト型の触覚提示デバイス100において、腹部から周辺部へ移動する触感をデザインすることができる。
また、図中のM1部に示すように、キーボード等を用いて文字で触感を表すオノマトペを入力することが可能である。また、文字の大きさにより、触感の強さを表すこともできる。M1部の例では、ベスト型の触覚提示デバイス100において、強いビリビリとした、腹部から周辺部へ移動する触感をデザインすることができる。
また、例えば継続時間を示す効果オブジェクトO5を「触覚効果」欄へドラッグ・アンド・ドロップし、その長さを調整することで、触感の継続時間をデザインすることもできる(図中の矢印401参照)。
また、図中のM2部に示すように、例えば触感の激しさを示す効果オブジェクトO6を「触覚効果」欄へドラッグ・アンド・ドロップし、その大きさを変更することで、触感の激しさの程度を表すこともできる。
また、図中のM3部に示すように、例えば触感の時間的推移を示す効果オブジェクトO7を「触覚効果」欄へドラッグ・アンド・ドロップし、その時間的推移を示す波形を変更することで、触感の強弱の変化等を任意に指定することもできる。
また、例えば保存ボタンB1がタッチ操作されることで、現状のデザインの内容をデザイン情報12cへ格納することができる。なお、デザイン情報12cにおいては、「触覚効果」欄で指定された各オブジェクトやオノマトペに相当する触感の各パラメータが紐付けられたデザインの内容が格納される。
また、例えば生成ボタンB2がタッチ操作されることで、デザイン情報12cに格納されたデザインの内容に基づいて、触覚提示デバイス100の制御信号が生成され、制御信号情報12dに格納される。
このように、映像コンテンツの制作において、図4Aに示すようなデザイン画面により触感を視覚的かつ直感的にデザイン可能とすることにより、表現したい触感を、容易にデザインすることができる。また、表現したい触感を、制作者の間で体感する以外の方法で共有することができる。
[4−2.第2の変形例]
次に、図4Bに、図4Aとは異なるデザイン画面を示す。図4Bに示すデザイン画面は、映像再生エリアMRを有する。また、かかるデザイン画面は、効果オブジェクトO8と、範囲指定ボタンB3とを有する。
映像再生エリアMRは、例えば、シークバーSBと、再生操作ボタンMBと、デザインエリアDRとを有する。
映像再生エリアMRには、例えば映像コンテンツの絵コンテが動画形式で再生可能に表示される。なお、スライドショー形式に1フレームごとに再生可能であってもよい。また、映像は絵コンテに限られず、Vコンテであってもよい。また、映像はコンテに限られず、通常の映像であってもよい。
再生位置は、シークバーSBをマウス等のポインティングデバイスで操作することにより、任意に指定が可能である。また、再生操作ボタンMBにより、再生、任意の位置での一時停止等が可能である。
デザインエリアDRには、触感をデザインする時間軸上の範囲指定が可能である。かかる範囲指定は、例えば範囲指定ボタンB3がタッチ操作され、範囲指定モードになった状態で、マウス等のポインティングデバイスにより行うことができる。なお、図4Bには、範囲R1,R2,R3が指定された例を示している。
指定された各範囲R1,R2,R3には、図4Aに示したのと同様に、部位オブジェクトおよび効果オブジェクトを例えばドラッグ・アンド・ドロップし、組み合わせたり、オノマトペを入力したりすることで、表現したい触感をデザインすることが可能である。
なお、図4Aでは、「ビリビリ…」と言うオノマトペとして入力された触感を、図4Bでは、かかる「ビリビリ…」に相当する触感を示す効果オブジェクトO8によって範囲R1に指定した例を示している(図中のM4部参照)。
このようなオノマトペ、効果オブジェクトおよびこれらが示す触感は、GUI部品情報12aおよびパラメータ関連情報12bの間で関連付けられている。
このように、映像コンテンツの制作において、図4Bに示すようなデザイン画面により触感を視覚的かつ直感的にデザイン可能とすることによっても、表現したい触感を、容易にデザインすることができる。また、表現したい触感を、制作者の間で体感する以外の方法で共有することができる。
[4−3.第3の変形例]
なお、デザイン画面において、図4Cに示すように、例えば映像の中に、触感のデザインに関する文言を字幕のように入力可能にしてもよい。このように、触感のデザインに関する文言を直接映像に紐付けることによっても、表現したい触感を、制作者の間で体感する以外の方法で容易に共有することができる。すなわち、触覚提示デバイス100がなく、体感することが不可能な状況においても、触感のデザインを共有することができる。
また、デザインの内容が格納されるデザイン情報12cは、例えば電子データとして閲覧可能な形式で出力され、配布が可能であってもよい。かかる場合、配布された側で、閲覧時に例えば「触覚効果」欄にマウスポインタを移動させたときに、マウスポインタがデザインの内容に応じて揺れることで、デザインされた内容を表現できるようにしてもよい。
<5.実施形態に係る生成システムの処理手順>
次に、実施形態に係る生成システム1が実行する処理手順について、図5を用いて説明する。図5は、実施形態に係る生成システム1が実行する処理手順を示すフローチャートである。
図5に示すように、まず取得部13bが、視覚的に表現された、触感を示す信号の識別情報および時系列的特徴を取得する(ステップS101)。
そして、生成部13cが、取得された情報(すなわち、識別情報および時系列的特徴)に基づいて、触覚提示デバイス100の制御信号を生成する(ステップS102)。
そして、出力制御部13dが、生成された制御信号に基づいて、触覚提示デバイス100を出力制御し(ステップS103)、処理を終了する。
<6.ハードウェア構成>
上述してきた実施形態に係る生成装置10、触覚提示デバイス100等の情報機器は、例えば図6に示すような構成のコンピュータ1000によって実現される。以下、実施形態に係る生成装置10を例に挙げて説明する。図6は、生成装置10の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD(Hard Disk Drive)1400、通信インターフェイス1500、及び入出力インターフェイス1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300又はHDD1400に格納されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。
ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を非一時的に記録する、コンピュータが読み取り可能な記録媒体である。具体的には、HDD1400は、プログラムデータ1450の一例である本開示に係る生成処理プログラムを記録する記録媒体である。
通信インターフェイス1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインターフェイスである。例えば、CPU1100は、通信インターフェイス1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信したりする。
入出力インターフェイス1600は、入出力デバイス1650とコンピュータ1000とを接続するためのインターフェイスである。例えば、CPU1100は、入出力インターフェイス1600を介して、キーボードやマウス等の入力デバイスからデータを受信する。また、CPU1100は、入出力インターフェイス1600を介して、ディスプレイやスピーカーやプリンタ等の出力デバイスにデータを送信する。また、入出力インターフェイス1600は、所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインターフェイスとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態に係る生成装置10として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされた生成処理プログラムを実行することにより、取得部13bや生成部13c等の機能を実現する。また、HDD1400には、本開示に係る生成処理プログラムや、記憶部12内のデータが格納される。なお、CPU1100は、プログラムデータ1450をHDD1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置からこれらのプログラムを取得してもよい。
<7.まとめ>
以上説明したように本開示の実施形態によれば、表現したい触感を実際に体感する以外の方法で共有しつつ、触覚提示のための制御信号を生成することを可能とする生成装置が提供される。
なお、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
例えば、図2に示したGUI制御部13aと、取得部13bとは統合されてもよい。また、例えば、記憶部12に記憶される情報は、ネットワークを介して、外部に備えられた所定の記憶装置に記憶されてもよい。
また、上記実施形態では、生成装置10が、例えば、視覚的に表現された、触感を示す信号の識別情報および時系列的特徴を取得する取得処理と、取得処理によって取得された識別情報および時系列的特徴に基づいて触覚提示デバイス100の制御信号を生成する生成処理と、生成処理によって生成された制御信号に基づいて触覚提示デバイス100を出力制御する出力制御処理を行う例を示した。しかし、上述した生成装置10は、取得処理を行う取得装置と、生成処理を行う生成装置と、出力制御処理を行う出力制御装置とが分離されてもよい。この場合、取得装置は、少なくとも取得部13bを有する。生成装置は、少なくとも生成部13cを有する。出力制御装置は、少なくとも出力制御部13dを有する。そして、上記の生成装置10による処理は、取得装置と、生成装置と、出力制御装置との各装置を有する生成システム1によって実現される。
また、上記実施形態では、触覚提示デバイス100が、生成装置10によって生成された制御信号によって出力制御される例を示した。しかし、触覚提示デバイス100が、生成装置10に対し視覚的表現で入力された、触感を示す信号の識別情報および時系列的特徴を取得し、これに基づいて触覚を提示するための制御信号を生成し、かかる制御信号に基づいて触覚を提示してもよい。かかる場合、生成装置10は少なくともGUI制御部13aを有する入力装置として機能する。
また、上記実施形態では、生成装置10と触覚提示デバイス100が別体である例を示したが、例えばスマートフォン等に一体に構成されてもよい。かかる場合、スマートフォン自体が触覚提示デバイス100であり、生成装置10のGUI制御部13a、取得部13b、生成部13cおよび出力制御部13dが実行する各機能は、スマートフォンで動作するアプリの各機能として実現される。
なお、このようにスマートフォン上に一体に実装する場合、実施形態に係る生成システム1は、例えばSNS(Social Networking Service)における動画共有サービス等に適用することができる。かかる場合、スマートフォンの持ち主が制作者(触感をデザインするクリエイター、および、デザインを再現する再現者)となり、かかる制作者が制作したコンテンツの閲覧者に対し、触覚刺激を提示することとなる。
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
(効果)
上述してきたように、本開示の実施形態に係る生成装置10は、取得部13bと、生成部13cとを備える。取得部13bは、視覚的に表現された、触感を示す信号の識別情報および時系列的特徴を取得する。生成部13cは、取得部13bによって取得された上記識別情報および上記時系列的特徴に基づいて触覚提示デバイス100の制御信号を生成する。
これにより、生成装置10によれば、表現したい触感を実際に体感する以外の方法で共有しつつ、触覚提示のための制御信号を生成することができる。
また、生成装置10は、出力制御部13dをさらに備える。出力制御部13dは、生成部13cによって生成された制御信号に基づいて触覚提示デバイス100を出力制御する。
これにより、生成装置10によれば、表現したい触感を実際に体感する以外の方法で共有しつつ生成した制御信号に基づいて触覚提示デバイス100に触覚刺激を提示させることができる。
また、上記識別情報は、触感を示すとして上記信号が有する特徴を符号化したパラメータを含み、上記時系列的特徴は、上記パラメータの時間的推移である。
これにより、生成装置10によれば、符号化により時系列的な情報量を削減しつつ、少なくともクリエイターの意図は損なわれない触感のデザインを行うことが可能となる。
また、上記パラメータは、上記信号が示す物性値および感性値に基づいて抽出される。
これにより、生成装置10によれば、上記信号の物性値および感性値に応じた、多様な触感のデザインを行うことが可能となる。
また、生成部13cは、音響コンテンツの制作において、上記識別情報ごとの時間的推移が曲線で記譜された触譜によって表現された上記識別情報および上記時系列的特徴に基づき、上記制御信号を生成する。
これにより、生成装置10によれば、音響コンテンツの制作に適した内容で触感をデザインし、かかるデザインに基づいて触覚提示デバイス100の制御信号を生成することができる。
また、生成部13cは、映像コンテンツの制作において、任意の指定範囲に入力された所定の触感を示す文字(例えば、オノマトペ)、または、所定の触感が関連付けられたオブジェクトによって表現された上記識別情報および上記時系列的特徴に基づき、上記制御信号を生成する。
これにより、生成装置10によれば、映像コンテンツの制作に適した内容で触感をデザインし、かかるデザインに基づいて触覚提示デバイス100の制御信号を生成することができる。
また、本開示の実施形態に係る触覚提示デバイス100は、振動部103と、制御部102とを備える。制御部102は、視覚的に表現された、触感を示す信号の識別情報および時系列的特徴を取得し、取得した上記識別情報および上記時系列的特徴に基づいて振動部103を振動させる制御信号を生成する。
これにより、触覚提示デバイス100によれば、表現したい触感を実際に体感する以外の方法で共有しつつ、触覚提示のための制御信号を生成することができる。
なお、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、本技術は以下のような構成も取ることができる。
(1)
視覚的に表現された、触感を示す信号の識別情報および時系列的特徴を取得する取得部と、
前記取得部によって取得された前記識別情報および前記時系列的特徴に基づいて触覚提示デバイスの制御信号を生成する生成部と
を備える、生成装置。
(2)
前記生成部によって生成された前記制御信号に基づいて前記触覚提示デバイスを出力制御する出力制御部
をさらに備える、前記(1)に記載の生成装置。
(3)
前記識別情報は、
触感を示すとして前記信号が有する特徴を符号化したパラメータを含み、
前記時系列的特徴は、
前記パラメータの時間的推移である、前記(1)または(2)請求項1または2に記載の生成装置。
(4)
前記パラメータは、
前記信号が示す物性値および感性値に基づいて抽出される、前記(3)に記載の生成装置。
(5)
前記生成部は、
音響コンテンツの制作において、前記識別情報ごとの時間的推移が曲線で記譜された触譜によって表現された前記識別情報および前記時系列的特徴に基づき、前記制御信号を生成する、前記(3)または(4)に記載の生成装置。
(6)
前記生成部は、
映像コンテンツの制作において、任意の指定範囲に入力された所定の触感を示す文字、または、所定の触感が関連付けられたオブジェクトによって表現された前記識別情報および前記時系列的特徴に基づき、前記制御信号を生成する、前記(3)、(4)または(5)に記載の生成装置。
(7)
コンピュータが実行する生成方法であって、
視覚的に表現された、触感を示す信号の識別情報および時系列的特徴を取得することと
取得された前記識別情報および前記時系列的特徴に基づいて触覚提示デバイスの制御信号を生成することと
を含む、生成方法。
(8)
視覚的に表現された、触感を示す信号の識別情報および時系列的特徴を取得する取得手順と、
前記取得手順によって取得された前記識別情報および前記時系列的特徴に基づいて触覚提示デバイスの制御信号を生成する生成手順と
をコンピュータに実行させる、プログラム。
(9)
振動部と、制御部とを備え、
前記制御部は、
視覚的に表現された、触感を示す信号の識別情報および時系列的特徴を取得し、取得した前記識別情報および前記時系列的特徴に基づいて前記振動部を振動させる制御信号を生成する、触覚提示デバイス。
1 生成システム
10 生成装置
11 通信部
12 記憶部
13 制御部
13a GUI制御部
13b 取得部
13c 生成部
13d 出力制御部
100 触覚提示デバイス
101 通信部
102 制御部
103 振動部

Claims (9)

  1. 視覚的に表現された、触感を示す信号の識別情報および時系列的特徴を取得する取得部と、
    前記取得部によって取得された前記識別情報および前記時系列的特徴に基づいて触覚提示デバイスの制御信号を生成する生成部と
    を備える、生成装置。
  2. 前記生成部によって生成された前記制御信号に基づいて前記触覚提示デバイスを出力制御する出力制御部
    をさらに備える、請求項1に記載の生成装置。
  3. 前記識別情報は、
    触感を示すとして前記信号が有する特徴を符号化したパラメータを含み、
    前記時系列的特徴は、
    前記パラメータの時間的推移である、請求項1または2に記載の生成装置。
  4. 前記パラメータは、
    前記信号が示す物性値および感性値に基づいて抽出される、請求項3に記載の生成装置。
  5. 前記生成部は、
    音響コンテンツの制作において、前記識別情報ごとの時間的推移が曲線で記譜された触譜によって表現された前記識別情報および前記時系列的特徴に基づき、前記制御信号を生成する、請求項3または4に記載の生成装置。
  6. 前記生成部は、
    映像コンテンツの制作において、任意の指定範囲に入力された所定の触感を示す文字、または、所定の触感が関連付けられたオブジェクトによって表現された前記識別情報および前記時系列的特徴に基づき、前記制御信号を生成する、請求項3、4または5に記載の生成装置。
  7. コンピュータが実行する生成方法であって、
    視覚的に表現された、触感を示す信号の識別情報および時系列的特徴を取得することと
    取得された前記識別情報および前記時系列的特徴に基づいて触覚提示デバイスの制御信号を生成することと
    を含む、生成方法。
  8. 視覚的に表現された、触感を示す信号の識別情報および時系列的特徴を取得する取得手順と、
    前記取得手順によって取得された前記識別情報および前記時系列的特徴に基づいて触覚提示デバイスの制御信号を生成する生成手順と
    をコンピュータに実行させる、プログラム。
  9. 振動部と、制御部とを備え、
    前記制御部は、
    視覚的に表現された、触感を示す信号の識別情報および時系列的特徴を取得し、取得した前記識別情報および前記時系列的特徴に基づいて前記振動部を振動させる制御信号を生成する、触覚提示デバイス。
JP2019145674A 2019-08-07 2019-08-07 生成装置、生成方法、プログラム及び触覚提示デバイス Pending JP2021026618A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019145674A JP2021026618A (ja) 2019-08-07 2019-08-07 生成装置、生成方法、プログラム及び触覚提示デバイス
PCT/JP2020/028178 WO2021024788A1 (ja) 2019-08-07 2020-07-20 生成装置、生成方法、プログラム及び触覚提示デバイス
US17/631,547 US20220276710A1 (en) 2019-08-07 2020-07-20 Generation device, generation method, program, and tactile-sense presentation device
CN202080055849.2A CN114206454A (zh) 2019-08-07 2020-07-20 生成装置、生成方法、程序和触觉呈现装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019145674A JP2021026618A (ja) 2019-08-07 2019-08-07 生成装置、生成方法、プログラム及び触覚提示デバイス

Publications (1)

Publication Number Publication Date
JP2021026618A true JP2021026618A (ja) 2021-02-22

Family

ID=74502624

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019145674A Pending JP2021026618A (ja) 2019-08-07 2019-08-07 生成装置、生成方法、プログラム及び触覚提示デバイス

Country Status (4)

Country Link
US (1) US20220276710A1 (ja)
JP (1) JP2021026618A (ja)
CN (1) CN114206454A (ja)
WO (1) WO2021024788A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022181702A1 (ja) * 2021-02-25 2022-09-01 株式会社村田製作所 信号生成装置、信号生成方法及びプログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1851943B1 (en) * 2005-02-02 2018-01-17 Audiobrax Indústria E Comércio De Produtos Eletrônicos S.A. Mobile communication device with music instrumental functions
US7801569B1 (en) * 2007-03-22 2010-09-21 At&T Intellectual Property I, L.P. Mobile communications device with distinctive vibration modes
US8621348B2 (en) * 2007-05-25 2013-12-31 Immersion Corporation Customizing haptic effects on an end user device
US9513704B2 (en) * 2008-03-12 2016-12-06 Immersion Corporation Haptically enabled user interface
JP2010286986A (ja) * 2009-06-10 2010-12-24 Funai Electric Co Ltd 携帯端末装置
US9535500B2 (en) * 2010-03-01 2017-01-03 Blackberry Limited Method of providing tactile feedback and apparatus
US9924251B2 (en) * 2010-09-01 2018-03-20 Mor Efrati Transducer holder
US9461529B2 (en) * 2010-09-01 2016-10-04 Mor Efrati Tactile low frequency transducer
US9176001B2 (en) * 2011-02-01 2015-11-03 Bonal Technologies, Inc. Vibration treatment method and graphical user interface
KR20140062892A (ko) * 2012-11-15 2014-05-26 삼성전자주식회사 운동 서비스를 제공하기 위한 웨어러블 디바이스와 디스플레이 장치 및 이를 포함하는 운동 서비스 제공 시스템과 그 방법
KR102091077B1 (ko) * 2012-12-14 2020-04-14 삼성전자주식회사 입력 유닛의 피드백을 제어하는 휴대 단말 및 방법과, 이를 제공하는 상기 입력 유닛 및 방법
US20160139671A1 (en) * 2013-01-15 2016-05-19 Samsung Electronics Co., Ltd. Method for providing haptic effect in electronic device, machine-readable storage medium, and electronic device
KR102035305B1 (ko) * 2013-01-15 2019-11-18 삼성전자주식회사 휴대 단말에서 햅틱 효과를 제공하는 방법 및 기계로 읽을 수 있는 저장 매체 및 휴대 단말
US20150185845A1 (en) * 2013-12-26 2015-07-02 Wes A. Nagara Providing tactle feedback for gesture based inputs
JP6124462B2 (ja) * 2014-05-30 2017-05-10 京セラドキュメントソリューションズ株式会社 表示入力装置及びこれを備えた画像形成装置
US10444840B2 (en) * 2017-08-30 2019-10-15 Disney Enterprises, Inc. Systems and methods to synchronize visual effects and haptic feedback for interactive experiences
JP7020822B2 (ja) * 2017-09-01 2022-02-16 キヤノン株式会社 システム、撮像装置、情報処理装置、制御方法、及び、プログラム
US20190087060A1 (en) * 2017-09-19 2019-03-21 Sling Media Inc. Dynamic adjustment of media thumbnail image size based on touchscreen pressure
US20190087074A1 (en) * 2017-09-19 2019-03-21 Sling Media Inc. Dynamic adjustment of haptic/audio feedback during scrolling operations
JP6322780B1 (ja) * 2017-12-06 2018-05-09 株式会社ファセテラピー 触覚コンテンツ生成装置、音響コンテンツ生成装置、音響再生装置、触覚コンテンツ生成方法および音響コンテンツ生成方法
JP7314926B2 (ja) * 2018-02-20 2023-07-26 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022181702A1 (ja) * 2021-02-25 2022-09-01 株式会社村田製作所 信号生成装置、信号生成方法及びプログラム

Also Published As

Publication number Publication date
WO2021024788A1 (ja) 2021-02-11
US20220276710A1 (en) 2022-09-01
CN114206454A (zh) 2022-03-18

Similar Documents

Publication Publication Date Title
Mazzoni et al. Mood glove: A haptic wearable prototype system to enhance mood music in film
Schneider et al. Tactile animation by direct manipulation of grid displays
Schneider et al. Studying design process and example use with Macaron, a web-based vibrotactile effect editor
US20160104356A1 (en) Haptic warping system
JP2011210285A (ja) 創作物作成支援方法及びその装置並びに記録媒体
US20230273685A1 (en) Method and Arrangement for Handling Haptic Feedback
WO2021024788A1 (ja) 生成装置、生成方法、プログラム及び触覚提示デバイス
Yao et al. Music-touch shoes: vibrotactile interface for hearing impaired dancers
Pittarello Experimenting with PlayVR, a virtual reality experience for the world of theater
Gillies et al. Embodied design of full bodied interaction with virtual humans
JP7174337B2 (ja) 錯触力覚デバイス
Parisi Reach in and feel something: on the strategic reconstruction of touch in virtual space
CN112204409A (zh) 用于对声音进行分类并且训练患者的方法、计算机程序产品和设备
Parisi Rumble/control: Toward a critical history of touch feedback in video games
CN108367199B (zh) 记录游戏程序的记录介质、效果控制方法及游戏装置
JP6275759B2 (ja) 三次元コンテンツの生成方法、プログラム、及びクライアント装置
Cacho-Elizondo et al. Assessing the opportunities for virtual, augmented, and diminished reality in the healthcare sector
Jung et al. Altered states of consciousness in human-computer interaction: A review
Thomas et al. Somatic practices for understanding real, imagined, and virtual realities
Viaud-Delmon et al. A sounding body in a sounding space: the building of space in choreography–focus on auditory-motor interactions
CN103534732B (zh) 再现装置、再现方法以及电视机
US20190339771A1 (en) Method, System and Apparatus For Brainwave and View Based Recommendations and Story Telling
JP5965042B2 (ja) ゲーム処理方法、ゲーム処理システム及びゲーム処理プログラム
JP2022108118A (ja) 情報処理装置、及び情報処理プログラム
KR20110040128A (ko) 헵틱 콘텐츠 스트리밍 시스템