JP2015053052A - 音声信号の遷移に関係付けられる触覚効果を生成するためのシステム及び方法 - Google Patents

音声信号の遷移に関係付けられる触覚効果を生成するためのシステム及び方法 Download PDF

Info

Publication number
JP2015053052A
JP2015053052A JP2014179759A JP2014179759A JP2015053052A JP 2015053052 A JP2015053052 A JP 2015053052A JP 2014179759 A JP2014179759 A JP 2014179759A JP 2014179759 A JP2014179759 A JP 2014179759A JP 2015053052 A JP2015053052 A JP 2015053052A
Authority
JP
Japan
Prior art keywords
signal
time window
haptic
determining
transitions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014179759A
Other languages
English (en)
Other versions
JP6494220B2 (ja
JP2015053052A5 (ja
Inventor
ユアン マヌエル クルス−エルナンデス、
Manuel Cruz-Hernandez Juan
ユアン マヌエル クルス−エルナンデス、
ジャマール サボーネ、
Saboune Jamal
ジャマール サボーネ、
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2015053052A publication Critical patent/JP2015053052A/ja
Publication of JP2015053052A5 publication Critical patent/JP2015053052A5/ja
Application granted granted Critical
Publication of JP6494220B2 publication Critical patent/JP6494220B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B6/00Tactile signalling systems, e.g. personal calling systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/02Instruments in which the tones are synthesised from a data store, e.g. computer organs in which amplitudes at successive sample points of a tone waveform are stored in one or more memories
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L21/16Transforming into a non-visible representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/096Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith using a touch screen
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/265Key design details; Special characteristics of individual keys of a keyboard; Key-like musical input devices, e.g. finger sensors, pedals, potentiometers, selectors
    • G10H2220/311Key design details; Special characteristics of individual keys of a keyboard; Key-like musical input devices, e.g. finger sensors, pedals, potentiometers, selectors with controlled tactile or haptic feedback effect; output interfaces therefor

Abstract

【課題】音声信号の遷移に関係付けられる触覚効果を生成するシステム及び方法を提供する。【解決手段】音声信号を受信し、音声信号に部分的に基づいて触覚効果を決定し、且つ触覚効果に関係付けられる触覚信号を出力するように構成されるプロセッサ102と、信号を受信して可聴効果を出力するように構成される音声出力装置と、プロセッサ102と通信し且つタッチ面に結合され、触覚信号を受信して触覚効果を出力するように構成される触覚出力装置118とを含む。【選択図】図1A

Description

本発明は、概して触覚フィードバックに関し、より詳細には音声信号の遷移に関係付けられる触覚効果を生成するためのシステム及び方法に関する。
(関連出願の相互参照)
本願は、2013年9月6日に提出され、“Audio to Haptics”と題された米国仮出願第61/874,933号への優先権を主張し、その全体は参照により本明細書に組み込まれる。
本願は、本願と同日付で提出され、“Systems and Methods for Generating Haptic Effects Associated with an Envelope in Audio Signals”(Attorney Docket No.IMM478(51851−879624))と題された米国特許出願第14/078,442号に関連し、その全体は参照により本明細書に組み込まれる。
本願は、本願と同日付で提出され、“Systems and Methods for Generating Haptic Effects Associated with Audio Signals”(Attorney Docket No.IMM479(51851−879622))と題された米国特許出願第14/078,445号に関連し、その全体は参照により本明細書に組み込まれる。
タッチ可能装置はますます人気になってきている。例えば、ユーザがタッチセンサ式ディスプレイのタッチ部分で入力を提供できるように、携帯式及び他の装置はタッチセンサ式ディスプレイを用いて構成される場合がある。別の例示として、トラックパッド、マウス又は他の装置等のディスプレイとは別のタッチ可能表面が入力に使用される場合がある。更に、一部のタッチ可能装置は、触覚効果、例えば、テクスチャ又はタッチ面における摩擦をシミュレートするように構成される触覚効果を利用する。一部の装置では、こうした触覚効果は、装置によって出力される音声又は他の効果と相関する場合がある。しかしながら、音声及び触覚効果を処理して出力するレイテンシのために、こうした効果は説得力が少ない場合がある。従って、音声効果に関係付けられる改善された触覚効果が必要とされている。
本開示の実施形態は、タッチ領域で感じられ且つ音声信号に関係付けられる触覚効果を特徴とする装置を含む。限定されないが、こうした触覚効果には、テクスチャの変化、摩擦係数の変化及び/又は境界、障害物のシミュレーション、又は表面と接触しているオブジェクトの使用を通じて知覚され得るタッチ面の他の不連続性が含まれてもよい。
一実施形態では、本開示のシステムは、信号を受信し、信号に部分的に基づいて触覚効果を決定し、且つ触覚効果に関係付けられる触覚信号を出力するように構成されるプロセッサと、信号を受信して可聴効果を出力するように構成される音声出力装置と、プロセッサと通信し且つタッチ面に結合される触覚出力装置であって、触覚信号を受信して触覚効果を出力するように構成される触覚出力装置とを備えてもよい。
この例示の実施形態は、本主題を限定又は定義するためではなく、その理解を支援するための例示を提供するために言及される。例示の実施形態は、詳細な説明において検討され、そこでは更なる説明が提供される。本明細書を吟味することによって、及び/又は請求項に記載の主題の1つ以上の実施形態を実施することによって、様々な実施形態によってもたらされる利点が更に理解され得る。
本明細書の以下の部分には完全且つ実施可能な開示がより詳細に説明される。本明細書は以下の添付の図面を参照する。
音声信号の遷移に関係付けられる触覚効果を生成するための例示的なシステムを示す。 図1Aで示されたシステムの一実施形態の外観図を示す。 図1Aで示されたシステムの別の実施形態の外観図を示す。 音声信号の遷移に関係付けられる触覚効果を生成するための例示的な実施形態を示す。 音声信号の遷移に関係付けられる触覚効果を生成するための例示的な実施形態を示す。 一実施形態によって音声信号の遷移に関係付けられる触覚効果を生成するための例示的な実施形態を示す。 一実施形態によって音声信号の遷移に関係付けられる触覚効果を生成するための方法のフローチャートを示す。 一実施形態によって音声信号の遷移に関係付けられる触覚効果を生成するための方法のフローチャートを示す。 一実施形態によって音声信号の遷移を識別するための方法のフローチャートを示す。 一実施形態によって音声信号の遷移を識別するための方法による音声信号の例示的なスペクトログラム及びパルス符号変調を示す。 一実施形態によって音声信号の遷移を識別するための方法による音声信号の微分信号を示す。 一実施形態によって音声信号の遷移を識別するための方法のフローチャートを示す。 音声信号の遷移を識別するための方法の一実施形態による例示的な遷移検出信号を示す。
次に、多様な及び代替的な例示の実施形態並びに添付の図面を詳細に参照する。各例示は、限定としてではなく、説明目的で提供される。修正及び変更が行われ得ることは、当業者には明らかであろう。例えば、一実施形態の一部として例示され又は記載された特徴は、更なる実施形態を生み出すために別の実施形態に対して使用されてもよい。従って、本開示は、添付の請求項及び均等物の範囲に入る修正及び変形を含むことが意図されている。
(音声信号の遷移に関係付けられる触覚効果を生成するための装置の例示)
本開示の例示的な実施形態の1つは、スマートフォン、タブレット又は携帯型ミュージック装置等のコンピュータシステムを含む。一部の実施形態では、コンピュータシステムは、装着可能装置を含み、又は家具若しくは衣服に埋め込まれてもよい。コンピュータシステムは、この例示において、装置の画面に対応する表示領域に対するタッチの場所を決定するために加速度計及びセンサ(例えば、光学、抵抗性又は容量性)等の1つ以上のセンサを含み及び/又はこれらと通信してもよい。
ユーザが装置と相互作用すると、触覚効果を提供するために、1つ以上の触覚出力装置、例えば、アクチュエータが使用される。例えば、触覚効果は、装置の表面におけるテクスチャの存在をシミュレートするように構成されてもよい。このような実施形態では、表面でユーザの指が動くと、装置の表面におけるテクスチャの感覚をシミュレートするために、振動、電磁場又は他の効果が出力されてもよい。同様に、別の実施形態では、ユーザが装置上で指を動かすと、スクリーンの知覚される摩擦係数が、指の位置、速さ、及び/又は加速又は指が装置と接触している時間の長さに基づいて変化(例えば、増加又は減少)し得る。他の実施形態では、移動装置は、振動、ポップ、クリック、又は表面変形等の触覚効果を出力してもよい。一部の実施形態では、所定のイベントが発生するときに、所定期間の間(例えば、50ms)、触覚効果が出力されてもよい。他の実施形態では、触覚効果は、固定期間で変化してもよい。例えば、一実施形態では、100Hzの速度、例えば、100Hzの正弦波で変化するテクスチャが出力されてもよい。
例示の実施形態では、触覚効果は、音声信号に関係付けられる効果を含む。例えば、一部の実施形態では、触覚効果は、音声トラックに関係付けられる触覚効果を含んでもよい。一部の実施形態では、ユーザは、(例えば、ヘッドホン、スピーカ、又は何らかの他の種類の音声出力装置を使用して)触覚効果が決定される時間に音声トラックを聴いてもよい。他の実施形態では、触覚効果は、「触覚トラック」の一部として前もって決定されてもよい。この触覚トラックは、音声トラックと平行して再生され得るように、音声ファイルと共に配布されてもよい。一部の実施形態では、触覚トラックは、触覚効果が音声トラックのイベントに対応するように、音声トラックと同期されてもよい。他の実施形態では、触覚効果は、「AV」(Audio−Visual)トラック、例えば、映像ファイルの音声部分に関係付けられてもよい。
例示の実施形態では、コンピュータ装置は、音声信号の遷移の場所を決定することによって触覚効果を決定してもよい。一部の実施形態では、こうした遷移は、振幅、周波数の変化、又は音声信号の他の変化を含んでもよい。例えば、一実施形態では、遷移は、オーケストラによって出力される音声から人の発話によって出力される音声への変化を含んでもよい。他の実施形態では、遷移は、スピーカの音声のトーンの変化等のより僅かな変化を含んでもよい。本開示は、音声信号の遷移の場所を決定するための例示的な方法の更なる記述を含む。
一部の実施形態では、触覚効果は、音声ファイルと共に調整され又は同期される形態で出力されてもよい。一部の実施形態では、音声又はAVファイルから触覚効果を自動的に決定するために、単純なフィルタリング技術(例えば、ローパスフィルタリング)が使用されてもよい。しかしながら、このような方法は、触覚効果と音声イベントとの間の同期を悪くする場合がある。これは、ユーザによって知覚される低品質の触覚効果をもたらす場合がある。音声ファイルの遷移の場所を決定することによって、可聴効果と触覚効果のより良好な同期が可能になる。一部の実施形態では、音声又はAVイベントが開始すると同時に触覚効果が開始する場合に良好な同期が発生してもよい。
以下で更に詳細に検討されるように、任意の数の特徴が音声信号に見つかってもよい。本開示の実施形態は、こうした特長を識別して、こうした特長と同期された触覚効果を決定及び出力するためのシステム及び方法を提供する。更に、一部の実施形態では、本明細書で検討されたシステム及び方法は、他の種類の信号、例えば、圧力、加速度、速度、又は温度信号に関係付けられる触覚効果を決定するために使用されてもよい。
音声信号の遷移に関係付けられる触覚効果を生成する例示的なシステム
図1Aは、音声信号の遷移に関係付けられる触覚効果を生成するための例示的なシステム100を示す。特に、この例示では、システム100は、バス106を介して他のハードウェアとインターフェース接続されるプロセッサ102を有するコンピュータ装置101を含む。RAM、ROM又はEEPROM等の任意の適切な有形の(及び一時的でない)コンピュータ可読媒体を含み得るメモリ104が、コンピュータ装置の動作を構成するプログラム要素を具現化する。この例示では、コンピュータ装置101は、1つ以上のネットワークインターフェース装置110、入力/出力(I/O)インターフェース要素112、及び追加の記憶装置114を更に含む。
ネットワーク装置110は、ネットワーク接続を容易にする1つ以上の任意の構成要素を表し得る。限定されないが、例示には、Ethernet(登録商標)、USB、IEEE1394等の有線インターフェース、及び/又はIEEE802.11、Bluetooth(登録商標)等の無線インターフェース、又は携帯電話ネットワークにアクセスするための無線インターフェース(例えば、CDMA、GSM(登録商標)、UMTS又は他の移動通信ネットワーク)が含まれる。
I/O要素112は、1つ以上のディスプレイ、キーボード、マウス、スピーカ、マイクロホン、カメラ、及び/又はデータの入力又は出力に使用される他のハードウェア等の装置への接続を容易にするために使用されてもよい。例えば、一部の実施形態では、I/O要素112は、プロセッサ102によって提供される音声信号を再生するように構成されるスピーカを含んでもよい。記憶装置114は、装置101に含まれる磁気、光学、又は他の記憶媒体等の不揮発性記憶装置を表す。一部の実施形態では、記憶装置114は、I/O要素112を介してユーザに再生されるように構成される音声ファイルを記憶するように構成されてもよい。
システム100は、この例示では、装置101に統合されるタッチ面116を更に含む。タッチ面116は、ユーザの接触入力を感知するように構成される任意の表面を表す。1つ以上のセンサ108は、物体がタッチ面に接触する場合に接触領域における接触を検出して、プロセッサ102によってユーザに適切なデータを提供するように構成される。センサの任意の適切な数、種類、又は配置が使用され得る。例えば、抵抗性及び/又は容量性のセンサが、タッチ面116に組み込まれて、タッチの場所及び圧力等の他の情報を検出するために使用されてもよい。別の例示として、接触位置を決定するためにタッチ面のビューを備える光学センサが使用されてもよい。一部の実施形態では、センサ108及びタッチ面116は、タッチスクリーン又はタッチパッドを含んでもよい。例えば、一部の実施形態では、タッチ面116及びセンサ108は、表示信号を受信して、ユーザに画像を出力するように構成されるディスプレイの上に取り付けられるタッチスクリーンを含んでもよい。他の実施形態では、センサ108は、LED検出器を含んでもよい。例えば、一実施形態では、タッチ面116は、ディスプレイの側部に取り付けられるLED指検出器を含んでもよい。一部の実施形態では、プロセッサは単一のセンサ108と通信し、他の実施形態では、プロセッサは複数のセンサ108、例えば、第1のタッチスクリーン及び第2のタッチスクリーンと通信する。センサ108は、ユーザ相互作用を検出し、ユーザ相互作用に基づいて、プロセッサ102に信号を送信するように構成される。一部の実施形態では、センサ108は、ユーザ相互作用の複数の態様を検出するように構成されてもよい。例えば、センサ108は、ユーザ相互作用の速度及び圧力を検出して、この情報をインターフェース信号に組み込んでもよい。
更に、装置101は、触覚出力装置118を含む。図1Aに示される例示では、触覚出力装置118がプロセッサ102と通信し、タッチ面116に結合される。一部の実施形態では、触覚出力装置118は、触覚信号に応じてタッチ面においてテクスチャをシミュレートする触覚効果を出力するように構成される。追加的又は代替的に、触覚出力装置118は、制御されるようにタッチ面を動かす振動触覚効果を提供してもよい。一部の触覚効果は、装置の筐体に結合されるアクチュエータを利用してもよい。また、一部の触覚効果は、順番に及び/又は同時に複数のアクチュエータを使用してもよい。例えば、一部の実施形態では、表面テクスチャは、異なる周波数で表面を振動させることによりシミュレートされてもよい。このような実施形態では、触覚出力装置118は、例えば、圧電アクチュエータ、電気モータ、電磁アクチュエータ、音声コイル、形状記憶合金、電気活性ポリマ、ソレノイド、偏心回転質量モータ(ERM)又は線形共振アクチュエータ(LRA)の1つ以上を含んでもよい。一部の実施形態では、触覚出力装置118は、複数のアクチュエータ、例えば、ERM及びLRAを含んでもよい。一部の実施形態では、触覚装置118は、装着可能装置、家具、又は衣服を含み、又はこれらに埋め込まれてもよい。
本明細書では単一の触覚出力装置118が示されているが、複数の実施形態では、触覚効果を出力するために、例えば、タッチ面において表面テクスチャをシミュレートし又は知覚される摩擦係数を変化させるために同じ又は異なる種類の複数の触覚出力装置が使用されてもよい。例えば、一実施形態では、超音波周波数で、例えば、一部の実施形態では20−25kHzよりも高い周波数で動作するアクチュエータを使用することによって、垂直に及び/又は水平にタッチ面116の一部又は全部を移動するために圧電アクチュエータが使用されてもよい。一部の実施形態では、偏心回転質量モータ及び線形共振アクチュエータ等の複数のアクチュエータが、異なるテクスチャ、摩擦係数の変化、又は他の触覚効果を与えるために単独で又は同時に使用され得る。
更に他の実施形態では、触覚出力装置118は、タッチ面116の表面でテクスチャをシミュレートするために、例えば、静電表面アクチュエータを使用することによって、静電摩擦又は引力を適用してもよい。同様に、一部の実施形態では、触覚出力装置118は、タッチ面116の表面でユーザが感じる摩擦を変化させるために静電引力を使用してもよい。例えば、一実施形態では、触覚出力装置118は、触覚効果を生成するために機械的な動きの代わりに電圧及び電流を加える静電ディスプレイ又は任意の他の装置を含んでもよい。このような実施形態では、静電アクチュエータは、導電層及び絶縁層を含んでもよい。このような実施形態では、導電層は、任意の半導体又は銅、アルミニウム、金又は銀等の他の導電性材料であってもよい。また、絶縁層は、ガラス、プラスチック、ポリマ、又は任意の他の絶縁性材料であってもよい。更に、プロセッサ102は、導電層に電気信号を加えることによって静電アクチュエータを動作させてもよい。一部の実施形態では、電気信号は、導電層をタッチ面116に近くの又は接触しているオブジェクトと容量結合するAC信号であってもよい。一部の実施形態では、AC信号は、高圧増幅器によって生成されてもよい。他の実施形態では、容量結合は、タッチ面116の表面における摩擦係数又はテクスチャをシミュレートしてもよい。例えば、一実施形態では、タッチ面116の表面は円滑であるが、容量結合はタッチ面116の表面の付近のオブジェクト間に引力を生み出してもよい。一部の実施形態では、オブジェクトと導電層との間の引力のレベルを変化させることは、タッチセンサ面116の表面で動くオブジェクトにおける擬似テクスチャを変化させること、又はオブジェクトがタッチ面116の表面で動くときに感じられる摩擦係数を変化させることができる。更に、一部の実施形態では、静電アクチュエータが、タッチ面116の表面において擬似テクスチャを変化させるために従来のアクチュエータと共に使用されてもよい。例えば、アクチュエータはタッチ面116の表面のテクスチャの変化をシミュレートするように振動してもよい。一方では同時に、静電アクチュエータがタッチ面116の表面において異なるテクスチャ又は他の効果をシミュレートしてもよい。
当業者であれば、摩擦係数を変化させることに加えて、例えば、表面上のテクスチャをシミュレートするために他の技術又は方法が使用され得ることを理解するであろう。一部の実施形態では、テクスチャは、表面再構成可能な触覚基板(限定されないが、例えば、繊維、ナノチューブ、電気活性ポリマ、圧電要素、又は形状記憶合金を含む)又は磁性流体からの接触に基づいてそのテクスチャを変化させるように構成される可撓性表面層を使用してシミュレートされ又は出力されてもよい。別の実施形態では、表面のテクスチャは、例えば、変形機構、空気若しくは流体ポケット、材料の局部変形、共振機構要素、圧電性材料、微小電気機械システム(“MEMS”)要素、熱流体ポケット、MEMSポンプ、可変多孔性膜(variable porosity membranes)、又は層流変調で、1つ以上の表面特徴を上昇又は下降させることによって変化させられてもよい。
一部の実施形態では、タッチ面116に近接した又は接触している体の部分をシミュレートすることによって触覚効果を生成するために静電アクチュエータが使用されてもよい。例えば、一部の実施形態では、ユーザの指の皮膚の神経終端又は静電アクチュエータに応答することができるスタイラスの構成要素をシミュレートしてもよい。例えば、皮膚の神経終端は、刺激されて、振動又は何らかのより具体的な感覚として静電アクチュエータ(例えば、容量結合)を感知してもよい。例えば、一実施形態では、静電アクチュエータの導電層が、ユーザの指の導電部分と結合するAC電圧信号を受信してもよい。ユーザがタッチ面116に触れてタッチ面上で自身の指を動かすと、ユーザは、チクチク、ザラザラ、ガタガタ、でこぼこ、粘々、又は何らかの他のテクスチャを感知してもよい。
更に、一部の実施形態では、触覚効果を出力するために複数のアクチュエータが使用されてもよい。これは、触覚出力装置118が出力できる効果の範囲を増加する役割を果たしてもよい。例えば、一部の実施形態では、広範囲の効果を生成するために静電アクチュエータと協調して振動アクチュエータが使用されてもよい。更なる実施形態では、タッチ面を変形するように構成される装置等の追加の種類の触覚出力装置が、振動アクチュエータ等の他の触覚出力装置と協調して使用されてもよい。
メモリ104に関しては、例示のプログラム構成要素124、126及び128は、音声信号の遷移に関係付けられる触覚効果を生成するために装置がどのように構成され得るかを示すように描かれている。この例示では、検出モジュール124が、タッチの位置を決定するためにセンサ108を介してタッチ面116を監視するようにプロセッサ102を構成する。例えば、モジュール124は、タッチの存在又は不存在を追跡して、タッチが存在する場合、場所、経路、速度、加速度、圧力及び/又は経時的なタッチの他の特性を追跡するためにセンサ108をサンプリングしてもよい。
触覚効果決定モジュール126は、生成すべき触覚効果を選択するために、音声効果からのデータ等の音声データを分析するプログラム構成要素を表す。特に、モジュール126が、音声データに基づいて、出力する触覚効果の種類を決定するコードを含む。
触覚効果生成モジュール128は、プロセッサ102に触覚信号を生成させて触覚出力装置118に送信させ、それにより、触覚出力装置118に選択された触覚効果を生成するプログラミングを表す。例えば、生成モジュール128は、記憶された波形又はコマンドにアクセスして、触覚出力装置118に送信してもよい。別の例示として、触覚効果生成モジュール128は、所望の種類の効果を受信して、適切な信号を生成して触覚出力装置118に送信するために、信号処理アルゴリズムを利用してもよい。一部の実施形態は、触覚効果を出力するために同時に複数の触覚出力装置を利用してもよい。一部の実施形態では、プロセッサ102は、触覚信号を触覚出力装置118にストリーミング又は送信してもよい。
コンピュータシステムの特定の実施形態によっては、タッチ面がディスプレイをオーバレイしもよく又はオーバレイしなくてもよい(或いは、対応しても、対応してなくてもよい)。図1Bでは、コンピュータシステム100Bの外観図が示される。コンピュータ装置101は、装置のタッチ面及びディスプレイを組み合わせたタッチ可能ディスプレイ116を含む。タッチ面は、ディスプレイ外部又は実際のディスプレイ構成要素上の1つ以上の材料層に対応してもよい。
図1Cは、タッチ面がディスプレイをオーバレイしないタッチ可能コンピュータシステムの別の例を示す。この例示では、コンピュータ装置101は、装置101とインターフェース接続されたコンピュータシステム120に含まれるディスプレイ122に設けられるグラフィカルユーザインターフェースにマッピングされ得るタッチ面116を含む。例えば、コンピュータ装置101は、マウス、トラックパッド、又は他の装置を含んでもよいが、コンピュータシステム120は、デスクトップ若しくはラップトップコンピュータ、セットトップボックス(例えば、DVDプレーヤ、DVR、ケーブルテレビボックス)、又は別のコンピュータシステムを含んでもよい。別の例示として、タッチ面116及びディスプレイ122は、ディスプレイ122備えるラップトップコンピュータにおけるタッチ可能トラックパッド等の同じ装置に配置されてもよい。ディスプレイと統合されるか否かに関わらず、本明細書の例示における平面的なタッチ面の描写は、限定することを意図していない。他の実施形態は、表面ベースの触覚効果を与えるように更に構成される湾曲した又は不規則なタッチ可能面を含む。
図2A−Bは、音声信号の遷移に関係付けられる触覚効果を生成し得る例示的な装置を示す。図2Aは、タッチ可能ディスプレイ202を備えるコンピュータ装置201を含むシステム200の外観図を示す図面である。図2Bは、装置201の断面図を示す。装置201は図1Aの装置101と同様に構成され得るが、プロセッサ、メモリ及びセンサ等は明確のためこの図面には示されていない。
図2Bに見られるように、装置201は、複数の触覚出力装置218及び追加の触覚出力装置222を特色とする。触覚出力装置218−1は、ディスプレイ202に垂直の力を与えるように構成されるアクチュエータを含んでもよいが、一方で218−2は横方向にディスプレイ202を動かしてもよい。この例では、触覚出力装置218及び222はディスプレイに直接結合されているが、触覚出力装置218及び222は別のタッチ面、例えば、ディスプレイ202の上にある材料の層に結合され得ることが理解されるべきである。更に、1つ以上の触覚出力装置218又は222が上記の静電アクチュエータを含んでもよいことが理解されるべきである。更に、触覚出力装置222は、装置201の構成要素を保持する筐体に結合されてもよい。図2A−2Bの例では、ディスプレイ202の領域はタッチ領域に対応するが、原理は、ディスプレイとは完全に分離したタッチ面に適用され得る。
一実施形態では、触覚出力装置218の各々は圧電アクチュエータを含むが、追加の触覚出力装置222は、偏心回転質量モータ、線形共振アクチュエータ又は別の圧電アクチュエータを含む。触覚出力装置222は、プロセッサからの触覚信号に応答して振動触覚効果を提供するように構成され得る。振動触覚効果は、表面ベースの触覚効果と併せて及び/又は他の目的で利用され得る。例えば、ディスプレイ202の表面における振動を出力し、テクスチャをシミュレートし又は摩擦係数を変化させるために各アクチュエータが併せて使用されてもよい。
一部の実施形態では、触覚出力装置218−1及び218−2のいずれか又は両方は、圧電アクチュエータ以外のアクチュエータを含み得る。いずれのアクチュエータも、例えば、圧電アクチュエータ、電磁アクチュエータ、電気活性ポリマ、形状記憶合金、可撓性複合圧電アクチュエータ(例えば、可撓性材料を含むアクチュエータ)、静電、及び/又は磁歪アクチュエータを含み得る。更に、触覚出力装置222が示されているが、複数の他の触覚出力装置が装置201の筐体に結合可能であり、及び/又は触覚出力装置222は別の場所に結合されてもよい。装置201は、異なる場所でもタッチ面に結合される複数の触覚出力装置218−1/218−2を含んでもよい。
次に図3を参照すると、図3は、本開示によって音声信号の遷移に関係付けられる触覚効果を生成するためのシステムの一実施形態を示す。図3に示されたシステム300は、列車304を含む映像を示すディスプレイ302を有するコンピュータ装置301を備える。一部の実施形態では、コンピュータ装置301は、ハンドヘルドコンピュータ装置、例えば、携帯電話、タブレット、ミュージックプレーヤ、又はラップトップコンピュータを含んでもよい。別の実施形態では、コンピュータ装置301は、多機能コントローラを備えてもよい。例えば、キオスク、ATM又は他のコンピュータ装置で使用されるコントローラである。更に、一実施形態では、コンピュータ装置301は、車内で使用されるコントローラを含んでもよい。
映像304は、(図3には示されない)コンピュータ装置301に結合される音声出力装置(例えば、スピーカ又はヘッドホン)によって再生される可聴効果を更に含んでもよい。本開示の実施形態は、音声信号に基づいて触覚効果を決定するための方法を含む。例えば、一部の実施形態は、映像信号から音声信号を分離して、音声トラックと平行して出力される触覚効果を決定するために、以下で更に詳細に検討される様々な操作を実行してもよい。
一部の実施形態では、ディスプレイ302は、タッチ可能ディスプレイを含んでもよい。更に、映像を表示するのではなく、ディスプレイ302は、グラフィカルユーザインターフェース、例えば、キオスク、ATM、ステレオシステム、車両ダッシュボード、電話、コンピュータ、ミュージックプレーヤのためのグラフィカルユーザインターフェース、又は当分野で周知の何らかの他のグラフィカルユーザインターフェースをユーザに提供してもよい。このような実施形態では、コンピュータ装置301は、グラフィカルユーザインターフェースに関係付けられる音声信号に基づいて触覚効果を決定してもよい。例えば、一部の実施形態では、グラフィカルユーザインターフェースは、ユーザがアイコン、ボタン又は他のインターフェース要素と相互作用するときに出力される音声効果を含んでもよい。一部の実施形態では、コンピュータ装置301は、こうした音声効果の1つ以上に関係付けられる触覚効果を更に決定してもよい。一部の実施形態では、コンピュータ装置301は、音声信号又は任意の他のセンサから生じる信号、例えば、ユーザインターフェース、加速度計、ジャイロスコープ、慣性測定装置(Inertial Measurement Unit)等のセンサからの信号における遷移から触覚効果を導き出してもよい。
一部の実施形態では、映像信号が含まれなくてもよい。例えば、一部の実施形態では、触覚効果は、映像に関係付けられない音声トラックと平行して再生されてもよい。このような実施形態では、本明細書に開示のシステム及び方法は、リアルタイムで、信号が再生されているときに、又は信号が再生されるよりも前の時間に、音声信号に作用してもよい。例えば、一部の実施形態では、将来再生するためにデータストアに記憶される触覚トラックを決定するために音声信号が処理されてもよい。このような実施形態では、触覚トラックは、触覚トラックを再生するコンピュータ装置によって決定されてもよい。他の実施形態では、触覚トラックは、音声トラックの著者又は配布者によって生成されてもよい。このような実施形態では、著者又は配布者は、音声トラックと共に触覚トラックを配布してもよい。
(音声信号の遷移に関係付けられる触覚効果を生成する例示的な方法)
図4及び5は、音声信号の遷移に関係付けられる触覚効果を生成するための例示的な方法400及び500を示すフローチャートである。一部の実施形態では、フローチャート400及び500におけるステップは、プロセッサ、例えば、汎用コンピュータ、移動装置又はサーバにおけるプロセッサによって実行されるプログラムコードで実装されてもよい。一部の実施形態では、こうしたステップは一群のプロセッサによって実装されてもよい。一部の実施形態では、図4及び5に示されるステップは異なる順番で行われてもよい。代替的に、一部の実施形態では、図4及び5に示される1つ以上のステップはスキップされてもよく、又は図4及び5には示されていない追加のステップが行われてもよい。図4及び5におけるステップは、音声信号に関して記載される。しかしながら、一部の実施形態では、方法は、他の種類の信号、例えば、圧力、加速度、速度、又は温度信号に関係付けられる触覚効果を決定するために使用されてもよい。以下のステップは図1Aに示されたシステム100に関して記載された構成要素を参照して記載される。
プロセッサ102が音声信号を受信すると、方法400が開始する(402)。一部の実施形態では、音声信号は、コンピュータ装置101で再生される映像に関係付けられる信号を含んでもよい。他の実施形態では、音声信号は、コンピュータ装置101で現在再生されている音声ファイルに関係付けられる信号を含んでもよい。更に他の実施形態では、音声信号は、コンピュータ装置101でローカルに記憶されている又はリモートサーバに記憶されている音声ファイルに関係付けられる信号を含んでもよい。例えば、一部の実施形態では、音声信号は、サーバに記憶され、オンデマンドでユーザにダウンロードされる音声ファイルを含んでもよい。
プロセッサ102が音声信号に基づいて触覚効果を決定すると、方法400は継続する(404)。一部の実施形態では、触覚効果は、1つ以上の触覚出力装置118によって出力される振動を含んでもよい。一部の実施形態では、振動は、コンピュータ装置101で再生される音声トラックのユーザの知覚を向上させるために使用されてもよい。同様に、一部の実施形態では、第1の触覚効果は、タッチ面116における摩擦係数の変化を含んでもよい。他の実施形態では、触覚効果は、タッチ面116の表面における擬似テクスチャ(例えば、水、草、氷、金属、砂土、砂利、レンガ、毛皮、皮革、皮膚、繊維、ゴム、葉又は任意の他の利用可能なテクスチャの1つ以上のテクスチャ)を含んでもよい。
一部の実施形態では、プロセッサ102は、触覚効果を決定するために触覚効果決定モジュール126に含まれるプログラミングを利用してもよい。例えば、プロセッサ102は、メモリ104内に記憶されて特定の触覚効果に関係付けられる駆動信号にアクセスしてもよい。別の例示として、信号は、効果に関係付けられる記憶済みアルゴリズム及び入力パラメータにアクセスすることによって生成されてもよい。例えば、アルゴリズムは、振幅及び周波数パラメータに基づいて駆動信号を生成するのに使用されるデータを出力してもよい。別の例として、触覚信号は、アクチュエータによって復号するためにアクチュエータに送信されるデータを含んでもよい。例えば、アクチュエータ自体が、振幅及び周波数等のパラメータを特定するコマンドに応答してもよい。
更に、一部の実施形態では、ユーザは、コンピュータ装置101をカスタマイズするために、振動、テクスチャ、摩擦係数の変化又は音声ファイルに関係付けられる他の触覚効果を選択することが可能であってもよい。例えば、一部の実施形態では、ユーザは、タッチインターフェースの感覚をパーソナライズするために表面テクスチャ等の触覚効果を選択してもよい。一部の実施形態では、この触覚効果は、例えば、着呼、Eメール、テキストメッセージ、アラーム、又は他のイベントに対する着信音に関係付けられてもよい。一部の実施形態では、ユーザは、設定を修正すること又は特定の効果に関係付けられるソフトウェアをダウンロードすることによってこうしたパーソナライズされた触覚効果又は表面テクスチャを選択してもよい。他の実施形態では、ユーザは、検出された装置との相互作用を介して効果を指定してもよい。一部の実施形態では、触覚効果のパーソナライズは、ユーザの所有意識及びユーザと装置との間の繋がりを増加させてもよい。
更に他の実施形態では、装置製造業者、アーティスト、動画撮影者又はソフトウェア開発者は、装置、ユーザインターフェース又は芸術的作品(例えば、歌曲、映像、又は音声トラック)をブランド化するために、表面テクスチャ等の特有の触覚効果を選択してもよい。一部の実施形態では、こうした触覚効果は、ブランド化された装置に独自であり、ブランド認知を増加させ得る他の特有の要素と同様であってもよい。例えば、多くの移動装置及びタブレットは、カスタム又はブランド化されたホームスクリーン環境を含んでもよい。例えば、一部の実施形態では、異なる製造業者によって製造された装置が同じオペレーティングシステムを含んでもよいが、製造業者はこのホームスクリーン環境を修正することによって装置を区別してもよい。同様に、所定の会社によって作られる映像又は音声トラックが特定の種類の触覚効果を含んでもよい。従って、一部の実施形態では、一部の装置製造業者、制作会社又はソフトウェア開発者は、独自であり差別化されるユーザ体験を生み出すためにテクスチャ又は摩擦に基づいた効果等の触覚効果を使用してもよい。
プロセッサ102が触覚効果に関係付けられる触覚信号を出力すると、方法400は継続する(406)。プロセッサ102は、触覚効果を出力するように構成される触覚出力装置118に触覚信号を出力する。一部の実施形態では、触覚出力装置118は、タッチ面116上に触覚効果を出力してもよい。一部の実施形態では、触覚出力装置118は、タッチ面116又はコンピュータ装置101内の他の構成要素に結合される圧電アクチュエータ又は電気モータ等の従来のアクチュエータを含んでもよい。他の実施形態では、触覚出力装置118は、静電界を使用してテクスチャをシミュレートする又は摩擦係数を変化させるように構成される静電アクチュエータを含んでもよい。一部の実施形態では、プロセッサ102は、複数の触覚効果をシミュレートするために複数の触覚出力装置を制御してもよい。例えば、一実施形態では、プロセッサ102は、タッチ面116の表面でテクスチャをシミュレートするために静電アクチュエータを制御してもよい。また、プロセッサ102は、他の特徴をシミュレートするために他の触覚出力装置118を更に制御してもよい。例えば、触覚出力装置118は、タッチ面116におけるバリア、デテント、移動又は衝突をシミュレートするように構成される振動等、他の効果を出力するように構成されるアクチュエータを含んでもよい。一部の実施形態では、プロセッサ102は、ユーザがタッチ面116と相互作用すると複数の効果を共に感じることができるように、効果を調整してもよい。
次に、プロセッサ102は音声信号を出力する(408)。一部の実施形態では、プロセッサ102は、スピーカ、ヘッドホン、又は小型イヤホン(ear bud)等の音声出力装置に音声信号を出力してもよい。一部の実施形態では、音声出力装置は、コンピュータ装置101に統合されてもよい。他の実施形態では、音声出力装置は、コンピュータ装置101に結合されてもよい。更に、一部の実施形態では、音声信号は触覚効果に同期されてもよく、例えば、一部の実施形態では、触覚効果は対応する音声効果と実質的に同時に出力されてもよい。
次に図5を参照すると、図5は、音声信号の遷移に関係付けられる触覚効果を決定するための例示的な方法500を示す。方法500は、プロセッサ102が音声信号の遷移を識別すると開始する。音声信号の遷移を識別するための様々な例示的な方法が、以下でより詳細に検討される。一部の実施形態では、こうした遷移は、音声信号の振幅又は周波数の変化等の音声信号の変化に関係付けられてもよい。こうした変化は、例えば、楽器の変化、映画のシーンの変化、ソースの変化(例えば、スピーカの変化)、又は音声ファイルに一般的に見つかる何らかの他の遷移に関係付けられてもよい。
プロセッサ102が触覚効果を遷移に同期すると、方法は500継続する。一部の実施形態では、触覚効果を遷移と同期することは、音声効果と実質的に対応する時間に触覚効果に関係付けられる触覚信号を出力するようにプロセッサ102を構成することを含む。一部の実施形態では、プロセッサ102は、遷移の時間に触覚効果を出力してもよい。他の実施形態では、触覚効果は、遷移の所定期間の後に出力されてもよい。例えば、一部の実施形態では、プロセッサ102は、エコーとして作用する触覚効果を出力してもよい。例えば、一実施形態では、音声トラックは、砲撃をシミュレートする音を含んでもよい。このような実施形態では、プロセッサは、音声効果と同時に起こる触覚効果を決定してもよい。プロセッサは、砲撃に関係付けられるエコーをシミュレートするために数秒後に出力される第2の触覚効果を更に決定してもよい。
一部の実施形態では、遷移は、信号が増加又は減少する場所に位置する。こうした遷移は、触覚効果を生成するための触覚マーカがタグ付けされ得る音声信号内のイベントを識別するために使用されてもよい。上記の例示では、遷移は、砲撃等のイベントに対応してもよい。一部の実施形態では、触覚効果を決定するのではなく、プロセッサ102は、音声ファイルのその場所に触覚マーカを適用してもよい。この触覚マーカは、音声ファイル再生時の触覚効果を決定するためにプロセッサ102又は別のプロセッサによって使用されてもよい。
(音声信号の遷移を識別するための例示的な方法)
図6は、音声信号の遷移を識別するための例示的な方法600を示すフローチャートであり、これは音声信号に関係付けられる触覚効果を決定するために使用されてもよい。一部の実施形態では、図6に示されるステップは、プロセッサ、例えば、汎用コンピュータ、移動装置又はサーバにおけるプロセッサによって実行されるプログラムコードで実装されてもよい。一部の実施形態では、こうしたステップは一群のプロセッサによって実装されてもよい。一部の実施形態では、図6に示されるステップは異なる順番で行われてもよい。代替的に、一部の実施形態では、図6に示される1つ以上のステップはスキップされてもよく、又は図6には示されていない追加のステップが行われてもよい。図6におけるステップは、音声信号に関して記載される。しかしながら、一部の実施形態では、方法は、他の種類の信号、例えば、圧力、加速度、速度、又は温度信号に関係付けられる触覚効果を決定するために使用されてもよい。
図6に示されるように、方法600は、プロセッサ102が音声信号の高速フーリエ変換(FFT)を行うと開始する。一部の実施形態では、FFTは、音声信号のスペクトログラムを決定するために使用される。スペクトログラムは、小さい時間ウインドウにおける音声信号のFFTのプロットを含む。一部の実施形態では、スペクトログラムは、1つの軸に時間、別の軸に周波数、3つ目の軸に特定の周波数の振幅を有する3次元プロットで表される。一部の実施形態では、スペクトログラムは、音声信号内の遷移を決定するために使用されてもよい。音声信号の例示的な2次元スペクトログラムがプロット700として図7に示される。スペクトログラムは、2次元プロット700を含み、3次元がプロットの暗さによって描かれている。プロットのより暗い区画は(矢印702で識別される)より高い振幅を有しており、より明るい区画は(矢印704で識別される)より低い振幅を有している。
ステップ604において、プロセッサ102は、ステップ602で決定された変換信号に対して時間ウインドウごとに平均値を決定する。一部の実施形態では、この平均値信号は、ベクトルで記憶されてもよい。一部の実施形態では、このベクトルはMeanSpecと呼ばれてもよい。
ステップ606において、プロセッサ102は、ステップ604で決定された変換信号の平均値を正規化する。一部の実施形態では、値は0から1の間で正規化される。一部の実施形態では、値は−1から1の間の正規化された値である。
図6に示されていない一部の実施形態では、正規化された信号がフィルタリングされる。一部の実施形態では、信号は、例えば、100 Hz又は200 Hzの可聴範囲における比較的に低い値でローパスフィルタによりフィルタリングされてもよい。一部の実施形態では、フィルタリングによって信号の雑音が除去されてもよい。
次に、プロセッサ102は、正規化された信号におけるデータを微分する(608)。一部の実施形態では、このデータストアは、新しい信号DerMeanSpecで記憶されてもよい。例示的なDerMeanSpecのプロットが、図8においてプロット800の線804として示されている。このDerMeanSpecが決定された例示的な音声信号が、プロット800の線802として示されている。
次に、プロセッサ102は、微分信号(DerMeanSpec)内の極大値を決定する。一部の実施形態では、こうした極大値の各々が、振幅の遷移に対応する。例示的なDerMeanSpecに見つかる極大のプロットが、図8においてプロット800の線806として示されている。一部の実施形態では、こうした極大は、音声信号における遷移の場所を表す。
次に図7を参照すると、上記のように、図7は、一実施形態によって音声信号の遷移を識別するための方法による音声信号の例示的なスペクトログラム及びパルス符号変調を示す。スペクトログラムは、2次元プロット700を含み、3次元がプロットの暗さによって描かれている。プロットのより暗い区画は(矢印702で識別される)より高い振幅を有しており、より明るい区画は(矢印704で識別される)より低い振幅を有している。図7に示されているように、プロット750は、プロット700に示された音声信号のパルス符号変調(PCM)752のビューを含む。
次に図8を参照すると、上記のように、図8は、一実施形態によって音声信号の遷移を識別するための方法による音声信号の微分信号のプロット800を示す。図8に示されたように、音声信号が黒い線802によって表され、(DerMeanSpecとして先に記載された)微分信号が灰色の線804で表され、DerMeanSpecに見つかる極大が薄い灰色の線806で表され、これは各ピーク値において星型を含んでいる。図8には全ての極大値が示されているわけではない。むしろ、図8に示されているように、前の極小に対して既定のデルタ値を超えた値を有する極大値のみが示されている。一部の実施形態では、こうした極大は、音声信号における遷移の場所を表す。従って、一部の実施形態では、デルタ値のサイズが、音声信号に検出される遷移の振幅を変化させるために調節されてもよい。
次に図9を参照すると、図9は、音声信号の遷移を識別するための例示的な方法900を示すフローチャートである。この方法は、音声信号の遷移に関係付けられる触覚効果を決定するために使用されてもよい。一部の実施形態では、図9に示されるステップは、プロセッサ、例えば、汎用コンピュータ、移動装置又はサーバにおけるプロセッサによって実行されるプログラムコードで実装されてもよい。一部の実施形態では、こうしたステップは一群のプロセッサによって実装されてもよい。一部の実施形態では、図9に示されるステップは異なる順番で行われてもよい。代替的に、一部の実施形態では、図9に示される1つ以上のステップはスキップされてもよく、又は図9には示されていない追加のステップが行われてもよい。図9におけるステップは、音声信号に関して記載される。しかしながら、一部の実施形態では、方法は、他の種類の信号、例えば、圧力、加速度、速度、又は温度信号に関係付けられる触覚効果を決定するために使用されてもよい。
図9に示されるように、方法900は、ステップ902において、プロセッサ102が音声信号の連続的な時間ウインドウtw(k)に対して一群の周波数バンドのパワースペクトル密度(PSD)を決定すると開始する。更に、一部の実施形態では、各バンドが、時間ウインドウtw(k)において、その周波数のPSD値の合計、PSD(band(j),tw(k))により表されてもよい。
次に、プロセッサ102は、時間ウインドウごとに総パワースペクトル密度904を決定する。一部の実施形態では、プロセッサ904は、時間ウインドウtw(k)における全てのバンドのPSDの合計として連続する周波数の各々を形成する別個の周波数バンドに対して総パワースペクトル密度を決定してもよい。一部の実施形態では、全てのこうしたバンドのセットが、PSDにおける周波数の全範囲をカバーしてもよい。
次に、プロセッサ102は、総パワースペクトル密度906への周波数バンドの貢献を決定する。一部の実施形態では、これは、時間ウインドウtw(k)における音声信号の総PSDにおける各バンドのPSDの貢献を決定することを含む。一部の実施形態では、これは、所定の時間ウインドウにおける全てのバンドのPSDの合計でその時間ウインドウにおけるバンドのPSDの値を割ることを含んでもよい。即ち、weight(band(j),tw(k)) = PSD(band(j),tw(k))/tw(k)における全バンドPSDの合計である。
次に、プロセッサ102は、パワースペクトル密度の第1の変化率を決定する(908)。一部の実施形態では、変化率を決定することは、任意の2つの連続的な時間ウインドウtw(k)とtw(k+1)との間の各バンドのPSDにおける変化率‘R1’を決定することを含んでもよい。即ち、R1(band(j),tw(k)) = abs(PSD(band(j),tw(k+1)) − PSD(band(j),tw(k))) / PSD(band(j),tw(k))である。
次に、プロセッサ102は、第1の距離を決定する(910)。一部の実施形態では、第1の距離は、信号内の各バンドの貢献で重み付けされた2つの連続する時間ウインドウtw(k)とtw(k+1)との間の全ての周波数バンドの変化率の合計と等しくてもよい。即ち、dist1(tw(k)) = 全バンドband(j)に対する(R1(band(j),tw(k)) * weight(band(j),tw(k)))の合計である。
次に、プロセッサ102は、パワースペクトル密度の第2の変化率を決定する(912)。一部の実施形態では、この第2の変化率’R2’は、時間ウインドウtw(k)とtw(k+2)との間の各バンドのPSDにおける変化率を含んでもよい。即ち、R2(band(j), tw(k)) = abs(PSD(band(j),tw(k+2)) − PSD(band(j),tw(k))) / PSD(band(j),tw(k))である。
次に、プロセッサ102は、第2の距離を決定する(914)。一部の実施形態では、この第2の距離は、信号内の各バンドの貢献で重み付けされた時間ウインドウtw(k)とtw(k+2)との間の各バンドの変化率の合計と等しくてもよい。即ち、dist2(tw(k))=R2(band(j),tw(k)) * weight(band(j),tw(k))の全バンドband(j)の合計である。
次に、ステップ916において、プロセッサ102は総距離を決定する。一部の実施形態では、総距離は、連続する時間ウインドウtw(k)とtw(k+1)との間の距離を含んでもよい。一部の実施形態では、プロセッサ102は、第2の距離で第1の距離を乗算することによってこの決定を行ってもよい。即ち、dist(tw(k)) = dist1(tw(k)) * dist2(tw(k))である。
次に、プロセッサ102は、総距離の極大を決定する(918)。一部の実施形態では、この極大は、時間ウインドウの周波数プロファイルにおけるシフトを示す。一部の実施形態では、これによって、音声信号内の遷移の表現がもたらされる。
図10では、例示的な音声信号1002が示される。図10に示されるように、音声信号1002の遷移を表す極大が、ドット1004で印が付けられる。更に、一部の実施形態では、システムは、所定の閾値を超えて最小継続期間によって分離される極大値のみを認識するように調整されてもよい。一部の実施形態では、これは、システムが所定のレベルを超える遷移のみを検出するように調整されることを可能にする。
一部の実施形態では、PSDのウインドウサイズを広げて、より広いシーン変化を検出することができるであろう。更に、一部の実施形態では、ウインドウを狭めることで、より高速な計算時間のコストでより小さな遷移(例えば、反復するノート又はビート)を検出することが可能になる。更に、一部の実施形態では、時間ウインドウ間の多数の異なる距離、例えば、ユークリッド距離又はマハラノビス距離が使用されてもよい。
一部の実施形態では、方法900は、反復アプローチを有するように修正されてもよい。一部の実施形態では、これは、対応する計算コストの増加なしでより正確な決定を提供してもよい。このような実施形態では、方法900は、y(1) > xであるy(1)のウインドウサイズで各ステップを実行することによって、x (in ms)の精度を反復して推定するように行われてもよい。次に、y(n−1) <= xとなるまでn回演算を実行し続ける。反復n−1で検出される遷移点の各々に対して、
−遷移点に中心がある2 * y(n−1)の幅で信号の区画を取る。
−こうした区画の各々に対して、ウインドウサイズy(n) = y(n−1)/2でステップ902から916を実行する。
−総距離の最大値が遷移の正確な位置に対応する。
(音声信号に関係付けられる触覚効果を生成するためのシステム及び方法の利点)
音声信号の遷移に関係付けられる触覚効果の生成には多数の利点がある。音声又はAVファイルから触覚効果を自動的に決定するために、単純なフィルタリング技術(例えば、ローパスフィルタリング)が使用されてもよい。しかしながら、このような方法は、結果として生ずる触覚効果と音声イベントとの間の同期を悪くする場合がある。これは、ユーザによって知覚される触覚効果の品質低下をもたらす場合がある。
音声信号の遷移に関係付けられる触覚効果を生成するためのシステム及び方法の実施形態は、音声又はAVファイルにおけるイベントと触覚効果のより良好な同期を提供する。一部の実施形態では、音声又はAVイベントが開始すると同時に触覚効果が開始する場合に強力な同期が発生してもよい。一部の実施形態では、これは、音声又はAVイベントの強度が低くても当てはまってもよい。一部の実施形態では、触覚効果は、ユーザが同時に発生している2つのイベントを知覚することを確実にするための所定の強度を超えている。単純なフィルタリング技術は低い強度の効果のみを提供する場合があり、効果の増強はユーザに効果を完全に感知させるには遅すぎる場合がある。こうした問題のそれぞれは、本明細書に記載の実施形態によって解決されてもよい。
音声信号の遷移に関係付けられる触覚効果を生成するためのシステム及び方法の更なる実施形態は、音声又はAVファイル内の遷移を見つけて注釈を付けるために使用されてもよい。こうした遷移は、他の方法を用いて又は別のユーザ/設計者によって後で触覚効果に関係付けられ得る。更に、音声信号の遷移に関係付けられる触覚効果を生成するためのシステム及び方法は、音声信号をより効果的に自動的に触覚トラックに変換することを可能にする。これは、音声トラックを配布する前に音声トラックに基づいて触覚トラックが開発されることを可能にしてもよい。このような実施形態は、音声トラックと共に触覚トラックが配布されることを可能にし、それによって音声トラックの作者又は配布者に追加の収益源を提供してもよい。
更に、音声信号の遷移に関係付けられる触覚効果を生成するためのシステム及び方法は、音声信号が適切にセグメント化されることを可能にする。一部の実施形態では、周波数成分分析及びフィルタリングが、セグメント単位で音声信号が分析されることを可能にしてもよい。これは、各セグメントに関係付けられる触覚効果のより詳細で従ってより説得力のある触覚トラックを提供してもよい。
(概論)
上記の方法、システム及び装置は例示である。様々な構成によって、適宜、様々な手続き又は構成要素が省略、置換、又は追加されてもよい。例えば、代替的な構成では、方法は記載されたものとは異なる順序で実行されてもよく、及び/又はステージが追加、省略及び/又は結合されてもよい。また、所定の構成に関して記載された機能は、様々な他の構成に結合されてもよい。構成の異なる態様及び要素が、同様に結合されてもよい。また、技術は進歩するものであり、そのため要素の多くは例示であり、本開示又は請求項の範囲を限定しない。
例示的な構成(実装を含む)の十分な理解を与えるために説明の中で特定の詳細が与えられている。しかしながら、こうした構成は特定の詳細なしで実施されてもよい。例えば、周知の回路、工程、アルゴリズム、構造及び技術が、構成を不明確にするのを避けるために不要な詳細なしで示されている。この説明は、例示的な構成のみを提供するものであり、請求項の範囲、応用性又は構成を限定しない。むしろ、構成の上記説明は、当業者に記載された技術を実装するための実施可能な説明を提供するであろう。本開示の精神又は範囲から逸れることなく、要素の機能及び配置の様々な変更が行われてもよい。
また、構成は、流れ図又はブロック図として描かれる処理として記載されてもよい。各々が連続した工程として操作を説明している場合があるが、こうした操作の多くは並列的又は同時に行われ得る。更に、操作の順序は並び替えられてもよい。工程は、図面に含まれない追加のステップを有してもよい。更に、方法の例示は、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、又はこれらの任意の組み合わせによって実装されてもよい。ソフトウェア、ファームウェア、ミドルウェア又はマイクロコードで実装される場合、必要なタスクを実行するためのプログラムコード又はコードセグメントは、記憶媒体等の一時的でないコンピュータ可読媒体に記憶されてもよい。プロセッサは、記載されたタスクを実行してもよい。
複数の例示的な構成が記載されているが、本開示の精神から逸脱することなく、様々な修正、代替構造及び均等物が使用されてもよい。例えば、上記の要素は、より大きなシステムの構成要素であってもよく、他の規則が本発明のアプリケーションに優先し又はそれを修正してもよい。また、上記の要素が検討される前、間、又は後で多くのステップが行われてもよい。従って、先の記載によって請求項の範囲は縛られない。
本明細書における「適合される」又は「構成される」の使用は、追加のタスク又はステップを実行するように適合又は構成される装置を排除しない開放的且つ包括的な言語を意図している。更に、「基づいて」の使用は開放的且つ包括的であることが意図されており、即ち、1つ以上の記載された条件又は値に「基づく」処理、ステップ、計算、又は他の動作が、実際には、記載されたものを超える追加の条件又は値に基づいてもよい。本明細書に含まれる表題、リスト及び番号は、単に説明を容易にするためのものであって、限定することを意図していない。
本主題の態様に従う実施形態は、デジタル電子回路、コンピュータハードウェア、ファームウェア、ソフトウェア又はこれらの組み合わせに実装され得る。一実施形態では、コンピュータは、1つ又は複数のプロセッサを備えてもよい。プロセッサは、プロセッサに結合されるRAM(random access memory)等のコンピュータ可読媒体を備え、又はそれへのアクセスを有する。プロセッサは、センササンプリングルーチン、選択ルーチン、及び上述の方法を実行する他のルーチン等、メモリに記憶されたコンピュータ実行可能プログラム命令を実行する。
このようなプロセッサは、マイクロプロセッサ、DSP(digital signal processor)、ASIC(application−specific integrated circuit)、FPGA(field programmable gate array)、及び状態機械を含む。このようなプロセッサは、PLC、PIC(programmable interrupt controller)、PLD(programmable logic device)、PROM(programmable read−only memory)、EPROM又はEEPROM(electronically programmable read−only memory)、又は他の類似の装置等のプログラム可能電子装置を更に備えてもよい。
このようなプロセッサは、媒体、例えば、プロセッサによって実行されると、プロセッサによって遂行又は支援される本明細書に記載のステップをプロセッサに実行させることが出来る命令を記憶し得る有形のコンピュータ可読媒体を備え、又はこれと通信してもよい。コンピュータ可読媒体の実施形態は、限定されないが、プロセッサ、例えばウェブサーバのプロセッサにコンピュータ可読命令を提供することができる全ての電子、光学、磁気、又は他の記憶装置を備えてもよい。媒体の他の例は、限定されないが、フロッピー(登録商標)ディスク、CD−ROM、磁気ディスク、メモリチップ、ROM、RAM、ASIC、構成プロセッサ、全ての光学媒体、全ての磁気テープ若しくは他の磁気媒体、又はコンピュータプロセッサが読み取り可能な任意の他の媒体を含む。また、様々な他の装置は、ルータ、プライベート若しくはパブリックネットワーク、又は他の伝送装置等のコンピュータ可読媒体を含んでもよい。記載されたプロセッサ及び処理は、1つ以上の構造内にあってもよく、1つ以上の構造を通じて分散されてもよい。プロセッサは、本明細書に記載の1つ以上の方法(又は方法の一部)を実行するためのコードを備えてもよい。
本主題はその特定の実施形態に関して詳細に記載されているが、上記のことを理解すると、このような実施形態の変形、変化及び均等物を当業者であれば容易に生み出し得ることが理解されるであろう。従って、本開示は、限定ではなく例示を目的として提示されており、当業者には容易に明らかとなる本主題への修正、変更及び/又は追加を含むことを排除しないことが理解されるべきである。

Claims (36)

  1. 信号を受信し、
    前記信号における1つ以上の遷移を識別すること、及び1つ以上の触覚効果を前記1つ以上の遷移と同期することによって、前記信号に部分的に基づいて触覚効果を決定し、
    前記触覚効果に関係付けられる触覚信号を出力するように構成されるプロセッサを含む、触覚効果を出力するためのシステム。
  2. 前記信号は、音声信号、圧力信号、又は加速度信号の1つを含む、請求項1に記載のシステム。
  3. 前記信号を受信して、可聴効果を出力するように構成される音声出力装置と、
    前記プロセッサと通信する触覚出力装置であって、前記触覚信号を受信して、前記触覚効果を出力するように構成される触覚出力装置と
    を更に備える、請求項1に記載のシステム。
  4. 前記触覚信号を受信して、前記触覚効果を触覚トラックに記憶するように構成されるデータストアを更に備える、請求項1に記載のシステム。
  5. 前記遷移は、周波数の変化、振幅の変化、又は周波数及び振幅の繰り返しの1つ以上を含む、請求項1に記載のシステム。
  6. 前記触覚効果は、摩擦係数の変化、擬似テクスチャ、又は振動の1つ以上を含む、請求項1に記載のシステム。
  7. 1つ以上の遷移を識別することは、
    一連の時間間隔で取得される前記信号に高速フーリエ変換を実行すること、
    前記時間間隔の各々に対して変換された信号の平均値を決定すること、
    前記平均値の各々を正規化して正規化信号を生成すること、
    前記正規化信号を微分して微分信号を生成すること、及び
    前記微分信号内で1つ以上の極大値を決定すること
    を含む、請求項1に記載のシステム。
  8. 前記正規化信号をフィルタリングすることを更に含む、請求項7に記載のシステム。
  9. 前記1つ以上の極大値は、前記1つ以上の遷移を含む、請求項7に記載のシステム。
  10. 1つ以上の遷移を識別することは、
    第1の時間ウインドウ及び第2の時間ウインドウ内で一群の周波数バンドのパワースペクトル密度を決定することであって、前記第1の時間ウインドウ及び第2の時間ウインドウは前記信号における連続的な時間ウインドウであること、
    時間ウインドウごとの全ての周波数バンドに対する前記パワースペクトル密度の値を合計することによって総パワースペクトル密度を決定すること、
    各周波数バンドの前記パワースペクトル密度の値を時間ウインドウごとの前記総パワースペクトル密度と比較することによって、前記総パワースペクトル密度に対する各周波数バンドの貢献を決定すること、
    前記第1の時間ウインドウから前記第2の時間ウインドウへの前記周波数バンドの前記パワースペクトル密度の第1の変化率を決定すること、
    各周波数バンドの貢献によって重み付けられる前記第1の変化率の合計と等しい第1の距離を決定すること、
    前記第1の時間ウインドウから第3の時間ウインドウへの前記周波数バンドの前記パワースペクトル密度の第2の変化率を決定することであって、前記第2の時間ウインドウ及び前記第3の時間ウインドウは前記信号における連続的な時間ウインドウであること、
    各周波数バンドの貢献によって重み付けられる各周波数バンドにおける前記第2の変化率の合計と等しい第2の距離を決定すること、
    前記第2の距離で前記第1の距離を乗算することによって、前記第1の時間ウインドウと前記第2の時間ウインドウとの間の総距離を決定すること、及び
    極大を決定すること
    を含む、請求項1に記載のシステム。
  11. 前記極大は、前記第1の距離、第2の距離、又は総距離の極大を含む、請求項10に記載のシステム。
  12. 前記極大は、前記信号における1つ以上の遷移を含む、請求項10に記載のシステム。
  13. 信号を受信するステップと、
    前記信号における1つ以上の遷移を識別すること、及び1つ以上の触覚効果を前記1つ以上の遷移と同期することによって、前記信号に部分的に基づいて触覚効果を決定するステップと、
    前記触覚効果に関係付けられる触覚信号を出力するステップと
    を含む、触覚効果を出力するための方法。
  14. 前記信号は、音声信号、圧力信号、又は加速度信号の1つを含む、請求項14に記載の方法。
  15. 可聴効果を出力するステップと、
    前記触覚効果を出力するステップと
    を更に含む、請求項13に記載の方法。
  16. 前記触覚信号を触覚トラックに記憶するステップを更に含む、請求項13に記載の方法。
  17. 前記触覚効果は、摩擦係数の変化、擬似テクスチャ、又は振動の1つ以上を含む、請求項13に記載の方法。
  18. 前記遷移は、周波数の変化、振幅の変化、又は周波数及び振幅の繰り返しの1つ以上を含む、請求項15に記載の方法。
  19. 1つ以上の遷移を識別するステップは、
    一連の時間間隔内の前記信号に高速フーリエ変換を実行するステップと、
    前記時間間隔の各々に対して変換された信号の平均値を決定するステップと、
    前記平均値の各々を正規化して正規化信号を生成するステップと、
    前記正規化信号を微分して微分信号を生成するステップと、
    前記微分信号内で1つ以上の極大値を決定するステップと
    を含む、請求項15に記載の方法。
  20. 前記正規化信号をフィルタリングするステップを更に含む、請求項19に記載の方法。
  21. 前記1つ以上の極大値は、前記1つ以上の遷移を含む、請求項19載の方法。
  22. 1つ以上の遷移を識別するステップは、
    第1の時間ウインドウ及び第2の時間ウインドウ内で一群の周波数バンドのパワースペクトル密度を決定することであって、前記第1の時間ウインドウ及び第2の時間ウインドウは前記信号における連続的な時間ウインドウであること、
    時間ウインドウごとの全ての周波数バンドに対する前記パワースペクトル密度の値を合計することによって総パワースペクトル密度を決定すること、
    各周波数バンドの前記パワースペクトル密度の値を時間ウインドウごとの前記総パワースペクトル密度と比較することによって、前記総パワースペクトル密度に対する各周波数バンドの貢献を決定すること、
    前記第1の時間ウインドウから前記第2の時間ウインドウへの前記周波数バンドの前記パワースペクトル密度の第1の変化率を決定すること、
    各周波数バンドの貢献によって重み付けられる前記第1の変化率の合計と等しい第1の距離を決定すること、
    前記第1の時間ウインドウから第3の時間ウインドウへの前記周波数バンドの前記パワースペクトル密度の第2の変化率を決定することであって、前記第2の時間ウインドウ及び前記第3の時間ウインドウは前記信号における連続的な時間ウインドウであること、
    各周波数バンドの貢献によって重み付けられる各周波数バンドにおける前記第2の変化率の合計と等しい第2の距離を決定すること、
    前記第2の距離で前記第1の距離を乗算することによって、前記第1の時間ウインドウと前記第2の時間ウインドウとの間の総距離を決定すること、及び
    極大を決定すること
    を含む、請求項15に記載の方法。
  23. 前記極大は、前記第1の距離、第2の距離、又は総距離の極大を含む、請求項22に記載の方法。
  24. 前記極大は、前記信号における1つ以上の遷移を含む、請求項22に記載の方法。
  25. プロセッサによって実行されると、前記プロセッサに
    信号を受信すること、
    前記信号における1つ以上の遷移を識別すること、及び1つ以上の触覚効果を前記1つ以上の遷移と同期することによって、前記信号に部分的に基づいて触覚効果を決定すること、及び
    前記触覚効果に関係付けられる触覚信号を出力すること
    を行わせるように構成されるプログラムコードを含む、一時的でないコンピュータ可読媒体。
  26. 前記信号は、音声信号、圧力信号、又は加速度信号の1つを含む、請求項25に記載の一時的でないコンピュータ可読媒体。
  27. プロセッサによって実行されると、前記プロセッサに
    可聴効果を出力すること、及び
    前記触覚効果を出力すること
    を行わせるように構成されるプログラムコードを更に含む、請求項25に記載の一時的でないコンピュータ可読媒体。
  28. プロセッサによって実行されると、前記プロセッサに、前記触覚信号を触覚トラックに記憶させるように構成されるプログラムコードを更に含む、請求項25に記載の一時的でないコンピュータ可読媒体。
  29. 前記触覚効果は、摩擦係数の変化、擬似テクスチャ、又は振動の1つ以上を含む、請求項25に記載の一時的でないコンピュータ可読媒体。
  30. 前記遷移は、周波数の変化、振幅の変化、又は周波数及び振幅の繰り返しの1つ以上を含む、請求項27に記載の一時的でないコンピュータ可読媒体。
  31. 1つ以上の遷移を識別することは、
    一連の時間間隔内の前記信号に高速フーリエ変換を実行すること、
    前記時間間隔の各々に対して変換された信号の平均値を決定すること、
    前記平均値の各々を正規化して正規化信号を生成すること、
    前記正規化信号を微分して微分信号を生成すること、及び
    前記微分信号内で1つ以上の極大値を決定すること
    を含む、請求項27に記載の一時的でないコンピュータ可読媒体。
  32. 前記1つ以上の極大値は、前記1つ以上の遷移を含む、請求項31に記載の一時的でないコンピュータ可読媒体。
  33. 前記正規化信号をフィルタリングすることを更に含む、請求項31に記載の一時的でないコンピュータ可読媒体。
  34. 1つ以上の遷移を識別することは、
    第1の時間ウインドウ及び第2の時間ウインドウ内で一群の周波数バンドのパワースペクトル密度を決定することであって、前記第1の時間ウインドウ及び第2の時間ウインドウは前記信号における連続的な時間ウインドウであること、
    時間ウインドウごとの全ての周波数バンドに対する前記パワースペクトル密度の値を合計することによって総パワースペクトル密度を決定すること、
    各周波数バンドの前記パワースペクトル密度の値を時間ウインドウごとの前記総パワースペクトル密度と比較することによって、前記総パワースペクトル密度に対する各周波数バンドの貢献を決定すること、
    前記第1の時間ウインドウから前記第2の時間ウインドウへの前記周波数バンドの前記パワースペクトル密度の第1の変化率を決定すること、
    各周波数バンドの貢献によって重み付けられる前記第1の変化率の合計と等しい第1の距離を決定すること、
    前記第1の時間ウインドウから第3の時間ウインドウへの前記周波数バンドの前記パワースペクトル密度の第2の変化率を決定することであって、前記第2の時間ウインドウ及び前記第3の時間ウインドウは前記信号における連続的な時間ウインドウであること、
    各周波数バンドの貢献によって重み付けられる各周波数バンドにおける前記第2の変化率の合計と等しい第2の距離を決定すること、
    前記第2の距離で前記第1の距離を乗算することによって、前記第1の時間ウインドウと前記第2の時間ウインドウとの間の総距離を決定すること、及び
    極大を決定すること
    を含む、請求項27に記載の一時的でないコンピュータ可読媒体。
  35. 前記極大は、前記信号における1つ以上の遷移を含む、請求項34に記載の一時的でないコンピュータ可読媒体。
  36. 前記極大は、前記第1の距離、第2の距離、又は総距離の極大を含む、請求項34に記載の一時的でないコンピュータ可読媒体。
JP2014179759A 2013-09-06 2014-09-04 音声信号の遷移に関係付けられる触覚効果を生成するためのシステム及び方法 Expired - Fee Related JP6494220B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201361874933P 2013-09-06 2013-09-06
US61/874,933 2013-09-06
US14/078,438 US9711014B2 (en) 2013-09-06 2013-11-12 Systems and methods for generating haptic effects associated with transitions in audio signals
US14/078,438 2013-11-12

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019039407A Division JP6744940B2 (ja) 2013-09-06 2019-03-05 音声信号の遷移に関係付けられる触覚効果を生成するためのシステム及び方法

Publications (3)

Publication Number Publication Date
JP2015053052A true JP2015053052A (ja) 2015-03-19
JP2015053052A5 JP2015053052A5 (ja) 2017-10-05
JP6494220B2 JP6494220B2 (ja) 2019-04-03

Family

ID=51492231

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014179759A Expired - Fee Related JP6494220B2 (ja) 2013-09-06 2014-09-04 音声信号の遷移に関係付けられる触覚効果を生成するためのシステム及び方法
JP2019039407A Active JP6744940B2 (ja) 2013-09-06 2019-03-05 音声信号の遷移に関係付けられる触覚効果を生成するためのシステム及び方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019039407A Active JP6744940B2 (ja) 2013-09-06 2019-03-05 音声信号の遷移に関係付けられる触覚効果を生成するためのシステム及び方法

Country Status (5)

Country Link
US (3) US9711014B2 (ja)
EP (1) EP2846227A3 (ja)
JP (2) JP6494220B2 (ja)
KR (1) KR20150028736A (ja)
CN (2) CN104423593B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9934660B2 (en) 2013-09-06 2018-04-03 Immersion Corporation Systems and methods for generating haptic effects associated with an envelope in audio signals
US9947188B2 (en) 2013-09-06 2018-04-17 Immersion Corporation Systems and methods for generating haptic effects associated with audio signals

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10007341B2 (en) * 2011-06-21 2018-06-26 Northwestern University Touch interface device and method for applying lateral forces on a human appendage
US9711014B2 (en) 2013-09-06 2017-07-18 Immersion Corporation Systems and methods for generating haptic effects associated with transitions in audio signals
US9652945B2 (en) 2013-09-06 2017-05-16 Immersion Corporation Method and system for providing haptic effects based on information complementary to multimedia content
US9619029B2 (en) 2013-11-14 2017-04-11 Immersion Corporation Haptic trigger control system
US9164587B2 (en) 2013-11-14 2015-10-20 Immersion Corporation Haptic spatialization system
JP2015130168A (ja) * 2013-12-31 2015-07-16 イマージョン コーポレーションImmersion Corporation 摩擦拡張制御、及び、タッチコントロールパネルのボタンを摩擦拡張制御部へと変換する方法
JP2015170173A (ja) * 2014-03-07 2015-09-28 ソニー株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP2015170174A (ja) * 2014-03-07 2015-09-28 ソニー株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
US10139907B2 (en) 2014-06-16 2018-11-27 Immersion Corporation Systems and methods for foley-style haptic content creation
US10139910B2 (en) * 2014-09-25 2018-11-27 Telefonaktiebolaget Lm Ericsson (Publ) Mobile communications device with adaptive friction of the housing
US10185396B2 (en) 2014-11-12 2019-01-22 Immersion Corporation Haptic trigger modification system
US10254838B2 (en) 2014-12-23 2019-04-09 Immersion Corporation Architecture and communication protocol for haptic output devices
KR101606791B1 (ko) * 2015-09-08 2016-03-28 박재성 주파수 변화에 따라 실시간 진동을 제공하는 진동 제공시스템 및 이것의 진동 제공방법
KR101756298B1 (ko) * 2015-11-23 2017-07-10 씨제이포디플렉스 주식회사 진동 신호 생성 방법, 진동 신호를 이용한 영상 상영 방법 및 이를 수행하기 위한 프로그램
CN105553458B (zh) * 2015-12-28 2018-07-03 哈尔滨工业大学 一种基于声音控制的形状记忆聚合物的驱动方法
US9981182B2 (en) 2016-02-12 2018-05-29 Disney Enterprises, Inc. Systems and methods for providing immersive game feedback using haptic effects
WO2018017210A1 (en) * 2016-07-22 2018-01-25 Harman International Industries, Incorporated Haptic guidance system
CN107608567A (zh) * 2017-08-30 2018-01-19 湖州佳格电子科技股份有限公司 交互式红外触摸装置及其交互方法
US10360775B1 (en) 2018-06-11 2019-07-23 Immersion Corporation Systems and methods for designing haptics using speech commands
US20200012347A1 (en) * 2018-07-09 2020-01-09 Immersion Corporation Systems and Methods for Providing Automatic Haptic Generation for Video Content
WO2020044079A1 (en) * 2018-08-29 2020-03-05 Ecole Polytechnique Federale De Lausanne (Epfl) Multisensory haptic system and method
US10943445B2 (en) 2019-05-13 2021-03-09 Immersion Corporation Systems and methods for providing haptic effects with airflow and thermal stimulation
JP2021015488A (ja) * 2019-07-12 2021-02-12 株式会社東海理化電機製作所 制御装置、呈示装置、およびデータ
US11126267B2 (en) 2019-12-19 2021-09-21 Giantplus Technology Co., Ltd Tactile feedback device and operation method thereof
CN111312281B (zh) * 2020-05-09 2020-09-08 北京小米移动软件有限公司 一种触感振动实现方法
KR20230038251A (ko) * 2020-07-10 2023-03-17 메타피직스 엔지니어링 에스에이 대상자의 수면 개시를 가속화 및/또는 수면의 질을 개선하는 방법
CN112506341B (zh) * 2020-12-01 2022-05-03 瑞声新能源发展(常州)有限公司科教城分公司 一种振动效果的生成方法、装置、终端设备及存储介质
US11797091B2 (en) 2021-06-24 2023-10-24 Microsoft Technology Licensing, Llc Computing device with haptic trackpad

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10506508A (ja) * 1994-09-21 1998-06-23 クレイグ ソーナー, 触感発生器用の制御信号を生成する装置及び方法
WO2006043511A1 (ja) * 2004-10-18 2006-04-27 Nsk Ltd. 機械設備の異常診断システム
JP2013168153A (ja) * 2012-02-15 2013-08-29 Immersion Corp プリミティブを用いた高解像度ハプティック効果生成

Family Cites Families (115)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4250637A (en) 1979-06-13 1981-02-17 Scott Instruments Company Tactile aid to speech reception
US5388992A (en) 1991-06-19 1995-02-14 Audiological Engineering Corporation Method and apparatus for tactile transduction of acoustic signals from television receivers
US6400996B1 (en) 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
JPH08110796A (ja) * 1994-10-13 1996-04-30 Hitachi Ltd 音声強調方法および装置
AU7097298A (en) * 1996-12-18 1998-07-17 Sanderford, Hugh Britton Power spectral density technique
US6650338B1 (en) 1998-11-24 2003-11-18 Interval Research Corporation Haptic interaction with video and image data
US7020701B1 (en) * 1999-10-06 2006-03-28 Sensoria Corporation Method for collecting and processing data using internetworked wireless integrated network sensors (WINS)
US6408696B1 (en) * 1999-12-06 2002-06-25 Ai Signal Research, Inc. Coherent phase line enhancer spectral analysis technique
US7159008B1 (en) 2000-06-30 2007-01-02 Immersion Corporation Chat interface with haptic feedback functionality
US6397154B1 (en) * 2000-07-07 2002-05-28 Research Electronics International Correlation method for surveillance device detection
US7069208B2 (en) 2001-01-24 2006-06-27 Nokia, Corp. System and method for concealment of data loss in digital audio transmission
US7623114B2 (en) 2001-10-09 2009-11-24 Immersion Corporation Haptic feedback sensations based on audio output from computer devices
US6703550B2 (en) * 2001-10-10 2004-03-09 Immersion Corporation Sound data output and manipulation using haptic feedback
US20030188020A1 (en) 2002-03-29 2003-10-02 Steven Barile Tangible artifact referencing digital content
JP2005523612A (ja) 2002-04-22 2005-08-04 インテロシティ ユーエスエー,インコーポレイテッド データ受信器と制御装置の方法及び装置
WO2003096669A2 (en) 2002-05-10 2003-11-20 Reisman Richard R Method and apparatus for browsing using multiple coordinated device
JP4243829B2 (ja) * 2002-09-27 2009-03-25 日本電気株式会社 ブロードバンド信号検出方法及び装置
DE60326743D1 (de) 2002-09-30 2009-04-30 Gracenote Inc Fingerabdruckextraktion
US8027482B2 (en) 2003-02-13 2011-09-27 Hollinbeck Mgmt. Gmbh, Llc DVD audio encoding using environmental audio tracks
KR100581060B1 (ko) 2003-11-12 2006-05-22 한국전자통신연구원 오감 데이터 동기화 전송 장치 및 그 방법과 그를 이용한실감형 멀티미디어 데이터 제공 시스템 및 그 방법
CN1318191C (zh) * 2003-12-01 2007-05-30 东南大学 时空双通道机器人触觉再现电流刺激方法及装置
EP1560199B1 (en) 2004-01-29 2008-07-09 Harman Becker Automotive Systems GmbH Multimodal data input
EP1582965A1 (en) 2004-04-01 2005-10-05 Sony Deutschland Gmbh Emotion controlled system for processing multimedia data
US8751616B2 (en) * 2004-06-08 2014-06-10 Siemens Industry, Inc. System for accessing and browsing a PLC provided within a network
EP2312475B1 (en) * 2004-07-09 2012-05-09 Nippon Telegraph and Telephone Corporation Sound signal detection and image signal detection
US20060017691A1 (en) * 2004-07-23 2006-01-26 Juan Manuel Cruz-Hernandez System and method for controlling audio output associated with haptic effects
US20090023127A1 (en) * 2004-10-12 2009-01-22 Agency For Science, Technology And Research Tissue system and methods of use
US20080098331A1 (en) 2005-09-16 2008-04-24 Gregory Novick Portable Multifunction Device with Soft Keyboards
US8700791B2 (en) 2005-10-19 2014-04-15 Immersion Corporation Synchronization of haptic effect data in a media transport stream
US20070178942A1 (en) 2006-01-30 2007-08-02 Sadler Daniel J Method for abruptly stopping a linear vibration motor in portable communication device
US7979146B2 (en) 2006-04-13 2011-07-12 Immersion Corporation System and method for automatically producing haptic events from a digital audio signal
US8378964B2 (en) 2006-04-13 2013-02-19 Immersion Corporation System and method for automatically producing haptic events from a digital audio signal
US8000825B2 (en) * 2006-04-13 2011-08-16 Immersion Corporation System and method for automatically producing haptic events from a digital audio file
EP2033444A1 (en) 2006-06-13 2009-03-11 Koninklijke Philips Electronics N.V. Distribution of ambience and content
US20080103558A1 (en) 2006-10-30 2008-05-01 Stuart Wenzel Focused electromagnetic-wave and ultrasonic-wave structures for tissue stimulation
CN101237317B (zh) * 2006-11-27 2010-09-29 华为技术有限公司 确定发送频谱的方法和装置
US7882442B2 (en) 2007-01-05 2011-02-01 Eastman Kodak Company Multi-frame display system with perspective based image arrangement
KR100835297B1 (ko) 2007-03-02 2008-06-05 광주과학기술원 촉감 정보 표현을 위한 노드 구조 및 이를 이용한 촉감정보 전송 방법과 시스템
US8095646B2 (en) 2007-08-16 2012-01-10 Sony Computer Entertainment Inc. Content ancillary to sensory work playback
US9019087B2 (en) * 2007-10-16 2015-04-28 Immersion Corporation Synchronization of haptic effect data in a media stream
US8875212B2 (en) 2008-04-15 2014-10-28 Shlomo Selim Rakib Systems and methods for remote control of interactive video
US7911328B2 (en) 2007-11-21 2011-03-22 The Guitammer Company Capture and remote reproduction of haptic events in synchronous association with the video and audio capture and reproduction of those events
US7816838B2 (en) * 2007-12-11 2010-10-19 Nokia Corporation Piezoelectric force sensing
JP2009159125A (ja) 2007-12-25 2009-07-16 Casio Hitachi Mobile Communications Co Ltd 字幕付き映像再生装置、字幕付き映像再生装置の検索結果通知方法及びプログラム
JP2011523364A (ja) 2008-05-09 2011-08-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 感情を伝達する方法及びシステム
US8831948B2 (en) 2008-06-06 2014-09-09 At&T Intellectual Property I, L.P. System and method for synthetically generated speech describing media content
KR20100008775A (ko) 2008-07-16 2010-01-26 한국전자통신연구원 실감 효과 표현 방법 및 그 장치 및 사용자 환경 정보 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체
US20110125790A1 (en) 2008-07-16 2011-05-26 Bum-Suk Choi Method and apparatus for representing sensory effects and computer readable recording medium storing sensory effect metadata
WO2010008234A2 (ko) 2008-07-16 2010-01-21 한국전자통신연구원 실감 효과 표현 방법 및 그 장치 및 실감 기기 성능 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체
US20110125789A1 (en) 2008-07-16 2011-05-26 Sanghyun Joo Method and apparatus for representing sensory effects and computer readable recording medium storing sensory device command metadata
WO2010027190A2 (ko) 2008-09-05 2010-03-11 에스케이텔레콤 주식회사 진동 정보를 전달하는 이동통신 단말기 및 방법
EP2164066B1 (en) * 2008-09-15 2016-03-09 Oticon A/S Noise spectrum tracking in noisy acoustical signals
US20110188832A1 (en) 2008-09-22 2011-08-04 Electronics And Telecommunications Research Institute Method and device for realising sensory effects
US20110021555A1 (en) 2008-12-19 2011-01-27 Graceway Pharmaceuticals, Llc Lower dosage strength imiquimod formulations and shorter dosing regimens for treating actinic keratoses
WO2010078577A2 (en) * 2009-01-05 2010-07-08 Services Petroliers Schlumberger Processing time series data embedded in high noise
WO2010093913A1 (en) 2009-02-12 2010-08-19 Brock Seiler Multi-channel audio vibratory entertainment system
MX2011009186A (es) 2009-03-10 2011-09-26 Bayer Materialscience Ag Transductores de polimeros electroactivos para dispositivos de retroalimentacion tactil.
EP2419808B1 (en) 2009-04-15 2015-06-10 Koninklijke Philips N.V. A foldable tactile display
US20100268745A1 (en) 2009-04-16 2010-10-21 Bum-Suk Choi Method and apparatus for representing sensory effects using sensory device capability metadata
KR20100114857A (ko) 2009-04-16 2010-10-26 한국전자통신연구원 사용자 실감 효과 선호정보를 이용한 실감 효과 표현 방법 및 장치
EP2430607A4 (en) 2009-05-08 2013-04-17 Univ Washington ADVERTISING DURING ACCELERATED MULTIMEDIA REPRODUCTION
US8068025B2 (en) 2009-05-28 2011-11-29 Simon Paul Devenyi Personal alerting device and method
US8260715B2 (en) * 2009-07-13 2012-09-04 International Business Machines Corporation Software license usage amongst workgroups using software usage data
US8373759B2 (en) * 2009-08-18 2013-02-12 Wi-Lan, Inc. White space spectrum sensor for television band devices
JP4769342B2 (ja) 2009-09-03 2011-09-07 パナソニック株式会社 触感再現方法、装置、コンピュータプログラムおよびコンピュータプログラムを記録した記録媒体
GB2474047B (en) 2009-10-02 2014-12-17 New Transducers Ltd Touch sensitive device
US10254824B2 (en) * 2009-10-16 2019-04-09 Immersion Corporation Systems and methods for output of content based on sensing an environmental factor
US20110099596A1 (en) 2009-10-26 2011-04-28 Ure Michael J System and method for interactive communication with a media device user such as a television viewer
US8902050B2 (en) * 2009-10-29 2014-12-02 Immersion Corporation Systems and methods for haptic augmentation of voice-to-text conversion
KR101303648B1 (ko) 2009-12-08 2013-09-04 한국전자통신연구원 감성신호 감지 장치 및 그 방법
US8605141B2 (en) 2010-02-24 2013-12-10 Nant Holdings Ip, Llc Augmented reality panorama supporting visually impaired individuals
WO2011133860A2 (en) * 2010-04-23 2011-10-27 Immersion Corporation Systems and methods for providing haptic effects
KR101635029B1 (ko) * 2010-06-28 2016-06-30 엘지전자 주식회사 이동 단말기
KR101705206B1 (ko) 2010-06-30 2017-02-09 롯데정밀화학 주식회사 클로로히드린류의 제조방법 및 그 방법에 의해 제조된 클로로히드린류를 사용하는 에피클로로히드린의 제조방법
US8798534B2 (en) 2010-07-09 2014-08-05 Digimarc Corporation Mobile devices and methods employing haptics
JP5813767B2 (ja) 2010-07-21 2015-11-17 ディー−ボックス テクノロジーズ インコーポレイテッド メディア認識及びモーション信号への同期
CN102385571B (zh) 2010-09-06 2016-03-30 联想(北京)有限公司 一种显示方法及显示装置
US10598539B2 (en) * 2010-11-23 2020-03-24 Feather Sensors Llc Method and apparatus for intelligent airflow sensors
US20120150928A1 (en) 2010-12-09 2012-06-14 Peter Ward Method and system for identifying media assets
JP5543615B2 (ja) 2010-12-22 2014-07-09 京セラ株式会社 電子機器
JP5593244B2 (ja) * 2011-01-28 2014-09-17 日本放送協会 話速変換倍率決定装置、話速変換装置、プログラム、及び記録媒体
JP5602653B2 (ja) 2011-01-31 2014-10-08 インターナショナル・ビジネス・マシーンズ・コーポレーション 情報処理装置、情報処理方法、情報処理システム、およびプログラム
US9448626B2 (en) 2011-02-11 2016-09-20 Immersion Corporation Sound to haptic effect conversion system using amplitude value
US8717152B2 (en) 2011-02-11 2014-05-06 Immersion Corporation Sound to haptic effect conversion system using waveform
US8872011B2 (en) 2011-02-25 2014-10-28 Mark Fresolone Visual, tactile and motion-sensation system for representing music for an audience
US8593420B1 (en) 2011-03-04 2013-11-26 Amazon Technologies, Inc. Providing tactile output and interaction
US20130314514A1 (en) 2011-03-18 2013-11-28 Kazuhiro Mochinaga Display apparatus, 3d glasses, and 3d-video viewing system
US8948892B2 (en) 2011-03-23 2015-02-03 Audible, Inc. Managing playback of synchronized content
US8976980B2 (en) 2011-03-24 2015-03-10 Texas Instruments Incorporated Modulation of audio signals in a parametric speaker
WO2012135225A2 (en) * 2011-03-30 2012-10-04 Hunt Energy Enterprises, Llc Method and system for passive electroseismic surveying
US9448713B2 (en) 2011-04-22 2016-09-20 Immersion Corporation Electro-vibrotactile display
US9083821B2 (en) 2011-06-03 2015-07-14 Apple Inc. Converting audio to haptic feedback in an electronic device
US8892391B2 (en) * 2011-06-03 2014-11-18 Apple Inc. Activity detection
US20130032545A1 (en) * 2011-08-05 2013-02-07 Freese Robert P Methods for monitoring and modifying a fluid stream using opticoanalytical devices
US10013857B2 (en) 2011-12-21 2018-07-03 Qualcomm Incorporated Using haptic technologies to provide enhanced media experiences
KR101869562B1 (ko) 2011-12-27 2018-07-24 삼성전자주식회사 이동 단말에서 사운드 특성에 따른 진동 발생 장치 및 방법
JP6081705B2 (ja) 2012-02-03 2017-02-15 イマージョン コーポレーションImmersion Corporation 波形を利用した音響−触覚効果変換システム
US8493354B1 (en) 2012-08-23 2013-07-23 Immersion Corporation Interactivity model for shared feedback on mobile devices
US9715276B2 (en) 2012-04-04 2017-07-25 Immersion Corporation Sound to haptic effect conversion system using multiple actuators
US8847913B2 (en) 2012-04-04 2014-09-30 Kohler Co. User interface device for a bath or shower
US9132346B2 (en) 2012-04-04 2015-09-15 Kenneth J. Huebner Connecting video objects and physical objects for handheld projectors
US8896524B2 (en) 2012-08-24 2014-11-25 Immersion Corporation Context-dependent haptic confirmation system
US9092059B2 (en) 2012-10-26 2015-07-28 Immersion Corporation Stream-independent sound to haptic effect conversion system
US9352226B2 (en) 2012-12-21 2016-05-31 Sony Interactive Entertainment America Llc Automatic generation of suggested mini-games for cloud-gaming based on recorded gameplay
US9261960B2 (en) 2013-01-24 2016-02-16 Immersion Corporation Haptic sensation recording and playback
US9182890B2 (en) 2013-01-31 2015-11-10 Lg Electronics Inc. Image display apparatus and method for operating the same
KR102099086B1 (ko) 2013-02-20 2020-04-09 삼성전자주식회사 디지털 텔레비전 및 사용자 디바이스를 이용하여 사용자 맞춤형 인터랙션을 제공하는 방법, 그 디지털 텔레비전 및 사용자 디바이스
US9992491B2 (en) 2013-03-15 2018-06-05 Immersion Corporation Method and apparatus for encoding and decoding haptic information in multi-media files
JP6411069B2 (ja) 2013-05-24 2018-10-24 イマージョン コーポレーションImmersion Corporation 触覚データを符号化及びストリーミングする方法及びシステム
US20140368349A1 (en) 2013-06-14 2014-12-18 Revolution Display Sensory element projection system and method of use
US9619980B2 (en) 2013-09-06 2017-04-11 Immersion Corporation Systems and methods for generating haptic effects associated with audio signals
US9898086B2 (en) 2013-09-06 2018-02-20 Immersion Corporation Systems and methods for visual processing of spectrograms to generate haptic effects
US9576445B2 (en) 2013-09-06 2017-02-21 Immersion Corp. Systems and methods for generating haptic effects associated with an envelope in audio signals
US9652945B2 (en) 2013-09-06 2017-05-16 Immersion Corporation Method and system for providing haptic effects based on information complementary to multimedia content
US9711014B2 (en) * 2013-09-06 2017-07-18 Immersion Corporation Systems and methods for generating haptic effects associated with transitions in audio signals

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10506508A (ja) * 1994-09-21 1998-06-23 クレイグ ソーナー, 触感発生器用の制御信号を生成する装置及び方法
WO2006043511A1 (ja) * 2004-10-18 2006-04-27 Nsk Ltd. 機械設備の異常診断システム
JP2013168153A (ja) * 2012-02-15 2013-08-29 Immersion Corp プリミティブを用いた高解像度ハプティック効果生成

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9934660B2 (en) 2013-09-06 2018-04-03 Immersion Corporation Systems and methods for generating haptic effects associated with an envelope in audio signals
US9947188B2 (en) 2013-09-06 2018-04-17 Immersion Corporation Systems and methods for generating haptic effects associated with audio signals
US10388122B2 (en) 2013-09-06 2019-08-20 Immerson Corporation Systems and methods for generating haptic effects associated with audio signals
US10395488B2 (en) 2013-09-06 2019-08-27 Immersion Corporation Systems and methods for generating haptic effects associated with an envelope in audio signals

Also Published As

Publication number Publication date
US20190221087A1 (en) 2019-07-18
JP2019133685A (ja) 2019-08-08
US10276004B2 (en) 2019-04-30
US20150070146A1 (en) 2015-03-12
EP2846227A3 (en) 2015-04-29
US20170270756A1 (en) 2017-09-21
JP6494220B2 (ja) 2019-04-03
JP6744940B2 (ja) 2020-08-19
CN104423593B (zh) 2018-10-30
EP2846227A2 (en) 2015-03-11
CN104423593A (zh) 2015-03-18
KR20150028736A (ko) 2015-03-16
CN109634402A (zh) 2019-04-16
US9711014B2 (en) 2017-07-18

Similar Documents

Publication Publication Date Title
JP6744940B2 (ja) 音声信号の遷移に関係付けられる触覚効果を生成するためのシステム及び方法
JP6794483B2 (ja) 音声信号のエンベロープに関係付けられる触覚効果を生成するためのシステム及び方法
US10388122B2 (en) Systems and methods for generating haptic effects associated with audio signals
JP6557396B2 (ja) 低周波数効果ハプティック変換システム
JP2019067396A (ja) ハプティックピッチ制御

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170823

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190305

R150 Certificate of patent or registration of utility model

Ref document number: 6494220

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees