JPWO2016027366A1 - 振動信号生成装置及び振動信号生成方法 - Google Patents

振動信号生成装置及び振動信号生成方法 Download PDF

Info

Publication number
JPWO2016027366A1
JPWO2016027366A1 JP2016543774A JP2016543774A JPWO2016027366A1 JP WO2016027366 A1 JPWO2016027366 A1 JP WO2016027366A1 JP 2016543774 A JP2016543774 A JP 2016543774A JP 2016543774 A JP2016543774 A JP 2016543774A JP WO2016027366 A1 JPWO2016027366 A1 JP WO2016027366A1
Authority
JP
Japan
Prior art keywords
unit
vibration signal
rhythm
frequency band
vibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2016543774A
Other languages
English (en)
Inventor
勝利 稲垣
勝利 稲垣
誠 松丸
誠 松丸
高橋 努
努 高橋
岩村 宏
宏 岩村
健作 小幡
健作 小幡
浩哉 西村
浩哉 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Publication of JPWO2016027366A1 publication Critical patent/JPWO2016027366A1/ja
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • G10H1/04Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos by additional modulation
    • G10H1/043Continuous modulation
    • G10H1/045Continuous modulation by electromechanical means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/04Circuits for transducers, loudspeakers or microphones for correcting frequency response
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/076Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/375Tempo or beat alterations; Music timing control
    • G10H2210/381Manual tempo setting or adjustment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1008Earpieces of the supra-aural or circum-aural type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/033Headphones for stereophonic communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Auxiliary Devices For Music (AREA)
  • Details Of Audible-Bandwidth Transducers (AREA)

Abstract

導出部(240)は、タップタイミング情報TAPの受付時刻を含む所定の時間範囲内に検出されたリズム成分を楽曲の特定リズム成分に特定し、スペクトル強度が所定値以上となる第1周波数帯域を導出する。また、導出部(240)は、タップタイミング情報TAPの受付時刻を含む所定の時間範囲外に検出されたリズム成分を非特定リズム成分に特定し、スペクトル強度が所定値以上となる第2周波数帯域を導出する。次いで、算出部(250)は、第1周波数帯域のうちで第2周波数帯域が含まれていない第3周波数帯域を算出し、当該帯域を指定した通過周波数指定BPCをフィルタ部(260)へ送る。そして、フィルタ部(260)は、指定された周波数を信号通過帯域とするフィルタリング処理を楽曲信号MUDに施す。引き続き、振動信号生成部(270)は、フィルタ部(260)を通過した信号FTDに基づいて、振動信号VISを生成する。

Description

本発明は、振動信号生成装置、振動信号生成方法、振動信号生成プログラム、及び、当該振動信号生成プログラムが記録された記録媒体に関する。
従来から、楽曲音の楽しみ方として、楽曲コンテンツを再生して楽曲音を聴取することが、利用者により広く行われている。そして、近年では、ユーザが楽曲音との一体感を得られるように、楽曲音に合わせて振動部を振動させて、当該振動により利用者に楽曲音を体感させたり、又、楽曲音に合わせて光を点滅させたり、キャラクタを動作させる等、楽曲音の楽しみ方は、多様化してきている。
ここで、楽曲音に合わせて振動部を振動させる技術の一つとして、楽曲のビート成分の出現に合わせて振動子を振動させる技術が提案されている(特許文献1参照:以下、「従来例1」と呼ぶ)。この従来例1の技術では、楽曲音のスペクトログラムから、音声信号のビート成分を抽出し、ビートのタイミングにおけるスペクトルの時間微分値のピークを振動子に与える振動強度の情報として取得する。そして、当該ビートのタイミングにおいて、当該振動強度に応じた振幅で振動する波形を有する加振信号を生成し、当該加振信号により振動子を振動させるようになっている。
また、楽曲音に合わせて振動部を振動させる他の技術として、楽曲の特定の楽器音成分の出現に合わせて、振動子を振動させる技術が提案させている(特許文献2参照:以下、「従来例2」と呼ぶ)。この従来例2の技術では、ベースやドラム等の楽器ごとに定められたバンドパスフィルタにより、楽器の再生音の音域に対応する音データを抽出し、音データが所定のレベル以上となる期間内に、所定周波数の駆動パルスを発生させる。そして、当該駆動パルスで振動子を共振させ、再生音に合わせて振動を発生させるようになっている。
特開2008−283305号公報 特開2013−56309号公報
上述した従来例1の技術では、抽出した楽曲音のビート成分に合わせて、当該ビート成分の強度に応じた振幅強度で振動子を振動させている。このため、ビート音に敏感なユーザに対しては、振動と楽曲音との一体感を与えることは可能である。ところで、振動付与による振動と楽曲音との一体性の感じ方は、ユーザによって様々である。したがって、従来例1の技術のように、楽曲音のビート成分の振動に合わせた振動付与では、振動と楽曲音との一体感が得られないユーザも存在する。
また、上述した従来例2の技術では、楽曲音のベースやドラムの楽器音成分に合わせて、振動子を振動させている。このため、ベースやドラムの楽器音に敏感なユーザにとっては、振動と楽曲音との一体感を得られることが可能であるが、そうでないユーザにとっては、振動と楽曲音との一体感が得られないことがある。
したがって、振動付与による振動と楽曲音との一体性の感じ方は、個々人によって異なることから、従来例1,2の技術では、振動と楽曲音との一体感を得られない利用者も存在する。
このため、楽曲音の進行に合わせて、個々人の楽曲音との一体性の感じ方に適合した振動を生成し、個々のユーザに振動と楽曲音との一体感を与えることができる技術が望まれている。かかる要請に応えることが、本発明が解決すべき課題の一つとして挙げられる。
請求項1に記載の発明は、楽曲のリズムを検出する検出部と;ユーザから、タイミングの情報の入力を受け付ける受付部と;前記検出部が検出したリズムと、前記受付部が受け付けたタイミングの情報とに基づいて、振動部を振動させるための振動信号を生成する生成部と;を備えることを特徴とする振動信号生成装置である。
請求項9に記載の発明は、振動信号を生成する振動信号生成装置において使用される振動信号生成方法であって、楽曲のリズムを検出する検出工程と;ユーザから、タイミングの情報の入力を受け付ける受付工程と;前記検出工程において検出したリズムと、前記受付工程において受け付けたタイミングの情報とに基づいて、振動部を振動させるための振動信号を生成する生成工程と;を備えることを特徴とする振動信号生成方法である。
請求項10に記載の発明は、振動信号生成装置が有するコンピュータに、請求項9に記載の振動信号生成方法を実行させる、ことを特徴とする振動信号生成プログラムである。
請求項11に記載の発明は、振動信号生成装置が有するコンピュータにより読み取り可能に、請求項10に記載の振動信号生成プログラムが記録されている、ことを特徴とする記録媒体である。
本発明の一実施形態に係る振動信号生成装置を備える音響装置の構成を概略的に示す図である。 図1の音出力部(スピーカ)及び振動部(振動器)の配置関係を説明するための図である。 図1の振動信号生成装置の構成を説明するための図である。 図3の振動信号生成装置による振動信号の生成処理を説明するためのフローチャートである。 図4の第1及び第2周波数帯域の導出処理を説明するためのフローチャートである。 リズム成分の出現とタップタイミングとの関係の例、及び、当該関係に基づいて算出された第3周波数帯域を併記した図である(その1)。 リズム成分の出現とタップタイミングとの関係の例、及び、当該関係に基づいて算出された第3周波数帯域を併記した図である(その2)。 リズム成分の出現とタップタイミングとの関係の例、及び、当該関係に基づいて算出された第3周波数帯域を併記した図である(その3)。 リズム成分の出現とタップタイミングとの関係の例、及び、当該関係に基づいて算出された第3周波数帯域を併記した図である(その4)。 リズム成分の出現及びタップタイミングの関係の例と、当該関係に基づいて算出された第3周波数帯域とを併記した図である(その5)。 変形例を説明するための図である。 音出力部(スピーカ)及び振動部(振動器)の配置位置の変形例を説明するための図である。
130 … 振動信号生成装置
210 … タップ入力部(受付部の一部)
220 … 受付期間設定部(受付部の一部)
230 … 検出部
240 … 導出部(生成部の一部)
250 … 算出部(生成部の一部)
260 … フィルタ部(生成部の一部)
270 … 振動信号生成部(生成部の一部)
400 … 振動部
以下、本発明の一実施形態を、図1〜図10を参照して説明する。なお、以下の説明及び図面においては、同一又は同等の要素には同一の符号を付し、重複する説明を省略する。
[構成]
図1には、一実施形態に係る「振動信号生成装置」を備える音響装置100の概略的な構成がブロック図にて示されている。本実施形態では、音響装置100には、音出力部300と、振動部400とが接続されている。
上記の音出力部300は、スピーカSP1,SP2を備えて構成されている。音出力部300は、音響装置100から送られた再生音声信号AOSを受ける。そして、音出力部300は、再生音声信号AOSに従った楽曲音(再生音声)をスピーカSP1,SP2から出力する。
上記の振動部400は、振動器VI1,VI2を備えて構成されている。振動部400は、音響装置100(より詳細には、振動信号生成装置)から送られた振動信号VISを受ける。そして、振動部400は、当該振動信号VISに従って、振動器VI1,VI2に振動を付与する。
図2には、上述したスピーカSP1,SP2及び振動器VI1,VI2の本実施形態における配置関係が示されている。スピーカSP1,SP2は、例えば、ユーザが着座する着座シートの前方に配置される。振動器VI1は、図2に示されるように、座席シートの座部の内部に配置される。そして、振動器VI1が振動すると、座部が振動するようになっている。また、振動器VI2は、座席シートの背もたれ部の内部に配置されている。そして、振動器VI2が振動すると、背もたれ部材が振動するようになっている。
次に、上記の音響装置100の構成について、説明する。
音響装置100は、図1に示されるように、楽曲信号供給部110と、再生音声信号生成措置120と、振動信号生成装置130とを備えている。
上記の楽曲信号供給部110は、楽曲コンテンツデータに基づいて、楽曲信号を生成する。こうして生成された楽曲信号MUDは、再生音声信号生成装置120及び振動信号生成装置130へ送られる。
上記の再生音声信号生成装置120は、不図示の入力部、デジタル処理部、アナログ処理部等を備えて構成されている。
上記の入力部は、再生音声信号生成装置120に設けられたキー部、及び/又はキー部を備えるリモート入力装置等により構成されている。この入力部を利用者が操作することにより、再生音声信号生成装置120の動作内容の設定や動作指令が行われる。例えば、楽曲コンテンツの再生指定等を、利用者が入力部を利用して行う。
上記のデジタル処理部は、楽曲信号供給部110から送られた楽曲信号MUDを受ける。そして、デジタル処理部は、楽曲信号に所定の処理を施し、デジタル音声信号を生成する。こうして生成されたデジタル音声信号は、アナログ処理部へ送られる。
上記のアナログ処理部は、デジタルアナログ変換部及びパワー増幅部を備えて構成されている。アナログ処理部は、デジタル処理部から送られたデジタル音声信号を受ける。そして、アナログ処理部は、当該デジタル音声信号をアナログ信号に変換した後にパワー増幅して、再生音声信号AOSを生成する。こうして生成された再生音声信号AOSは、音出力部300へ送られる。
<振動信号生成装置130の構成>
次いで、上記の振動信号生成装置130の構成について、説明する。
振動信号生成装置130は、図3に示されるように、タップ入力部210と、受付期間設定部220と、検出部230とを備えている。また、振動信号生成部130は、導出部240と、算出部250と、フィルタ部260と、振動信号生成部270とを備えている。
上記のタップ入力部210は、タップ入力スイッチ等を備えて構成されている。タップ入力部210は、ユーザのタッピング動作を受け付ける。そして、ユーザのタッピング動作を受け付けると、タップ入力部210は、当該タッピング動作に関するタップタイミング情報TAPを生成して、受付期間設定部220及び導出部240へ送る。なお、タップ入力部210は、受付部の一部の機能を果たすようになっている。
上記の受付期間設定部220は、本実施形態では、タイマ機能を内蔵している。受付期間設定部220は、受付期間以外の期間に、タップ入力部210から送られたタップタイミング情報TAPを受けると、受付期間を開始する。そして、受付期間設定部220は、現時点が、受付期間であることを示す期間情報PDIを生成して、当該期間情報PDIを導出部240へ送る。受付期間設定部220は、その後、当該受付期間が終了すると、受付期間ではないことを示す期間情報PDIを生成して、当該期間情報PDIを導出部240へ送る。
また、受付期間設定部220は、受付期間の終了から所定時間が経過した後、タップ入力部210から送られたタップタイミング情報TAPを受けると、新たな受付期間を開始する。そして、受付期間設定部220は、受付期間であることを示す期間情報PDIを生成して、導出部240へ送る。
ここで、「受付期間」は、ユーザのリズム感覚に合致するリズム成分を特定する観点から、実験、シミュレーション、経験等に基づいて、予め定められる。また、「所定時間」は、楽曲進行に応じてユーザのリズム感覚に合致するリズムが変化する可能性があることに鑑み、実験、シミュレーション、経験等に基づいて、予め定められる。または、楽曲解析して得られる楽曲テンポBPMから、「受付期間」と「所定時間」を算出しても良い。楽曲テンポBPMは、Beats Per Minuteという1分間の音楽ビート数を示す単位である。例えば、「受付期間」は4×(60÷楽曲テンポBPM)秒とし、「所定時間」は12×(60÷楽曲テンポBPM)秒などで設定される。
なお、受付期間設定部220は、受付部の一部の機能を果たすようになっている。
上記の検出部230は、楽曲信号供給部110から送られる楽曲信号MUDを受ける。そして、検出部230は、楽曲信号MUDを解析して、楽曲の周波数特性の変化を示すスペクトログラム情報を取得する。引き続き、検出部230は、当該スペクトログラム情報に基づいて、所定の周波数範囲のいずれかの周波数に関するスペクトル強度が所定値以上となる時刻帯を、「リズム」成分の出現時刻帯として検出する。そして、検出部230は、検出された「リズム」成分の出現時刻帯、及び、当該出現時刻帯におけるスペクトル強度を含むリズム情報RTMを生成して、導出部240へ送る。
ここで、「リズム」とは、拍、音の揺らぎ等を含む楽曲音の根源的な要素で、音の時間的進行をいう。
なお、「所定の周波数範囲」及び「スペクトル強度の所定値」は、楽曲のリズムを効果的に検出する観点から、実験、シミュレーション、経験等に基づいて、予め定められる。例えば、「所定の周波数範囲」としては、ベースやドラム等の楽器音の音域を含み、ボーカル音を含まない音域とすることができる。また、「スペクトル強度の所定値」としては、楽曲のスペクトル強度の平均値や分散値などから算出しても良い。
上記の導出部240は、受付期間設定部220から送られる期間情報PDIを受ける。そして、導出部240は、期間情報PDIが受付期間であることを示す内容ときには、期間フラグを「ON」にし、期間情報PDIが受付期間ではないことを示す内容のときには期間フラグを「OFF」にする。
また、導出部240は、タップ入力部210から送られるタップタイミング情報TAPを受ける。さらに、導出部240は、検出部230から送られるリズム情報RTMを受ける。そして、導出部240は、期間フラグが「ON」のときに、タップタイミング情報TAP及びリズム情報RTMに基づいて、タップタイミング情報TAPの受付時刻を含む所定の時間範囲内に検出されたリズム成分を、楽曲の特定リズム成分に特定する。引き続き、導出部240は、特定リズム成分のリズム情報に基づいて、当該特定リズムの出現時刻帯においてスペクトル強度が所定値以上となる第1周波数帯域を導出する。
また、導出部240は、期間フラグが「ON」のときに、タップタイミング情報TAP及びリズム情報RTMに基づいて、タップタイミング情報TAPの受付時刻を含む所定の時間範囲外に検出されたリズム成分を、非特定リズム成分に特定する。そして、導出部240は、非特定リズム成分のリズム情報に基づいて、当該非特定リズムの出現時刻帯においてスペクトル強度が所定値以上となる第2周波数帯域を導出する。こうして導出された第1周波数帯域及び第2周波数帯域は、それぞれ、第1周波数帯域情報FR1及び第2周波数帯域情報FR2として、算出部250へ送られる。
ここで、「所定の時間範囲」は、ユーザのタップ入力時刻と特定リズム成分の出現時刻とには厳密には時間差があることに鑑み、タップ入力に対応するリズム成分が特定リズム成分であると評価できるとの観点から、実験、シミュレーション、経験等に基づいて、予め定められる。または、楽曲解析して得られる楽曲テンポBPMから、所定の時間範囲を算出しても良い。具体的には、楽曲テンポBPMが遅い場合は所定の時間範囲を長く、楽曲テンポBPMが速い場合は所定の時間範囲を短く設定される。
導出部240が実行する処理の詳細については、後述する。なお、導出部240は、生成部の一部の機能を果たすようになっている。
上記の算出部250は、導出部240から送られる第1周波数帯域情報FR1及び第2周波数帯域情報FR2を受ける。そして、算出部250は、当該第1及び第2周波数帯域情報を受けると、第1周波数帯域のうちで、第2周波数帯域が含まれていない周波数帯域を、第3周波数帯域として算出する。引き続き、算出部250は、算出された第3周波数帯域を指定した通過周波数指定BPCをフィルタ部260へ送る。
算出部250が実行する第3周波数帯域の算出処理の詳細については、後述する。なお、算出部250は、生成部の一部の機能を果たすようになっている。
上記のフィルタ部260は、可変フィルタとして構成されている。フィルタ部260は、楽曲信号供給部110から送られた楽曲信号MUDを受ける。また、フィルタ部260は、算出部250から送られた通過周波数指定BPCを受ける。そして、フィルタ部260は、通過周波数指定BPCで指定された周波数を信号通過帯域とするフィルタリング処理を楽曲信号MUDに対して施す。このフィルタリング処理の結果が、信号FTDとして振動信号生成部270へ送られる。
上記の振動信号生成部270は、フィルタ部260から送られた信号FTDを受ける。そして、振動信号生成部270は、当該信号FTDの含有周波数、振幅を反映した振動信号VISを生成する。
かかる振動信号VISの生成に際して、振動信号生成部270は、振動器VI1,VI2の応答特性に基づき、当該応答特性が大きく減衰する高い周波数の信号FTDの成分については、振動器VI1,VI2の応答特性が大きくは減衰しない周波数の振動信号に変換するようになっている。この変換処理は、例えば、信号FTDを高速フーリエ変換し、各周波数スペクトル強度を、振動器VI1,VI2の応答特性が大きくは減衰しない低い周波数に周波数変換する。そして、当該周波数変換された信号を逆高速フーリエ変換することにより、振動器VI1,VI2が振動可能な振動信号VISを生成する。こうして生成された振動信号VISは、振動部400へ送られる。
なお、フィルタ部260及び振動信号生成部270は、生成部の一部の機能を果たすようになっている。
[動作]
以上のようにして構成された音響装置100の動作について、振動信号生成装置130による振動信号の生成処理に、主に着目して説明する。
前提として、ユーザは、図2に示される座席シートに着座し、音響装置100では、楽曲信号供給部110が、楽曲信号MUDを再生音声信号生成装置120及び振動信号生成装置130へ供給しているものとする。そして、再生音声信号生成装置120では、デジタル処理部及びアナログ処理部が、楽曲信号MUDに対して再生音声処理を施して再生音声信号AOSを生成し、音出力部300へ送っているものとする。この結果、スピーカSP1,SP2から、楽曲音が出力されているものとする。
また、振動信号生成装置130では、検出部230が、楽曲信号MUDを解析してスペクトログラム情報を取得し、所定の周波数範囲において、スペクトル強度が所定値以上となる時刻帯を、「リズム」成分の出現時刻帯として検出しているものとする。そして、検出部230は、検出されたリズム成分に関するリズム情報RTMを生成すると、逐次、当該リズム情報を導出部240へ送っているものとする。また、振動信号生成装置130では、フィルタ部260が、楽曲信号供給部110から送られた楽曲信号MUDを受けているものとする。
なお、当初においては、期間フラグは「OFF」になっているものとする。また、当初においては、フィルタ部260は、全周波数範囲の楽曲信号MUDの成分を通過させない設定になっているものとする。このため、当初においては、振動器VI1が配置される座席シートの座部、及び、振動器VI2が配置される座席シートの背もたれ部は、振動していないものとする。
また、ユーザのタップ入力が、タップ入力部210に対して行われるときには、タップ入力の受付時刻を含む所定の時間範囲内に、リズム成分が検出されるものとする。
このような状況のもとで、図4に示されるように、まず、ステップS11において、振動信号生成装置130の受付期間設定部220が、ユーザによるタッピング動作が行われたか否か、すなわち、タップ入力部210から送られるタップタイミング情報TAPを受けたか否かを判定する。この判定の結果が否定的であった場合(ステップS11:N)には、ステップS11の処理が繰り返される。
ステップS11の処理の繰り返し中に、受付期間設定部220がタップタイミング情報TAPを受けて、ステップS11における判定の結果が肯定的となると(ステップS11:Y)、処理はステップS12へ進む。ステップS12では、受付期間設定部220が、受付期間を開始し、現在受付期間中である旨の期間情報PDIを生成して、導出部240へ送る。こうして当該期間情報PDIが送られると、導出部240は、期間フラグを「ON」にする。この後、処理はステップS13へ進む。
ステップS13では、「第1及び第2周波数帯域の導出処理」が行われる。かかるステップS13の処理の詳細については、後述する。そして、ステップS13の処理が終了すると、処理はステップS15へ進む。
ステップS15では、算出部250が、導出部240から送られた周波数帯域情報に基づいて、第1周波数帯域のうちで、第2周波数帯域が含まれていない周波数帯域を、第3周波数帯域として算出する。ここで、第2周波数帯域が存在しない場合には、算出部250は、第1周波数帯域を第3周波数帯域にする。引き続き、算出部250は、当該第3周波数帯域を指定した通過周波数指定BPCを、フィルタ部260へ送る。
こうして第3周波数帯域を指定した通過周波数指定BPCがフィルタ部260に設定されると、フィルタ部260は、当該通過周波数指定BPCで指定された周波数を信号通過帯域とするフィルタリング処理を楽曲信号MUDに対して施す。そして、フィルタ部260は、フィルタリング処理の結果を、信号FTDとして振動信号生成部270へ送る。
フィルタ部260を通過した信号FTDを受けると、振動信号生成部270は、当該信号FTDに基づいて、信号FTDの周波数、振幅を反映した振動信号VISを生成する。そして、振動信号生成部270は、生成された振動信号VISを振動部400へ送る。
振動信号VISを受けた振動部400の振動器VI1,VI2は、振動信号VISに従って振動する。この結果、振動器VI1が配置された座席シートの座部、及び、振動器VI2が配置された座席シートの背もたれ部が、振動する。
引き続き、ステップS16において、受付期間設定部220が、受付期間の終了から所定時間が経過したか否かを判定する。この判定の結果が否定的であった場合(ステップS16:N)には、ステップS16の処理が繰り返される。そして、受付期間の終了から所定時間が経過して、ステップS16における判定の結果が肯定的となると(ステップS16:Y)、処理はステップS11へ戻る。
以後、ステップS11〜S16の処理が繰り返されて、振動信号の生成処理が行われる。
<第1及び第2周波数帯域の導出処理>
次に、上述したステップS13における「第1及び第2周波数帯域の導出処理」について説明する。
この「第1及び第2周波数帯域の導出処理」は、図5に示されるように、まず、ステップS22において、導出部240が、タップタイミング情報TAPの受付時刻を含む所定の時間範囲内に検出されたリズム成分を特定リズム成分に特定する。引き続き、導出部240は、特定リズム成分のリズム情報に基づいて、当該特定リズム成分の出現時刻帯においてスペクトル強度が所定値以上となる第1周波数帯域を導出する。この後、処理はステップS23へ進む。
ステップS23では、導出部240が、検出部230から送られるリズム情報RTMを受けたか否かを判定する。この判定の結果が否定的であった場合(ステップS23:N)には、処理は後述するステップS28へ進む。
検出部230から送られるリズム情報RTMを受けて、ステップS23における判定の結果が肯定的になると(ステップS23:Y)、処理はステップS25へ進む。ステップS25では、導出部240が、タップ入力部210から送られるタップタイミング情報TAPを受けたか否かを判定する。この判定の結果が肯定的であった場合(ステップS25:Y)には、導出部240は、直近のステップS23の処理で取得したリズム情報RTMのリズム成分を特定リズム成分に特定する。引き続き、導出部240は、特定リズム成分のリズム情報に基づいて、当該特定リズム成分の出現時刻帯においてスペクトル強度が所定値以上となる第1周波数帯域を導出する。この後、処理はステップS28へ進む。
一方、ステップS25における判定の結果が否定的であった場合(ステップS25:N)には、処理はステップS27へ進む。ステップS27では、導出部240が、直近のステップS23の処理で取得したリズム情報RTMのリズム成分を、非特定リズム成分に特定する。引き続き、導出部240は、非特定リズム成分のリズム情報に基づいて、当該非特定リズム成分の出現時刻帯においてスペクトル強度が所定値以上となる第2周波数帯域を導出する。この後、処理はステップS28へ進む。
ステップS28では、導出部240が、受付期間が終了した旨の期間情報PDIを受けたか否かを判定することにより、受付期間が終了したか否かを判定する。この判定の結果が否定的であった場合(ステップS28:N)には。処理はステップS23へ戻る。
一方、受付期間が経過し、ステップS28における判定の結果が肯定的になると(ステップS28:Y)、導出部240は、期間フラグを「OFF」にし、ステップS13の処理が終了する。そして、処理は上述した図4のステップS15へ進む。
<第3周波数帯域の算出例>
ここで、リズム成分の出現時刻とタップタイミングとの関係の例、及び、当該関係に基づいて算出された第3周波数帯域について、図6〜図10を参照して説明する。
図6〜図10には、検出部230が、楽曲信号MUDを解析してスペクトログラム情報を取得し、スペクトル強度が所定値以上となるリズム成分の時間変化の例が示されている。ここで、図中に示される白抜きの四角枠、黒塗りの四角枠、グレーの四角枠のそれぞれが、スペクトル強度が所定値以上となったリズム成分を表している。
これらの図6〜図10に示される例では、タップ入力の受付期間を4ビートに相当する時間としている。また、図中の「T」は、タップ入力が行われたことを表し、黒塗りの四角い枠が、特定リズム成分を表している。また、図中のグレーの四角い枠が、受付期間中の非特定リズム成分を表している。
図6には、4ビートの受付期間中に、1回のタップ入力が行われたときの例が示されている。この例での第1周波数帯域は、タップ入力が行われた出現時刻t1における黒塗りの四角枠(特性リズム成分)が占める周波数帯域になる。また、この例での第2周波数帯域は、タップ入力が行われていない出現時刻t2,t3,t4におけるグレーの四角枠(非特定リズム成分)が占める周波数帯域になる。そして、第3周波数帯域は、図6に示される「第1周波数帯域のうちで、第2周波数帯域が含まれていない周波数帯域」となる。
また、図7,8には、4ビートの受付期間中に、2回のタップ入力があったときの例が示されている。ここで、図7,8では、楽曲のリズム成分の進行は同じになっている。そして、図7では、表拍となる時刻t1,t3でタップ入力が行われ、図8では、裏拍となる時刻t2,t4でタップ入力が行われている。
図7の例では、第1周波数帯域は、出現時刻t1,t3における黒塗りの四角枠(特定リズム成分)が占める周波数帯域になり、第2周波数帯域は、出現時刻t2,t4におけるグレーの四角枠(非特定リズム成分)が占める周波数帯域になる。そして、ユーザが表拍となる時刻でタップ入力したときの第3周波数帯域は、図7に示される「第1周波数帯域のうちで、第2周波数帯域が含まれていない周波数帯域」となる。
また、図8の例では、第1周波数帯域は、出現時刻t2,t4における黒塗りの四角枠(特定リズム成分)が占める周波数帯域になり、第2周波数帯域は、出現時刻t3,t5におけるグレーの四角枠(非特定リズム成分)が占める周波数帯域になる。そして、ユーザが裏拍となる時刻でタップ入力したときの第3周波数帯域は、図8に示される「第1周波数帯域のうちで、第2周波数帯域が含まれていない周波数帯域」となる。
る。
このように、同じ楽曲音であっても、ユーザのタップ入力のタイミングが異なれば、楽曲信号MUDを通過させる第3周波数帯域が異なってくる。このため、個々のユーザの楽曲音との一体性の感じ方に適合した振動を生成することができる。
なお、図7に示されるように、本実施形態では、時刻t1で特定リズム成分が出現し、時刻t2で非特定リズム成分が出現し、その後の時刻t3で特定リズム成分が出現したときであっても、時刻t1における特定リズム成分の周波数帯域と時刻t2における非特定リズム成分の周波数帯域とが重複する周波数範囲については、時刻t3における特定リズム成分の出現によっても、第3周波数範囲に含まれることがないようになっている。
また、図9には、4ビートに受付期間中に、4回のタップ入力があったときの例が示されている。図9の例では、第1周波数帯域は、出現時刻t1,t2,t3,t4における黒塗りの四角枠(特定リズム成分)が占める周波数帯域になり、第2周波数帯域は存在しない。そして、第3周波数帯域は、第1周波数帯域と同じになる。
また、図10には、1回の受付期間の終了後に所定時間が経過し、2回の受付期間が開始したときの例が示されている。図10の例では、1回目の受付期間におけるタップ入力と出現したリズム成分とに基づいて算出された第3周波数帯域FR31は、2回目の受付期間が終了するまで、フィルタ部260の信号通過帯域に設定される。そして、2回目の受付期間におけるタップ入力と出現したリズム成分とに基づいて算出された第3周波数帯域FR32は、その後のフィルタ部260の信号通過帯域に設定される。
以上説明したように、本実施形態では、検出部230が、楽曲信号MUDを解析してスペクトログラム情報を取得し、所定の周波数範囲においてスペクトル強度が所定値以上となる時刻帯を、「リズム」成分の出現時刻帯として検出する。そして、検出部230は、検出されたリズム成分に関するリズム情報RTMを生成し、逐次、当該リズム情報RTMを導出部240へ送る。また、受付期間設定部220は、タップ入力部210から送られるタップタイミング情報TAPを受けると、受付期間を開始し、現在受付期間中である旨の期間情報PDIを生成して、導出部240へ送る。
そして、導出部240は、タップタイミング情報TAP及びリズム情報RTMに基づいて、タップタイミング情報TAPの受付時刻を含む所定の時間範囲内に検出されたリズム成分を、楽曲の特定リズム成分に特定し、当該特定リズムの出現時刻帯においてスペクトル強度が所定値以上となる第1周波数帯域を導出する。また、導出部240は、タップタイミング情報TAPの受付時刻を含む所定の時間範囲外に検出されたリズム成分を、非特定リズム成分に特定し、当該非特定リズムの出現時刻帯においてスペクトル強度が所定値以上となる第2周波数帯域を導出する。引き続き、算出部250が、第1周波数帯域のうちで、第2周波数帯域が含まれていない周波数帯域を、第3周波数帯域として算出し、当該算出された第3周波数帯域を指定した通過周波数指定BPCをフィルタ部260へ送る。
そして、フィルタ部260は、当該通過周波数指定BPCで指定された周波数を信号通過帯域とするフィルタリング処理を楽曲信号MUDに対して施す。引き続き、振動信号生成部270は、フィルタ部260を通過した信号FTDに基づいて、信号FTDの含有周波数、振幅を反映した振動信号VISを生成する。そして、振動信号生成部270は、生成された振動信号VISを振動部400へ送る。
このため、ユーザが望むリズムを手軽に設定でき、振動で体感することにより、楽曲との一体感を高めることができる。また、ハンドクラップ(手拍子)などの打楽器以外のリズム成分に合わせて、一体感を得ることも可能となる。
また、本実施形態では、受付期間設定部220は、受付期間の終了から所定時間が経過し、タップ入力部210から送られたタップタイミング情報TAPを受けると、新たな受付期間を開始する。そして、導出部240及び算出部250が、協同して新たな第3周波数帯域を算出し、新たな第3周波数帯域を指定した通過周波数指定BPCをフィルタ部260へ送る。
このため、楽曲途中でテンポやパターンが変化したり、楽曲進行に応じてユーザのリズム感覚に合致するリズム成分が変化した場合であっても、ユーザの楽曲音の感じ方に適合した振動を生成することができる。
したがって、本実施形態によれば、楽曲音の進行に合わせて、個々人の楽曲音との一体性の感じ方に適合した振動を生成し、個々のユーザに振動と楽曲音との一体感を与えることができる。
[実施形態の変形]
本発明は、上記の実施形態に限定されるものではなく、様々な変形が可能である。
例えば、上記の実施形態では、振動信号生成部は、フィルタ部を通過した信号の周波数、振幅を反映した振動信号を生成するようにした。これに対して、タップタイミング情報に、タップ入力の際における入力強度を含めるようにし、振動信号生成部は、フィルタ部を通過した信号の周波数、振幅に加えて、タップ入力の際の入力強度に応じた振動信号を生成するようにしてもよい。
こうした構成を採用した場合に、例えば、図11に示されるように、2回のタップ入力が行われ、1回目のタップ入力「T1」に基づいて算出される「第3周波数範囲1」と、2回目のタップ入力「T2」に基づいて算出される「第3周波数範囲2」が異なる場合には、以下のようにして、振動信号を生成するようにしてもよい。
ここで、「第3周波数範囲1」を指定したフィルタ部を通過し、デジタルアナログ変換した信号をFTS1にするとともに、「第3周波数範囲2」を指定したフィルタ部を通過し、デジタルアナログ変換した信号をFTS2にする。また、タップ入力「T1」時の入力強度を「TS1」にするとともに、タップ入力「T2」時の入力強度を「TS2」にとする。そして、次の(1)式によい、振動信号VISを生成するようにしてもよい。
VIS=FTS1×TS1+FTS2×TS2 …(1)
また、上記の実施形態では、タップ入力によりユーザのリズムに関するタイミングを受け付けるようにしたが、例えば、ユーザの音声や手拍子をマイクで検出して、ユーザのリズムに関するタイミングを受け付けるようにしてもよい。
また、上記の実施形態の音響装置、スピーカ及び振動器は、建屋内に配置するようにしてもよいし、車室内に配置するようにしてもよい。
また、上記の実施形態では、スピーカを着座シートの前方に配置するとともに、振動器を着座シートに配置するようにした。これに対して、図12に示されるように、スピーカSP1,SP2をヘッドフォンスピーカとして構成し、振動器VI1,VI2をヘッドフォンの左右の耳当て部材の内部に配置するようにしてもよい。また、振動器を、イヤフォンの内部に配置するようにしてもよい。なお、こうしたスピーカ及び振動器の配置関係を採用する場合には、音響装置は、家庭や車室内等に固定配置されるものであってもよいし、又、ユーザが携帯するものであってもよい。
また、上記の実施形態では、音響装置が振動信号生成装置を備えることとしたが、複数のプレーヤとミキサ等を操作する、いわゆるディスクジョッキ(DJ)がタップ入力操作し、ディスコやクラブの観衆に振動を付与する構成にしてもよい。また、ダンスレッスンのおけるインストラクタがタップ入力操作し、ダンスレッスンの生徒に振動を付与する構成にしてもよい。
また、一のユーザのタップ入力により得られた楽曲音の抽出帯域(第3周波数帯域)に関する情報を外部のサーバ装置へ送信し、当該抽出帯域に関する情報を他のユーザが使用する構成にしてもよい。
なお、上記の振動信号生成装置の一部又は全部を中央処理装置(CPU:Central Processing Unit)等を備えた演算手段としてのコンピュータとして構成し、予め用意されたプログラムを当該コンピュータで実行することにより、上記の実施形態における振動信号生成装置の機能を実現するようにしてもよい。このプログラムはハードディスク、CD−ROM、DVD等のコンピュータで読み取り可能な記録媒体に記録され、当該コンピュータによって記録媒体から読み出されて実行される。また、このプログラムは、CD−ROM、DVD等の可搬型記録媒体に記録された形態で取得されるようにしてもよいし、インターネットなどのネットワークを介した配信の形態で取得されるようにしてもよい。

Claims (11)

  1. 楽曲のリズムを検出する検出部と;
    ユーザから、タイミングの情報の入力を受け付ける受付部と;
    前記検出部が検出したリズムと、前記受付部が受け付けたタイミングの情報とに基づいて、振動部を振動させるための振動信号を生成する生成部と;
    を備えることを特徴とする振動信号生成装置。
  2. 前記生成部は、
    前記受付部がタイミングの情報の入力を受け付けた時刻を含む所定の時間範囲内に前記検出部が検出したリズムの出現時刻を、前記楽曲の特定リズムの出現時刻として特定し、
    前記特定リズムの出現時刻においてスペクトル強度が所定値以上となる周波数帯域である第1周波数帯域の信号を用いて、前記振動信号を生成する、
    ことを特徴とする請求項1に記載の振動信号生成装置。
  3. 前記検出部は、前記楽曲の周波数特性の時間変化を示すスペクトログラム情報を取得し、前記取得したスペクトログラム情報に基づいて、所定の周波数範囲において、スペクトル強度が所定値以上となる時刻を前記リズムの出現時刻として検出し、
    前記生成部は、フィルタリング処理を含む処理を実行し、前記特定リズムの出現時刻における周波数特性に基づいて、前記フィルタリング処理において前記楽曲の信号成分を通過させる信号通過帯域を設定し、前記フィルタリング処理を施した後の信号に基づいて前記振動信号を生成する、
    ことを特徴とする請求項2に記載の振動信号生成装置。
  4. 前記生成部は、
    前記第1周波数帯域に加えて、所定の受付期間における前記特定リズムの出現時刻以外の前記リズムの出現時刻である非特定リズムの出現時刻において、スペクトル強度が前記所定値以上となる第2周波数帯域を導出する導出部と;
    前記第1周波数帯域のうちで、前記第2周波数帯域が含まれていない周波数帯域を第3周波数帯域として算出する算出部と;を備え、
    前記第3周波数帯域を前記信号通過帯域に設定する、
    ことを特徴とする請求項3に記載の振動信号生成装置。
  5. 前記生成部は、前記受付期間に、複数のタイミングの情報の入力を受けたときには、前記リズムの出現時刻それぞれについて、前記特定リズムの出現時刻及び前記非特定リズムの出現時刻のいずれであるかを特定し、前記第3周波数範囲を算出する、ことを特徴とする請求項4に記載の振動信号生成装置。
  6. 前記受付部は、前記受付期間以外の期間に、ユーザから前記タイミングの情報の入力を受けると、前記受付期間を開始する、ことを特徴とする請求項5に記載の振動信号生成装置。
  7. 前記受付部は、前記受付期間の終了から所定時間が経過した後に、ユーザから前記タイミングの情報の入力を受けると、新たな受付期間を開始する、ことを特徴とする請求項6に記載の振動信号生成装置。
  8. 前記タイミングの情報には、情報の入力の際における入力強度が含まれ、
    前記生成部は、前記入力強度に応じた振動信号を生成する、
    ことを特徴とする請求項1に記載の振動信号生成装置。
  9. 振動信号を生成する振動信号生成装置において使用される振動信号生成方法であって、
    楽曲のリズムを検出する検出工程と;
    ユーザから、タイミングの情報の入力を受け付ける受付工程と;
    前記検出工程において検出したリズムと、前記受付工程において受け付けたタイミングの情報とに基づいて、振動部を振動させるための振動信号を生成する生成工程と;
    を備えることを特徴とする振動信号生成方法。
  10. 振動信号生成装置が有するコンピュータに、請求項9に記載の振動信号生成方法を実行させる、ことを特徴とする振動信号生成プログラム。
  11. 振動信号生成装置が有するコンピュータにより読み取り可能に、請求項10に記載の振動信号生成プログラムが記録されている、ことを特徴とする記録媒体。
JP2016543774A 2014-08-22 2014-08-22 振動信号生成装置及び振動信号生成方法 Ceased JPWO2016027366A1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/071992 WO2016027366A1 (ja) 2014-08-22 2014-08-22 振動信号生成装置及び振動信号生成方法

Publications (1)

Publication Number Publication Date
JPWO2016027366A1 true JPWO2016027366A1 (ja) 2017-05-25

Family

ID=55350343

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016543774A Ceased JPWO2016027366A1 (ja) 2014-08-22 2014-08-22 振動信号生成装置及び振動信号生成方法

Country Status (3)

Country Link
US (1) US20170245070A1 (ja)
JP (1) JPWO2016027366A1 (ja)
WO (1) WO2016027366A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108325806B (zh) * 2017-12-29 2020-08-21 瑞声科技(新加坡)有限公司 振动信号的生成方法及装置
JP7254443B2 (ja) * 2018-01-16 2023-04-10 株式会社Jvcケンウッド 振動発生システム、信号生成装置、及び加振装置
JPWO2019230545A1 (ja) * 2018-05-30 2021-06-10 パイオニア株式会社 振動装置、振動装置の駆動方法、プログラム及び記録媒体
EP3863300A4 (en) * 2018-10-03 2022-06-29 Pioneer Corporation Vibration control device, vibration control method, vibration control program, and recording medium
US10921892B2 (en) * 2019-02-04 2021-02-16 Subpac, Inc. Personalized tactile output
CN112086080B (zh) * 2020-09-11 2024-09-06 北京奇艺世纪科技有限公司 音乐节奏反馈方法、装置、电子设备及系统
JP2022141025A (ja) * 2021-03-15 2022-09-29 ヤマハ株式会社 肩乗せ型スピーカー
CN113173180A (zh) * 2021-04-20 2021-07-27 宝能(广州)汽车研究院有限公司 应用于驾驶位的振动方法、装置、设备及存储介质
CN114299991A (zh) * 2021-11-25 2022-04-08 歌尔股份有限公司 基于音频信号的振动生成方法、装置、设备及存储介质
CN114327040A (zh) * 2021-11-25 2022-04-12 歌尔股份有限公司 振动信号生成方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006090528A1 (ja) * 2005-02-24 2006-08-31 National University Corporation Kyushu Institute Of Technology 楽音生成方法およびその装置
JP2008283305A (ja) * 2007-05-08 2008-11-20 Sony Corp ビート強調装置、音声出力装置、電子機器、およびビート出力方法
JP2009244506A (ja) * 2008-03-31 2009-10-22 Yamaha Corp ビート位置検出装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002223890A (ja) * 2001-02-07 2002-08-13 Denon Ltd 音楽鑑賞用椅子
TWI484473B (zh) * 2009-10-30 2015-05-11 Dolby Int Ab 用於從編碼位元串流擷取音訊訊號之節奏資訊、及估算音訊訊號之知覺顯著節奏的方法及系統

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006090528A1 (ja) * 2005-02-24 2006-08-31 National University Corporation Kyushu Institute Of Technology 楽音生成方法およびその装置
JP2008283305A (ja) * 2007-05-08 2008-11-20 Sony Corp ビート強調装置、音声出力装置、電子機器、およびビート出力方法
JP2009244506A (ja) * 2008-03-31 2009-10-22 Yamaha Corp ビート位置検出装置

Also Published As

Publication number Publication date
WO2016027366A1 (ja) 2016-02-25
US20170245070A1 (en) 2017-08-24

Similar Documents

Publication Publication Date Title
WO2016027366A1 (ja) 振動信号生成装置及び振動信号生成方法
JP4467601B2 (ja) ビート強調装置、音声出力装置、電子機器、およびビート出力方法
KR20120126446A (ko) 입력된 오디오 신호로부터 진동 피드백을 생성하기 위한 장치
JP6757853B2 (ja) 知覚可能な低音レスポンス
JP2009177574A (ja) ヘッドホン
WO2020008931A1 (ja) 情報処理装置、情報処理方法及びプログラム
KR102212409B1 (ko) 오디오 신호 및 오디오 신호를 기반으로 한 진동 신호를 생성하는 방법 및 장치
WO2021111965A1 (ja) 音場生成システム、音声処理装置および音声処理方法
JP2010259457A (ja) 放音制御装置
JP2021175146A (ja) 振動信号出力装置
JP7456110B2 (ja) 楽器用椅子、駆動信号生成方法、プログラム
JP2018064216A (ja) 力覚データ生成装置、電子機器、力覚データ生成方法、および制御プログラム
WO2021220471A1 (ja) 振動信号生成装置
US20160112800A1 (en) Acoustic System, Acoustic System Control Device, and Acoustic System Control Method
JP2021128252A (ja) 音源分離プログラム、音源分離装置、音源分離方法及び生成プログラム
JP2017102253A (ja) 音響効果付与装置及び音響効果付与プログラム
WO2023189193A1 (ja) 復号装置、復号方法および復号プログラム
WO2023189973A1 (ja) 変換装置、変換方法および変換プログラム
JP6661210B1 (ja) 音響コンテンツ生成装置、音響コンテンツ生成方法、音響コンテンツ再生装置、音響コンテンツ再生方法、音響コンテンツ再生用プログラム、音響コンテンツ提供装置および音響コンテンツ配信システム
JPH0633743Y2 (ja) 体感音響装置
JPWO2013186901A1 (ja) 振動信号生成装置及び方法、コンピュータプログラム、記録媒体並びに体感音響システム
WO2022264537A1 (ja) 触覚信号生成装置、触覚信号生成方法、プログラム
WO2012124043A1 (ja) 振動信号生成装置及び方法、コンピュータプログラム、並びに体感音響システム
KR20240005445A (ko) 감성 케어 장치 및 방법
US11617036B2 (en) Method and system for audio critical listening and evaluation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170213

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171004

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20180228