JP6574551B2 - 音響を用いた任意信号の伝達方法 - Google Patents

音響を用いた任意信号の伝達方法 Download PDF

Info

Publication number
JP6574551B2
JP6574551B2 JP2014074180A JP2014074180A JP6574551B2 JP 6574551 B2 JP6574551 B2 JP 6574551B2 JP 2014074180 A JP2014074180 A JP 2014074180A JP 2014074180 A JP2014074180 A JP 2014074180A JP 6574551 B2 JP6574551 B2 JP 6574551B2
Authority
JP
Japan
Prior art keywords
sound
sounds
signal
arbitrary signal
arbitrary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014074180A
Other languages
English (en)
Other versions
JP2015197497A (ja
Inventor
柏 浩太郎
浩太郎 柏
培雄 唐沢
培雄 唐沢
リン,タオ
Original Assignee
培雄 唐沢
培雄 唐沢
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 培雄 唐沢, 培雄 唐沢 filed Critical 培雄 唐沢
Priority to JP2014074180A priority Critical patent/JP6574551B2/ja
Priority to EP15772822.1A priority patent/EP3128512B1/en
Priority to US15/129,295 priority patent/US10134407B2/en
Priority to PCT/JP2015/055822 priority patent/WO2015151678A1/ja
Priority to CN201580015848.4A priority patent/CN106211799B/zh
Publication of JP2015197497A publication Critical patent/JP2015197497A/ja
Application granted granted Critical
Publication of JP6574551B2 publication Critical patent/JP6574551B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/018Audio watermarking, i.e. embedding inaudible data in the audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • G10H1/06Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour
    • G10H1/12Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour by filtering complex waveforms
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/056Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction or identification of individual instrumental parts, e.g. melody, chords, bass; Identification or separation of instrumental parts by their characteristic voices or timbres
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/071Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for rhythm pattern analysis or rhythm style recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/085Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B11/00Transmission systems employing sonic, ultrasonic or infrasonic waves
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/28Arrangements for simultaneous broadcast of plural pieces of information
    • H04H20/30Arrangements for simultaneous broadcast of plural pieces of information by a single channel
    • H04H20/31Arrangements for simultaneous broadcast of plural pieces of information by a single channel using in-band signals, e.g. subsonic or cue signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

本発明は、楽曲などの音響に、可聴周波数帯域の任意信号を加えても、元の音響の品質に影響を与え難い、音響を用いた任意信号の伝達方法に関するものである。
従来、楽曲等の音響の中に、人が識別できない又は人が識別し難い周波数領域の任意信号を埋め込み、音響と共に任意信号を伝達する、各種電子透かし技術が開発されている。
特開2011−530939号公報
しかしながら、上記従来の音響を用いた任意信号の伝達方法の場合、以下のような問題があった。
(1)人が識別できない周波数帯域の任意信号を用いた場合、人はその音を全く聞くことができないので、音響の品質に影響を与えることなく、任意信号を伝達できる。しかしながらこの方法の場合、人の可聴周波数帯域(人が識別できる周波数帯域)の音響データ以外の周波数帯域のデータも必要になり、その分、データ量が増加してしまう。また、可聴周波数帯域を前提に設計されている、汎用の音響機器を使用しての発信、受信が制限されるため、専用の機器を改めて製作しなければならない場合がある。
(2)人が識別し難い周波数帯域の任意信号を用いた場合、その任意信号の周波数は識別し難いとは言え人の可聴領域にあるため、元の音響の雰囲気に影響(ノイズ、音割れ、音階の違和感等)を与える恐れがあった。また、挿入する時間的、周波数的な位置が元の音響の音圧レベル、周波数成分によって制限される恐れもある。
本発明は上述の点に鑑みてなされたものでありその目的は、楽曲などの音響に、可聴周波数帯域の任意信号を加えても、元の音響の雰囲気(品質)に影響を与え難い、音響を用いた任意信号の伝達方法を提供することにある。
本発明は、共振体から発せられる複数の音によって構成される音響中に、任意信号を挿入して伝達させる、音響を用いた任意信号伝達方法であって、前記共振体に対して振動エネルギーを受け渡すときに発生し1つの音の認識に付随的に寄与する打音からなる付随部分と、前記付随部分で振動エネルギーを受け取った共振体が自身の共振モードとなって前記1つの音の認識に主体的に寄与する共振音からなる本質部分とを時間軸上又は周波数軸上で分離可能に有する分離可能音を、前記音響を構成する複数の音の中から見つけ出すか、或いは前記音響を構成する複数の音の中に挿入し、前記見つけ出すか或いは挿入する分離可能音の付随部分を削除して、前記任意信号の信号パターンに置き換え置き換えた音響によって前記任意信号を伝達することを特徴としている。
ここで前記1つの音の認識に付随的に寄与する付随部分とは、共振体(共鳴体)に対して振動のエネルギーを受け渡すときに発生する音と言える。例えば、ギターで言うと、弦をピックではじく瞬間の音がそれにあたる。それ自体はギターの本質的な音では無い。ハンドクラップやドラムの場合は、掌やバチ等が相手の掌やドラムに衝突する瞬間の音がそれにあたる。これらの音を以下「打音」という。
一方、前記打音等で振動エネルギーを受け取った物体(共振体、即ち楽器、掌等)は、自身の共振(共鳴)モードに従って音を奏でる。その物体固有の音は、この共振(共鳴)モードによるものであり、これが音の認識に主体的に寄与する本質部分である。
本願発明者は、実験を行うことにより、前記分離可能音においては、本質部分がその音を特徴づける本質的な部分であり、付随部分は音の雰囲気を与える部分としてしか認識されないことを、発見した。そしてこの音の中から付随部分を削除すると、人は本質部分によってその音本来の特徴は認識できるが、音の雰囲気が変わることも発見した。そこで、前記付随部分に、任意信号の信号パターンを挿入することで、任意信号の伝達を可能にすると同時に、音の雰囲気も元の音の雰囲気と同様になるようにした。即ち、本発明によれば、楽曲等の音響中に可聴周波数帯域の任意信号を加えても、その雰囲気も含めて、元の音響とほとんど同一の音響として人に認識させることができる。
また本発明は、上記音響を用いた任意信号伝達方法であって、前記任意信号の信号パターンが、前記付随部分の期間と同等の期間、又は前記付随部分の周波数成分と類似の周波数成分、又は前記付随部分の音圧レベルと類似の音圧レベル、であることを特徴としている。本発明によれば、任意信号の信号パターンと、本来の付随部分の信号パターンが略同じ信号パターンとなる。これにより、任意信号の信号パターンによって音に雰囲気を与える効果が、本来の付随部分によって音に雰囲気を与える効果と同等になり、元の音響とほとんど同一の音響として人に認識させることができる。
また本発明は、上記音響を用いた任意信号伝達方法であって、前記分離可能音が、ハンドクラップ音、ドラムスの音、パーカッションの音、シンバルの音、銅鑼の音、自動車のクラクションの音、電話の呼出音、ドアフォンの音、サイレンの音、または各種効果音の内の何れかであることを特徴としている。これによって、これらの音を、元の音響とほとんど同一の音響として人に認識させることができる。
また本発明は、複数の音によって構成される音響中に、任意信号を挿入して伝達させる、音響を用いた任意信号伝達方法であって、1つの音の認識に主体的に寄与する本質部分と、前記1つの音の認識に付随的に寄与する付随部分とを時間軸上又は周波数軸上で分離可能に有する分離可能音を、前記音響を構成する複数の音の中から見つけ出すか、或いは前記音響を構成する複数の音の中に挿入し、前記見つけ出すか或いは挿入する分離可能音の付随部分を、前記任意信号の信号パターンに変更し、変更した音響によって前記任意信号を伝達し、前記付随部分が複数ある場合は、何れかの付随部分を前記任意信号の正信号の信号パターンに変更し、他の何れかの付随部分を前記任意信号の正信号とは補の関係にある信号パターンに変更し、前記任意信号を受け取った側において、前記正と補の関係が合っていない場合は、正と補の信号パターンを比較してS/N比の高い方の信号パターンを採用することを特徴としている。これによって、複数の付随部分を何れも有効に利用でき、より高精度の任意信号の伝達を行うことが可能になる。
本発明によれば、楽曲などの音響中に可聴周波数帯域の任意信号を加えても、その雰囲気(品質)も含めて、元の音響とほとんど同一の音響として人に認識させることができる。
連続時間の異なる4kHzと8kHzの単音を聴き比べ、音程として感じるか否かを実験した結果を示す図である。 ハンドクラップ音の例を示す波形図である。 ハンドクラップ音を周波数帯に応じて分解した周波数分析図である。 図4(a)は、オリジナルのハンドクラップ音中の1つの打音の近似波形図、図4(b)は前記打音に変えて挿入する任意信号の近似波形を示す図である。 任意信号を挿入したハンドクラップ音の一例を示す波形図である。 任意信号の信号パターンb1−1を拡大して示す波形図である。 図5に示す任意信号b1を模式的に示した図である。 データ系列部c3のデータ内容の一例を模式的に示す図である。 他のデータ系列c3−2を示す図である。 他のデータ系列c3−3を示す図である。 ある楽曲の一部分の波形図と、その波形図中に挿入されたハンドクラップ音の波形図とを示す図である。 任意信号を挿入した音響から、任意信号を取り出す検出装置10のシステム構成を示すブロック図である。 検出部17のブロック図である。 1回目の信号系列を正データ値とし、2回目の信号系列をその補間値とした場合の1例を示す図である。 正データ値と補間データ値の正補関係が一致しない場合の判断方法を示す図である。 リズム同期システムの一例を示す概略ブロック図である。
本発明は、楽曲等の音響に対して違和感なく任意信号を挿入することができる方法を提供するものである。ここで、「違和感なく任意信号を挿入する」とは、任意信号を挿入した際に、元の音の特徴が変化しないばかりか、元の音の雰囲気と同等の音の雰囲気を得ることができることを言う。
まず上記方法を実現するためのマスキング効果について説明する。マスキング効果とは、複数の単音があり、ある条件が成り立つと片方が聞こえにくいという人間の脳処理による特性である。マスキング効果には、2種類あり、一方は同時マスキング、他方は経時マスキングである。
同時マスキングとは、2つの同時に鳴っている音の間でのマスキングであり、周波数マスキングとも言う。例えば、440Hzと450Hzの正弦波の音は、別々に聞けば区別できるが、ほぼ同じ周波数帯であるため、同時に鳴っていると、明確に区別できない。但し、2音の周波数差が数Hz以下になるとその周波数差のうなりが発生するためマスキングとは分けて考慮する必要がある。
経時マスキングとは、突然大きな音がしたときに、その前後の音が聞こえなくなるような現象をいう。先行する音がマスクされる場合を逆行マスキング、後続の音がマスクされる場合を順行マスキングと呼ぶ。マスクする音(マスカ)とマスクされる音(マスキ)の時間間隔が大きくなると、その効果は指数関数的に弱まる。逆行マスキングの場合は約20ミリ秒まで、順行マスキングの場合は約100ミリ秒までが限度である。
次に、音程の認識について説明する。人間の音程に関する感度は敏感であるが、高音域においては音程の鮮明さが減少する。例えば、リズム楽器(ドラムスやパーカッション等)は、明らかに周波数(音程)を持った音であるが、高音域のため、音楽理論による和音などの音程要素が少なくなる。即ち、人間の耳は、約20Hz〜約20kHz程度の音を聴き取ることができるが、音程として聞き分けることができる上限はせいぜい4kHz位までである。4kHz位以上になると、音程感のない音となって聞こえる。但し、4kHz以上の高音域であっても、長時間の連続演奏がなされた場合は、当然、不鮮明ながらも音程として聴こえ、即ち音程として感じなくなる演奏時間には限界がある。
図1は、連続時間(50ms、25ms、12ms、6ms、3ms、2ms、1ms)の異なる4kHzと8kHzの単音(正弦波)を聴き比べ、音程として感じるか否かの限界長を実験した結果を示す図である。同図に示すように、4kHzは2msあたりから、8kHzは3msあたりから音程感が無くなり、サイドバンドの“フッ”というような音に変化した。即ちこの実験から、高音域においては、数ms以下の連続音は音程が認識し難いという結論を得た。
次に、打楽器として人体を用いたハンドクラップ音(疑似拍手音)を一例として説明する。ハンドクラップ音は、本来、人間の両掌を素早く打ち合わせたときの音である。しかし現代音楽においては電子的に波形合成を行い、楽器として使用し易いチューンを行っている。図2(a)、(b)はハンドクラップ音の例を示す波形図である。同図に示すように、ハンドクラップ音には、11ms周期程度のインパルス応答のような波形が2,3個続いた後に、長い波形が現れる。そして図2(a),(b)に示す波形のハンドクラップ音を分解し、前半の波形a1のみの部分を実際に聴くと、高音域の“カッ”とか“プッ”という音に聴こえた。これは打楽器(ハンドクラップも人体を用いた打楽器による音である)特有の音である。また、特徴的な11msや12msの周期は人間の手の物理的な形状、大きさ、皮膚の粘度等に起因するものである。連続時間は数ms程度であり、上述のように、音程として聴き取り難い音であった。以下この明細書では、波形a1の部分を「打音」と呼ぶことにする。
一方、図2(a),(b)に示す波形の後半の波形a2のみの部分を聴くと、ハンドクラップ音の音程を構成する主音であることが分かった。即ち、後半部分は、掌という物質の固有振動数が掌周辺の共鳴条件下で減衰していくハンドクラップ音を特徴づける支配的な音と言えることが分かった。以下この明細書では、波形a2の部分を「本質音」と呼ぶことにする。
さらに、図2(a)に示す波形a1中に3つある打音を、時間的に早いものから順に1つずつ消去した場合の音を聴き比べた。この実験によれば、打音の数が多いほどハンドクラップ音に厚みが出てくる(即ち、これら打音によってハンドクラップ音の雰囲気(品質)が向上する)が、基本的には打音の数が1個でも2個でも3個でも、ハンドクラップ音としての音程には大きな変化がなかった。これは前記した経時マスキング(特に逆向マスキング)の効果によるものと考えられ、特に本質音から約20msにある二つの打音はマスキング対象であるから、完全な被支配的な目立たない音になっている(但し、前述のように、これら打音の雰囲気への寄与は大きい)。また、前記図2(a)のハンドクラップ音の本質音の部分のみを半分のレベル(つまり図2(a)の波形a2の部分の振幅のみを半分の振幅(−6dB))に減衰して、減衰しないハンドクラップ音と聴き比べた場合、ハンドクラップ音の雰囲気は変わらず、全体の音の大きさが下がっていることを確認した。
以上のことから、ハンドクラップ音は、後半部の本質音が連続音的にもマスキング的にも支配的であり、前半部の打音の部分は雰囲気のみを向上する音(以下「雰囲気音」という)としか認識されない、ことが分かった。
そこで本願発明者は、ハンドクラップ音の後半部分(本質音部分)を既存のハンドクラップ音として使用し、前半部分(打音部分)を任意信号の信号パターンに変更することとした。このとき挿入する信号パターンとしては、元々の打音の期間と同等の期間、元々の打音の周波数成分と類似の周波数成分、元々の打音の音圧レベルと類似の音圧レベルを用いるのが好ましい。これによって元々の打音の雰囲気音と同様の雰囲気音の効果を任意信号が有することになる。従って、元々のハンドクラップ音とほとんど同じ音響にすることができる。
次にハンドクラップ音の分析結果を説明する。図3は、前記図2(b)に示すハンドクラップ音を周波数帯に応じて分解した周波数分析図である。各抽出周波数帯は、音程周波数帯(Octave Number)を切りの良い整数値で近似している。ちなみにOctave#3が、主旋律帯域(ピアノ88鍵盤の中心あたり)である。同図に示すようにハンドクラップ音の場合、中高域の全周波数帯に渡って成分が分散しているが、打音のインパルス応答的な形状に注目して分析すると、点線で囲った箇所(3箇所)の成分が特に寄与していることが分かった。即ち、ハンドクラップ音の中心は、4〜8kHz辺りにある。
このようにハンドクラップ音の中心が4〜8kHz辺りにあることと、上述のように4kHz以上の周波数帯で、数ms程度の連続音は音程が認識し難いという結論から、ハンドクラップ音の代用(単純化)として挿入する任意信号の周波数としては、Octave#7(4〜8kHz)の単音(正弦波)が好適であると考えられる。
そこで、本実施形態に用いる任意信号の周波数としては、Octave#7の代表として4kHzと8kHzを選択し、さらに16kHzを選択した。4kHzと8kHzを選択した理由は、周波数抽出の際のバンドパスフィルタの性能を考慮したからである。即ち、一般的にバンドパスフィルタは、次数が上がると複雑、高価になる。そこで目安としてアナログ受動回路にて実現が容易な2次フィルタを想定して検出回路を考えると、その減衰率が−12dB/Octであるから、素子のバラつきを考慮しても隣接単音の影響が1/4〜1/2程度(透過帯域が単音からオクターブ)になり、波形歪が比較的小さいからである。また、倍音であるため、位相管理を行えば、波形歪も単純化できる(分かりやすい)ため、実設計を容易にすることができるからである。さらに16kHzを選んだのは、非可聴域に近くなるが、8kHzの倍音であり、またS/N比(Signal to Noise ratio)向上や楽曲にほとんど影響を与えない信号であること等からである。
図4(a)は、オリジナルのハンドクラップ音の1つの打音(図2(a)又は(b)の1つの波形a1中の1つの打音)の近似波形(包絡線)、図4(b)は前記打音に変えて挿入する任意信号の近似波形(包絡線)を示している。ただし、何れの波形もプラス側部分のみ(即ち半波として)を示している。図4(a)に示す打音の近似波形は、打音の周期(十数ms)の約半分の時間で減衰する。一方、任意信号の波形としては、図4(b)に示すように、同一振幅、同一波形の断続的な波形を用いている。そして、図4(a)に示す打音の波形と図4(b)に示す任意信号の波形のエネルギー積算が略同一になるようにした(即ち面積が略同一になるようにした)。任意信号の波形をこのような波形にしたのは、元々の打音と同様の減衰波形を用いての信号伝達は、これを受信した側の信号検出に困難が予想されるからである。このため、任意信号の波形を、同一の振幅の単純な波形を複数回に分けた波形とすることで、これを受信する側の信号検出が容易になるようにした。打音は、上述のように、音程として認識されないので、このように変更しても、ハンドクラップ音の音程にはほとんど影響を与えない。一方、上述のように、元々の打音の波形と任意信号の波形のエネルギー積算を略同一になるように構成したので、雰囲気音としては同等の影響が得られる。従って上記任意信号は疑似打音ということもできる。
図5は元々の打音(前半の2箇所)に代えて、それぞれ任意信号(疑似打音)を挿入したハンドクラップ音の一例を示す波形図である。同図に示すようにこの波形の前半の2箇所には、それぞれ任意信号の信号パターンb1−1,b1−2が挿入されている。後半の本質音b2については、ハンドクラップ音の元々の本質音と同じものを用いている。また図6は、1つの任意信号の信号パターンb1−1(又はb1−2)を拡大して示す波形図である。同図に示すように、信号パターンb1−1(b1−2)は、前後に設けた検出マーカ(プリアンブル部とポストアンブル部)c1,c2の間に、データ系列部(信号系列)c3を配置する構成となっている。この任意信号b1−1(b1−2)の波形は、4kHz,8kHz,16kHzの同一振幅の正弦波を全て加算した波形によって形成されている。基本的には、1段目の信号パターンb1−1でデータ伝送は完結するので、2段目の信号パターンb1−2は、1段目の信号パターンb1−1のフォロー(ユニーク性の補間や誤り補正など)に使用することが得策である。フォローには様々な方法が考えられるが、この例では同じデータ系列c3を繰り返している。下記するが、検出精度を補うために、2段目の信号パターンb1−2に補データ(4に対して0、3に対して1など)を入れた場合、S/N比には有利に働く。
図7は、前記図5に示す1つの任意信号(疑似打音)b1−1(b1−2)を模式的に示した図である。同図に示すように、任意信号b1−1(b1−2)のデータの始まりを表すプリアンブル部c1は2ms以上のネゲート区間の後に、それぞれ1.5msのアサート、ネゲートで構成されている。またデータの終わりを表すポストアンブル部c2は、1.5msのネゲート、アサートで構成されている。この任意信号b1−1(b1−2)は、受信側に受信された後、各周波数帯(4kHz,8kHz,16kHz)のバンドパスフィルタを通した後に、エンベロープ検波(全波整流)を行い、さらに2kHz(−12dB/Oct)程度のローパスフィルタを通す。
図8は、前記図5,図7に示すデータ系列部c3のデータ内容の一例を模式的に示す図である。このデータ系列部c3は、データカウント方式のデータ系列であり、そのデータ内容は系列内でのアサートカウント数による。この方式は、図8に示すように、5通りの内容伝達に限定されるが、ビット位置の検出が無く、S/N比的に非常に有効である。なお、図5に示す2つの任意信号b1−1,b1−2は、何れも図8のData4となっている。
図9,図10は、他のデータ系列部c3−2,c3−3を示している。図9に示すデータ系列は、通常のデジタルビット(4bit)方式である。この方式は16通りの内容伝達が可能であるが、ビット位置の検出が必要である。図10に示すデータ系列は、ビット間にネゲートを挟まないデジタルビット(7bit)方式である。この方式は128通りの内容伝達が可能であるが、十分な精度のビット位置検出が必要である。
図11の上段に表示してある波形図は、ある楽曲の一部分の波形図であり、本発明に係るハンドクラップ音を複数挿入している。即ち、図11の中段に示す波形であるダブルのハンドクラップ音(チャッチャッ)と、図11の下段に示す波形である4回のシングルのハンドクラップ音(チャッ)を入れている。元の楽曲にハンドクラップ音が入っていなかった場合は、ハンドクラップ音が新たに挿入されることになる。また元の楽曲にハンドクラップ音が入っていた場合は、それに代えて上記図5に示すようなハンドクラップ音を入れ替えることで、元通りの楽曲が維持される。そして、各ハンドクラップ音の打音の部分は任意信号になっているので、これを受信側で取り出すことで、その任意信号を利用することができる。例えば、前記楽曲を受信していた携帯端末のLEDを、ハンドクラップ音に合わせて光らせること等ができる。
ところで、1つの音の認識に主体的に寄与する本質音(本質部分)と、前記1つの音の認識に付随的に寄与する打音(付随部分)とを分離可能に有する分離可能音は、上記ハンドクラップ音だけでなく、その他の各種リズム楽器の音もこれに該当する。即ち各種リズム楽器音は、1つの音の中に本質音と打音を有する。さらにこれらリズム楽器音の中には、上記ハンドクラップ音と同様に、打音と本質音が時間軸上で分離可能なものがある他、周波数軸上で分離可能なものもある。時間軸上で分離可能な音とは、上記ハンドクラップ音のように、本質音と打音が異なる時間に存在する音をいう。周波数軸上で分離可能な音とは、本質音と打音の周波数が異なるため、周波数によって分離できる音をいう。特に、打音と本質音とが時間的に重複している場合は周波数によって分離することが有効になるが、必ずしも両音が重複していなくても利用できる。このような周波数によって分離する分離可能音の場合は、本質音とは異なる周波数にある打音を任意信号に代えれば良い。
さらに本発明は、本質部分と付随部分とを時間軸上又は周波数軸上で分離可能に有する分離可能音であれば、各種リズム楽器音のみでなく、その他の各種音響にも適用できる。
また上記ハンドクラップ音を用いた実施形態では、任意信号の信号パターンとして、付随部分の期間と同等の期間、及び付随部分の周波数成分と類似の周波数成分、及び付随部分の音圧レベルと類似の音圧レベル、の信号パターンを用いた。即ち上記3つの条件を全て満たす信号パターンとした。これによって任意信号挿入後の音響を、音程ばかりでなく雰囲気音も含めて、元の音響と略同じにすることができた。但し、任意信号の信号パターンとしては、上記3つの条件の内の1つの条件を満足するだけでも、元の音響の雰囲気に近づける効果を生じる。
〔挿入音の検出〕
図12は任意信号を挿入した音響から、任意信号を取り出す検出装置10のシステム構成を示すブロック図である。同図に示すようにこの検出装置10は、マイク11と、ADC/AGC13と、入力段エンベロープ検波部15と、検出部17と、制御部19とを具備して構成されている。
ADCはAnalogue/Digital Converter、AGCはAutomatic Gain Controllerのことである。スピーカ21からマイク11に入力されたアナログ音響信号は、ADCにてサンプリングされてデジタルデータに変換される。一方、AGCは、入力段エンベロープ検波部15から入力される時間積分された直流信号と基準電圧が等しくなるようにゲインを調節する。
図13は検出部17のブロック図である。同図に示すように、ADC/AGC13から入力されたデジタル音響信号は、3つのバンドパスフィルタ171,173,175によって、それぞれ4kHz抽出信号,8kHz抽出信号,16kHz抽出信号が抽出される。次に各抽出信号は、それぞれ絶対値回路177,179,181とローパスフィルタ183,185,187からなるエンベロープ検波部189,191,193によって、それぞれ各抽出信号の振幅の包絡線からなる4kHz振幅信号,8kHz振幅信号,16kHz振幅信号とされる。そしてこれら各振幅信号を合算し、合算振幅信号を2値化し、2値化信号を判別回路195に入力する。そして判別回路195では、2値化されたデータから検出マーカやデータ系列の確かさが確認され、最終的な検出データが出力される。
上記図5に示す1回目と2回目の疑似打音の信号パターンb1−1,b1−2では、これらを同じ信号パターンとしている。即ち、図6に示すように、1回目と2回目のデータ系列c3は、何れもこのデータ系列c3をデータカウント方式とした場合、「4」となっている。一方、図5のように同じ内容を連続して入れるよりも、補完的な内容を入れた方がS/N的に有利になる。図14は、1回目の疑似打音のデータ系列を正データ値とし、2回目の疑似打音のデータ系列をその補間値(両者を足して4になる値)とした場合の1例を示している。なぜS/N的に有利になるかというと、データ系列の数の少ない数字の時のネゲート区間を広げて配置すれば、それだけ検出位置が明確になり、確度が上がるためである。従って、図15に示すように、正データ値と補間データ値の正補関係が一致しない場合は、数の少ない方のデータを優先すればデータの精度をより高めることができる。
図12に戻って、検出部17から出力された検出データは制御部19に入力され、各種制御指示が行われる。制御部19はアプリケーション層であって、各種の制御が考えられるが、ここではリズム同期制御について説明する。
受信側が楽曲から任意信号を受け取り、楽曲に関連する事柄を受信側が行うとするならば、楽曲のリズム抽出が不可欠になる。例えば、楽曲のリズムに応じて、受信側の例えば携帯端末のLEDを点滅させようとしても、もしそれが楽曲のリズムから離れていたら興ざめだからである。
図16はリズム同期システムの一例を示す概略ブロック図である。同図に示すように、この例では、楽曲中から検出した任意信号の内、ある値のデータを受信したら、リズム同期を行うこととする。リズムカウンタはフルカウントでリミットがかかるカウンタであり、ある値のデータをリズム同期指示信号(リセット信号)としてリズムカウンタ50が受信すると、カウンタをリセットする。そして、リズムカウンタがフルカウント以外の時にリズム同期指示信号が来たらその値をプリセット値として保持することによりフライホイールが機能する。従ってリズム同期に必要なタイミングで2回連続して信号を送る必要がある。さらに、伝送データの個数に余裕がある場合は、シンコペーション等のような複雑な動作が可能になる。つまり、8分音符のシンコペーションであるならば、シンコペーションのタイミングでリズム同期指示が来ても、カウンタの値を8分音符分過去に戻して小節の先頭位置を確定できる。
以上本発明の実施形態を説明したが、本発明は上記実施形態に限定されるものではなく、特許請求の範囲、及び明細書と図面に記載された技術的思想の範囲内において種々の変形が可能である。なお直接明細書及び図面に記載がない何れの構成であっても、本願発明の作用・効果を奏する以上、本願発明の技術的思想の範囲内である。例えば、上記実施形態では、任意信号を挿入する音響として楽曲を示したが、本発明は楽曲のみでなく、その他の各種音響(例えば自動車のクラクション、電話の呼出音、ドアフォン、サイレン、各種効果音等)にも同様に挿入することができる。
a1 波形(打音)
a2 波形(本質音)
b1−1 信号パターン
b1−2 信号パターン
b2 本質音(本質部分)
c1 プリアンブル(検出マーカ)
c2 ポストアンブル(検出マーカ)
c3 データ系列部(信号系列)
c3−2,c3−3 データ系列
10 検出装置
11 マイク
13 ADC/AGC
15 入力段エンベロープ検波部
17 検出部
171,173,175 バンドパスフィルタ
177,179,181 絶対値回路
183,185,187 ローパスフィルタ
189,191,193 エンベロープ検波部
195 判別回路
19 制御部

Claims (4)

  1. 共振体から発せられる複数の音によって構成される音響中に、任意信号を挿入して伝達させる、音響を用いた任意信号伝達方法であって、
    前記共振体に対して振動エネルギーを受け渡すときに発生し1つの音の認識に付随的に寄与する打音からなる付随部分と、前記付随部分で振動エネルギーを受け取った共振体が自身の共振モードとなって前記1つの音の認識に主体的に寄与する共振音からなる本質部分とを時間軸上又は周波数軸上で分離可能に有する分離可能音を、前記音響を構成する複数の音の中から見つけ出すか、或いは前記音響を構成する複数の音の中に挿入し、
    前記見つけ出すか或いは挿入する分離可能音の付随部分を削除して、前記任意信号の信号パターンに置き換え置き換えた音響によって前記任意信号を伝達することを特徴とする音響を用いた任意信号伝達方法。
  2. 請求項1に記載の音響を用いた任意信号伝達方法であって、
    前記任意信号の信号パターンは、前記付随部分の期間と同等の期間、又は前記付随部分の周波数成分と類似の周波数成分、又は前記付随部分の音圧レベルと類似の音圧レベル、であることを特徴とする音響を用いた任意信号伝達方法。
  3. 請求項1に記載の音響を用いた任意信号伝達方法であって、
    前記分離可能音は、ハンドクラップ音、ドラムスの音、パーカッションの音、シンバルの音、銅鑼の音、自動車のクラクションの音、電話の呼出音、ドアフォンの音、サイレンの音、または各種効果音の内の何れかであることを特徴とする音響を用いた任意信号伝達方法。
  4. 複数の音によって構成される音響中に、任意信号を挿入して伝達させる、音響を用いた任意信号伝達方法であって、
    1つの音の認識に主体的に寄与する本質部分と、前記1つの音の認識に付随的に寄与する付随部分とを時間軸上又は周波数軸上で分離可能に有する分離可能音を、前記音響を構成する複数の音の中から見つけ出すか、或いは前記音響を構成する複数の音の中に挿入し、
    前記見つけ出すか或いは挿入する分離可能音の付随部分を、前記任意信号の信号パターンに変更し、変更した音響によって前記任意信号を伝達し、
    前記付随部分が複数ある場合は、何れかの付随部分を前記任意信号の正信号の信号パターンに変更し、他の何れかの付随部分を前記任意信号の正信号とは補の関係にある信号パターンに変更し、
    前記任意信号を受け取った側において、前記正と補の関係が合っていない場合は、正と補の信号パターンを比較してS/N比の高い方の信号パターンを採用することを特徴とする音響を用いた任意信号伝達方法。
JP2014074180A 2014-03-31 2014-03-31 音響を用いた任意信号の伝達方法 Active JP6574551B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014074180A JP6574551B2 (ja) 2014-03-31 2014-03-31 音響を用いた任意信号の伝達方法
EP15772822.1A EP3128512B1 (en) 2014-03-31 2015-02-27 Method for acoustically transmitting an arbitrary signal
US15/129,295 US10134407B2 (en) 2014-03-31 2015-02-27 Transmission method of signal using acoustic sound
PCT/JP2015/055822 WO2015151678A1 (ja) 2014-03-31 2015-02-27 音響を用いた任意信号の伝達方法
CN201580015848.4A CN106211799B (zh) 2014-03-31 2015-02-27 使用声响的任意信号的传递方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014074180A JP6574551B2 (ja) 2014-03-31 2014-03-31 音響を用いた任意信号の伝達方法

Publications (2)

Publication Number Publication Date
JP2015197497A JP2015197497A (ja) 2015-11-09
JP6574551B2 true JP6574551B2 (ja) 2019-09-11

Family

ID=54240011

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014074180A Active JP6574551B2 (ja) 2014-03-31 2014-03-31 音響を用いた任意信号の伝達方法

Country Status (5)

Country Link
US (1) US10134407B2 (ja)
EP (1) EP3128512B1 (ja)
JP (1) JP6574551B2 (ja)
CN (1) CN106211799B (ja)
WO (1) WO2015151678A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6875970B2 (ja) * 2017-09-27 2021-05-26 株式会社東海理化電機製作所 駆動制御装置
JP7343268B2 (ja) * 2018-04-24 2023-09-12 培雄 唐沢 任意信号挿入方法及び任意信号挿入システム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI89439C (fi) * 1991-10-30 1993-09-27 Salon Televisiotehdas Oy Foerfarande foer att dekoda en audiosignal i vilken annan information aer infoerd med anvaendning av maskningseffekt
JP3935258B2 (ja) * 1998-01-30 2007-06-20 ローランド株式会社 楽音波形データの識別情報埋込み方法、作成方法
CN1129114C (zh) * 1999-03-19 2003-11-26 索尼公司 附加信息嵌入方法和设备,以及附加信息解调方法和设备
US6947893B1 (en) * 1999-11-19 2005-09-20 Nippon Telegraph & Telephone Corporation Acoustic signal transmission with insertion signal for machine control
JP3692901B2 (ja) * 2000-03-31 2005-09-07 日本ビクター株式会社 透かし情報埋め込み装置、透かし情報埋め込み方法、透かし情報読み出し装置及び透かし情報読み出し方法
JP2002062888A (ja) * 2000-08-21 2002-02-28 Matsushita Electric Ind Co Ltd 電子音楽加工装置、電子音楽再生装置及び電子音楽配信システム
US6989484B2 (en) * 2001-04-17 2006-01-24 Intel Corporation Controlling sharing of files by portable devices
JP2003044067A (ja) * 2001-08-03 2003-02-14 Univ Tohoku 位相の周期偏移によるディジタルデータの埋めこみ・検出装置
JP3940894B2 (ja) * 2002-02-12 2007-07-04 ヤマハ株式会社 透かしデータ埋込み装置、透かしデータ取出し装置、透かしデータ埋込みプログラムおよび透かしデータ取出しプログラム
JP3554825B2 (ja) * 2002-03-11 2004-08-18 東北大学長 電子透かしシステム
JP3835370B2 (ja) * 2002-07-31 2006-10-18 ヤマハ株式会社 透かしデータ埋め込み装置およびコンピュータプログラム
AU2003272037A1 (en) * 2002-09-24 2004-04-19 Rad Data Communications A system and method for low bit-rate compression of combined speech and music
JP4024285B1 (ja) 2007-01-11 2007-12-19 有 小山 警報表示システム
US9002487B2 (en) 2008-08-14 2015-04-07 Sk Telecom Co., Ltd. System and method for data reception and transmission in audible frequency band
CN101996633B (zh) * 2009-08-18 2013-12-11 富士通株式会社 用于在音频信号中嵌入水印的方法和装置
CN102203853B (zh) * 2010-01-04 2013-02-27 株式会社东芝 合成语音的方法和装置
JP2011145541A (ja) * 2010-01-15 2011-07-28 Yamaha Corp 再生装置、楽音信号出力装置、再生システム及びプログラム
EP2362383A1 (en) 2010-02-26 2011-08-31 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. Watermark decoder and method for providing binary message data
EP2672393A1 (en) * 2012-06-04 2013-12-11 Dialog Semiconductor B.V. Circuit and methods to use an audio interface to program a device within an audio stream
US8958897B2 (en) * 2012-07-03 2015-02-17 Revo Labs, Inc. Synchronizing audio signal sampling in a wireless, digital audio conferencing system
US9318116B2 (en) * 2012-12-14 2016-04-19 Disney Enterprises, Inc. Acoustic data transmission based on groups of audio receivers

Also Published As

Publication number Publication date
EP3128512B1 (en) 2020-08-26
CN106211799B (zh) 2019-11-29
EP3128512A4 (en) 2018-02-14
EP3128512A1 (en) 2017-02-08
CN106211799A (zh) 2016-12-07
US20170125025A1 (en) 2017-05-04
US10134407B2 (en) 2018-11-20
WO2015151678A1 (ja) 2015-10-08
JP2015197497A (ja) 2015-11-09

Similar Documents

Publication Publication Date Title
JP5644359B2 (ja) 音声処理装置
Hu et al. Monaural speech segregation based on pitch tracking and amplitude modulation
US20090074199A1 (en) System for providing a reduction of audiable noise perception for a human user
Houtsma et al. Auditory demonstrations
KR20120037954A (ko) 음성의 표적화 및 잡음의 무시에 의한 음성 신호의 프로세싱에 있어서 잡음 감소를 위한 시스템 및 방법
CN109565625A (zh) 耳机佩戴状态监测装置及方法
US9020818B2 (en) Format based speech reconstruction from noisy signals
JP2002366173A (ja) 感性データ算出方法および感性データ算出装置
JP6574551B2 (ja) 音響を用いた任意信号の伝達方法
JP2010091897A (ja) 音声信号強調装置
JP6728843B2 (ja) 電子楽器、楽音発生装置、楽音発生方法及びプログラム
Di Bona Why space matters to an understanding of sound
JP5747490B2 (ja) マスカ音生成装置、マスカ音出力装置、およびマスカ音生成プログラム
Hicks et al. Noise schemas aid hearing in noise
CN102341853A (zh) 用于分离信号路径的方法及用于改善电子喉语音的应用
Kaur et al. Sustainability characterization of normal voice features with voice obtained after wearing different masks using praat software: a comparative study
TW201142820A (en) Acoustical wave identification system and the method thereof
Adams Neuroanatomical considerations of speech processing
JP2016177118A (ja) 電子楽器、電子楽器の発音制御方法、およびプログラム
KR100465754B1 (ko) 미디마이크를 이용한 디지털 작곡기
TW201220299A (en) Tone detection system and method for modulating voice signal
JP2000020098A (ja) 音声処理装置
Martınez et al. Application of Sound Shields in Orchestras I. Acoustic measurements
Meyer Anatomical and physiological bases of speech perception
JP2022175701A (ja) 雑音埋蔽方法、雑音埋蔽装置、雑音埋蔽音波、雑音埋蔽音波を格納した記録媒体、雑音埋蔽音波生成プログラム及び雑音埋蔽音波生成プログラムを格納した記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150226

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150501

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150501

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150501

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190819

R150 Certificate of patent or registration of utility model

Ref document number: 6574551

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250