JPWO2006043380A1 - 発音方法、音源回路、それを用いた電子回路および電子機器 - Google Patents

発音方法、音源回路、それを用いた電子回路および電子機器 Download PDF

Info

Publication number
JPWO2006043380A1
JPWO2006043380A1 JP2006542280A JP2006542280A JPWO2006043380A1 JP WO2006043380 A1 JPWO2006043380 A1 JP WO2006043380A1 JP 2006542280 A JP2006542280 A JP 2006542280A JP 2006542280 A JP2006542280 A JP 2006542280A JP WO2006043380 A1 JPWO2006043380 A1 JP WO2006043380A1
Authority
JP
Japan
Prior art keywords
audio data
sound source
sound
control unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006542280A
Other languages
English (en)
Inventor
茂秀 矢野
茂秀 矢野
愛久 田中
愛久 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rohm Co Ltd
Original Assignee
Rohm Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rohm Co Ltd filed Critical Rohm Co Ltd
Publication of JPWO2006043380A1 publication Critical patent/JPWO2006043380A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H1/00Measuring characteristics of vibrations in solids by using direct conduction to the detector
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • G10H1/0066Transmission between separate instruments or between individual components of a musical system using a MIDI interface
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/265Acoustic effect simulation, i.e. volume, spatial, resonance or reverberation effects added to a musical sound, usually by appropriate filtering or delays
    • G10H2210/295Spatial effects, musical uses of multiple audio channels, e.g. stereo
    • G10H2210/301Soundscape or sound field simulation, reproduction or control for musical purposes, e.g. surround or 3D sound; Granular synthesis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/005Device type or category
    • G10H2230/021Mobile ringtone, i.e. generation, transmission, conversion or downloading of ringing tones or other sounds for mobile telephony; Special musical data formats or protocols herefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/025Computing or signal processing architecture features
    • G10H2230/031Use of cache memory for electrophonic musical instrument processes, e.g. for improving processing capabilities or solving interfacing problems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/11Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Stereophonic System (AREA)

Abstract

音場内における仮想音源の位置調整のようなエフェクト処理と発音との同期ずれを抑制する。音源回路100において、FIFOメモリ20は、再現音場内の仮想音源の変化を示す情報およびオーディオデータを記憶する。制御部30は、FIFOメモリ20に記憶されたオーディオデータに、その再現音場内の仮想音源の位置調整を行う3Dポジショニング部210と連携し、位置調整されたオーディオデータを発音させる。制御部30は、上記情報を検出すると、3Dポジショニング部210に通知する。その際、専用の信号線を介して、その情報に対応した割込信号を3Dポジショニング部210に送出してもよい。

Description

本発明は、エフェクト処理したオーディオデータを発音するための発音方法、音源回路、それを用いた電子回路および電子機器に関する。
携帯電話機の高機能化に伴い、音質への要求も高まっている。そこで、携帯電話などの携帯端末にステレオスピーカが搭載されるようになってきている。ただ、そのような携帯端末の狭い筐体では、ステレオスピーカを内蔵しても、その発音に良質なステレオ感を得ることは難しい。
一方、ユーザの左右の耳を利用して3次元音場を再生するオーディオ信号処理技術として、特許文献1は、1対のスピーカおよび2つの信号チャンネルだけを使用する音場の合成技術について開示している。その音場では、球体の中心に位置するユーザの頭を囲む球体上のどこかに音源が現れるよう、ユーザに知覚させることができる。
このような音響処理は、例えばユーザの頭に近接した空間位置から発散するような音、または時間と共にユーザに向かって、もしくは離れるように移動する音、またはユーザの耳元にささやく人の声、などに効果的であるとしている。
特表2001−511995号公報
携帯電話などの携帯端末には、着信を知らせるためのメロディなどを発音する音源LSI(Large Scale Integration)などで構成された音源回路が搭載されているものがある。このような音源回路の発音データがMIDI(登録商標)データ(Musical Instruments Digital Interface)などの場合、そのデータ内の時間管理コマンドによって、発音タイミングが設定される。したがって、音源回路内のメモリにそのデータが書き込まれた後、どのくらいの時間で発音するかを、音源回路上で実行されるシーケンサなどのソフトウェアは認知することが難しい。このような音源回路と、上述したような音場内で音源の知覚位置を調整するためのエンジンとが連携する場合、当該音源回路による発音と当該エンジンによる位置調整とが同期ずれを起こし、予期せぬ位置に音像を定位してしまう可能性がある。
本発明はこうした状況に鑑みてなされたものであり、その目的は、音場内における仮想音源の位置調整のようなエフェクト処理と発音との同期ずれを抑制することが可能な発音方法、音源回路、それを用いた電子回路および電子機器を提供することにある。
上記課題を解決するために、本発明のある態様の発音方法は、オーディオデータの発音タイミングを解読するステップと、発音タイミングを示す情報をオーディオデータに加えるステップと、前記情報を参照して取得した発音タイミングに対応して、発音すべきオーディオデータにエフェクト処理するステップと、を備える。
この態様によると、発音タイミングを示す情報を参照してエフェクト処理することにより、エフェクト処理と発音との間の同期ずれを抑制することができる。
本発明の別の態様もまた、発音方法である。この方法は、オーディオデータによる再現音場内の仮想音源の変化を解読するステップと、仮想音源の変化を示す情報をオーディオデータに加えるステップと、前記情報を参照して取得した仮想音源の変化に対応して、発音すべきオーディオデータの再現音場内の仮想音源の位置調整を行うステップと、を備える。「仮想音源の変化」には、仮想音源の切り替わり、仮想音源の移動による変化が含まれてもよい。
この態様によると、仮想音源の変化を示す情報を参照して、再現音場内の仮想音源の位置調整を行うことにより、この位置調整と発音との間の同期ずれを抑制することができる。
本発明のさらに別の態様は、音源回路である。この音源回路は、発音タイミングを示す情報およびオーディオデータを記憶する記憶部と、記憶部に記憶されたオーディオデータにエフェクト処理するエフェクト処理部と連携し、処理されたオーディオデータを発音させる制御部と、を備える。制御部は、前記情報を検出すると、エフェクト処理部にその情報を検出したことを通知する。
この態様によると、発音タイミングを示す情報をエフェクト処理部に通知することにより、エフェクト処理と発音との間の同期ずれを抑制することができる。
本発明のさらに別の態様もまた、音源回路である。この音源回路は、再現音場内の仮想音源の変化を示す情報およびオーディオデータを記憶する記憶部と、記憶部に記憶されたオーディオデータに、その再現音場内の仮想音源の位置調整を行う位置調整部と連携し、位置調整されたオーディオデータを発音させる制御部と、を備える。制御部は、前記情報を検出すると、位置調整部にその情報を検出したことを通知する。
この態様によると、再現音場内の仮想音源の変化を示す情報を位置調整部に通知することにより、位置調整と発音との同期ずれを抑制することができる。
制御部は、専用の信号線を介して、前記情報に対応した割込信号を位置調整部に送出してもよい。この態様によると、制御部と位置調整部とのオーディオデータの入出力に影響を与えずに、位置調整と発音との同期ずれを抑制することができる。
制御部は、再現音場内に複数の仮想音源が設定された場合、それぞれの仮想音源の変化を示す情報の少なくとも一つ以上を検出すると、それぞれの仮想音源に対応した専用の信号線を介して、前記情報に対応した割込信号を位置調整部に送出してもよい。この態様によると、音場内に複数の仮想音源があり、それぞれが独立して変化する場合でも、割込信号の頻発による誤動作を抑制することができる。
制御部は、位置調整部に送出するオーディオデータ内の空き部分に前記情報を埋め込んでもよい。「オーディオデータ」が複数チャンネルを含む場合、その空きチャンネルに埋め込んでもよい。この態様によると、専用の信号線を設けなくても、位置調整と発音との同期ずれを抑制することができる。
本発明のさらに別の態様は、電子回路である。この電子回路は、上述した音源回路と、オーディオデータにエフェクト処理するエフェクト処理部とを備える。この態様によると、エフェクト処理と発音との間の同期ずれを抑制することができる電子回路を実現することができる。
本発明のさらに別の態様は、電子回路である。この電子回路は、上述した音源回路と、オーディオデータに、その再現音場内の仮想音源の位置調整を行う位置調整部とを備える。この態様によると、再現音場内の仮想音源の位置調整処理と発音との間の同期ずれを抑制することができる電子回路を実現することができる。
本発明のさらに別の態様は、電子機器である。この電子機器は、スピーカと、スピーカに発音させるための上述した態様の電子回路を備える。この態様によると、エフェクト処理と発音との間の同期ずれを抑制することができる電子機器を実現することができる。
なお、以上の構成要素の任意の組合せ、本発明の表現を装置、方法、システム、コンピュータプログラム、それが記録された記録媒体などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、エフェクト処理と発音との同期ずれを抑制することができる。
実施形態1に係る音源回路の概略構成を示す図である。 音源回路に係る制御タイミングを示す図である。(a)は、従来の制御タイミングを示し、(b)は、実施形態1に係る制御タイミングを示す。 実施形態1に係る音源LSIと3Dポジショニング部を含む電子回路を搭載した電子機器の構成を示す図である。 ステレオ拡張処理を説明するための図である。(a)は、従来のステレオ拡張処理がされていない発音を示し、(b)は、実施形態1に係るステレオ拡張処理がなされた発音を示す。 実施形態1に係る音源回路と3Dポジショニング部の処理手順を示すフローチャートである。 図3に示した各信号の波形遷移の一例を示す図である。 実施形態2に係る音源回路の概略構成を示す図である。 実施形態2に係る音源LSIと3Dポジショニング部を含む電子回路を搭載した電子機器の構成を示す図である。 図8に示した各信号の波形遷移の一例を示す図である。 制御部からオーディオI/Fを介して、3Dポジショニング部に伝送される信号の一例を示すタイミングチャートである。 実施形態3に係る各信号の波形遷移の一例を示す図である。
符号の説明
10 CPUI/F、 20 FIFOメモリ、 30 制御部、 32 ステレオ拡張部、 34 音源シーケンサ、 40 オーディオI/F、 52、54 DAC、 62、64 スピーカ、 100 音源回路、 110 音源LSI、 200 アプリケーションプロセッサ、 210 3Dポジショニング部、 300 電子回路、 400 電子機器。
(実施形態1)
図1は、実施形態1に係る音源回路100の概略構成を示す図である。実施形態1は、音源LSI110などで構成される音源回路100の発音タイミングと、3次元音場における仮想音源の知覚位置を調整するエンジン(以下、3Dポジショニング部という。)による位置調整タイミングとの同期をとるための技術を提供する。3Dポジショニング部210は、例えば、飛行機の音なら頭上から聞こえるよう、車の音なら地面近くから聞こえるよう、それぞれのオーディオデータに特殊効果を施すためのエフェクト処理を行う。
まず、実施形態1の概略を説明する。音源回路100の外部に設けられるアプリケーションプロセッサなどのCPUは、CPUインタフェース(以下、CPUI/Fと表記する。)10を介して、オーディオデータを音源回路100内のFIFO(First-In First-Out)メモリ20に書き込む。上記オーディオデータは、MIDIフォーマットやADPCM(Adaptive Differential Pulse Code Modulation)フォーマットなどで記述することができる。図1では、一例としてMIDIデータをFIFOメモリ20に書き込んでいる。MIDIデータは、楽曲の情報を、音色、音の長さ、強さ、特殊効果などの組み合わせとして記録している。
上記CPUは、上記オーディオデータ内の時間管理に関するコマンドを解読し、そのオーディオデータを再生した際、生成される音場における仮想音源の3次元空間上の知覚位置を切り替えるためのタイミングを特定する。そして、その切り替わりタイミングを示すために、Callbackメッセージというデータを当該オーディオデータ内の知覚位置の切り替わりの部分などの所定の位置に挿入して、FIFOメモリ20に書き込む。
FIFOメモリ20は、先に入力されたデータをその入力順にしたがい、先に出力するメモリである。音源シーケンサ34は、MIDIデータの加工、再生などを行うソフトウェアであり、上記CPUにより実行されてもよい。音源シーケンサ34は、FIFOメモリ20のMIDIデータを再生し、図示しないスピーカなどから発音させている。また、音源シーケンサ34は、FIFOメモリ20内のデータを処理する際、Callbackメッセージを検出すると、割込信号MIDIINTを発生させる。この割込信号MIDIINTは図3のアプリケーションプロセッサ200に出力される。割込信号MIDIINTを使用することにより、音源シーケンサ34による発音タイミングと、3Dポジショニング部210による3Dポジショニング処理との同期がとられる。
図2は、音源回路100に係る制御タイミングを示す図である。図2では、まず、飛行機の音を表すオーディオデータと、車の音を表すオーディオデータがFIFOメモリ20に書き込まれる。
図2(a)は、実施形態1に係る技術を用いない場合の例である。音源シーケンサ34は、FIFOメモリ20内のオーディオデータをその順番にしたがって発音していく。FIFOメモリ内にオーディオデータが書き込まれてから、そのオーディオデータが発音するまでの期間は、MIDIデータの場合、そのMIDIデータ内のTempoなどの時間管理コマンドの量により変化する。また、曲調などによっても変化する。図2では、音源シーケンサ34は、車の音を表すオーディオデータがFIFOメモリ20内に記憶されてから、そのオーディオデータが発音するまでの期間t1を予測することができない。したがって、音源シーケンサ34は、飛行機の音から車の音に切り替わるタイミングを予測することができない。
図2中、ポジションAは飛行機の音に対応した位置、例えばユーザを中心にした音場の上方の位置を示し、ポジションBは車の音に対応した位置、例えばそのユーザを中心にした音場の下方の位置を示す。例えば図2(a)のように、ポジションAとポジションBとの切り替わりタイミングをFIFOメモリ20での飛行機の音を表すオーディオデータから車の音を表すオーディオデータへの切り替わりタイミングに合わせると、音源シーケンサ34による発音の切り替わりタイミングとずれる期間t2が生じる。この期間t2は、飛行機の音が地面を走行する車の位置から聞こえるようになり、ユーザの想像している映像と同期しないことになる。
これに対し、図2(b)は、実施形態1に係る技術を用いた場合の例である。音源シーケンサ34は、MIDIデータの発音タイミングと同期しているCallbackメッセージを検出すると、3Dポジショニング処理を実行するアプリケーションプロセッサ200に割込信号MIDIINTを発生させる。3Dポジショニング部210は、この割込信号MIDIINTを利用して、音源シーケンサ34の発音タイミングと同期をとることができる。したがって、図2(b)では、音源シーケンサ34が飛行機の発音から車の発音に切り替えるタイミングに同期して、3Dポジショニング部210は、ポジションAからポジションBに切り替えることができる。
以下、実施形態1を詳細に説明する。図3は、音源LSI110とアプリケーションプロセッサ200を含む電子回路300を搭載した電子機器400の構成を示す図である。音源LSI110は、上述した音源回路100をワンチップ化した集積回路で実現したものである。音源LSI110の外部に設けられるアプリケーションプロセッサ200は、CPUI/F10を介して、オーディオデータを音源LSI110内のFIFOメモリ20に書き込む。アプリケーションプロセッサ200は、3Dポジショニング部210およびファームウェア220を含む。
3Dポジショニング部210は、上記オーディオデータ内の時間管理に関するコマンドを解読し、そのオーディオデータを再生した際、そのオーディオデータによる仮想音源の3次元空間上の知覚位置を切り替えるためのタイミングを特定する。そして、その仮想音源の切り替わりタイミングを示すために、Callbackメッセージというデータを当該オーディオデータ内の飛行機の音を表すオーディオデータと車の音を表すオーディオデータの切り替わりの部分などの所定の位置に挿入して、FIFOメモリ20に書き込む。
制御部30は、FIFOメモリ20から読み出したオーディオデータに各種エフェクト処理を施したり、読み出したオーディオデータを発音させたりする。制御部30は、オーディオデータをシーケンス処理して、デジタルデータとして、オーディオインターフェース(以下、オーディオI/Fと表記する。)40を介してアプリケーションプロセッサ200に受け渡す。
3Dポジショニング部210は、主に、上記アプリケーションプロセッサ200と3Dポジショニング用のファームウェア220との連携により実現されるブロックである。制御部30または3Dポジショニング部210はワンチップ化されていてもよい。3Dポジショニング部210は、オーディオI/F40を介して制御部30から受け渡されたオーディオデータに3次元ポジショニング処理を施し、制御部30に返す。
図3では、アプリケーションプロセッサ200と、オーディオI/F40との間では4本の信号BCLK、信号LRCLK、信号SDOおよび信号SDIが入出力される。信号BCLKは、ビット単位の同期をとるためのクロックをアプリケーションプロセッサ200に出力する信号である。信号LRCLKは、1回のデータ受け渡しタイミングを与える信号であり、左右どちらのチャンネルのデータであるのかを示すことができる。信号SDOは、制御部30からアプリケーションプロセッサ200にシリアルにオーディオデータを出力するための信号である。信号SDIは、逆にアプリケーションプロセッサ200から制御部30にシリアルにオーディオデータを出力するための信号である。信号BCLK、信号LRCLK、信号SDOおよび信号SDIでやりとりされる信号は、I2S(アイ・スクエア・エス)などの規格を用いることができる。
制御部30は、ステレオ拡張部32を含む。ステレオ拡張部32は、例えば、右のチャンネルの信号に、左のチャンネルの信号の反位相を加え、その逆も同様に処理することにより、ユーザにとって広がりのある音場を作り出す。右のスピーカから出力される音を、左のスピーカから出力される音で打ち消すと、ユーザは主に右の耳で、右のスピーカから出力される音を知覚することになる。逆も同様である。そうすると、右のチャンネルで出力する音と、左のチャンネルで出力する音を分離することができ、音場を拡張することができる。
ステレオ拡張部32は、3Dポジショニング部210により3Dポジションングされたオーディオデータに対して、上述したようなステレオ拡張処理を施す。ユーザインタフェースとして、1対のスピーカ62、64と図示しないヘッドフォンが設けられている場合、スピーカ62、64とヘッドフォンに対して施す。
また、制御部30は、FIFOメモリ20から読み出したデータに上記Callbackメッセージを検出すると、アプリケーションプロセッサ200に割込信号MIDIINTを出力する。図3では、制御部30からアプリケーションプロセッサ200に、割込信号MIDIINTが出力される。割込信号MIDIINTは、上記仮想音源の知覚位置の切り替わりタイミングを示す制御信号をアプリケーションプロセッサ200に伝送するための信号である。
2つのデジタルアナログ変換器(以下、DACという。)52、54は、制御部30から出力された左右のチャンネルのオーディオデジタル信号をそれぞれアナログ信号に変換して、左右のスピーカ62、64に出力する。なお、図示しないヘッドフォンなどが携帯端末などの機器に接続されている場合、ヘッドフォンにも出力する。1対のスピーカ62、64は、左右のチャンネルのオーディオ信号を出力する。
図4は、ステレオ拡張処理を説明するための図である。図4(a)は、実施形態1に係る技術を用いない場合の例である。携帯電話機や携帯型ゲーム機などの携帯型の電子機器の場合、その電子機器の筐体の大きさの制約から、1対のスピーカ62、64の間の距離を長くすることが難しい。したがって、図4(a)に示すように、左右のスピーカ62、64からの発音が混じり合ってしまい、1対のスピーカ62、64を設けても、同じ場所から発音されているように感知され、ステレオ感を出すことが難しい。
これに対し、図4(b)は、実施形態1に係る技術を用いた場合の例である。左右のチャンネルにステレオ拡張処理を施すことにより、あたかも1対のスピーカ62、64の間に十分な距離を確保されているようなステレオ感を出すことができる。
図5は、実施形態1に係る音源回路100とアプリケーションプロセッサ200の処理手順を示すフローチャートである。図1の音源回路100が図3のアプリケーションプロセッサ200と連携する形態で説明する。このフローチャートの左側の流れは、アプリケーションプロセッサ200の動作タイミングを示し、右側の流れは、ハードウェア資源としての音源回路100の動作タイミングを示す。
まず、アプリケーションプロセッサ200は、CallbackメッセージをMIDIデータ内に設定する(S10)。その際、そのCallbackメッセージに続けて後処理選択値も後処理選択メッセージとして設定する。後処理選択値とは、音源回路100からMIDIデータをどのように出力するかを指し示す値である。
この設定により、音源回路100内のFIFOメモリ20に、Callbackメッセージと後処理検出値が連続して設定されることになる(S30)。次に、音源シーケンサ34は、FIFOメモリ20内のデータを読み出していくと、Callbackメッセージを検出する(S32)。すると、アプリケーションプロセッサ200に出力される割込信号MIDIINTをローレベルに設定する。
音源シーケンサ34は、Callbackメッセージを検出した後に、後処理選択メッセージを検出する(S34)。後処理選択メッセージは、音源シーケンサ34とアプリケーションプロセッサ200とのシリアルI/Fを介してアプリケーションプロセッサ200に3Dポジショニング処理の対象となるMIDIデータを出力するよう命令するものである。
アプリケーションプロセッサ200は、割込信号MIDIINTから、3Dポジショニング処理のタイミングを示すCallbackメッセージを検出することにより、Callbackステータスを取得する(S12)。3Dポジショニング部210は、割込信号MIDIINTがローレベルになると、割込ルーチンを実行する。割込ルーチンは、音源回路100側からアプリケーションプロセッサ200側にMIDIデータが出力されないよう、マスク設定する(S14)。3Dポジショニング部210は、音源回路100からの割込をクリアするよう設定し(S16)、3Dポジショニング処理を開始する(S18)。
音源シーケンサ34は、アプリケーションプロセッサ200からの割込クリア設定に対応して、割込信号MIDIINTによるCallbackメッセージをクリアする(S36)。3Dポジショニング部210は、上記割込ルーチンの中でかけたマスクを解除する(S20)。マスクが解除されると、音源シーケンサ34は、シリアルI/Fを介してアプリケーションプロセッサ200にMIDIデータの送出が可能となり、MIDIデータの送出を開始する(S38)。先の後処理選択メッセージの検出からこのMIDIデータの送出までの期間は、4msec程度に設定することができる。
3Dポジショニング部210は、シリアルI/Fを介して送られてくる上記MIDIデータに、3Dポジショニング処理を施す(S22)。音源シーケンサ34は、このようにエフェクト処理がなされたMIDIデータを発音することができるようになる。
以上、発音するタイミングを示すCallbackメッセージをFIFOメモリ20に積み込み、アプリケーションプロセッサ200への割込信号を発生させる手順を説明した。この点、MIDIデータに限らず、ADPCMデータなどに対しても同様の手順を適用することが可能である。
図6は、図3に示した信号LRCLK、信号SDO、および割込信号MIDIINTの波形遷移の一例を示す図である。この例は、図2で例示した飛行機の音から途中で車の音に切り替わるものである。信号LRCLKは、周期的な繰り返し波形であり、その繰り返し波形の単位周期がデータ受け渡しの単位周期となる。信号SDOは、アプリケーションプロセッサ200に入力されるオーディオデータを示す。図6では、飛行機の音を表すオーディオデータが2回入力され、その後に車の音を表すオーディオデータが2回入力された様子を示す。割込信号MIDIINTは、アプリケーションプロセッサ200への割込信号である。図6では、この割込信号MIDIINTのハイレベルからローレベルへの立ち下がりエッジで、飛行機の音への3Dポジショニング処理による音像の定位場所から、車の音に対する音像の定位場所に切り替わるタイミングを3Dポジショニング部210に通知している。
以上説明したように実施形態1によれば、Callbackメッセージを3Dポジショニング部との同期信号に利用することにより、音源シーケンサが発音する際、発音タイミングと、3Dポジショニング処理との同期ずれを抑制し、予期せぬ位置に音像を定位してしまう事態を回避することができる。
(実施形態2)
図7は、実施形態2に係る音源回路100の概略構成を示す図である。実施形態2は、音源回路100の発音タイミングと、3次元音場における複数の仮想音源の知覚位置を調整する3Dポジショニング部210による位置調整タイミングとの同期をとるための技術を提供する。3Dポジショニング部210は、複数の仮想音源からの発音が混じった音において、それぞれの仮想音源を音場内の所定の場所から聞こえるよう、それら複数の仮想音源を表すオーディオデータにエフェクト処理を施す。
実施形態2に係る音源回路100の構成は、実施形態1に係る構成と基本的に同様の構成である。以下、相違点について説明する。外部に設けられるCPUは、CPUI/F10を介して、オーディオデータを音源回路100内のFIFOメモリ20に書き込む。当該CPUは、上記オーディオデータ内の時間管理に関するコマンドを解読し、そのオーディオデータの再生音場における複数の仮想音源の3次元空間上の知覚位置の切り替わりタイミングをそれぞれ特定する。そして、それら仮想音源の3次元空間上の知覚位置の切り替わりタイミングを示すために、Callbackメッセージ1、Callbackメッセージ2・・・といった各CallbackメッセージBOXを当該オーディオデータ内のその知覚位置の切り替わりの部分などに挿入して、FIFOメモリ20に書き込む。
音源シーケンサ34は、FIFOメモリ20内のデータを処理する際、いずれかのCallbackメッセージを検出すると、検出したCallbackメッセージに対応する割込信号3DINTを発生させる。Callbackメッセージ1には、割込信号3DINT1が対応し、Callbackメッセージ2には、割込信号3DINT2が対応する。実施形態2では、音源回路100から3Dポジショニング処理を実行するアプリケーションプロセッサ200に、各Callbackメッセージ専用の3DINT線が配されており、音源シーケンサ34は、検出したCallbackメッセージに対応する3DINT線を介して、アプリケーションプロセッサ200に割込信号3DINT1または割込信号3DINT2を伝送する。
以下、実施形態2を詳細に説明する。図8は、実施形態2に係る音源LSI110とアプリケーションプロセッサ200を含む電子回路300を搭載した電子機器400の構成を示す図である。実施形態2に係る音源LSI110およびアプリケーションプロセッサ200は、実施形態1で説明した図3の構成と基本的に同様である。以下、相違点を説明する。
3Dポジショニング部210は、上記オーディオデータ内の時間管理に関するコマンドを解読し、そのオーディオデータの再生音場における複数の仮想音源の3次元空間上の位置の切り替わりタイミングをそれぞれ特定する。そして、それら仮想音源の3次元空間上の位置の切り替わりタイミングを示すために、Callbackメッセージというデータを当該オーディオデータ内のそれぞれの位置の切り替わりの部分などに挿入して、FIFOメモリ20に書き込む。
制御部30とアプリケーションプロセッサ200とは、複数の割込信号線で結ばれている。図8では、3本まで明示しているが3本に限るものではない。制御部30は、FIFOメモリ20から読み出したデータにいずれかのCallbackメッセージを検出すると、対応する割込信号線を介してアプリケーションプロセッサ200に割込信号3DINT1、割込信号3DINT2、割込信号3DINT3を出力する。
図9は、図8に示した信号LRCLK、信号SDO、信号3DINT1、および信号3DINT2の波形遷移の一例を示す図である。この例は、飛行機およびUFOの音が混在した音から、途中で車およびミサイルの音が混在した音に切り替わるものである。信号LRCLKおよび信号SDOは、図6の説明と同様である。図9では、飛行機およびUFOの音が混ざった音を表すオーディオデータが2回入力され、その後に車およびミサイルの音が混ざった音を表すオーディオデータが2回入力された様子を示す。割込信号3DINT1および割込信号3DINT2は、アプリケーションプロセッサ200への割込信号である。
図9では、割込信号3DINT1のハイレベルからローレベルへの立ち下がりエッジで、飛行機の音への3Dポジショニング処理による音像の定位場所から、車の音に対する3Dポジショニング処理による音像の定位場所に切り替わるタイミングを3Dポジショニング部210に通知している。同様に、割込信号3DINT2のハイレベルからローレベルへの立ち下がりエッジで、UFOの音への3Dポジショニング処理による音像の定位場所から、ミサイルの音に対する3Dポジショニング処理による音像の定位場所に切り替わるタイミングを3Dポジショニング部210に通知している。
以上説明したように実施形態2によれば、Callbackメッセージを複数用意し、アプリケーションプロセッサ200に複数のCallbackメッセージに対応する割込信号を送出するための専用の信号線をそれぞれ設けたことにより、複数音を音場内の複数箇所に定位させる際に、特定の信号線に対する割込信号の頻発を抑制することができる。すなわち、並列処理できるように、Callbackメッセージを複数設けて、複数のCallbackメッセージに対応した信号線を複数設けることにより、アプリケーションプロセッサ200は、受け取った情報を取りこぼすことなく、蓄えておくことができ、3Dポジショニング部210による処理を必ず実行することができる。
(実施形態3)
実施形態3は、実施形態1および2のように、音源回路100からアプリケーションプロセッサ200にCallbackメッセージを送出するための専用の信号線を設けずに、オーディオデータ内の空きチャンネルにタイミング情報を埋め込んで、音源回路100とアプリケーションプロセッサ200との同期を取る技術を提供する。実施形態3に係る音源LSI110とアプリケーションプロセッサ200の構成は、実施形態1で説明した図3の構成と基本的に同様である。以下、相違点を説明すると、制御部30とアプリケーションプロセッサ200とを繋ぐ割込信号線を設けない点が異なる。
図10は、制御部30からオーディオI/F40を介して、アプリケーションプロセッサ200に伝送される信号の一例を示すタイミングチャートである。制御部30は、オーディオデータをI2Sフォーマットで信号SDOによりシリアル伝送している。図10において、信号LRCLKは、1回分のデータ受け渡しタイミングを示す。1周期に1回、データを受け渡す。I2Sフォーマットでは、1回に64ビットまたは128ビットを受け渡すことができる。信号BCLKは、単位ビットの伝送タイミングを示す。なお、図内のストライプ領域は、データ列の省略した箇所を示す。
図10では、信号LRCLKの1周期あたり、左チャンネルLch64ビット、右チャンネルRch64ビットで計128ビットのデータを受け渡すことができる。信号LRCLKの1周期のデータに、1チャンネルあたり16ビットで、8チャンネルを設定した例である。信号SDOは、1回の受け渡しで、16ビットのデータを8種類送出できることを示し、信号SDOの下のビット列は、実際に受け渡してるデータを示す。図10では、1チャンネルCH1と、5チャンネルCH5にオーディオデータが書き込まれている。図10は、音場内における仮想音源が一つの場合の例であり、音場内の仮想音源が複数の場合、他のチャンネルCHも使用される。
上記したDAC52、54に16ビット用のものを使用する場合、左右のチャンネルを合わせて32ビットのデータを、信号LRCLKの1周期あたりに受け渡せれば足りる。そこで、図10のように空きチャンネルができることになる。図10では、オーディオデータの発音タイミングと、そのオーディオデータの3Dポジショニング処理とのタイミングをとるための情報を、3チャンネルCH3に書き込んでいる。3Dポジショニング部210は、このタイミング情報を参照して、3次元音場内における仮想音源の知覚位置を切り替えるタイミングを取得することができる。
図11は、実施形態3に係る信号LRCLK、および信号SDOの波形遷移の一例を示す図である。この例は、図2で例示した飛行機の音から途中で車の音に切り替わるものである。信号SDOは、アプリケーションプロセッサ200に入力されるオーディオデータを示す。図11では、飛行機の音を表すオーディオデータが2回入力され、その後に車の音を表すオーディオデータが1回入力された様子を示す。図11では、車の音を表すオーディオデータの始めの受け渡しの際に、その1回分のオーディオデータの空きチャンネルに上記タイミング情報を埋め込んでいる。
以上説明したように実施形態3によれば、音源回路100からアプリケーションプロセッサ200に伝送されるオーディオデータの空きチャンネルに、同期をとるためのメッセージを埋め込むことにより、割込処理により生成される信号を伝送するための信号線を用いなくとも、すなわち簡素な構成で、オーディオデータの発音タイミングとそのオーディオデータの3Dポジショニング処理との同期をとることができる。
以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
実施形態では、図3および図8に示したように、音源LSI110とアプリケーションプロセッサ200とを別のLSIチップで構成する例を説明した。したがって、音源LSI110とアプリケーションプロセッサ200との間に回路規模を抑えながら、多数の信号線を配することが難しく、シリアルインタフェースでオーディオデータをやりとりする例を説明した。この点、電子回路300全体をワンチップ化してもよい。この場合、アプリケーションプロセッサ200を外部に設けた場合のように、回路規模を大きくせずに多数の信号線を、音源LSI110とアプリケーションプロセッサ200との間に配することが可能になる。したがって、音源LSI110とアプリケーションプロセッサ200との間のオーディオデータをパラレルインタフェースでやりとりしてもよい。さらに、実施形態3で説明したタイミング情報を伝送するための専用の信号線を設けてもよい。これによれば、回路規模を抑えながら、信号を高速化することができる。
また、実施形態では、制御部30は、3Dポジショニング機能、およびステレオ拡張機能を実行した。この点、それら機能に限らず、リバーブ機能、コーラス機能などのエフェクト機能を実行してもよい。実施形態1、2で説明した割込処理や、実施形態3で説明した空きチャンネルへのタイミング情報埋め込み技術を同様に適用することができる。これにより、オーディオデータの発音タイミングと、各種エフェクト機能の処理タイミングとの同期をとることができる。
本発明は、オーディオデータをエフェクト処理して再生する電子機器の分野に適用することができる。

Claims (11)

  1. オーディオデータの発音タイミングを解読するステップと、
    前記発音タイミングを示す情報を前記オーディオデータに加えるステップと、
    前記情報を参照して取得した前記発音タイミングに対応して、発音すべきオーディオデータにエフェクト処理するステップと、
    を備えることを特徴とする発音方法。
  2. オーディオデータによる再現音場内の仮想音源の変化を解読するステップと、
    前記仮想音源の変化を示す情報を前記オーディオデータに加えるステップと、
    前記情報を参照して取得した前記仮想音源の変化に対応して、発音すべきオーディオデータの再現音場内の仮想音源の位置調整を行うステップと、
    を備えることを特徴とする発音方法。
  3. 発音タイミングを示す情報およびオーディオデータを記憶する記憶部と、
    前記記憶部に記憶されたオーディオデータにエフェクト処理するエフェクト処理部と連携し、処理されたオーディオデータを発音させる制御部と、を備え、
    前記制御部は、前記情報を検出すると、前記エフェクト処理部に前記情報を検出したことを通知することを特徴とする音源回路。
  4. 再現音場内の仮想音源の変化を示す情報およびオーディオデータを記憶する記憶部と、
    前記記憶部に記憶されたオーディオデータに、その再現音場内の仮想音源の位置調整を行う位置調整部と連携し、位置調整されたオーディオデータを発音させる制御部と、を備え、
    前記制御部は、前記情報を検出すると、前記位置調整部に前記情報を検出したことを通知することを特徴とする音源回路。
  5. 前記制御部は、専用の信号線を介して、前記情報に対応した割込信号を前記位置調整部に送出することを特徴とする請求項4に記載の音源回路。
  6. 前記制御部は、前記再現音場内に複数の仮想音源が設定された場合、それぞれの仮想音源の変化を示す情報の少なくとも一つ以上を検出すると、それぞれの仮想音源に対応した専用の信号線を介して、前記情報に対応した割込信号を前記位置調整部に送出することを特徴とする請求項4に記載の音源回路。
  7. 前記制御部は、前記位置調整部に送出するオーディオデータ内の空き部分に前記情報を埋め込むことを特徴とする請求項4に記載の音源回路。
  8. 請求項3から7のいずれかに記載の音源回路であって、
    同一半導体基板に一体集積化されたことを特徴とする音源回路。
  9. 請求項3に記載の音源回路と、
    前記オーディオデータにエフェクト処理するエフェクト処理部と、
    を備えることを特徴とする電子回路。
  10. 請求項4から8のいずれかに記載の音源回路と、
    前記オーディオデータに、その再現音場内の仮想音源の位置調整を行う位置調整部と、
    を備えることを特徴とする電子回路。
  11. スピーカと、
    前記スピーカから発音させるための請求項9または10記載の電子回路を備えることを特徴とする電子機器。
JP2006542280A 2004-10-21 2005-09-14 発音方法、音源回路、それを用いた電子回路および電子機器 Pending JPWO2006043380A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2004307352 2004-10-21
JP2004307352 2004-10-21
PCT/JP2005/016906 WO2006043380A1 (ja) 2004-10-21 2005-09-14 発音方法、音源回路、それを用いた電子回路および電子機器

Publications (1)

Publication Number Publication Date
JPWO2006043380A1 true JPWO2006043380A1 (ja) 2008-05-22

Family

ID=36202803

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006542280A Pending JPWO2006043380A1 (ja) 2004-10-21 2005-09-14 発音方法、音源回路、それを用いた電子回路および電子機器

Country Status (7)

Country Link
US (1) US20080123867A1 (ja)
EP (1) EP1814357A1 (ja)
JP (1) JPWO2006043380A1 (ja)
KR (1) KR20070070166A (ja)
CN (1) CN101019465A (ja)
TW (1) TW200614848A (ja)
WO (1) WO2006043380A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9892743B2 (en) 2012-12-27 2018-02-13 Avaya Inc. Security surveillance via three-dimensional audio space presentation
US9301069B2 (en) * 2012-12-27 2016-03-29 Avaya Inc. Immersive 3D sound space for searching audio
US9838824B2 (en) 2012-12-27 2017-12-05 Avaya Inc. Social media processing with three-dimensional audio
US10203839B2 (en) 2012-12-27 2019-02-12 Avaya Inc. Three-dimensional generalized space
CN104635578B (zh) * 2015-01-08 2017-05-17 江苏杰瑞科技集团有限责任公司 一种声纳听觉指示电路
US9843948B2 (en) * 2015-03-18 2017-12-12 T-Mobile Usa, Inc. Pathway-based data interruption detection
US11475872B2 (en) * 2019-07-30 2022-10-18 Lapis Semiconductor Co., Ltd. Semiconductor device
CN113555033A (zh) * 2021-07-30 2021-10-26 乐鑫信息科技(上海)股份有限公司 语音交互系统的自动增益控制方法、装置及系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2294854B (en) * 1994-11-03 1999-06-30 Solid State Logic Ltd Audio signal processing
JPH09160549A (ja) * 1995-12-04 1997-06-20 Hitachi Ltd 三次元音響提示方法および装置
JPH10143151A (ja) * 1996-01-30 1998-05-29 Pfu Ltd 指揮装置
JPH1063470A (ja) * 1996-06-12 1998-03-06 Nintendo Co Ltd 画像表示に連動する音響発生装置

Also Published As

Publication number Publication date
US20080123867A1 (en) 2008-05-29
TW200614848A (en) 2006-05-01
KR20070070166A (ko) 2007-07-03
EP1814357A1 (en) 2007-08-01
WO2006043380A1 (ja) 2006-04-27
CN101019465A (zh) 2007-08-15

Similar Documents

Publication Publication Date Title
JPWO2006043380A1 (ja) 発音方法、音源回路、それを用いた電子回路および電子機器
JP3915585B2 (ja) データ生成方法、プログラム、記録媒体およびデータ生成装置
WO2019068959A1 (en) COMBINING AND TRANSPORTING AUDIO OBJECTS
EP1217604B1 (en) Musical sound generator
JP6161886B2 (ja) 音声出力システム、情報処理装置、情報処理プログラム、および音声出力制御方法
JP3617603B2 (ja) 音声情報の符号化方法及びその生成方法
JPH11296167A (ja) サウンド再生装置及び記録媒体
JP4400363B2 (ja) 音源システム、楽曲ファイルを記録したコンピュータ読み取り可能な記録媒体及び楽曲ファイル作成ツール
US7385129B2 (en) Music reproducing system
US20150373472A1 (en) Data processing device and data processing program
US11418883B2 (en) Audio interface apparatus and recording system
US20230413001A1 (en) Signal processing apparatus, signal processing method, and program
JP3754286B2 (ja) データ記録方法及びデータ記録装置
US20210134256A1 (en) Midi events synchronization system, method and device
WO2016009850A1 (ja) 音声信号再生装置、音声信号再生方法、プログラム、および、記録媒体
JP7197688B2 (ja) 再生制御装置、プログラムおよび再生制御方法
JP5069199B2 (ja) 遠隔デュエット方法、遠隔デュエットシステム、遠隔デュエットプログラムおよび遠隔デュエットプログラムを記録した記録媒体
KR101619878B1 (ko) I2s 전송 방식을 이용하여 dsd 오디오 파일을 재생하기 위한 장치 및 그 방법
CN112420005A (zh) 全景音效网络协同系统
JP4674623B2 (ja) 音源システム及び楽曲ファイル作成ツール
JP2982563B2 (ja) Midi編集装置
WO2018092286A1 (ja) 音処理装置、音処理方法、及びプログラム
JPH0823599A (ja) 音響再生装置
JP2002221971A (ja) カラオケ装置
JP2008191292A (ja) 音声合成方法、プログラム及び音声合成装置並びに音楽音声再生装置