JP5637661B2 - 時変性の指向特性を有する音源を録音および再生する方法 - Google Patents

時変性の指向特性を有する音源を録音および再生する方法 Download PDF

Info

Publication number
JP5637661B2
JP5637661B2 JP2008542667A JP2008542667A JP5637661B2 JP 5637661 B2 JP5637661 B2 JP 5637661B2 JP 2008542667 A JP2008542667 A JP 2008542667A JP 2008542667 A JP2008542667 A JP 2008542667A JP 5637661 B2 JP5637661 B2 JP 5637661B2
Authority
JP
Japan
Prior art keywords
sound
sound source
reproduction
unit
acoustic signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008542667A
Other languages
English (en)
Other versions
JP2009517936A (ja
Inventor
ノエミ バレンズエラ ミリアム
ノエミ バレンズエラ ミリアム
アルベルト バレンズエラ カルロス
アルベルト バレンズエラ カルロス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Miriam Noemi Valenzuela
Original Assignee
Miriam Noemi Valenzuela
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Miriam Noemi Valenzuela filed Critical Miriam Noemi Valenzuela
Publication of JP2009517936A publication Critical patent/JP2009517936A/ja
Application granted granted Critical
Publication of JP5637661B2 publication Critical patent/JP5637661B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/323Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only for loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/326Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only for microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/027Spatial or constructional arrangements of microphones, e.g. in dummy heads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • H04R2201/4012D or 3D arrays of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/13Application of wave-field synthesis in stereophonic audio systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Multimedia (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Stereophonic System (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)

Description

本発明は、録音空間内に配置され時変性の指向特性を有する音源の音響信号を捕捉し、再生空間内で該音響信号を再生する方法と、該方法を実施するためのシステムとに関する。
空間内に発生する音響印象を捕捉して再生するのを試みるための種々の手法が公知である。最も知られている手法は、音源の位置を録音時に検出して再生時にシミュレートするステレオ方式と、該ステレオ方式の発展形態である。しかし再生時には、録音される音源の位置が正確に再現される領域はごく制限されてしまう。それに対して、録音される音波面を合成する別の再生方式、たとえば波面合成法では、音源の場所を聴取位置に依存せずに正確に再現することができる。
これらの手法のうちで、音源の放射方向に関する時変性の情報を捕捉して再生する手法はない。時変性の指向特性を有する音源が録音される場合、情報は失われてしまう。たとえば、参加者が異なる参加者の方を向いて所期のように話しかけるビデオ会議の伝送を行うためには、公知の手法ではこの方向情報は検出されず、捕捉されず、再生されない。
本発明の基礎となる課題は、音を捕捉して伝送および再生する次のような方法、すなわち、情報を搬送する音源の特性を感覚に近似的に再生し、とりわけリアルタイムで伝送できる方法を提供することである。
前記課題は、録音空間内に配置され時変性の指向特性を有する音源の音響信号を音捕捉手段によって録音し、音響再生手段によって該音響信号を再生空間内で再生するための次のような方法、すなわち、該音源から送出された音響信号の主放射方向を時間に依存して検出し、検出された主放射方向に依存して再生を行うことを特徴とする方法によって解決される。
時変性の指向特性を有する音源は、ここではとりわけ、異なる参加者の方を向いて異なる方向で話すビデオ会議の参加者とすることができる。送出される音響信号が捕捉されると同時に、該音響信号の主放射方向が検出される。
音響信号の録音は従来のようにマイクロフォンによって行われ、1つまたは複数のマイクロフォンアレイによっても行うことができる。主放射方向を検出するための手段は任意の種類とすることができる。とりわけ音響的手段が使用される。こうするためには、異なる方向で信号のレベル差および/または位相差を検出する複数のマイクロフォンおよび/または1つまたは複数のマイクロフォンアレイを使用することができ、このレベル差および/または位相差から、主放射方向を適切な信号処理によって求めることができる。音響的手段の位置および/または指向特性および/または音源の位置が既知である場合、これらの情報を主放射方向の検出時に、信号処理によって適切に考慮することができる。また、周辺のジオメトリに関する知識と、これに関連する音響伝搬の特性も、たとえば反射特性も、主放射方向の検出時に使用することができる。特に有利には、音源の測定された指向特性または近似された指向特性またはシミュレートされた指向特性に関する情報も、主放射方向の検出で使用することができる。このことはとりわけ、主放射方向を大雑把に検出する場合に当てはまり、このことは多くの用途で十分である。
また主放射方向を検出するために、たとえばパターン識別によるビデオ検出等の光学的手段を使用することもできる。ビデオ会議の参加者の場合には、発話方向が視線方向に相応することを前提とすることができる。このようにしてパターン識別により、どの方向を参加者が見ているかを検出し、この方向から発話方向を検出することができる。とりわけ、音響的手段と光学的手段との組み合わせを、適切な信号処理とともに使用することもできる。場合によっては、音響信号を録音するための音響的手段を、主放射方向の検出にも同時に使用することができ、その逆も可能である。
しばしば、主放射方向を大雑把に検出するので十分であることが多い。重要な情報を伝えるためには、3段階または5段階に段階分けすることで完全に十分であることが多く、たとえば、真っ直ぐ、右および左に段階分けするか、または、真っ直ぐ、斜め右、右、斜め左および左に段階分けすることで完全に十分であることが多い。
主放射方向は有利には、情報を搬送する周波数領域内にある主放射方向とされる。こうするためには、主放射方向の検出に使用される周波数領域を制限することができ、たとえば周波数フィルタを使用して制限することができる。
音響信号の再生は、検出された主放射方向に依存して行うことができる。ここでは、原音源の指向性の放射をシミュレートすべきである。このことは、音響信号の実際の指向性放射によって行われるか、または、従来の意味では物理的に実際に指向性ではなく聴取者によって指向性再生として知覚されるシミュレートされた指向性の再生によって行われる。これらの適用可能な手法はとりわけ、指向特性を再構築する精度の点で異なる。実際には、再構築ないしはシミュレーションの感覚指向の自然さが決定的要因である。以下では、このような方法はすべて「指向性再生」という概念にまとめることとする。
本発明による方法では音響信号の再生は、音源に所属する第1の再生ユニットと、該第1の再生ユニットから離隔されて配置された第2の再生ユニットとによって行うことができる。ここでは、再生空間内の第1の再生ユニットの位置は、該再生空間内の音源の仮想的位置に相応することができる。1つないしは複数の第2の再生ユニットは、音響再生の方向情報を伝達するのに使用することができる。こうするために有利には、2つの第2の再生ユニットを使用し、これらのうち1つの再生ユニットを第1の音響再生ユニットの一方の側に配置し、他方の再生ユニットを他方の側に配置することができる。第1の音響再生ユニットの各側にそれぞれ1つの第2の再生ユニットを使用する代わりに、相互に離隔されたそれぞれ複数の第2の再生ユニットを配置することもでき、有利にはそれぞれ2つの第2の再生ユニットを配置することができる。
録音空間内で録音された音源の音響信号は、再生空間内で第1の再生ユニットによって、たとえばスピーカによって再生することができる。このスピーカは、再生空間内の音源の仮想的位置にあるように、該再生空間内に配置することができる。すなわち、音源をいわば再生空間内に持ってくる。また、第1の再生ユニットを複数のスピーカによって形成するか、またはスピーカの群によって形成するか、またはスピーカアレイによって形成することもできる。たとえば、第1の再生ユニットを波面合成によって、点音源として再生空間内の音源の仮想的位置に配置し、該音源を仮想的に再生空間内に持ってくることができる。このことはたとえば、すべての参加者が存在する実際の会議の印象を可能な限り実現しなければならないビデオ会議で有利である。その際には、音源は録音空間内の参加者である。再生は、録音空間内のこの参加者が再生空間内に仮想的に存在する該再生空間内の場所に配置された第1の再生ユニットを介して行われる。
放射方向に関する情報を伝達するために、再生を1つまたは複数の第2の再生ユニットによって、第1の再生ユニットに対して時間遅延τで、第1の再生ユニットに対して行うことができる。この時間遅延は、各第2の再生ユニットごとにそれぞれ異なることができる。1つまたは複数の離隔された音源からの音響信号の一種のエコーまたは反射が僅かな時間遅延で送出されることにより、人間の耳に対して、音源の放射方向に関する情報が伝達されることが判明している。このようなエコーないしは反射が別個の音波現象として処理されないためには、たとえばビデオ会議の場合に参加者が位置する参加者位置における時間遅延は2ms〜100msの間でなければならない。したがって、1つまたは複数の第2の再生ユニットの時間遅延τは有利には次のように選択される。すなわち、再生空間の少なくとも部分領域内において音響信号間の実際の時間遅延が2ms〜100msの間となり、有利には5ms〜80msの間となり、とりわけ10ms〜40msの間となるように選択される。
(複数の)第2の再生ユニットによる再生は、再生空間の空間特性に相応して、低減されたレベルで行うことができ、とりわけ1〜6dB低減されたレベルで行うことができ、有利には2〜4dB低減されたレベルで行うことができる。シミュレートすべき指向特性に相応して、音響信号を(複数の)第2の再生ユニットによる再生前に、周波数フィルタによって処理することもでき、たとえばハイパスフィルタまたはローパスフィルタまたはバンドパスフィルタによって処理することもできる。このような周波数フィルタのパラメータは、固定的に設定するか、または主放射方向に依存して制御することができる。
(複数の)第2の再生ユニットは第1の再生ユニットのように、1つまたは複数のスピーカを有するか、または、スピーカの群またはスピーカアレイを使用してたとえば波面合成によって生成される仮想的な音源とすることができる。
音源の放射方向に関する情報を可能な限り感覚に近似的に再生するために、第1の再生ユニットおよび第2の再生ユニットの再生レベルも、シミュレートすべき指向特性に依存して適合することができる。こうするためには再生レベルは、異なる聴取位置で前記指向特性から得られる知覚可能な音量差が適切に近似されるように設定される。個々の再生ユニットにおけるこのようにして求められた再生レベルは、異なる主放射方向に対して定義して記憶することができる。その際には、時変性の指向特性の場合、検出された主放射方向が個々の再生ユニットの再生レベルを制御する。
上記の方法はもちろん、録音空間内の複数の音源に対しても適用することができる。複数の音源を上記の方法によって再生するために特に有利なのは、個々の伝送すべき音源の音響信号が相互に分離されて得られるようにすることである。それゆえ、音響信号を録音するために種々の方法が考えられる。音響信号を録音するためには、個々の音源ごとに音捕捉手段を割り当てることができる。各音源が専用の音捕捉手段を有するように前記割り当てを1:1で行うか、または、複数の音源をグループ化して1つの音捕捉手段に割り当てるように行うことができる。所与の時点でアクティブな音源の位置は、従来の位置検出アルゴリズムによって求めることができ、また、ビデオ検出およびパターン認識によっても求めることができる。1つより多い音源からの音波放射が同時である場合、音源を1つの音捕捉手段にグループ化する際に、個々の音源の音響信号を従来の音源分離アルゴリズムによって、たとえば「ブラインド音源分離(Blind Source Separation)」、「独立成分分析(Independent Component Analysis)」または「畳み込み音源分離(Convolutive Source Separation)」によって、相互に分離することができる。録音すべき音源の位置が既知である場合、音源の群に対する音捕捉手段として、ダイナミック方向選択性マイクロフォンアレイを使用することもできる。このダイナミック方向選択性マイクロフォンアレイは、受信された音響信号を所定の位置に相応して処理し、各音源に対して分離してまとめる。
個々の音源の主放射方向は、1つの音源に関して説明されたのと同じ原理で検出することができる。こうするためには、個々の音源に相応の手段を割り当てることができる。この割り当ては、各音源が専用の方向検出手段を有するか、または、音源がそれぞれグループ化されて複数の1つの方向検出手段に割り当てられるように行うことができる。音源がグループ化される場合、音源が1つであり、所与の時点で音波を放射する音源が1つである場合と同様に、主放射方向の検出は行われる。2つ以上の音源が同時に音波を放射する場合、方向検出手段の第1の処理ステップにおいてまずは、受信された信号(たとえば音響信号またはビデオ信号)が相応の音源に対応付けられる。このことは、光学的手段の場合にはオブジェクト識別アルゴリズムによって行うことができる。音響的手段の場合、前記の音捕捉手段によって別個に録音された音源の音響信号を、受信された信号と相応の音源との対応付けに使用することができる。音源の位置が既知である場合、有利には、音源と音響的方向検出手段との間の伝達関数を考慮し、また、該音響的方向検出手段の指向特性も音捕捉手段の指向特性も考慮することができる。受信された信号と関連の音源とが対応付けられた後に初めて、個々の音源の主放射方向が別個に求められる。こうするためには、音源に対して上記の同様の方法を使用することができる。
再生の品質を改善するために、音源に割り当てられていない捕捉手段ないしは方向検出手段によって受信された該音源の音響信号を、音響的なエコー抑圧またはクロストーク抑圧(cross talk cancellation)によって抑圧することができる。音響的な反射および2次的な雑音を従来の手段によって低減することも、再生品質を改善するのに寄与する。
音響信号を再生するために、各音源に1つの再生ユニットを割り当てることができる。各音源が専用の第1の音捕捉手段を有するように前記割り当てを1:1で行うか、または、複数の音源をグループ化して複数の1つの第1の音捕捉手段に割り当てるように行うことができる。割り当てに応じて、再生空間内で再生される空間的情報の精度は、高くなったり低くなったりする。
上記の再生技術の他に択一的に、再生を波面合成によって行うこともできる。こうするためには、通常使用される点音源の代わりに、音源の指向特性を音波面の合成のために考慮しなければならない。こうするために有利なのは、使用すべき指向特性をデータバンクにすでに保持することである。この指向特性はたとえば、測定結果、測定から得られた近似、または、数学的関数によって記述された近似とすることができる。また、この指向特性をモデルによってシミュレートすることもでき、たとえば、方向依存性のフィルタ、複数の音源要素、または方向依存性の励振によってシミュレートすることもできる。適切な指向特性を有する音波面の合成は、検出された主放射方向によって制御されることにより、音源の放射方向に関する情報が時間に依存して再生されるようにされる。上記の手法はもちろん、録音空間内の複数の音源に対しても適用することができる。
上記で説明された2つの再生技術の他に、音響信号を指向性再生するために、従来技術から公知のマルチスピーカシステム(multi-speaker display device)を使用することができる。このマルチスピーカシステムの再生パラメータも同様に、時間に依存して求められた主放射方向によって制御される。この再生パラメータの制御の他に、回転式メカニズムの制御も可能である。録音空間内に複数の音源が設けられている場合、再生空間内において各音源に対し、1つのマルチスピーカシステムを設けることができる。
音響信号を指向性再生するためには、従来技術から公知である別の再生手法を使用することもできる。その際には、この再生手法の再生パラメータを、時間に依存して求められた主放射方向に相応して制御しなければならない。
本発明はさらに、情報を有する音源の特性の録音、伝送および感覚に近似的な再生を可能にするシステムを提供するという課題を基礎とする。
前記課題は、時変性の指向特性を有する1つまたは複数の音源の音響信号を録音空間内において録音手段によって録音し、音響再生手段によって該音響信号を再生空間内で再生するために構成された次のようなシステム、すなわち、該1つまたは複数の音源から送出された音響信号の主放射方法を時間に依存して検出するための手段と、伝送された該音響信号の再生を、検出された主放射方向に依存して行うための手段とを有するシステムによって解決される。
前記システムは、1つの音源に所属する少なくとも2つの音捕捉ユニットを有することができ、該音捕捉ユニットは、該音源から送信された音響信号と該音響信号の主放射方向とを捕捉するために使用される。これに対して択一的または補足的に、前記システムは主放射方向を識別するための光学的手段を有することもできる。
前記主放射方向を識別するための手段は、たとえばマイクロフォン、またはマイクロフォンアレイ、または、とりわけパターン識別部を有するビデオ検出手段とすることができる。
音響信号の再生は、音源に所属する第1の再生ユニットと、該第1の再生ユニットから離隔されて配置された第2の再生ユニットとによって行うことができる。再生空間内の第1の再生ユニットの位置は、該再生空間内の音源の仮想的位置に相応することができる。
1つまたは複数の第2の再生ユニットによる再生は、指向性の音波放射を主体的に生成するために、第1の再生ユニットに対して時間遅延τによって行うことができる。第2の再生ユニットが複数である場合、各1つの第2の再生ユニットに対して個別の時間遅延を選択することができる。
前記システムはたとえば、ビデオ会議において音伝達のために使用することができる。ここでは、会議の参加者が留まる固定的な位置が設けられる。参加者位置に依存して、1つまたは複数の第2の再生ユニットの時間遅延τを次のように選択することができる。すなわち、再生空間内の少なくとも各参加者位置における音響信号間の実際の時間遅延が2ms〜100msの間になり、有利には5ms〜80msの間になり、とりわけ10ms〜40msの間になるように選択することができる。
第1の再生ユニットおよび/または(複数の)第2の再生ユニットによる再生は、低減されたレベルで、かつ/または、とりわけ主放射方向に依存して行うことができ、とりわけ1〜6dB低減されたレベルで行うことができ、有利には2〜4dB低減されたレベルで行うことができる。
もちろん、1つの音源の音響信号を伝送するためのシステムを複数の音源の音響信号の伝送に拡大することも可能である。このことは、上記手段を単純に倍化することによって行うことができる。また有利には、所定の手段が録音側の複数の音源に割り当てられるように必要な手段を削減することもできる。択一的または補足的に、再生側の再生手段も複数の割り当て関係を有することができる。上記で本発明による方法に関して説明された割り当て手段は、システムにも同様に当てはまる。とりわけ、音捕捉ユニットおよび/または音響再生ユニットの数は音源の数+2に相応することができる。
従属請求項に本方法および本システムの別の実施形態が記載されている。
以下で、添付された各図を参照して、選択された実施例に基づいて本発明を詳細に説明する。
図1 マイクロフォンアレイを示す。
図2Aおよび2B 音源の主放射方向を検出するための音響的手法を簡略化して説明する図である。
図3 基準音波レベルによる音源の主放射方向の検出を示す。
図4 録音空間内にある音源が複数である場合の方向検出方法を示す。
図5 各音源ごとに専用の方向検出手段を使用する方法を示す。
図6 第1の再生ユニットと少なくとも1つの離隔された第2の再生ユニットとを有する音源の再生方法を示す。
図7Aおよび7B 第1の再生ユニットおよび第2の再生ユニットを実現するための種々の手段を示す。
図8Aおよび8B 第1の再生ユニットと複数の相互に離隔された第2の再生ユニットとによる音源の再生方法を示す。
図9 複数の音源の再生方法を示し、ここでは第1の再生ユニットと第2の再生ユニットとがオーバーラップしている。
図10Aおよび10B 図5に示された方向検出のための再生方法を簡略化して示す図である。
図1に示されたマイクロフォンアレイMAは、録音空間内の音源Tの主放射方向を検出するのに使用される。
音源Tの主放射方向はマイクロフォンアレイMAによって、すなわち、相互に接続された複数の個々のマイクロフォンアレイMによって検出される。こうするためには、音源TはこれらのマイクロフォンMAによって任意の形で包囲され、たとえば図1に示されたように環状に包囲される。
第1のステップにおいて、マイクロフォンMに対する音源Tの位置を検出し、音源TとマイクロフォンMとの間のすべての間隔rが既知になる。音源Tの位置はたとえば測定によって検出されるか、または従来の位置検出アルゴリズムによって検出される。この位置検出では、音波放射に関して顕著な優先方向を有さない周波数領域のみを適切なフィルタによって考慮することが有利である。このことは多くの場合、低い周波数領域に当てはまり、たとえば約500Hzを下回る音声に当てはまる。
音源Tの主放射方向は、マイクロフォンMで検出された音波レベルから求めることができる。こうするためには、異なる音波減衰や、個々のマイクロフォンMと音源Tとの間の間隔rが異なることに起因する伝搬時間差を考慮する。方向選択性のマイクロフォンMの場合、マイクロフォンMの指向特性を主放射方向の検出で使用することもできる。
マイクロフォンによって検出される方向が多いほど、主放射方向の検出はより正確になる。その逆に、(a)主放射方向を大まかに検出すればよい場合、たとえば3段または5段の段階付けで完全に十分であり、これに相応して方向検出手段をこれらの方向に配置するので十分である場合、必要なマイクロフォンの数を低減することができる。または、(b)制限された角度領域に主放射方向が限定される場合、たとえば電話会議の場合の発話方向は通常、前方に向かう方向の角度領域に制限され、ここでも必要なマイクロフォンの数を低減することができる。
マイクロフォンは方向検出手段としても、またそれと同時に、音源の音響信号を録音するための音捕捉手段としても使用することができる。音源の位置と、場合によっては検出された主放射方向とに基づいて、録音される音響信号に対する個々のマイクロフォンの寄与を制御するマイクロフォンの重みづけを検出することができる。
図2Aおよび2Bは、図1の方法より簡略化された音源の主放射方向を検出するための音響的方法を示す。
図1の比較的面倒な方法の代わりに、主放射方向を検出するために、図1と同様の基本原理にしたがって異なる方向の音波レベルを相応の補正によって検出する非常に簡略化された方法を使用することもできる。しかし主放射方向は、異なる方向で検出されたレベル比と所定の基準との比較によって検出される。音源の指向特性が、測定結果、測定結果から得られる近似、数学的関数またはモデルないしはシミュレーション等の形態で得られる場合、これらを主放射方向の検出のための基準として使用することができる。基準として選択された音源の指向特性の近似の複雑性に応じて、主放射方向を検出するのに必要とされるマイクロフォンは僅かのみになる。基準の精度ひいては複雑性は、主放射方向をどの程度正確に検出すべきかに依存する。主放射方向を大まかに検出するので十分である場合には、非常に簡単な基準を選択することができる。異なる方向で音波レベルを検出するためのマイクロフォンの数および位置は、基準とともに該マイクロフォンに関する音源の指向特性の位置を一義的に検出するために、該マイクロフォンによってサンプリングされる方向が十分であるように選択しなければならない。
音声信号の場合、たとえば図2Aに概略的に示されているように、指向特性に対する基準が非常に簡単であることを前提とする場合、主放射方向を、それぞれ60°〜120°の角度を成すように位置決めされた少なくとも3つのマイクロフォンによって、有利には4つのマイクロフォンによって十分な精度で検出することができる。図2Bに、4つのマイクロフォンM〜Mがそれぞれ90°の角度を成す一例が示されている。
可能な主放射方向が所定の角度領域に制限される場合、図2Aに示された基準をさらに簡略化することもできる。たとえば会議の場合、参加者が相互に前後に着席していない場合には、後方向の主放射方向を除外することができる。この場合、図2Aの基準は、後ろを向いているピークは考慮されないように簡略化される。すなわち基準として、近似的に腎臓形の指向特性のみが前提とされるように簡略化される。この場合、主放射方向を十分に正確に検出するためには、60°〜120°の角度を成す2つのマイクロフォンで十分である。たとえば図2Bでは、発話者Sの後方に位置決めされた2つのマイクロフォンMおよびMを省略することができる。
上記の2つの基準パターンによる音声の指向特性の近似は、多くのアプリケーションにおいて十分であることが判明しており、とりわけ、自然な再構築のために主放射方向を比較的大まかに検出するので十分である会議アプリケーションにおいて十分であることが判明している。主放射方向をより正確に検出するためには、ビデオ会議アプリケーションではさらに、パターン識別部を有する1つまたは複数の光学的手段を使用することができる。また、主放射方向の検出を、前置接続された周波数フィルタによって、情報を搬送する周波数領域に制限することもできる。
図1のように、方向検出のために設定されたマイクロフォンは、同時に音源の音響信号を録音するための音捕捉手段としても使用することができる。
図3に、基準音波レベルによる音源の主放射方向の検出が示されている。音源Tの主放射方向は、基準として設けられた音源の指向特性と既知の方向の該音源の実際の基準音波レベルとによって検出することができる。図2で説明された方法と比較してこの方法では、より複雑な基準指向特性でも、主放射方向を検出するために使用されるマイクロフォンMを格段に少なくすることができる。既知の方向の基準音波レベルに基づいて、マイクロフォンMによって設定された方向でこの基準音波レベルに対して相対的な減衰量を検出することができる。もちろんこの方法でも、マイクロフォンMと音源Tとの間隔に関する必要な補正と、マイクロフォンの指向特性とを考慮しなければならない。この補正では、周辺のジオメトリに関する知識と、これに関連する音響伝搬の条件も、たとえば反射特性も使用することができる。このようにして検出された相対的な減衰量と基準として設けられた音源Tの指向特性とを比較することにより、主放射方向が得られる。
基準音波レベルはたとえば、音源Tの方向変化に常に追従するピンマイクMによって検出することにより、これによって検出される音響信号の方向が常に等しくなり、ひいては既知であるようにすることができる。有利なのは、基準音波レベルの方向が主放射方向と一致することである。基準音波レベルを検出するのに使用されるマイクロフォンMは、同時に音響信号を録音するための音響的手段としても使用することができる。
たとえば、音声信号の指向特性に対する基準として、図2Aに示された近似が設けられている場合、音源の主放射方向を、約60°〜120°の角度領域を成す2つの方向検出マイクロフォンMと、基準音波レベルを検出するためのマイクロフォンMとのみで比較的精確に検出することができる。
この方法でも、主放射方向の検出を適切な周波数フィルタによって、情報を搬送する周波数領域に制限することができる。
図4に、録音空間内にある音源が複数である場合の方向検出方法が示されている。録音空間内の複数の音源T〜Tの個々の主放射方向は、設けられているすべての音源に所属する1つの方向検出音響的手段だけで検出される。
図4に示されているように録音空間内に複数の音源Tが設けられている場合、各個別の音源の主放射方向は、上記で1つの音源に関して説明されたのと同様の方法で検出することができる。しかしこうするためには、個々の音源Tの音響信号を方向検出のために相互に分離して得られなければならない。所与の時点で音波を放射する音源が1つだけである場合には、自然とそうなる。しかし、2つ以上の音源が同時に音波を放射する場合、方向検出手段のマイクロフォンM〜Mによってすべて同時に検出される個々の音源の音響信号は、方向検出のために予め、適切な手法で相互に分離しなければならない。この分離は、たとえば従来の音源分離アルゴリズムによって行われる。基準信号として、音源の分離された音響信号が既知である場合、該音響信号を相応の音源に特に簡単に対応付けることができる。このような基準信号はたとえば、図4に示されているように、各音源ごとに音響信号を録音するために別個に音響的手段を使用し、たとえばマイクロフォンMT,MTおよびMTを使用する場合に得られる。主放射方向を検出すべき対応する音源に所属しないすべての音響信号は、方向検出のために抑圧される。音響信号を基準信号によって分離することは、方向検出手段(M〜M)のマイクロフォンと音響信号の録音のために設けられた手段(MT,MTおよびMT)とで得られる異なる伝達関数も考慮することによって改善することができる。
図4に示された実施例では、個々の音源の主放射方向を方向検出手段によって別個に検出することは、図2に示された方法にしたがって実施される。同図で説明されたように方向検出手段は、約60°〜120°の角度領域を成す4つのマイクロフォンから構成することができるが、参加者の前方に位置決めされた2つのマイクロフォンのみを使用することも可能である。
図5に、各音源ごとに専用の方向検出手段を使用する方法が示されている。録音空間内の複数の音源T〜Tの主放射方向を検出するために、各音源に専用の方向検出手段M〜Mを割り当てることができる。各音源は方向検出のための専用の手段を有するので、この形式の方法では、所属の音源に対する音響信号の分離を行う必要はない。図5に示された実施例では、各音源の主放射方向は、図2に示された方法によって検出される。多くの会議アプリケーションでは、とりわけビデオ会議でも、後方向の発話方向はたいてい除外することができるので、音源の主放射方向を十分に正確に検出するためには2つのマイクロフォンで十分である。
音源の音響信号は図5では、各音源T〜Tに所属する音源ごとの付加的なマイクロフォンM′〜M′によって選択的に録音されるか、または方向検出マイクロフォンM〜Mを音響信号の録音にも同時に使用する。
図6に、第1の再生ユニットと少なくとも1つの離隔された第2の再生ユニットとを有する音源の再生方法が示されている。
録音空間内で録音される音源の音響信号TSは再生空間内において、該音源に所属する第1の再生ユニットWE1によって再生される。第1の再生ユニットWE1の位置は、再生空間内の音源の仮想的位置に相応するように選択される。ビデオ会議の場合、この仮想的位置はたとえば、空間内において音源の視覚的表現が存在する位置にある。
音響再生の方向情報を伝達するためには、第1の再生ユニットから離隔された少なくとも1つの第2の再生ユニットWE2が使用される。こうするために有利には、2つの第2の再生ユニットを使用し、これらのうち1つの再生ユニットを第1の再生ユニットWE1の一方の側に配置し、他方の再生ユニットを他方の側に配置することができる。このような構成により、第1の再生ユニットを中心として、すなわちこの位置に位置決めされた仮想的音源を中心として180°の角度領域で音源の主放射方向の変化をシミュレートすることができる。放射方向に関する情報は、第2の再生ユニットによる再生を第1の再生ユニットより遅延して行うことにより伝達される。時間遅延τはここでは、再生空間の少なくとも部分空間において音響信号間の実際の時間遅延Δt=tWE2−tWE1が2ms〜100msの間になり、このことによって受信側において、すなわちたとえば、このような部分領域内に存在するビデオ会議の受信側の参加者において、実際の時間遅延が2ms〜100msの間になるように選択すべきである。
録音空間内で検出された主放射方向HRは、減衰要素aを介して第2の再生ユニットにおける再生レベルを制御する。たとえば、空間の右側の方に方向づけされた音源の主放射方向をシミュレートするためには、音響信号は、左側に存在する第2の再生ユニットでは完全に減衰され、右側の第2の再生ユニットを介してのみ、第1の再生ユニットに対して遅延されて再生される。
上記の手法はもちろん、録音空間内の複数の音源に対しても適用することができる。こうするためには相応に複数の第1の再生ユニットと第2の再生ユニットとを使用しなければならない。
図7Aおよび7Bに、第1の再生ユニットおよび第2の再生ユニットを実装するための種々の手段が示されている。
第1の再生ユニットWE1も第2の再生ユニットWE2も、図7Aに示されているように、それぞれ1つの実際のスピーカによって実現するか、または、空間内の相応の位置におけるスピーカ群によって実現することができる。またこれらの再生ユニットは、たとえば波面合成によって適切な位置に配置されるそれぞれ1つの仮想的な音源によって実現することもできる。このことは図7Bに示されている。もちろん、実際の音源と仮想的な音源との混合的な構成も可能である。
図8Aおよび8Bに、第1の再生ユニットと複数の相互に離隔された第2の再生ユニットとを有する音源の再生方法が示されている。
図6で説明された基本的方法は、音源の方向情報を可能な限り感覚に近似的に再生するために、以下で説明される補足によって拡張することができる。
第1の再生ユニットWE1の各側にそれぞれ1つの第2の再生ユニットを設ける代わりに、図8Aに示されたように、相互に離隔された複数の第2の再生ユニットWE2を使用することもできる。個々の再生ユニットWE2に対する遅延時間τは、各再生ユニットごとに個別に選択することができる。たとえば、再生ユニットWE2と再生ユニットWE1との間隔が拡大するほど、相応の遅延時間をより短く選択するのが特に有利である。その際には、図6で説明されるように、再生空間の少なくとも部分領域内において音響信号間の実際の時間遅延が2ms〜100msの間となり、有利には5ms〜80msの間となり、とりわけ20ms〜40msの間となるように留意しなければならない。
図8Aに示されているように、音源のシミュレートすべき指向特性に相応して、音響信号TSを(複数の)第2の再生ユニットWE2による再生前に、付加的にフィルタFによって処理することもでき、たとえばハイパスフィルタまたはローパスフィルタまたはバンドパスフィルタによって処理することもできる。
放射方向を可能な限り感覚に近似的に再生するために、第1の再生ユニットおよび第2の再生ユニットの再生レベルを、シミュレートすべき指向特性に依存して適合することもできる。こうするためには再生レベルは、減衰要素aによって、異なる聴取位置で前記指向特性から得られる知覚可能な音量差が適切に近似されるように設定される。個々の再生ユニットにおけるこのようにして求められた減衰量を、異なる主放射方向HRに対して定義して記憶することができる。その際には、時変性の指向特性を有する音源の場合、検出された主放射方向が個々の再生ユニットの再生レベルを制御する。
図8Bに一例として、主放射方向HRに依存する1つの第1の再生ユニットと該第1の再生ユニット(の各側にそれぞれ2つ設けられた第2の再生ユニットWE1,WE2L1,WE2L2,WE2R1,WE2R2)との減衰関数が概略的に図解されている。これは、指向性再生を制御するために記憶して設けることができる。簡略化するために、対数レベル値の代わりに、相応の再生ユニットの音圧が音響信号の音圧との比pTSで示されている。検出および伝送された主放射方向HRに依存して、各再生ユニットの減衰要素aは、記憶された設定に相応して調整される。ここで選択された例では、すべての可能な主放射方向において、第1の再生ユニットのレベル値は第2の再生ユニットの相応のレベル値以上であるか、または、第2の再生ユニットの相応のレベル値より最大10dB小さいか、ないしはより有利には、3〜6dB小さい。
上記の手法はもちろん、録音空間内の複数の音源に対しても適用することができる。こうするためには相応に複数の第1の再生ユニットと第2の再生ユニットとを使用しなければならない。
図9に、複数の音源の再生方法が示されており、ここでは第1の再生ユニットと第2の再生ユニットとがオーバーラップしている。
録音空間内に複数の音源が設けられている場合、図6および8で説明されたように、音源の音響信号は再生空間内で第1の再生ユニットとおよび第2の再生ユニットによって再生される。しかし、各音源ごとに専用の第1の再生ユニットおよび第2の再生ユニットを設けない場合、必要な再生ユニットの数を格段に低減することができる。その代わり再生ユニットを、異なる音源に対して第1の再生ユニットとしても第2の再生ユニットとしても同時に使用することができる。特に有利には、第1の再生ユニットを各音源に割り当て、再生空間内の各音源の仮想的位置に設ける。その際には、音源に対する第2の再生ユニットとして、隣接する音源の第1の再生ユニットを使用することができる。付加的に、すべての音源または少なくとも一部に対してもっぱら第2の再生ユニットとして使用される再生ユニットも使用することができる。
図9に、4つの音源を有する一例が示されている。ここでは、各音源に1つの第1の再生ユニットが所属しており、該第1の再生ユニットの各側に、最大2つの例外まで、さらに2つの第2の再生ユニットが所属する。4つの音源の音響信号TS1,TS2,TS3およびTS4は、該音源に所属する第1の再生ユニットWE1によって再生され、これらの第1の再生ユニットWE1は、再生空間内の音源の相応の仮想的位置に配置されている。第1の再生ユニットWE1は、さらに同時に、隣接する音源に対する第2の再生ユニットWE2としても使用される。これらの第2の再生ユニットの時間遅延τは有利には、再生空間の少なくとも部分領域における音響信号間の実際の時間遅延が5ms〜20msの間になるように選択される。付加的にこの実施例では、さらに2つの再生ユニットWE2′が設けられている。これらの再生ユニットはもっぱら、4つすべての音源に対する第2の再生ユニットとして使用される。これら第2の再生ユニットの時間遅延72は、再生空間内において受信側における音響信号間の実際の時間遅延、すなわちたとえばビデオ会議の受信側の参加者における音響信号間の実際の時間遅延が、20ms〜40msの間になるように選択される。
図8に示されているように、録音空間内で検出された音源の主放射方向HRが、各減衰要素aを介して第1の再生ユニットおよび第2の再生ユニットの再生レベルを制御する。もちろん、この音響信号を付加的にフィルタFによって処理することもできる。このフィルタは、各音響信号または各再生ユニットWE2ないしはWE2′ごとに個別に選択することができる。再生ユニットを介して再生され加算される音響信号の数は変化するので、有利には、再生レベルを実際の数に相応して正規化エレメントNOMによって正規化する。
図10Aおよび10Bに、図5に示された方向検出のための再生方法が簡略化して示されている。ここでは、各音源に専用の方向検出音響的手段が所属している。
図5で説明されたように、録音空間内の複数の音源の主放射方向を検出するために、各音源に方向検出手段を割り当てることができる。この場合、第1の再生ユニットおよび第2の再生ユニットによる放射方向の再生を、相応の音源の異なる方向で検出された音響信号によって直接行うことができる。以下の実施例で、1つの音源を例にしてこの再生方法を説明する。複数の音源の場合、この方法を同一の基本原理にしたがって適切に拡張しなければならない。ここでは、第1の再生ユニットおよび第2の再生ユニットの所要数を低減するために、例9で説明されたオーバーラップする再生ユニットの技術を使用する。
図10Aに音源が、該音源に所属する主放射方向検出手段と、録音空間内の音響信号TSを録音するためのオプションであるマイクロフォンとともに示されている。放射方向を検出するために、この例では4つのマイクロフォンが使用される。これらのマイクロフォンは、音響信号TR90,TR45,TL90およびTL45を録音する。音源の音響信号TSを録音するために、専用のマイクロフォンを設けることができる。または、音響信号を再生時に、図10Bに示されたように、方向検出手段の録音された音響信号から形成される。
図10Bに、第1の再生ユニットおよび第2の再生ユニットによる再生方法が示されている。方向情報を伝達するためには、相応の第2の再生ユニットWE2を介して、方向検出手段によって録音された音響信号TR90,TR45,TL90およびTL45を音響信号TSに対して遅延して再生する。時間遅延τは、前記の実施例で説明されたように選択することができる。方向に依存するレベル差はすでに方向検出手段の録音された音響信号中に含まれるので、第2の再生ユニットを主放射方向によってレベル制御する必要はないので、減衰要素aは単なるオプションである。音響信号は付加的に、第2の再生ユニットWE2による再生前に、シミュレートすべき指向特性に相応して、フィルタFによって処理することができる。
音源の音響信号TSの再生は、第1の再生ユニットを介して行われる。その際には音響信号TSは、専用のマイクロフォンによって録音された音響信号であるか、または、たとえば音響信号TR90,TR45,TL90およびTL45のうち最大の音響信号または4つの音響信号の和を使用することにより、音響信号TSは該音響信号から形成される。図10Bに、一例として和形成が示されている。
ここで説明された再生方法の音質は確かにコームフィルタ効果によって妨害されることがあるが、この方法は簡略的であるため、多くのアプリケーションにおいて一貫して有利である。
マイクロフォンアレイを示す。 音源の主放射方向を検出するための音響的手法を簡略化して説明する図である。 基準音波レベルによる音源の主放射方向の検出を示す。 録音空間内にある音源が複数である場合の方向検出方法を示す。 各音源ごとに専用の方向検出手段を使用する方法を示す。 第1の再生ユニットと少なくとも1つの離隔された第2の再生ユニットとを有する音源の再生方法を示す。 第1の再生ユニットおよび第2の再生ユニットを実現するための種々の手段を示す。 第1の再生ユニットと複数の相互に離隔された第2の再生ユニットとによる音源の再生方法を示す。 複数の音源の再生方法を示し、ここでは第1の再生ユニットと第2の再生ユニットとがオーバーラップしている。 図5に示された方向検出のための再生方法を簡略化して示す図である。

Claims (16)

  1. 録音空間内に配置され時変性の指向特性を有する音源の音響信号を音捕捉手段によって捕捉し、該音響信号を再生空間内において音響再生手段によって再生する方法において、
    該音源から送出された音響信号の主放射方向を時間に依存して検出し、該音響信号の再生を、検出された該主放射方向に依存して行い、
    該音響信号の再生を、該音源に所属する第1の再生ユニットと、該第1の再生ユニットから離隔されて配置された少なくとも1つの第2の再生ユニットとによって行い、
    該第2の再生ユニットによる再生を、該第1の再生ユニットに対して時間遅延τで、かつ、検出された前記主放射方向に依存して前記第1の再生ユニットより低減したレベルで行うことにより、前記音源の指向特性をシミュレートする
    ことを特徴とする方法。
  2. 前記音源の音響信号を音捕捉手段によって捕捉し、送出された該音響信号の主放射方向を方向検出手段によって検出する、請求項1記載の方法。
  3. 前記方向検出手段は音響的方式であり、とりわけマイクロフォンおよび/または1つまたは複数のマイクロフォンアレイである、請求項2記載の方法。
  4. 前記方向検出手段は光学的方式であり、とりわけ、パターン認識部を有するビデオ検出部である、請求項2または3記載の方法。
  5. 前記再生空間内における前記第1の再生ユニットの位置は、該再生空間内の前記音源の仮想的位置に相応する、請求項1から4までのいずれか1項記載の方法。
  6. 前記時間遅延τは次のように選択される、すなわち、前記再生空間の少なくとも部分領域内において音響信号間の時間遅延が2ms〜100msの間となり、有利には5ms〜80msの間となり、とりわけ10ms〜40msの間となるように選択される、請求項1から5までのいずれか1項記載の方法。
  7. 記(複数の)第2の再生ユニットによる再生を前記主放射方向に依存して1〜6dB低減されたレベルで行い、有利には2〜4dB低減されたレベルで行う、請求項1から6までのいずれか1項記載の方法。
  8. 前記再生ユニットは、スピーカまたはスピーカの群であるか、またはスピーカアレイであるか、またはこれらの組み合わせであるか、または仮想音源であり、該仮想音源はとりわけ、波面合成によって生成された仮想音源である、請求項1から7までのいずれか1項記載の方法。
  9. 前記録音空間内に配置された複数の音源の音響信号を捕捉し、前記再生空間において再生する、請求項1から8までのいずれか1項記載の方法。
  10. 各音源に音捕捉手段が割り当てられている、請求項9記載の方法。
  11. 前記音源に割り当てられていない音捕捉手段によって受信された音源の音響信号をエコー抑圧またはクロストーク抑圧(cross talk cancellation)によって抑圧する、請求項10記載の方法。
  12. 時変性の指向特性を有する1つまたは複数の音源の音響信号を録音空間内において音捕捉手段によって録音し、音響再生手段によって該音響信号を再生空間内で再生するためのシステムにおいて、
    該1つまたは複数の音源から送出された音響信号の主放射方向を時間に依存して検出するための検出手段と、
    伝送された該音響信号の再生を、検出された該主放射方向に依存して行うための再生手段
    とを有し、
    音源の音響信号が、当該音源に所属する第1の再生ユニットと、当該第1の再生ユニットから離隔されて配置された少なくとも1つの第2の再生ユニットとによって再生され、
    前記第2の再生ユニットは、前記第1の再生ユニットに対して時間遅延τで再生を行い、
    記第2の再生ユニットによる再生検出された前記主放射方向に依存して前記第1の再生ユニットより低減したレベルでうことにより、前記音源の時変性の指向特性がシミュレートされることを特徴とするシステム。
  13. 1つの音源に所属する少なくとも2つの音捕捉手段を有し、
    該音捕捉手段は、該音源から送信された音響信号と該音響信号の主放射方向とを捕捉するために使用される、請求項12記載のシステム。
  14. 1つの音源に所属する少なくとも1つの音捕捉手段を有し、
    該音捕捉手段は、該音源から送信された音響信号を捕捉するために使用され、
    該音響信号の主放射方向を識別するための光学的手段が設けられている、請求項12記載のシステム。
  15. 前記音捕捉手段および/または音響再生手段の数は、前記音源の数+2に相応する、請求項12から14までのいずれか1項記載のシステム。
  16. 前記音響再生手段は、スピーカまたはスピーカの群であるか、またはスピーカアレイであるか、またはこれらの組み合わせであるか、または仮想音源であり、該仮想音源はとりわけ、波面合成によって生成された仮想音源である、請求項12から15までのいずれか1項記載のシステム。
JP2008542667A 2005-11-30 2006-11-30 時変性の指向特性を有する音源を録音および再生する方法 Expired - Fee Related JP5637661B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102005057406.8 2005-11-30
DE102005057406A DE102005057406A1 (de) 2005-11-30 2005-11-30 Verfahren zur Aufnahme einer Tonquelle mit zeitlich variabler Richtcharakteristik und zur Wiedergabe sowie System zur Durchführung des Verfahrens
PCT/EP2006/011496 WO2007062840A1 (de) 2005-11-30 2006-11-30 Verfahren zur aufnahme einer tonquelle mit zeitlich variabler richtcharakteristik und zur wiedergabe

Publications (2)

Publication Number Publication Date
JP2009517936A JP2009517936A (ja) 2009-04-30
JP5637661B2 true JP5637661B2 (ja) 2014-12-10

Family

ID=37834166

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008542667A Expired - Fee Related JP5637661B2 (ja) 2005-11-30 2006-11-30 時変性の指向特性を有する音源を録音および再生する方法

Country Status (5)

Country Link
US (2) US20080292112A1 (ja)
EP (1) EP1977626B1 (ja)
JP (1) JP5637661B2 (ja)
DE (1) DE102005057406A1 (ja)
WO (1) WO2007062840A1 (ja)

Families Citing this family (195)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
DE102005033239A1 (de) * 2005-07-15 2007-01-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Steuern einer Mehrzahl von Lautsprechern mittels einer graphischen Benutzerschnittstelle
DE102005033238A1 (de) * 2005-07-15 2007-01-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Ansteuern einer Mehrzahl von Lautsprechern mittels eines DSP
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
JP5235724B2 (ja) * 2008-10-21 2013-07-10 日本電信電話株式会社 発話正面・横向き推定装置、方法及びプログラム
JP5235605B2 (ja) * 2008-10-21 2013-07-10 日本電信電話株式会社 発話向き推定装置、方法及びプログラム
JP5366043B2 (ja) * 2008-11-18 2013-12-11 株式会社国際電気通信基礎技術研究所 音声記録再生装置
US9959870B2 (en) 2008-12-11 2018-05-01 Apple Inc. Speech recognition involving a mobile device
EP2380365A1 (en) 2008-12-18 2011-10-26 Dolby Laboratories Licensing Corporation Audio channel spatial translation
JP5235723B2 (ja) * 2009-03-02 2013-07-10 日本電信電話株式会社 発話向き推定装置、方法及びプログラム
JP5235722B2 (ja) * 2009-03-02 2013-07-10 日本電信電話株式会社 発話向き推定装置、方法及びプログラム
JP5235725B2 (ja) * 2009-03-03 2013-07-10 日本電信電話株式会社 発話向き推定装置、方法及びプログラム
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10255566B2 (en) 2011-06-03 2019-04-09 Apple Inc. Generating and processing task items that represent tasks to perform
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
CN107071688B (zh) * 2009-06-23 2019-08-23 诺基亚技术有限公司 用于处理音频信号的方法及装置
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US8560309B2 (en) * 2009-12-29 2013-10-15 Apple Inc. Remote conferencing center
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US8452037B2 (en) 2010-05-05 2013-05-28 Apple Inc. Speaker clip
US10353495B2 (en) 2010-08-20 2019-07-16 Knowles Electronics, Llc Personalized operation of a mobile device using sensor signatures
US8644519B2 (en) 2010-09-30 2014-02-04 Apple Inc. Electronic devices with improved audio
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US8811648B2 (en) 2011-03-31 2014-08-19 Apple Inc. Moving magnet audio transducer
US9007871B2 (en) 2011-04-18 2015-04-14 Apple Inc. Passive proximity detection
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US20130028443A1 (en) 2011-07-28 2013-01-31 Apple Inc. Devices with enhanced audio
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US8989428B2 (en) 2011-08-31 2015-03-24 Apple Inc. Acoustic systems in electronic devices
US8879761B2 (en) 2011-11-22 2014-11-04 Apple Inc. Orientation-based audio
CN104081334B (zh) * 2011-11-30 2018-10-26 诺基亚技术有限公司 用于音频反应ui信息的装置和方法以及显示器
EP2600343A1 (en) * 2011-12-02 2013-06-05 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for merging geometry - based spatial audio coding streams
US8903108B2 (en) 2011-12-06 2014-12-02 Apple Inc. Near-field null and beamforming
US9020163B2 (en) 2011-12-06 2015-04-28 Apple Inc. Near-field null and beamforming
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US9820033B2 (en) 2012-09-28 2017-11-14 Apple Inc. Speaker assembly
US8858271B2 (en) 2012-10-18 2014-10-14 Apple Inc. Speaker interconnect
US9357299B2 (en) 2012-11-16 2016-05-31 Apple Inc. Active protection for acoustic device
US8942410B2 (en) 2012-12-31 2015-01-27 Apple Inc. Magnetically biased electromagnet for audio applications
KR20150104615A (ko) 2013-02-07 2015-09-15 애플 인크. 디지털 어시스턴트를 위한 음성 트리거
US20140272209A1 (en) 2013-03-13 2014-09-18 Apple Inc. Textile product having reduced density
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
CN105027197B (zh) 2013-03-15 2018-12-14 苹果公司 训练至少部分语音命令系统
WO2014155153A1 (en) 2013-03-27 2014-10-02 Nokia Corporation Image point of interest analyser with animation generator
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
CN105264524B (zh) 2013-06-09 2019-08-02 苹果公司 用于实现跨数字助理的两个或更多个实例的会话持续性的设备、方法、和图形用户界面
KR101809808B1 (ko) 2013-06-13 2017-12-15 애플 인크. 음성 명령에 의해 개시되는 긴급 전화를 걸기 위한 시스템 및 방법
DE112014003653B4 (de) 2013-08-06 2024-04-18 Apple Inc. Automatisch aktivierende intelligente Antworten auf der Grundlage von Aktivitäten von entfernt angeordneten Vorrichtungen
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
JP6242262B2 (ja) * 2014-03-27 2017-12-06 フォスター電機株式会社 音響再生装置
US9500739B2 (en) 2014-03-28 2016-11-22 Knowles Electronics, Llc Estimating and tracking multiple attributes of multiple objects from multi-sensor data
US9451354B2 (en) 2014-05-12 2016-09-20 Apple Inc. Liquid expulsion from an orifice
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
EP3149728B1 (en) 2014-05-30 2019-01-16 Apple Inc. Multi-command single utterance input method
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US9606986B2 (en) 2014-09-29 2017-03-28 Apple Inc. Integrated word N-gram and class M-gram language models
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9525943B2 (en) 2014-11-24 2016-12-20 Apple Inc. Mechanically actuated panel acoustic system
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
KR101581619B1 (ko) * 2015-02-04 2015-12-30 서울대학교산학협력단 소리 수집 단말, 소리 제공 단말, 소리 데이터 처리 서버 및 이들을 이용한 소리 데이터 처리 시스템
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US9900698B2 (en) 2015-06-30 2018-02-20 Apple Inc. Graphene composite acoustic diaphragm
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US9858948B2 (en) 2015-09-29 2018-01-02 Apple Inc. Electronic equipment with ambient noise sensing input circuitry
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
WO2017211447A1 (en) 2016-06-06 2017-12-14 Valenzuela Holding Gmbh Method for reproducing sound signals at a first location for a first participant within a conference with at least two further participants at at least one further location
WO2017211448A1 (en) 2016-06-06 2017-12-14 Valenzuela Holding Gmbh Method for generating a two-channel signal from a single-channel signal of a sound source
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US11307661B2 (en) 2017-09-25 2022-04-19 Apple Inc. Electronic device with actuators for producing haptic and audio output along a device housing
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
CN108200527A (zh) * 2017-12-29 2018-06-22 Tcl海外电子(惠州)有限公司 声源响度的测定方法、装置及计算机可读存储介质
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US10496705B1 (en) 2018-06-03 2019-12-03 Apple Inc. Accelerated task performance
US10757491B1 (en) 2018-06-11 2020-08-25 Apple Inc. Wearable interactive audio device
US10873798B1 (en) 2018-06-11 2020-12-22 Apple Inc. Detecting through-body inputs at a wearable audio device
US10764701B2 (en) 2018-07-30 2020-09-01 Plantronics, Inc. Spatial audio system for playing location-aware dynamic content
US11334032B2 (en) 2018-08-30 2022-05-17 Apple Inc. Electronic watch with barometric vent
US11561144B1 (en) 2018-09-27 2023-01-24 Apple Inc. Wearable electronic device with fluid-based pressure sensing
CN114399012A (zh) 2019-04-17 2022-04-26 苹果公司 无线可定位标签

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62190962A (ja) * 1986-02-18 1987-08-21 Nippon Telegr & Teleph Corp <Ntt> 会議通話方式
JPH0444499A (ja) * 1990-06-11 1992-02-14 Nippon Telegr & Teleph Corp <Ntt> 収音装置及び音響再生装置
JPH0449756A (ja) * 1990-06-18 1992-02-19 Nippon Telegr & Teleph Corp <Ntt> 会議通話装置
JP3232608B2 (ja) * 1991-11-25 2001-11-26 ソニー株式会社 収音装置、再生装置、収音方法および再生方法、および、音信号処理装置
US5335011A (en) * 1993-01-12 1994-08-02 Bell Communications Research, Inc. Sound localization system for teleconferencing using self-steering microphone arrays
JPH1141577A (ja) * 1997-07-18 1999-02-12 Fujitsu Ltd 話者位置検出装置
JPH11136656A (ja) * 1997-10-31 1999-05-21 Nippon Telegr & Teleph Corp <Ntt> 通信会議方式の収音送信装置及び受信再生装置
US5940118A (en) * 1997-12-22 1999-08-17 Nortel Networks Corporation System and method for steering directional microphones
JP4716238B2 (ja) * 2000-09-27 2011-07-06 日本電気株式会社 携帯端末装置の音響再生システム及び方法
US7130705B2 (en) * 2001-01-08 2006-10-31 International Business Machines Corporation System and method for microphone gain adjust based on speaker orientation
EP1425909A4 (en) * 2001-08-07 2006-10-18 Polycom Inc SYSTEM AND METHOD FOR HIGH RESOLUTION VIDEOCONFERENCE
JP4752153B2 (ja) * 2001-08-14 2011-08-17 ソニー株式会社 情報処理装置および方法、情報生成装置および方法、記録媒体、並びにプログラム
CA2499754A1 (en) * 2002-09-30 2004-04-15 Electro Products, Inc. System and method for integral transference of acoustical events
NO318096B1 (no) * 2003-05-08 2005-01-31 Tandberg Telecom As Arrangement og fremgangsmate for lokalisering av lydkilde
US20050147261A1 (en) * 2003-12-30 2005-07-07 Chiang Yeh Head relational transfer function virtualizer

Also Published As

Publication number Publication date
EP1977626B1 (de) 2017-07-12
US20080292112A1 (en) 2008-11-27
WO2007062840A1 (de) 2007-06-07
EP1977626A1 (de) 2008-10-08
US20160105758A1 (en) 2016-04-14
JP2009517936A (ja) 2009-04-30
DE102005057406A1 (de) 2007-06-06

Similar Documents

Publication Publication Date Title
JP5637661B2 (ja) 時変性の指向特性を有する音源を録音および再生する方法
JP5533248B2 (ja) 音声信号処理装置および音声信号処理方法
JP5455657B2 (ja) 音声の再現を高めるための方法および装置
JP4059478B2 (ja) 音場制御方法及び音場制御システム
KR101547035B1 (ko) 다중 마이크에 의한 3차원 사운드 포착 및 재생
Watkins Perceptual compensation for effects of reverberation in speech identification
CA2744429C (en) Converter and method for converting an audio signal
JP7352291B2 (ja) 音響装置
JP6404354B2 (ja) 多くの拡声器信号を生成するための装置及び方法、並びにコンピュータ・プログラム
JP2001125578A (ja) 音場再現方法およびその装置
Hládek et al. Communication conditions in virtual acoustic scenes in an underground station
JP2012109643A (ja) 音再現システム、音再現装置および音再現方法
JP2005198251A (ja) 球体を用いた3次元オーディオ信号処理システム及びその方法
WO2018185733A1 (en) Sound spatialization method
Choi et al. A comparison of subjective assessments of recorded music and computer simulated auralizations in two auditoria
JPH06217400A (ja) 音響装置
TWI843757B (zh) 用於針對耳機上空間音訊渲染修改場所特性之系統和方法
JP2004509544A (ja) 耳に近接配置されるスピーカ用の音声信号処理方法
Rosen et al. Automatic speaker directivity control for soundfield reconstruction
Glasgal Improving 5.1 and Stereophonic Mastering/Monitoring by Using Ambiophonic Techniques
Fodde Spatial Comparison of Full Sphere Panning Methods
Rusk et al. Auralization of a virtual living room sound system using measured spatial room impulse responses
Linkwitz Hearing Spatial Detail in Stereo Recordings (Hören von räumlichem Detail bei Stereo Aufnahmen)
Tronchin et al. New acoustical techniques for measuring spatial properties in concert halls
JP2006157210A (ja) マルチチャンネル音場処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091130

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20101228

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20101227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111013

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120110

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120117

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120210

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120217

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120313

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120321

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121207

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130304

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130311

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130404

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130411

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130507

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130514

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131007

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140205

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140217

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20140425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141021

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees