JP6827950B2 - カンファレンスオーディオ管理 - Google Patents

カンファレンスオーディオ管理 Download PDF

Info

Publication number
JP6827950B2
JP6827950B2 JP2017551618A JP2017551618A JP6827950B2 JP 6827950 B2 JP6827950 B2 JP 6827950B2 JP 2017551618 A JP2017551618 A JP 2017551618A JP 2017551618 A JP2017551618 A JP 2017551618A JP 6827950 B2 JP6827950 B2 JP 6827950B2
Authority
JP
Japan
Prior art keywords
audio
buffer
mobile device
audio stream
conference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017551618A
Other languages
English (en)
Other versions
JP2018515009A (ja
JP2018515009A5 (ja
Inventor
ヴェンカトラマン・エス・アッティ
ダニエル・ジェイ・シンダー
ニコライ・レオン
ヴィヴェク・ラジェンドラン
Original Assignee
クアルコム,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クアルコム,インコーポレイテッド filed Critical クアルコム,インコーポレイテッド
Publication of JP2018515009A publication Critical patent/JP2018515009A/ja
Publication of JP2018515009A5 publication Critical patent/JP2018515009A5/ja
Application granted granted Critical
Publication of JP6827950B2 publication Critical patent/JP6827950B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/04Time compression or expansion
    • G10L21/055Time compression or expansion for synchronising with other signals, e.g. video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W56/00Synchronisation arrangements
    • H04W56/004Synchronisation arrangements compensating for timing error of reception due to propagation delay
    • H04W56/0045Synchronisation arrangements compensating for timing error of reception due to propagation delay compensating for timing error by altering transmission time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/65Network streaming protocols, e.g. real-time transport protocol [RTP] or real-time control protocol [RTCP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0852Delays
    • H04L43/087Jitter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/403Arrangements for multi-party communication, e.g. for conferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/764Media network packet handling at the destination 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/562Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities where the conference facilities are distributed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/568Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities audio processing specific to telephonic conferencing, e.g. spatial distribution, mixing of participants
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/007Monitoring arrangements; Testing arrangements for public address systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W80/00Wireless network protocols or protocol adaptations to wireless operation
    • H04W80/04Network layer protocols, e.g. mobile IP [Internet Protocol]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Telephonic Communication Services (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Stereophonic System (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Telephone Function (AREA)

Description

優先権の主張
本願は、「CONFERENCE AUDIO MANAGEMENT」という名称の2016年3月29日出願の米国特許出願第15/083,974号、「CONFERENCE AUDIO MANAGEMENT AT A MOBILE DEVICE」という名称の2015年4月5日出願の米国仮特許出願第62/143,154号、および「CONFERENCE AUDIO MANAGEMENT」という名称の2015年4月7日出願の米国仮特許出願第62/144,033号の優先権を主張し、その内容全体が参照により組み込まれる。
本開示は、一般にはカンファレンスオーディオ管理に関する。
技術の進歩の結果、コンピューティングデバイスはより小型に、より強力になっている。たとえば、現在、小型、軽量であり、ユーザによって容易に持ち運ばれるポータブルワイヤレス電話、携帯情報端末(PDA)、ページングデバイスなどのワイヤレスコンピューティングデバイスを含む様々なポータブルパーソナルコンピューティングデバイスが存在している。より具体的には、セルラー電話やインターネットプロトコル(IP)電話などのポータブルワイヤレス電話は、ワイヤレスネットワークを介して音声およびデータパケットを通信し得る。さらに、多くのそのようなワイヤレス電話は、その中に組み込まれた他のタイプのデバイスを含む。たとえば、ワイヤレス電話はまた、デジタルスチルカメラ、デジタルビデオカメラ、デジタルレコーダ、およびオーディオファイルプレーヤをも含み得る。
3つ以上の対応するワイヤレスデバイスに関連付けられた3人以上の参加者が、「カンファレンスコール」を使用して互いに通信し得る。カンファレンスコールの間に、第1のワイヤレスデバイスは、ネットワークミキサから「ミキシング済みオーディオストリーム」を受信し得る。たとえば、ネットワークミキサは、カンファレンスコールの各参加者からオーディオストリームを受信し得る。オーディオストリームを受信した後、ネットワークミキサは、第2のワイヤレスデバイスからのオーディオストリームを第3のワイヤレスデバイスからのオーディオストリームとミキシングして、ミキシング済みオーディオストリームを生成し、第1のワイヤレスデバイスに供給し得る。ミキシング済みオーディオストリームを生成するために、ネットワークミキサは、各着信オーディオストリームを復号化し、復号化オーディオストリームをミキシングし、ミキシング済み復号化オーディオストリームを再符号化する。しかしながら、ミキシング済みオーディオストリームを生成することに関連するオーディオ処理が遅延を導入し得る。さらに、カンファレンス参加者は中央ネットワークミキサからミキシング済みオーディオストリームを受信するので、参加者オーディオを個々に調整することは不可能であり得る。たとえば、当事者A、B、およびCがカンファレンス中である場合、ネットワークミキサは、当事者Bと当事者Cの両方からの音声を含む単一のミキシング済みストリームを当事者Aに供給するので、当事者Aは、利得調整または空間処理技法を使用して、当事者Bの音声を当事者Cの音声よりも強調することが不可能であり得る。
カンファレンス中のオーディオを管理するためのシステムおよび方法が開示される。特定の実装によれば、個々のカンファレンス参加者からのオーディオの調整を可能にするために、ネットワークミキサが、ミキシング済みストリームを生成する代わりに、個々のオーディオストリームを参加者に中継し得る。たとえば、3者カンファレンスでは、当事者Aが、当事者Bおよび当事者Cからの別々のオーディオストリームをそれぞれ受信し得る。しかしながら、ネットワーク条件の変動のために、当事者Bおよび当事者Cからのストリームが互いに同期されないことがあり、そのことによって、当事者Aのデバイスへの出力が一時的に誤ったものとなり得る。例示のために、当事者Bのストリームが遅延する場合、当事者Aは、当事者Bが述べた質問を、当事者Cによるその質問に対する答えを聴いた後に聴き得る。
本明細書で説明される技法によれば、モバイルデバイスが、バッファ管理を使用して、相異なるデバイスから受信したストリームを同期し得る。たとえば、第1のカンファレンス参加者からの第1のオーディオストリームが、モバイルデバイスの第1のバッファ(たとえば、デジッタバッファ)に供給され得、第2のカンファレンス参加者からの第2のオーディオストリームが、モバイルデバイスの第2のバッファに供給され得る。第1および第2のオーディオストリームの受信時に、遅延コントローラが、第1のオーディオストリームのタイムスタンプを第2のオーディオストリームのタイムスタンプと比較して、第1のカンファレンス参加者からのオーディオを第2のカンファレンス参加者からのオーディオと同期し得る。オーディオの同期は、カンファレンス中のThird Generation Partnership Project(3GPP)技術仕様(TS)26.114遅延要件を満たし得る。たとえば、遅延コントローラは、タイムスタンプに基づいて第1および第2のバッファに制御信号を供給し得、それによって、第1のバッファが、第1のオーディオストリームのリアルタイム転送プロトコル(RTP)パケットを出力するのとほぼ同時に、第2のバッファが、第2のオーディオストリームの対応するRTPパケットを出力する。
同期の後、第1のオーディオストリームおよび第2のオーディオストリームが別々に復号化されて、それぞれ第1の復号化オーディオおよび第2の復号化オーディオが生成され得る。第1および第2の復号化オーディオがミキシングされて、モバイルデバイスにおいてオーディオストリームが出力され得る。いくつかの実装では、第1の頭部伝達関数(HRTF)が第1の復号化オーディオに適用されて、第1の復号化オーディオの第1の利得が調整され、ユーザ定義の設定に基づいて第1の復号化オーディオが空間的にステアリングされ(たとえば、パンされ)得る。さらに、第2のHRTFが第2の復号化オーディオに適用されて、第2の復号化オーディオの第2の利得が調整され、ユーザ定義の設定に基づいて第2の復号化オーディオが空間的にステアリングされ得る。したがって、(ネットワークミキサにおいてオーディオストリームをミキシングして、得られるミキシング済みオーディオストリームをモバイルデバイスに供給するのではなく)モバイルデバイスに第1および第2のオーディオストリームを供給することは、モバイルデバイスが個々のオーディオストリームの特性(たとえば、利得特性および空間パニング特性)を制御することを可能にし得る。具体的には、オーディオパニングは、ミキシング利得を調整することによってレンダリングデバイスが参加者のオーディオレベルを変更または調整することを選ぶことを可能にし得る。さらに、オーディオ空間化は、レンダリングデバイスが参加者を空間的に分散させる(たとえば、仮想シーティング)ように様々なHRTFを選ぶことを可能にし得、そのことは、話者/ワード識別、および同時話者のケースでのより良い理解を改善し得る。さらに、ネットワークミキサにおいてオーディオストリームをミキシングすることに関連する遅延が低減され(たとえば、解消され)得る。
本明細書で説明される技法の一例によれば、カンファレンス中のオーディオを管理するための方法が、モバイルデバイスの第1のバッファにおいて、カンファレンスの第1の参加者に関連付けられた第1のデバイスから第1のオーディオストリームを受信することを含む。方法はまた、モバイルデバイスの第2のバッファにおいて、カンファレンスの第2の参加者に関連付けられた第2のデバイスから第2のオーディオストリームを受信することをも含む。方法は、モバイルデバイスの遅延コントローラにおいて制御信号を生成することをさらに含む。制御信号は、第1のバッファおよび第2のバッファに供給され、第1のバッファから出力される第1のバッファリング済みオーディオが、第2のバッファから出力される第2のバッファリング済みオーディオと同期される。
本明細書で説明される技法の別の例によれば、モバイルデバイスが、カンファレンスの第1の参加者に関連付けられた第1のデバイスから第1のオーディオストリームを受信するように構成された第1のバッファを含む。モバイルデバイスはまた、カンファレンスの第2の参加者に関連付けられた第2のデバイスから第2のオーディオストリームを受信するように構成された第2のバッファをも含む。モバイルデバイスは、制御信号を生成するように構成された遅延コントローラをさらに含む。制御信号は、第1のバッファおよび第2のバッファに供給され、第1のバッファから出力される第1のバッファリング済みオーディオが、第2のバッファから出力される第2のバッファリング済みオーディオと同期される。
本明細書で説明される技法の別の例によれば、非一時的コンピュータ可読媒体は、カンファレンス中のオーディオを管理するための命令を含む。命令は、モバイルデバイス内のプロセッサによって実行されるとき、プロセッサに動作を実施させる。動作は、第1のバッファにおいて、カンファレンスの第1の参加者に関連付けられた第1のデバイスから第1のオーディオストリームを受信することを含む。動作は、第2のバッファにおいて、カンファレンスの第2の参加者に関連付けられた第2のデバイスから第2のオーディオストリームを受信することをさらに含む。動作はまた、遅延コントローラにおいて制御信号を生成することをも含む。制御信号が第1のバッファおよび第2のバッファに供給され、第1のバッファから出力される第1のバッファリング済みオーディオが、第2のバッファから出力される第2のバッファリング済みオーディオと同期される。
本明細書で説明される技法の別の例によれば、装置が、カンファレンスの第1の参加者に関連付けられた第1のデバイスから第1のオーディオストリームを受信するための手段を含む。装置はまた、カンファレンスの第2の参加者に関連付けられた第2のデバイスから第2のオーディオストリームを受信するための手段をも含む。装置は、制御信号を生成するための手段をさらに含む。制御信号は、第1のオーディオストリームを受信するための手段および第2のオーディオストリームを受信するための手段に供給され、第1のオーディオストリームを受信するための手段から出力される第1のバッファリング済みオーディオが、第2のオーディオストリームを受信するための手段から出力される第2のバッファリング済みオーディオと同期される。
開示される実装のうちの少なくとも1つによってもたらされる特定の利点には、ネットワークミキサにおいてカンファレンスでの複数のオーディオストリームをミキシングすることに関連する遅延を低減することが含まれる。たとえば、ネットワークミキサでのオーディオミキシングをバイパスすることは、カンファレンス中の遅延を改善する(たとえば、低減する)。以下のセクションを含む本願全体を検討した後、本開示の他の実装、利点、および特徴が明らかとなるであろう。
カンファレンス中のオーディオを管理するように動作可能であるシステムを示す図である。 カンファレンス中のオーディオを管理するように動作可能である別のシステムを示す図である。 カンファレンス中のオーディオを管理するように動作可能である別のシステムを示す図である。 カンファレンス中のオーディオを管理するように動作可能であるモバイルデバイスの図である。 図2Aのモバイルデバイスの別の実装である。 頭部伝達関数(HRTF)を使用して処理された復号化オーディオを示す図である。 HRTFおよび頭部追跡データを使用して処理された復号化オーディオを示す図である。 インターネットプロトコル(IP)マルチキャストセッションを使用してカンファレンス中のオーディオを管理するように動作可能であるシステムを示す図である。 カンファレンス中のオーディオを管理するための方法を示すフローチャートである。 図1A〜図6のシステム、図、および方法による信号処理動作を実施するように動作可能なモバイルデバイスのブロック図である。
図面を参照しながら本開示の特定の技法を説明する。説明では、図面全体にわたって共通の特徴が共通の参照番号で示される。
図1Aを参照すると、カンファレンス中のオーディオを管理するように動作可能であるシステム100の特定の実装が示されている。システム100は、モバイルデバイス102、第1のデバイス110、第2のデバイス120、第3のデバイス130、およびネットワークデバイス190を含む。一例では、モバイルデバイス102、第1のデバイス110、第2のデバイス120、および第3のデバイス130はそれぞれ、Third Generation Partnership Project(3GPP)規格と互換性のあるユーザ機器(UE)を含み得る。4者カンファレンスが図1Aに示されているが、代替実装では、4人より多い、または少ない当事者がカンファレンスに参加し得ることを理解されたい。
モバイルデバイス102、第1のデバイス110、第2のデバイス120、および第3のデバイス130は、カンファレンス(たとえば、オーディオカンファレンスコール)に参加中であり得る。ネットワークデバイス190は、あるデバイスから、カンファレンスコールに接続された各々の他のデバイスにオーディオ(たとえば、オーディオストリーム)を経路指定するように構成され得る。
例示のために、モバイルデバイス102は、モバイルデバイス102において符号化されるオーディオストリーム104を生成するように構成され得る。オーディオストリーム104は音声(たとえば、ユーザ音声)および/または背景雑音を含み得る。オーディオストリーム104はネットワークデバイス190に供給され得、ネットワークデバイス190は、オーディオストリーム104(またはそのトランスコード/処理済みバージョン)を他のデバイス110、120、130に経路指定し得る。第1のデバイス110は、第1のデバイス110において符号化される第1のオーディオストリーム114を生成するように構成され得る。第1のオーディオストリーム114は、カンファレンスの第1の参加者(たとえば、第1のデバイス110のユーザ)からの音声、および/または第1のデバイス110での背景雑音を含み得る。第1のオーディオストリーム114はネットワークデバイス190に供給され得、ネットワークデバイス190は、第1のオーディオストリーム114(またはそのトランスコード/処理済みバージョン)を他のデバイス102、120、130に経路指定し得る。第2のデバイス120は、第2のデバイス120において符号化される第2のオーディオストリーム124を生成するように構成され得る。第2のオーディオストリーム124は、カンファレンスの第2の参加者(たとえば、第2のデバイス120のユーザ)からの音声、および/または第2のデバイス120での背景雑音を含み得る。第2のオーディオストリーム124はネットワークデバイス190に供給され得、ネットワークデバイス190は、第2のオーディオストリーム124(またはそのトランスコード/処理済みバージョン)を他のデバイス102、110、130に経路指定し得る。第3のデバイス130は、第3のデバイス130において符号化される第3のオーディオストリーム134を生成するように構成され得る。第3のオーディオストリーム134は、カンファレンスの第3の参加者(たとえば、第3のデバイス130のユーザ)からの音声、および/または第3のデバイス130での背景雑音を含み得る。第3のオーディオストリーム134はネットワークデバイス190に供給され得、ネットワークデバイス190は、第3のオーディオストリーム134(またはそのトランスコード/処理済みバージョン)を他のデバイス102、110、120に経路指定し得る。
各オーディオストリーム104、114、124、134がカンファレンスの特定のユーザ/参加者からの音声を含むものとして説明されるが、別の例では、1つまたは複数のオーディオストリーム104、114、124、134は、カンファレンスの複数の参加者からの音声を含み得る。たとえば、デバイスのうちの2つ以上が互いに相対的に極めて近接し得、カンファレンスの複数の参加者からの音声を「ピックアップ」し得る。追加または代替として、オーディオストリームは、単一のユーザ機器(たとえば、単一のモバイルデバイス)に関連付けられた複数のカンファレンス参加者からの音声を含み得る。たとえば、複数のカンファレンス参加者が単一のモバイル(または固定)デバイス内に話し得、モバイル(または固定)デバイスは、複数のカンファレンス参加者からの音声を含むオーディオストリームを生成し得る。例示のために、第1のオーディオストリーム114は、複数のスピーカからの音声を含む単一のオーディオストリームであり得る。たとえば、4人の人々が第1のデバイス110内に話している場合、第1のオーディオストリーム114は、モノオーディオストリーム、ステレオオーディオストリーム、4チャネルオーディオストリーム(たとえば、スピーカ当たり1チャネル)などであり得る。
前述のように、ネットワークデバイス190は、デバイス110、120、130からモバイルデバイス102にそれぞれ符号化オーディオストリーム114、124、134を経路指定し得る。本明細書で説明される技法によれば、モバイルデバイス102は、オーディオミキシングがネットワークデバイス190においてバイパスされるようにオーディオミキシングを実施し得る。モバイルデバイス102でのオーディオミキシングが、図2Aに関連してより詳細に説明される。したがって、オーディオストリーム114、124、134を復号化し、復号化オーディオストリームをミキシングしてミキシング済みオーディオストリームを生成し、ミキシング済みオーディオストリームを再符号化して再符号化オーディオストリームを生成し、再符号化オーディオストリームをモバイルデバイス102に供給する代わりに、ネットワークデバイス190は、各符号化オーディオストリーム114、124、134をモバイルデバイス102に経路指定し得る。
一例によれば、ネットワークデバイス190は、他のデバイス102、110、120、130間のシグナリング活動を実施するための「マスタスイッチ」として動作し得る。たとえば、ネットワークデバイス190は、デバイス102、110、120、130から、それぞれオーディオストリーム104、114、124、134を受信し得、オーディオストリーム104、114、124、134を中継することに関連するビットレート制御をネゴシエートし得る。オーディオストリームの受信時に、ネットワークデバイス190は、特定のオーディオストリームが特定のデバイスに経路指定されるビットレートをネゴシエートし得る。例示的、非限定的な例として、ネットワークデバイス190は、第1のオーディオストリーム114がモバイルデバイス102に供給される第1のビットレートと、第2のオーディオストリーム124がモバイルデバイス102に供給される第2のビットレートと、第3のオーディオストリーム134がモバイルデバイス102に供給される第3のビットレートとを(モバイルデバイス102と)ネゴシエートし得る。ネットワークデバイス190はまた、個々のデバイス能力に基づいて信号(たとえば、オーディオストリーム)が通信され得る帯域幅(たとえば、アップリンク帯域幅およびダウンリンク帯域幅)をネゴシエートすることができ得る。たとえば、各デバイス102、110、120、130のコーダ/デコーダ(CODEC)能力に基づいて、ネットワークデバイス190は、オーディオストリームが特定のデバイスに供給される帯域幅をネゴシエートすることができ得る。
ネットワークデバイス190でのオーディオミキシングをバイパスし、個々のデバイス102、110、120、および130においてオーディオミキシングを実施することは、普通ならネットワークデバイス190でのオーディオ処理チェーンに関連付けられ得る品質劣化を低減し得る。たとえば、ネットワークデバイス190での復号化演算、ネットワークデバイス190でのミキシング演算、およびネットワークデバイス190での再符号化演算によるオーディオ品質劣化が低減され得る。したがって、(ネットワークデバイス190ではなく)個々のデバイス102、110、120、および130においてオーディオミキシングを実施することによって、タンデムコーディング演算およびトランスコーディング演算がバイパスされ得る。さらに、両耳知覚の損失が低減され得る。たとえば、第1のオーディオストリーム114がステレオオーディオストリームであり、他のオーディオストリーム124、134がモノオーディオストリームである場合、個々のオーディオストリーム114、124、134がモバイルデバイス102に送られる場合、モバイルデバイス102は、第1のオーディオストリーム114のステレオ品質を保持し得る。しかしながら、ネットワークデバイス190においてオーディオミキシング(たとえば、復号化、ミキシング、および再符号化)を実施し、モバイルデバイス102にミキシング済みオーディオストリームを供給することは、第1のオーディオストリーム114のステレオ品質が「失われる」可能性を増加させ得る。たとえば、ネットワークデバイス190がオーディオミキシング中に第1のオーディオストリーム114のステレオ品質を保持するという保証はないことがある。
さらに、ネットワークデバイス190でのオーディオミキシングをバイパスすることは、オーディオ処理チェーン(たとえば、トランスコーディングチェーン)内の遅延を低減し得る。たとえば、ネットワークデバイス190においてオーディオミキシングを実施することは、オーディオ処理チェーンに遅延を追加するデジッタバッファをネットワークデバイス190がサポートすることを必要とし得る。ネットワークデバイス190でのオーディオミキシングをバイパスすることによって複数の再符号化も回避され得る。たとえば、モバイルデバイス102に対するミキシング済みストリームを生成するために、ネットワークデバイス190は、オーディオストリーム114、124、134を含む(またはそれから生成される)ミキシング済みオーディオストリームを再符号化し得る。別の例として、第1のデバイス110に対するミキシング済みストリームを生成するために、ネットワークデバイス190は、オーディオストリーム104、124、134を含む(またはそれから生成される)ミキシング済みオーディオストリームを再符号化し得る。他のデバイス120、130にミキシング済みオーディオを供給するために、同様の再符号化演算が実施され得る。システム100は、ネットワークデバイス190でのオーディオミキシングをバイパスすることによってそのような再符号化演算を回避し得る。
特定の実装では、図2A〜図4に関して説明されるように、モバイルデバイス102は、オーディオストリーム114、124、134に個別化頭部伝達関数(HRTF)を適用し得る。したがって、HRTFを使用して空間ステアリングが実施され得、「従来の」ステレオオーディオ機能を超える多重チャネルオーディオ(たとえば、左チャネルオーディオ、右チャネルオーディオ、またはそれらの組合せ)が可能となる。さらに、図2Aおよび図4に関して説明されるように、ネットワークデバイス190でのオーディオミキシングをバイパスすることは、モバイルデバイス102での頭部追跡特徴に基づく空間ステアリングを可能にし得る。カンファレンスがオーディオストリームおよびビデオストリームを含むシナリオでは、ビデオがネットワークデバイス190などのネットワークデバイスにおいてトランスコードされない場合、ネットワークデバイス190でのオーディオミキシングをバイパスすることはまた、モバイルデバイス102がオーディオおよびビデオを同期することを可能にし得る。
特定の実装では、記載のシステムおよび方法は、様々な技法を使用して実施され得る、コンファレンシングのためのオーディオ/ビデオ同期をサポートし得る。オーディオ/ビデオ同期の一例によれば、オーディオストリームおよび対応するビデオストリームは、ネットワークデバイス190においてトランスコードされ得る。オーディオ/ビデオ同期の別の例によれば、各デバイス102、110、120、130からのビデオストリームが、ネットワークデバイス190によってシステム100内の他のデバイスに中継され得、各デバイス102、110、120、130からのオーディオストリーム104、114、124、134が、ネットワークデバイス190においてトランスコードされ、ミキシング済みオーディオストリームが生成され得る。たとえば、ネットワークデバイス190は、オーディオストリーム114、124、134を含む(またはそれから生成される)ミキシング済みオーディオストリームを生成し得、ミキシング済みオーディオストリームをモバイルデバイス102に送り得る。ネットワークデバイス190はビデオストリームに対するトランスコーディング演算をバイパスするので、モバイルデバイス102に中継される(デバイス110、120、130に関連する)個々のビデオストリームは、デバイス110、120、130から生成されたタイムスタンプを有するRTPパケットを含み得る。しかしながら、ミキシング済みオーディオストリームは、ネットワークデバイス190でのトランスコーディング演算のために、ビデオストリームのタイムスタンプとは異なるタイムスタンプを有し得る。モバイルデバイス120は、ビデオストリームのタイムスタンプと、ミキシング済みオーディオストリームのタイムスタンプとの間の遅延を決定(たとえば、追跡)し得る。遅延を決定した後、モバイルデバイス102は、ミキシング済みオーディオストリームおよび/またはビデオストリームを調整して、オーディオとビデオとを同期し得る。
オーディオ/ビデオ同期の別の例によれば、各デバイス102、110、120、130からのビデオストリームが、ネットワークデバイス190によってシステム100内の他のデバイスに中継され得、各デバイス102、110、120、130からのオーディオストリーム104、114、124、134も、ネットワークデバイス190によってシステム100内の他のデバイスに中継され得る。この例によれば、オーディオおよびビデオについてのトランスコーディング演算が、ネットワークデバイス190においてバイパスされる。ビデオストリームおよびオーディオストリーム104、114、124、134が別々のRTPパケット内で送られるので、RTPビデオパケットと対応するRTPオーディオパケットとの間のドリフト(たとえば、遅延)があり得る。たとえば、第1のオーディオストリーム114のRTPオーディオパケットと、第1のデバイス110からの対応するRTPビデオパケットとは、異なるタイムスタンプを有し得る。RTPオーディオパケットおよび対応するRTPビデオパケットの受信時に、モバイルデバイス102は、RTPオーディオパケットと、対応するRTPビデオパケットとを同期し得る。
本明細書で説明される技法によれば、モバイルデバイス102は、ユーザ定義の設定、モバイルデバイス102のハードウェア能力、またはそれらの組合せに基づいて、カンファレンス中にモバイルデバイス102に供給される各オーディオストリーム114、124、134のビットレートおよび/または帯域幅を「ネゴシエートする」(たとえば、セッション記述プロトコル(SDP)ネゴシエーションを調整または実施する)ことができ得る。例示のために、モバイルデバイス102は、ネットワークデバイス190に第1の信号(図示せず)を供給して、第1のオーディオストリーム114がモバイルデバイス102に供給される第1のビットレートを調整し、ネットワークデバイス190に第2の信号(図示せず)を供給して、第2のオーディオストリーム124がモバイルデバイス102に供給される第2のビットレートを調整し、かつ/またはネットワークデバイス190に第3の信号(図示せず)を供給して、第3のオーディオストリーム134がモバイルデバイス102に供給される第3のビットレートを調整し得る。例示的、非限定的な例として、モバイルデバイス102は、モバイルデバイス102のユーザが、(たとえば、第1のデバイス110を使用しているカンファレンス参加者からの音声を強調するために)第1のオーディオストリーム114について、他のオーディオストリーム124、134よりも高い品質(たとえば、より高い帯域幅)を好むことを示すネットワークデバイス190信号を送り得る。
別の実装によれば、システム100内の各デバイスは、(たとえば、ネットワークデバイス190でのネゴシエーションをバイパスして)システム100内の他のデバイスと直接的にビットレートおよび/または帯域幅をネゴシエートし得る。非限定的な例として、モバイルデバイス102は、第1のオーディオストリーム114がモバイルデバイス102に供給される第1のビットレートを調整するように、第1のデバイス110と直接的にネゴシエートし得る。この非限定的な例によれば、ネットワークデバイス190は「管理デバイス」として動作し、着信オーディオストリーム104、114、124、134が受信されているビットレートを監視し得る。しかしながら、ネットワークデバイス190ではなく、デバイス102、110、120、130においてネゴシエーションが実施される。
特定のシナリオでは、ネットワークデバイス190は、「パケットバンドラ」として動作し得、システム100内の特定のデバイスについてのRTPパケットをバンドルし得る。例示のために、ネットワークデバイス190は、オーディオストリーム104、第2のオーディオストリーム124、および第3のオーディオストリーム134(たとえば、のパケット)を、第1のデバイス110に供給されるべき「バンドル化パケット」としてバンドルし得る。ネットワークデバイス190は、バンドル化パケット内にRTPヘッダを挿入し得、バンドル化パケットを第1のデバイス110に送り得る。このシナリオによれば、第1のデバイス110は、単一のデジッタバッファを利用して、ネットワークデバイス190から受信したバンドル化(RTP)パケットのストリームを処理し得る。ネットワークデバイス190は、バンドル化パケット内のデバイス識別子(ID)を割り当てて、どのオーディオストリーム104、124、134が各デバイス102、120、130に関連付けられたかに関して、第1のデバイス110内の処理要素に命令し得る。たとえば、バンドル内の各パケットは、パケットがどのデバイスによって生成されたかの識別子を含み得る。特定の実装では、バンドル内のパケットは、それ自体のタイムスタンプを含み得る。全体として、バンドルは、タイムスタンプを含むことがあり、または含まないことがある。したがって、特定の実装では、デジッタバッファ管理は、図2Aを参照しながらさらに説明されるように、イントラストリームタイムスタンプならびにインターストリームタイムスタンプを利用することを含み得る。
一例では、オーディオストリーム114、124、134を受信するためのモバイルデバイス102での帯域幅は、所与の時刻でのアクティブスピーカ数に依存し得る。たとえば、モバイルデバイス102(たとえば、帯域幅制限)のハードウェア能力に基づいて、モバイルデバイス102は、ネットワークデバイス190からオーディオを受信し、処理することについての帯域幅制限を有し得る。所与の時刻でのアクティブスピーカ数が増加するにつれて、モバイルデバイス102での利用可能なリソース(たとえば、ハードウェア)帯域幅は低下し得る。
帯域幅制限を緩和するために、カンファレンスは、所与の時刻でのアクティブスピーカ数を削減するように「自動制御」し得る。通常、同時に多くのアクティブスピーカは存在せず、そうでない場合、カンファレンス会話について行くことがますます困難になり得る。特定のデバイスでの参加者が所与の時刻において話していない場合、デバイスによって生成される、対応するオーディオストリーム内のデータフレームは、中断伝送(DTX)データフレームを含み得、背景雑音特性を示す、比較的低いビットレート(たとえば、約0.3キロビット/秒(kbps))を有し得る。たとえば、第1のデバイス110での第1の参加者が所与の時刻に無音である場合、第1のオーディオストリーム114の平均データレートは、8フレームごとに2.4kbpsフレームを送ることに基づいて、約0.3kbpsであり得る(たとえば、2.4kbps/8=0.3kbps)。
アクティブスピーカが、8フレームごとの頻度のプロトコルの信号インジケータ(SID)に従ってアップリンクビットレート13.2kbpsを有すると仮定する。1つの非限定的な例では、プロトコルは、エンハンスドボイスサービス(EVS:Enhanced Voice Service)プロトコルであり得る。1つのアクティブスピーカがあるとき(たとえば、第1のデバイス110での第1の参加者)、第1のデバイス110についての平均アップリンクビットレートは13.2kbpsであり得、他のデバイス102、120、130の各々についての平均アップリンクビットレートは0.3kbps(たとえば、DTXビットレート)であり得る。したがって、平均合計アップリンクネットワーク帯域幅は、約13.2+0.3+0.3+0.3=14.1kbpsであり得る。オーディオミキシングが(ネットワークデバイス190ではなく)参加者デバイスにおいて実施されるとき、モバイルデバイス102に対するダウンリンクビットレートは13.8kbpsであり、第1のデバイス110に対する平均ダウンリンクビットレートは0.9kbpsであり、第2のデバイス120に対する平均ダウンリンクビットレートは13.8kbpsであり、第3のデバイス130に対する平均ダウンリンクビットレートは13.8kbpsである。したがって、平均合計ダウンリンクビットレートは約42.3kbpsであり得る。平均合計ダウンリンクビットレートは、ミキシングがネットワークデバイス190において実施されるときの平均合計ダウンリンクビットレート未満であり得る。
カンファレンスの2人の参加者が所与の時刻において話しているとき、各アクティブスピーカは平均アップリンクビットレート13.2kbpsを有し得る。第1のデバイス110での第1の参加者と、第2のデバイス120での第2の参加者とが所与の時刻において話している場合、第1のデバイス110についての平均アップリンクビットレートは13.2kbpsであり得、第2のデバイス120についての平均アップリンクビットレートは13.2kbpsであり得る。他のデバイス102、130の各々についての平均アップリンクビットレートは0.3kbps(たとえば、DTXビットレート)であり得る。したがって、平均合計アップリンクネットワーク帯域幅は約27kbpsであり得る。オーディオミキシングが(ネットワークデバイス190ではなく)参加者デバイスにおいて実施されるとき、モバイルデバイス102に対する平均ダウンリンクビットレートは26.7kbpsであり、第1のデバイス110に対する平均ダウンリンクビットレートは13.8kbpsであり、第2のデバイス120に対する平均ダウンリンクビットレートは13.8kbpsであり、第3のデバイス130に対する平均ダウンリンクビットレートは26.7kbpsである。したがって、平均合計ダウンリンクビットレートは約82kbpsであり得る。ミキシングがネットワークデバイス190において実施されるとき、平均合計ダウンリンクビットレートは平均合計ダウンリンクビットレート未満であり得る。
前述のように、カンファレンスの「自動制御」の性質に加えて、モバイルデバイス102は、ユーザ定義の設定に基づいてダウンリンク帯域幅を削減するようにネットワークデバイス190に信号を送り得る。非限定的な例として、モバイルデバイス102のユーザが、第1のデバイス110の第1の参加者が何を言わなければないかを聴きたくない場合、ユーザは、モバイルデバイス102での帯域幅制限に関する制約を低減するために、より低いビットレート(たとえば、例示的、非限定的な例として9.6kbpsなどの、「次の」削減されたアクティブフレームコーディングレート)において第1のオーディオストリーム114を供給するようにネットワークデバイス190にシグナリングし得る。具体的には、オーディオについてのこの暗黙的フロア制御は、設定、およびレンダリングデバイスからネットワークデバイスへのシグナリングに基づき得る。たとえば、モバイルデバイス内のマルチストリームクライアントが、所与の時刻において同時に復号化することができるよりも多くのオーディオストリームを受信することが可能にされ得る。そのようなケースでは、端末内のマルチストリームクライアントは、どのストリームを優先順位付けさせるか、どれを無視するかを選ぶための手段を有し得る。この選択は、どのストリームがDTXモードにないかに基づいて行われ得る。メディアストリームはまた、オーディオストリームのアクティブレベルまたは音量に基づいて優先順位付けされ得る。しかしながら、このことは、最も音が大きいストリームを決定するために、各ストリームからのメディアの復号化を必要とする。あるいは、メディアストリームのサブセットが周期的に復号化され得、メディアストリーム当たりのアクティブレベルおよびフレームエネルギーの長期統計が、どのオーディオストリームを復号化するかを決定するために先験的に使用され得る。優先順位付けストリームは、レンダリングのために空間的にさらにミキシングされ得る。
オーディオミキシングが、ネットワークデバイス190ではなく、モバイルデバイス102において実施されるので、モバイルデバイス102は、受信した各オーディオストリーム114、124、134からのオーディオを同期して、カンファレンスの全体的オーディオ品質を保持するように構成され得る。そのような同期動作は、(たとえば、異なるオーディオストリームについての異なるネットワーク条件による)オーディオストリーム114、124、134を受信する際の変化する遅延量を補償するために使用され得る。図2Aに関してより詳細に説明されるように、モバイルデバイス102は、受信した各オーディオストリーム114、124、134から受信したオーディオを同期するために制御信号を生成するように構成される「遅延コントローラ」を含み得る。たとえば、遅延コントローラは、フレーム誤り率(FER)を満たすために、対応するオーディオストリーム114、124、134を受信する(モバイルデバイス102内の)各デジッタバッファについての平均遅延がほぼ同一となるように動作し得る。非限定的な例として、遅延コントローラは、デジッタバッファについての平均遅延が3フレーム、5フレーム、7フレームなどであることを保証し得る。
図1Aのシステム100は、モバイルデバイス102において(同様に、デバイス110、120、130において)オーディオ処理(たとえば、ミキシング)を実施することによって、普通ならネットワークデバイス190でのオーディオ処理チェーンに関連付けられ得る品質劣化を低減し得る。たとえば、ネットワークデバイス190での復号化演算、ネットワークデバイス190でのミキシング演算、およびネットワークデバイス190での再符号化演算によるオーディオ品質劣化が低減され得る。したがって、個々のデバイス102、110、120、130においてオーディオミキシングを実施することによって、トランスコーディング演算がバイパスされ得る。
図1Bを参照すると、カンファレンス中のオーディオを管理するように動作可能である別のシステム153の特定の実装が示されている。システム153は、モバイルデバイス102、第1のデバイス110、第2のデバイス120、および第3のデバイス130を含む。
システム153は、図1Aのシステム100とほぼ同様に動作し得る。しかしながら、システム153内のオーディオストリーム104、114、124、134が、中央ネットワーキングシステム(たとえば、図1Aのネットワークデバイス190)なしにデバイスからデバイスに経路指定され得る。したがって、ネットワークデバイス190での経路指定に関連する遅延が、図1Bのシステム153では低減され得る。
図1Cを参照すると、カンファレンス中のオーディオを管理するように動作可能である別のシステム170の特定の実装が示されている。システム170は、モバイルデバイス102、第1のデバイス110、第2のデバイス120、第3のデバイス130、第4のデバイス140、第5のデバイス150、およびゲートウェイ180(たとえば、ネットワークミキサ)を含む。一実装によれば、ゲートウェイ180はモバイルデバイスであり得る。別の実装によれば、ゲートウェイ180は固定デバイスであり得る。
図1Cの例示では、第4のデバイス140および第5のデバイス150はレガシーデバイスである。たとえば、レガシーデバイス140、150は、(たとえば、レガシーデバイス140、150でのリソース制約のために)他のデバイス102、110、120、130に関して図1A〜図1Bで説明される方式で複数のオーディオストリームのオーディオミキシングを実施することができないことがある。むしろ、レガシーデバイス140、150は、他のデバイスのオーディオストリーム104、114、124、134を含む(またはそれから生成される)単一のオーディオストリーム(たとえば、ミキシング済みオーディオストリーム184)を受信するように構成され得る。例示のために、ネットワークデバイス190は、ゲートウェイ180にオーディオストリーム104、114、124、134を中継し得る。ゲートウェイ180は、オーディオストリーム104、114、124、134に関するオーディオミキシングを実施して、ミキシング済みオーディオストリーム184を生成し得る。ミキシング済みオーディオストリーム184を生成した後、ゲートウェイ180は、ミキシング済みオーディオストリーム184を第4のデバイス140および第5のデバイス150に中継し得る。
第4のデバイス140は、第4のデバイス140において符号化される第4のオーディオストリーム144を生成するように構成され得る。第4のオーディオストリーム144は音声(たとえば、ユーザ音声)および/または背景雑音を含み得る。第4のオーディオストリーム144は、ゲートウェイ180に供給され得、ゲートウェイ180は、第4のオーディオストリーム144(またはそのトランスコード/処理済みバージョン)をネットワークデバイス190に経路指定し得、ネットワークデバイス190は、第4のオーディオストリーム144(またはそのトランスコード/処理済みバージョン)を他のデバイス102、110、120、130に経路指定し得る。第5のデバイス150は、第5のデバイス150において符号化される第5のオーディオストリーム154を生成するように構成され得る。第5のオーディオストリーム154は音声(たとえば、ユーザ音声)および/または背景雑音を含み得る。第5のオーディオストリーム154はゲートウェイ180に供給され得、ゲートウェイ180は、オーディオストリーム154(またはそのトランスコード/処理済みバージョン)をネットワークデバイス190に経路指定し得、ネットワークデバイス190は、第5のオーディオストリーム154(またはそのトランスコード/処理済みバージョン)を他のデバイス102、110、120、130に経路指定し得る。
図1Cは、ゲートウェイ180が第4のオーディオストリーム144および第5のオーディオストリーム154を別々のオーディオストリームとして経路指定することを示すが、別の実装では、ゲートウェイ180は、第4のオーディオストリーム144および第5のオーディオストリーム154に関するオーディオミキシングを実施して、ミキシング済みオーディオストリームを生成し得る。ミキシング済みオーディオストリームは、ネットワークデバイス190に経路指定され得、ネットワークデバイス190は、ミキシング済みオーディオストリームを他のデバイス102、110、120、130に中継し得る。
さらに、図1Cは、第4のデバイス140および第5のデバイス150が同一のミキシング済みオーディオストリーム184を受信することを示すが、別の実装では、第4のデバイス140および第5のデバイス150は、異なるミキシング済みオーディオストリームを受信し得る。たとえば、第4のデバイス140によって受信されるミキシング済みオーディオストリームは、それぞれデバイス102、110、120、130、150からのオーディオストリーム104、114、124、134、154を含み得る(またはそれから生成され得る)。したがって、ゲートウェイ180は、第5のオーディオストリーム154を他のオーディオストリーム104、114、124、134とミキシングして、ミキシング済みオーディオストリームを第4のデバイス140に供給するように構成され得る。同様に、第5のデバイス150によって受信されるミキシング済みオーディオストリームは、それぞれデバイス102、110、120、130、140からのオーディオストリーム104、114、124、134、144を含み得る(またはそれから生成され得る)。したがって、ゲートウェイ180は、第4のオーディオストリーム144を他のオーディオストリーム104、114、124、134とミキシングして、ミキシング済みオーディオストリームを第5のデバイス150に供給するように構成され得る。
図2Aを参照すると、モバイルデバイス102の特定の実装が示されている。モバイルデバイス102は、遅延コントローラ202、第1のバッファ210、第1のデコーダ212、第2のバッファ220、第2のデコーダ222、第3のバッファ230、第3のデコーダ232、空間ステアリングプロセッサ240、および頭部追跡モジュール250を含む。図2Aはモバイルデバイス102の構成要素を示すが、カンファレンスに関連付けられた他のデバイス110、120、130内に類似の構成要素が含まれ得ることに留意されたい。
一例では、各バッファ210、220、230は、対応するオーディオストリームをバッファリングするように構成されるデジッタバッファであり得る。たとえば、第1のバッファ210は、カンファレンスの第1の参加者に関連付けられた第1のデバイス110から第1のオーディオストリーム114(たとえば、第1のリアルタイム転送プロトコル(RTP)パケット)を受信し得、第2のバッファ220は、カンファレンスの第2の参加者に関連付けられた第2のデバイス120から第2のオーディオストリーム124(たとえば、第2のRTPパケット)を受信し得、第3のバッファ230は、カンファレンスの第3の参加者に関連付けられた第3のデバイス130から第3のオーディオストリーム134(たとえば、第3のRTPパケット)を受信し得る。別の実装によれば、第1のバッファ210は、図1Aのネットワークデバイス190から第1のオーディオストリーム114を受信し得、第2のバッファ220は、ネットワークデバイス190から第2のオーディオストリーム124を受信し得、第3のバッファ230は、ネットワークデバイス190から第3のオーディオストリーム134を受信し得る。この実装(たとえば、「ネットワークリレー」実装)によれば、第1のバッファ210によって受信された第1のオーディオストリーム114のRTPタイムスタンプが、第1のデバイス110によって与えられたRTPタイムスタンプと同一であり、第2のバッファ220によって受信された第2のオーディオストリーム124のRTPタイムスタンプが、第2のデバイス120によって与えられたRTPタイムスタンプと同一であり、第3のバッファ230によって受信された第3のオーディオストリーム134のRTPタイムスタンプが、第3のデバイス130によって与えられたRTPタイムスタンプと同一である。
図2Aのモバイルデバイス102が、3つの対応するオーディオストリーム114、124、134のための3つのバッファ210、220、230を含むように示されているが、図1Aに関して上記で説明されたように、代替実装では、図1Aのネットワークデバイス190は、オーディオストリーム114、124、134のパケットをバンドルして、バンドル化オーディオストリームを生成し得、バンドル化オーディオストリームの各パケットは、バンドルパケットについてのRTPヘッダに加えて、個々のオーディオストリーム114、124、134からのパケットを含む。このシナリオでは、モバイルデバイス102は、バンドル化オーディオストリームのパケットを受信するように構成される単一のバッファ(たとえば、単一のデジッタバッファ)を利用し得る。たとえば、バンドル化オーディオストリームのパケットは、RTPヘッダと、第1のデバイス110に割り当てられた第1のIDによって識別される(第1のオーディオストリーム114に対応する)第1のRTPパケットと、第2のデバイス120に割り当てられた第2のIDによって識別される(第2のオーディオストリーム124に対応する)第2のRTPパケットと、第3のデバイス130に割り当てられた第3のIDによって識別される(第3のオーディオストリーム134に対応する)第3のRTPパケットとを含み得る。バンドル化パケットについてのRTPヘッダはタイムスタンプを含み得る。代替または追加として、第1、第2、第3のRTPパケットは、それ自体のRTPヘッダおよびタイムスタンプを含み得る。
第1のバッファ210は、第1のオーディオストリーム114をバッファリングし、第1のデコーダ212に第1のバッファリング済みオーディオ214を出力するように構成され得る。第2のバッファ220は、第2のオーディオストリーム124をバッファリングし、第2のデコーダ222に第2のバッファリング済みオーディオ224を出力するように構成され得る。第3のバッファ230は、第3のオーディオストリーム134をバッファリングし、第3のデコーダ232に第3のバッファリング済みオーディオ234を出力するように構成され得る。各バッファ210、220、230は参照遅延計算アルゴリズム(RDCA:reference delay calculation algorithm)を含み得る。たとえば、第1のバッファ210は第1のRDCA211を含み得、第2のバッファ220は第2のRDCA221を含み得、第3のバッファ230は第3のRDCA231を含み得る。各RDCA211、221、231は、命令を実行する(たとえば、対応するバッファ210、220、230内の)プロセッサによって実装され得る。各バッファ210、220、230についての遅延は、対応するRDCA211、221、231に基づき得る。以下で説明されるように、遅延コントローラ202は、FERを満たすために各バッファ210、220、230についての平均遅延がほぼ同一となるように動作し得る。たとえば、遅延コントローラ202は、第1のバッファリング済みオーディオ214、第2のバッファリング済みオーディオ224、および第3のバッファリング済みオーディオ234がほぼ同期されることを保証するために、各RDCA211、221、231を修正するように構成され得る。
遅延コントローラ202(たとえば、デジッタバッファシンクロナイザ)は、各バッファ210、220、230に供給される制御信号204を生成するように構成され得る。制御信号204に基づいて、バッファ210、220、230は、第1のバッファリング済みオーディオ214、第2のバッファリング済みオーディオ224、および第3のバッファリング済みオーディオ234の出力を同期し得る。あるいは、異なる制御信号が、バッファ210、220、230の各々に供給され得る。一実装によれば、遅延コントローラ202は、各バッファ210、220、230内の遅延を決定し得る。たとえば、第1のRDCA211に基づいて、第1のバッファ210は、第1のバッファ210内の第1の遅延を決定し得、フィードバック信号205を介して、第1の遅延に関連する情報を遅延コントローラ202に供給し得る。第2のバッファ220は、第2のRDCA221に基づいて第2のバッファ220内の第2の遅延を決定し得、フィードバック信号205を介して、第2の遅延に関連する情報を遅延コントローラ202に供給し得る。さらに、第3のバッファ230は、第3のRDCA231に基づいて第3のバッファ230内の第3の遅延を決定し得、フィードバック信号205を介して、第3の遅延に関連する情報を遅延コントローラ202に供給し得る。第1、第2、および第3の遅延は、個々のオーディオストリーム内のイントラストリームタイムスタンプに基づいて決定され得る。非限定的な例として、第1の遅延は、第1のオーディオストリーム114内のRTPタイムスタンプに基づき得る(たとえば、第1の遅延は、他のオーディオストリーム124、134内のRTPタイムスタンプとは無関係であり得る)。
遅延コントローラ202は、第1、第2、および第3の遅延についての情報を使用して、制御信号204を生成し得る。単一の制御信号が図2Aに示されているが、第1の制御信号が第1のバッファ210に供給され得、第2の制御信号が第2のバッファ220に供給され得、第3の制御信号が第3のバッファ230に供給され得る。制御信号204(または複数の制御信号)は、各バッファ210、220、230がほぼ同様の平均遅延を有するように、「加速し」、遅延を増大させ、または現遅延を維持するように各バッファ210、220、230に命令し得る。バッファを「加速する」ことは、1つまたは複数のフレームを「ドロップする」ようにバッファに命令することを含み得る。例示のために、第1のバッファ210は、2つのフレームの平均遅延を有し得、第2のバッファ220は、4つのフレームの平均遅延を有し得、第3のバッファ230は、6つのフレームの平均遅延を有し得る。これらの統計に基づいて、遅延コントローラ202は、各バッファ210、220、230が約4フレームの平均遅延を有するように、第1のバッファ210にその平均遅延を2フレームだけ増大させるように命令し、第2のバッファ220にその平均遅延を維持するように命令し、第3のバッファ230にその平均遅延を2フレームだけ加速するように命令し得る。さらに、バッファリソースが遅延調整に基づいて再割振りされ得る。たとえば、第1のバッファ210がその平均遅延を2フレームだけ増大させる必要があり、第3のバッファ230がその遅延を2フレームだけ削減する必要があるので、第3のバッファ230と第1のバッファ210との間でバッファリソースが再割振りされ得る。
したがって、遅延コントローラ202は、イントラストリームタイムスタンプに加えてインターストリームタイムスタンプを使用して、各バッファ210、220、230の遅延を調整し得る。たとえば、各バッファ210、220、230についての遅延が、各バッファ210、220、230の平均遅延を比較することに基づいて調整され得、各バッファ210、220、230の平均遅延は、対応するオーディオストリーム114、124、134のRTPタイムスタンプに基づく。例示的、非限定的な例として、3つのデバイス「A」、「B」、および「C」から受信した様々なRTPパケットのタイムスタンプが、t(A,1)、t(A,2)、t(A,3)...t(A,N);t(B,1)、t(B,2)、t(B,3)...t(B,N);t(C,1)、t(C,2)、t(C,3)...t(C,N)であり得る。イントラストリームタイムスタンプは、同一のRTPストリームの2つのパケット間の時間差(たとえば、t(A,2)およびt(A,1))に対応し得る。遅延コントローラ202は、ストリーム内の平均遅延およびストリーム間のインターストリーム遅延を決定および/または使用して、制御信号204を生成し得る。
別の実装によれば、遅延コントローラ202は、第1のオーディオストリーム114(たとえば、第1のRTPパケット)の第1のタイムスタンプ、第2のオーディオストリーム124(たとえば、第2のRTPパケット)の第2のタイムスタンプ、および第3のオーディオストリーム134(たとえば、第3のRTPパケット)の第3のタイムスタンプを比較し得る。一例では、第1、第2、および第3のタイムスタンプは、102、110、120、および130に(たとえば、タイミングサーバまたは他のクロックソースによって)供給される共通クロックソース(たとえば、グローバルクロックソース)に基づき得る。オーディオストリーム114、124、134のタイムスタンプは、図1Aのネットワークデバイス190によって変更されずに、モバイルデバイス102によって受信され得る。遅延コントローラ202は、第1のタイムスタンプと第2のタイムスタンプとの間の第1の時間差、第2のタイムスタンプと第3のタイムスタンプとの間の第2の時間差、および第3のタイムスタンプと第1のタイムスタンプとの間の第3の時間差を決定し得る。
特定の実装では、遅延コントローラ202は、相異なるバッファからの個々のパケットを比較することに基づいて時間差を決定する。たとえば、第1の時間差は、第1のバッファ210内の「最初期の」パケット(たとえば、出力されるべき次のパケット)のタイムスタンプと、第2のバッファ220内の最初期のパケットのタイムスタンプとの差に対応し得る。同様に、第2の時間差は、第2のバッファ220内の最初期のパケットのタイムスタンプと、第3のバッファ230内の最初期のパケットのタイムスタンプとの間の差に対応し得る。第3の差は、第3のバッファ230内の最初期のパケットのタイムスタンプと、第1のバッファ210内の最初期のパケットのタイムスタンプとの差に対応し得る。
時間差に基づいて、遅延コントローラ202は、バッファリング済みオーディオ214、224、234がそれぞれバッファ210、220、230からいつ出力されるかを制御するための制御信号204を生成し得、その結果、バッファリング済みオーディオ214、224、234が同期される。たとえば、制御信号204(または前述の複数の制御信号)は、同一のタイムスタンプを有するバッファ210、220、および230内のパケット/フレームを、そのようなパケット/フレームがモバイルデバイス102によって実際にいつ受信されたかの如何にかかわらず、ほぼ同時に出力させ得る。パケットがバッファ210、220、230のうちの1つから出力された後、遅延コントローラ202は、時間差のうちの1つまたは複数を再計算し、それに応じて制御信号204を修正し得る。バッファリング済みオーディオ214、224、234を同期するための制御信号204を生成することによって、遅延コントローラ202は、バッファ210、220、230にわたって平均遅延を同程度にすることなどによって、バッファ210、220、230の各々がカンファレンス中の3GPP技術仕様(TS)26.114平均遅延要件を満たすのを援助し得る。
第1のバッファリング済みオーディオ214を第2のバッファリング済みオーディオ224と同期する非限定的な例示として、第1のタイムスタンプが第2のタイムスタンプよりも早い時刻を示す場合、遅延コントローラ202は、第1のバッファリング済みオーディオ214(たとえば、第1のバッファリング済みオーディオ214の次のパケット)の出力を第1の時間差だけ遅延するように第1のバッファ210に(制御信号204を介して)指示し得る。第2のタイムスタンプが第1のタイムスタンプよりも早い時刻を示す場合、遅延コントローラ202は、第2のバッファリング済みオーディオ224(たとえば、第2のバッファリング済みオーディオ224の次のパケット)の出力を第1の時間差だけ遅延するように第2のバッファ220に(制御信号204を介して)指示し得る。
したがって、遅延コントローラ202は、TS26.114最小性能ジッタバッファ管理(JBM)遅延要件がマルチセッション(たとえば、カンファレンス)中に満たされるように、各々の個々のバッファ210、220、230の性能を監視するように構成され得る。さらに、遅延コントローラ202は、「バッファ処理」が効率的に実施されるように、各バッファ210、220、230内のRDCA211、221、231に追加のタイムスタンプ調整情報を供給し得る。前述のように、遅延コントローラ202は、各バッファ210、220、230内で実行中のRDCA211、221、231から、フィードバック信号205を介してイントラタイムスタンプ特性を受信し得、遅延コントローラ202は、バッファ210、220、230を管理する際にそのような情報を使用し得る。したがって、バッファ遅延を管理するための「閉ループ」方法が実装され得る。
第1のバッファリング済みオーディオ214を受信したことに応答して、第1のデコーダ212は、第1のバッファリング済みオーディオ214を復号化して、第1の復号化オーディオ216を生成し得る。第1の復号化オーディオ216は空間ステアリングプロセッサ240に供給され得る。しかしながら、第1のバッファリング済みオーディオ214内のフレームが(たとえば、背景雑音および/または無音に対応する)DTX(またはNODATA)フレームである場合、第1のデコーダ212での復号化演算がバイパスされ、電力消費が削減され、処理リソースが節約され得る。復号化演算がフレームについてスキップされるとき、以前に復号化されたアクティブフレームについての復号化状態/メモリが、次のアクティブなフレームをその後で復号化する際に使用するために維持され得る。第2のバッファリング済みオーディオ224を受信したことに応答して、第2のデコーダ222は、第2のバッファリング済みオーディオ224を復号化して、第2の復号化オーディオ226を生成し得る。第2の復号化オーディオ226も、空間ステアリングプロセッサ240に供給され得る。第2のバッファリング済みオーディオ224内のフレームがDTX(またはNODATA)フレームである場合、第2のデコーダ222での復号化演算がバイパスされ、電力消費が削減され、処理リソースが節約され得る。第3のバッファリング済みオーディオ234を受信したことに応答して、第3のデコーダ232は、第3のバッファリング済みオーディオ234を復号化して、第3の復号化オーディオ236を生成し得る。第3の復号化オーディオ236は、空間ステアリングプロセッサ240にさらに供給され得る。第3のバッファリング済みオーディオ234内のフレームがDTXフレームである場合、第3のデコーダ232での復号化演算がバイパスされ、電力消費が削減され、処理リソースが節約され得る。特定の実装では、モバイルデバイス102は、RTPパケット長に基づいてフレーム(たとえば、パケット)がDTX(またはNODATA)フレームであるかどうかを決定し得る。
空間ステアリングプロセッサ240は、第1の復号化オーディオ216に対する第1の空間ステアリング演算を実施して、第1の復号化オーディオ216をスピーカから第1の角度(α1)に投射するように構成され得る。たとえば、空間ステアリングプロセッサ240は、第1の復号化オーディオ216に第1のHRTF242を適用して、第1の角度(α1)に従って第1の復号化オーディオ216をステアリング(たとえば、パン)し得る。第1の角度(α1)に従って第1の復号化オーディオ216をステアリングすることの例示が図3に示されている。第1のHRTF242はまた、空間ステアリングプロセッサ240によって使用され、第1の復号化オーディオ216の第1の利得が調整され得る。一実装によれば、第1の利得および第1の角度(α1)は、モバイルデバイス102でのユーザ定義の設定に基づいて調整され得る。たとえば、第1のデバイス110に関連付けられた第1の参加者からの音声がカンファレンスの他の参加者に関連付けられた音声よりも重要であるとユーザが判定する場合、ユーザは、第1の復号化オーディオ216の第1の利得を増加させるようにモバイルデバイス102に指示し得る。ユーザ指示に基づいて、空間ステアリングプロセッサ240は、第1のHRTF242を使用して、第1の復号化オーディオ216の第1の利得を増加させ得る。
空間ステアリングプロセッサ240はまた、第2の復号化オーディオ226に対する第2の空間ステアリング演算を実施して、第2の復号化オーディオ226をスピーカから第2の角度(α2)に投射するように構成され得る。たとえば、空間ステアリングプロセッサ240は、第2の復号化オーディオ226に第2のHRTF244を適用して、第2の角度(α2)に従って第2の復号化オーディオ226をステアリング(たとえば、パン)し得る。第2の角度(α2)に従って第2の復号化オーディオ226をステアリングすることの例示が図3に示されている。第2のHRTF244はまた、空間ステアリングプロセッサ240によって使用され、第2の復号化オーディオ226の第2の利得が調整され得る。一実装によれば、第2の利得および第2の角度(α2)は、モバイルデバイス102でのユーザ定義の設定に基づいて調整され得る。たとえば、第2のデバイス120に関連付けられた第2の参加者からの音声がカンファレンスの他の参加者に関連付けられた音声よりも重要ではないとユーザが判定する場合、ユーザは、第2の復号化オーディオ226の第2の利得を低減する(または第2の復号化オーディオ226をミュートする)ようにモバイルデバイス102に指示し得る。ユーザ指示に基づいて、空間ステアリングプロセッサ240は、第2のHRTF244を使用して、第2の復号化オーディオ226の第2の利得を低減し得る。
空間ステアリングプロセッサ240はまた、第3の復号化オーディオ236に対する第3の空間ステアリング演算を実施して、第3の復号化オーディオ236をスピーカから第3の角度(α3)に投射するように構成され得る。たとえば、空間ステアリングプロセッサ240は、第3の復号化オーディオ236に第3のHRTF246を適用して、第3の角度(α3)に従って第3の復号化オーディオ236をステアリング(たとえば、パン)し得る。第3の角度(α3)に従って第3の復号化オーディオ236をステアリングすることの例示が図3に示されている。第3のHRTF246はまた、空間ステアリングプロセッサ240によって使用され、第3の復号化オーディオ236の第3の利得が調整され得る。一実装によれば、第3の利得および第3の角度(α3)は、モバイルデバイス102でのユーザ定義の設定に基づいて調整され得る。たとえば、第3のデバイス130に関連付けられた第3の参加者からの音声がカンファレンスの他の参加者に関連付けられた音声よりも重要ではないとユーザが判定する場合、ユーザは、第3の復号化オーディオ236の第3の利得を低減する(または第3の復号化オーディオ236をミュートする)ようにモバイルデバイス102に指示し得る。ユーザ指示に基づいて、空間ステアリングプロセッサ240は、第3のHRTF246を使用して、第3の復号化オーディオ236の第3の利得を低減し得る。
各HRTF242、244、246は汎用であり、またはモバイルデバイス102のユーザによって「個別化」され得る。たとえば、着信オーディオストリーム114、124、134の数に基づいて、モバイルデバイス102のハードウェア能力に基づいて、ユーザは、特定のオーディオストリーム114、124、134が投射されるべき位置(たとえば、角度)を指示し得る。したがって、第1のHRTF242は第2のHRTF244とは異なり得、第2のHRTF244は第3のHRTF246とは異なり得る。たとえば、ユーザは、「スピーカ」の左側(たとえば、ユーザの知覚されるリスニングフィールド)に第1の復号化オーディオ216を投射するように(第1のHRTF242を介して)モバイルデバイス102に指示し、スピーカの右側に第2の復号化オーディオ226を投射するように(第2のHRTF244を介して)モバイルデバイス102に指示し、中央に第3の復号化オーディオ236を投射するように(第3のHRTF246を介して)モバイルデバイス102に指示し得る。別の実装では、ネットワークミキサ(たとえば、図1Aのネットワークデバイス190)がオーディオミキシングを実施している場合、ユーザは、特定のHRTFを使用するようにネットワークミキサに指示し得る。たとえば、ネットワークデバイス190または別のネットワークミキサにHRTFを実装し得、HRTFは、カンファレンスセットアップ中にネゴシエートされ得る。
したがって、空間ステアリングプロセッサ240は、復号化オーディオ216、226、236にそれぞれHRTF242、244、246を適用して、復号化オーディオ216、226、236を空間的にステアリングし得、それによって、復号化オーディオ216、226、236に関連付けられたカンファレンス参加者が、特定の構成で空間的に分散しているように見える。HRTF242、244、246は、モバイルデバイス102においてオーディオパニングを実施するように使用され得る。カンファレンスの複数の参加者が話しているとき、オーディオパニングは、モバイルデバイス102のユーザに対する「疲労」を低減し得る。たとえば、第1の参加者(たとえば、第1の復号化オーディオ216に関連付けられた参加者)と、第3の参加者(たとえば、第3の復号化オーディオ236に関連する参加者)とが同時に話している場合、オーディオパニングは、第1の参加者がある位置において話しており、第3の参加者が別の位置において話しているようにユーザに見えるようにさせ得、そのことは、ユーザが受ける疲労を低減し得る。
オーディオパニングはまた、HRTFミキシングの前に(たとえば、以下で説明されるように、ステレオ信号270を生成する前に)モバイルデバイス102のユーザが参加者のオーディオレベル(たとえば、利得)を変更することを可能にし得る。たとえば、モバイルデバイス102のユーザは、他の参加者のオーディオと比較して、第1の参加者のオーディオ(たとえば、第1の復号化オーディオ216)により高い重要性を与え得、各HRTF242、244、246内のミキシング利得を選択的に調整し得る。一例では、複数の参加者が同時に話しているとき、モバイルデバイス102のユーザは、第1の復号化オーディオ216を除いて、復号化オーディオ226、236のすべてをミュートし得る。図1Aに関して説明されたように、モバイルデバイス102のユーザはまた、モバイルデバイス102の話者プリファレンスおよびハードウェア能力に基づいて、各オーディオストリーム114、124、134についてのビットレートおよびオーディオ帯域幅を管理するようにネットワークデバイス190にシグナリングし得る。
特定の実装では、モバイルデバイス102での空間処理が、頭部追跡データ(たとえば、モバイルデバイス102のユーザに関連付けられた頭部移動を示すデータ)に基づいてさらに改善され得る。たとえば、頭部追跡モジュール250は、モバイルデバイス102のユーザの頭部のシフト(たとえば、回転)を追跡し得る。たとえば、頭部追跡モジュール250は、ユーザの頭部の向きを追跡し、(たとえば、その向きのシフト量(β)を示す)信号を空間ステアリングプロセッサ240に供給し得る。空間ステアリングプロセッサは、復号化オーディオ216、226、236がスピーカにおいて投射されるそれぞれの角度に対処するように、シフト量(β)だけ各HRTF242、244、246を調整し得る。したがって、空間ステアリングプロセッサ240は、第1の角度(α1)およびシフト量(β)を第1のHRTF242についての入力として使用し、第2の角度(α2)およびシフト量(β)を第2のHRTF244についての入力として使用し、第3の角度(α3)およびシフト量(β)を第3のHRTF246についての入力として使用し得る。
空間ステアリングプロセッサ240は、それぞれのHRTF242、244、246によって調整される各復号化オーディオ216、226、236を含むステレオ信号270を出力(たとえば、スピーカに供給)し得る。図2Aは、ステレオ信号270が空間ステアリングプロセッサ240によって出力されることを示すが、別の実装では、空間ステアリングプロセッサ240が3つのモノ信号(図示せず)を出力し得る。たとえば、第1のモノ信号は、第1のHRTF242によって調整される第1の復号化オーディオ216を含み得、第2のモノ信号は、第2のHRTF244によって調整される第2の復号化オーディオ226を含み得、第3のモノ信号は、第3のHRTF246によって調整される第3の復号化オーディオ236を含み得る。
図2Aのモバイルデバイス102は、バッファリング済みオーディオ214、224、234を同期することによってカンファレンス中の3GPPTS26.114遅延要件を満たし得る。たとえば、遅延コントローラ202は、対応するオーディオストリーム114、124、134のRTPパケット内のタイムスタンプに基づいてバッファリング済みオーディオ214、224、234を同期するための制御信号204を生成し得る。さらに、カンファレンスの複数の参加者が同時に話しているとき、モバイルデバイス102は、オーディオパニングが「疲労」を低減することを可能にし得る。たとえば、モバイルデバイス102は、復号化オーディオ216、226、236を空間的にステアリングし得、それによって、復号化オーディオ216、226、236に関連付けられたカンファレンス参加者が、空間的に分散するように見える。
図2Bを参照すると、モバイルデバイス102の別の実装が示されている。図2Aに示される構成要素に加えて、図2Bに示されるモバイルデバイス102は、第Nのバッファ280と、第Nのデコーダ282と、空間ステアリングプロセッサ240内に実装される第NのHRTF284とを含み得る。したがって、記載のシステムおよび方法によれば、デバイスは、(たとえば、バンドル化RTPストリームを処理するケースでは)単一のデジッタバッファ、2つのデジッタバッファ、3つのデジッタバッファ、またはN個のデジッタバッファ(たとえば、Nは4以上の整数である)を利用し得る。たとえば、Nが7に等しい場合、図2Bに示されるモバイルデバイス102は、(7つの対応するオーディオストリームを受信するように構成された)7つのバッファと、7つのデコーダと、空間ステアリングプロセッサ240内に実装された7つのHRTFとを含み得る。
第Nのバッファ280は、バッファ210、220、230とほぼ同様に動作し得る。たとえば、第Nのバッファは、カンファレンス内のデバイスから(または図1Aのネットワークデバイス190から)第Nのオーディオストリーム292を受信し、制御信号204を基づいて第Nのバッファリング済みオーディオ294を出力するように構成され得る。第Nのバッファリング済みオーディオ294は、それぞれ他のバッファ210、220、230からのバッファリング済みオーディオ214、224、234と同期され得る。第Nのデコーダ282は、デコーダ212、222、232とほぼ同様に動作し得る。たとえば、第Nのデコーダ232は、第Nのバッファリング済みオーディオ294を復号化して、第Nの復号化オーディオ296を生成し得る。第Nの復号化オーディオ296は空間ステアリングプロセッサ240に供給され得る。空間ステアリングプロセッサ240はまた、第Nの復号化オーディオ296に対する第Nの空間ステアリング演算を実施して、第Nの復号化オーディオ296をスピーカから第Nの角度(αN)に投影するように構成され得る。たとえば、空間ステアリングプロセッサ240は、第NのHRTF284を第Nの復号化オーディオ296に適用して、第Nの角度(αN)に従って第Nの復号化オーディオ296をステアリング(たとえば、パン)し得る。
図3を参照すると、HRTF242、244、246を適用した後の復号化オーディオ216、226、236の空間配置の一例を示す図が示されている。特定の実装では、HRTF242、244、246は、「好ましい」仮想スピーカ位置割当てに基づいて事前計算され得る。たとえば、第1のHRTF242は、スピーカの左側から来る(たとえば、第1の角度(α1)から来る)かのように知覚されるように第1の復号化オーディオ216を空間的にステアリングし得る。同様に、第2のHRTF244は、スピーカの左中央側から来る(たとえば、第2の角度(α2)から来る)ように知覚されるように第2の復号化オーディオ226を空間的にステアリングし得、第3のHRTF246は、スピーカの右側から来る(たとえば、第3の角度(α3)から来る)かのように知覚されるように第3の復号化オーディオ236を空間的にステアリングし得る。図2Aに関して説明されたように、HRTF242、244、246はまた、他のスピーカと比較して「好ましい」スピーカを強調するための利得制御をも含み得る。
図4を参照すると、HRTF242、244、246、および頭部追跡データを適用した後の復号化オーディオ216、226、236の空間配置の一例を示す図が示されている。図4では、頭部追跡モジュール250は、シフト量(β)だけシフトされたユーザの頭部を検出し得る。頭部追跡情報に基づいて、図4に示されるように、空間ステアリングプロセッサ240は、復号化オーディオ216、226、236を含む音場をシフト量(β)だけシフトし得る。したがって、モバイルデバイス102のユーザがユーザの頭部をシフトするとき、図3に示される復号化オーディオ216、226、236の知覚がほぼ不変となり得る。
図5を参照すると、インターネットプロトコル(IP)マルチキャストセッションを使用してカンファレンス中のオーディオを管理するように動作可能であるシステム500の特定の実装が示されている。システム500は、モバイルデバイス102、第1のデバイス110、および第2のデバイス120を含む。
動作の特定の実装によれば、モバイルデバイス102は、第1のデバイス110とともに呼出しを開始し得る。その後で、モバイルデバイス102は、第1のデバイス110が第2のデバイス120とのマルチキャストセッションを開始するためのセッション記述プロトコル(SDP)参照を開始し得る。第2のデバイス120はまた、モバイルデバイス102とのセッションを開始し得る。特定の実装では、N個のノードがカンファレンスに参加している場合、メディア当たりN*(N-1)個のセッションが開始され得る(たとえば、3個のノードについて、オーディオのために3*2=6個のセッションが開始され得、ビデオのために別の3*2=6個のセッションが開始され得る)。図5のマルチキャストセッションでは、図1Aのネットワークデバイス190などの暗黙的ネットワークデバイスがない。したがって、セッション開始プロトコル(SIP)シグナリングおよびSDPネゴシエーションは、各デバイス102、110、120によってサポートされるCODECに基づき得る。SIPシグナリングおよびSDPネゴシエーションは、オーディオCODEC、ビットレート、オーディオ帯域幅などを選択するために使用され得る。
一実装によれば、デバイス102、110、120のうちの1つまたは複数が、利用可能なハードウェアリソースに基づいてゲートウェイ(たとえば、ネットワークゲートウェイ)として動作し得る。デバイスがゲートウェイとして動作する場合、CODEC要件が緩和され得る。たとえば、第1のデバイス110のCODECがモバイルデバイス102からのオーディオストリーム104を復号化するための互換性がない場合、第2のデバイス120は、ゲートウェイとして動作してオーディオストリーム104を復号化し、第1のデバイス110によってサポートされるフォーマットにオーディオストリームを再符号化し、再符号化オーディオストリームを第1のデバイス110に供給し得る。
図6を参照すると、カンファレンス中のオーディオを管理するための方法600のフローチャートが示されている。方法600は、図1A〜2Bのモバイルデバイス102、図1A〜1Cの第1のデバイス110、図1A〜1Cの第2のデバイス120、および図1A〜1Cの第3のデバイス130、またはそれらの組合せによって実施され得る。
方法600は、602で、モバイルデバイスの第1のバッファにおいて、カンファレンスの第1の参加者に関連付けられた第1のデバイスから第1のオーディオストリームを受信することを含む。たとえば、図2Aを参照すると、第1のバッファ210は、第1のデバイス110から第1のオーディオストリーム114(たとえば、RTPパケット)を受信し得る。
方法600はまた、604で、モバイルデバイスの第2のバッファにおいて、カンファレンスの第2の参加者に関連付けられた第2のデバイスから第2のオーディオストリームを受信することをも含み得る。たとえば、図2Aを参照すると、第2のバッファ220は、第2のデバイス120から第2のオーディオストリーム124(たとえば、RTPパケット)を受信し得る。
606で、制御信号がモバイルデバイスの遅延コントローラにおいて生成され得る。制御信号は、第1のバッファおよび第2のバッファに供給され、第1のバッファから出力される第1のバッファリング済みオーディオが、第2のバッファから出力される第2のバッファリング済みオーディオと同期され得る。たとえば、図2Aを参照すると、遅延コントローラ202は、第1のオーディオストリーム114の(たとえば、最初期のパケットの)第1のタイムスタンプを、第2のオーディオストリーム124の(たとえば、最初期のパケットの)第2のタイムスタンプと比較し、第1のタイムスタンプと第2のタイムスタンプとの間の時間差を決定し得る。第1のタイムスタンプが第2のタイムスタンプよりも早い時刻を示す場合、制御信号204は、第1のバッファリング済みオーディオ214を第2のバッファリング済みオーディオ224と同期するための時間差だけ、第1のバッファリング済みオーディオ214の出力を遅延するように第1のバッファ210に指示し得る。第2のタイムスタンプが第1のタイムスタンプよりも早い時刻を示す場合、制御信号204は、第1のバッファリング済みオーディオ214を第2のバッファリング済みオーディオ224と同期するための時間差だけ、第2のバッファリング済みオーディオ224の出力を遅延するように第2のバッファ220に指示し得る。遅延コントローラは、参加者AおよびBからのパケット[A1,A2,...]とパケット[B1,B2,...]との間のインターパケット到着時刻を考慮に入れ、参加者Aおよび参加者Bからのメディアをバッファリングするために必要な、様々なデジッタバッファ深さを推定し得るとともに、パケット損失(またはジッタが誘発した隠蔽)を低く維持し、3GPPTS26.114の最小性能要件を満たす。たとえば、参加者Aが、不十分な無線通信路条件にあり得、低ジッタの、高いパケット損失レートを有し、参加者Bが、非常に低いパケット損失レートであるが、高ジッタの、良好な無線通信路条件にある。遅延コントローラは、参加者AおよびBからのパケットのジッタ/損失特性を考慮に入れ、たとえば、参加者Bからのパケットについてより大きいバッファ深さを割り当て、したがって全パケット損失は、参加者Aが受ける損失のそれを超えない。上記の遅延コントローラ機構はまた、3つ以上のメディアストリームを受信することを含むケースに対して拡張され得る。
一実装によれば、方法600は、モバイルデバイスの第1のデコーダにおいて、第1のバッファリング済みオーディオを復号化して、第1の復号化オーディオを生成することをさらに含み得る。たとえば、図2Aを参照すると、第1のデコーダ212は、第1のバッファリング済みオーディオ214を復号化して、第1の復号化オーディオ216を生成し得る。方法600はまた、モバイルデバイスの第2のデコーダにおいて、第2のバッファリング済みオーディオを復号化して、第2の復号化オーディオを生成することをも含み得る。たとえば、図2Aを参照すると、第2のデコーダ222は、第2のバッファリング済みオーディオ224を復号化して、第2の復号化オーディオ226を生成し得る。
一実装によれば、方法600は、第1の復号化オーディオに対する第1の空間ステアリング演算を実施して、第1の復号化オーディオ216をスピーカから第1の角度に投射することを含み得る。たとえば、図2Aを参照すると、空間ステアリングプロセッサ240は、第1の復号化オーディオ216に対する第1の空間ステアリング演算を実施して、第1の復号化オーディオ216をスピーカから第1の角度(α1)に投射し得る。例示のために、空間ステアリングプロセッサ240は、第1の復号化オーディオ216に第1のHRTF242を適用して、第1の角度(α1)に従って第1の復号化オーディオ216をステアリング(たとえば、パン)し得る。第1のHRTF242はまた、空間ステアリングプロセッサ240によって使用され、第1の復号化オーディオ216の第1の利得が調整され得る。
方法600の一実装によれば、第1のデコーダが遅延コントローラから制御信号を受信し得、第2のデコーダも遅延コントローラから制御信号を受信し得る。第1のデコーダは、制御信号に基づいて第1のオーディオストリームに関連する第1のデータパケットを復号化し、または制御信号に基づいて第1のデータパケットに対する復号化演算をバイパスし得る。同様に、第2のデコーダは、制御信号に基づいて第2のオーディオストリームに関連する第2のデータパケットを復号化し、または制御信号に基づいて第2のデータパケットに対する復号化演算をバイパスし得る。一実装によれば、第1のデコーダと第2のデコーダとは異なるデコーダである。第1のデコーダは、すべてのカンファレンス参加者によってサポートされ得、第2のデコーダは、カンファレンス参加者のサブセットによってサポートされ得る。別の実装によれば、第1のデコーダおよび第2のデコーダは、相異なるモードで動作する類似のデコーダを含む。
方法600はまた、第2の復号化オーディオに対する第2の空間ステアリング演算を実施して、第2の復号化オーディオをスピーカから第2の角度に投射することをも含み得る。たとえば、図2Aを参照すると、空間ステアリングプロセッサ240は、第2の復号化オーディオ226に対する第2の空間ステアリング演算を実施して、第2の復号化オーディオ226をスピーカから第2の角度(α2)に投射し得る。例示のために、空間ステアリングプロセッサ240は、第2の復号化オーディオ226に第2のHRTF244を適用して、第2の角度(α2)に従って第2の復号化オーディオ226をステアリング(たとえば、パン)し得る。第2のHRTF244はまた、空間ステアリングプロセッサ240によって使用され、第2の復号化オーディオ226の第2の利得が調整され得る。
一実装によれば、方法600は、ネットワークデバイスに第1の信号を供給して、第1のオーディオストリームの第1のビットレートを調整することを含み得る。たとえば、図1Aおよび図2Aを参照すると、ネットワークデバイス190は、第1のオーディオストリーム114を第1のデバイス110からモバイルデバイス102の第1のバッファ210に経路指定し得、ネットワークデバイス190は、第2のオーディオストリーム124を第2のデバイス120からモバイルデバイス102の第2のバッファ220に経路指定し得る。モバイルデバイス102は、ネットワークデバイス190に第1の信号を供給して、第1のオーディオストリーム114がモバイルデバイス102に供給される第1のビットレートを調整し得る。方法600はまた、ネットワークデバイスに第2の信号を供給して、第2のオーディオストリームの第2のビットレートを調整することをも含み得る。たとえば、図1Aを参照すると、モバイルデバイス102は、ネットワークデバイス190に第2の信号を供給して、第2のオーディオストリーム124がモバイルデバイス102に供給される第2のビットレートを調整し得る。
図6の方法600は、バッファリング済みオーディオ214、224、234を同期することによってカンファレンス中の3GPPTS26.114遅延要件を満たし得る。たとえば、遅延コントローラ202は、対応するオーディオストリーム114、124、134のRTPパケット内のタイムスタンプに基づいてバッファリング済みオーディオ214、224、234を同期するための制御信号204を生成し得る。さらに、方法600は、カンファレンスの複数の参加者が同時に話しているとき、オーディオパニングが「疲労」を低減することを可能にし得る。たとえば、方法600は、復号化オーディオ216、226、236の空間的ステアリングを可能にし得、それによって、復号化オーディオ216、226、236に関連付けられたカンファレンス参加者が、空間的に分散するように見える。
いくつかの例では、図6の方法600が、中央演算処理装置(CPU)、DSP、コントローラなどの処理装置のハードウェア(たとえば、FPGAデバイス、ASICなど)を介して、ファームウェアデバイスを介して、またはそれらの任意の組合せを介して実装され得る。一例として、図6の方法600は、図7に関して説明されるように、命令を実行するプロセッサによって実施され得る。
図7を参照すると、モバイルデバイス102の特定の例示的実装のブロック図が示されている。特定の実装では、デバイス102はプロセッサ706(たとえば、CPU)を含む。モバイルデバイス102は、1つまたは複数の追加のプロセッサ710(たとえば、1つまたは複数のDSP)を含み得る。
モバイルデバイス102は、メモリ732と、アンテナ742に結合されたワイヤレスコントローラ740とを含み得る。ワイヤレスコントローラ740は、図2A〜2Bの遅延コントローラ202と、図2A〜図2Bの第1のバッファ210と、図2A〜図2Bの第1のデコーダ212と、図2A〜図2Bの第2のバッファ220と、図2A〜図2Bの第2のデコーダ222と、図2A〜図2Bの第3のバッファ230と、図2A〜図2Bの第3のデコーダ232と、図2A〜図2Bの空間ステアリングプロセッサ240とを含む。図2A〜図2Bの遅延コントローラ202の論理はまた、プロセッサ706、あるいは1つまたは複数の追加のプロセッサ710内に実装され得る。したがって、ワイヤレスコントローラ740内の第1のバッファ210は、アンテナ742を介して第1のオーディオストリーム114を受信するように構成され得、ワイヤレスコントローラ740内の第2のバッファ220は、アンテナ742を介して第2のオーディオストリーム124を受信するように構成され得、ワイヤレスコントローラ740内の第3のバッファ230は、アンテナ742を介して第3のオーディオストリーム134を受信するように構成され得る。カンファレンス中の3GPPTS26.114遅延要件を満たすために、前述のように、制御信号(図示せず)がバッファ210、220、230に供給され、バッファ210、220、230から出力されるバッファリング済みオーディオが同期され得る。
モバイルデバイス102は、ディスプレイコントローラ726に結合されたディスプレイ728を含み得る。スピーカ736、マイクロフォン738、またはその両方が、CODEC734に結合され得る。CODEC734は、デジタル-アナログ変換器(DAC)702およびアナログ-デジタル変換器(ADC)704を含み得る。一例では、空間ステアリングプロセッサの出力(たとえば、ステレオ信号)が、さらなる処理のために1つまたは複数の追加のプロセッサ710に供給され、CODEC734に供給され得る。ステレオ信号は、DAC702を介してアナログ信号に変換され、スピーカ736において出力され得る。
メモリ732は、図6の方法600を実施するために、プロセッサ706、プロセッサ710、CODEC734、ワイヤレスコントローラ740およびその構成要素、またはそれらの組合せによって実行可能な命令760を含み得る。メモリ732、あるいはプロセッサ706、プロセッサ710、ワイヤレスコントローラ740、および/またはCODEC734のうちの1つまたは複数の構成要素は、コンピュータ(たとえば、CODEC734内のプロセッサ、プロセッサ706、および/またはプロセッサ710)によって実行されるとき、図6の方法600をコンピュータに実施させる命令(たとえば、命令760)を含む非一時的コンピュータ可読媒体であり得る。
遅延コントローラ202、バッファ210、220、230、デコーダ212、222、232、および空間ステアリングプロセッサ240がワイヤレスコントローラ740の内部にあるものとして示されているが、別の実装では、バッファ210、220、230、デコーダ212、222、232、または空間ステアリングプロセッサ240のうちの1つまたは複数は、CODEC734、プロセッサ710、1つまたは複数の追加のプロセッサ706、またはモバイルデバイス102の別の構成要素の内部にあり得る。
特定の実装では、モバイルデバイス102は、移動局モデム(MSM)などのシステムインパッケージまたはシステムオンチップデバイス722内に含まれ得る。特定の実装では、プロセッサ706、プロセッサ710、ディスプレイコントローラ726、メモリ732、CODEC734、およびワイヤレスコントローラ740は、システムインパッケージまたはシステムオンチップデバイス722内に含まれ得る。特定の実装では、タッチスクリーンおよび/またはキーパッドなどの入力デバイス730と、電源744とは、システムオンチップデバイス722に結合される。さらに、特定の実装では、図7に示されるように、ディスプレイ728、入力デバイス730、スピーカ736、マイクロフォン738、アンテナ742、および電源744は、システムオンチップデバイス722の外部にある。しかしながら、ディスプレイ728、入力デバイス730、スピーカ738、マイクロフォン736、アンテナ742、および電源744の各々は、インターフェースやコントローラなどのシステムオンチップデバイス722の構成要素に結合され得る。例示的な例では、モバイルデバイス102は、移動体通信デバイス、スマートフォン、セルラーフォン、ラップトップコンピュータ、コンピュータ、タブレットコンピュータ、携帯情報端末、ディスプレイデバイス、テレビジョン、ゲーミングコンソール、音楽プレーヤ、ラジオ、デジタルビデオプレーヤ、光ディスクプレーヤ、同調器、カメラ、ナビゲーションデバイス、デコーダシステム、エンコーダシステム、またはそれらの任意の組合せに対応する。
図7は、モバイルデバイス102の構成要素を示すが、本明細書で説明される他のデバイス(たとえば、図1A〜1Cの第1のデバイス110、図1A〜図1Cの第2のデバイス120、および/または図1A〜図1Cの第3のデバイス130)は、モバイルデバイス102についての図7に示されるのと同様の構成要素を含み得る。
本開示の追加の実装が、本明細書で付録の形で提示される。そのような実装が、図1A〜7を参照しながら図示され、説明されたいくつかの実装の代わりに、またはそれに加えて利用され得ることを理解されたい。
記載の実装とともに、カンファレンスの第1の参加者に関連付けられた第1のデバイスから第1のオーディオストリームを受信するための手段を含む装置が開示される。たとえば、第1のオーディオストリームを受信するための手段は、図2A〜図2Bおよび図7の第1のバッファ210、図7のワイヤレスコントローラ740、第1のオーディオストリームを受信するように構成された1つまたは複数のデバイス(たとえば、非一時的コンピュータ可読記憶媒体の命令を実行するプロセッサ)、またはそれらの任意の組合せを含み得る。
装置はまた、カンファレンスの第2の参加者に関連付けられた第2のデバイスから第2のオーディオストリームを受信するための手段をも含み得る。たとえば、第2のオーディオストリームを受信するための手段は、図2A〜図2Bおよび図7の第2のバッファ220、図7のワイヤレスコントローラ740、第2のオーディオストリームを受信するように構成された1つまたは複数のデバイス(たとえば、非一時的コンピュータ可読記憶媒体の命令を実行するプロセッサ)、またはそれらの任意の組合せを含み得る。
装置はまた、制御信号を生成するための手段をも含み得る。制御信号は、第1のオーディオストリームを受信するための手段および第2のオーディオストリームを受信するための手段に供給され、第1のオーディオストリームを受信するための手段から出力される第1のバッファリング済みオーディオが、第2のオーディオストリームを受信するための手段から出力される第2のバッファリング済みオーディオと同期される。たとえば、制御信号を生成するための手段は、図2A〜図2Bおよび図7の遅延コントローラ202、図7のワイヤレスコントローラ740、図7のプロセッサ706、図7の1つまたは複数の追加のプロセッサ710、制御信号を生成するように構成された1つまたは複数のデバイス(たとえば、非一時的コンピュータ可読記憶媒体の命令を実行するプロセッサ)、またはそれらの任意の組合せを含み得る。
本明細書で開示される実装とともに説明される様々な例示的論理ブロック、構成、モジュール、回路、およびアルゴリズムステップが、電子ハードウェア、ハードウェアプロセッサなどの処理デバイスによって実行されるコンピュータソフトウェア、またはその両方の組合せとして実装され得ることを当業者ならさらに理解されよう。様々な例示的構成要素、ブロック、構成、モジュール、回路、およびステップが、その機能の点で上記で一般的に説明された。そのような機能がハードウェアとして実装されるか、それとも実行可能なソフトウェアとして実装されるかは、特定の応用例、およびシステム全体に課される設計制約に依存する。当業者は、特定の各機能について様々な方式で記載の機能を実装し得るが、そのような実装決定が、本開示の範囲からの逸脱を引き起こすと解釈されるべきではない。
本明細書で開示される実装に関連して説明された方法またはアルゴリズムのステップは、ハードウェアとして直接的に、プロセッサによって実行されるソフトウェアモジュールとして、またはその2つの組合せとして実施され得る。ソフトウェアモジュールは、ランダムアクセスメモリ(RAM)、磁気抵抗ランダムアクセスメモリ(MRAM)、スピントルク転送MRAM(STT-MRAM)、フラッシュメモリ、読取り専用メモリ(ROM)、プログラマブル読取り専用メモリ(PROM)、消去可能プログラマブル読取り専用メモリ(EPROM)、電気消去可能プログラマブル読取り専用メモリ(EEPROM)、レジスタ、ハードディスク、取外し可能ディスク、コンパクトディスク読取り専用メモリ(CD-ROM)などのメモリデバイス内に常駐し得る。プロセッサがメモリデバイスから情報を読み取り、メモリデバイスに情報を書き込むことができるように、例示的メモリデバイスがプロセッサに結合される。代替として、メモリデバイスはプロセッサと一体であり得る。プロセッサおよび記憶媒体はASIC内に常駐し得る。ASICはコンピューティングデバイスまたはユーザ端末内に常駐し得る。代替として、プロセッサおよび記憶媒体は、コンピューティングデバイスまたはユーザ端末内の別個の構成要素として常駐し得る。
開示される実装の先の説明は、開示される実装を当業者が作成または使用することを可能にするように与えられる。これらの実装に対する様々な修正が当業者には容易に明らかとなり、本開示の範囲から逸脱することなく、本明細書で定義される原理は、他の実装に適用され得る。したがって、本開示は、本明細書に示される実装に限定されず、以下の特許請求の範囲によって定義される原理および新規な特徴に適合する、可能な最も広い範囲が与えられるべきである。
100 システム
102 モバイルデバイス
104 オーディオストリーム
110 第1のデバイス
114 第1のオーディオストリーム
120 第2のデバイス
124 第2のオーディオストリーム
130 第3のデバイス
134 第3のオーディオストリーム
140 第4のデバイス
144 第4のオーディオストリーム
150 第5のデバイス
153 システム
154 第5のオーディオストリーム
170 システム
180 ゲートウェイ
184 ミキシング済みオーディオストリーム
190 ネットワークデバイス
202 遅延コントローラ
204 制御信号
205 フィードバック信号
210 第1のバッファ
211 第1のRDCA
212 第1のデコーダ
214 第1のバッファリング済みオーディオ
216 第1の復号化オーディオ
224 第2のバッファリング済みオーディオ
226 第2の復号化オーディオ
234 第3のバッファリング済みオーディオ
236 第3の復号化オーディオ
220 第2のバッファ
221 第2のRDCA
222 第2のデコーダ
230 第3のバッファ
231 第3のRDCA
232 第3のデコーダ
240 空間ステアリングプロセッサ
242 第1のHRTF
244 第2のHRTF
246 第3のHRTF
250 頭部追跡モジュール
270 ステレオ信号
280 第Nのバッファ
282 第Nのデコーダ
284 第NのHRTF
292 第Nのオーディオストリーム
294 第Nのバッファリング済みオーディオ
296 第Nの復号化オーディオ
702 デジタル-アナログ変換器(DAC)
704 アナログ-デジタル変換器(ADC)
706 プロセッサ
710 プロセッサ
726 ディスプレイコントローラ
728 ディスプレイ
730 入力デバイス
732 メモリ
734 CODEC
736 スピーカ
738 マイクロフォン
740 ワイヤレスコントローラ
742 アンテナ
744 電源
760 命令

Claims (15)

  1. カンファレンス中のオーディオを管理するための方法であって、
    モバイルデバイスの第1のバッファにおいて、前記カンファレンスの第1の参加者に関連付けられた第1のデバイスから第1のオーディオストリームを受信するステップと、
    前記モバイルデバイスの第2のバッファにおいて、前記カンファレンスの第2の参加者に関連付けられた第2のデバイスから第2のオーディオストリームを受信するステップと、
    前記モバイルデバイスの遅延コントローラにおいて制御信号を生成するステップであって、前記制御信号が、前記第1のバッファおよび前記第2のバッファに供給され、前記第1のバッファから出力される第1のバッファリング済みオーディオが、前記第2のバッファから出力される第2のバッファリング済みオーディオと同期され、前記第1のバッファリング済みオーディオが、復号化演算を行って前記第1のバッファリング済みオーディオに関連する第1の信号および前記第2のバッファリング済みオーディオに関連する第2の信号を出力する前に前記第2のバッファリング済みオーディオと同期される、ステップと
    を含む、方法。
  2. 前記モバイルデバイスにおいて、前記第1のデバイスによって与えられた前記第1のオーディオストリームの第1のタイムスタンプを前記第2のデバイスによって与えられた前記第2のオーディオストリームの第2のタイムスタンプと比較するステップであって、前記第1のタイムスタンプおよび前記第2のタイムスタンプが共通クロックソースに基づく、ステップと、
    前記モバイルデバイスにおいて、前記第1のタイムスタンプと前記第2のタイムスタンプとの間の時間差を決定するステップと
    をさらに含む、請求項1に記載の方法。
  3. 前記第1のタイムスタンプが前記第2のタイムスタンプよりも早い時刻を示す場合、前記制御信号が、前記第1のバッファリング済みオーディオの出力を前記時間差だけ遅延するように前記第1のバッファに指示する、または、
    前記第2のタイムスタンプが前記第1のタイムスタンプよりも早い時刻を示す場合、前記制御信号が、前記第2のバッファリング済みオーディオの出力を前記時間差だけ遅延するように前記第2のバッファに指示する、請求項2に記載の方法。
  4. 前記モバイルデバイスの第1のデコーダにおいて、前記第1のバッファリング済みオーディオを復号化して、第1の復号化オーディオを生成するステップと、
    前記モバイルデバイスの第2のデコーダにおいて、前記第2のバッファリング済みオーディオを復号化して、第2の復号化オーディオを生成するステップと
    を含む、請求項1に記載の方法。
  5. 前記モバイルデバイスにおいて、前記第1の復号化オーディオに対する第1の空間ステアリング演算を実施して、前記第1の復号化オーディオをスピーカから第1の角度に投射するステップと、
    前記モバイルデバイスにおいて、前記第2の復号化オーディオに対する第2の空間ステアリング演算を実施して、前記第2の復号化オーディオを前記スピーカから第2の角度に投射するステップと
    をさらに含む、請求項4に記載の方法。
  6. 前記第1の空間ステアリング演算を実施する前記ステップが、前記第1の復号化オーディオに第1の頭部伝達関数(HRTF)を適用するステップを含み、前記第2の空間ステアリング演算を実施する前記ステップが、前記第2の復号化オーディオに第2のHRTFを適用するステップを含む、請求項5に記載の方法。
  7. 前記第1の角度および前記第2の角度が、ユーザ定義の設定に基づく、請求項5に記載の方法。
  8. モバイルデバイスのユーザに関連する頭部移動を検出したことに応答して、前記第1の角度および前記第2の角度をシフト量だけシフトするステップをさらに含む、請求項7に記載の方法。
  9. 前記第1の復号化オーディオの第1の利得を調整するステップと、
    前記第2の復号化オーディオの第2の利得を調整するステップと
    をさらに含み、
    前記第1の利得および前記第2の利得が、ユーザ定義の設定に基づいて調整される、請求項4に記載の方法。
  10. 前記第1のオーディオストリームが、ネットワークデバイスを介して前記第1のデバイスから前記第1のバッファに経路指定され、前記第2のオーディオストリームが、前記ネットワークデバイスを介して前記第2のデバイスから前記第2のバッファに経路指定される、請求項1に記載の方法。
  11. 前記ネットワークデバイスに第1の信号を供給して、前記第1のオーディオストリームの第1のビットレートを調整するステップと、
    前記ネットワークデバイスに第2の信号を供給して、前記第2のオーディオストリームの第2のビットレートを調整するステップと
    をさらに含む、請求項10に記載の方法。
  12. 前記第1のビットレートおよび前記第2のビットレートが、ユーザ定義の設定、前記モバイルデバイスのハードウェア能力、またはそれらの組合せに基づいて調整される、請求項11に記載の方法。
  13. 前記モバイルデバイス、前記第1のデバイス、および前記第2のデバイスがそれぞれ、Third Generation Partnership Project(3GPP)規格と互換性のあるユーザ機器(UE)を含む、または、
    前記第1のオーディオストリームが、前記モバイルデバイスのアンテナを介して受信される、または、
    前記第1のバッファ、前記第2のバッファ、および遅延コントローラが、前記モバイルデバイスのモデム内に含まれる、または、
    前記第1のバッファが第1のデジッタバッファを含み、前記第2のバッファが第2のデジッタバッファを含む、請求項1に記載の方法。
  14. カンファレンス中のオーディオを管理するためのモバイルデバイスであって、
    カンファレンスの第1の参加者に関連付けられた第1のデバイスから第1のオーディオストリームを受信するように構成された第1のバッファと、
    前記カンファレンスの第2の参加者に関連付けられた第2のデバイスから第2のオーディオストリームを受信するように構成された第2のバッファと、
    制御信号を生成するように構成された遅延コントローラであって、前記制御信号が、前記第1のバッファおよび前記第2のバッファに供給され、前記第1のバッファから出力される第1のバッファリング済みオーディオが、前記第2のバッファから出力される第2のバッファリング済みオーディオと同期され、前記第1のバッファリング済みオーディオが、復号化演算を行って前記第1のバッファリング済みオーディオに関連する第1の信号および前記第2のバッファリング済みオーディオに関連する第2の信号を出力する前に前記第2のバッファリング済みオーディオと同期される、遅延コントローラと
    を備える、モバイルデバイス。
  15. カンファレンス中のオーディオを管理するための命令を含むコンピュータ可読記憶媒体であって、前記命令が、モバイルデバイス内のプロセッサによって実行されるとき、前記プロセッサに、
    第1のバッファにおいて、前記カンファレンスの第1の参加者に関連付けられた第1のデバイスから第1のオーディオストリームを受信すること、
    第2のバッファにおいて、前記カンファレンスの第2の参加者に関連付けられた第2のデバイスから第2のオーディオストリームを受信すること、および
    遅延コントローラにおいて制御信号を生成することであって、前記制御信号が、前記第1のバッファおよび前記第2のバッファに供給され、前記第1のバッファから出力される第1のバッファリング済みオーディオが、前記第2のバッファから出力される第2のバッファリング済みオーディオと同期され、前記第1のバッファリング済みオーディオが、復号化演算を行って前記第1のバッファリング済みオーディオに関連する第1の信号および前記第2のバッファリング済みオーディオに関連する第2の信号を出力する前に前記第2のバッファリング済みオーディオと同期される、生成すること
    を含む動作を実施させる、コンピュータ可読記憶媒体。
JP2017551618A 2015-04-05 2016-03-30 カンファレンスオーディオ管理 Active JP6827950B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201562143154P 2015-04-05 2015-04-05
US62/143,154 2015-04-05
US201562144033P 2015-04-07 2015-04-07
US62/144,033 2015-04-07
US15/083,974 US10225814B2 (en) 2015-04-05 2016-03-29 Conference audio management
US15/083,974 2016-03-29
PCT/US2016/025058 WO2016164233A1 (en) 2015-04-05 2016-03-30 Conference audio management

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021006465A Division JP2021067956A (ja) 2015-04-05 2021-01-19 カンファレンスオーディオ管理

Publications (3)

Publication Number Publication Date
JP2018515009A JP2018515009A (ja) 2018-06-07
JP2018515009A5 JP2018515009A5 (ja) 2019-04-25
JP6827950B2 true JP6827950B2 (ja) 2021-02-10

Family

ID=57017761

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017551618A Active JP6827950B2 (ja) 2015-04-05 2016-03-30 カンファレンスオーディオ管理
JP2021006465A Pending JP2021067956A (ja) 2015-04-05 2021-01-19 カンファレンスオーディオ管理

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021006465A Pending JP2021067956A (ja) 2015-04-05 2021-01-19 カンファレンスオーディオ管理

Country Status (11)

Country Link
US (2) US10225814B2 (ja)
EP (2) EP3512186B1 (ja)
JP (2) JP6827950B2 (ja)
KR (1) KR102430838B1 (ja)
CN (1) CN107408395B (ja)
AU (1) AU2016244809B2 (ja)
BR (1) BR112017021350A2 (ja)
ES (2) ES2736878T3 (ja)
HU (1) HUE044919T2 (ja)
TW (1) TWI713511B (ja)
WO (1) WO2016164233A1 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015126301A1 (en) * 2014-02-21 2015-08-27 Telefonaktiebolaget L M Ericsson (Publ) Low latency media mixing in packet networks
US10225814B2 (en) * 2015-04-05 2019-03-05 Qualcomm Incorporated Conference audio management
JP6582589B2 (ja) * 2015-06-16 2019-10-02 ヤマハ株式会社 オーディオ機器
US9407989B1 (en) 2015-06-30 2016-08-02 Arthur Woodrow Closed audio circuit
JP6701573B2 (ja) * 2016-08-03 2020-05-27 株式会社リコー 音声処理装置、音声映像出力装置、及び遠隔会議システム
EP3301896B1 (en) * 2016-09-28 2019-07-24 British Telecommunications public limited company Streamed communication
US10796484B2 (en) * 2017-06-14 2020-10-06 Anand Babu Chitavadigi System and method for interactive multimedia and multi-lingual guided tour/panorama tour
US10432543B2 (en) * 2017-09-18 2019-10-01 Microsoft Technology Licensing, Llc Dual jitter buffers
US10404862B1 (en) 2018-08-22 2019-09-03 8X8, Inc. Encoder pools for conferenced communications
CN109474604A (zh) * 2018-11-27 2019-03-15 视联动力信息技术股份有限公司 一种视联网音频流处理方法及系统
US11765094B2 (en) * 2018-12-12 2023-09-19 Telefonaktiebolaget Lm Ericsson (Publ) Communication system with de-jitter buffer for reducing jitter
CN109814406B (zh) * 2019-01-24 2021-12-24 成都戴瑞斯智控科技有限公司 一种轨道模型电控仿真系统的数据处理方法及解码器架构
CN110085252A (zh) * 2019-03-28 2019-08-02 体奥动力(北京)体育传播有限公司 赛事制作中心集中控制系统的声画延时调整方法
US10652655B1 (en) 2019-04-30 2020-05-12 International Business Machines Corporation Cognitive volume and speech frequency levels adjustment
US11233836B2 (en) * 2019-05-31 2022-01-25 Apple Inc. Concurrent audio streaming to multiple wireless audio output devices
US11909795B1 (en) * 2019-11-25 2024-02-20 Amazon Technologies, Inc. Input switching for streaming content
CN113079267B (zh) * 2020-01-06 2023-05-05 波音频有限公司 房间内的音频会议
US11616589B2 (en) * 2020-06-25 2023-03-28 Sony Interactive Entertainment LLC Methods and systems for performing and recording live music near live with no latency
ES2952452T3 (es) * 2020-08-19 2023-10-31 Televic Conference Nv Un sistema de conferencias inalámbrico con detección temprana de pérdida de paquetes
CN112203102A (zh) * 2020-09-27 2021-01-08 平安国际智慧城市科技股份有限公司 网络监控的方法、装置、电子设备及介质
US11662975B2 (en) * 2020-10-06 2023-05-30 Tencent America LLC Method and apparatus for teleconference
US20220256028A1 (en) * 2021-02-08 2022-08-11 Samsung Electronics Co., Ltd. System and method for simultaneous multi-call support capability on compatible audio devices
US11522936B2 (en) * 2021-04-30 2022-12-06 Salesforce, Inc. Synchronization of live streams from web-based clients
JP2022182019A (ja) * 2021-05-27 2022-12-08 シャープ株式会社 会議システム、会議方法、及び会議プログラム
US11991232B2 (en) * 2021-05-28 2024-05-21 Spotify Ab Command buffering
US11916982B2 (en) * 2021-11-05 2024-02-27 Tencent America LLC Techniques for signaling multiple audio mixing gains for teleconferencing and telepresence for remote terminals using RTCP feedback
US11652655B1 (en) 2022-01-31 2023-05-16 Zoom Video Communications, Inc. Audio capture device selection for remote conference participants

Family Cites Families (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5844600A (en) * 1995-09-15 1998-12-01 General Datacomm, Inc. Methods, apparatus, and systems for transporting multimedia conference data streams through a transport network
US5953049A (en) * 1996-08-02 1999-09-14 Lucent Technologies Inc. Adaptive audio delay control for multimedia conferencing
FI106998B (fi) * 1999-01-15 2001-05-15 Nokia Mobile Phones Ltd Bittinopeuden ohjaus multimedialaitteessa
JP2001231035A (ja) * 2000-02-14 2001-08-24 Nec Corp 復号同期制御装置、復号装置、及び復号同期制御方法
US6850496B1 (en) * 2000-06-09 2005-02-01 Cisco Technology, Inc. Virtual conference room for voice conferencing
RU2293368C2 (ru) 2001-05-10 2007-02-10 Поликом Израиль Лтд. Способ (варианты) и система (варианты) для управления конференциями и блок управления для многоточечной мультимедийной/речевой системы
US7079658B2 (en) * 2001-06-14 2006-07-18 Ati Technologies, Inc. System and method for localization of sounds in three-dimensional space
US6870916B2 (en) * 2001-09-14 2005-03-22 Lucent Technologies Inc. Targeted and intelligent multimedia conference establishment services
US6865264B2 (en) * 2001-10-31 2005-03-08 International Business Machines Corporation Apparatus and method for providing conference call roster information with speaker voice identification
US7280650B2 (en) * 2002-08-28 2007-10-09 Intel Corporation Method and apparatus to manage a conference
US7180997B2 (en) * 2002-09-06 2007-02-20 Cisco Technology, Inc. Method and system for improving the intelligibility of a moderator during a multiparty communication session
US6839417B2 (en) * 2002-09-10 2005-01-04 Myriad Entertainment, Inc. Method and apparatus for improved conference call management
US7394833B2 (en) * 2003-02-11 2008-07-01 Nokia Corporation Method and apparatus for reducing synchronization delay in packet switched voice terminals using speech decoder modification
KR100619812B1 (ko) * 2003-09-06 2006-09-08 엘지전자 주식회사 휴대단말기의 멀티미디어 신호 분할 전송장치 및 방법
JP2005151044A (ja) * 2003-11-13 2005-06-09 Japan Science & Technology Agency 音声ミキシング方法、音声ミキシングシステム及び音声ミキシングのためのプログラム
US20050147261A1 (en) * 2003-12-30 2005-07-07 Chiang Yeh Head relational transfer function virtualizer
US7773581B2 (en) * 2004-03-19 2010-08-10 Ericsson Ab Method and apparatus for conferencing with bandwidth control
JP2005354351A (ja) * 2004-06-10 2005-12-22 Nippon Telegr & Teleph Corp <Ntt> 多地点コミュニケーションの通信端末装置および遅延同期制御方法
EP1775996A4 (en) * 2004-06-30 2011-08-10 Pioneer Corp REVERB-SETTING DEVICE, REVERB-SETTING METHOD, REVERB-SETTING PROGRAM, RECORDING MEDIUM CONTAINING THE PROGRAM, AND SOUND FIELD CORRECTION SYSTEM
US7720212B1 (en) * 2004-07-29 2010-05-18 Hewlett-Packard Development Company, L.P. Spatial audio conferencing system
US8718301B1 (en) * 2004-10-25 2014-05-06 Hewlett-Packard Development Company, L.P. Telescopic spatial radio system
JP4369957B2 (ja) * 2005-02-01 2009-11-25 パナソニック株式会社 再生装置
JP2006254064A (ja) * 2005-03-10 2006-09-21 Pioneer Electronic Corp 遠隔会議システム、音像位置割当方法および音質設定方法
JP2006279492A (ja) * 2005-03-29 2006-10-12 Tsuken Denki Kogyo Kk 電話会議システム
JP2006319779A (ja) * 2005-05-13 2006-11-24 Sumitomo Electric Ind Ltd テレビ会議制御装置、テレビ会議制御方法およびそのコンピュータ・プログラム
WO2008082276A1 (en) * 2007-01-05 2008-07-10 Lg Electronics Inc. A method and an apparatus for processing an audio signal
US20080187143A1 (en) * 2007-02-01 2008-08-07 Research In Motion Limited System and method for providing simulated spatial sound in group voice communication sessions on a wireless communication device
EP1954019A1 (en) 2007-02-01 2008-08-06 Research In Motion Limited System and method for providing simulated spatial sound in a wireless communication device during group voice communication sessions
US7792674B2 (en) * 2007-03-30 2010-09-07 Smith Micro Software, Inc. System and method for providing virtual spatial sound with an audio visual player
US9060094B2 (en) * 2007-09-30 2015-06-16 Optical Fusion, Inc. Individual adjustment of audio and video properties in network conferencing
US8509454B2 (en) * 2007-11-01 2013-08-13 Nokia Corporation Focusing on a portion of an audio scene for an audio signal
CN101188525B (zh) * 2007-11-27 2011-10-26 成都市华为赛门铁克科技有限公司 一种语音流的处理方法及装置
WO2009111798A2 (en) * 2008-03-07 2009-09-11 Sennheiser Electronic Gmbh & Co. Kg Methods and devices for reproducing surround audio signals
US8321214B2 (en) * 2008-06-02 2012-11-27 Qualcomm Incorporated Systems, methods, and apparatus for multichannel signal amplitude balancing
EP2160005A1 (en) 2008-08-28 2010-03-03 BRITISH TELECOMMUNICATIONS public limited company Decentralised spatialized audio processing
CN103474076B (zh) * 2008-10-06 2017-04-12 爱立信电话股份有限公司 用于输送对齐的多通道音频的方法和设备
ES2570967T4 (es) * 2008-10-06 2017-08-18 Telefonaktiebolaget Lm Ericsson (Publ) Método y aparato para proporcionar audio alineado de múltiples canales
JP5340296B2 (ja) * 2009-03-26 2013-11-13 パナソニック株式会社 復号化装置、符号化復号化装置および復号化方法
EP4398249A3 (en) * 2010-04-13 2024-07-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Decoding sample-accurate representation of an audio signal
CN101902649A (zh) * 2010-07-15 2010-12-01 浙江工业大学 一种基于h.264标准的音视频同步控制方法
US20130022189A1 (en) * 2011-07-21 2013-01-24 Nuance Communications, Inc. Systems and methods for receiving and processing audio signals captured using multiple devices
US9584385B2 (en) * 2012-01-19 2017-02-28 Comcast Cable Communications, Llc Adaptive buffer control
WO2013142657A1 (en) * 2012-03-23 2013-09-26 Dolby Laboratories Licensing Corporation System and method of speaker cluster design and rendering
EP2829049B1 (en) * 2012-03-23 2021-05-26 Dolby Laboratories Licensing Corporation Clustering of audio streams in a 2d/3d conference scene
JP6339997B2 (ja) * 2012-03-23 2018-06-06 ドルビー ラボラトリーズ ライセンシング コーポレイション 2dまたは3d会議シーンにおける語り手の配置
TW201347507A (zh) * 2012-05-03 2013-11-16 Acer Inc 遠程電話會議系統及方法
US20140032649A1 (en) * 2012-07-24 2014-01-30 Academic Networking and Services (ANS), LLC Method and system for educational networking and services
WO2014100374A2 (en) * 2012-12-19 2014-06-26 Rabbit, Inc. Method and system for content sharing and discovery
CN103237191B (zh) * 2013-04-16 2016-04-06 成都飞视美视频技术有限公司 在视频会议中同步推送音视频的方法
CN103295610B (zh) * 2013-05-22 2016-03-02 华为技术有限公司 一种播放音频的方法及装置
CN104244164A (zh) * 2013-06-18 2014-12-24 杜比实验室特许公司 生成环绕立体声声场
ES2755349T3 (es) * 2013-10-31 2020-04-22 Dolby Laboratories Licensing Corp Renderización binaural para auriculares utilizando procesamiento de metadatos
US20150382129A1 (en) * 2014-06-30 2015-12-31 Microsoft Corporation Driving parametric speakers as a function of tracked user location
CN104269182B (zh) * 2014-09-18 2017-05-31 歌尔股份有限公司 一种音频同步播放的方法、装置和系统
US9521057B2 (en) * 2014-10-14 2016-12-13 Amazon Technologies, Inc. Adaptive audio stream with latency compensation
US10225814B2 (en) * 2015-04-05 2019-03-05 Qualcomm Incorporated Conference audio management

Also Published As

Publication number Publication date
WO2016164233A1 (en) 2016-10-13
TWI713511B (zh) 2020-12-21
JP2018515009A (ja) 2018-06-07
CN107408395A (zh) 2017-11-28
JP2021067956A (ja) 2021-04-30
KR102430838B1 (ko) 2022-08-08
EP3281396B1 (en) 2019-04-17
US20190150113A1 (en) 2019-05-16
EP3281396A1 (en) 2018-02-14
ES2847416T3 (es) 2021-08-03
US10225814B2 (en) 2019-03-05
ES2736878T3 (es) 2020-01-08
EP3512186A1 (en) 2019-07-17
US11910344B2 (en) 2024-02-20
TW201640878A (zh) 2016-11-16
HUE044919T2 (hu) 2019-11-28
AU2016244809A1 (en) 2017-09-14
EP3512186B1 (en) 2020-10-28
CN107408395B (zh) 2020-12-01
KR20170134464A (ko) 2017-12-06
US20160295539A1 (en) 2016-10-06
BR112017021350A2 (pt) 2018-06-26
AU2016244809B2 (en) 2019-11-14

Similar Documents

Publication Publication Date Title
JP6827950B2 (ja) カンファレンスオーディオ管理
US6850496B1 (en) Virtual conference room for voice conferencing
US20080165708A1 (en) Multimedia conferencing method and signal
JP2011142616A (ja) 無線通信システムにおけるオーディオおよびビデオデータの同期
WO2008121032A9 (en) Media stream setup in a group communication system
US11985173B2 (en) Method and electronic device for Bluetooth audio multi-streaming
US20040042601A1 (en) Method and apparatus to manage a conference
JP2024102276A (ja) 没入的オーディオ・サービスにおけるオーディオ処理
RU2810920C2 (ru) Обработка звука в звуковых услугах с эффектом присутствия
WO2024134010A1 (en) Complexity reduction in multi-stream audio
CN113079267B (zh) 房间内的音频会议
WO2021255327A1 (en) Managing network jitter for multiple audio streams

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190313

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210120

R150 Certificate of patent or registration of utility model

Ref document number: 6827950

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250