JP6596074B2 - 聴覚デバイスを介した多数の聴取環境生成技法 - Google Patents

聴覚デバイスを介した多数の聴取環境生成技法 Download PDF

Info

Publication number
JP6596074B2
JP6596074B2 JP2017510879A JP2017510879A JP6596074B2 JP 6596074 B2 JP6596074 B2 JP 6596074B2 JP 2017510879 A JP2017510879 A JP 2017510879A JP 2017510879 A JP2017510879 A JP 2017510879A JP 6596074 B2 JP6596074 B2 JP 6596074B2
Authority
JP
Japan
Prior art keywords
audio
auditory
auditory scene
request
audio components
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017510879A
Other languages
English (en)
Other versions
JP2017528990A (ja
Inventor
チェンソ, ダヴィデ ディ
シュテファン マルティ,
アジェイ ジュネジャ,
Original Assignee
ハーマン インターナショナル インダストリーズ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=55438075&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP6596074(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by ハーマン インターナショナル インダストリーズ インコーポレイテッド filed Critical ハーマン インターナショナル インダストリーズ インコーポレイテッド
Publication of JP2017528990A publication Critical patent/JP2017528990A/ja
Application granted granted Critical
Publication of JP6596074B2 publication Critical patent/JP6596074B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1083Reduction of ambient noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02087Noise filtering the noise being separate speech, e.g. cocktail party

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Telephonic Communication Services (AREA)
  • Telephone Function (AREA)

Description

関連出願の相互参照
この出願は、2014年9月10日に出願された、米国特許出願番号第14/483,044の利益を主張するものであり、参照により本明細書に組み込まれる。
本発明の実施形態は、一般に、ヒューマンデバイスインターフェースに関し、より詳細には、聴覚デバイスを介して多数の聴取環境を生成するための技法に関する。
様々な状況において、人は、1人または複数の他の人が居ながらプライベートな会話をする必要または要望を認めることがしばしばある。例えば、これに限定されないが、カンファレンスミーティングに参加している或る人物が、ミーティング中に重要な電話の呼び出しを受けることがある。ミーティングを妨害するのを防ぐために、そうした人物は、部屋を物理的に離れるか、その呼び出しを取らないことを選択するかもしれない。別の実施例において、これに限定されないが、乗り物に乗っている或る人物が、他の乗客に対してプライバシーを保ちながら通話を開始することや、他の乗客間の会話を妨害するのを避けることを望むことがある。このような場合、そうした人物は、通話を開始してひそひそ声で話すか、または、通話がプライベートに成され得る後にまで通話を先延ばしにすることがある。さらに別の実施例において、これに限定されないが、グループミーティングにおける主な会話が、グループミーティングの参加者の一部の間での二次的なミーティングの必要性を生じさせることがある。このような場合、そうした参加者の一部は、別のミーティングルームが利用可能な場合には、別のミーティングルームに席を移すことがあり、または、二次的なミーティングを後に先延ばしにすることがある。
これらのアプローチに関する1つの起こり得る問題は、重要または必要な会話が、後にまで不利益に先延ばしにされることがあり、または、主な会話が第2の会話によって妨害されることがあることである。これらのアプローチに関する別の起こり得る問題は、第2の会話が、所望のレベルのプライバシーを享受し得ないことがあり、または、小声で行われて、そうした会話が参加者に理解し辛くなることがあることである。
上記で示したように、多数の会話に同時に対応する新たな技法が有用であろう。
述べられる1つまたは複数の実施形態は、無線ネットワークインターフェース及びプロセッサを含むコンピューティングデバイスを含む。プロセッサは、マイクを介して、第1の複数の音声構成要素を含む第1の聴覚信号を受信するように構成される。プロセッサはさらに、第1の複数の音声構成要素に含まれる、或る第1の音声構成要素を少なくとも部分的に抑制するため、要求を受信するように構成される。プロセッサはさらに、第1の音声構成要素が少なくとも部分的に抑制された状態で、第1の複数の音声構成要素を含む第2の聴覚信号を生成するように構成される。プロセッサはさらに、出力のために、第2の聴覚信号をスピーカへ伝送するように構成される。
他の実施形態は、これに限定されないが、処理ユニットに、開示される方法の1つまたは複数の態様を実施させることを可能にする命令を含むコンピュータ可読媒体を含む。他の実施形態は、これに限定されないが、開示される方法の1つまたは複数の態様を実施する方法、及び、開示される方法の1つまたは複数の態様を実施するように構成されるコンピューティングシステムを含む。
本明細書は、例えば、以下の項目も提供する。
(項目1)
コンピュータにより実施される、第1の聴覚情景コントローラと関連する聴覚情景を生成する方法であって、
マイクから、第1の複数の音声構成要素を含む第1の聴覚信号を受信することと、
前記第1の複数の音声構成要素に含まれる、或る第1の音声構成要素を少なくとも部分的に抑制するため、要求を受信することと、
前記第1の音声構成要素が少なくとも部分的に抑制された状態で、前記第1の複数の音声構成要素を含む第2の聴覚信号を生成することと、
出力のために、前記第2の聴覚信号をスピーカへ伝送すること、
を含む、前記方法。
(項目2)
項目1に記載のコンピュータにより実施される方法であって、さらに、
第2の聴覚情景コントローラと関連する第2の複数の音声構成要素に含まれる、或る第2の音声構成要素を抑制するため、第2の聴覚情景コントローラへ要求を伝送することを含む、前記方法。
(項目3)
項目1に記載のコンピュータにより実施される方法であって、さらに、
前記第1の音声構成要素を抑制するのを中断するため、要求を受信することと、
前記第1の音声構成要素が抑制されていない状態で、前記第1の複数の音声構成要素を含む第3の聴覚信号を生成することと、
出力のために、前記第3の聴覚信号を前記スピーカへ伝送すること、
を含む、前記方法。
(項目4)
項目1に記載のコンピュータにより実施される方法であって、
前記第2の聴覚信号を生成することが、前記第1の音声構成要素が完全に抑制された状態で、前記第1の複数の音声構成要素を含む前記第2の聴覚信号を生成することを含む、
前記方法。
(項目5)
項目1に記載のコンピュータにより実施される方法であって、さらに、
前記第1の複数の音声構成要素に含まれる第2の音声構成要素を抑制するため、要求を受信することを含み、
前記第2の聴覚信号を生成することが、前記第1の聴覚信号に含まれる第2の音声構成要素を部分的に抑制することを含む、前記方法。
(項目6)
項目1に記載のコンピュータにより実施される方法であって、
前記第2の聴覚信号を生成することがさらに、前記マイクにより受信されるバックグラウンドノイズ信号を抑制することを含む、前記方法。
(項目7)
項目1に記載のコンピュータにより実施される方法であって、
前記マイク及び前記スピーカが、インイヤー聴覚デバイスに組み込まれる、前記方法。
(項目8)
項目1に記載のコンピュータにより実施される方法であって、
前記マイク及び前記スピーカが、ヘッドマウント聴覚デバイスに組み込まれる、前記方法。
(項目9)
項目1に記載のコンピュータにより実施される方法であって、
前記マイク及び前記スピーカが、椅子または座席と関連するヘッドレストに組み込まれる、前記方法。
(項目10)
項目1に記載のコンピュータにより実施される方法であって、
前記スピーカが高指向性スピーカを含む、前記方法。
(項目11)
無線ネットワークインターフェースと、
プロセッサであって、
マイクを介して、第1の複数の音声構成要素を含む第1の聴覚信号を受信するように、
前記第1の複数の音声構成要素に含まれる、或る第1の音声構成要素を少なくとも部分的に抑制するため、要求を受信するように、
前記第1の音声構成要素が少なくとも部分的に抑制された状態で、前記第1の複数の音声構成要素を含む第2の聴覚信号を生成するように、
出力のために、前記第2の聴覚信号をスピーカへ伝送するように構成される、前記プロセッサと、
を含む、コンピューティングデバイス。
(項目12)
項目11に記載のコンピューティングデバイスであって、
前記第1の音声構成要素を抑制するための前記要求が、前記無線ネットワークインターフェースを介して受信される、前記コンピューティングデバイス。
(項目13)
項目11に記載のコンピューティングデバイスであって、さらに、
入力デバイスを含み、前記第1の音声構成要素を抑制するための前記要求が、前記入力デバイスの作動を介して受信される、前記コンピューティングデバイス。
(項目14)
項目11に記載のコンピューティングデバイスであって、
前記処理ユニットがさらに、第2の音声構成要素を抑制するため、前記無線ネットワークインターフェースを介して、第1の聴覚情景コントローラに向けられた要求を伝送するように構成され、
前記第1の聴覚情景コントローラが、前記第2の音声構成要素が少なくとも部分的に抑制された状態で、前記第1の複数の音声構成要素を含む第3の聴覚信号を生成するように構成される、前記コンピューティングデバイス。
(項目15)
項目11に記載のコンピューティングデバイスであって、
前記処理ユニットがさらに、前記コンピューティングデバイスと関連する音声構成要素を除いて、全ての音声構成要素を少なくとも部分的に抑制するため、前記無線ネットワークインターフェースを介して、第1の聴覚情景コントローラに向けられた要求を伝送するように構成される、前記コンピューティングデバイス。
(項目16)
項目15に記載のコンピューティングデバイスであって、
前記処理ユニットがさらに、前記第1の聴覚情景コントローラと関連する音声構成要素を除いて、全ての音声構成要素を抑制するため、要求を、前記無線ネットワークインターフェースを介して受信するように構成される、前記コンピューティングデバイス。
(項目17)
項目15に記載のコンピューティングデバイスであって、
前記処理ユニットがさらに、前記第1の聴覚情景コントローラ及び前記第2の聴覚情景コントローラと関連する音声構成要素を除いて、全ての音声構成要素を抑制するため、要求を、前記無線ネットワークインターフェースを介して受信するように構成される、前記コンピューティングデバイス。
(項目18)
項目17に記載のコンピューティングデバイスであって、
前記第1の聴覚情景コントローラが、前記コンピューティングデバイスと関連する前記音声構成要素を除いて、前記第2の聴覚情景コントローラと関連する前記音声構成要素を部分的に抑制するように、及び、全ての他の音声構成要素を完全に抑制するように構成される、前記コンピューティングデバイス。
(項目19)
プログラム命令を記憶する非一時的なコンピュータ可読媒体であって、当該プログラム命令が、処理ユニットによって実行される場合、
マイクから、第1の複数の音声構成要素を含む第1の聴覚信号を受信するステップと、
前記第1の複数の音声構成要素に含まれる、或る第1の音声構成要素を抑制するため、要求を受信するステップと、
前記第1の音声構成要素が抑制された状態で、前記第1の複数の音声構成要素を含む第2の聴覚信号を生成するステップと、
出力のために、前記第2の聴覚信号をスピーカへ伝送するステップ、
を実行することにより、前記処理ユニットに聴覚情景を生成させる、前記非一時的なコンピュータ可読媒体。
(項目20)
項目19に記載の非一時的なコンピュータ可読媒体であって、さらに、
第2の聴覚情景コントローラと関連する第2の複数の音声構成要素に含まれる、或る第2の音声構成要素を抑制するため、第2の聴覚情景コントローラへ要求を伝送するステップを含む、前記非一時的なコンピュータ可読媒体。
本明細書で説明されるアプローチの少なくとも1つの利点は、グループにおける参加者が、各会話にとっての適切なプライバシーを保ちながら、且つ、他の会話に対する妨害を軽減または除去しながら、多数の会話に従事し得ることである。結果として、重要な会話が先延ばしにされず、また、各別個の会話に対応するために別個の物理的空間を見つける必要がなく、多数の会話が対応される。
上記で述べられるもう1つの実施形態の列挙される特徴を詳細に理解し得るやり方で、上記で簡単に要約された、1つまたは複数の実施形態のより詳細な説明が、或る一定の特定の実施形態を参照して成されてよく、それらのうちのいくつかが添付の図面に示される。しかし、添付の図面は単に代表的な実施形態を示し、それゆえ、本発明の範囲が他の実施形態も包含するので、いかなるやり方によっても、その範囲を限定すると考えられるべきでないことに留意すべきである。
様々な実施形態に従った、1つまたは複数の聴覚情景を生成するように動作可能な聴覚情景コントローラを示す。 様々な実施形態に従った、聴覚情景を生成するための聴覚情景コントローラのピアツーピアネットワークを示す。 様々な実施形態に従った、聴覚情景を生成するためのシステムを示す。 様々な実施形態に従った、聴覚情景を生成するためのシステムを示す。 様々な実施形態に従った、聴覚情景を生成するためのシステムを示す。 様々な実施形態に従った、双方向に隔離された聴覚情景に関する例示的な使用事例を示す。 様々な実施形態に従った、一方向に外側に隔離された聴覚情景に関する例示的な使用事例を示す。 様々な実施形態に従った、一方向に内側に隔離された聴覚情景に関する例示的な使用事例を示す。 様々な実施形態に従った、多数のユーザの双方向に隔離された聴覚情景に関する例示的な使用事例を示す。 様々な実施形態に従った、多数のユーザの多方向に隔離された聴覚情景に関する例示的な使用事例を示す。 様々な実施形態に従った、他の聴覚情景コントローラと通信するために聴覚情景コントローラを初期化及び構成するための方法のステップの流れ図である。 様々な実施形態に従った、聴覚情景コントローラを介して聴覚情景を生成するための方法のステップの流れ図である。
以下の説明において、或る一定の特定の実施形態のより十分な理解を提供するために、多数の特定の詳細が述べられる。しかし、これらの特定の詳細の1つまたは複数を伴わず、または、追加の特定の詳細と共に、他の実施形態が実行されてもよいことが当業者に明らかであろう。
システム概要
図1は、様々な実施形態に従った、1つまたは複数の聴覚情景を生成するように動作可能な聴覚情景コントローラを示す。図示するように、聴覚情景コントローラ100は、これに限定されないが、互いに結合された、マイクモジュール110、処理ユニット120、無線送受信機130、スピーカモジュール140、及び、メモリユニット150を含む。メモリユニット150は、本明細書でさらに説明される様々な聴覚情景構成を生成するためのソフトウェアアプリケーションである、聴覚情景アプリケーション152を含む。聴覚情景コントローラ100は、任意の技術的に実行可能なコンピューティングデバイス内に組み込まれてよい。
マイクモジュール110は、マイクを介してオーディオ信号を受信するように、及び、当該オーディオ信号を機械可読の形式に変換するように構成される、任意の技術的に実行可能なタイプのデバイスであってよい。マイクモジュール110は、以下でより詳細に説明されるように、物理的環境からオーディオ信号を受信するように、及び、処理のための処理ユニット120による更なる処理のために、これらのオーディオ信号を変換するように構成される。オーディオ信号は、ミーティングまたはその他の物理的空間における様々な参加者からの話し声、及び、バックグラウンドノイズ、音楽、街頭の音等などの環境上の音源を含んでよい。
処理ユニット120は、例えば、これに限定されないが、中央処理装置(CPU)、デジタル信号プロセッサ(DSP)、または特定用途向け集積回路(ASIC)を含め、データを処理し、且つ、ソフトウェアアプリケーションを実行するように構成される、任意の技術的に実行可能なユニットであってよい。入力デバイス125は、例えば、これに限定されないが、入力を受信するように構成されるデバイス(これに限定されないが、1つまたは複数のボタンなど)を含んでよい。処理ユニット120により実行されるアプリケーションと関連する或る一定の機能または特徴が、ボタンを押すことによってなど、入力デバイス125を作動させることによってアクセスされてよい。本明細書でさらに説明されるように、処理ユニット120は、様々なユーザを互いから完全にまたは部分的に隔離するために、1つまたは複数のオーディオグループまたは会話「バブル(bubble)」を生成するように動作可能である。
スピーカモジュール140は、オーディオ信号を受信し、1つまたは複数のラウドスピーカまたはスピーカデバイスを駆動可能な対応する信号を生成するように構成される、任意の技術的に実行可能なタイプのデバイスであってよい。オーディオ信号は、マイクモジュール110により受信されるオーディオ入力信号であってよく、または、処理ユニット120により生成されるオーディオ信号であってよい。処理ユニット120から受信されるオーディオ信号は、マイクユニット110により受信されるオーディオ入力信号の代替的なバージョンであってもよいが、1つまたは複数の音声が抑制されている。
無線送受信機130は、これに限定されないが、WiFi(商標)送受信機、Bluetooth(登録商標)送受信機、RF送受信機等を含め、他の無線デバイスと無線通信リンクを確立するように構成される、任意の技術的に実行可能なデバイスであってよい。無線送受信機130は、本明細書でさらに説明されるように、他の聴覚情景コントローラ及び中央通信コントローラと無線リンクを確立するように構成される。
メモリユニット150は、例えば、これに限定されないが、ランダムアクセスメモリ(RAM)モジュールまたはハードディスクを含め、これに限定されないが、データ及びプログラムコードを記憶するように構成される、任意の技術的に実行可能なユニットであってよい。メモリユニット150内の聴覚情景アプリケーション152は、本明細書において聴覚情景とも呼ばれる、1つまたは複数の聴取環境を生成するため、処理ユニット120によって実行されてよい。聴覚情景(auditory scene)とは、特定の人物に対応する少なくとも1つの音声構成要素が抑制されている聴取環境が、聴覚情景の内側の個々人、または、聴覚情景の外側の人々のいずれかによって聴かれることを表す。1つの実施例において、これに限定されないが、1人の人物を含む聴覚情景が、他の誰にもその人物の音声が聴こえないように生成されてよい。別の実施例において、これに限定されないが、1人の人物を含む聴覚情景が、その人物には他の誰かの音声が聴こえないように生成されてよい。別の実施例において、これに限定されないが、1人の人物を含む聴覚情景が、他の誰にもその人物の音声が聴こえないように、また同時に、その人物には同時に他の誰かの音声が聴こえないように生成されてよい。さらに別の実施例において、任意の数の聴覚情景が生成されてよく、各聴覚情景は任意の数の人物を含み、また、各聴覚情景は様々な音声を抑制し、各聴覚情景を離れること、または各聴覚情景に入ることを防止する。このやり方において、聴覚情景は非常にカスタマイズ可能及び構成可能である。従って、本明細書で説明される聴覚情景は単に例示的なものであり、本開示の範囲内で生成され得る、起こり得る聴覚情景の範囲を限定しない。
聴覚情景を生成する際、ソフトウェアアプリケーション152は、オーディオ入力信号と関連する周波数及び振幅データを分析及びパースするように、多種多様な異なるオーディオ処理アルゴリズムを実施してよい。このようなアルゴリズムは、1つまたは複数の技法により、入力オーディオ信号から1つまたは複数の音声を抑制するように動作可能である。
1つの実施例において、これに限定されないが、聴覚情景アプリケーション152を実行する処理ユニット120は、抑制されるべき1つまたは複数の音声に対応するオーディオ入力信号の一部を決定してよく、1つまたは複数の音声に対応する反転信号を表す反転オーディオ信号を生成してよく、反転信号を元のオーディオ入力信号と混合してよい。別の実施例において、これに限定されないが、聴覚情景アプリケーション152を実行する処理ユニット120は、別のユーザの聴覚情景コントローラから信号をデジタルに受信してよく、受信された信号は、例えば、これに限定されないが、対応するマイクモジュールによりキャプチャされた、関連するユーザの元の、または反転された音声を表す。処理ユニット120は、その後、受信された信号を必要に応じて反転し、受信された信号を、マイクモジュール110からのオーディオ入力信号と混合する。さらに別の実施例において、これに限定されないが、聴覚情景アプリケーション152を実行する処理ユニット120は、別のユーザの聴覚情景コントローラからのタイミング情報を受信してよく、関連するユーザが話しているとき、または無言でいるときを識別する。処理ユニット120は、処理ユニット120ユニットがマイクモジュール110からのオーディオ入力信号を抑制する時間間隔を決定するように、受信されたタイミング情報を処理する。聴覚情景アプリケーション152は、処理されたオーディオ信号をスピーカモジュール140へその後に伝送するように構成される。
図1に示した聴覚情景コントローラ100の特定の実施態様が、例示的な目的のみのために提供され、本発明の範囲を限定することを意図するものでないことを当業者は理解するであろう。実際には、聴覚情景コントローラ100は、ハードウェア及びソフトウェアの多種多様な異なる組合せにより実施されてよい。例えば、これに限定されないが、聴覚情景コントローラ100は、これに限定されないが、上記の機能を実行するように構成される集積回路によって実施されてよい。別の実施例において、これに限定されないが、聴覚情景コントローラ100は、これに限定されないが、そうした機能を実行するように構成されるシステムオンチップによって実施されてよい。一般的な事項として、本明細書で説明される聴覚情景コントローラ100の機能を実行するように構成される任意のデバイスは、本発明の範囲内にある。同様に、聴覚情景コントローラ100は、入力オーディオ信号から1つまたは複数の音声を除去するための、任意の技術的に実行可能なアプローチを実行するように構成されてよい。
図2Aは、様々な実施形態に従った、聴覚情景を生成するための聴覚情景コントローラ220、222及び224のピアツーピアネットワーク200を示す。図示するように、ピアツーピアネットワークは、これに限定されないが、それぞれユーザ210、212及び214に対応する聴覚情景コントローラ220、222及び224を含む。聴覚情景コントローラ220、222及び224は、ネットワーク130で通信する。
この構成において、聴覚情景コントローラ220、222及び224は、中央通信コントローラを伴わずに、ピアツーピアで、互いに直接通信する。その結果、ボタンを押すなどのユーザ210の動作に応答して、聴覚情景コントローラ220は、ユーザ210の音声を抑制するため、聴覚情景コントローラ222及び224へ要求を伝送する。これに応じて、聴覚情景コントローラ222及び224はユーザ210の音声を抑制し、この結果、ユーザ212及び214はユーザ210を聴くことができない。別のボタンを押すなどのユーザ210の第2の動作に応答して、聴覚情景コントローラ220は、ユーザ210の音声を抑制するのを中断するため、聴覚情景コントローラ222及び224へ要求を伝送する。これに応じて、聴覚情景コントローラ222及び224は、ユーザ210の音声を抑制するのを中断し、この結果、ユーザ212及び214はユーザ210を再び聴くことができる。
図2Bは、様々な実施形態に従った、聴覚情景を生成するためのシステム202を示す。図示するように、システムは、これに限定されないが、中央通信コントローラ240、ならびに、それぞれユーザ210、212及び214に対応する聴覚情景コントローラ220、222及び224を含む。聴覚情景コントローラ220、222及び224はネットワーク130で通信する。聴覚情景コントローラ220、222及び224ならびにネットワーク230は、以下でさらに説明される場合を除いて、図2Aに関連して説明したのと実質的に同じように機能する。
この構成において、聴覚情景コントローラ220、222及び224は、中央通信コントローラ240を介して互いに通信する。中央通信コントローラ240は、任意の技術的に実行可能なコンピューティングデバイスに組み込まれてよい。各聴覚情景コントローラ220、222及び224中央通信コントローラ240。必要に応じて、中央通信コントローラ240は、聴覚情景コントローラ220、222及び224から受信された通信を、他の聴覚情景コントローラ220、222及び224へ転送する。加えて、中央通信コントローラ240は、聴覚情景コントローラ220、222及び224に向けられた通信を開始してよい。
その結果、ボタンを押すなどのユーザ210の動作に応答して、聴覚情景コントローラ220は、ユーザ210の音声を抑制するため、通信コントローラ240へ要求を伝送する。これに応じて、通信コントローラ240は、聴覚情景コントローラ222及び224へ要求を転送する。聴覚情景コントローラ222及び224はユーザ210の音声を抑制し、この結果、ユーザ212及び214はユーザ210を聴くことができない。別のボタンを押すなどのユーザ210の第2の動作に応答して、聴覚情景コントローラ220は、ユーザ210の音声を抑制するのを中断するため、通信コントローラ240へ要求を伝送する。これに応じて、通信コントローラ240は、聴覚情景コントローラ222及び224へ要求を転送する。聴覚情景コントローラ222及び224は、ユーザ210の音声を抑制するのを中断し、この結果、ユーザ212及び214は、ユーザ210を再び聴くことができる。
図2Cは、様々な実施形態に従った、聴覚情景を生成するためのシステム204を示す。図示するように、システムは、これに限定されないが、中央通信コントローラ240、ならびに、それぞれユーザ210、212及び214に対応する聴覚情景コントローラ220、222及び224を含む。さらに図示するように、システムは、それぞれユーザ210、212及び214に対応するユーザインターフェースデバイス250、252及び254を含む。聴覚情景コントローラ220、222及び224はネットワーク130で通信する。聴覚情景コントローラ220、222及び224、中央通信コントローラ240、ならびにネットワーク230は、以下でさらに説明される場合を除いて、図2A〜図2Bに関連して説明したのと実質的に同じように機能する。
図示するように、ユーザインターフェースデバイス250は、ユーザ210と関連するスマートフォンであり、ユーザインターフェースデバイス252は、ユーザ210と関連するラップトップコンピュータであり、ユーザインターフェースデバイス254は、ユーザ210と関連するタブレットコンピュータである。あるいは、様々なユーザは、任意の組合せで、任意の技術的に実行可能なユーザインターフェースデバイスと関連してよく、これには、これに限定されないが、着用者の眼鏡に取り付けられるデバイス、着用者のネックレスに取り付けられるデバイスまたは「お守りデバイス(amulet device)」、腕時計または手首用ブレスレット上のデバイス、ヘッドバンドまたはヘッドリングに組み込まれるデバイス、衣類またはベルトのバックルの1点に取り付けられるデバイス、ユーザの身体のどこかに取り付けられるか、または身に着けられるデバイス、ユーザのスマートフォンまたはタブレットコンピュータに取り付けられるアクセサリ、及び、自転車やオートバイなどユーザと関連する乗り物に取り付けられるアクセサリが含まれる。
図2Cの構成において、聴覚情景コントローラ220、222及び224は、中央通信コントローラ240を介して互いに通信する。各聴覚情景コントローラ220、222及び224中央通信コントローラ240。必要に応じて、中央通信コントローラ240は、聴覚情景コントローラ220、222及び224から受信された通信を他の聴覚情景コントローラ220、222及び224へ転送する。加えて、中央通信コントローラ240は、聴覚情景コントローラ220、222及び224に向けられた通信を開始してよい。中央通信コントローラ240はまた、ユーザインターフェースデバイス250、252及び254間の通信を送信及び受信する。ユーザインターフェースデバイス250、252及び254上で実行されるアプリケーションは、聴覚情景コントローラ220、222及び224の、より単純なユーザインターフェースにより可能な、より洗練された聴覚情景を生成可能であってよい。
その結果、ユーザインターフェースデバイス250上で実行されるアプリケーションの機能を選択するなどのユーザ210の動作に応答して、ユーザインターフェースデバイス250は、ユーザ210の音声を抑制するため、通信コントローラ240へ要求を伝送する。これに応じて、通信コントローラ240は、聴覚情景コントローラ222及び224へ要求を転送する。聴覚情景コントローラ222及び224は、ユーザ210の音声を抑制し、この結果、ユーザ212及び214はユーザ210を聴くことができない。ユーザインターフェースデバイス250上で実行されるアプリケーションの機能を選択するなどのユーザ210の第2の動作に応答して、ユーザインターフェースデバイス250は、ユーザ210の音声を抑制するのを中断するため、通信コントローラ240へ要求を伝送する。これに応じて、通信コントローラ240は、聴覚情景コントローラ222及び224へ要求を転送する。聴覚情景コントローラ222及び224は、ユーザ210の音声を抑制するのを中断し、この結果、ユーザ212及び214はユーザ210を再び聴くことができる。
図2Dは、様々な実施形態に従った、聴覚情景を生成するためのシステム206を示す。図示するように、システムは、これに限定されないが、中央通信コントローラ240及び一群の高指向性ラウドスピーカ(HDL)260(0)〜260(13)を含む。中央通信コントローラ240は、ネットワーク130でHDL260(0)〜260(13)と通信する。あるいは、中央通信コントローラ240は、HDL260(0)〜260(13)に直接接続してもよい。中央通信コントローラ240及びネットワーク230は、以下でさらに説明される場合を除いて、図2A〜図2Cに関連して説明したのと実質的に同じように機能する。
HDL260は、従来のラウドスピーカにより生成される、より典型的な全指向性の音波パターンではなく、比較的高度な指向性(狭さ)を有する音波パターンを生成するラウドスピーカである。その結果、所与のHDL260は特定の聴取者に音を向けることができ、これにより、聴取者にはHDL260により生成される音が聴こえるが、聴取者のすぐ左またはすぐ右に座っている別の人物にはHDL260により生成される音が聴こえない。例えば、これに限定されないが、HDL260(1)及びHDL260(2)は、ユーザ210のそれぞれ右耳及び左耳に音を向けるように構成されてよい。HDL260(5)及びHDL260(6)は、ユーザ212のそれぞれ右耳及び左耳に音を向けるように構成されてよい。HDL260(10)及びHDL260(11)は、ユーザ214のそれぞれ右耳及び左耳に音を向けるように構成されてよい。14個のHDL260(0)〜260(13)が示されているが、本開示の範囲内で任意の技術的に実行可能な数のユーザ210、212及び214に対応するように、任意の技術的に実行可能な数のHDL260が採用されてよい。
図2A〜図2Dの様々な構成要素は、本開示の範囲内で、任意の組合せで使用されてよい。1つの実施例において、これに限定されないが、ユーザは、図2Cに示すように、聴覚情景を構成するためのユーザインターフェースデバイスを有してよく、図2Dに示すように、高指向性ラウドスピーカからオーディオ信号を受信してよい。別の実施例において、これに限定されないが、聴覚情景コントローラ及びユーザインターフェースデバイスは、図2Cに示すような中央通信コントローラの必要がなく、図2Aに示すように、ピアツーピアネットワークで互いに直接通信してもよい。
図示するように、聴覚情景コントローラ100の機能は、ユーザにより装着され得る、または携帯され得るウェアラブルデバイスに組み込まれてもよい。1つの実施形態において、聴覚情景コントローラ100は、ユーザにより装着されるインイヤーデバイスに組み込まれてよい。代替的な実施形態において、聴覚情景コントローラ100の機能は、例えば、これに限定されないが、Bluetooth(登録商標)ヘッドセット、肩に装着されるスピーカ、ヘッドホン、イヤーバッド、補聴器、インイヤーモニタ、ヘッドレストに組み込まれるスピーカ、または同一の効果または機能を有する任意の他のデバイスを含め、マイク及びスピーカの少なくとも1つを含むヘッドマウント聴覚デバイスに組み込まれてよい。聴覚情景コントローラ100は、これに限定されないが、スマートフォン、コンピュータ、タブレットコンピュータを含め、聴覚情景を構成するためのユーザインターフェースを含むデバイスに結合されてよい。聴覚情景コントローラ100は、これに限定されないが、無線リンク、配線による接続、及びネットワーク接続を含め、任意の技術的に実行可能なアプローチを介してそのようなデバイスに結合されてよい。無線リンクは、これに限定されないが、WiFi(商標)リンク、Bluetooth(登録商標)接続、または一般的な無線周波数(RF)接続を含め、任意の技術的に実行可能な無線通信リンクを介して成されてよい。実際には、聴覚情景コントローラ100は、例示されたものの他に、広範な異なる無線デバイスと通信リンクを確立してよい。図2Cに示した特定のデバイス250、252及び254は、例示的な目的のみのために示され、限定的であることを意図するものでない。
聴覚情景コントローラの動作を示す例示的な使用事例
図3は、様々な実施形態に従った、双方向に隔離された聴覚情景を有する例示的な使用事例300を示す。図示するように、使用事例は、ユーザ310、312及び314ならびに双方向に隔離された会話バブル320を含む。
図3の構成において、ユーザ314は、ユーザ310及び312に聴き取れないこと、また、ユーザ310及び312の音声が聴こえないことを選択する。一例として、これに限定されないが、ユーザ314は、ユーザ310及び312の注意をそらすことなく、または、ユーザ310及び312により注意をそらされることなく、プライベートな電話の呼び出しをするためにこの構成を選択するであろう。1つの実施例において、これに限定されないが、ユーザ314が、ミーティング中またはバスもしくはタクシーの乗車中に、携帯電話の呼び出しをすること、またはこれを受けることを望む場合に、この構成が生成されてよい。そのような場合、ユーザ314と関連する聴覚情景コントローラ100は、ユーザ310及び312の音声構成要素を抑制するために、着信オーディオ信号を処理する。ユーザ314と関連する聴覚情景コントローラ100は、ユーザ310及び312と関連する聴覚情景コントローラ100のそれぞれの入力オーディオ信号からユーザ314の音声構成要素を抑制するため、ユーザ310及び312と関連する聴覚情景コントローラ100へ要求を送信する。双方向に隔離された会話バブル320がこれにより生成されて、結果的に、ユーザ314を含む一方ならびにユーザ310及び312を含む他方といった、2つの聴覚情景となる。
図4は、様々な実施形態に従った、一方向に外側に隔離された聴覚情景を有する例示的な使用事例400を示す。図示するように、使用事例400は、ユーザ410、412及び414ならびに一方向に外側に隔離された会話バブル420を含む。
図4の構成において、ユーザ414は、ユーザ410及び412に聴き取れないことを選択するが、ユーザ410及び412の音声が聴こえることを選択する。1つの実施例において、これに限定されないが、ユーザ410がミーティング中またはバスもしくはタクシー乗車中であるときなど、ユーザ414は、ユーザ410及び412の注意をそらすことなくプライベートな電話の呼び出しをするためにこの構成を選択するであろうが、依然として、ユーザ410と412の間で行われる会話を聴きたいと考えている。そのような場合、ユーザ414と関連する聴覚情景コントローラ100は、ユーザ410及び412と関連する聴覚情景コントローラ100のそれぞれの入力オーディオ信号からユーザ414の音声構成要素を抑制するため、ユーザ410及び412と関連する聴覚情景コントローラ100へ要求を送信する。ユーザ414と関連する聴覚情景コントローラ100は、ユーザ414の選好により、最大音量または下げられた音量のいずれかでユーザ410及び412の音声構成要素を通過させるために、着信オーディオ信号を処理する。一方向に外側に隔離された会話バブル420がこれにより生成され、結果的に、ユーザ414を含む一方ならびにユーザ410及び412を含む他方といった、2つの聴覚情景となる。
図5は、様々な実施形態に従った、一方向に内側に隔離された聴覚情景を有する例示的な使用事例500を示す。図示するように、使用事例500は、ユーザ510、512及び514ならびに一方向に内側に隔離された会話バブル520を含む。
図5の構成において、ユーザ514は、ユーザ510及び512に聴き取れることを選択するが、ユーザ510及び512の音声が聴こえないことを選択する。1つの実施例において、これに限定されないが、ユーザ514は、ユーザ510と512の間の会話により注意がそらされることを取り除くためにこの構成を選択するであろうが、ユーザ510及び512が聴くことのできるであろうコメントを差し挟みたいと考えている。別の実施例において、これに限定されないが、ユーザ514は、注意がそらされることなく、一時的にEメールの返信や他の事柄への応対に集中するためにこの構成を選択するであろうが、ユーザ510及び512が会話をしている場所を離れたくはない。そのような場合、ユーザ514と関連する聴覚情景コントローラ100は、ユーザ510及び512と関連する聴覚情景コントローラ100のそれぞれの入力オーディオ信号によりユーザ514の音声構成要素を通過させるため、ユーザ510及び512と関連する聴覚情景コントローラ100へ要求を送信する。ユーザ514と関連する聴覚情景コントローラ100は、ユーザ514の選好により、最大音量または下げられた音量のいずれかでユーザ510及び512の音声構成要素を抑制するために、着信オーディオ信号を処理する。一方向に内側に隔離された会話バブル520がこれにより生成され、結果的に、ユーザ514を含む一方ならびにユーザ510及び512を含む他方といった、2つの聴覚情景となる。
図6は、様々な実施形態に従った、多数のユーザの双方向に隔離された聴覚情景を有する例示的な使用事例600を示す。図示するように、使用事例600は、ユーザ610、612及び614ならびに多数のユーザ620を有する双方向に隔離された会話バブルを含む。
図6の構成において、ユーザ610及び614は、ユーザ612に聴き取れないこと、また、ユーザ612の音声が聴こえないことを選択する。1つの実施例において、これに限定されないが、ユーザ610及び614は、ユーザ612の聴こえる範囲の外側でプライベートな会話をするためにこの構成を選択するであろう。ユーザ610及び614は、ユーザ612の注意をそらすことなく、図書館またはコーヒーショップにおいてプライベートな会話をするために、この構成を選択してよい。そのような場合、ユーザ610及び614と関連する聴覚情景コントローラ100の一方または両方が、入力オーディオ信号によりユーザ610及び614の音声構成要素を抑制するため、ユーザ612と関連する聴覚情景コントローラ100へ要求を送信する。ユーザ610及び614と関連する聴覚情景コントローラ100は、ユーザ614の選好により、最大音量または下げられた音量のいずれかでユーザ612の音声構成要素を完全にまたは部分的に抑制するために、着信オーディオ信号を処理する。ユーザ610及び614と関連する聴覚情景コントローラ100は、ユーザ610及び614が騒がしい環境において会話をしている場合など、バックグラウンドノイズを抑制することを随意に選択してよい。多数のユーザ620を有する双方向に隔離された会話バブルがこれにより生成され、結果的に、ユーザ612を含む一方ならびにユーザ610及び614を含む他方といった、2つの聴覚情景となる。
図7は、様々な実施形態に従った、多数のユーザの多方向に隔離された聴覚情景を有する例示的な使用事例700を示す。図示するように、使用事例は、ユーザ710、712、714及び716ならびに多方向に隔離された会話バブル720、722及び724を含む。
図7の構成において、ユーザ710及び716は互いと会話したいと考えており、一方で、ユーザ712及び714は互いと会話したいと考えている。加えて、ユーザ712は、ユーザ710の音声を聴きたいと考えている。一例は、これに限定されないが、ユーザ710が1つの言語でスピーチを行っており、一方でユーザ712がそのスピーチを第2の言語へ翻訳している状況のユーザ710、712、714及び716である。ユーザ716は710により話される言語でスピーチが聴こえるが、ユーザ712または714の音声は聴こえない。ユーザ714にはユーザ712の音声が聴こえるが、ユーザ710の音声は、ユーザ714の選好で、ユーザ714に対し完全にまたは部分的に抑制される。そのような場合、ユーザ710、712、714及び716と関連する聴覚情景コントローラ100は、適切な音声構成要素を抑制するため、互いに要求を送信する。ユーザ710、712、714及び716と関連する聴覚情景コントローラ100は、必要に応じて、最大音量または下げられた音量のいずれかで様々なユーザの音声構成要素を完全にまたは部分的に抑制するために、着信オーディオ信号を処理する。多方向に隔離された会話バブル720、722及び724がこれにより生成され、結果的に、ユーザ710及び716を含む一方、ユーザ710及び712を含む他方、ならびに、ユーザ712及び714を含む他方といった、3つの聴覚情景となる。
図3〜図7に関連して上述した例示的な使用事例のシナリオが、異なる技法を示すために例示的な目的のみのために提供され、聴覚情景コントローラ100が様々な聴覚情景構成を生成するように実施されてよいことを当業者は理解するであろう。各聴覚情景が任意の数のユーザを含む、任意の数の聴覚情景の多くの他の構成が、本開示の範囲内で、説明された技法を使用して実施されてよい。さらに、上述の実施例は、特定のコマンド、デバイス、及び動作に関連して表されたが、これらの特定性に本発明の範囲を限定することを意図するものでない。
聴覚情景の様々な構成を生成するための様々な使用事例及びシステムを説明してきたが、聴覚情景コントローラ100により実施され得る例示的なアルゴリズムが次に説明される。ここまで説明した機能を実施することにより、聴覚情景コントローラ100は、同じ空間において、互いに干渉することなく様々な会話を同時に行う、個々人の能力を改善し得る。
聴覚情景コントローラにより実施される例示的なアルゴリズム
図8は、様々な実施形態に従った、他の聴覚情景コントローラと通信するように聴覚情景コントローラを初期化及び構成するための方法のステップの流れ図である。方法のステップは、図1〜図7のシステムに関連して説明されるが、任意の順番で方法のステップを実行するように構成される任意のシステムが本発明の範囲内にあることを、当業者は理解するであろう。
図示するように、方法800は、ステップ802で始まり、ここで、聴覚情景コントローラ100は、これに限定されないが、他の聴覚情景コントローラ及び中央通信コントローラを含む近傍の無線デバイスを発見する。これに限定されないが、WiFi(商標)アクセスポイントを検索して、その後、そこに結合された他のデバイスを識別すること、近傍のBluetooth(登録商標)デバイスと直接対話すること、または、RF信号を使用して無線デバイスと一般的なハンドシェイキングを実行することを含め、聴覚情景コントローラ100は、任意の技術的に実行可能な形のデバイス発見を実行してよい。
ステップ804で、聴覚情景コントローラ100は、各発見されたデバイスから、特にデバイス機能を反映するデバイス情報を取得する。当該機能は、例えば、これに限定されないが、好ましい無線接続プロトコル(例えば、これに限定されないが、WiFi(商標)、Bluetooth(登録商標))、デバイスによりサポートされる最大数の聴覚情景等を含んでよい。他のデバイス情報は、例えば、これに限定されないが、デバイス位置、デバイスバッテリレベル等を含んでよい。
ステップ806で、聴覚情景コントローラ100は、発見されたデバイスの1つまたは複数とペアになる。そうすることで、聴覚情景コントローラ100は任意の関連したプロトコルに依存し得る。加えて、聴覚情景コントローラ100は、異なるプロトコルに依存する異なるデバイスとペアになってもよい。
ステップ808で、聴覚情景コントローラ100は、必要に応じて、ペアになったデバイスのためのコマンドルーティングプリファレンスを構成する。そうすることで、聴覚情景コントローラ100は、ピアツーピアネットワークで他の聴覚情景コントローラと直接通信し得る。あるいは、聴覚情景コントローラ100は、他の聴覚情景コントローラと共に、中央通信コントローラ240のみと直接通信し、中央通信コントローラは、聴覚情景コントローラのそれぞれと別個に通信する。以下で説明される図9は、聴覚情景コントローラ100の通常動作を段階的に説明する。
図9は、様々な実施形態に従った、聴覚情景コントローラを介して聴覚情景を生成するための方法のステップの流れ図である。方法のステップが図1〜図7のシステムに関連して説明されるが、任意の順番で方法のステップを実行するように構成される任意のシステムが本発明の範囲内にあることを、当業者は理解するであろう。
図示するように、方法900は902で始まり、ここで、マイクモジュール110から受信されたオーディオ入力信号が変更なくスピーカモジュール140へ伝送される状態に、聴覚情景コントローラ100が初期化される。ステップ904で、聴覚情景コントローラ100は、例えば、これに限定されないが、別の聴覚情景コントローラから、または、通信モジュール140から要求を受信することにより、オーディオ情景要求を受信する。
ステップ906で、聴覚情景コントローラ100は、オーディオ情景要求が、別の聴覚情景コントローラと関連する音声などのオーディオ音声構成要素を抑制するための要求であったかどうかを判定する。オーディオ情景要求が音声抑制要求である場合、方法900はステップ908へ進み、ここで、聴覚情景コントローラ100は、要求された音声構成要素が抑制された状態で、受信されたオーディオ入力信号を含むオーディオ信号を生成する。ステップ910で、聴覚情景コントローラ100は、生成されたオーディオ信号をラウドスピーカモジュール140へ伝送する。方法900はその後、上記のステップ904へ進む。
ステップ906で、オーディオ情景要求が音声抑制要求でない場合、方法900はステップ912へ進み、ここで、オーディオ情景要求が、別の聴覚情景コントローラと関連する音声などのオーディオ音声構成要素を抑制するのを中断するための要求であったかどうかを、聴覚情景コントローラ100が判定する。オーディオ情景要求が停止音声抑制要求である場合、方法900はステップ914へ進み、ここで、受信されたオーディオ入力信号を含み、且つ、要求された音声構成要素が信号に再び混合された状態のオーディオ信号を、聴覚情景コントローラ100が生成する。ステップ916で、聴覚情景コントローラ100は生成されたオーディオ信号をラウドスピーカモジュール140へ伝送する。方法900はその後、上記のステップ904へ進む。
ステップ906で、オーディオ情景要求が停止音声抑制要求でない場合、方法900は上記のステップ904へ進む。
要約すれば、聴覚情景コントローラは、物理的環境において多数の聴覚情景を生成するように構成される。着信オーディオ信号における全ての音声を抑制すること、及び、ユーザの音声が他のユーザにより聴くことができないようにユーザの音声を抑制するため、他の聴覚情景コントローラへ要求を送信することにより、聴覚情景コントローラは、聴覚信号のユーザを双方向に隔離してよい。あるいは、着信オーディオ信号における全ての音声を抑制するが、ユーザの声を他のユーザが聴くことを可能にすることにより、聴覚情景コントローラは、聴覚信号のユーザを一方向に隔離してよい。あるいは、着信オーディオ信号における全ての音声を、ユーザが聴くことを可能にするが、ユーザの音声が他のユーザより聴くことができないようにユーザの音声を抑制するため、他の聴覚情景コントローラへ要求を送信することにより、聴覚情景コントローラは、聴覚信号のユーザを一方向に隔離してよい。会話のバブルは、数人のサブグループが、当該サブグループにおいて互いに話すことを可能にするように生成されてよいが、メイングループにおける他のユーザの会話から隔離されてよい。
本明細書で説明されるアプローチの少なくとも1つの利点は、グループにおける参加者が、各会話にとっての適切なプライバシーを保ちながら、且つ、他の会話に対する妨害を軽減または除去しながら、多数の会話に従事し得ることである。結果として、重要な会話が先延ばしにされず、また、各別個の会話に対応するために別個の物理的空間を見つける必要がなく、多数の会話が対応される。
本発明の1つの実施形態は、コンピュータシステムと共に使用されるためのプログラム製品として実施されてもよい。プログラム製品のプログラムは、実施形態の機能(本明細書で説明される方法を含む)を規定し、種々のコンピュータ可読の記憶媒体に含まれてよい。例示的なコンピュータ可読の記憶媒体は、これに限定されないが、(i)情報が永久に記憶される、書込み不可能な記憶媒体(例えば、CD‐ROMドライブにより読取り可能なコンパクトディスクリードオンリメモリ(CD‐ROM)ディスクなど、コンピュータ内のリードオンリメモリデバイス、フラッシュメモリ、リードオンリメモリ(ROM)チップ、または、任意のタイプのソリッドステート不揮発性半導体メモリ)、及び、(ii)変更可能な情報が記憶される、書込み可能な記憶媒体(例えば、ディスケットドライブもしくはハードディスクドライブ内のフロッピー(登録商標)ディスク、または、任意のタイプのソリッドステートランダムアクセス半導体メモリ)を含む。
本発明が、特定の実施形態と関連して上記で説明された。しかし、添付の特許請求の範囲において述べられる本発明のより広範な精神及び範囲から逸脱することなく、本発明に対する様々な修正または変更が成されてもよいことを当業者は理解するであろう。前述の説明及び図面は、従って、限定的な意味ではなく、例示的な意味で考慮される。
それゆえ、本発明の実施形態の範囲は、次の特許請求の範囲において述べられる。

Claims (18)

  1. 1の聴覚情景コントローラと関連する聴覚情景を生成する、コンピュータにより実施される方法であって、
    マイクから、第1の複数の音声構成要素を含む第1の聴覚信号を受信することと、
    前記第1の複数の音声構成要素に含まれる第1の音声構成要素を少なくとも部分的に抑制するため要求を受信することと、
    前記第1の音声構成要素が少なくとも部分的に抑制された状態で、前記第1の複数の音声構成要素を含む第2の聴覚信号を生成することと、
    出力のために、前記第2の聴覚信号をスピーカへ伝送すること
    第2の聴覚情景コントローラと関連する第2の複数の音声構成要素に含まれる第2の音声構成要素を抑制するための要求を前記第2の聴覚情景コントローラへ伝送することと
    を含む、コンピュータにより実施される方法。
  2. 記第1の音声構成要素を抑制するのを中断するため要求を受信することと、
    前記第1の音声構成要素が抑制されていない状態で、前記第1の複数の音声構成要素を含む第3の聴覚信号を生成することと、
    出力のために、前記第3の聴覚信号を前記スピーカへ伝送すること
    さらに含む、請求項1に記載のコンピュータにより実施される方法。
  3. 記第2の聴覚信号を生成することが、前記第1の音声構成要素が完全に抑制された状態で、前記第1の複数の音声構成要素を含む前記第2の聴覚信号を生成することを含む、請求項1に記載のコンピュータにより実施される方法。
  4. 記第1の複数の音声構成要素に含まれる第2の音声構成要素を抑制するため要求を受信することをさらに含み、
    前記第2の聴覚信号を生成することが、前記第1の聴覚信号に含まれる第2の音声構成要素を部分的に抑制することを含む、請求項1に記載のコンピュータにより実施される方法。
  5. 記第2の聴覚信号を生成することがさらに、前記マイクにより受信されるバックグラウンドノイズ信号を抑制することを含む、請求項1に記載のコンピュータにより実施される方法。
  6. 記マイク及び前記スピーカが、インイヤー聴覚デバイスに組み込まれる、請求項1に記載のコンピュータにより実施される方法。
  7. 記マイク及び前記スピーカが、ヘッドマウント聴覚デバイスに組み込まれる、請求項1に記載のコンピュータにより実施される方法。
  8. 記マイク及び前記スピーカが、椅子または座席と関連するヘッドレストに組み込まれる、請求項1に記載のコンピュータにより実施される方法。
  9. 記スピーカが高指向性スピーカを含む、請求項1に記載のコンピュータにより実施される方法。
  10. 無線ネットワークインターフェースと、
    プロセッサ
    を含むコンピューティングデバイスであって、
    前記プロセッサは、
    マイクを介して、第1の複数の音声構成要素を含む第1の聴覚信号を受信することと、
    前記第1の複数の音声構成要素に含まれる第1の音声構成要素を少なくとも部分的に抑制するため要求を受信することと、
    前記第1の音声構成要素が少なくとも部分的に抑制された状態で、前記第1の複数の音声構成要素を含む第2の聴覚信号を生成することと、
    出力のために、前記第2の聴覚信号をスピーカへ伝送することと、
    第2の聴覚情景コントローラと関連する第2の複数の音声構成要素に含まれる第2の音声構成要素を抑制するための要求を前記第2の聴覚情景コントローラへ伝送することと
    を実行するように構成されるコンピューティングデバイス。
  11. 無線ネットワークインターフェースと、
    プロセッサと
    を含むコンピューティングデバイスであって、
    前記プロセッサが、
    マイクを介して、第1の複数の音声構成要素を含む第1の聴覚信号を受信することと、
    前記第1の複数の音声構成要素に含まれる第1の音声構成要素を少なくとも部分的に抑制するための要求を受信することと、
    前記第1の音声構成要素が少なくとも部分的に抑制された状態で、前記第1の複数の音声構成要素を含む第2の聴覚信号を生成することと、
    出力のために、前記第2の聴覚信号をスピーカへ伝送することと
    を実行するように構成され、
    前記第1の音声構成要素を抑制するための前記要求が、前記無線ネットワークインターフェースを介して受信されるコンピューティングデバイス。
  12. 力デバイスをさらに含み、前記第1の音声構成要素を抑制するための前記要求が、前記入力デバイスの作動を介して受信される、請求項10に記載のコンピューティングデバイス。
  13. 無線ネットワークインターフェースと、
    プロセッサと
    を含むコンピューティングデバイスであって、
    前記プロセッサが、
    マイクを介して、第1の複数の音声構成要素を含む第1の聴覚信号を受信することと、
    前記第1の複数の音声構成要素に含まれる第1の音声構成要素を少なくとも部分的に抑制するための要求を受信することと、
    前記第1の音声構成要素が少なくとも部分的に抑制された状態で、前記第1の複数の音声構成要素を含む第2の聴覚信号を生成することと、
    出力のために、前記第2の聴覚信号をスピーカへ伝送することと
    を実行するように構成され、
    前記プロセッサがさらに、前記無線ネットワークインターフェースを介して、第2の音声構成要素を抑制するため、第1の聴覚情景コントローラに向けられた要求を伝送するように構成され、
    前記第1の聴覚情景コントローラが、前記第2の音声構成要素が少なくとも部分的に抑制された状態で、前記第1の複数の音声構成要素を含む第3の聴覚信号を生成するように構成されるコンピューティングデバイス。
  14. 無線ネットワークインターフェースと、
    プロセッサと
    を含むコンピューティングデバイスであって、
    前記プロセッサが、
    マイクを介して、第1の複数の音声構成要素を含む第1の聴覚信号を受信することと、
    前記第1の複数の音声構成要素に含まれる第1の音声構成要素を少なくとも部分的に抑制するための要求を受信することと、
    前記第1の音声構成要素が少なくとも部分的に抑制された状態で、前記第1の複数の音声構成要素を含む第2の聴覚信号を生成することと、
    出力のために、前記第2の聴覚信号をスピーカへ伝送することと
    を実行するように構成され、
    前記プロセッサがさらに、前記無線ネットワークインターフェースを介して、前記コンピューティングデバイスと関連する音声構成要素を除いて、全ての音声構成要素を少なくとも部分的に抑制するため、第1の聴覚情景コントローラに向けられた要求を伝送するように構成されるコンピューティングデバイス。
  15. プロセッサがさらに、前記第1の聴覚情景コントローラと関連する音声構成要素を除いて、全ての音声構成要素を抑制するため要求を、前記無線ネットワークインターフェースを介して受信するように構成される、請求項14に記載のコンピューティングデバイス。
  16. プロセッサがさらに、前記第1の聴覚情景コントローラ及び第2の聴覚情景コントローラと関連する音声構成要素を除いて、全ての音声構成要素を抑制するため要求を、前記無線ネットワークインターフェースを介して受信するように構成される、請求項14に記載のコンピューティングデバイス。
  17. 記第1の聴覚情景コントローラが、前記コンピューティングデバイスと関連する前記音声構成要素を除いて、前記第2の聴覚情景コントローラと関連する前記音声構成要素を部分的に抑制全ての他の音声構成要素を完全に抑制するように構成される、請求項16に記載のコンピューティングデバイス。
  18. プログラム命令を記憶する非一時的なコンピュータ可読媒体であって、前記プログラム命令が、処理ユニットによって実行される場合、
    マイクから、第1の複数の音声構成要素を含む第1の聴覚信号を受信するステップと、
    前記第1の複数の音声構成要素に含まれる第1の音声構成要素を抑制するため要求を受信するステップと、
    前記第1の音声構成要素が抑制された状態で、前記第1の複数の音声構成要素を含む第2の聴覚信号を生成するステップと、
    出力のために、前記第2の聴覚信号をスピーカへ伝送するステップ
    第2の聴覚情景コントローラと関連する第2の複数の音声構成要素に含まれる第2の音声構成要素を抑制するための要求を前記第2の聴覚情景コントローラへ伝送するステップと
    を実行することにより、前記処理ユニットに聴覚情景を生成させる非一時的なコンピュータ可読媒体。
JP2017510879A 2014-09-10 2015-07-23 聴覚デバイスを介した多数の聴取環境生成技法 Active JP6596074B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/483,044 US10388297B2 (en) 2014-09-10 2014-09-10 Techniques for generating multiple listening environments via auditory devices
US14/483,044 2014-09-10
PCT/US2015/041843 WO2016039867A1 (en) 2014-09-10 2015-07-23 Techniques for generating multiple listening environments via auditory devices

Publications (2)

Publication Number Publication Date
JP2017528990A JP2017528990A (ja) 2017-09-28
JP6596074B2 true JP6596074B2 (ja) 2019-10-23

Family

ID=55438075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017510879A Active JP6596074B2 (ja) 2014-09-10 2015-07-23 聴覚デバイスを介した多数の聴取環境生成技法

Country Status (6)

Country Link
US (1) US10388297B2 (ja)
EP (1) EP3192240B2 (ja)
JP (1) JP6596074B2 (ja)
KR (1) KR102503748B1 (ja)
CN (1) CN106688225A (ja)
WO (1) WO2016039867A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6839345B2 (ja) * 2016-10-21 2021-03-10 富士通株式会社 音声データ転送プログラム、音声データ出力制御プログラム、音声データ転送装置、音声データ出力制御装置、音声データ転送方法および音声データ出力制御方法
US10540985B2 (en) 2018-01-31 2020-01-21 Ford Global Technologies, Llc In-vehicle media vocal suppression
US10861453B1 (en) * 2018-05-01 2020-12-08 Amazon Technologies, Inc. Resource scheduling with voice controlled devices
JP7140542B2 (ja) * 2018-05-09 2022-09-21 キヤノン株式会社 信号処理装置、信号処理方法、およびプログラム
KR102526081B1 (ko) * 2018-07-26 2023-04-27 현대자동차주식회사 차량 및 그 제어방법
WO2020033595A1 (en) 2018-08-07 2020-02-13 Pangissimo, LLC Modular speaker system
US10679602B2 (en) * 2018-10-26 2020-06-09 Facebook Technologies, Llc Adaptive ANC based on environmental triggers
JP2020161949A (ja) 2019-03-26 2020-10-01 日本電気株式会社 聴覚ウェアラブルデバイス管理システム、聴覚ウェアラブルデバイス管理方法およびそのプログラム
US11284183B2 (en) 2020-06-19 2022-03-22 Harman International Industries, Incorporated Auditory augmented reality using selective noise cancellation
US11259112B1 (en) 2020-09-29 2022-02-22 Harman International Industries, Incorporated Sound modification based on direction of interest
WO2022119752A1 (en) * 2020-12-02 2022-06-09 HearUnow, Inc. Dynamic voice accentuation and reinforcement

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4308157A1 (de) 1993-03-15 1994-09-22 Toepholm & Westermann Fernsteuerbares, insbesondere programmierbares Hörgerätesystem
JPH0779499A (ja) 1993-09-08 1995-03-20 Sony Corp 補聴器
US5815582A (en) 1994-12-02 1998-09-29 Noise Cancellation Technologies, Inc. Active plus selective headset
GB2313251B (en) 1996-05-17 2000-06-07 Motorola Ltd Multimedia communications conferencing system and method of exchanging private communication
US7978838B2 (en) * 2001-12-31 2011-07-12 Polycom, Inc. Conference endpoint instructing conference bridge to mute participants
US7243060B2 (en) 2002-04-02 2007-07-10 University Of Washington Single channel sound separation
JP2004015090A (ja) 2002-06-03 2004-01-15 Matsushita Electric Ind Co Ltd ハンズフリーシステム及びそのスピーカの制御方法
US7231223B2 (en) 2002-12-18 2007-06-12 Motorola, Inc. Push-to-talk call setup for a mobile packet data dispatch network
US7519186B2 (en) 2003-04-25 2009-04-14 Microsoft Corporation Noise reduction systems and methods for voice applications
DE10330594A1 (de) * 2003-07-07 2005-03-03 Siemens Ag Vorrichtung zum Einsatz im medizinischen Bereich und Verfahren zu deren Wartung
US7099821B2 (en) 2003-09-12 2006-08-29 Softmax, Inc. Separation of target acoustic signals in a multi-transducer arrangement
US7062286B2 (en) 2004-04-05 2006-06-13 Motorola, Inc. Conversion of calls from an ad hoc communication network
US20060046761A1 (en) 2004-08-27 2006-03-02 Motorola, Inc. Method and apparatus to customize a universal notifier
US7940705B2 (en) * 2004-09-09 2011-05-10 Cisco Technology, Inc. Method and system for blocking communication within a conference service
CN101142851B (zh) 2005-03-18 2012-12-05 唯听助听器公司 助听器的远程控制系统
DE102006018634B4 (de) * 2006-04-21 2017-12-07 Sivantos Gmbh Hörgerät mit Quellentrennung und entsprechendes Verfahren
JP4727542B2 (ja) 2006-09-26 2011-07-20 富士通株式会社 電子機器、そのエコーキャンセル方法、そのエコーキャンセルプログラム、記録媒体及び回路基板
CN101022481A (zh) * 2007-03-21 2007-08-22 华为技术有限公司 实现多点会议中私有会话的方法及装置
US7974716B2 (en) 2007-04-25 2011-07-05 Schumaier Daniel R Preprogrammed hearing assistance device with program selection based on patient usage
GB2451552B (en) * 2007-07-20 2010-08-04 Lg Display Co Ltd Liquid crystal display device of in-plane switching mode and method for manufacturing the same
EP2220876A1 (en) 2007-12-19 2010-08-25 Widex A/S Hearing aid and a method of operating a hearing aid
US20090216835A1 (en) * 2008-02-22 2009-08-27 Mukul Jain Group mute
US9258337B2 (en) * 2008-03-18 2016-02-09 Avaya Inc. Inclusion of web content in a virtual environment
JP5375400B2 (ja) 2009-07-22 2013-12-25 ソニー株式会社 音声処理装置、音声処理方法およびプログラム
KR101285391B1 (ko) 2010-07-28 2013-07-10 주식회사 팬택 음향 객체 정보 융합 장치 및 방법
JP5732937B2 (ja) 2010-09-08 2015-06-10 ヤマハ株式会社 サウンドマスキング装置
US8971946B2 (en) * 2011-05-11 2015-03-03 Tikl, Inc. Privacy control in push-to-talk
US8818800B2 (en) 2011-07-29 2014-08-26 2236008 Ontario Inc. Off-axis audio suppressions in an automobile cabin
US8749610B1 (en) * 2011-11-29 2014-06-10 Google Inc. Managing nodes of a synchronous communication conference
US8798283B2 (en) 2012-11-02 2014-08-05 Bose Corporation Providing ambient naturalness in ANR headphones
JP6316208B2 (ja) 2012-12-18 2018-04-25 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 特定の話者の音声を加工するための方法、並びに、その電子装置システム及び電子装置用プログラム
US9361875B2 (en) * 2013-11-22 2016-06-07 At&T Mobility Ii Llc Selective suppression of audio emitted from an audio source

Also Published As

Publication number Publication date
KR20170052586A (ko) 2017-05-12
EP3192240B2 (en) 2021-12-01
CN106688225A (zh) 2017-05-17
EP3192240A1 (en) 2017-07-19
US10388297B2 (en) 2019-08-20
US20160071525A1 (en) 2016-03-10
EP3192240B1 (en) 2019-05-08
JP2017528990A (ja) 2017-09-28
WO2016039867A1 (en) 2016-03-17
KR102503748B1 (ko) 2023-02-24
EP3192240A4 (en) 2018-03-21

Similar Documents

Publication Publication Date Title
JP6596074B2 (ja) 聴覚デバイスを介した多数の聴取環境生成技法
US10805756B2 (en) Techniques for generating multiple auditory scenes via highly directional loudspeakers
JP5745706B2 (ja) ウルトラコンパクトヘッドセット
TW201511578A (zh) 具有姿勢控制的耳機
US10922044B2 (en) Wearable audio device capability demonstration
US20200334003A1 (en) Audio system
JP2017527148A (ja) 音質改善のための方法及びヘッドセット
US9949021B1 (en) Intelligent conversation control in wearable audio systems
US10715650B2 (en) Dual-transceiver wireless calling
US20170195817A1 (en) Simultaneous Binaural Presentation of Multiple Audio Streams
US20210090548A1 (en) Translation system
TWI718367B (zh) 多連接裝置及多連接方法
US10250973B1 (en) Intelligent conversation control in wearable audio systems
US20200389714A1 (en) Dual-mode audio system
US20220122630A1 (en) Real-time augmented hearing platform
EP4184507A1 (en) Headset apparatus, teleconference system, user device and teleconferencing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190814

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190927

R150 Certificate of patent or registration of utility model

Ref document number: 6596074

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250