JP7491886B2 - 高度な機能を備えたマイクロフォン - Google Patents

高度な機能を備えたマイクロフォン Download PDF

Info

Publication number
JP7491886B2
JP7491886B2 JP2021181133A JP2021181133A JP7491886B2 JP 7491886 B2 JP7491886 B2 JP 7491886B2 JP 2021181133 A JP2021181133 A JP 2021181133A JP 2021181133 A JP2021181133 A JP 2021181133A JP 7491886 B2 JP7491886 B2 JP 7491886B2
Authority
JP
Japan
Prior art keywords
microphone device
real
microphone
time
dsp
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021181133A
Other languages
English (en)
Other versions
JP2022075641A (ja
Inventor
ベンジャミン・エム・コクラン
Original Assignee
オーディオテクニカ ユーエス インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オーディオテクニカ ユーエス インコーポレーテッド filed Critical オーディオテクニカ ユーエス インコーポレーテッド
Publication of JP2022075641A publication Critical patent/JP2022075641A/ja
Application granted granted Critical
Publication of JP7491886B2 publication Critical patent/JP7491886B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R9/00Transducers of moving-coil, moving-strip, or moving-wire type
    • H04R9/08Microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/004Monitoring arrangements; Testing arrangements for microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B5/00Near-field transmission systems, e.g. inductive or capacitive transmission systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B5/00Near-field transmission systems, e.g. inductive or capacitive transmission systems
    • H04B5/70Near-field transmission systems, e.g. inductive or capacitive transmission systems specially adapted for specific purposes
    • H04B5/72Near-field transmission systems, e.g. inductive or capacitive transmission systems specially adapted for specific purposes for local intradevice communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/08Mouthpieces; Microphones; Attachments therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/326Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only for microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R11/00Transducers of moving-armature or moving-core type
    • H04R11/04Microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R17/00Piezoelectric transducers; Electrostrictive transducers
    • H04R17/02Microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R19/00Electrostatic transducers
    • H04R19/04Microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R21/00Variable-resistance transducers
    • H04R21/02Microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/004Monitoring arrangements; Testing arrangements for microphones
    • H04R29/005Microphone arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/30Monitoring or testing of hearing aids, e.g. functioning, settings, battery power
    • H04R25/305Self-monitoring or self-testing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Otolaryngology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • User Interface Of Digital Computer (AREA)
  • Circuit For Audible Band Transducer (AREA)

Description

関連出願の相互参照
本出願は、参照により本明細書に組み込まれる、2020年11月5日に出願された米国仮特許出願第63/110,255号の優先権を主張する。
技術分野
1つまたは複数の実施形態は、一般にオーディオシステムに関し、特に、高度な機能を備えたマイクロフォンに関する。
背景
マイクロフォンは、イベントなどで音声を取り込むために使用される。イベントでは、マイクロフォンは、通常、アクセス困難な場所に配置されるので、マイクロフォンは一度配置されると、容易に再構成されない。さらに、イベントで使用される従来のアレイマイクロフォンは、オーディオ状態以外のその環境内の状態に動的に適応または応答することができない。放送エンジニアおよびライブイベント制作要員などの専門家は、通常、遠隔地(すなわち、イベントから離れた場所)からイベントの放送を制御するため、イベントで使用されるマイクロフォンへの変更は、変更を遠隔で行うことができない場合には達成することができない。さらに、マイクロフォンが内部/オンボードデジタル信号処理(DSP)を含む場合でも、マイクロフォンに任意の変更を加えるために、ソフトウェアとの手動対話を介してマイクロフォンを呼び出すかまたは構成する必要がある。
いくつかの従来のイーサネット(登録商標)ベースのアレイマイクロフォンは、ユーザがイーサネットを介してマイクロフォンのオーディオパラメータを遠隔制御または変更することを可能にするが、マイクロフォンは、オーディオ状態以外のその環境内の状態(すなわち、ユーザが聞いているもの)に関する情報をユーザに提供しない。たとえば、マイクロフォンは、ピックアップパターンの制御を可能にすることができるが、マイクロフォンの場所または位置などのその環境の特定の状態を示す情報を捕捉する/フィードバックを提供するためにセンサデバイスを利用しない。いくつかの従来のスマートマイクロフォンは、マイクロフォンに何らかの変更を加えるためにユーザからの手動対話を必要とするデジタルオーディオワークステーション(DAW)またはソフトウェアアプリケーション(たとえば、遠隔装置上で動作するもの)用のプラグインを介して遠隔制御される。
概要
本発明の実施形態は、一般にオーディオシステムに関し、特に、高度な機能を備えたマイクロフォンに関する。
一実施形態は、高度な機能を備えたマイクロフォンデバイスを提供する。マイクロフォンデバイスは、1つまたは複数のマイクロフォンユニット、1つまたは複数のセンサユニット、および自動制御システムを備える。1つまたは複数のセンサユニットは、マイクロフォンデバイスの環境の1つまたは複数のリアルタイムの状態を示すコンテキスト情報を捕捉するように構成される。自動制御システムは、コンテキスト情報に基づいてマイクロフォンデバイスの環境に対する1つまたは複数のリアルタイムの変更を検出し、1つまたは複数のリアルタイムの変更を示す情報を含むグラフィカルユーザインタフェース(GUI)の表示を呼び出し、1つまたは複数のリアルタイムの変更に応答してマイクロフォンデバイスの1つまたは複数の設定を調整するように構成される。他の実施形態は、マイクロフォンデバイスに高度な機能を提供するための方法を含む。これらの特徴は、マイクロフォンデバイスの場所または位置など、マイクロフォンデバイスの環境のリアルタイムの状態を示すフィードバックまたは情報を提供し、環境の状態の観点からマイクロフォンデバイスの設定および監視を可能にするという利点に寄与する。
以下の特徴のうちの1つまたは複数が含まれてもよい。いくつかの実施形態では、調整は、人工知能を利用してマイクロフォンデバイスの1つまたは複数の設定を動的に調整することを含む。これらの任意選択の特徴は、環境の状態の観点からマイクロフォンデバイスを動的に調整するという利点に寄与する。
いくつかの実施形態では、ユーザに対応するデジタル信号処理(DSP)構成は、1つまたは複数のセンサユニットが近距離無線通信(NFC)対応デバイスからユーザの識別子を読み取ることに応答して自動的に設定される。DSPの構成に応じて、マイクロフォンデバイスの出力チャネルごとにデジタル信号処理が施される。これらの任意選択の特徴は、ユーザがマイクロフォンデバイスの近くにいることを検出すると、ユーザに特有の情報を用いてマイクロフォンデバイスを動的に設定するという利点に寄与する。
いくつかの実施形態では、マイクロフォンデバイスの1つまたは複数の出力チャネルは、1つまたは複数のセンサユニットが近距離無線通信(NFC)対応デバイスからユーザの識別子を読み取ることに応答して、1つまたは複数のラベルで自動的に設定される。1つまたは複数のラベルは識別子に基づく。これらの任意選択の特徴は、ユーザがマイクロフォンデバイスの近くにいることを検出すると、ユーザに特有の情報を用いてマイクロフォンデバイスを動的に設定するという利点に寄与する。
本発明のこれらおよび他の特徴、態様および利点は、以下の説明、添付の特許請求の範囲および添付の図面を参照して理解されるであろう。
図面の簡単な説明
発明とみなされる主題は、本明細書の末尾の特許請求の範囲において特に指摘され明確に記載されている。本発明の上記および他の目的、特徴、および利点は、添付の図面と併せて以下の詳細な説明から明らかである。
1つまたは複数の実施形態における、高度な機能を備えたマイクロフォンデバイスを含む例示的なプロフェッショナルオーディオシステムを示す。 1つまたは複数の実施形態における、マイクロフォンデバイスのいくつかの構成要素を示す。 1つまたは複数の実施形態における、異なる所定のモノラル仮想極性パターンを説明する表を示す。 1つまたは複数の実施形態における、異なる所定のステレオ仮想極性パターンを説明する表を示す。 1つまたは複数の実施形態における、マイクロフォンデバイスの設定を含む例示的なGUIを示す。 1つまたは複数の実施形態における、変更を加えるためにマイクロフォンデバイスの特定の出力チャネルを選択するためのGUIとの例示的なユーザ相互作用を示す。 1つまたは複数の実施形態における、選択された出力チャネルの出力依存設定を変更するためのGUIとの追加の例示的なユーザ相互作用を示す。 1つまたは複数の実施形態における、マイクロフォンデバイスの設定を含む別の例示的なGUIを示す。 1つまたは複数の実施形態における、マイクロフォンデバイスの例示的な機械的設計を示す。 1つまたは複数の実施形態における、高度な機能を備えたマイクロフォンデバイスを提供するための例示的なプロセスのフローチャートである。 開示された実施形態を実施するのに有用なコンピュータシステムを含む情報処理システムを示す高レベルのブロック図である。
詳細な説明は、例として図面を参照して、本発明の好ましい実施形態を利点および特徴とともに説明する。
詳細な説明
1つまたは複数の実施形態は、一般にオーディオシステムに関し、特に、高度な機能を備えたマイクロフォンに関する。一実施形態は、高度な機能を備えたマイクロフォンデバイスを提供する。マイクロフォンデバイスは、1つまたは複数のマイクロフォンユニット、1つまたは複数のセンサユニット、および自動制御システムを備える。1つまたは複数のセンサユニットは、マイクロフォンデバイスの環境の1つまたは複数のリアルタイムの状態を示すコンテキスト情報を捕捉するように構成される。自動制御システムは、コンテキスト情報に基づいてマイクロフォンデバイスの環境に対する1つまたは複数のリアルタイムの変更を検出し、1つまたは複数のリアルタイムの変更を示す情報を含むグラフィカルユーザインタフェース(GUI)の表示を呼び出し、1つまたは複数のリアルタイムの変更に応答してマイクロフォンデバイスの1つまたは複数の設定を調整するように構成される。他の実施形態は、マイクロフォンデバイスに高度な機能を提供するための方法を含む。
説明目的のために、本明細書で使用される「オーディオシステム」という用語は、一般に、1つまたは複数のソース(たとえば、マイクロフォンデバイス)から1つまたは複数のオーディオデータストリームを受信し、データストリームを処理し、結果として得られる1つまたは複数の処理済みデータストリームを、オーディオ再生、録音、および/または記憶のために、1つまたは複数のデバイス(たとえば、録音装置、スピーカ装置、記憶装置など)に配信するように構成されたシステムを指す。
1つまたは複数の実施形態は、マイクロフォンの場所または位置などのその環境のリアルタイムの状態を示すフィードバックまたは情報を提供することと、その環境の状態の観点からマイクロフォンの設定および監視を可能にすることと、を含む高度な機能を備えたマイクロフォンに提供する。
1つまたは複数の実施形態は、これらに限定されないが、ワイヤレスマイクロフォンシステム、パブリックアドレス(PA)システム、スタジオオーディオシステム、ブロードキャストオーディオシステム、視聴覚(AV)システムなどのワイヤレスシステム、および放送事業者(たとえば、ラジオ放送局、テレビ放送局など)、祭事、縁日、映画スタジオ、大会、企業イベント、礼拝堂、スポーツクラブ、学校、録音スタジオ(すなわち、録音、ミキシング、およびオーディオ制作のための設備)、オーディオポスト制作のための施設、プログラミングネットワーク、劇場、会場(たとえば、スポーツ会場、音楽会場など)などによって運用される他の種類のプロフェッショナルオーディオシステムにおいて使用するための高度な機能を備えたマイクロフォンを提供する。
図1は、1つまたは複数の実施形態における、高度な機能を備えたマイクロフォンデバイス100を含む例示的なプロフェッショナルオーディオシステム10を示す。マイクロフォンデバイス100は、1つまたは複数のマイクロフォンユニット110を備える。各マイクロフォンユニット110は、音をアナログ信号として捕捉またはピックアップするように構成される。一実施形態では、マイクロフォンユニット110は、1つまたは複数のタイプのマイクロフォンカプセル(「マイクカプセル」)を含む。
一実施形態では、マイクロフォンデバイス100は、ゲインを提供することによってマイクロフォンユニット110からの各アナログ信号を増幅するように構成されたマイクロフォンヘッド増幅器120を備える。たとえば、一実施形態では、ヘッド増幅器120は、最大音圧レベル(SPL)状態におけるマイクロフォンユニット110に対して最適化されたゲインを提供する。
一実施形態では、マイクロフォンデバイス100は、ヘッド増幅器120からの各増幅されたアナログ信号をデジタル信号に変換(すなわち、アナログ-デジタル変換)するように構成されたアナログ-デジタル変換器(ADC)130を備える。ADC130は、構成中に指定されたサンプリングレート、バッファサイズ、およびビット深度でアナログ-デジタル変換を実行する。
一実施形態では、マイクロフォンデバイス100は、構成中に指定されたバッファサイズを備えたマイクロフォンバッファ140を備える。アナログ-デジタル変換中、ADC130は、そのサンプリングレートでアナログ信号をサンプリングし、結果として生じるオーディオサンプルをバッファ140に書き込む。ADC130のサンプリングレートは変動し得る。たとえば、一実施形態では、ADC130は、最大48kHzのサンプリングレートで透過的な24ビット変換(すなわち、ビット深度:最小24ビット、サンプリングレート:最小48kHz、ダイナミックレンジ:114dB)を提供する高品質の4チャネルADCを備える。別の例として、一実施形態では、ADC130は、最大192kHzのサンプリングレートを提供する。
一実施形態では、マイクロフォンデバイス100は、マイクロフォンデバイス100に統合された、またはマイクロフォンデバイス100に結合された1つまたは複数の入力/出力(I/O)ユニット180を備える。一実施形態では、I/Oユニット180は、これらに限定されないが、物理的ユーザインタフェース(PUI)および/またはタッチインタフェース(たとえば、タッチパッドまたはタッチ画面)などのグラフィカルユーザインタフェース(GUI)、制御ノブ、ボタン、ダイヤル機構(たとえば、回転ダイヤル)、1つまたは複数のLEDのうちの1つを含むLEDシステム181(図2)、表示画面182(図2)、キーパッド、キーボード、触覚フィードバックデバイスなどを含む。一実施形態では、ユーザは、少なくとも1つのI/Oユニット180を利用して、1つまたは複数のユーザ設定を構成し、1つまたは複数のパラメータを構成し、ユーザ入力を提供することなどができる。
一実施形態では、マイクロフォンデバイス100は、1つまたは複数のデジタル信号プロセッサ150および1つまたは複数の記憶ユニット160などのコンピューティングリソースを備える。1つまたは複数のソフトウェアモジュール170は、コンピューティングリソースを利用してマイクロフォンデバイス100上で実行/動作することができる。ソフトウェアモジュール170は、以下を含むが、これらに限定されない:(1)ADC130からのデジタル信号のデジタル信号処理を提供するように構成された内部/オンボードデジタル信号処理(DSP)システム171(図2)、(2)DSPシステム171からのデジタル信号を組み合わせて独立した仮想極性パターンを作成/生成するように構成されたカプセル混合システム172(図2)、(3)表示用の1つまたは複数のGUIを(たとえば、表示画面182上、NFC対応デバイス60上、ウェブブラウザ内などに)生成するように構成されたGUIシステム173(図2)、および(4)高度な機能を提供するように構成された自動制御システム174(図2)。本明細書において後で詳細に説明するように、高度な機能は、マイクロフォンデバイス100の場所または位置などのマイクロフォンデバイス100の環境のリアルタイムの状態を示すフィードバックまたは情報を提供することと、状態に基づいてマイクロフォンデバイス100の1つまたは複数の設定および/またはマイクロフォンデバイス100によって作成/生成された1つまたは複数の仮想極性パターンを動的に調整することと、を含む。
一実施形態では、マイクロフォンデバイス100は、マイクロフォンデバイス100に統合された、またはマイクロフォンデバイス100に結合された1つまたは複数のセンサユニット190を備える。センサユニット190は、マイクロフォンデバイス100の環境のリアルタイムの状態を示すコンテキスト情報を捕捉するように構成される。一実施形態では、センサユニット190は、これらに限定されないが、近距離無線通信(NFC)センサ191(図2)(たとえば、NFCアンテナ)、全地球測位システム(GNSS)/全地球測位システム(GPS)192(図2)、モーションセンサ193(図2)などを含む。本明細書で後に詳細に説明するように、自動制御システム174は、センサユニット190によって捕捉されたコンテキスト情報に部分的に基づいて、マイクロフォンデバイス100の設定および/またはマイクロフォンデバイス100によって作成/生成された仮想極性パターンを動的に調整する。
一実施形態では、マイクロフォンデバイス100は、NFCセンサ191を介してNFC対応デバイス60とデータを交換するように構成される。具体的には、NFCセンサ191がマイクロフォンデバイス100/NFCセンサ191の近接(たとえば、4cm)内に配置されたNFC対応デバイス60を検出することに応答して、NFCセンサ191はアクティブ化される。本明細書で後述するように、NFCセンサ191は、NFC対応デバイス60が、NFCを介してマイクロフォンデバイス100からデータを読み取り、マイクロフォンデバイス100にデータを書き込むことを可能にする。一実施形態では、NFC対応デバイス60は、マイクロフォンデバイス100上で実行/動作するソフトウェアモジュール170のいくつかとデータを交換するように構成されたソフトウェアアプリケーションを含む。
NFC対応デバイス60の例には、限定されないが、NFCカード(たとえば、IDタグ、アクセスカード)、モバイル電子デバイス(たとえば、スマートフォン、ラップトップコンピュータ、タブレットなど)、ウェアラブルデバイス(たとえば、スマートウォッチ、スマートバンドなど)、デスクトップコンピュータ、スマートアプライアンス(たとえば、スマートスピーカ、スマートテレビなど)、モノのインターネット(IOT)デバイスなどが含まれる。
一実施形態では、マイクロフォンデバイス100は、1つまたは複数の通信ユニット200を備える。各通信ユニット200は、マイクロフォンデバイス100が、有線接続(たとえば、ネットワークケーブル)を介したマスタ処理システム70および/または通信ネットワーク/接続50(たとえば、Wi-Fi接続もしくはセルラーデータ接続などの無線接続、有線接続、またはこれらの2つの組み合わせ)を介した遠隔コンピューティング環境80などの、プロフェッショナルオーディオシステム10の異なる構成要素とデータを交換することを可能にする。通信ユニット200は、通信ネットワークに接続し、マイクロフォンデバイス100とプロフェッショナルオーディオシステム10の他の構成要素との間で通信動作およびメディアを交換するように動作する任意の適切な通信回路を備え得る。通信ユニット200は、たとえば、Wi-Fi(たとえば、IEEE802.11プロトコル)、Bluetooth(登録商標)、高周波システム(たとえば、900MHz、2.4GHz、および5.6GHzの通信システム)、赤外線、GSM(登録商標)、GSMプラスEDGE、CDMA、クワッドバンド、および他のセルラプロトコル、VOIP、TCP-IP、または任意の他の適切なプロトコルなどの任意の適切な通信プロトコルを使用して通信ネットワークとインタフェースするように動作することができる。
一実施形態では、マスタ処理システム70は、オーディオ処理デバイス、オーディオ再生/出力デバイスなどの、追加の処理および出力のためのプロフェッショナルオーディオシステム10の1つまたは複数の他の構成要素を出力およびインタフェースするように構成される。オーディオ処理デバイスは、オーディオ処理のために構成される(たとえば、オーディオミキシング用のオーディオミキサ、録音用の録音デバイス、オーディオマスタリング用のオーディオマスタリングデバイスなど)。オーディオ再生/出力デバイスは、オーディオ再生/出力のために構成される(たとえば、音声再生用のスピーカなど)。
一実施形態では、遠隔コンピューティング環境80は、1つまたは複数のサーバおよび1つまたは複数の記憶ユニットなどのコンピューティングリソースを含む。より高いレベルのサービスを提供する1つまたは複数のアプリケーションは、遠隔コンピューティング環境80のコンピューティングリソースを利用して、遠隔コンピューティング環境80上で実行/動作することができる。たとえば、一実施形態では、遠隔コンピューティング環境80は、1つまたは複数のオンラインサービス(たとえば、オーディオストリーミングサービスなど)をホストするため、および/または1つまたは複数の更新/アップグレードを配布するためのオンラインプラットフォームを提供する。たとえば、遠隔コンピューティング環境80は、これらに限定されないが、更新されたオーディオプラグイン、ファームウェアアップグレード、ソフトウェアモジュール170のソフトウェア更新(たとえば、自動制御システム174)などの更新/アップグレードを維持および配布することができる。別の例として、一実施形態では、遠隔コンピューティング環境80は、構成可能なコンピューティングシステムリソースおよびより高いレベルのサービス(たとえば、プロフェッショナルグレードのオーディオ処理および生成ツールを提供するクラウドアプリケーション)の共有プールを提供するクラウドコンピューティング環境を含み得る。
一実施形態では、マイクロフォンデバイス100は、オーディオオーバーIP(AoIP)相互運用性標準を提供するように構成されたネットワーク回路210を備える。説明の目的で、「AoIP」および「ネットワークオーディオプロトコル」という用語は、本明細書では互換的に使用される。一実施形態では、マイクロフォンデバイス100は、ネットワーク化されたオーディオのためのネットワークオーディオプロトコルと、マイクロコントローラの動作のためのDSP(DSPシステム171を介して)との組み合わせを使用する。ネットワーク回路210がサポートする1つまたは複数のネットワークオーディオプロトコルの例には、Dante、RAVENNAなどが含まれるが、これらに限定されない。たとえば、一実施形態では、ネットワーク回路210は、Dante用のハードウェアモジュールまたはチップを備える。
一実施形態では、ネットワーク回路210は、マイクロフォンデバイス100の1つまたは複数の設定を制御するように構成される。たとえば、一実施形態では、ネットワーク回路210は、ユーザ入力(たとえば、PUIまたはGUIなどのI/Oユニット180、NFCセンサ191などのセンサユニット190などを介して受信される)に応答してマイクロフォンデバイス100のための1つまたは複数の設定を制御するように構成される。別の例として、一実施形態では、ネットワーク回路210は、制御プロトコル(たとえば、Ember+)を利用して、マイクロフォンデバイス100の1つまたは複数の設定を選択するように構成される。
図2は、1つまたは複数の実施形態における、マイクロフォンデバイス100のいくつかの構成要素を示す。一実施形態では、マイクロフォンユニット110は、マイクカプセルのアレイ111(「カプセルアレイ」)を含む。一実施形態では、カプセルアレイ111は、これらに限定されないが、少なくとも2つの大きな二重ダイアフラムマイクカプセル、軸上に配置された1つのマイクカプセル、および軸を90°外して配置された1つのマイクカプセルなどの異なるタイプのマイクカプセルを含む。カプセルアレイ111は、少なくとも4つの独立したカーディオイド出力/信号を提供する。少なくとも4つの独立したカーディオイド出力/信号には、以下の出力チャネルが含まれるが、これらに限定されない:中央-前方マイクを表すチャネル1、中央-後方マイクを表すチャネル2、側方-左マイクを表すチャネル3、および側方-右マイクを表すチャネル4。別の実施形態では、マイクロフォンユニット110は、1つまたは複数の非アレイマイクロフォンを含む。
一実施形態では、マイクロフォンデバイス100によって提供される高度な機能のいくつかは、NFCセンサ191からのリアルタイムのセンサ読み取り値を利用することを含む。たとえば、一実施形態では、NFCセンサ191は、NFC対応デバイス60を介して、ユーザが、マイクロフォンデバイス100の1つまたは複数の設定を確認/検討/変更すること、および/またはセンサユニット190によって取り込まれた1つまたは複数のリアルタイムのセンサ読み取り値/測定値を検討することを可能にする。別の例として、一実施形態では、NFCセンサ191は、ユーザが、NFC対応デバイス60からマイクロフォンデバイス100にデータ(たとえば、プリセット)を転送することを可能にする。これにより、マイクロフォンデバイス100にプリセットをローカルに保存する必要がなくなり、メモリ/記憶要件が軽減される。
別の例として、一実施形態では、マイクロフォンデバイス100は、ユーザに関与するイベント/セッション中にNFC対応デバイス60からNFCセンサ191を介してユーザの識別子(たとえば、名前タグ、識別(ID)タグ、またはNFC対応デバイス60上で実行/動作するソフトウェアアプリケーション)を読み取ることに応答して、ユーザの固有のDSP構成161(たとえば、DSP曲線設定)を自動的に設定することができる。たとえば、ユーザのIDの読み取りに応答して、自動制御システム174は、(たとえば、マイクロフォンデバイス100の記憶ユニット160、遠隔コンピューティング環境80などから)DSP構成161を取得し、DSP構成161をロードして、マイクロフォンデバイス100が、DSP構成161に従ってイベント/セッション中に(DSPシステム171を介して)デジタル信号を処理するようにしてもよい。したがって、マイクロフォンデバイス100は、ユーザがマイクロフォンデバイス100の近くにいることを(NFC対応デバイスを介して)検出すると、ユーザに固有の情報で自動的に設定される。たとえば、ラジオ放送中に、ラジオホストは、マイクロフォンデバイス100/NFCセンサ191に対してそれらのNFC対応IDタグをタップして、ラジオホストの固有のDSP構成161でマイクロフォンデバイス100を自動的に設定することができる。
別の例として、一実施形態では、マイクロフォンデバイス100は、NFC対応デバイス60からNFCセンサ191を介してユーザの名前またはユーザのIDなどのユーザの識別子(たとえば、名前タグ、IDタグ、またはNFC対応デバイス60上で実行/動作するソフトウェアアプリケーション)を読み取ることに応答して、識別子に基づくラベルでマイクロフォンデバイス100の出力チャネルを自動的に設定することができる。たとえば、出力チャネルは、ユーザの名前またはユーザのIDを示すラベルでラベル付けされ得る。これにより、マイクロフォンオペレータまたは放送エンジニアなどの専門家は、マイクロフォンデバイス100のどの出力チャネルが、ユーザが関与するイベント/セッション中にユーザのオーディオを捕捉するかを容易に決定することができる。したがって、マイクロフォンデバイス100は、ユーザがマイクロフォンデバイス100の近くにいることを(NFC対応デバイスを介して)検出すると、ユーザに固有の情報で自動的に設定される。たとえば、ライブコンサート中に、演奏者は、マイクロフォンデバイス100/NFCセンサ191に対して自身のNFC対応IDタグをタップして、マイクロフォンデバイス100を自動的に設定して、マイクロフォンデバイス100の出力チャネルに演奏者の名前またはIDをラベル付けすることができる。
GNSS/GPSセンサ192は、マイクロフォンデバイス100の位置または場所を示すコンテキスト情報を捕捉するように構成される。一実施形態では、マイクロフォンデバイス100によって提供される高度な機能のいくつかは、GNSS/GPSセンサ192からのリアルタイムのセンサ読み取り値/測定値を利用することを含む。たとえば、一実施形態では、GNSS/GPSセンサ192は、マイクロフォンデバイス100のNFC対応デバイス60またはI/Oユニット180を介して、ユーザがマイクロフォンデバイス100の長手方向および横方向の読み取り値/座標を確認/検討することを可能にする。
モーションセンサ193は、(1)コンパスに対するマイクロフォンデバイス100のリアルタイム方向、(2)3つの座標軸X、YおよびZ上のマイクロフォンデバイス100のリアルタイムの位置、および(3)マイクロフォンデバイス100がその位置(「ロック位置」)(すなわち、環境または初期/意図された配置に最初に展開されたときにマイクロフォンデバイス100が最初に配置された場所)にロックされてからマイクロフォンデバイス100が移動/シフト/傾斜したかどうかのうちの少なくとも1つを含む、内部運動(すなわち、マイクロフォンデバイス100の)を示すコンテキスト情報を捕捉するように構成される。一実施形態では、モーションセンサ193は、加速器、ジャイロスコープ、および/または磁力計(たとえば、6~9軸ジャイロスコープ/磁力計)を備える。一実施形態では、マイクロフォンデバイス100によって提供される高度な機能のいくつかは、モーションセンサ193からのリアルタイムのセンサ読み取り値/測定値を利用することを含む。たとえば、一実施形態では、モーションセンサ193は、マイクロフォンデバイス100のNFC対応デバイス60またはI/Oユニット180を介して、ユーザが真北に対するマイクロフォンデバイス100のリアルタイムの方向を確認/検討することを可能にする。真北に対するマイクロフォンデバイス100のリアルタイムの方向は、マイクロフォンデバイス100が北、南、東、または西のいずれを指しているかを決定することを可能にする。別の例として、一実施形態では、モーションセンサ193は、ユーザが、X、YおよびZ軸上のマイクロフォンデバイス100のリアルタイムの位置を確認/検討することを可能にする。X、YおよびZ軸上のマイクロフォンデバイス100のリアルタイムの位置により、空間における(たとえば、ジャイロスコープを介した)マイクロフォンデバイス100のリアルタイムの向き(すなわち、マイクロフォンデバイス100が直立して配置されているか逆さまに配置されているか、マイクロフォンデバイス100がそのロック位置からずれているかなど)の決定が可能になる。たとえば、風または物理的相互作用(たとえば、個人がマイクロフォンデバイス100を落とした)がマイクロフォンデバイス100をそのロック位置から移動/シフト/傾斜させた場合、モーションセンサ193は、ユーザ(たとえば、マイクロフォンオペレータ、放送技術者、またはライブイベント制作担当者)は、マイクロフォンデバイス100のリアルタイムの方向またはリアルタイムの位置に基づいて、マイクロフォンデバイス100が移動/シフト/傾斜したかどうかを決定することを可能にする。
一実施形態では、LEDシステム181は、LEDのアレイ(「LEDアレイ」)と、LEDアレイを制御/調光するためのドライバ(すなわち、ドライバは、コントローラ/調光器である)とを備える。たとえば、一実施形態では、LEDアレイは、8~12個のRGB LEDのリングを含む。別の例として、一実施形態では、LEDアレイは、マルチカラーLEDを提供するはっきり見える(すなわち、視認しやすい)LEDレンズを備える。一実施形態では、マイクロフォンデバイス100によって提供される高度な機能のいくつかは、LEDシステム181を利用することを含む。たとえば、一実施形態では、LEDアレイを使用して、マイクロフォンデバイス100の環境の異なるリアルタイムの状態(たとえば、オーディオ状態以外の状態)に関するフィードバックまたは情報を提供し、状態は、センサユニット190からのリアルタイムのセンサ読み取り値/測定値に基づく。
以下の表1は、LEDアレイが提供することができる異なるタイプのフィードバックまたは情報の例を提供する。
Figure 0007491886000001
一実施形態では、ADC130からのデジタル信号の場合、DSPシステム171は、極性、デジタルゲイン、ハイパスフィルタ(HPF)、ローパスフィルタ(LPF)などを含むがこれらに限定されないオンボードDSPを提供するように構成される。たとえば、一実施形態では、DSPシステム171は、選択可能な極性反転(すなわち、デジタル信号の極性の反転または位相反転)を提供する。別の例として、一実施形態では、DSPシステム171は、6dBステップで48dBのデジタルゲインを提供する。別の例として、一実施形態では、DSPシステム171は、2つの状態選択可能なHPF(たとえば、18dB/オクターブで47Hz、および12dB/オクターブで80Hz)を提供する。別の例として、一実施形態では、DSPシステム171は、2つの状態選択可能なLPF(たとえば、18dB/オクターブで18kHz、および6dB/オクターブで8.2kHz)を提供する。
一実施形態では、カプセル混合システム172は、異なる所定の仮想極性パターンを作成/生成するように構成され、各極性パターンは、それ自体の調整可能なゲイン、LPF、およびHPFを有する。たとえば、一実施形態では、所定の仮想極性パターンは、少なくとも5つのモノラル仮想極性パターンおよび少なくとも2つのステレオ仮想極性パターンを含むが、これらに限定されない。少なくとも5つのモノラル仮想極性パターンには、全方向性、サブカーディオイド/ワイドカーディオイド、カーディオイド、スーパーカーディオイド、双方向(図8)などが含まれるが、これらに限定されない。少なくとも2つのステレオ仮想極性パターンには、ワイドステレオ(すなわち、マイクロフォンユニット110間の127度の角度)、ナローステレオ(すなわち、マイクロフォンユニット110間の90度の角度)などが含まれるが、これらに限定されない。
一実施形態では、自動制御システム174は、センサユニット190からのリアルタイムのセンサ読み取り値/測定値に基づいて、マイクロフォンデバイス100の1つまたは複数の設定、および/またはマイクロフォンデバイス100の環境の1つまたは複数の状態に対する1つまたは複数の変更に応答して、マイクロフォンデバイス100によって(DSPシステム171およびカプセル混合システム172を介して)作成/生成された1つまたは複数の仮想極性パターンを動的に調整するように構成される。たとえば、一実施形態では、モーションセンサ193によって捕捉されたリアルタイムのコンテキスト情報が、空間内のマイクロフォンデバイス100の向きが変化したことを示す場合(たとえば、風によってマイクロフォンデバイス100がシフトする、マイクロフォンデバイス100がそのロック位置から外れるなど)、自動制御システム174は、GUIシステム173をトリガして、この変化を示すフィードバックまたは情報を含むGUIを生成し、GUIは、ユーザがGUIを介してマイクロフォンデバイス100の1つまたは複数の設定を確認/検討/変更することができるように、表示のために提供される。別の例として、一実施形態では、空間内のマイクロフォンデバイス100の向きの変化に応答して、自動制御システム174は、DSPシステム171および/またはカプセル混合システム172をトリガして、変化に応答して作成/生成された1つまたは複数の仮想極性パターンを動的に調整/成形する。一実施形態では、1つまたは複数の仮想極性パターンは、人工知能を利用して調整される。たとえば、教師あり機械学習は、異なる仮想極性パターン、ゲイン設定、HPF、LPF、およびマイクロフォンデバイス100の環境の異なる状態に適した他の等化(イコライゼーション)設定を捕捉する訓練データに基づいてAIエンジン175(たとえば、ニューラルネットワーク)を訓練するために使用され、得られた訓練されたAIエンジン175は、作成/生成された仮想極性パターン、ゲイン設定、HPF、LPF、およびリアルタイムの状態に基づくマイクロフォンデバイス100の他の等化設定に対する1つまたは複数の調整を決定する際に使用するために、自動制御システム174に展開される。別の実施形態では、AIエンジン175は、マイクロフォンデバイス100がデータを交換する遠隔コンピューティング環境80上に展開される。
一実施形態では、自動制御システム174は、マイクロフォンデバイス100のリアルタイムの緯度、経度、および/または高度の読み取り値を、異なる緯度、経度、および/または高度の読み取り値のデータベースと比較し、比較に基づいてマイクロフォンデバイス100の極性パターン(たとえば、パターン方向)、ゲイン設定、および等化設定のための1つまたは複数の提案を(AIエンジン175を介して)決定するように構成される。
一実施形態では、マイクロフォンデバイス100が、そのロック位置(すなわち、環境または初期/意図された配置に最初に展開されたときにマイクロフォンデバイス100が最初に配置された場所)のGNSS/GPS座標に対してだけでなく、X、YおよびZ座標の既知の値(すなわち、所定の閾値)だけ位置をシフトしている場合、自動制御システム174は、DSPシステム171および/またはカプセル混合システム172をトリガして、作成/生成された1つまたは複数の仮想極性パターン、ゲイン、HPF、LPF、または他の等化を動的に調整することによってロック位置に向かって「再照準」させる。一実施形態では、これらの調整は、AIエンジン175を使用して決定される。
一実施形態では、自動制御システム174は、所定の時間枠またはイベント/セッション全体の間に捕捉されたセンサ読み取り値/測定値のバッファを記録または維持するように構成される。バッファは、自動制御システム174が、マイクロフォンデバイス100の位置または向きがそのオーディオ品質に影響を与えるのに十分に移動したことを検出することを可能にする。
一実施形態では、マイクロフォンデバイス100は、異なるコンテキスト/環境のための好ましい動作モードを学習するように構成される。たとえば、学習段階では、マイクロフォンデバイス100を介して捕捉されたオーディオおよびセンサの読み取り値/測定値が(たとえば、遠隔コンピューティング環境上で)分析され、同様のコンテキスト/環境で使用するためのベースライン設定が決定される。一実施形態では、AIエンジン175は、ベースライン設定を学習するように訓練される。別の実施形態では、ベースライン設定は、リコール可能なプリセットとしてマイクロフォンデバイス100に記憶されている。学習段階の後、自動制御システム174が(AIエンジン175を介して)マイクロフォンデバイス100が同様のコンテキスト/環境に展開されていることを検出すると、自動制御システム174は、マイクロフォンデバイス100をベースライン設定で自動的に設定するように、または、ベースライン設定を使用するための推奨を提供する(たとえば、推奨は、I/Oユニット180を介して、NFC対応デバイス60上で、ウェブブラウザ内などで提供される)ように構成される。たとえば、ベースライン設定は、ライブスポーツイベントを含むコンテキスト/環境に適している可能性がある(たとえば、マイクロフォンデバイス100のいくつかの出力チャネルの等化は、マイクロフォンデバイス100の片側の群集ノイズに対して最適化され、マイクロフォンデバイス100の他の出力チャネルの等化は、マイクロフォンデバイス100の反対側のベンチでのプレーヤー、コーチ、および他の人々の間の会話のために最適化されている)。
一実施形態では、マイクロフォンデバイス100のリアルタイムのGPS座標に基づいて、自動制御システム174は、風速および他の気象情報などの、マイクロフォンデバイス100の環境における気象条件に関連するデータを取得し、気象条件に関して専門家(たとえば、マイクロフォンオペレータ)にアラートまたは通知を送信するかどうかを、(AIエンジン175を介して)決定する。アラートまたは通知には、マイクロフォンデバイス100の代替EQ設定を検討するため、またはマイクロフォンデバイス100に追加の風防保護を追加するための推奨が含まれ得る。
一実施形態では、通信ユニット200は、マイクロフォンデバイス100をネットワークケーブル90に接続するように構成されたEtherconケーブルコネクタ201を含む。たとえば、一実施形態では、マイクロフォンデバイス100は、ネットワークケーブル90を介してマスタ処理システム70に配線されて戻される。異なるタイプのネットワークケーブル90の例には、CAT5ケーブル、光ファイバーケーブル、またはデータ転送に使用される他の標準ケーブルが含まれるが、これらに限定されない。
一実施形態では、GUIシステム173は、(1)マイクロフォンデバイス100の1つまたは複数の出力依存設定(たとえば、極性パターン、ゲイン、HPF、LPF、他の等化設定)、および(2)マイクロフォンデバイス100の1つまたは複数のグローバル設定/パラメータのうちの少なくとも1つを含むGUIを生成するように構成される。GUIシステム173によって生成された各GUIは、ユーザ確認/検討のために(たとえば、表示画面182上、NFC対応デバイス60上で、ウェブブラウザ内で、など)表示するために提供される。一実施形態では、GUIシステム173によって生成されたGUIは、制御パネルとして動作し、マイクロフォンデバイス100の出力チャネルの制御および状態監視をユーザに提供する。たとえば、一実施形態では、GUIシステム173によって生成されたGUIは、ユーザがアクセスするウェブサーバGUIとして実装される。別の例として、一実施形態では、GUIシステム173によって生成されたGUIは、電子デバイス(たとえば、NFC対応デバイス60)上で実行/動作するソフトウェアアプリケーション内に表示される。
表2は、マイクロフォンデバイス100の出力依存設定の例およびGUIに含まれる対応する制御を提供する。
Figure 0007491886000002
表3は、マイクロフォンデバイス100のグローバル設定/パラメータの例、およびGUIに含まれる対応するフィードバック/情報を提供する。
Figure 0007491886000003
図3は、1つまたは複数の実施形態において、カプセル混合システム172が作成/生成するように構成される、異なる所定のモノラル仮想極性パターンを説明する表300を示す。図3に示すように、マイクロフォンデバイス100の各出力チャネルのカーディオイド出力/信号から変換された(ADC130からの)デジタル信号の極性(すなわち、出力位相)は負(NEG)である。
全指向性(「全」)極性パターンを作成/生成するために、チャネル1および2(すなわち、中央-前方および中央-後方マイク)のカーディオイド出力/信号から変換された(ADC130からの)デジタル信号は、DSPシステム171を介して以下のように処理される:極性反転が選択され(すなわち、位相反転がオンに設定されている)、デジタル信号の極性を負から正(POS)に反転し、デジタル信号はレベルを変更することなく通過する(すなわち、ユニティゲイン-増幅または減衰なし)。次に、カプセル混合システム172は、(DSPシステム171からの)結果として生じる処理されたデジタル信号を組み合わせて、モノラルサウンド(すなわち、モノラルサウンド)を作成/生成する。
サブカーディオイド/ワイドカーディオイド極性パターンを作成/生成するために、チャネル1および2のカーディオイド出力/信号から変換された(ADC130からの)デジタル信号(すなわち、中央-前方および中央-後方マイク)は、DSPシステム171を介して以下のように処理される:極性反転が選択され(すなわち、位相反転がオンに設定されている)、デジタル信号の極性を負から正(POS)に反転し、-10dBゲインが、チャネル2のカーディオイド出力/信号から変換されたデジタル信号にのみ適用され、チャネル1のカーディオイド出力/信号から変換された残りのデジタル信号は、レベルを変更することなく通過する(すなわち、ユニティゲイン)。次に、カプセル混合システム172は、(DSPシステム171からの)結果として生じる処理されたデジタル信号を組み合わせて、モノラルサウンドを作成/生成する。
カーディオイド極性パターンを作成/生成するために、チャネル1のカーディオイド出力/信号から変換された(ADC130からの)デジタル信号は、DSPシステム171を介して以下のように処理される:極性反転が選択され(すなわち、位相反転がオンに設定されている)、デジタル信号の極性を負から正(POS)に反転し、デジタル信号はレベルを変更することなく通過する(すなわち、ユニティゲイン)。次に、カプセル混合システム172は、(DSPシステム171からの)結果として生じる処理されたデジタル信号を組み合わせて、モノラルサウンドを作成/生成する。
スーパーカーディオイド/ワイドカーディオイド極性パターンを作成/生成するために、チャネル1および2のカーディオイド出力/信号から変換された(ADC130からの)デジタル信号(すなわち、中央-前方および中央-後方マイク)は、DSPシステム171を介して以下のように処理される:チャネル1のカーディオイド出力/信号から変換されたデジタル信号に対してのみ極性反転が選択され(すなわち、位相反転がオンに設定されている)、チャネル1のカーディオイド出力/信号から変換されたデジタル信号の極性を負から正(POS)に反転し、-10dBゲインが、チャネル2のカーディオイド出力/信号から変換されたデジタル信号にのみ適用され、チャネル1のカーディオイド出力/信号から変換された残りのデジタル信号は、レベルを変更することなく通過する(すなわち、ユニティゲイン)。次に、カプセル混合システム172は、(DSPシステム171からの)結果として生じる処理されたデジタル信号を組み合わせて、モノラルサウンドを作成/生成する。
チャネル1および2(すなわち、中央-前方および中央-後方マイク)のカーディオイド出力/信号から変換された(ADC130からの)デジタル信号のみを使用して双方向(図8)極性パターンを作成/生成するために、デジタル信号は、DSPシステム171を介して以下のように処理される:チャネル1のカーディオイド出力/信号から変換されたデジタル信号に対してのみ極性反転が選択され(すなわち、位相反転がオンに設定されている)、チャネル1のカーディオイド出力/信号から変換されたデジタル信号の極性を負から正(POS)に反転し、デジタル信号は、レベルを変更することなく通過する(すなわち、ユニティゲイン)。次に、カプセル混合システム172は、(DSPシステム171からの)結果として生じる処理されたデジタル信号を組み合わせて、モノラルサウンドを作成/生成する。
チャネル3および4(すなわち、側方-左および側方-右マイク)のカーディオイド出力/信号から変換された(ADC130からの)デジタル信号のみを使用して双方向(図8)極性パターンを作成/生成するために、デジタル信号は、DSPシステム171を介して以下のように処理される:チャネル3のカーディオイド出力/信号から変換されたデジタル信号に対してのみ極性反転が選択され(すなわち、位相反転がオンに設定されている)、チャネル3のカーディオイド出力/信号から変換されたデジタル信号の極性を負から正(POS)に反転し、デジタル信号は、レベルを変更することなく通過する(すなわち、ユニティゲイン)。次に、カプセル混合システム172は、(DSPシステム171からの)結果として生じる処理されたデジタル信号を組み合わせて、モノラルサウンドを作成/生成する。
図4は、1つまたは複数の実施形態において、カプセル混合システム172が作成/生成するように構成される、異なる所定のステレオ仮想極性パターンを説明する表350を示す。図4に示すように、マイクロフォンデバイス100の各出力チャネルのカーディオイド出力/信号から変換された(ADC130からの)デジタル信号の極性(すなわち、出力位相)は負(NEG)である。
一実施形態では、チャネル1または2のステレオ仮想極性パターンを選択すると、チャネル1および2が一緒にリンクされ、チャネル3または4のステレオ仮想極性パターンを選択すると、チャネル3および4が一緒にリンクされる。
チャネル1および2が一緒にリンクされているときに広いステレオ極性パターンを作成/生成するために、チャネル1、3、および4(すなわち、中央-前方、側方-左および側方-右マイク)のカーディオイド出力/信号から変換された(ADC130からの)デジタル信号は、DSPシステム171を介して以下のように処理される:チャネル1および3のカーディオイド出力/信号から変換されたデジタル信号に対してのみ極性反転が選択され(すなわち、位相反転がオンに設定されている)、チャネル1および3のカーディオイド出力/信号から変換されたデジタル信号の極性を負から正(POS)に反転し、デジタル信号は、レベルを変更することなく通過する(すなわち、ユニティゲイン)。次に、カプセル混合システム172は、(DSPシステム171からの)結果として生じる処理されたデジタル信号を組み合わせて、ステレオサウンド(すなわち、左(L)チャネルおよび右(R)チャネル)を作成/生成する。
チャネル1および2が一緒にリンクされているときに狭いステレオ極性パターンを作成/生成するために、チャネル1、3、および4(すなわち、中央-前方、側方-左および側方-右マイク)のカーディオイド出力/信号から変換された(ADC130からの)デジタル信号は、DSPシステム171を介して以下のように処理される:チャネル1および3のカーディオイド出力/信号から変換されたデジタル信号に対してのみ極性反転が選択され(すなわち、位相反転がオンに設定されている)、チャネル1および3のカーディオイド出力/信号から変換されたデジタル信号の極性を負から正(POS)に反転し、-6dBゲインが、チャネル3および4のカーディオイド出力/信号から変換されたデジタル信号にのみ適用され、チャネル1のカーディオイド出力/信号から変換された残りのデジタル信号は、レベルを変更することなく通過する(すなわち、ユニティゲイン)。次に、カプセル混合システム172は、(DSPシステム171からの)結果として生じる処理されたデジタル信号を組み合わせて、ステレオサウンドを作成/生成する。
図5Aは、1つまたは複数の実施形態において、GUIシステム173によって生成された例示的なGUI400を示し、GUI400は、マイクロフォンデバイス100の設定を含む。図5Aに示すように、GUI400は、マイクロフォンデバイス100のグローバル設定/パラメータを含む。グローバル設定/パラメータは、リアルタイムの緯度および経度の読み取り値/座標(モーションセンサ193から)、リアルタイムの高度の読み取り値(モーションセンサ193から)、ならびに3つの座標軸X、YおよびZ上のリアルタイムの位置(モーションセンサ193から)など、マイクロフォンデバイス100の環境のリアルタイムの状態を示すフィードバックまたは情報を含む。
自動制御システム174が、マイクロフォンデバイス100がロック位置から移動/シフト/傾斜したことを検出した場合、GUI400は、マイクロフォンデバイス100がどのように移動/シフト/傾斜したかを強調表示する。たとえば、X軸およびY軸上のリアルタイムの位置はロック位置と同じであるが、Z軸上のリアルタイムの位置がロック位置とは異なる場合、GUI400は、マイクロフォンデバイス100がZ軸に対して移動したことを示す。
図5Aに示すように、GUI400は、マイクロフォンデバイス100の各出力チャネルの出力依存設定をさらに含む。
図5Bは、1つまたは複数の実施形態における、変更を加えるためにマイクロフォンデバイス100の特定の出力チャネルを選択するためのGUI400との例示的なユーザ相互作用を示す。図5Bに示すように、ユーザ相互作用は、ユーザがチャネル1の出力依存設定に変更を加えることを可能にするためにチャネル1を選択することを含む。
図5Cは、1つまたは複数の実施形態における、選択された出力チャネルの出力依存設定を変更するためのGUI400との追加の例示的なユーザ相互作用を示す。図5Cに示すように、追加のユーザ相互作用は、チャネル1のデジタル/入力ゲインを増加させること、チャネル1のカーディオイド出力/信号から変換されたデジタル信号の極性を反転させるために極性反転を選択すること、チャネル1に対して18dB/オクターブで47HzのHPFを選択すること、およびチャネル1に対して18dB/オクターブで18kHzのLPFを選択することなど、チャネル1の出力依存設定に対して異なる値を選択することを含む。追加のユーザ相互作用は、チャネル1の極性パターンをサブカーディオイド/ワイドカーディオイドから双方向(図8)に変更することをさらに含む。
図6は、1つまたは複数の実施形態において、GUIシステム173によって生成された別の例示的なGUI410を示し、GUI410は、マイクロフォンデバイス100の設定を含む。図6に示すように、出力チャネル1および出力チャネル2は、一緒にリンクされて、広いステレオ極性パターンを作成/生成する。
図7は、1つまたは複数の実施形態における、マイクロフォンデバイス100の例示的な機械的設計を示す。一実施形態では、マイクロフォンデバイス100は、放送およびライブサウンドアプリケーション用のマルチ出力、マルチパターンAoIPコンデンサマイクロフォンとして実装される。
図8は、1つまたは複数の実施形態における、マイクロフォンデバイスに高度な機能を提供するための例示的なプロセス500のフローチャートである。プロセスブロック501は、マイクロフォンデバイスの1つまたは複数のセンサユニットを介して、マイクロフォンデバイスの環境の1つまたは複数のリアルタイムの状態を示すコンテキスト情報を捕捉することを含む。プロセスブロック502は、コンテキスト情報に基づいて、マイクロフォンデバイスの環境に対する1つまたは複数のリアルタイムの変更を検出することを含む。プロセスブロック503は、1つまたは複数のリアルタイムの変更を示す情報を含むグラフィカルユーザインタフェース(GUI)の表示を呼び出すことを含む。プロセスブロック504は、1つまたは複数のリアルタイムの変更に応答して、マイクロフォンデバイスの1つまたは複数の設定を調整することを含む。
一実施形態では、プロセスブロック501~504は、自動制御システム174などのマイクロフォンデバイス100の1つまたは複数の構成要素を利用して実行することができる。
図9は、開示された実施形態を実施するのに有用なコンピュータシステム600を含む情報処理システムを示す高レベルのブロック図である。コンピュータシステム600は、1つまたは複数のプロセッサ601を含み、さらに、(ビデオ、グラフィックス、テキスト、および他のデータを表示するための)電子表示デバイス602、メインメモリ603(たとえば、ランダムアクセスメモリ(RAM))、記憶装置604(たとえば、ハードディスクドライブ)、リムーバブル記憶装置605(たとえば、リムーバブル記憶ドライブ、リムーバブルメモリモジュール、磁気テープドライブ、光ディスクドライブ、コンピュータソフトウェアおよび/またはデータを格納したコンピュータ可読媒体)、ユーザインタフェースデバイス606(たとえば、キーボード、タッチスクリーン、キーパッド、ポインティングデバイス)、および通信インタフェース607(たとえば、モデム、ネットワークインタフェース(イーサネットカードなど)、通信ポート、またはPCMCIAスロットおよびカード)を含むことができる。メインメモリ603は、1つまたは複数のプロセッサ601によって実行されると、1つまたは複数のプロセッサ601にプロセス500の1つまたは複数のプロセスブロックを実行させる命令を格納することができる。
通信インタフェース607は、ソフトウェアおよびデータがコンピュータシステムと外部デバイスとの間で転送されることを可能にする。システム600は、前述のデバイス/モジュール601~607が接続される通信インフラストラクチャ608(たとえば、通信バス、クロスオーバーバー、またはネットワーク)をさらに含む。
通信インタフェース607を介して転送される情報は、信号を搬送する通信リンクを介して、通信インタフェース607によって受信することができる電子、電磁、光、または他の信号などの信号の形態であってもよく、ワイヤまたはケーブル、光ファイバ、電話回線、携帯電話リンク、無線周波数(RF)リンク、および/または他の通信チャネルを使用して実装されてもよい。本明細書のブロック図および/またはフローチャートを表すコンピュータプログラム命令は、コンピュータ、プログラマブルデータ処理装置、または処理デバイスにロードされて、そこで実行される一連の動作を引き起こして、コンピュータ実装プロセスを生成することができる。一実施形態では、プロセス500(図8)の1つまたは複数のプロセスブロックの処理命令は、プロセッサ601によって実行されるように、メモリ603、記憶装置604、およびリムーバブル記憶装置605にプログラム命令として格納され得る。
実施形態は、方法、装置(システム)、およびコンピュータプログラム製品のフローチャート図および/またはブロック図を参照して説明される。そのような図示/図の各ブロック、またはそれらの組み合わせは、コンピュータプログラム命令によって実施することができる。コンピュータプログラム命令は、プロセッサに提供されると、プロセッサを介して実行される命令がフローチャートおよび/またはブロック図で指定された機能/動作を実施するための手段を作成するように、機械を生成する。フローチャート/ブロック図内の各ブロックは、ハードウェアおよび/またはソフトウェアモジュールまたは論理を表すことができる。代替実施態様では、ブロックに記載された機能は、図に記載された順序から外れて、同時になどで行われてもよい。
「コンピュータプログラム媒体」、「コンピュータ使用可能媒体」、「コンピュータ可読媒体」、および「コンピュータプログラム製品」という用語は、一般に、メインメモリ、2次メモリ、リムーバブル記憶ドライブ、ハードディスクドライブにインストールされたハードディスク、および信号などの媒体を指すために使用される。これらのコンピュータプログラム製品は、コンピュータシステムにソフトウェアを提供するための手段である。コンピュータ可読媒体は、コンピュータシステムが、コンピュータ可読媒体からデータ、命令、メッセージまたはメッセージパケット、および他のコンピュータ可読情報を読み取ることを可能にする。コンピュータ可読媒体は、たとえば、フロッピー(登録商標)ディスク、ROM、フラッシュメモリ、ディスクドライブメモリ、CD-ROM、および他の永久記憶装置などの不揮発性メモリを含み得る。これは、たとえば、コンピュータシステム間でデータおよびコンピュータ命令などの情報を転送するために有用である。コンピュータプログラム命令は、コンピュータ、他のプログラマブルデータ処理装置、または他のデバイスに特定の方法で機能するように指示することができるコンピュータ可読媒体に記憶されてもよく、その結果、コンピュータ可読媒体に記憶された命令は、フローチャートおよび/またはブロック図の1つまたは複数のブロックで指定された機能/動作を実施する命令を含む製品を製造する。
当業者には理解されるように、実施形態の態様は、システム、方法、またはコンピュータプログラム製品として具現化され得る。したがって、実施形態の態様は、完全にハードウェアの実施形態、完全にソフトウェアの実施形態(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)、または本明細書ではすべて一般に「回路」、「モジュール」、または「システム」と呼ばれ得るソフトウェアおよびハードウェアの態様を組み合わせた実施形態の形態をとることができる。さらに、実施形態の態様は、コンピュータ可読プログラムコードが具現化された1つまたは複数のコンピュータ可読媒体に具現化されたコンピュータプログラム製品の形態をとることができる。
1つまたは複数のコンピュータ可読媒体の任意の組み合わせを利用することができる。コンピュータ可読媒体は、コンピュータ可読記憶媒体であってもよい。コンピュータ可読記憶媒体は、たとえば、電子、磁気、光学、電磁気、赤外線、もしくは半導体のシステム、装置、またはデバイス、あるいはこれらの任意の適切な組み合わせであってもよいが、これらに限定されない。コンピュータ可読記憶媒体のより具体的な例(非網羅的なリスト)は、1つまたは複数のワイヤを有する電気的接続、ポータブルコンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能プログラマブル読み出し専用メモリ(EPROMまたはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み出し専用メモリ(CD-ROM)、光記憶装置、磁気記憶装置、またはこれらの任意の適切な組み合わせを含む。本明細書の文脈では、コンピュータ可読記憶媒体は、命令実行システム、装置、またはデバイスによって、あるいはそれらに関連して使用するためのプログラムを含むか、または記憶することができる任意の有形媒体である。
1つまたは複数の実施形態の態様のための動作を実行するためのコンピュータプログラムコードは、Java(登録商標)、Smalltalk、C++などのオブジェクト指向プログラミング言語、および「C」プログラミング言語または同様のプログラミング言語などの従来の手続き型プログラミング言語を含む、1つまたは複数のプログラミング言語の任意の組み合わせで記述することができる。プログラムコードは、完全にユーザのコンピュータ上で、部分的にユーザのコンピュータ上で、スタンドアロンソフトウェアパッケージとして、部分的にユーザのコンピュータ上で、部分的にリモートコンピュータ上で、または完全にリモートコンピュータもしくはサーバ上で実行することができる。後者のシナリオでは、リモートコンピュータは、ローカルエリアネットワーク(LAN)またはワイドエリアネットワーク(WAN)を含む任意のタイプのネットワークを介してユーザのコンピュータに接続されてもよく、または(たとえば、インターネットサービスプロバイダを使用してインターネットを介して)外部コンピュータに接続されてもよい。
1つまたは複数の実施形態の態様は、方法、装置(システム)、およびコンピュータプログラム製品のフローチャート図および/またはブロック図を参照して上述されている。フローチャート図および/またはブロック図の各ブロック、ならびにフローチャート図および/またはブロック図のブロックの組み合わせは、コンピュータプログラム命令によって実施され得ることが理解されよう。これらのコンピュータプログラム命令は、専用コンピュータ、または他のプログラマブルデータ処理装置に提供されて機械を生成することができ、その結果、コンピュータまたは他のプログラマブルデータ処理装置のプロセッサを介して実行する命令は、フローチャートおよび/またはブロック図の1つまたは複数のブロックで指定された機能/動作を実施するための手段を作成する。
これらのコンピュータプログラム命令はまた、コンピュータ、他のプログラマブルデータ処理装置、または他のデバイスに特定の方法で機能するように指示することができるコンピュータ可読媒体に記憶されてもよく、その結果、コンピュータ可読媒体に記憶された命令は、フローチャートおよび/またはブロック図の1つまたは複数のブロックで指定された機能/動作を実施する命令を含む製品を製造する。
コンピュータプログラム命令はまた、コンピュータ、他のプログラマブル装置、または他のデバイス上で一連の動作ステップを実行させてコンピュータ実装プロセスを生成するために、コンピュータ、他のプログラマブルデータ処理装置、または他のデバイスにロードされてもよく、その結果、コンピュータ、または他のプログラマブル装置上で実行する命令は、フローチャートおよび/またはブロック図の1つまたは複数のブロックで指定された機能/動作を実施するためのプロセスを提供する。
図のフローチャートおよびブロック図は、様々な実施形態によるシステム、方法、およびコンピュータプログラム製品の可能な実装のアーキテクチャ、機能、および動作を示す。これに関して、フローチャートまたはブロック図の各ブロックは、指定されたロジック機能を実施するための1つまたは複数の実行可能命令を含むモジュール、セグメント、または命令の一部を表すことができる。いくつかの代替実施態様では、ブロックに記載された機能は、図に記載された順序とは異なる順序で行われてもよい。たとえば、連続して示される2つのブロックは、実際には、実質的に同時に実行されてもよく、またはブロックは、関連する機能に応じて、時には逆の順序で実行されてもよい。また、ブロック図および/またはフローチャート図の各ブロック、ならびにブロック図および/またはフローチャート図のブロックの組み合わせは、指定された機能または動作を実行するか、専用ハードウェアとコンピュータ命令の組み合わせを実行する、専用ハードウェアベースのシステムによって実装されてもよいことに留意されたい。
単数形の要素への特許請求の範囲における言及は、明示的にそのように述べられていない限り、「唯一の」を意味することを意図せず、むしろ「1つまたは複数」を意味する。現在知られている、または後に当業者に知られるようになる上記の例示的な実施形態の要素とのすべての構造的および機能的同等物は、本特許請求の範囲に含まれることが意図されている。本明細書の特許請求の範囲の要素は、要素が「のための手段(means for)」または「のためのステップ(step for)」という語句を使用して明示的に列挙されていない限り、米国特許法第112条第6パラグラフの規定の下で解釈されるべきではない。
本明細書で使用される用語は、特定の実施形態を説明することのみを目的としており、本発明を限定することを意図するものではない。本明細書で使用される場合、単数形「a」、「an」、および「the」は、文脈が明らかにそうでないことを示さない限り、複数形も含むことが意図される。「備える」および/または「含む」という用語は、本明細書で使用される場合、記載された特徴、整数、ステップ、動作、要素、および/または構成要素の存在を特定するが、1つまたは複数の他の特徴、整数、ステップ、動作、要素、構成要素、および/またはそれらのグループの存在または追加を排除するものではないことがさらに理解されよう。
以下の特許請求の範囲におけるすべてのミーンズプラスファンクションまたはステッププラスファンクションの要素の対応する構造、材料、動作、および均等物は、具体的に特許請求されている他の特許請求されている要素と組み合わせて機能を実行するための任意の構造、材料、または動作を含むことが意図されている。実施形態の説明は、例示および説明の目的で提示されているが、網羅的であること、または開示された形態の実施形態に限定されることを意図するものではない。本発明の範囲および精神から逸脱することなく、多くの修正および変形が当業者には明らかであろう。
実施形態は、その特定のバージョンを参照して説明されているが、しかしながら、他のバージョンも可能である。したがって、添付の特許請求の範囲の精神および範囲は、本明細書に含まれる好ましいバージョンの説明に限定されるべきではない。

Claims (20)

  1. 高度な機能を備えたマイクロフォンデバイスであって、
    1つまたは複数の出力チャンネルを提供する1つまたは複数のマイクロフォンユニットと、
    前記マイクロフォンデバイスの環境の1つまたは複数のリアルタイムの状態を示すコンテキスト情報を捕捉するように構成された1つまたは複数のセンサユニットと、
    自動制御システムであって、前記1つまたは複数の出力チャネル用のデジタル信号処理(DSP)を自動的に設定するよう構成された前記自動制御システムと、
    カプセル混合システムとを備え、前記カプセル混合システムは、前記DSPから得られた処理されたデジタル信号を結合し、前記1つまたは複数の出力チャネルに対して前記1つまたは複数の極性パターンを生成するように構成され、
    前記自動制御システムはさらに、
    前記コンテキスト情報に基づいて前記マイクロフォンデバイスの固定された位置からのリアルタイムの変更を検出し、前記固定された位置は、前記環境に最初に配備されたときのマイクロフォンデバイスの初期位置であり、
    前記検出されたリアルタイムの変更を示す情報を含むグラフィカルユーザインタフェース(GUI)の表示を呼び出し、
    前記検出されたリアルタイムの変更に応答して、前記カプセル混合システムが、前記マイクロフォンデバイスの前記1つまたは複数の極性パターンを調整するように構成される、
    マイクロフォンデバイス。
  2. 前記調整は、人工知能(AI)エンジンを利用して前記マイクロフォンデバイスの前記1つまたは複数のDSPの設定および前記1つまたは複数の極性パターンを動的に調整することを含み、前記AIエンジンは、異なる環境の条件に適した異なる設定と異なる極性パターンを示す訓練データに基づいて訓練される、請求項1に記載のマイクロフォンデバイス。
  3. 前記調整は、
    前記AIエンジンが1つまたは複数の推奨を決定することと、
    前記GUIを介して、前記1つまたは複数の推奨を表示することと、
    前記GUIとの1つまたは複数のユーザ相互作用を含むユーザ入力を受信することと、
    前記ユーザ入力に基づいて前記1つまたは複数の極性パターンを調整することと、を含む、請求項2に記載のマイクロフォンデバイス。
  4. 前記自動制御システムはさらに、前記環境の1つまたは複数のリアルタイム状態に関するアラートを前記マイクロフォンデバイスのオペレータに送信するようにさらに構成される、請求項1に記載のマイクロフォンデバイス。
  5. 前記1つまたは複数の設定は、各出力チャネルについて、作成する極性パターンを表す設定、適用するデジタルゲインの量を表す設定、適用するハイパスフィルタを表す設定、適用するローパスフィルタを表す設定、または極性反転を適用するかどうかを表す設定のうちの少なくとも1つを含む、請求項4に記載のマイクロフォンデバイス。
  6. 前記1つまたは複数のセンサユニットは、近距離無線通信(NFC)センサ、全地球航法衛星システム(GNSS)/全地球測位システム(GPS)、またはモーションセンサのうちの少なくとも1つを備える、請求項1に記載のマイクロフォンデバイス。
  7. 前記環境の前記1つまたは複数のリアルタイムの状態は、前記マイクロフォンデバイスのリアルタイムの緯度および経度座標、前記マイクロフォンデバイスのリアルタイムの高度、コンパスに対する前記マイクロフォンデバイスのリアルタイムの方向、または3つの座標軸X、YおよびZ上の前記マイクロフォンデバイスのリアルタイムの位置のうちの少なくとも1つを含む、請求項1に記載のマイクロフォンデバイス。
  8. 前記検出されたリアルタイムの変更は、前記マイクロフォンデバイスの位置、方向、向きが変化したことを示す、請求項1に記載のマイクロフォンデバイス。
  9. 前記GUIは、前記マイクロフォンデバイスの表示画面、近距離無線通信(NFC)対応デバイス、ウェブブラウザ、または前記マイクロフォンデバイスに接続されたマスタ処理システムのうちの1つに表示される、請求項1に記載のマイクロフォンデバイス。
  10. 前記自動制御システムは、
    前記1つまたは複数のセンサユニットが近距離無線通信(NFC)対応デバイスからユーザの識別子を読み取ることに応答して、前記ユーザに対応するDSP構成を自動的に設定するようにさらに構成され、前記DSPは、前記DSP構成に従って自動的に設定される、請求項4に記載のマイクロフォンデバイス。
  11. 前記自動制御システムは、
    前記1つまたは複数のセンサユニットが近距離無線通信(NFC)対応デバイスからユーザの識別子を読み取ることに応答して、1つまたは複数のラベルを有する前記1つまたは複数の出力チャネルを自動的に設定するようにさらに構成され、前記1つまたは複数のラベルは前記識別子に基づく、請求項4に記載のマイクロフォンデバイス。
  12. 高度な機能を備えたマイクロフォンデバイスを提供するための方法であって、
    1つまたは複数の出力チャンネルを提供する前記マイクロフォンデバイスの1つまたは複数のセンサユニットを介して、前記マイクロフォンデバイスの環境の1つまたは複数のリアルタイムの状態を示すコンテキスト情報を捕捉することと、
    前記1つまたは複数の出力チャンネル用のデジタル信号処理(DSP)を自動的に設定することと、
    前記DSPから得られた処理されたデジタル信号を結合し、前記1つまたは複数の出力チャネルに対して前記1つまたは複数の極性パターンを作成することと、
    前記コンテキスト情報に基づいて前記マイクロフォンデバイスの固定された位置からの前記環境に対する1つまたは複数のリアルタイムの変更を検出することとを含み、前記固定された位置は、前記環境に最初に配備されたときのマイクロフォンデバイスの初期位置であり、さらに、
    前記検出されたリアルタイムの変更を示す情報を含むグラフィカルユーザインタフェース(GUI)の表示を呼び出すことと、
    前記検出されたリアルタイムの変更に応答して、前記マイクロフォンデバイスの前記1つまたは複数の極性パターンを調整することとを含む、
    方法。
  13. 前記調整することは、人工知能(AI)エンジンを利用して前記マイクロフォンデバイスの前記1つまたは複数のDSP設定および前記1つまたは複数の極性パターンを動的に調整することを含み、前記AIエンジンは、異なる環境の条件に適した異なる設定と異なる極性パターンを示す訓練データに基づいて訓練される、請求項12に記載の方法。
  14. 前記調整することは、
    前記AIエンジンが1つまたは複数の推奨を決定することと、
    前記GUIを介して、前記1つまたは複数の推奨を表示することと、
    前記GUIとの1つまたは複数のユーザ相互作用を含むユーザ入力を受信することと、
    前記ユーザ入力に基づいて前記1つまたは複数の極性パターンを調整することとを含む、請求項13に記載の方法。
  15. 前記方法はさらに、前記環境の1つまたは複数のリアルタイム状態に関するアラートを前記マイクロフォンデバイスのオペレータに送信するようにさらに構成される、請求項12に記載の方法。
  16. 前記1つまたは複数の設定は、各出力チャネルについて、作成する極性パターンを表す設定、適用するデジタルゲインの量を表す設定、適用するハイパスフィルタを表す設定、適用するローパスフィルタを表す設定、または極性反転を適用するかどうかを表す設定のうちの少なくとも1つを含む、請求項15に記載の方法。
  17. 前記1つまたは複数のセンサユニットは、近距離無線通信(NFC)センサ、全地球航法衛星システム(GNSS)/全地球測位システム(GPS)、またはモーションセンサのうちの少なくとも1つを備える、請求項12に記載の方法。
  18. 前記環境の前記1つまたは複数のリアルタイムの状態は、前記マイクロフォンデバイスのリアルタイムの緯度および経度座標、前記マイクロフォンデバイスのリアルタイムの高度、コンパスに対する前記マイクロフォンデバイスのリアルタイムの方向、または3つの座標軸X、YおよびZ上の前記マイクロフォンデバイスのリアルタイムの位置のうちの少なくとも1つを含む、請求項12に記載の方法。
  19. 前記検出されたリアルタイムの変更は、前記マイクロフォンデバイスの位置、方向、向きが変化したことを示す、請求項12に記載の方法。
  20. 前記1つまたは複数のセンサユニットが近距離無線通信(NFC)対応デバイスからユーザの識別子を読み取ることに応答して、
    前記ユーザに対応するDSP構成を自動的に設定することであって、前記DSPは、前記DSP構成に従って自動的に設定される、ことと、
    前記識別子に基づき、1つまたは複数のラベルを備えた前記1つまたは複数の出力チャネルを自動的に設定することをさらに含む、
    請求項15に記載の方法。
JP2021181133A 2020-11-05 2021-11-05 高度な機能を備えたマイクロフォン Active JP7491886B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202063110255P 2020-11-05 2020-11-05
US63/110,255 2020-11-05

Publications (2)

Publication Number Publication Date
JP2022075641A JP2022075641A (ja) 2022-05-18
JP7491886B2 true JP7491886B2 (ja) 2024-05-28

Family

ID=78516669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021181133A Active JP7491886B2 (ja) 2020-11-05 2021-11-05 高度な機能を備えたマイクロフォン

Country Status (9)

Country Link
US (1) US11974102B2 (ja)
EP (1) EP3996386A1 (ja)
JP (1) JP7491886B2 (ja)
CN (1) CN114449409A (ja)
BR (1) BR102021022228A2 (ja)
CA (1) CA3138084A1 (ja)
GB (1) GB2600831B (ja)
MX (1) MX2021013547A (ja)
TW (1) TW202224449A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW202224449A (zh) 2020-11-05 2022-06-16 美商鐵三角美國股份有限公司 具有先進功能性之麥克風

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011165056A (ja) 2010-02-12 2011-08-25 Nec Casio Mobile Communications Ltd 情報処理装置及びプログラム

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7561700B1 (en) * 2000-05-11 2009-07-14 Plantronics, Inc. Auto-adjust noise canceling microphone with position sensor
US20080146289A1 (en) * 2006-12-14 2008-06-19 Motorola, Inc. Automatic audio transducer adjustments based upon orientation of a mobile communication device
US9493130B2 (en) * 2011-04-22 2016-11-15 Angel A. Penilla Methods and systems for communicating content to connected vehicle users based detected tone/mood in voice input
US9258644B2 (en) * 2012-07-27 2016-02-09 Nokia Technologies Oy Method and apparatus for microphone beamforming
US9525938B2 (en) * 2013-02-06 2016-12-20 Apple Inc. User voice location estimation for adjusting portable device beamforming settings
US9462379B2 (en) * 2013-03-12 2016-10-04 Google Technology Holdings LLC Method and apparatus for detecting and controlling the orientation of a virtual microphone
CN107210824A (zh) * 2015-01-30 2017-09-26 美商楼氏电子有限公司 麦克风的环境切换
EP3082350B1 (en) * 2015-04-15 2019-02-13 Kelly Fitz User adjustment interface using remote computing resource
US9609419B2 (en) * 2015-06-24 2017-03-28 Intel Corporation Contextual information while using headphones
US20170055093A1 (en) * 2015-08-19 2017-02-23 Invensense, Inc. Dynamically programmable microphone
WO2017053829A1 (en) * 2015-09-25 2017-03-30 Diebold Incorporated Automated banking machine
US20170195795A1 (en) * 2015-12-30 2017-07-06 Cyber Group USA Inc. Intelligent 3d earphone
US11445305B2 (en) * 2016-02-04 2022-09-13 Magic Leap, Inc. Technique for directing audio in augmented reality system
US10104472B2 (en) * 2016-03-21 2018-10-16 Fortemedia, Inc. Acoustic capture devices and methods thereof
US10122956B2 (en) * 2016-09-16 2018-11-06 Gopro, Inc. Beam forming for microphones on separate faces of a camera
US10698983B2 (en) * 2016-10-31 2020-06-30 Bragi GmbH Wireless earpiece with a medical engine
US20180336892A1 (en) * 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US11019005B2 (en) * 2017-06-30 2021-05-25 Koninklijke Philips N.V. Proximity triggered sampling
GB201801532D0 (en) * 2017-07-07 2018-03-14 Cirrus Logic Int Semiconductor Ltd Methods, apparatus and systems for audio playback
US11816886B1 (en) * 2018-06-28 2023-11-14 Meta Platforms Technologies, Llc Apparatus, system, and method for machine perception
US11150866B2 (en) * 2018-11-13 2021-10-19 Synervoz Communications Inc. Systems and methods for contextual audio detection and communication mode transactions
US10979838B2 (en) * 2019-07-26 2021-04-13 Facebook Technologies, Llc Power reduction via smart microphone selection using environmental intelligence
US10665204B1 (en) * 2019-10-08 2020-05-26 Capital One Services, Llc Automatically adjusting screen brightness based on screen content
US20210195354A1 (en) * 2019-12-23 2021-06-24 Lenovo (Singapore) Pte. Ltd. Microphone setting adjustment
TW202224449A (zh) 2020-11-05 2022-06-16 美商鐵三角美國股份有限公司 具有先進功能性之麥克風

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011165056A (ja) 2010-02-12 2011-08-25 Nec Casio Mobile Communications Ltd 情報処理装置及びプログラム

Also Published As

Publication number Publication date
CA3138084A1 (en) 2022-05-05
TW202224449A (zh) 2022-06-16
GB202115810D0 (en) 2021-12-15
GB2600831A (en) 2022-05-11
EP3996386A1 (en) 2022-05-11
MX2021013547A (es) 2022-05-06
US20220141579A1 (en) 2022-05-05
JP2022075641A (ja) 2022-05-18
US11974102B2 (en) 2024-04-30
GB2600831B (en) 2023-02-22
BR102021022228A2 (pt) 2022-05-17
CN114449409A (zh) 2022-05-06

Similar Documents

Publication Publication Date Title
US10200788B2 (en) Spatial audio apparatus
US10674262B2 (en) Merging audio signals with spatial metadata
US11127415B2 (en) Processing audio with an audio processing operation
US20180203663A1 (en) Distributed Audio Capture and Mixing Control
US10834517B2 (en) Audio recording and playback apparatus
US20180160225A1 (en) Audio Apparatus
WO2018234626A1 (en) DISTANCE ESTIMATION UNTIL SOURCE SOUND
JP7491886B2 (ja) 高度な機能を備えたマイクロフォン
CN110915220A (zh) 具有流式传输能力的音频输入和输出装置
US10708679B2 (en) Distributed audio capture and mixing
US10291998B2 (en) Discovery, announcement and assignment of position tracks

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230228

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240516