JP2023532078A - ヘッドセットノイズ処理方法、装置及びヘッドセット - Google Patents

ヘッドセットノイズ処理方法、装置及びヘッドセット Download PDF

Info

Publication number
JP2023532078A
JP2023532078A JP2022580546A JP2022580546A JP2023532078A JP 2023532078 A JP2023532078 A JP 2023532078A JP 2022580546 A JP2022580546 A JP 2022580546A JP 2022580546 A JP2022580546 A JP 2022580546A JP 2023532078 A JP2023532078 A JP 2023532078A
Authority
JP
Japan
Prior art keywords
signal
target
processing
headset
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022580546A
Other languages
English (en)
Inventor
チェン、ウェイビン
リ、ユロン
ファン、ファン
カオ、ティアンシアン
グイ、ツェンシア
チェン、ツィペン
キウ、クンショウ
シオン、ウェイ
Original Assignee
ホアウェイ・テクノロジーズ・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ホアウェイ・テクノロジーズ・カンパニー・リミテッド filed Critical ホアウェイ・テクノロジーズ・カンパニー・リミテッド
Publication of JP2023532078A publication Critical patent/JP2023532078A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1083Reduction of ambient noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1783Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase handling or detecting of non-standard events or conditions, e.g. changing operating modes under specific operating conditions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1783Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase handling or detecting of non-standard events or conditions, e.g. changing operating modes under specific operating conditions
    • G10K11/17837Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase handling or detecting of non-standard events or conditions, e.g. changing operating modes under specific operating conditions by retaining part of the ambient acoustic environment, e.g. speech or alarm signals that the user needs to hear
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1785Methods, e.g. algorithms; Devices
    • G10K11/17853Methods, e.g. algorithms; Devices of the filter
    • G10K11/17854Methods, e.g. algorithms; Devices of the filter the filter being an adaptive filter
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1787General system configurations
    • G10K11/17879General system configurations using both a reference signal and an error signal
    • G10K11/17881General system configurations using both a reference signal and an error signal the reference signal being an acoustic signal, e.g. recorded with a microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1041Mechanical or electronic switches, or control elements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/10Applications
    • G10K2210/108Communication systems, e.g. where useful sound is kept and noise is cancelled
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/10Applications
    • G10K2210/108Communication systems, e.g. where useful sound is kept and noise is cancelled
    • G10K2210/1081Earphones, e.g. for telephones, ear protectors or headsets
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/30Means
    • G10K2210/301Computational
    • G10K2210/3023Estimation of noise, e.g. on error signals
    • G10K2210/30231Sources, e.g. identifying noisy processes or components
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/30Means
    • G10K2210/301Computational
    • G10K2210/3024Expert systems, e.g. artificial intelligence
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/30Means
    • G10K2210/301Computational
    • G10K2210/3035Models, e.g. of the acoustic system
    • G10K2210/30351Identification of the environment for applying appropriate model characteristics
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/30Means
    • G10K2210/301Computational
    • G10K2210/3039Nonlinear, e.g. clipping, numerical truncation, thresholding or variable input and output gain
    • G10K2210/30391Resetting of the filter parameters or changing the algorithm according to prevailing conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/01Hearing devices using active noise cancellation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/50Customised settings for obtaining desired overall acoustical characteristics
    • H04R25/505Customised settings for obtaining desired overall acoustical characteristics using digital signal processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/70Adaptation of deaf aid to hearing loss, e.g. initial electronic fitting

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)
  • Details Of Audible-Bandwidth Transducers (AREA)
  • Telephone Function (AREA)

Abstract

本願の実施形態は、ヘッドセットノイズ処理方法、装置及びヘッドセットを提供して、ユーザ要求に基づいて所望の効果を実装する。ヘッドセットは、ANC機能、HT機能、又はAH機能のうちの少なくとも2つの機能を有する。ヘッドセットは第1マイクロホン及び第2マイクロホンを含む。第1マイクロホンは第1信号を収集するように構成される。第1信号は現在の外部環境における音を示す。第2マイクロホンは第2信号を収集するように構成される。第2信号は、ヘッドセットを装着しているユーザの外耳道における環境音を示す。ヘッドセットは左イヤホン又は右イヤホンであり得る。左イヤホン及び右イヤホンの処理モード又は処理強度は同一であり得る、又は、異なり得る。ヘッドセットは、現在の外部環境の場面タイプに基づいて決定され得る目標モードを取得し、目標モード、第1信号、及び第2信号に基づいて第2オーディオ信号を取得する。目標モードは、外部環境の場面タイプに基づいて決定され、その結果、聴覚感知効果は、ユーザに対してリアルタイムに最適化され得る。

Description

[関連出願の相互参照]
本願は、「ヘッドセットノイズ処理方法、装置及びヘッドセット」と題する、2020年6月30日に中国国家知識産権局に出願された中国特許出願第202010623983.X号に対する優先権を主張し、その全体は参照によって本明細書に組み込まれる。
本願の実施形態は、オーディオ処理技術の分野、特に、ヘッドセットノイズ処理方法、装置及びヘッドセットに関する。
近年、ヘッドセットユーザが増えており、ヘッドセット機能に対するユーザの要求がますます多岐にわたっている。例えば、ユーザがヘッドセットを装着しているときに外部ノイズを聞きたくない場合、ユーザはアクティブノイズコントロール(active noise control, ANC)機能を使用して耳からノイズをブロックできる。一部のユーザは、ヘッドセットの外側の音を聞くことを望んでいる。あるユーザは、あたかもユーザがヘッドセットを装着していないかのように音を聞くために、環境音ヒアスルー(hear through, HT)機能を使用する必要がある。一部のユーザは難聴を有し得る。聴覚増強(augment hearing, AH)機能は、所望の外部信号をユーザに送り、所望でない信号をフィルタリング除去するために使用され得る。
しかしながら、現在、ヘッドセットはユーザ要求に基づく所望の効果を実装できない。
本願の実施形態は、ヘッドセットノイズ処理方法、装置及びヘッドセットを提供して、ユーザ要求に基づいて所望の効果を実装する。
第1態様によれば、本願の実施形態はヘッドセットノイズ処理方法を提供する。ヘッドセットは、アクティブノイズコントロールANC機能、環境音ヒアスルーHT機能、又は聴覚増強AH機能のうちの少なくとも2つの機能を有する。ヘッドセットは第1マイクロホン及び第2マイクロホンを含む。第1マイクロホンは第1信号を収集するように構成される。第1信号は現在の外部環境における音を示す。第2マイクロホンは第2信号を収集するように構成される。第2信号は、ヘッドセットを装着しているユーザの外耳道における環境音を示す。ヘッドセットは左イヤホン又は右イヤホンであり得る。左イヤホン及び右イヤホンは同一の処理モード又は異なる処理モードを使用し得る。ヘッドセットは第1オーディオ信号を端末デバイスから受信し、目標モードを取得し(目標モードは現在の外部環境の場面タイプに基づいて決定され、目標モードは、目標処理機能を実行するようヘッドセットに指示し、目標処理機能は、アクティブノイズコントロールANC機能、環境音ヒアスルーHT機能又は聴覚増強AH機能の1つである)、目標モード、第1オーディオ信号、第1信号及び第2信号に基づいて第2オーディオ信号を取得する。
前述の方法によれば、目標モードは、外部環境の場面タイプに基づいて決定され、その結果、聴覚感知効果は、ユーザに対してリアルタイムで最適化され得る。
可能な設計において、ヘッドセットは更にスピーカを含む。スピーカは第2オーディオ信号を再生するように構成される。
可能な設計において、目標処理機能がANC機能であるとき、スピーカによって再生される第2オーディオ信号は、現在のユーザ環境における音及びユーザの外耳道における環境音のユーザ感知を弱めることができ、目標処理機能がHT機能であるとき、スピーカによって再生される第2オーディオ信号は、現在のユーザ環境における音のユーザ感知を強化でき、又は、目標処理機能がAH機能であるとき、スピーカによって再生される第2オーディオ信号は、イベント音のユーザ感知を強化でき、イベント音は予め設定されたスペクトルを満たす。
左イヤホンがANCモードを使用するとき、左イヤホンのスピーカによって再生されるオーディオ信号は、現在のユーザ環境における音(すなわち、現在の外部環境における音)及びユーザの左の外耳道における環境音のユーザの左耳感知を弱めることができることが理解されるべきである。右イヤホンがANCモードを使用するとき、右イヤホンのスピーカによって再生されるオーディオ信号は、現在のユーザ環境における音(すなわち、現在の外部環境における音)及びユーザの右の外耳道における環境音のユーザ右耳感知を弱めることができる。同様に、HT及びAHモードについて、左耳感知は、左イヤホンの処理モードに依存し、右耳感知は、右イヤホンの処理モードに依存する。
可能な設計において、目標処理機能がANC機能であるとき、第2オーディオ信号は、第1オーディオ信号、第3信号及び第4信号に基づいて取得され、第3信号は第1信号の逆位相信号であり、第4信号は、第2信号の逆位相信号であり、目標処理機能がHT機能であるとき、第2オーディオ信号は、第1オーディオ信号、第1信号及び第2信号に基づいて取得され、又は、目標処理機能がAH機能であるとき、第2オーディオ信号は、第1オーディオ信号、第5信号、及び第4信号に基づいて取得され、第5信号は第1信号におけるイベント信号であり、イベント信号は現在の外部環境における特定の音を示し、イベント信号は予め設定されたスペクトルを満たす。
前述の設計は、単純かつ効果的である、異なる処理モードにおける、スピーカによって出力される信号を取得する方式を提供する。
可能な設計において、目標モードを取得することは、第1制御命令を端末デバイスから受信することを含み、第1制御命令は目標モードを保持し、目標モードは、現在の外部環境の場面タイプに基づいて端末デバイスによって決定される。
前述の設計において、目標モードは、外部環境の場面タイプに基づいて端末デバイスによって決定され、ヘッドセットを示し、その結果、聴覚感知効果がユーザに対してリアルタイムで最適化されることができる。
可能な設計において、第2制御命令が端末デバイスから受信され、第2制御命令は目標処理強度を保持し、目標処理強度は、ヘッドセットが目標処理機能を実行するときに使用される処理強度を示す。目標モード、第1オーディオ信号、第1信号及び第2信号に基づいて第2オーディオ信号を取得することは、目標モード、目標処理強度、第1オーディオ信号、第1信号及び第2信号に基づいて第2オーディオ信号を取得することを含む。
前述の設計によれば、端末デバイスは対応する処理モードにおけるヘッドセットの処理強度を示す。ユーザの聴覚感知を更に改善するために、処理強度は、処理モードに基づいて調整される。
可能な設計において、現在の外部環境におけるイベント音に対応する目標イベントは、第1信号に基づいて決定され、目標モードにおける目標処理強度は、目標イベントに基づいて決定され、ここで、目標処理強度は、ヘッドセットが目標処理機能を実行するときに使用される処理強度を示す。目標モード、第1オーディオ信号、第1信号及び第2信号に基づいて第2オーディオ信号を取得することは、目標モード、目標処理強度、第1オーディオ信号、第1信号及び第2信号に基づいて第2オーディオ信号を取得することを含む。異なる処理強度は異なるイベントに対応する。処理強度は、イベントに1対1で対応し、又は、1つの処理強度は、複数のイベントに対応する。例えば、2つのイベントについて同一の処理強度が使用され得、同一のイベントについて異なる処理強度を使用できない。
前述の設計によれば、ヘッドセットは、外部環境におけるイベント音に基づいて処理強度を決定して、異なる外部環境における異なる聴覚感知を実装する。これによりバックグラウンドノイズを低減し、ノイズコントロール強度を強化できる。
可能な設計において、ヘッドセットは更に骨伝導センサを含む。骨伝導センサは、ユーザの声帯の振動によって生成される骨伝導信号を収集するように構成される。第1信号に基づいて、ユーザが現在位置する第1場面を識別することは、第1信号及び骨伝導信号に基づいて、ユーザが現在位置する第1場面を識別することを含む。
可能な設計において、目標イベントはハウリングイベント、ウインドノイズイベント、緊急イベント、又は人声イベントである。
可能な設計において、目標モードを取得することは、第1信号に基づいて、現在の外部環境の場面タイプを目標場面タイプ(簡潔に目標場面又は目標タイプとして呼ばれる)を識別すること、及び、目標場面に基づいてヘッドセットの目標モードを決定することを含み、目標モードは目標場面に対応する処理モードである。異なる処理モードは異なる場面タイプに対応する。処理モードは場面タイプに1対1で対応し得、又は、1つの処理モードは、複数の場面タイプに対応し得る。例えば、同一の処理モードは、2つの場面タイプについて使用され得る。
前述の設計において、ヘッドセットは、識別された場面タイプに基づいてヘッドセットの処理モードを決定し、その結果、遅延が短縮され、聴覚感知がユーザに対してリアルタイムで最適化される。
可能な設計において、目標場面は、歩く場面、走る場面、静かな場面、複数人が話す場面、カフェの場面、地下鉄の場面、電車の場面、待合室の場面、対話の場面、オフィスの場面、屋外の場面、運転の場面、強風の場面、飛行機の場面、アラーム音の場面、警笛音の場面、及び泣き声の場面のうちの1つである。
可能な設計において、方法は更に、指示情報を端末デバイスへ送信する段階であって、指示情報は目標モードを保持する、段階と、第3制御信号を端末デバイスから受信する段階であって、第3制御信号は、目標モードにおける目標処理強度を含み、目標処理強度は、ヘッドセットが目標処理機能を実行するときに使用される処理強度を示す、段階とを備える。目標モード、第1オーディオ信号、第1信号及び第2信号に基づいて第2オーディオ信号を取得することは、目標モード、目標処理強度、第1オーディオ信号、第1信号及び第2信号に基づいて第2オーディオ信号を取得することを含む。
前述の設計において、ヘッドセットは処理モードを決定し、処理モードを端末デバイスに示し、その結果、端末デバイスは処理強度を調整する。これにより、ヘッドセットによって占有される処理リソースを低減する。
可能な設計において、目標処理機能がANC機能であるとき、より大きい目標処理強度は、現在のユーザ環境における音及びユーザの外耳道における環境音のより弱いユーザ感知を示し、目標処理機能がHT機能であるとき、より大きい目標処理強度は、現在のユーザ環境における音のより強いユーザ感知を示し、又は、目標処理機能がAH機能であるとき、より大きい目標処理強度は、現在のユーザ環境における音に含まれるイベント音のより強いユーザ感知を示す。
可能な設計において、目標モードは、ANC機能を実行するようにヘッドセットに指示する。目標モード、第1オーディオ信号、第1信号及び第2信号に基づいて第2オーディオ信号を取得することは、第1信号に対して第1フィルタリング処理(例えば、フィードフォワードFFフィルタリング)を実行して第1フィルタリング信号を取得すること、第2信号に含まれる第1オーディオ信号をフィルタリング除去して第1フィルタリング済み信号を取得すること、第1フィルタリング信号及びフィルタリング済み信号に対してオーディオミキシング処理を実行して、第3オーディオ信号を取得すること、第3オーディオ信号に対して第3フィルタリング処理(例えば、フィードバックFBフィルタリング)を実行して第4オーディオ信号を取得すること、第4オーディオ信号及び第1オーディオ信号に対してオーディオミキシング処理を実行して第2オーディオ信号を取得することを含む。
前述の設計において、ANC処理は、FFフィルタリング及びFBシリアル処理の方式で実行され、より良くノイズ除去された信号を取得し、ノイズコントロール効果を強化する。
可能な設計において、第1フィルタリング処理に使用されるフィルタリング係数は、ANC機能の場合において第1フィルタリング処理についての目標処理強度に関連付けられたフィルタリング係数であり、又は、第3フィルタリング処理に使用されるフィルタリング係数は、ANC機能の場合において第3フィルタリング処理についての目標処理強度に関連付けられたフィルタリング係数である。
前述の設計において、固定フィルタリング係数の代わりに、異なる処理強度の場合において、異なるフィルタリング係数が使用される。これにより、より良いANC効果を実装し、ユーザの聴覚感知を改善する。
可能な設計において、目標モードは、HT機能を実行するようにヘッドセットに指示する。目標モード、第1オーディオ信号、第1信号及び第2信号に基づいて第2オーディオ信号を取得することは、第1信号に対して第1信号処理を実行して第1処理済み信号を取得することであって、第1信号処理は第2フィルタリング処理(例えばHTフィルタリング)を含む、こと、第1処理済み信号及び第1オーディオ信号に対してオーディオミキシング処理を実行して第5オーディオ信号を取得すること、第2信号に含まれる第5オーディオ信号をフィルタリング除去して、第2フィルタリング済み信号を取得すること、第2フィルタリング済み信号に対して第3フィルタリング処理(例えばFBフィルタリング)を実行して第3フィルタリング済み信号を取得すること、第3フィルタリング済み信号及び第5オーディオ信号に対してオーディオミキシング処理を実行して第2オーディオ信号を取得することを含む。
第2信号に含まれる第5オーディオ信号がフィルタリング除去される前に、フィルタリング補償処理も第5オーディオ信号に対して実行され得、聴覚感知損失を低減する。前述の設計において、HTフィルタリング中に、ダウンリンクオーディオミキシング処理及びフィルタリング補償処理が実行され、聴覚感知損失を更に低減する。
可能な設計において、第1環境信号に対して第1信号処理を実行して、処理済み環境信号を取得することは、第1信号に対して第2フィルタリング処理を実行して第2フィルタリング信号を取得すること、及び、第2フィルタリング信号に対して第2信号処理を実行して第2処理済み信号を取得することを含む。
第2信号処理は、ブロッキング効果解消処理を含む。
前述の設計によれば、ブロッキング効果解消処理は、HTフィルタリングを通じて取得された信号に対して実行され、その結果、ユーザはより明確に環境音を聞くことができる。
可能な設計において、第2信号処理は、バックグラウンドノイズコントロール処理、ウインドノイズコントロール処理、利得調整処理、又は周波数応答調整処理のうちの少なくとも1つを更に含む。
前述の第2信号処理は、バックグラウンドノイズ及び異音を低減し、ユーザの聴覚感知を改善する。
可能な設計において、第2フィルタリング処理に使用されるフィルタリング係数は、HT機能の場合において第2フィルタリング処理についての目標処理強度に関連付けられたフィルタリング係数であり、又は、第3フィルタリング処理に使用されるフィルタリング係数は、HT機能の場合において第3フィルタリング処理についての目標処理強度に関連付けられたフィルタリング係数である。
可能な設計において、目標モードは、AH機能を実行するようにヘッドセットに指示する。目標モード、第1オーディオ信号、第1信号及び第2信号に基づいて第2オーディオ信号を取得することは、第1信号に対して第2フィルタリング処理(例えばHTフィルタリング)を実行して第2フィルタリング信号を取得し、第2フィルタリング信号に対して強化処理を実行し、フィルタリング強化信号を取得すること、第1信号に対して第1フィルタリング処理(例えばFFフィルタリング)を実行して第1フィルタリング信号を取得すること、フィルタリング強化信号及び第1オーディオ信号に対してオーディオミキシング処理を実行して第6オーディオ信号を取得すること、第2信号に含まれる第6オーディオ信号をフィルタリング除去して第4フィルタリング済み信号を取得すること、第4フィルタリング済み信号に対して第3フィルタリング処理(例えば、FBフィルタリング)を実行して第5フィルタリング済み信号を取得すること、ならびに、第5フィルタリング済み信号、第6オーディオ信号及び第1フィルタリング信号に対してオーディオミキシング処理を実行して第2オーディオ信号を取得することを含む。
前述の設計において、アクティブノイズコントロール及び環境音ヒアスルーが並行して実装される。ヒアスルーフィルタリング処理及び強化処理は、ヒアスルー信号をより明確にする。
任意選択で、第2信号に含まれる第6オーディオ信号をフィルタリング除去して第4フィルタリング済み信号を取得する前に、フィルタリング補償処理が第6オーディオ信号に対して実行され、その結果、FBフィルタリングによって引き起こされる損失を回避でき、ヒアスルー信号が歪められないことを最大限に確実にする。
可能な設計において、第2フィルタリング信号に対して強化処理を実行してフィルタリング強化信号を取得することは、第2フィルタリング信号に対してブロッキング効果解消処理を実行し、ブロッキング効果解消処理を通じて取得された信号に対してノイズコントロール処理を実行することであって、ノイズコントロール処理は、人口知能AIノイズコントロール処理及び/又はウインドノイズコントロール処理を含む、こと、及び、ノイズコントロール処理を通じて取得された信号に対して利得増幅処理及び周波数応答調整を実行してフィルタリング強化信号を取得することを含む。
前述の設計において、ヒアスルー信号に対して強化処理が実行される。これにより、外部の必要な音のユーザ感知が改善する。
可能な設計において、ヘッドセットは骨伝導センサを含む。骨伝導センサは、ヘッドセットユーザの骨伝導信号を収集するように構成される。ノイズコントロール処理を通じて取得される信号に対して利得増幅処理を実行することは、骨伝導信号に対して高調波拡張を実行して高調波拡張信号を取得すること、第1利得係数に基づいて、ノイズコントロール処理を通じて取得された信号に対して増幅処理を実行すること、第4フィルタリング係数に基づいて、増幅処理を通じて取得された信号に含まれる高調波拡張信号をフィルタリング除去することを含む。第4フィルタリング係数は第1利得係数に基づいて決定される。
前述の設計において、ヒアスルー環境音における特定の音の効果を改善するために、装着者の声以外の特定の音だけを増幅する増幅方式が提供される。
可能な設計において、第1利得係数は、目標モードにおける目標処理強度に関連付けられた利得係数である。
可能な設計において、第2フィルタリング信号に対して強化処理を実行してフィルタリング強化信号を取得することは、第2フィルタリング信号に対してブロッキング効果解消処理を実行してブロッキング解消済み信号を取得すること、ブロッキング解消済み信号に対してオーディオイベント検出を実行してブロッキング解消済み信号におけるオーディオイベント信号を取得すること、及び、ブロッキング解消済み信号におけるオーディオイベント信号に対して利得増幅処理及び周波数応答調整を実行してフィルタリング強化信号を取得することを含む。
可能な設計において、ヘッドセットは更に骨伝導センサを含む。骨伝導センサは、ヘッドセットユーザの骨伝導信号を収集するように構成される。ブロッキング解消済み信号におけるオーディオイベント信号に対して利得増幅処理を実行することは、骨伝導信号に対して高調波拡張を実行して高調波拡張信号を取得すること、第2利得係数に基づいて、ブロッキング解消済み信号におけるオーディオイベント信号に対して増幅を実行して増幅信号を取得すること、及び、第2フィルタリング係数に基づいて、増幅信号に含まれる高調波拡張信号をフィルタリング除去することを含む。第2フィルタリング係数は第2利得係数に基づいて決定される。
可能な設計において、第2利得係数は、第1ノイズ処理が実行されるときに第1フィルタリング処理についての目標処理強度に関連付けられる利得係数であるか、又は、第2利得係数は、第1ノイズ処理が実行されるときに第1フィルタリング処理についての第1場面識別子に関連付けられる利得係数である。
可能な設計において、第1フィルタリング処理について使用されるフィルタリング係数は、AH機能の場合における第1フィルタリング処理についての目標処理強度に関連付けられるフィルタリング係数であり、第2フィルタリング処理について使用されるフィルタリング係数は、AH機能の場合における第2フィルタリング処理についての目標処理強度に関連付けられるフィルタリング係数であり、又は、第3フィルタリング処理について使用されるフィルタリング係数は、AH機能の場合における第3フィルタリング処理についての目標処理強度に関連付けられるフィルタリング係数である。
可能な設計において、ヘッドセットは更に骨伝導センサを含む。骨伝導センサは、ヘッドセットユーザの骨伝導信号を収集するように構成される。第2フィルタリング信号に対してブロッキング効果解消処理を実行することは、音声高調波セットから、骨伝導信号に一致する第1音声高調波信号を決定することであって、音声高調波セットは複数の音声高調波信号を含む、こと、及び、第2フィルタリング信号から第1音声高調波信号を除去し、第1音声高調波信号が除去された第2フィルタリング信号における高周波数成分を増幅すること、又は、第2フィルタリング信号に対して適応フィルタリング処理を実行して第2フィルタリング信号における低周波成分を除去して第3フィルタリング信号を取得し、低周波成分が除去された第3フィルタリング信号における高周波数成分を増幅することを含む。
第2態様によれば、本願の実施形態はモード制御方法を提供する。方法は端末デバイスに適用される。方法は、現在の外部環境の場面タイプが目標場面として識別されるとき、目標場面に基づいて目標モードを決定する段階であって、目標モードはヘッドセットによってサポートされる処理モードの1つであり、ヘッドセットによってサポートされる処理モードは、アクティブノイズコントロールANCモード、環境音ヒアスルーHTモード、又は聴覚増強AHモードのうちの少なくとも2つを含む、段階と、目標モードをヘッドセットへ送信する段階であって、目標モードは、目標モードに対応する処理機能を実装するようヘッドセットに指示する、段階とを備える。異なる処理モードは異なる場面タイプに対応する。処理モードは場面タイプに1対1で対応し得、又は、1つの処理モードは、複数の場面タイプに対応し得る。例えば、同一の処理モードは、2つの場面タイプについて使用され得る。
前述の設計において、端末デバイスは、場面識別に基づいて、ヘッドセットの処理モードをリアルタイムに制御し、その結果、聴覚感知がユーザに対してリアルタイムに最適化される。
可能な設計において、ヘッドセットの処理モードにおける目標場面に対応する目標モードが決定されるとき、方法は更に、結果プロンプト情報を表示する段階であって、結果プロンプト情報は、目標モードに対応する処理機能をヘッドセットが実装することをユーザにプロンプトするために使用される、段階を備える。前述の設計において、ユーザはヘッドセットの現在の処理モードをリアルタイムに決定できる。
可能な設計において、第1制御信号がヘッドセットへ送信される前に、方法は更に、選択プロンプト情報を表示する段階であって、選択プロンプト情報は、ヘッドセットの処理モードを目標モードに調整するかどうかをユーザにプロンプトするために使用される、段階と、ユーザがヘッドセットの処理モードを目標モードに調整することを選択する操作を検出する段階とを備える。
前述の設計において、ユーザは要件に基づいて、ヘッドセットの処理モードを調整するかどうかを決定し得る。これによりユーザ体験が改善する。
可能な設計において、第1コントロール及び第2コントロールが表示される。第1コントロール上の第2コントロール異なる位置は、目標モードにおける異なる処理強度を示す。第1制御信号がヘッドセットへ送信される前に、方法は更に、第2コントロールをタッチアンドホールドして、第1コントロール上の第1位置に動かすユーザ操作に応答する段階であって、第1コントロール上の第2コントロールの第1位置は、目標モードにおける目標処理強度を示す、段階と、目標処理強度をヘッドセットへ送信する段階であって、目標処理強度は、ヘッドセットが目標モードに対応する処理機能を実装するときに使用される処理強度を示す、段階とを備える。前述の設計において、ユーザは、要件に基づいてヘッドセットの処理強度を選択して、ユーザの異なる要件を満たし得る。
可能な設計において、第1コントロールはリング形状である。ユーザが第2コントロールをタッチアンドホールドして、時計回り方向で第1コントロール上で動かすとき、目標モードにおける処理強度が増加する。又は、ユーザが第2コントロールをタッチアンドホールドして、反時計周り方向で第1コントロール上で動かすとき、目標モードにおける処理強度が増加する。
可能な設計において、第1コントロールはバー形状である。ユーザが第2コントロールをタッチアンドホールドして、第1コントロール上で上から下に移動するとき、目標モードにおける処理強度は増加する。ユーザが第2コントロールをタッチアンドホールドして、第1コントロール上で下から上に動かすとき、目標モードにおける処理強度が増加する。ユーザが第2コントロールをタッチアンドホールドして、第1コントロール上で左から右に動かすとき、目標モードにおける処理強度が増加する。又は、ユーザが第2コントロールをタッチアンドホールドして、第1コントロール上で右から左に動かすとき、目標モードにおける処理強度が増加する。
可能な設計において、目標処理機能がANC機能であるとき、より大きい目標処理強度は、現在のユーザ環境における音及びユーザの外耳道における環境音のより弱いユーザ感知を示し、目標処理機能がHT機能であるとき、より大きい目標処理強度は、現在のユーザ環境における音のより強いユーザ感知を示し、又は、目標処理機能がAH機能であるとき、より大きい目標処理強度は、現在のユーザ環境における音に含まれるイベント音のより強いユーザ感知を示す。
左イヤホン及び右イヤホンは同一の処理モード及び同一の処理強度を使用し得、したがって、ユーザの左耳感知及びユーザ右耳感知は同一であり得ることに留意されたい。左イヤホン及び右イヤホンは代替的に、異なる処理モード又は異なる処理強度を使用し得、したがって、ユーザの左耳感知及びユーザ右耳感知は異なる。
第3態様によれば、本願の実施形態はモード制御方法を提供する。方法は端末デバイスに適用される。方法は、目標モードを取得する段階であって、目標モードは、ヘッドセットによってサポートされる処理モードの1つであり、ヘッドセットによってサポートされる処理モードは、アクティブノイズコントロールANCモード、環境音ヒアスルーHTモード、又は聴覚増強AHモードのうちの少なくとも2つを含む、段階と、現在の外部環境の場面タイプに基づいて目標モードにおける目標処理強度を決定する段階であって、異なる場面タイプは、目標モードにおける異なる処理強度に対応する、段階と、目標処理強度をヘッドセットへ送信する段階であって、目標処理強度は、ヘッドセットが目標モードに対応する処理機能を実装するときに使用される処理強度を示す、段階とを備える。
可能な設計において、目標モードを取得する段階は、ヘッドセットによって送信された目標モードを受信する段階、又は、選択コントロールを表示する段階であって、選択コントロールは、ヘッドセットによってサポートされる処理モードを含む、段階と、選択コントロールを使用することによってヘッドセットの処理モードから目標モードを選択するユーザ操作を検出する段階とを備える。選択コントロールは、ヘッドセットによってサポートされる処理モードを含む。それは、選択コントロールがヘッドセットによってサポートされる処理モードのオプションを提供し、又は、選択コントロールがヘッドセットによってサポートされる処理モードを表示し、ユーザがヘッドセットによってサポートされる処理モードから選択し得ることを意味する。
可能な設計において、現在の外部環境の場面タイプに基づいて目標モードにおける目標処理強度を決定する前に、方法は更に、ヘッドセットによって送信された目標モードが受信される場合、選択プロンプト情報を表示する段階であって、選択プロンプト情報は、ヘッドセットの処理モードを目標モードに調整するかどうかをユーザにプロンプトするために使用される、段階と、ユーザがヘッドセットの処理モードを目標モードに調整することを選択する操作を検出する段階とを備える。
可能な設計において、目標処理機能がANC機能であるとき、より大きい目標処理強度は、現在のユーザ環境における音及びユーザの外耳道における環境音のより弱いユーザ感知を示し、目標処理機能がHT機能であるとき、より大きい目標処理強度は、現在のユーザ環境における音のより強いユーザ感知を示し、又は、目標処理機能がAH機能であるとき、より大きい目標処理強度は、現在のユーザ環境における音に含まれるイベント音のより強いユーザ感知を示す。
第4態様によれば、本願の実施形態はモード制御方法を提供する。方法は端末デバイスに適用される。方法は、第1インタフェースを表示する段階であって、第1インタフェースは第1選択コントロールを含み、第1選択コントロールは、第1目標イヤホンによってサポートされる処理モード、及び、第1目標イヤホンによってサポートされる処理モードに対応する処理強度を含み、第1目標イヤホンの処理モードは、アクティブノイズコントロールANCモード、環境音ヒアスルーHTモード、又は聴覚増強AHモードのうちの少なくとも2つを含む、段階と、第1インタフェース上でユーザによって実行される第1操作に応答する段階であって、第1操作は、ユーザが第1選択コントロールを使用することによって、第1目標イヤホンによってサポートされる処理モードから第1目標モードを選択し、第1目標モードにおける処理強度を第1目標処理強度として選択するときに生成される、段階と、第1目標モード及び第1目標処理強度を第1目標イヤホンへ送信する段階であって、第1目標モードは、第1目標モードに対応する処理機能を実装するよう第1目標イヤホンに指示し、第1目標処理強度は、第1目標イヤホンが第1目標モードに対応する処理機能を実装するときに使用される処理強度を示す、段階とを備える。
第1選択コントロールは、第1目標イヤホンによってサポートされる処理モード、及び、第1目標イヤホンによってサポートされる処理モードに対応する処理強度を含む。それは、第1選択コントロールが、複数の処理モード(すべて第1目標イヤホンによってサポートされる)のオプション、及び、各処理モードにおける処理強度の調整項目をユーザに提供することを意味する。
前述の設計において、ユーザは、UIを使用することによって、ユーザが望むヘッドセット効果に対応する処理モード及び強度を自由に切り替えて、ユーザの異なる要件を満たし得る。
可能な設計において、第1インタフェースを表示する前に、方法は更に、選択プロンプト情報を表示する段階であって、選択プロンプト情報は、第1目標イヤホンの処理モードを調整するかどうかをユーザにプロンプトするために使用される、段階と、ユーザが第1目標イヤホンの処理モードを調整することを選択する操作を検出する段階とを備える。
前述の設計において、ユーザは、要件に基づいて、現在の処理モードを調整するかどうかを決定し得る。
可能な設計において、第1インタフェースを表示する前に、方法は更に、現在の外部環境の場面タイプを目標場面として識別する段階であって、目標場面は、第1目標イヤホンの処理モードが調整される必要がある場面タイプに適合される、段階を備える。
前述の設計において、第1インタフェースは、特定の場面において能動的にポップアップされる。これによりユーザの手動操作プロセスを低減する。
可能な設計において、第1インタフェースを表示する前に、方法は更に、端末デバイスが第1目標イヤホンをトリガしてオーディオを再生することを識別する段階を備える。端末デバイスが第1目標イヤホンをトリガしてオーディオを再生することを識別することは、端末デバイスがオーディオ信号を第1目標イヤホンへ送信することを開始すると識別することとして説明され得る。
前述の設計において、第1インタフェースは能動的にポップアップされる。これによりユーザの手動操作プロセスを低減する。
可能な設計において、第1インタフェースを表示する前に、方法は更に、端末デバイスが第1目標イヤホンとの接続を確立することを検出する段階を備える。
前述の設計において、第1インタフェースは能動的にポップアップされる。これによりユーザの手動操作プロセスを低減する。
可能な設計において、第1インタフェースを表示する前に、方法は更に、端末デバイスが第1目標イヤホンとの接続を確立すると検出された場合に、ホーム画面上でユーザによって実行される第2操作を検出する段階を備える。ホーム画面は第1アプリケーションのアイコンを含む。第2操作は、ユーザが第1アプリケーションのアイコンをタッチするときに生成される。第1インタフェースは第1アプリケーションの表示インタフェースである。
可能な設計において、第1選択コントロールは第1コントロール及び第2コントロールを含む。第1コントロール上の第2コントロールの任意の2つの異なる位置は、第1目標イヤホンの2つの異なる処理モードを示し、又は、第1コントロール上の第2コントロールの任意の2つの異なる位置は、第1目標イヤホンの同一の処理モードにおける異なる処理強度を示す。第1操作は、ユーザが第1目標モードに対応する領域において第1コントロール上で第2コントロールの第1位置を動かすときに生成される。第1位置は、第1目標モードにおける第1目標処理強度に対応する。
可能な設計において、第1コントロールはリング形状又はバー形状である。
例えば、第1コントロールはリング形状である。リングは少なくとも2つの円弧セグメントを含む。異なる円弧セグメントに位置する第2コントロールは、第1目標イヤホンの異なる処理モードを示す。同一の円弧セグメント上の第2コントロールの異なる位置は、第1目標イヤホンの同一の処理モードにおける異なる処理強度を示す。
別の例では、第1コントロールはバー形状である。バーは少なくとも2つのバーセグメントを含む。異なるバーセグメントに位置する第2コントロールは、第1目標イヤホンの異なる処理モードを示す。同一のバーセグメント上の第2コントロールの異なる位置は、第1目標イヤホンの同一の処理モードにおける異なる処理強度を示す。
可能な設計において、方法は更に、第1インタフェース上でユーザによって実行される第3操作に応答する段階であって、第1インタフェースは更に第2選択コントロールを含み、第2選択コントロールは、第2目標イヤホンによってサポートされる処理モード、及び、第2目標イヤホンによってサポートされる処理モードに対応する処理強度を含み、第2目標イヤホンによってサポートされる処理モードは、アクティブノイズコントロールANCモード、環境音ヒアスルーHTモード、又は聴覚増強AHモードのうちの少なくとも2つを含み、第3操作は、ユーザが第2選択コントロールを使用することによって第2目標イヤホンの処理モードから第2目標モードを選択し、第2目標モードにおける処理強度を第2目標処理強度として選択するときに生成され、第1目標イヤホンが左イヤホンであるとき、第2目標イヤホンは右イヤホンであり、又は、第1目標イヤホンが右イヤホンであるとき、第2目標イヤホンは左イヤホンである、段階と、第2目標モード及び第2目標処理強度を第2目標イヤホンへ送信する段階であって、第2目標モードは、第2目標モードに対応する処理機能を実装するよう第2目標イヤホンに指示し、第2目標処理強度は、第2目標イヤホンが第2目標モードに対応する処理機能を実装するときに使用される処理強度を示す、段階とを備える。
前述の設計において、ユーザは、左イヤホン及び右イヤホンの処理モード及び処理強度を別個に操作し、左耳及び右耳の聴覚感知についてのユーザの異なる要件を満たし得る。
第5態様によれば、本願の実施形態は更に、ノイズ処理装置を提供する。装置はヘッドセットに適用される。ヘッドセットは、アクティブノイズコントロールANC機能、環境音ヒアスルーHT機能、又は聴覚増強AH機能のうちの少なくとも2つの機能を有する。ヘッドセットは第1マイクロホン及び第2マイクロホンを含む。第1マイクロホンは第1信号を収集するように構成される。第1信号は現在の外部環境における音を示す。第2マイクロホンは第2信号を収集するように構成される。第2信号は、ヘッドセットを装着しているユーザの外耳道における環境音を示す。
ノイズ処理装置は、第1態様における前述の方法における段階を実装するようにそれぞれ構成される、対応する機能モジュールを含む。詳細については、方法例の詳細な説明を参照されたい。ここでは、詳細について改めて説明しない。当該機能は、ハードウェアにより実装されてもよいし、対応するソフトウェアをハードウェアにより実行することによって実装されてもよい。ハードウェア又はソフトウェアは、前述の機能に対応する1又は複数のモジュールを含む。例えば、ノイズ処理装置は、端末デバイスから第1オーディオ信号を受信するように構成される通信モジュールと、目標モードを取得するように構成される取得モジュールであって、目標モードは現在の外部環境の場面タイプに基づいて決定され、目標モードは、目標処理機能を実行するようヘッドセットに指示し、目標処理機能は、アクティブノイズコントロールANC機能、環境音ヒアスルーHT機能又は聴覚増強AH機能のうちの1つである、取得モジュールと、目標モード、第1オーディオ信号、第1信号及び第2信号に基づいて第2オーディオ信号を取得するように構成される第1処理モジュールとを備える。
第6態様によれば、本願の実施形態は、左イヤホン及び右イヤホンを含む目標ヘッドセットを提供する。左イヤホンは、第1態様又は第1態様の設計のいずれか1つによる方法を実装するように構成され、又は、右イヤホンは、第1態様又は第1態様の設計のいずれか1つによる方法を実装するように構成される。
可能な設計において、左イヤホン及び右イヤホンは異なる処理モードを使用する。
第7態様によれば、本願の実施形態は目標ヘッドセットを提供する。目標ヘッドセットは左イヤホン及び右イヤホンを含む。左イヤホン又は右イヤホンは、第1マイクロホン、第2マイクロホン、プロセッサ、メモリ及びスピーカを含む。第1マイクロホンは第1信号を収集するように構成される。第1信号は現在の外部環境における音を示す。第2マイクロホンは第2信号を収集するように構成される。第2信号は、ヘッドセットを装着しているユーザの外耳道における環境音を示す。メモリは、プログラム又は命令を記憶するように構成されている。プロセッサは、プログラム又は命令を呼び出し、電子デバイスが第1態様のいずれかの設計による方法を実行して第2オーディオ信号を取得することを可能にするように構成される。スピーカは第2オーディオ信号を再生するように構成される。
第8態様によれば、本願の実施形態はモード制御装置を提供する。装置は端末デバイスに適用される。装置は、第2態様から第4態様における前述の方法における段階を実装するようにそれぞれ構成される対応する機能モジュールを含む。詳細については、方法例の詳細な説明を参照されたい。ここでは、詳細について改めて説明しない。当該機能は、ハードウェアにより実装されてもよいし、対応するソフトウェアをハードウェアにより実行することによって実装されてもよい。ハードウェア又はソフトウェアは、前述の機能に対応する1又は複数のモジュールを含む。
第9態様によれば、本願の実施形態は、メモリ、プロセッサ及びディスプレイを備える端末デバイスを提供する。ディスプレイは、インタフェースを表示するように構成される。メモリは、プログラム又は命令を記憶するように構成される。プロセッサは、プログラム又は命令を呼び出し、端末デバイスが、第2態様から第4態様における方法における段階を実行することを可能にするように構成される。
第10態様によれば、本願はコンピュータ可読記憶媒体を提供する。コンピュータ可読記憶媒体はコンピュータプログラム又は命令を記憶する。コンピュータプログラム又は命令がヘッドセットによって実行されるとき、ヘッドセットは、第1態様又は第1態様の可能な設計のいずれか1つにおける方法を実行することが可能となる。
第11態様によれば、本願はコンピュータ可読記憶媒体を提供する。コンピュータ可読記憶媒体はコンピュータプログラム又は命令を記憶する。コンピュータプログラム又は命令が端末デバイスによって実行されるとき、ヘッドセットは、第2態様から第4態様のいずれか1つの可能な設計における方法を実行することが可能となる。
第12態様によれば、本願はコンピュータプログラム製品を提供する。コンピュータプログラム製品は、コンピュータプログラム又は命令を含む。コンピュータプログラム又は命令がヘッドセットによって実行されるとき、第1態様又は第1態様の可能な実装のいずれか1つにおける方法が実装される。
第13態様によれば、本願はコンピュータプログラム製品を提供する。コンピュータプログラム製品は、コンピュータプログラム又は命令を含む。コンピュータプログラム又は命令がヘッドセットによって実行されるとき、第2態様から第4態様の任意の可能な実装における方法が実装される。
第5態様から第13態様のいずれか1つにおいて達成できる技術的効果については、第1態様から第4態様における有益な効果の説明を参照されたい。ここでは、詳細について改めて説明しない。
本願の実施形態による端末デバイス100のハードウェア構造の概略図である。
本願の実施形態による端末デバイス100のソフトウェア構造の概略図である。
本願の実施形態によるヘッドセット200の構造の概略図である。
本願の実施形態によるAHA経路の概略図である。
本願の実施形態によるANC処理のフローチャートである。
本願の実施形態によるANC処理の概略フローチャートである。
本願の実施形態によるHT処理のフローチャートである。
本願の実施形態によるHT処理の概略フローチャートである。
本願の実施形態による別のHT処理の概略フローチャートである。
本願の実施形態によるブロッキング効果解消処理の概略フローチャートである。
本願の実施形態によるAH処理のフローチャートである。
本願の実施形態によるAH処理の概略フローチャートである。
本願の実施形態による別のAH処理の概略フローチャートである。
本願の実施形態によるノイズコントロール処理の概略フローチャートである。
本願の実施形態による利得増幅処理の概略フローチャートである。
本願の実施形態による別の利得増幅処理の概略フローチャートである。
本願の実施形態による端末デバイスのホーム画面の概略図である。
本願の実施形態によるヘッドセットアプリケーションの制御インタフェースの概略図である。
本願の実施形態による、ANCモードにおいて端末デバイスがヘッドセットを制御する概略的制御図である。
本願の実施形態による、HTモードにおいて、端末デバイスがヘッドセットを制御する概略的制御図である。
本願の実施形態による、AHモードにおいて、端末デバイスがヘッドセットを制御する概略的制御図である。
本願の実施形態による、選択コントロールの概略図である。
本願の実施形態による、別の選択コントロールの概略図である。
本願の実施形態による、ヘッドセット制御インタフェースをトリガする概略図である。
本願の実施形態による、なお別の選択コントロールの概略図である。
本願の実施形態による、スマート場面検出機能の制御を可能にすることの概略図である。
本願の実施形態による、スマート場面検出機能の制御を可能にすることの別の概略図である。
本願の実施形態による、ヘッドセット制御インタフェースの概略図である。
本願の実施形態による、イベント検出の概略図である。
本願の実施形態による、処理モード及び処理強度の観点における端末デバイスとヘッドセットとの間のインタラクションの概略図である。
本願の実施形態による、場面検出結果を表示することの概略図である。
本願の実施形態による、別の場面検出結果を表示することの概略図である。
本願の実施形態による場面検出の概略図である。
本願の実施形態によるノイズ処理装置1900の構造の概略図である。
本願の実施形態によるモード制御装置2000の構造の概略図である。
本願の実施形態によるモード制御装置2100の構造の概略図である。
本願の実施形態によるモード制御装置2200の構造の概略図である。
本願の実施形態による端末デバイス2300の構造の概略図である。
以下では、添付図面を参照して、本願の実施形態を詳細に説明する。本願の実施形態において使用される用語は、本願の特定の実施形態を説明するためだけに使用され、本願を限定する意図はない。説明される実施形態は、本願の実施形態の全部ではなく一部に過ぎないことは明確である。本願の実施形態に基づいて創造的努力を行うことなく当業者により取得される他の実施形態は全て、本願の保護範囲に含まれるものとする。
以下ではまず、本願の実施形態におけるいくつかの用語を説明及び記載し、当業者による理解を促進する。
(1)本願の実施形態におけるアプリケーション(application, app)は、1又は複数の特定の機能を実装できるソフトウェアプログラムである。一般的に、複数のアプリケーション、例えば、カメラアプリケーション、メールボックスアプリケーション、及びヘッドセット制御アプリケーションが端末デバイスにインストールされ得る。以下の説明で言及されるアプリケーションは、納品前に端末デバイスにインストールされたシステムアプリケーションであり得るか、又は、インターネットからダウンロードされた、若しくは、端末デバイスを使用するときにユーザによって別の端末デバイスから取得されたサードパーティアプリケーションであり得る。
(2)barkサブバンド
人間の聴覚システムは、マスキング効果を有する。換言すれば、強い音は、近いエリアにおいて同時に生じる弱い音の人間による感知のアライメントを妨げ、蝸牛の基底膜は、外部から入ってくる音信号に対する周波数選択及びチューニング機能を有する。したがって、感知の観点から音周波数を測定するために、臨界周波数帯の概念が導入される。一般的に、22Hz~22kHzの聴覚閾値において24の臨界周波数帯があり、基底膜の異なる位置において振動を引き起こすと考えられている。各臨界周波数帯はbarkサブバンドと呼ばれる。
(3)ボイスアクティビティ検出(voice activity detection, VAD)VADが、ノイズを有する音声の開始点及び終了点を正確に特定するために使用される。音声は長い静寂を含むので、静寂は実際の音声から分離される。これはボイスデータの最初の処理である。
(4)本願の実施形態において、「少なくとも1つの(品目)」とは、1つの(品目)又は複数の(品目)を意味し、「複数の(品目)」とは、2つの(品目)又はそれ以上の(品目)を意味する。「及び/又は」という用語は、関連付けられている対象を説明するための対応関係を説明し、3つの関係が存在し得ることを表す。例えば、A及び/又はBは、以下の3つの場合、すなわち、Aのみが存在する、A及びBの両方が存在する、及び、Bのみが存在するという場合を表し得る。A及びBは各々、単数又は複数であり得る。「/」という文字は一般的に、関連付けられたオブジェクトの間の「又は」の関係を表す。「以下の品目(個)のうちの少なくとも1つ」又はその同様の表現は、単一の品目(個)又は複数の品目(個)の任意の組み合わせを含む、これらの品目の任意の組み合わせを示す。例えば、a、b、又はcのうちの少なくとも1つの品目(個)は、a、b、c、a-b、a-c、b-c、又はa-b-cを表すことができる。ここで、a、b、及びcは単数又は複数であり得る。本願において、記号(a,b)は、aより大きくbより小さい範囲の開区間を表し、[a,b]は、a以上b以下の範囲の閉区間を表し、(a,b]は、aより大きくb以下の範囲の半開半閉区間を表し、(a,b]は、aより大きくb以下の範囲の半開半閉区間を表す。加えて、別段の記載が無い限り、本願の実施形態において、「第1」及び「第2」などの序数は、複数のオブジェクトを区別することを意図しているが、複数のオブジェクトのサイズ、内容、順序、時系列、優先度、重要度又は同様のものを限定する意図は無い。例えば、第1マイクロホン及び第2マイクロホンは単に、異なるマイクロホンを区別するために使用されるが、2つのマイクロホンの異なるサイズ、優先度、重要度の程度、又は同様のものを示さない。
本願の実施形態はシステムを提供する。システムは端末デバイス100及びヘッドセット200を含む。端末デバイス100はヘッドセット200に接続される。接続は無線接続又は有線接続であり得る。無線接続の場合、例えば端末デバイスは、Bluetooth(登録商標)技術、ワイヤレスフィデリティ(wireless fidelity, Wi-Fi(登録商標))技術、赤外線IR技術、又は超広帯域技術を使用することによってヘッドセットに接続され得る。
本願の本実施形態において、端末デバイス100は、表示インタフェース機能を有するデバイスである。端末デバイス100は例えば、携帯電話、ディスプレイ、タブレットコンピュータ、又は車載デバイスなどの表示インタフェースを有する製品、及び、スマートウォッチ又はスマートバンドなどのインテリジェントディスプレイを有するウェアラブル製品であり得る。モバイル端末の具体的な形態は、本願の本実施形態において特に限定されない。
ヘッドセット200は、耳に搭載される2つの音生成ユニットを含む。左耳に適合されるデバイスは、左イヤホンと呼ばれ得、右耳に適合されるデバイスは、右イヤホンと呼ばれ得る。装着の観点から、本願の本実施形態におけるヘッドセット200は、頭部搭載ヘッドセット、耳搭載ヘッドセット、首搭載ヘッドセット、耳栓ヘッドセット又は同様のものであり得る。耳栓ヘッドセットは更に、インイヤーヘッドセット(又は外耳道ヘッドセットと呼ばれる)又は半インイヤーヘッドセットを含む。ヘッドセット200は、ANC機能、HT機能、及びAH機能のうち少なくとも2つを有する。説明を容易にするために、本願の本実施形態において、ANC、HT及びAHは、AHAとまとめて呼ばれ、当然、他の名称を有し得る。これについては、本願において限定しない。
インイヤーヘッドセットが例として使用される。左イヤホン及び右イヤホンは同様の構造を有する。左イヤホン及び右イヤホンの両方は、下で説明されるヘッドセット構造を使用し得る。ヘッドセット構造(左イヤホン又は右イヤホン)は、外耳道に挿入され得るゴムスリーブ、耳に近いイヤーバッグ、イヤーバッグ上に掛けられるヘッドセットポールを含む。ゴムスリーブは、音を外耳道に誘導する。イヤーバッグは、バッテリ、スピーカ及びセンサなどのコンポーネントを含む。マイクロホン及び物理的ボタンが、ヘッドセットポール上に配置され得る。ヘッドセットポールは円筒、立方体、楕円又は同様のものであり得る。耳の中に配置されるマイクロホンは、誤差マイクロホンと呼ばれ得る。ヘッドセットの外側に配置されるマイクロホンは、参照マイクロホンと呼ばれる。誤差マイクロホンは、外部環境における音を収集するように構成される。参照マイクロホンは、ユーザがヘッドセットを装着しているときに、ヘッドセットを装着しているユーザの外耳道における環境音を収集する。2つのマイクロホンは、アナログマイクロホン又はデジタルマイクロホンであり得る。ユーザがヘッドセットを装着した後に、2つのマイクロホン及びスピーカが以下の位置に配置される。誤差マイクロホンは耳の中、および、ヘッドセットのゴムスリーブの近くに配置される。スピーカは、誤差マイクロホンと参照マイクロホンとの間に位置する。参照マイクロホンは、耳の外部構造の近くであり、ヘッドセットポールの上部に配置され得る。誤差マイクロホンのパイプラインは、スピーカに面し得るか、又は、外耳道の内側に面し得る。ヘッドセットの穴が参照マイクロホンの近くに設けられ、外部環境における音が参照マイクロホンに入ることを可能にするように構成される。
本願の本実施形態において、端末デバイス100は、ダウンリンクオーディオ信号及び/又は制御信号をヘッドセット200へ送信するように構成される。例えば、制御信号は、ヘッドセット200の処理モードを制御するために使用される。ヘッドセット200の処理モードは、実行されている処理が無いことを示すヌルモード、ANC機能が実装されていることを示すANCモード、HT機能が実装されていることを示すHTモード、又は、AH機能が実装されていることを示すAHモードのうちの少なくとも2つを含み得る。
ヘッドセットがANCモードを使用するとき、現在の外部環境における音、及び、ヘッドセットを装着しているユーザの外耳道における環境音のユーザ感知を弱めることができる。ヘッドセットがHTモードを使用するとき、現在の外部環境における音のユーザ感知を強化できる。ヘッドセットがAHモードを使用するとき、現在の外部環境における音に含まれるイベント音のユーザ感知を強化できる。イベント音は、外部環境における予め設定された音であるか、又は、イベント音は予め設定されたスペクトルを満たす。例えば、イベント音が鉄道駅における駅放送音又は警笛音を含む場合、イベント音は、鉄道駅における駅放送音のスペクトル又は警笛音のスペクトルを満たす。別の例では、イベント音は、飛行機ターミナルビルにおける通知音、飛行機上の放送音、及び、別の例として、ホテルにおけるコール音を含み得る。
ヘッドセット200は左イヤホン及び右イヤホンを含むと理解されるべきである。左イヤホン及び右イヤホンは同一の処理モード又は異なる処理モードを使用し得る。左イヤホン及び右イヤホンが同一の処理モードを使用するとき、ユーザの聴覚感知は、左イヤホンを装着する左耳及び右イヤホンを装着する右耳で同一であり得る。左イヤホン及び右イヤホンが異なる処理モードを使用するとき、ユーザの聴覚感知は、左イヤホンを装着する左耳及び右イヤホンを装着する右耳で異なる。例えば、左イヤホンはANCを使用し、右イヤホンはAHを使用する。左イヤホンがANCモードを使用するとき、現在の外部環境における音、及び、ヘッドセットを装着しているユーザの左耳の外耳道における環境音のユーザ左耳感知を弱めることができる。右イヤホンがAHモードを使用するとき、現在の外部環境における音に含まれるイベント音のユーザ右耳感知を強化できる。
ヘッドセットの処理モードは、以下の可能な方式のいずれか1つにおいて決定され得る。
第1の可能な方式において、端末デバイス100は制御インタフェースを提供し、その結果、ユーザは要件に基づいてヘッドセット200の処理モードを選択する。例えば、端末デバイス100は、制御信号をヘッドセット200へ送信するようにユーザ操作によって命令される。制御信号はヘッドセット200の処理モードを示す。
ヘッドセット200における左イヤホン及び右イヤホンは同一の処理モード又は異なる処理モードを使用し得ることに留意されたい。例えば、制御インタフェースにおける選択コントロールが、左イヤホン及び右イヤホンについて同一の処理モードを選択するために使用される。別の例では、制御インタフェースは2つの選択コントロールを含み得、一方の選択コントロールは、左イヤホンについての処理モードを選択するのに使用され、他方の選択コントロールは、右イヤホンについての処理モードを選択するのに使用される。制御インタフェース及び選択コントロールは、以下の説明において詳細に説明される。ここでは、詳細について改めて説明しない。
第2の可能な方式において、端末デバイスは、ユーザの現在の外部環境の場面タイプを識別する。異なる場面において、ヘッドセット200は異なる処理モードを使用する。換言すれば、ヘッドセットによって実装される処理機能は異なる。
第3の可能な方式において、ヘッドセット200はユーザ操作を識別し、ユーザによって選択されたヘッドセット200がANCモード、HTモード又はAHモードを使用すると決定する。例えば、ユーザ操作は、ヘッドセットをタップするユーザ操作であり得る。代替的に、ボタンがヘッドセット上に配置され、異なるボタンは異なる処理モードを示す。
第4の可能な方式において、ヘッドセットは、ヘッドセットの外部環境の場面タイプを識別し、ヘッドセットは異なる場面において異なる処理モードを使用する。
第1の可能な方式から第4の可能な方式は後に詳細に説明される。ここでは、詳細について改めて説明しない。
図1は、端末デバイス100の任意選択のハードウェア構造の概略図である。
端末デバイス100は、プロセッサ110、外部メモリインタフェース120、内部メモリ121、ユニバーサルシリアルバス(universal serial bus, USB)ポート130、充電管理モジュール140、電源管理モジュール141、バッテリ142、アンテナ1、アンテナ2、モバイル通信モジュール150、無線通信モジュール160、オーディオモジュール170、スピーカ170A、レシーバ170B、マイクロホン170C、ヘッドセットジャック170D、センサモジュール180、ボタン190、モータ191、インジケータ192、カメラ193、ディスプレイ194、加入者識別モジュール(subscriber identity module, SIM)カードインタフェース195及び同様のものを含み得る。センサモジュール180は、圧力センサ180A、ジャイロセンサ180B、気圧センサ180C、磁気センサ180D、加速度センサ180E、距離センサ180F、光学近接センサ180G、指紋センサ180H、温度センサ180J、タッチセンサ180K、環境光センサ180L、骨伝導センサ180M等を含み得る。
本願の本実施形態に示される構造は、端末デバイス100に対する具体的な限定を構成するものではないことが理解され得る。本願のいくつかの他の実施形態において、端末デバイス100は、図に示されるものより多い、又は少ない部分を含み得、又は、いくつかの部分を組み合わせ得、又は、いくつかの部分を分割し得、又は、異なるコンポーネント配置を有し得る。図に示されるコンポーネントは、ハードウェア、ソフトウェア、又は、ソフトウェア及びハードウェアの組み合わせによって実装され得る。
プロセッサ110は1又は複数の処理ユニットを含み得る。例えば、プロセッサ110は、アプリケーションプロセッサ(application processor、AP)、モデムプロセッサ、グラフィックス処理ユニット(graphics processing unit、GPU)、画像信号プロセッサ(image signal processor、ISP)、コントローラ、ビデオコーデック、デジタル信号プロセッサ(digital signal processor、DSP)、ベースバンドプロセッサ、及び/又はニューラルネットワーク処理ユニット(neural-network processing unit、NPU)を含んでよい。異なる処理ユニットは、独立したコンポーネントであり得る、又は、1又は複数のプロセッサに統合され得る。
コントローラは、命令動作コード及び時系列信号に基づき動作制御信号を生成して、命令の読み取り及び命令の実行の制御を完了することができる。
メモリは更に、プロセッサ110に配置され得、命令及びデータを格納するよう構成される。いくつかの実施形態において、プロセッサ110内のメモリは、キャッシュメモリである。メモリは、プロセッサ110が用いたか繰り返し用いている命令又はデータを格納し得る。プロセッサ110が命令又はデータを再度使用する必要がある場合、プロセッサは命令又はデータをメモリから直接的に呼び出すことができる。これにより反復アクセスを回避し、プロセッサ110の待機時間を低減し、システム効率を改善する。
いくつかの実施形態において、プロセッサ110は1又は複数のインタフェースを含み得る。このインタフェースは、集積回路間(inter-integrated circuit、I2C)インタフェース、集積回路間サウンド(inter-integrated circuit sound、I2S)インタフェース、パルス符号変調(pulse code modulation、PCM)インタフェース、汎用非同期式受信機/送信器(universal asynchronous receiver/transmitter、UART)インタフェース、モバイルインダストリプロセッサインタフェース(mobile industry processor interface、MIPI)、汎用入力/出力(general-purpose input/output、GPIO)インタフェース、加入者識別モジュール(subscriber identity module、SIM)インタフェース、及び/又はユニバーサルシリアルバス(universal serial bus、USB)インタフェース及び/又は同様のものを含んでよい。
I2Cインタフェースは双方向同期シリアルバスであり、シリアルデータライン(serial data line、SDA)及びシリアルクロックライン(serial clock line、SCL)を含む。いくつかの実施形態において、プロセッサ110は、複数のグループのI2Cバスを含み得る。プロセッサ110は、タッチセンサ180K、充電器、フラッシュ、カメラ193などに、異なるI2Cバスインタフェースを通じて別々に結合され得る。例えば、プロセッサ110は、I2Cインタフェースを通じてタッチセンサ180Kに結合され得、その結果、プロセッサ110は、I2Cバスインタフェースを通じてタッチセンサ180Kと通信し、端末デバイス100のタッチ機能を実装する。
I2Sインタフェースはオーディオ通信を実行するよう構成され得る。いくつかの実施形態において、プロセッサ110は複数のグループのI2Sバスを含み得る。プロセッサ110は、I2Sバスを介してオーディオモジュール170に結合され、プロセッサ110とオーディオモジュール170との間の通信を実装し得る。いくつかの実施形態においてオーディオモジュール170は、I2Sインタフェースを通じてオーディオ信号を無線通信モジュール160へ送信して、ヘッドセット200(例えばブルートゥース(登録商標)ヘッドセット)を通じて通話に応答する機能を実装し得る。
PCMインタフェースはまた、オーディオ通信を実行し、アナログ信号をサンプリング、量子化、及び符号化するよう構成され得る。いくつかの実施形態において、オーディオモジュール170はPCMバスインタフェースを通じて無線通信モジュール160に結合され得る。いくつかの実施形態において、オーディオモジュール170はまた、PCMインタフェースを通じてオーディオ信号を無線通信モジュール160へ送信して、ブルートゥース(登録商標)ヘッドセット200を通じて通話に応答する機能を実装し得る。I2Sインタフェース及びPCMインタフェースは両方とも、オーディオ通信に用いられてよい。
UARTインタフェースは、ユニバーサルシリアルデータバスであり、非同期通信を実行するように構成される。バスは、双方向通信バスであり得る。バスは送信予定のデータをシリアル通信とパラレル通信との間で変換する。いくつかの実施形態において、UARTインタフェースは、通常、プロセッサ110を無線通信モジュール160に接続するよう構成される。例えば、プロセッサ110は、UARTインタフェースを通じて無線通信モジュール160内のBluetooth(登録商標)モジュールと通信して、Bluetooth(登録商標)機能を実装する。いくつかの実施形態において、オーディオモジュール170は、UARTインタフェースを通じてオーディオ信号を無線通信モジュール160へ送信して、ブルートゥース(登録商標)ヘッドセット200を通じて音楽を再生する機能を実装し得る。
MIPIインタフェースは、プロセッサ110をディスプレイ194又はカメラ193などのペリフェラルコンポーネントに接続するよう構成され得る。MIPIインタフェースは、カメラシリアルインタフェース(camera serial interface,CSI)、及びディスプレイシリアルインタフェース(display serial interface,DSI)などを含む。いくつかの実施形態において、プロセッサ110は、CSIインタフェースを通じてカメラ193と通信して、端末デバイス100の画像撮影機能を実装す。プロセッサ110は、DSIインタフェースを通じてディスプレイ194と通信して、端末デバイス100の表示機能を実装する。
GPIOインタフェースは、ソフトウェアで構成されてよい。GPIOインタフェースは、制御信号又はデータ信号として構成され得る。いくつかの実施形態において、GPIOインタフェースは、プロセッサ110をカメラ193、ディスプレイ194、無線通信モジュール160、オーディオモジュール170、センサモジュール180又は同様のものに接続するように構成され得る。GPIOインタフェースは代替的に、I2Cインタフェース、I2Sインタフェース、UARTインタフェース、MIPIインタフェース又は同様のものとして構成され得る。
USBポート130は、USB標準仕様に適合するポートであり、具体的には、ミニUSBポート、マイクロUSBポート又はUSBタイプCポート又は同様のものであってよい。USBポート130は、充電器に接続して端末デバイス100を充電するために使用され得るか、又は、端末デバイス100とペリフェラルデバイスとの間でデータを送信するために使用され得るか、又は、ヘッドセット200を通じてオーディオを再生するためにヘッドセット200に接続するように構成され得る。インタフェースは代替的に、別の端末デバイス、例えばARデバイスに接続するために使用され得る。
本願の本実施形態におけるモジュール間のインタフェース接続関係は、説明のための例に過ぎず、端末デバイス100の構造に対する限定を構成するものではないことが理解され得る。本願のいくつかの他の実施形態において、端末デバイス100は代替的に、前述の実施形態とは異なるインタフェース接続方式を使用し得るか、又は、複数のインタフェース接続方式の組み合わせを使用し得る。
充電管理モジュール140は、充電器から充電入力を受信するよう構成される。充電器は、無線充電器又は有線充電器であり得る。有線充電のいくつかの実施形態において、充電管理モジュール140は、USBポート130を通じて有線充電器の充電入力を受信し得る。無線充電のいくつかの実施形態において、充電管理モジュール140は、端末デバイス100の無線充電コイルを通じて無線充電入力を受信し得る。バッテリ142を充電するとき、充電管理モジュール140は更に、電源管理モジュール141を使用することによって電力を端末デバイスに供給し得る。
電源管理モジュール141は、バッテリ142及び充電管理モジュール140をプロセッサ110に接続するよう構成される。電源管理モジュール141は、バッテリ142及び/又は充電管理モジュール140から入力を受信し、電力をプロセッサ110、内部メモリ121、ディスプレイ194、カメラ193、無線通信モジュール160及び同様のものに供給する。電源管理モジュール141は更に、バッテリ容量、バッテリサイクル数、及びバッテリの健康状態(漏電及びインピーダンス)などのパラメータをモニタリングするように構成され得る。いくつかの他の実施形態において、電源管理モジュール141は代替的に、プロセッサ110に配置され得る。いくつかの他の実施形態において、電源管理モジュール141及び充電管理モジュール140は代替的に、同じコンポーネントに配置されてもよい。
端末デバイス100の無線通信機能は、アンテナ1、アンテナ2、モバイル通信モジュール150、無線通信モジュール160、モデムプロセッサ、ベースバンドプロセッサ及び同様のものを使用することによって実装され得る。
アンテナ1及びアンテナ2は、電磁波信号を送受信するように構成される。端末デバイス100における各アンテナは、1又は複数の通信周波数帯をカバーするように構成され得る。アンテナ利用率を改善するために異なるアンテナが更に多重化され得る。例えば、アンテナ1は、無線ローカルエリアネットワークのダイバーシティアンテナとして多重化されてよい。いくつかの他の実施形態において、アンテナは、チューニングスイッチと組み合わせて用いられ得る。
モバイル通信モジュール150は、端末デバイス100に適用される、2G/3G/4G/5G又は同様のものを含む無線通信ソリューションを提供し得る。モバイル通信モジュール150は、少なくとも1つのフィルタ、スイッチ、電力増幅器、低ノイズ増幅器(low noise amplifier、LNA)などを含み得る。モバイル通信モジュール150は、アンテナ1を通じて電磁波を受信し、受信された電磁波に対してフィルタリング又は増幅などの処理を実行し、復調のために電磁波をモデムプロセッサへ送信し得る。モバイル通信モジュール150は更に、モデムプロセッサによって変調された信号を増幅し、アンテナ1を通じた放射のために信号を電磁波に変換し得る。いくつかの実施形態において、モバイル通信モジュール150における少なくともいくつかの機能モジュールはプロセッサ110に配置され得る。いくつかの実施形態において、モバイル通信モジュール150の少なくともいくつかの機能モジュールは、プロセッサ110の少なくともいくつかのモジュールと同一のデバイスに配置され得る。
モデムプロセッサは、変調器及び復調器を含み得る。変調器は、送信予定の低周波数ベースバンド信号を中高周波数信号に変調するように構成される。復調器は、受信した電磁波信号を低周波数ベースバンド信号に復調するように構成される。次に、復調器は、復調を介して取得された低周波数ベースバンド信号を、処理のためにベースバンドプロセッサへ送信する。低周波数ベースバンド信号は、ベースバンドプロセッサによって処理され、次にアプリケーションプロセッサに伝送される。アプリケーションプロセッサは、オーディオデバイス(スピーカ170A又はレシーバ170B又は同様のものに限定されない)を用いることにより音信号を出力するか、ディスプレイ194を用いることにより画像又は映像を表示する。いくつかの実施形態において、モデムプロセッサは、独立のコンポーネントであり得る。いくつかの他の実施形態において、モデムプロセッサは、プロセッサ110から独立し得、モバイル通信モジュール150又は別の機能モジュールと共に同一デバイスとして配置される。
無線通信モジュール160は、無線ローカルエリアネットワーク(wireless local area network, WLAN)(例えば、ワイヤレスフィデリティ(wireless fidelity, Wi-Fi(登録商標))ネットワーク)、ブルートゥース(登録商標)(Bluetooth(登録商標), BT)、全球測位衛星システム(global navigation satellite system, GNSS)、周波数変調(frequency modulation, FM)、近距離無線通信(near field communication, NFC)技術、赤外線(infrared, IR)技術又は同様のものを含む、端末デバイス100に適用される無線通信ソリューションを提供し得る。無線通信モジュール160は、少なくとも1つの通信プロセッサモジュールを統合する1又は複数のコンポーネントであり得る。無線通信モジュール160は、アンテナ2によって電磁波を受信し、電磁波信号に対して周波数変調及びフィルタリング処理を実行し、処理された信号をプロセッサ110へ送信する。無線通信モジュール160は更に、送信予定の信号をプロセッサ110から受信し、信号に対して周波数変調及び増幅を実行し、アンテナ2を通じた放射のために信号を電磁波に変換し得る。例えば、無線通信モジュール160は、ブルートゥース(登録商標)モジュールを含み、端末デバイス100は、ブルートゥース(登録商標)を使用することによってヘッドセット200との無線接続を確立する。別の例では、無線通信モジュール160は赤外線モジュールを含み、端末デバイス100は、赤外線モジュールを使用することによってヘッドセット200との無線接続を確立し得る。
いくつかの実施形態において、端末デバイス100において、アンテナ1及びモバイル通信モジュール150は結合され、アンテナ2及び無線通信モジュール160は結合され、その結果、端末デバイス100は、無線通信技術を使用することによってネットワーク及び別のデバイスと通信できる。無線通信技術は、グローバルシステム・フォー・モバイルコミュニケーションズ(global system for mobile communications, GSM(登録商標))、汎用パケット無線サービス(general packet radio service, GPRS)、符号分割多元接続(code division multiple access, CDMA)、広帯域符号分割多元接続(wideband code division multiple access, WCDMA(登録商標))、時分割符号分割多元接続(time-division code division multiple access, TD-SCDMA)、ロングタームエボリューション(long term evolution, LTE)、BT、GNSS、WLAN、NFC、FM、IR技術及び/又は同様のものを含み得る。GNSSは、グローバルポジショニングシステム(global positioning system、GPS)、全球測位衛星システム(global navigation satellite system、GLONASS)、北斗衛星導航系統(BeiDou navigation satellite system、BDS)、準天頂衛星システム(quasi-zenith satellite system、QZSS)、及び/又は衛星航法補強システム(satellite based augmentation system、SBAS)を含み得る。
端末デバイス100は、GPU、ディスプレイ194、アプリケーションプロセッサ及び同様のものを使用することによって表示機能を実装する。GPUは、画像処理のためのマイクロプロセッサであり、ディスプレイ194及びアプリケーションプロセッサに接続される。GPUは、数学的及び幾何学的計算を実行し、画像をレンダリングするように構成される。プロセッサ110は、表示情報を生成又は変更するためにプログラム命令を実行する1又は複数のGPUを含み得る。
ディスプレイ194は、画像及び映像等を表示するように構成される。ディスプレイ194はディスプレイパネルを含む。表示パネルは、液晶ディスプレイ(liquid crystal display、LCD)、有機発光ダイオード(organic light-emitting diode、OLED)、アクティブマトリクス有機発光ダイオード(active-matrix organic light emitting diode、AMOLED)、フレキシブル発光ダイオード(flexible light-emitting diode、FLED)、ミニLED、マイクロLED、マイクロOLED、量子ドット発光ダイオード(quantum dot light emitting diode、QLED)又は同様のものであってよい。いくつかの実施形態において、端末デバイス100は、1又はN1個のディスプレイ194を含み得、N1は1より大きい正の整数である。
端末デバイス100は、ISP、カメラ193、ビデオコーデック、GPU、ディスプレイ194、アプリケーションプロセッサ及び同様のものを使用することによって画像撮影機能を実装し得る。
ISPは、カメラ193によってフィードバックされたデータを処理するよう構成される。例えば、撮影中にシャッタが押され、光がレンズを通じてカメラの感光素子へ送られる。光信号は電気信号に変換され、カメラの感光素子は、処理のために電気信号をISPへ送信して、電気信号を可視画像に変換する。ISPは更に、画像のノイズ、輝度、及び色に対してアルゴリズム最適化を実行し得る。ISPは更に、撮影の場面の露光及び色温度などのパラメータを最適化し得る。いくつかの実施形態において、ISPはカメラ193内に配置され得る。
カメラ193は、静止画像又は映像を撮像するよう構成される。物体の光学画像は、レンズを通じて生成され、感光素子上に投影される。感光素子は、電荷結合素子(charge coupled device, CCD)又は相補型金属酸化物半導体(complementary metal-oxide-semiconductor, CMOS)フォトトランジスタであり得る。感光素子は、光信号を電気信号に変換し、次に、電気信号をデジタル画像信号に変換するために電気信号をISPに送信する。ISPは、処理ためのデジタル画像信号をDSPへ出力する。DSPは、デジタル画像信号をRGB又はYUV等の標準形式の画像信号に変換する。いくつかの実施形態において、プロセッサ110は、内部メモリ121におけるプログラム又は命令に基づいてカメラ193をトリガし得、その結果、カメラ193は、少なくとも1つの画像を撮像し、それに対応して、プログラム又は命令に基づいて、少なくとも1つの画像を処理する。いくつかの実施形態において、端末デバイス100は、1又はN2個のカメラ193を含み得、N2は1より大きい正の整数である。
デジタル信号プロセッサは、デジタル信号を処理するように構成され、上記デジタル画像信号に加えて別のデジタル信号を処理してよい。例えば、端末デバイス100が周波数を選択するとき、デジタル信号プロセッサは、周波数エネルギーに対してフーリエ変換を実行するように構成される。
ビデオコーデックは、デジタル映像を圧縮又は展開するよう構成される。端末デバイス100は1又は複数のビデオコーデックをサポートし得る。このように、端末デバイス100は、複数の符号化形式、例えば、動画専門家集団(moving picture experts group、MPEG-1、MPEG-2、MPEG-3、及びMPEG-4)で映像を再生又は記録し得る。
NPUはニューラルネットワーク(neural-network, NN)処理ユニットである。NPUは、生物学的ニューラルネットワークの構造、例えば、人間の脳細胞間の転送モードを参照して入力情報を迅速に処理し、更に自己学習を継続的に実行し得る。NPUは、端末デバイス100のインテリジェント認識などのアプリケーション、例えば、画像認識、顔認識、音声認識、テキスト理解を実装できる。
外部メモリインタフェース120は、外部メモリカード、例えばマイクロSDカードに接続し、端末デバイス100の記憶容量を拡張するように構成され得る。外部メモリカードは、外部メモリインタフェース120を通じてプロセッサ110と通信し、データストレージ機能を実装する。例えば、音楽及び映像などのファイルは、外部ストレージカードに格納される。
内部メモリ121は、コンピュータ実行可能プログラムコードを格納するように構成され得る。実行可能プログラムコードは命令を含む。内部メモリ121は、プログラム記憶領域及びデータ記憶領域を含んでよい。プログラム記憶領域は、オペレーティングシステム、少なくとも1つの機能が必要とするアプリケーション(例えば、カメラアプリケーション)及び同様のものを記憶し得る。データ記憶領域は、端末デバイス100の使用中に作成されるデータ(カメラによって撮像される画像など)及び同様のものを記憶し得る。加えて、内部メモリ121は、高速ランダムアクセスメモリを含み得、又は、少なくとも1つのディスクストレージデバイス、フラッシュメモリ又はユニバーサルフラッシュストレージ(universal flash storage, UFS)などの不揮発性メモリを含み得る。プロセッサ110は、内部メモリ121に記憶された命令、及び/又は、プロセッサに配置されたメモリに記憶された命令を実行して、端末デバイス100の様々な機能アプリケーション及びデータ処理を実行する。内部メモリ121は更に、本願の本実施形態において提供されるダウンリンクオーディオ信号を記憶し得る。内部メモリ121は更に、ヘッドセット200を制御する機能を実装するために使用されるコードを記憶し得る。内部メモリ121に記憶され、ヘッドセット200を制御する機能を実装するために使用されるコードがプロセッサ110によって実行されるとき、ヘッドセット200は、対応する機能、例えば、ANC機能、HT機能又はAH機能を実装するために制御される。当然、本願の本実施形態において提供されるヘッドセット200の機能を制御するためのコードは代替的に、外部メモリに記憶され得る。この場合、プロセッサ110は、外部メモリインタフェース120を使用することによって、外部メモリに記憶される、ヘッドセット200の機能を制御するために使用される対応するデータを実行して、ヘッドセット200を制御し、対応する機能を実装し得る。
端末デバイス100は、オーディオモジュール170、スピーカ170A、レシーバ170B、マイクロホン170C、ヘッドセットジャック170D、アプリケーションプロセッサ及び同様のものを通じて、音楽の再生又は記録などのオーディオ機能を実装し得る。
オーディオモジュール170は、デジタルオーディオ情報を出力のためにアナログオーディオ信号に変換するように構成され、アナログオーディオ入力をデジタルオーディオ信号に変換するようにも構成される。オーディオモジュール170は更に、オーディオ信号を符号化及び復号するよう構成され得る。いくつかの実施形態において、オーディオモジュール170はプロセッサ110に配置され得るか、又は、オーディオモジュール170におけるいくつかの機能モジュールはプロセッサ110に配置され得る。
スピーカ170Aは、「ラウドスピーカ」とも呼ばれ、オーディオ電気信号を音信号に変換するように構成されている。端末デバイス100は、スピーカ170Aを使用することによって、ハンズフリーモードにおいて音楽を聴く、又は通話に応答し得る。
「イヤホン」とも称されるレシーバ170Bは、オーディオ電気信号を音信号に変換するよう構成される。端末デバイス100を使用することによって通話に応答する、又は音声情報を受信するとき、レシーバ170Bは、声を聴くために、人間の耳の近くに持ってこられ得る。
「マイク(mike)」又は「マイク(mic)」とも称されるマイクロホン170Cは、音信号を電気信号に変換するように構成される。通話を行う、又は音声メッセージを送信するとき、ユーザは、ユーザの口を通じてマイクロホン170Cの近くで音を発し、音信号をマイクロホン170Cに入力し得る。少なくとも1つのマイクロホン170Cが端末デバイス100に配置され得る。いくつかの他の実施形態において、2つのマイクロホン170Cが端末デバイス100に配置され、音信号を収集してノイズコントロール機能を実装し得る。いくつかの他の実施形態において、3、4又はより多くのマイクロホン170Cが代替的に端末デバイス100に配置され、音信号を収集し、ノイズコントロールを実装し、音源を識別し、指向性記録機能を実装し、及び同様のものを行い得る。
ヘッドセットジャック170Dは有線ヘッドセットに接続するよう構成される。本願の本実施形態において提供されるヘッドセット200が有線ヘッドセットであるとき、端末デバイス100は、ヘッドセットジャック170Dを通じてヘッドセットに接続される。ヘッドセットジャック170Dは、USBポート130であってもよく、又は、3.5mmのオープンモバイル端末プラットフォーム(open mobile terminal platform、OMTP)標準インタフェース又は米国セルラ通信工業会(cellular telecommunications industry association of the USA、CTIA)標準インタフェースであってもよい。
圧力センサ180Aは圧力信号を検知するよう構成され、圧力信号を電気信号に変換し得る。いくつかの実施形態において、圧力センサ180Aは、ディスプレイ194上に配置されてよい。複数のタイプの圧力センサ180A、例えば、抵抗式圧力センサ、誘導式圧力センサ、静電容量式圧力センサなどがある。静電容量式圧力センサは、導電材料で作られた少なくとも2つの平行なプレートを含み得る。圧力センサ180Aに力が加えられるとき、電極間の静電容量が変化する。端末デバイス100は、静電容量の変化に基づいて圧力強度を判定する。タッチ操作あディスプレイ194に対して実行されるとき、端末デバイス100は、圧力センサ180Aを使用することによってタッチ操作の強度を検出する。端末デバイス100はまた、圧力センサ180Aの検出信号に基づいてタッチ位置を計算し得る。いくつかの実施形態では、同じタッチ位置で行われても、タッチ操作の強さが異なる各タッチ操作が、異なる操作命令に対応してよい。例えば、タッチ操作の強度が第1圧力閾値より小さいタッチ操作がSMSメッセージアプリケーションアイコン上で実行されるとき、SMSメッセージを表示するための命令が実行される。タッチ操作の強度が第1圧力閾値以上であるタッチ操作がSMSメッセージアプリケーションアイコンに対して実行されるとき、新しいSMSメッセージを作成するための命令が実行される。
ジャイロセンサ180Bは端末デバイス100の動作姿勢を判定するように構成され得る。いくつかの実施形態において、3軸(すなわち、x、y、及びz軸)の周りの端末デバイス100の角速度は、ジャイロセンサ180Bを使用することによって判定され得る。ジャイロセンサ180Bは、撮影時の手ぶれ補正を実装するように構成されてよい。例えば、シャッタが押されるとき、ジャイロセンサ180Bは、端末デバイス100が揺れる角度を検出し、角度に基づいて、レンズモジュールが補償する必要がある距離を計算し、レンズが逆の動きを通じて端末デバイス100の揺れを相殺することを可能にし、手ぶれ補正を実装する。ジャイロセンサ180Bはまた、ナビゲーションの場面及び身体的ゲームの場面において使用され得る。
気圧センサ180Cは気圧を測定するよう構成される。いくつかの実施形態において、端末デバイス100は、気圧センサ180Cによって測定された気圧値を使用することによって高度を計算し、測位及びナビゲーションを支援する。
磁気センサ180Dはホールセンサを含む。端末デバイス100は、磁気センサ180Dを使用することによってフリップカバーの開閉を検出し得る。いくつかの実施形態において、端末デバイス100がフリップ型電話であるとき、端末デバイス100は、磁気センサ180Dに基づいてフリップカバーの開閉を検出し得る。更には、検出されるレザーケースの開閉状態、又は、検出されるフリップカバーの開閉状態に基づいてフリップカバーの自動ロック解除などの機能が設定される。
加速度センサ180Eは、様々な方向(通常は3軸)における端末デバイス100の加速度の大きさを検出し得る。重力の大きさ及び方向は、端末デバイス100が静止しているときに検出され得る。加速度センサ180Eは更に、端末デバイスの姿勢を識別するように構成され得、横長モードと縦長モードとの間の切り替え又は歩数計などの用途に適用される。
距離センサ180Fは、距離を測定するよう構成される。端末デバイス100は、赤外線方式又はレーザ方式で距離を測定し得る。いくつかの実施形態において、撮影の場面では、端末デバイス100は、レンジセンサ180Fを使用することによって距離を測定し、迅速な焦点合わせを実装し得る。
光学近接センサ180Gは、例えば、発光ダイオード(LED)及び光検出器、例えばフォトダイオードを含み得る。発光ダイオードは赤外線発光ダイオードであり得る。端末デバイス100は、発光ダイオードを使用することによって赤外線光を外へ放射する。端末デバイス100は、フォトダイオードを使用することによって、近くの物体からの赤外線反射光を検出する。十分な反映光が検出されるとき、端末デバイス100の近くに物体があると判定される。検出される反映光が不十分であるとき、端末デバイス100は、端末デバイス100の近くに物体が無いと判定し得る。端末デバイス100は、光学近接センサ180Gを使用することによって、ユーザが通話するために耳の近に端末デバイス100を把持していることを検出して、節電のために自動的に画面オフを実行し得る。光学近接センサ180Gはまた、画面のロック解除又はロックを自動的に実行するために、レザーケースモード又はポケットモードにおいて使用され得る。
環境光センサ180Lは、環境光輝度を検知するよう構成される。いくつかの実施形態において、端末デバイス100は、環境光センサ180Lによって感知される環境光の輝度に基づいて画像の露光時間を判定し得る。いくつかの実施形態において、端末デバイス100は、感知された環境光の輝度に基づいてディスプレイ194の輝度を適応的に調整し得る。環境光センサ180Lは、撮影中のホワイトバランスを自動的に調整するように構成されてもよい。環境光センサ180Lは更に、光学近接センサ180Gと協働して、端末デバイス100がポケットの中にあるかどうかを検出して、偶発的なタッチを防止し得る。
指紋センサ180Hは指紋を収集するよう構成される。端末デバイス100は、収集される指紋の特徴を使用して、指紋ベースのロック解除、アプリケーションロックアクセス、指紋ベースの撮影、及び指紋ベースの電話応答などを実装し得る。
温度センサ180Jは、温度を検出するよう構成される。いくつかの実施形態において、端末デバイス100は、温度センサ180Jによって検出される温度を使用することによって、温度処理ポリシーを実行する。例えば、温度センサ180Jによって報告される温度が閾値を超えるとき、端末デバイス100は、温度センサ180Jの近くに位置するプロセッサのパフォーマンスを低減して、電力消費を低減し、熱保護を実装する。いくつかの他の実施形態において、温度が別の閾値より低いとき、端末デバイス100はバッテリ142を加熱し、低温によって生じる端末デバイス100の異常なシャットダウンを回避する。いくつかの他の実施形態において、温度がなお別の閾値より低いとき、端末デバイス100は、バッテリ142の出力電圧を上昇させ、低温によって引き起こされる異常なシャットダウンを回避する。
タッチセンサ180Kは「タッチコンポーネント」とも呼ばれ得る。タッチセンサ180Kはディスプレイ194に配置され得、タッチセンサ180K及びディスプレイ194は、「タッチスクリーン」とも称されるタッチ画面を構成する。タッチセンサ180Kは、タッチセンサ上又はタッチセンサの近くで実行されたタッチ操作を検出するよう構成される。タッチセンサは、検出したタッチ操作をアプリケーションプロセッサに転送して、タッチイベントの種類を判定し得る。タッチ操作に関する視覚的出力は、ディスプレイ194を通じて提供され得る。いくつかの他の実施形態において、タッチセンサ180Kは代替的に、ディスプレイ194とは異なる場所における端末デバイス100の表面上に配置され得る。
骨伝導センサ180Mは振動信号を取得し得る。いくつかの実施形態において、骨伝導センサ180Mは、人の声帯部分の振動骨の振動信号を取得し得る。骨伝導センサ180Mはまた、血圧鼓動信号を受信するために身体の脈に接触し得る。いくつかの実施形態において、骨伝導センサ180Mはまた、ヘッドセットに配置されて骨伝導ヘッドセットを実現し得る。オーディオモジュール170は、骨伝導センサ180Mによって取得される、声帯部分の振動骨の振動信号に基づいて、解析を通じて音声信号を取得し、音声機能を実装し得る。アプリケーションプロセッサは、骨伝導センサ180Mにより取得される血圧鼓動信号に基づいて心拍数情報を解析し、心拍数検出機能を実装し得る。
ボタン190は、電源ボタン、音量ボタン、及び同様のものを含む。ボタン190は機械的ボタンであり得る、又は、タッチボタンであり得る。端末デバイス100はボタン入力を受信し、端末デバイス100のユーザ設定及び機能制御に関するボタン信号入力を生成し得る。
モータ191は振動プロンプトを生成し得る。モータ191は、着信振動プロンプト及びタッチ振動フィードバックを提供するように構成されてよい。例えば、異なるアプリケーション(例えば、写真撮影及びオーディオ再生)で実行されるタッチ操作は、異なる振動フィードバック効果に対応してよい。モータ191はまた、表示194の異なる領域に対して実行されたタッチ操作についての異なる振動フィードバック効果に対応し得る。また、異なるアプリケーション場面(例えば、時間リマインダ、情報受信、目覚まし時計、及びゲーム)が、異なる振動フィードバック効果に対応し得る。タッチ振動フィードバック効果は更にカスタマイズされ得る。
インジケータ192はインジケータライトであり得、充電ステータス及び電力変化を示すよう構成され得る、又は、メッセージ、不在着信、通知などを示すよう構成され得る。
SIMカードインタフェース195は、SIMカードに接続されるように構成される。SIMカードは、SIMカードインタフェース195に挿入され得るか、又は、SIMカードインタフェース195から取り外され得、端末デバイス100との接触又は分離を実装する。端末デバイス100は、1又はN3個のSIMカードインタフェースをサポートし得、N3は1より大きい正の整数である。SIMカードインタフェース195は、ナノSIMカード、マイクロSIMカード、SIMカードなどをサポートし得る。複数のカードが同じSIMカードインタフェース195に同時に挿入されてよい。複数のカードは、同じ種類であってもよく、又は異なる種類であってもよい。SIMカードインタフェース195は、異なる種類のSIMカードと互換性があり得る。SIMカードインタフェース195はまた、外部ストレージカードと互換性があり得る。端末デバイス100は、SIMカードを使用することによってネットワークとやり取りし、通話及びデータ通信などの機能を実装する。いくつかの実施形態において、端末デバイス100は、eSIMカード、すなわち組み込みSIMカードを使用する。eSIMカードは端末デバイス100に組み込まれ得、端末デバイス100から分離できない。
端末デバイス100のソフトウェアシステムは、階層アーキテクチャ、イベント駆動型アーキテクチャ、マイクロカーネルアーキテクチャ、マイクロサービスアーキテクチャ又はクラウドアーキテクチャを使用し得る。本願の実施形態において、階層アーキテクチャを有するAndroid(登録商標)システムは、端末デバイス100のソフトウェア構造を説明するための例として使用される。
図2は、本願の実施形態による端末デバイス100のソフトウェア構造のブロック図である。
階層アーキテクチャにおいて、ソフトウェアは複数の層に分割され、各層は明確な役割及びタスクを有する。層はソフトウェアインタフェースを通じて互いに通信する。いくつかの実施形態において、Android(登録商標)システムは、4つの層、すなわち、上から下に、アプリケーション層、アプリケーションフレームワーク層、Android(登録商標)ランタイム(Android(登録商標) runtime)及びシステムライブラリ、ならびに、カーネル層に分割される。アプリケーション層は一連のアプリケーションパッケージを含み得る。
図2に示されるように、アプリケーションパッケージは、カメラ、ギャラリー、カレンダー、電話、地図、ナビゲーション、WLAN、ブルートゥース(登録商標)、音楽、映像、メッセージなどのアプリケーションを含み得る。
アプリケーションフレームワーク層は、アプリケーション層におけるアプリケーションのためのアプリケーションプログラミングインタフェース(application programming interface、API)及びプログラミングフレームワークを提供する。アプリケーションフレームワーク層は、いくつかの事前定義された機能を含む。
図2に示すように、アプリケーションフレームワーク層は、ウィンドウマネージャ、コンテンツプロバイダ、ビューシステム、電話マネージャ、リソースマネージャ、及び通知マネージャなどを含み得る。
ウィンドウマネージャは、ウィンドウプログラムを管理するように構成される。ウィンドウマネージャは、ディスプレイのサイズの取得、ステータスバーがあるかどうかの判定、画面ロックの実行及びスクリーンショットの撮影等を行い得る。
コンテンツプロバイダは、データを記憶及び取得し、データがアプリケーションプログラムによってアクセスされることを可能にするように構成される。データは、映像、画像、オーディオ、発信及び応答される電話、閲覧履歴及びブックマーク、ならびにアドレス帳などを含み得る。
ビューシステムは、テキストを表示するためのコントロール、及び画像を表示するためのコントロールなどの視覚的なコントロールを含む。ビューシステムは、アプリケーションプログラムを構築するように構成され得る。表示インタフェースは1又は複数のビューを含み得る。例えば、SMSメッセージ通知アイコンを含む表示インタフェースが、テキスト表示ビュー及び画像表示ビューを含んでよい。
電話マネージャは、端末デバイス100の通信機能、例えば、通話ステータス(応答、拒否又は同様のものを含む)の管理を提供するように構成される。
リソースマネージャは、ローカライズされた文字列、アイコン、画像、レイアウトファイル、及び映像ファイルなどの様々なリソースをアプリケーションプログラムに提供する。
通知マネージャは、アプリケーションプログラムがステータスバーに通知情報を表示できるようにし、通知メッセージを伝達するように構成され得る。通知マネージャは、短い間を置いた後に、ユーザインタラクションを必要とせずに自動的に消えてよい。例えば、通知マネージャは、ダウンロード完了を通知すること、及び、メッセージ通知を提供することなどを行うよう構成される。通知マネージャは代替的に、グラフ又はスクロールバーテキストの形態でシステムの上部のステータスバーに現れる通知、例えば、バックグラウンド上で実行するアプリケーションの通知であり得るか、又は、ダイアログウィンドウの形態で画面に現れる通知であり得る。例えば、テキスト情報がステータスバーに表示され、アナウンスが提供され、端末デバイスが振動し、又はインジケータライトが点滅する。
Android(登録商標)ランタイムは、カーネルライブラリ及び仮想マシンを含む。Android(登録商標)ランタイムは、Android(登録商標)システムのスケジューリング及び管理を担う。
カーネルライブラリは2つの部分、すなわち、Java(登録商標)言語において呼び出される必要がある関数、及び、Android(登録商標)のカーネルライブラリを含む。
アプリケーション層及びアプリケーションフレームワーク層は仮想マシン上で実行する。仮想マシンは、アプリケーション層及びアプリケーションフレームワーク層のJava(登録商標)ファイルをバイナリファイルとして実行する。仮想マシンは、オブジェクトのライフサイクル管理、スタック管理、スレッド管理、セキュリティ及び例外管理、及びガベージコレクションなどの機能を実装するように構成されている。
システムライブラリは、複数の機能モジュール、例えば、サーフェスマネージャ(surface manager)、メディアライブラリ(Media Library)、3次元グラフィックス処理ライブラリ(例えば、OpenGL ES)、及び2Dグラフィックスエンジン(例えば、SGL)を含み得る。
サーフェスマネージャは、ディスプレイサブシステムを管理し、複数のアプリケーションについて、2D層及び3D層の融合を提供するよう構成される。
メディアライブラリは、一般的に使用されている複数のオーディオ形式及び映像形式、及び静止画像ファイルでの再生及び記録をサポートする。メディアライブラリは、複数のオーディオ符号化形式及び映像符号化形式、例えば、MPEG-4、H.264、MP3、AAC、AMR、JPG、及びPNGをサポートすることができる。
3次元グラフィックス処理ライブラリは、3次元グラフィックス描画、画像レンダリング、合成、及び層処理などを実装するように構成される。
2Dグラフィックスエンジンは、2D描画のための描画エンジンである。
カーネル層はハードウェアとソフトウェアとの間の層である。カーネル層は、少なくともディスプレイドライバ、カメラドライバ、オーディオドライバ、ヘッドセットドライバ及びセンサドライバを含む。
以下では、オーディオを撮像及び再生する場面を参照して、端末デバイス100のソフトウェア及びハードウェアの動作手順の例を説明する。
タッチセンサ180Kがタッチ操作を受信するとき、対応するハードウェア割り込みがカーネル層に送信される。カーネル層は、タッチ操作を処理して元の入力イベント(タッチ操作のタッチ座標及びタイムスタンプ等の情報を含む)にする。元の入力イベントはカーネル層に格納される。アプリケーションフレームワーク層は元の入力イベントをカーネル層から取得し、入力イベントに対応する制御を識別する。例えば、タッチ操作はタッチタップ操作であり、タップ操作に対応するコントロールがオーディオアプリケーションアイコンのコントロールである。オーディオアプリケーションは、アプリケーションフレームワーク層におけるインタフェースを呼び出して、ヘッドセットを起動し、アプリケーションを制御し、次に、カーネル層を呼び出して、ヘッドセットドライバを起動し、オーディオ信号をヘッドセットへ送信し、ヘッドセット200を使用することによってオーディオ信号を再生する。
図3はヘッドセット200の任意選択のハードウェア構造の概略図である。ヘッドセット200は左イヤホン及び右イヤホンを含む。左イヤホン及び右イヤホンは同様の構造を有する。ヘッドセット(左イヤホン及び右イヤホンを含む)は構造的に、第1マイクロホン301、第2マイクロホン302及び第3マイクロホン303を含む。ヘッドセットは更に、プロセッサ304及びスピーカ305を含み得る。後に説明されるヘッドセットは、左イヤホンとして解釈され得るか、又は、右イヤホンとして解釈され得ることが理解されるべきである。
第1マイクロホン301は、現在の外部環境における音を収集するように構成される。第1マイクロホン301はまた、参照マイクロホンと呼ばれ得る。ユーザがヘッドセットを装着しているとき、第1マイクロホン301はヘッドセットの外側に位置し、又は、第1マイクロホン301は耳の外側に位置する。ユーザがヘッドセットを装着しているとき、第2マイクロホン302は、ユーザの外耳道における環境音を収集する。第2マイクロホン302はまた、誤差マイクロホンと呼ばれ得る。ユーザがヘッドセットを装着しているとき、第2マイクロホン302は、ヘッドセットの内側又は外耳道の近くに位置する。第3マイクロホン303は通話信号を収集するように構成される。第3マイクロホン303はヘッドセットの外側に位置し得る。ユーザがヘッドセットを装着しているとき、第3マイクロホン303は、第1マイクロホン301と比べて、ユーザの口により近い。
第1マイクロホン301は現在の外部環境における音を収集するように構成され、ユーザがヘッドセットを装着している外部環境における音として説明され得ることに留意されたい。例えば、電車上で、外部環境における音は、ヘッドセットを装着しているユーザの周囲の環境における音である。左イヤホン上の第1マイクロホン301は、左イヤホンの外部環境における音を収集する。右イヤホン上の第1マイクロホン301は、右イヤホンの外部環境における音を収集する。
区別を容易にするために、第1マイクロホン301(参照マイクロホン)によって収集される信号は、第1信号と呼ばれ、第2マイクロホン302(誤差マイクロホン)によって収集される信号は第2信号と呼ばれる。本願の本実施形態におけるマイクロホンは、アナログマイクロホンであり得るか、又は、デジタルマイクロホンであり得る。マイクロホンがアナログマイクロホンであるとき、マイクロホンによって収集された信号に対してフィルタリング処理が実行される前に、アナログ信号がデジタル信号に変換され得る。本願の本実施形態において、例えば、第1マイクロホン及び第2マイクロホンの両方はデジタルマイクロホンであり、第1信号及び第2信号の両方はデジタル信号である。
プロセッサ304は、ダウンリンクオーディオ信号及び/又はマイクロホン(第1マイクロホン301、第2マイクロホン302、又は第3マイクロホン303を含む)によって収集された信号に対して処理、例えば、ANC処理、HT処理、又はAH処理を実行するように構成される。例えば、プロセッサ304は主制御部及びノイズコントロール処理ユニットを含み得る。主制御部は、ヘッドセットに対するユーザ操作についての制御コマンドを生成し、制御コマンドを端末デバイスから受信し、又は同様のものを行うように構成される。ノイズコントロール処理ユニットは、ダウンリンクオーディオ信号及び/又はマイクロホン(第1マイクロホン301、第2マイクロホン302、又は第3マイクロホン303を含む)によって収集された信号に対して制御コマンドに基づいて、ANC処理、HT処理、又はAH処理を実行するように構成される。
左イヤホン及び右イヤホンは更にメモリを含み得る。メモリは、プロセッサ304によって実行されるプログラム又は命令を記憶するように構成される。プロセッサ304は、メモリに記憶されるプログラム又は命令に基づいて、ANC処理、HT処理又はAH処理を実行する。メモリは、ランダムアクセスメモリ(random access memory、RAM)、フラッシュメモリ、リードオンリメモリ(read-only memory、ROM)、プログラマブルリードオンリメモリ(programmable ROM、PROM)、消去可能プログラマブルリードオンリメモリ(erasable PROM、EPROM)、電気的消去可能プログラマブルリードオンリメモリ(electrically EPROM、EEPROM)、レジスタ、ハードディスク、着脱式ハードディスク、CD-ROM、又は、当技術分野において周知であるいずれかの他の形態の記憶媒体のうちの1又は複数を含み得る。
主制御部は、例えば、ARM処理チップ、中央処理装置(central processing unit、CPU)、システムオンチップ(system on chip, SoC)、デジタル信号プロセッサ(digital signal processor, DSP)、又はマイクロコントローラユニット(micro controller unit, MCU)のうちの1又は複数によって実装され得る。ノイズコントロール処理ユニットは、例えば、コーダ‐デコーダ(coder-decoder, CODEC)チップ又はハイフィデリティ(high-fidelity, Hi-Fi)チップを含み得る。例えば、ノイズコントロール処理ユニットは、コーデックチップを含む。コーデックにおいて、フィルタ、イコライザ(Equalizer, EQ)、ダイナミックレンジコントローラ(Dynamic Range Controller, DRC)、リミッタ(limiter)、利得レギュレータ(gain)、ミキサ(mixer)、及び同様のものがハードウェア化され、主に、信号に対するフィルタリング、オーディオミキシング、及び利得調整などの処理を実行するように構成される。ノイズコントロール処理ユニットは更にDSPを含み得る。DSPは、場面検出、声強化及びブロッキング解消などの処理を実行するように構成され得る。
ヘッドセットは更に、端末デバイス100における無線通信モジュール160を通じて端末デバイス100との通信接続を確立するように構成される無線通信部を含み得る。無線通信部は、無線ローカルエリアネットワーク(wireless local area network,WLAN)(例えば、ワイヤレスフィデリティ(wireless fidelity,Wi-Fi(登録商標))ネットワーク)、ブルートゥース(登録商標)(Bluetooth(登録商標), BT)、近距離無線通信(near field communication,NFC)技術、赤外線(infrared,IR)技術又は同様のものを含む、ヘッドセットに適用される無線通信ソリューションを提供し得る。無線通信部は、少なくとも1つの通信プロセッサモジュールを統合する1又は複数のコンポーネントであり得る。例えば、無線通信モジュール160はブルートゥース(登録商標)であり得、無線通信部もブルートゥース(登録商標)であり得、ヘッドセット200は、ブルートゥース(登録商標)を使用することによって端末デバイス100に接続される。
可能な例において、3つの異なるノイズ処理について、出力は、3つの経路、すなわち、アクティブノイズコントロール出力経路、環境音ヒアスルー出力経路、及び聴覚増強出力経路を使用することによって実行される。例えば、図4に示されるように、異なる出力経路は、異なる処理方式を使用する。
アクティブノイズコントロール出力経路におけるアクティブノイズコントロール処理は、参照マイクロホンによって収集される第1信号の逆位相信号、及び、誤差マイクロホンによって収集される第2信号の逆位相信号を使用することによってノイズ抑制を実行することを含み得るが、これに限定されない。アクティブノイズコントロール出力経路は、第1信号の逆位相信号及び第2信号の逆位相信号を含む。第1信号と第1信号の逆位相信号との間の位相差は180度であることに留意されたい。スピーカは、第1信号の逆位相信号及び第2信号の逆位相信号を重畳することによって取得される信号を出力し、その結果、スピーカによって再生される現在の外部環境における音は、耳によって実際に聞かれた外部環境における音によって相殺され、アクティブノイズコントロール効果が実装される。したがって、ヘッドセットがANCモードを使用するとき、現在のユーザ環境における音及びユーザの外耳道における環境音のユーザ感知を弱めることができる。
任意選択で、ダウンリンクオーディオ信号があるとき、フィルタリング補償がダウンリンクオーディオ信号に対して実行され得る。加えて、ダウンリンクオーディオ信号の影響は、環境音の逆位相信号が取得されるときに、排除され得る。
第1信号の逆位相信号及び第2信号の逆位相信号が取得されるとき、第1フィルタリング処理及び第3フィルタリング処理が使用され得る。例えば、第1フィルタリング処理は、フィードフォワード(feedforward, FF)フィルタリング処理であり得、フィードフォワードフィルタによって実装され得る。第3フィルタリング処理は、フィードバック(feedback, FB)フィルタリング処理であり得、フィードバックフィルタによって実装され得る。図4に示されるように、FFフィルタリング及びFBフィルタリングは、並列処理アーキテクチャを使用して、ノイズコントロール効果を強化する。ANC処理手順は以下の説明において詳細に説明される。ここでは、詳細について改めて説明しない。
環境音ヒアスルー出力経路における環境音ヒアスルー処理は、誤差マイクロホンによって収集された信号に対して第3フィルタリング処理を実行してアクティブノイズコントロール機能の一部を実装すること、ならびに、参照マイクロホンによって収集された信号に対して第2フィルタリング処理及びHT強化処理を実行することを含み得るが、これに限定されない。例えば、第2フィルタリング処理は、ヒアスルー(HT)フィルタリング処理であり得、ヒアスルーフィルタによって実装され得る。スピーカによって再生されるオーディオ信号は、第1信号及び第2信号に基づいて取得され、その結果、オーディオ信号がスピーカによって再生された後に、ユーザはヘッドセットを使用することによって外部環境における音を聞くことができる。HT処理が実行されていないときに聞かれる外部環境における音と比較して、この音は、より高い強度及びより良い効果を有する。したがって、ヘッドセットがHTモードを使用するとき、現在のユーザ環境における音の強度のユーザ感知を強化できる。HT処理手順は、以下の説明において詳細に説明される。ここでは、詳細について改めて説明しない。
聴覚増強出力経路における環境音ヒアスルー処理は、誤差マイクロホンによって収集された信号を使用することによってアクティブノイズコントロール機能の一部を実装すること、参照マイクロホンによって収集された信号に対して第1フィルタリング処理及び聴覚増強処理を実行してユーザ環境における音におけるイベント音を強化すること、及び、参照マイクロホンによって収集された信号に対して第2フィルタリング処理を実行することを含み得るが、これらに限定されない。スピーカの出力信号は、第1信号におけるイベント信号と第2信号の逆位相信号とを混合した後に取得される信号に基づいて取得される。第2信号と第2信号の逆位相信号との間の位相差は180度であることに留意されたい。スピーカは、第2信号の逆位相信号、第1信号の逆位相信号、及び第1信号におけるイベント信号を重畳することによって取得される信号を出力し、その結果、スピーカによって出力される信号は、耳によって実際に聞かれる環境における音を相殺し、アクティブノイズコントロール効果が実装される。加えて、スピーカは、環境におけるイベント音を出力し、その結果、ユーザは、環境においてユーザによって必要とされる予め設定された信号を明確に聞くことができる。したがって、ヘッドセットがAHモードを使用するとき、現在の外部環境における音に含まれるイベント音のヘッドセットユーザ感知を強化できる。AH処理手順は、以下の説明において詳細に説明される。ここでは、詳細について改めて説明しない。
ダウンリンクオーディオ信号、第1信号及び第2信号はすべて、1つのフレームの信号、又は、ある期間の信号であり得ることが理解されるべきである。例えば、ダウンリンクオーディオ信号、第1信号及び第2信号がすべて1つのフレームの信号であるとき、ダウンリンクオーディオ信号、第1信号、及び第2信号は、3つの信号ストリームにそれぞれ属し、ダウンリンクオーディオ信号の信号フレーム、第1信号の信号フレーム及び第2信号の信号フレームは、同一の期間にあるか、又は、時間が重複する。本願の本実施形態において、機能処理(例えば、ANC、HT又はAH)が実行されるとき、ダウンリンクオーディオ信号が位置する信号ストリーム、第1信号が位置する信号ストリーム、及び第2信号の信号ストリームに対して機能処理が継続的に実行される。
まず、以下では、アクティブノイズコントロール経路の処理手順を詳細に説明する。
図5A及び図5Bは、アクティブノイズコントロール処理の概略フローチャートである。例えば、端末デバイス100によってヘッドセット200へ送信されたダウンリンクオーディオ信号は、後の説明において第1オーディオ信号と呼ばれる。第1オーディオ信号は、通話信号、音楽信号、又は同様のものであり得る。例えば、参照マイクロホンによって収集された信号は、第1信号と呼ばれ、誤差マイクロホンによって収集された信号は第2信号と呼ばれる。ヘッドセットはANCモードを使用する。
端末デバイス100によってヘッドセット200における左イヤホン及び右イヤホンへ送信されたダウンリンクオーディオ信号は、同一の信号であり得るか、又は異なる信号であり得ることに留意されたい。例えば、端末デバイスはステレオ効果を使用する。端末デバイス100は、異なるダウンリンクオーディオ信号をヘッドセット200へ送信してステレオ効果を実装する。当然、端末デバイスは代替的に、同一のダウンリンクオーディオ信号を左イヤホン及び右イヤホンへ送信し得る。左イヤホン及び右イヤホンはステレオ処理を使用してステレオ効果を実装する。左イヤホン又は右イヤホンは、ユーザの制御の場合において、図5A又は図5Bにおける処理を実行し得る。
S501:参照マイクロホンによって収集された第1信号に対して第1フィルタリング処理を実行して第1フィルタリング信号を取得する。図5Bにおいて、第1フィルタリング信号は簡潔に信号A1と呼ばれる。
S502:誤差マイクロホンによって収集された第2信号に含まれる第1オーディオ信号をフィルタリング除去して第1フィルタリング済み信号を取得する。図5Bにおいて、第1フィルタリング済み信号は簡潔に信号A2と呼ばれる。
任意選択で、誤差マイクロホンによって収集された第2信号に含まれる第1オーディオ信号がフィルタリング除去されるとき、まずフィルタリング補償処理が第1オーディオ信号に対して実行され得る。
S503:第1フィルタリング信号及び第1フィルタリング済み信号に対してオーディオミキシング処理を実行して第3オーディオ信号を取得する。図5Bにおいて、第3オーディオ信号は簡潔に信号A3と呼ばれる。換言すれば、信号A3は、信号A1及び信号A2に対してオーディオミキシング処理を実行することによって取得される。
S504:第3オーディオ信号(信号A3)に対して第3フィルタリング処理を実行して第4オーディオ信号を取得する。図5Bにおいて、第4オーディオ信号は簡潔に信号A4と呼ばれる。
S505:第4オーディオ信号及び第1オーディオ信号に対してオーディオミキシング処理を実行し、第2オーディオ信号を取得する。スピーカは、第2オーディオ信号の再生を担う。図5Bにおいて、第2オーディオ信号は簡潔に信号A5と呼ばれる。
ダウンリンクオーディオ信号がないとき、すなわち、端末デバイスが第1オーディオ信号をヘッドセットへ送信しないとき、及び、ヘッドセットがANCモードを使用するとき、スピーカによって出力された信号は、オーディオミキシング処理が実行されない第4オーディオ信号であることに留意されたい。この場合、S502及びS505は実行される必要がない。
図5Bにおいて、例えば、第1フィルタリング処理はFFフィルタリング処理であり、FFフィルタによって実装され、第3フィルタリング処理はFBフィルタリング処理であり、FBフィルタによって実装される。ヘッドセット200における参照マイクロホンは、第1信号を拾い、FFフィルタリング処理のために第1信号をFFフィルタに入力し、信号A1を取得する。誤差マイクロホンは第2信号を拾い、第2信号を減算器に入力する。フィルタリング補償を通じて取得されたダウンリンクオーディオ信号も減算器に入力される。減算器は、フィルタリング補償を通じて取得される、第2信号に含まれるダウンリンクオーディオ信号を除去し、ダウンリンクオーディオ信号の影響を排除し、信号A2を取得する。オーディオミキサは信号A1及び信号A2に対してオーディオミキシング処理を実行して信号A3を取得し、FBフィルタリング処理のために信号A3をFBフィルタに入力して信号A4を取得する。オーディオミキシングが信号A4及びダウンリンクオーディオ信号に対して実行され、信号A5を取得し、信号A5は再生のためにスピーカに入力される。
ANC処理は、FFフィルタリング及びFBシリアル処理の方式で実行され、より良くノイズ除去された信号を取得し、ノイズコントロール効果を強化する。
可能な実装において、ANC処理の処理強度によってANC効果が決定され得る。ANC処理の処理強度は、FFフィルタリングに使用されるFFフィルタリング係数及び/又はFBフィルタリングに使用されるFBフィルタリング係数に依存する。
FFフィルタリング係数については、1つの方式において、ANCモードにおけるデフォルトのFFフィルタリング係数が使用され得る。別の方式において、ANCモードが最後に選択されたときに使用されたFFフィルタリング係数が使用され得る。なお別の方式において、ヘッドセットは、識別された場面に基づいて、ANCモードにおいて使用されるFFフィルタリング係数を決定する。更になお別の方式において、ユーザは、端末デバイスによって提供されるUIコントロールを使用することによって、ヘッドセットに対して、ANCモードにおいて使用されるFFフィルタリング係数を示す。例えば、ユーザは、端末デバイスによって提供されるUIコントロールを使用することによって、ANCモードにおける処理強度を目標処理強度として選択する。異なる処理強度は異なるFFフィルタリング係数に対応する。
FBフィルタリング係数については、1つの方式において、ANCモードにおけるデフォルトのFBフィルタリング係数が使用され得る。別の方式において、ANCモードが最後に選択されたときに使用されたFBフィルタリング係数が使用され得る。なお別の方式において、ヘッドセットは、識別された場面に基づいてFBフィルタリング係数を決定する。更になお別の方式において、ユーザは、端末デバイスによって提供されたUIコントロールを使用することによって、ヘッドセットに対して、ANCモードにおいて使用されるFFフィルタリング係数を示す。例えば、ユーザは、端末デバイスによって提供されるUIコントロールを使用することによって、ANCモードにおける処理強度を目標処理強度として選択する。異なる処理強度は異なるFBフィルタリング係数に対応する。
ANCモードにおいて、FFフィルタリング係数及びFBフィルタリング係数は、前述の提供された方式の任意の組み合わせで取得され得る。例において、FFフィルタリング係数は、ANCモードにおけるデフォルトのフィルタリング係数を使用し、FBフィルタリング係数は、識別された場面に基づいてヘッドセットによって決定される。別の例において、FBフィルタリング係数は、ANCモードにおけるデフォルトのフィルタリング係数を使用し、FFフィルタリング係数は、端末デバイスによって提供されるUIコントロールを使用することによってユーザによって決定される。別の例において、FBフィルタリング係数は、ANCモードにおけるデフォルトのフィルタリング係数を使用し、FFフィルタリング係数は、端末デバイスによって提供されるUIコントロールを使用することによってユーザによってヘッドセットに示される。ANCモードにおける処理強度の決定は、特定の例を使用することによって後に詳細に説明される。ここでは、詳細について改めて説明しない。
第2に、以下では環境音ヒアスルー経路の処理手順を詳細に説明する。
図6A、図6B及び図6Cは、環境音ヒアスルー処理の概略フローチャートである。例えば、端末デバイス100によってヘッドセット200へ送信されたダウンリンクオーディオ信号は、後の説明において第1オーディオ信号と呼ばれる。第1オーディオ信号は、通話信号、音楽信号、又は同様のものであり得る。例えば、参照マイクロホンによって収集された信号は、第1信号と呼ばれ、誤差マイクロホンによって収集された信号は第2信号と呼ばれる。ヘッドセット200における左イヤホン又は右イヤホンは、ユーザの制御の場合において、図6A、図6B又は図6Cにおける処理を実行し得る。
S601:参照マイクロホンによって収集された第1信号に対して第1信号処理を実行して第1処理済み信号を取得する。図6B及び図6Cにおいて、第1処理済み信号は信号B1と呼ばれる。第1信号処理はHTフィルタリングを含む。
S602:第1処理済み信号及び第1オーディオ信号に対してオーディオミキシング処理を実行して第5オーディオ信号を取得する。図6B及び図6Cにおいて、第5オーディオ信号は信号B2と呼ばれる。
換言すれば、オーディオミキシング処理が、信号B1及びダウンリンクオーディオ信号(すなわち第1オーディオ信号)に対して実行され、信号B2を取得する。
S603:第2信号に含まれる第5オーディオ信号をフィルタリング除去して第2フィルタリング済み信号を取得する。図6B及び図6Cにおいて、第2フィルタリング済み信号は信号B3と呼ばれる。換言すれば、第2環境信号に含まれる信号B2はフィルタリング除去され、信号B3を取得する。
任意選択で、第2信号に含まれる第5オーディオ信号がフィルタリング除去される前に、フィルタリング補償処理も第5オーディオ信号に対して実行され得、聴覚感知損失を低減する。
S604:第2フィルタリング済み信号に対してFBフィルタリングを実行して第3フィルタリング済み信号を取得する。図6B及び図6Cにおいて、第3フィルタリング済み信号は信号B4と呼ばれる。換言すれば、FBフィルタリングが信号B3に対して実行され、信号B4を取得する。
S605:第3フィルタリング済み信号及び第5オーディオ信号に対してオーディオミキシング処理を実行し、第2オーディオ信号を取得する。換言すれば、オーディオミキシング処理が信号B4及び信号B2に対して実行され、第2オーディオ信号を取得する。
例において、第1信号処理が、参照マイクロホンによって収集された第1信号に対して実行され、以下の方式で第1処理済み信号を取得し得る。
HTフィルタリング処理が第1信号に対して実行され、第2フィルタリング信号を取得する。図6B及び図6Cにおいて、第2フィルタリング信号は信号B5と呼ばれる。更に、第2信号処理が第2フィルタリング信号に対して実行され、第2の処理済み信号を取得する。第2信号処理はまた、低遅延アルゴリズム処理又はHT強化処理と呼ばれ得る。低遅延アルゴリズム処理は、ブロッキング効果解消処理、バックグラウンドノイズコントロール処理、ウインドノイズコントロール処理、利得調整処理、又は周波数応答調整処理のうちの1又は複数を含む。低遅延アルゴリズム処理は更に、HTフィルタリングを通じて取得された信号に対して実行される。これによりバックグラウンドノイズ及び異音を低減し、ユーザ聴覚感知を改善する。
可能な方式において、図6Bに示されるように、HTフィルタリング処理は、ノイズコントロール処理ユニットによって実装され得る。例えば、ヘッドセットのノイズコントロール処理ユニットはCODECを含む。CODECは、HTフィルタ、FBフィルタ、減算器、第1オーディオミキサ、第2オーディオミキサ及びフィルタリング補償ユニットを含む。図6Bは、ノイズコントロール処理ユニットが更にDSPを含む例を示す。DSPは、低遅延アルゴリズム処理を実行するように構成され得る。ヘッドセット200における参照マイクロホンは第1信号を拾い、HTフィルタリング処理のために第1信号をHTフィルタに入力し、信号B5を取得する。信号B5はDSPに入力される。DSPは信号B5に対して低遅延アルゴリズム処理を実行し、信号B1を取得する。信号B1は第1オーディオミキサに入力される。第1オーディオミキサはダウンリンクオーディオ信号及び信号B1に対してオーディオミキシング処理を実行して信号B2を取得する。フィルタリング補償がフィルタリング補償ユニットによって実行された信号B2が減算器に入力される。減算器は、フィルタリング補償処理が実行された、誤差マイクロホンによって拾われた第2環境信号に含まれる信号B2をフィルタリング除去し、信号B3を取得するように構成される。信号B3はFBフィルタに入力される。FBフィルタは、信号B3に対してFBフィルタリング処理を実行し、信号B4を取得する。信号B4は、第2オーディオミキサに入力される。加えて、第2オーディオミキサへの入力は更に信号B2を含む。第2オーディオミキサは、信号B2及び信号B4に対してオーディオミキシング処理を実行して第2オーディオ信号を取得する。第2オーディオ信号は、再生のためにスピーカに入力される。
別の可能な方式において、図6Cに示されるように、HTフィルタリング処理は、DSPによって実装され得る。DSPはHTフィルタリング処理及び低遅延アルゴリズム処理を実行するように構成され得る。ヘッドセットのノイズコントロール処理ユニットは、FBフィルタ、減算器、第1オーディオミキサ、第2オーディオミキサ及びフィルタリング補償ユニットを含む。ヘッドセットにおける参照マイクロホンは、第1信号を拾い、第1信号をDSPに入力する。DSPは、第1信号に対してHTフィルタリング処理及び低遅延アルゴリズム処理を実行して信号B1を取得する。信号B1は第1オーディオミキサに入力される。第1オーディオミキサはダウンリンクオーディオ信号及び信号B1に対してオーディオミキシング処理を実行して信号B2を取得する。フィルタリング補償がフィルタリング補償ユニットによって実行された信号B2が減算器に入力される。減算器は、誤差マイクロホンによって拾われた第2信号に含まれる信号B2をフィルタリング除去して信号B3を取得するように構成される。信号B3はFBフィルタに入力される。FBフィルタは、信号B3に対してFBフィルタリング処理を実行し、信号B4を取得する。信号B4は、第2オーディオミキサに入力される。加えて、第2オーディオミキサへの入力は更に信号B2を含む。第2オーディオミキサは、信号B2及び信号B4に対してオーディオミキシング処理を実行して第2オーディオ信号を取得する。第2オーディオ信号は、再生のためにスピーカに入力される。
例において、低遅延アルゴリズム処理はブロッキング効果解消処理を含む。ブロッキング効果解消処理方法を紹介する前に、まずブロッキング効果の生成原理を説明する。ヘッドセット装着者の声を感知する手段は2つある。1.信号が骨から骨膜に伝導されて感知される。信号は低周波数信号だけである。2.信号が外部の空気から骨膜に伝搬されて感知される。信号は低周波数信号及び中・高周波信号を含む。低周波数信号及び中・高周波信号が重畳された後に、低周波数信号は大き過ぎ、ヘッドセットが装着されているときに低周波数信号を送信できない。結果として、低周波数信号は耳において無秩序になり、ブロッキング効果を生じさせる。
ブロッキング効果解消処理は、HTフィルタリング処理を通じて取得された信号B5に対して実行される。具体的には、以下の方式が使用され得る。
方式1:図7を参照されたい。
S701:骨伝導信号に一致する第1音声高調波信号を音声高調波セットから決定し、音声高調波セットは複数の音声高調波信号を含む。音声高調波セットに含まれる複数の音声高調波信号は異なる周波数に対応する。具体的には、骨伝導信号の周波数が決定され得、第1音声高調波信号が骨伝導信号の周波数に基づいて音声高調波セットから決定される。音声高調波信号はまた、音声高調波成分と呼ばれ得る。
S702:HTフィルタリング処理から取得された信号B5から第1音声高調波信号を除去する。例えば、HTフィルタリング処理を通じて取得された信号B5における第1音声高調波信号が除去され、信号C1が取得される。一般的に、骨伝導センサによって収集された人声は低周波数高調波成分である。したがって、S702において、低周波数高調波成分は信号B5から除去され、低周波数高調波成分を含まない信号C1が取得される。
S703:第1音声高調波信号が除去された信号B5における高周波数成分を増幅する。換言すれば、信号C1における高周波数成分は増幅される。
骨伝導信号に一致する第1音声高調波信号は音声高調波セットにおいて決定され得る。換言すれば、骨伝導センサは、ヘッドセット装着者が現在音を発している、例えば話している、又は歌っていることを示す骨伝導信号を検出し得る。信号C1に基づいて高周波数成分を増幅することによって取得された信号は、中・高周波数成分だけを含み、その結果、ヘッドセット装着者によって聞かれる信号はブロッキング効果を有しない。
音声高調波セットはヘッドセットに予め記憶され得る。例において、音声高調波セットはオフライン方式で、又はオンライン方式で取得され得る。
音声高調波セットがオフライン方式で取得されるとき、複数人の骨伝導信号が骨伝導センサによって収集され得る。以下の処理が、各人の骨伝導信号について実行される。第1骨伝導信号を例として使用すると、第1骨伝導信号に対してFFTが実行され、周波数領域信号が取得される。周波数領域信号における基本周波数信号が、パイロットを使用することによって基本周波数を検索することによって決定される。骨伝導信号の高調波成分が基本周波数信号に基づいて決定される。この場合、骨伝導信号の周波数と高調波成分との間のマッピング関係が取得され、音声高調波セットが取得される。音声高調波セットは、異なる周波数と異なる高調波成分との間のマッピング関係を含み得る。
音声高調波セットがオンライン方式で取得されるとき、ヘッドセットにおける骨伝導センサによって、指定期間内に第2骨伝導信号が収集され得る。指定期間内に、ヘッドセットは複数人によって使用され得るか、又は、一人すなわちユーザだけによって使用され得る。以下の処理が第2骨伝導信号について実行される。
第2骨伝導信号に対してFFTが実行されて周波数領域信号が取得される。周波数領域信号における基本周波数信号は、パイロットを使用することによって基本周波数を検索することによって決定される。ヘッドセットが指定期間内に複数人によって使用される場合、指定期間内の複数の異なる期間にそれぞれ対応する複数の基本周波数信号が決定され得る。骨伝導信号の複数の高調波成分は複数の基本周波数信号に基づいて決定され得る。この場合、周波数と高調波成分との間のマッピング関係が取得され、音声高調波セットが取得される。音声高調波セットは、異なる周波数と異なる高調波成分との間のマッピング関係を含み得る。
方式2:HTフィルタリング処理を通じて取得された信号B5に対して適応フィルタリング処理が実行され、信号B5から低周波成分を除去して信号C1を取得し、すなわち、信号B5からヘッドセット装着者の音信号を除去し得る。低周波成分が除去された第3フィルタリング信号における高周波数成分が増幅される。換言すれば、信号C1における高周波数成分は増幅される。信号C1に基づいて高周波数成分を増幅することによって取得された信号は、中・高周波数成分だけを含み、その結果、ヘッドセット装着者によって聞かれる信号はブロッキング効果を有しない。
可能な実装において、HT効果はHT処理の処理強度によって決定され得る。HT処理の処理強度は、HTフィルタリングに使用されるHTフィルタリング係数及び/又はFBフィルタリングに使用されるFBフィルタリング係数に依存する。
HTフィルタリング係数については、1つの方式において、HTモードにおけるデフォルトのHTフィルタリング係数が使用され得る。別の方式において、HTモードが最後に選択されたときに使用されたHTフィルタリング係数が使用され得る。なお別の方式において、ヘッドセットは、識別された場面に基づいて、HTモードにおいて使用されるHTフィルタリング係数を決定する。更になお別の方式において、ユーザは、端末デバイスによって提供されたUIコントロールを使用することによって、ヘッドセットに対して、HTモードにおいて使用されるHTフィルタリング係数を示す。例えば、ユーザは端末デバイスによって提供されるUIコントロールを使用することによってHTモードにおける処理強度を目標処理強度として選択する。異なる処理強度は異なるHTフィルタリング係数に対応する。FBフィルタリング係数については、1つの方式において、HTモードにおけるデフォルトのFBフィルタリング係数が使用され得る。別の方式において、HTモードが最後に選択されたときに使用されたFBフィルタリング係数が使用され得る。なお別の方式において、ヘッドセットは、識別された場面に基づいてFBフィルタリング係数を決定する。更になお別の方式において、ユーザは、端末デバイスによって提供されたUIコントロールを使用することによって、ヘッドセットに対して、HTモードにおいて使用されるHTフィルタリング係数を示す。例えば、ユーザは端末デバイスによって提供されるUIコントロールを使用することによってHTモードにおける処理強度を目標処理強度として選択する。異なる処理強度は異なるFBフィルタリング係数に対応する。
HTモードにおいて、HTフィルタリング係数及びFBフィルタリング係数は、前述の提供された方式の任意の組み合わせで取得され得る。
第3に、以下では、聴覚増強経路の処理手順を詳細に説明する。
図8A、図8B及び図8Cは聴覚増強処理の概略フローチャートである。例えば、端末デバイス100によってヘッドセット110へ送信されたダウンリンクオーディオ信号は、後の説明において第1オーディオ信号と呼ばれる。第1オーディオ信号は、通話信号、音楽信号、アラート音、又は同様のものであり得る。例えば、参照マイクロホンによって収集された信号は、第1信号と呼ばれ、誤差マイクロホンによって収集された信号は第2信号と呼ばれる。ヘッドセット200における左イヤホン又は右イヤホンは、ユーザの制御の場合において、図8A、図8B又は図8Cにおける処理を実行し得る。
S801:参照マイクロホンによって収集された第1信号に対してHTフィルタリングを実行して第2フィルタリング信号(信号C1)を取得する。図8B及び図8Cにおいて、第2フィルタリング信号は信号C1と呼ばれる。
S802:第2フィルタリング信号(すなわち信号C1)に対して強化処理を実行してフィルタリング強化信号を取得する。図8B及び図8Cにおいて、フィルタリング強化信号は簡潔に信号C2と呼ばれる。
S803:第1信号に対してFFフィルタリングを実行して第1フィルタリング信号を取得する。図8B及び図8Cにおいて、第1フィルタリング信号は簡潔に信号C3と呼ばれる。
S804:フィルタリング強化信号及び第1オーディオ信号に対してオーディオミキシング処理を実行して第6オーディオ信号を取得する。図8B及び図8Cにおいて、第6オーディオ信号は簡潔に信号C4と呼ばれる。換言すれば、段階S804において、信号C2及びダウンリンクオーディオ信号に対してオーディオミキシング処理が実行され、信号C4が取得される。
S805:第2信号に含まれる第6オーディオ信号をフィルタリング除去して第4フィルタリング済み信号を取得する。図8B及び図8Cにおいて、第4フィルタリング済み信号は簡潔に信号C5と呼ばれる。換言すれば、段階S805において、第2環境信号に含まれる信号C4はフィルタリング除去され、信号C5が取得される。
例において、段階S805が実行されるとき、まずフィルタリング補償処理が信号C4に対して実行されて補償信号が取得され得、次に、第2信号に含まれる補償信号がフィルタリング除去されて信号C5が取得される。
S806:第4フィルタリング済み信号に対してFBフィルタリングを実行して第5フィルタリング済み信号を取得する。
図8B及び図8Cにおいて、第5フィルタリング済み信号は簡潔に信号C6と呼ばれる。換言すれば、段階S806において、FBフィルタリングが信号C5に対して実行されて信号C6が取得される。
S807:第5フィルタリング済み信号、第6オーディオ信号及び第1フィルタリング信号に対してオーディオミキシング処理を実行して第2オーディオ信号を取得する。換言すれば、段階S806において、信号C6、信号C4及び信号C3に対してオーディオミキシング処理が実行され、第2オーディオ信号が取得される。
可能な実装において、強化処理が第2フィルタリング信号(すなわち信号C1)に対して実行され、以下の方式1又は方式2でフィルタリング強化信号(信号C2)が取得され得る。
方式1:図9を参照されたい。
S901:第2フィルタリング信号(すなわち信号C1)に対してブロッキング効果解消処理を実行する。
信号C1に対してブロッキング効果解消処理を実行する方式は、信号B5に対してブロッキング効果解消処理を実行する方式と同一であり得る。詳細については、場面2における方式1及び方式2を参照されたい。ここでは、詳細について改めて説明しない。
次に、ブロッキング効果解消処理を通じて取得された信号に対してノイズコントロール処理が実行される。ノイズコントロール処理は、人口知能AIノイズコントロール処理及び/又はウインドノイズコントロール処理を含む。図9において、例えばノイズコントロール処理はAIノイズコントロール処理及びウインドノイズコントロール処理を含む。
S902:ブロッキング効果解消処理を通じて取得された信号に対してAIノイズコントロール処理を実行する。
S903:AIノイズコントロール処理を通じて取得された信号に対してウインドノイズコントロール処理を実行する。
S904:ウインドノイズコントロール処理を通じて取得された信号に対して利得増幅処理を実行する。
S905:利得増幅処理を通じて取得された信号に対して周波数応答調整を実行してフィルタリング強化信号を取得する。
前述のS904において、ウインドノイズ処理を通じて取得された信号に対して利得増幅処理を実行する実現可能な方式は、ウインドノイズ処理を通じて取得された信号を直接増幅することである。信号を直接増幅する方式において、外部信号が増幅され、装着者の声も増幅される。本願の本実施形態は、外部信号だけが増幅される利得増幅処理方式を提供し、装着者の声信号は増幅されない。例えば、図10に示されるように、ノイズコントロール処理を通じて取得された信号に対して利得増幅処理が実行されるとき、以下の方式が実装のために使用され得る。
装着者の声信号は骨を通じて骨膜に伝導され、声信号は低周波数に集中し、骨伝導信号D1として示される。骨伝導信号D1は骨伝導センサによって収集される。
1.高調波拡張が骨伝導信号D1に対して実行され、高調波拡張信号が取得される。例えば、高調波拡張信号は信号D2と呼ばれる。例えば、高調波拡張は高調波強化方法、又は、骨伝導信号D1の高調波を直接的に上に拡張する方法であり得る。
2.第1利得係数(利得)に基づいて、ノイズコントロール処理を通じて取得された信号に対して増幅処理が実行される。説明を容易にするために、ノイズコントロール処理を通じて取得される信号は信号D3と呼ばれる。第1利得係数に基づいて信号D3に対して増幅処理が実行され、信号D4が取得される。ここで増幅処理は信号の直接増幅であり得る。第1利得係数の値はAH処理の処理強度の値に関連し得る。例えば、第1利得係数とAH処理の処理強度の値との間のマッピング関係はヘッドセットに記憶される。
3.増幅処理を通じて取得された信号に含まれる高調波拡張信号は、第1フィルタリング係数に基づいてフィルタリング除去され、信号D5が取得される。信号D4に含まれる信号D2は、適応フィルタリング方式で、第1フィルタリング係数に基づいてフィルタリング除去される。この場合、信号D5は、装着者の声がフィルタリング除去された信号である。第1フィルタリング係数は第1利得係数に基づいて決定される。第1利得係数(利得)は、適応フィルタリング強度を調整するために使用され、第1フィルタリング係数とも呼ばれ得る。換言すれば、信号が第1利得係数に基づいて増幅されたdB数は、適応フィルタリングを通じてフィルタリングが実行されたdB数と同一であり、その結果、装着者の声信号をバランシングでき、増幅又は低減されない。
方式2:図11を参照されたい。
S1101:第2フィルタリング信号(すなわち信号C1)に対してブロッキング効果解消処理を実行してブロッキング解消済み信号を取得する。
信号C1に対してブロッキング効果解消処理を実行する方式は、信号B5に対してブロッキング効果解消処理を実行する方式と同一であり得る。詳細については、場面2における方式1及び方式2を参照されたい。ここでは、詳細について改めて説明しない。
S1102:ブロッキング解消済み信号に対してオーディオイベント検出を実行して、ブロッキング解消済み信号におけるオーディオイベント信号(簡潔にイベント信号と呼ばれ得る)を取得する。オーディオイベント信号は例えば、駅放送音及び警笛音である。
S1103:ブロッキング解消済み信号におけるオーディオイベント信号に対して利得増幅処理を実行する。
ブロッキング解消済み信号におけるオーディオイベント信号、例えば駅放送音及び警笛音に対して利得増幅処理が実行され、その結果、ヘッドセット装着者は、駅放送音又は警笛音を明確に聞くことができる。
S1104:利得増幅処理を通じて取得された信号に対して周波数応答調整を実行してフィルタリング強化信号を取得する。
方式2において、ブロッキング解消済み信号におけるオーディオイベント信号に対して利得増幅処理を実行する方式は、ノイズコントロール処理を通じて取得された信号に対して利得増幅処理を実行する方式と同一であり得る。ここでは、詳細について改めて説明しない。
可能な方式において、図8Bに示されるように、例えばノイズコントロール処理ユニットはCODEC及びDSPを含む。ヘッドセットのCODECは、HTフィルタ、FBフィルタ、FFフィルタ、減算器、第1オーディオミキサ、第2オーディオミキサ及びフィルタリング補償ユニットを含む。HTフィルタリング処理はCODECによって実行される。DSPは強化処理を実行するように構成され得る。ヘッドセット110における参照マイクロホンは第1信号を拾い、HTフィルタリング処理のために第1信号をHTフィルタに入力し、信号C1を取得する。信号C1はDSPに入力される。DSPは信号C1に対して強化処理を実行して信号C2を取得する。信号C2は第1オーディオミキサに入力される。第1オーディオミキサはダウンリンクオーディオ信号及び信号C2に対してオーディオミキシング処理を実行して信号C4を取得する。フィルタリング補償がフィルタリング補償ユニットによって実行された信号C4が減算器に入力される。減算器は、フィルタリング補償が実行された、誤差マイクロホンによって拾われた第2環境信号に含まれる信号C4をフィルタリング除去し、信号C5を取得するように構成される。信号C5はFBフィルタに入力される。FBフィルタは、信号C5に対してFBフィルタリング処理を実行し、信号C6を取得する。信号C6は、第2オーディオミキサに入力される。加えて、第2オーディオミキサへの入力は更に信号C4及び信号C3を含む。第2オーディオミキサは、信号C3、信号C4及び信号C6に対してオーディオミキシング処理を実行し、第2オーディオ信号を取得する。第2オーディオ信号は、再生のためにスピーカに入力される。
別の可能な方式において、図8Cに示されるように、例えばノイズコントロール処理ユニットはCODEC及びDSPを含む。DSPはHTフィルタリング処理及び強化処理を実行するように構成され得る。ヘッドセットのCODECは、FBフィルタ、FFフィルタ、減算器、第1オーディオミキサ、第2オーディオミキサ及びフィルタリング補償ユニットを含む。ヘッドセット110における参照マイクロホンは、第1信号を拾い、第1信号をDSPに入力する。DSPは第1信号に対してHTフィルタリング処理を実行して信号C1を取得する。DSPは信号C1に対して強化処理を実行して信号C2を取得する。信号C2は第1オーディオミキサに入力される。第1オーディオミキサはダウンリンクオーディオ信号及び信号C2に対してオーディオミキシング処理を実行して信号C4を取得する。フィルタリング補償がフィルタリング補償ユニットによって実行された信号C4が減算器に入力される。減算器は、フィルタリング補償が実行された、誤差マイクロホンによって拾われた第2環境信号に含まれる信号C4をフィルタリング除去し、信号C5を取得するように構成される。信号C5はFBフィルタに入力される。FBフィルタは、信号C5に対してFBフィルタリング処理を実行し、信号C6を取得する。信号C6は、第2オーディオミキサに入力される。加えて、第2オーディオミキサへの入力は更に信号C4及び信号C3を含む。第2オーディオミキサは、信号C3、信号C4及び信号C6に対してオーディオミキシング処理を実行し、第2オーディオ信号を取得する。第2オーディオ信号は、再生のためにスピーカに入力される。
可能な実装において、AH処理の処理強度によってAH効果が決定され得る。AH処理の処理強度は、HTフィルタリング係数、FBフィルタリング係数、又はFFフィルタリング係数のうちの少なくとも1つに依存する。
FFフィルタリング係数については、1つの方式において、AHモードにおけるデフォルトのFFフィルタリング係数が使用され得る。別の方式において、AHモードが最後に選択されたときに使用されたFFフィルタリング係数が使用され得る。なお別の方式において、ヘッドセットは、識別された場面に基づいて、AHモードにおいて使用されるFFフィルタリング係数を決定する。更になお別の方式において、ユーザは、端末デバイスによって提供されるUIコントロールを使用することによって、ヘッドセットに対して、AHモードにおいて使用されるFFフィルタリング係数を示す。例えば、ユーザは、端末デバイスによって提供されるUIコントロールを使用することによって、AHモードにおける処理強度を目標処理強度として選択する。異なる処理強度は異なるFFフィルタリング係数に対応する。HTフィルタリング係数については、1つの方式において、AHモードにおけるデフォルトのHTフィルタリング係数が使用され得る。別の方式において、AHモードが最後に選択されたときに使用されたHTフィルタリング係数が使用され得る。なお別の方式において、ヘッドセットは、識別された場面に基づいて、AHモードにおいて使用されるHTフィルタリング係数を決定する。更になお別の方式において、ユーザは、端末デバイスによって提供されたUIコントロールを使用することによって、ヘッドセットに対して、AHモードにおいて使用されるHTフィルタリング係数を示す。例えば、ユーザは、端末デバイスによって提供されるUIコントロールを使用することによって、AHモードにおける処理強度を目標処理強度として選択する。異なる処理強度は異なるHTフィルタリング係数に対応する。FBフィルタリング係数については、1つの方式において、AHモードにおけるデフォルトのFBフィルタリング係数が使用され得る。別の方式において、AHモードが最後に選択されたときに使用されたFBフィルタリング係数が使用され得る。なお別の方式において、ヘッドセットは、識別された場面に基づいてFBフィルタリング係数を決定する。更になお別の方式において、ユーザは、端末デバイスによって提供されたUIコントロールを使用することによって、ヘッドセットに対して、AHモードにおいて使用されるHTフィルタリング係数を示す。例えば、ユーザは、端末デバイスによって提供されるUIコントロールを使用することによって、AHモードにおける処理強度を目標処理強度として選択する。異なる処理強度は異なるFBフィルタリング係数に対応する。
AHモードにおいて、HTフィルタリング係数、FBフィルタリング係数又はFFフィルタリング係数は、前述の提供された方式の任意の組み合わせで取得され得る。
ヘッドセット200の処理モード(左イヤホン及び右イヤホンを含む)は、端末デバイス100上のUIコントロールを使用することによってユーザによって決定され、ヘッドセットに示され得るか、又は、適応的に識別された場面に基づいて端末デバイスによって決定され、ヘッドセットに示され得るか、又は、適応的に識別された場面に基づいてヘッドセットによって決定され得る。
以下では、ヘッドセットの処理モードを決定する方式の例を説明する。
例1:単一のコントロールが左イヤホン及び右イヤホンを制御する。
端末デバイス100は、ユーザが要件に基づいてヘッドセット200(左イヤホン及び右イヤホンを含む)の処理モードを選択するための制御インタフェースを提供する。処理モードは、ヌルモード、ANCモード、HTモード又はAHモードを含む。ヌルモードにおいて、処理は実行されない。ユーザによって選択される、制御インタフェースにおけるヘッドセットのすべての処理モードはヘッドセットによってサポートされる処理モードであることが理解されるべきである。例1において、左イヤホン及び右イヤホンは同一の処理機能を有し、又は同一の処理モードをサポートする。例えば、左イヤホン及び右イヤホンの両方はAHAをサポートする。例えば、ヘッドセット200に適合されたヘッドセットアプリケーションは端末デバイスにインストールされる。適合プロセスにおいて、ヘッドセットの処理機能を知ることができる。別の例において、ヘッドセット200が端末デバイスとの接続を確立する通信プロセスにおいて、機能パラメータが端末デバイスへ送信され、その結果、端末デバイスは、機能パラメータに基づいてヘッドセットの処理機能を決定できる。
例えば、ユーザはANCモードを選択する。制御インタフェースはユーザインタフェース(user interface, UI)コントロールを含む。UIコントロールは、ユーザがヘッドセット200の処理モードを選択するために使用される。区別を容易にするために、ユーザがヘッドセットの処理モードを選択するために使用されるUIコントロールは選択コントロールと呼ばれる。処理モードは、ANCモード、HTモード又はAHモードのうちの少なくとも2つを含む。端末デバイス100は、選択コントロールを使用することによる、ヘッドセットによってサポートされる処理モードから目標モードを選択するユーザ操作に応答して、制御信号1を左イヤホン及び右イヤホンへ別個に送信する。制御信号1は目標モードを保持する。選択コントロールはまた、目標モードにおける処理強度を選択するために使用され得る。選択コントロールはリング形状、バー形状、又は別の形状であり得る。選択コントロールは、第1コントロール及び第2コントロールを含み得る。第1コントロール上の第2コントロールの任意の2つの異なる位置は、ヘッドセットの異なる処理モードに対応し、又は第1コントロール上の第2コントロールの2つの異なる位置は、ヘッドセットの同一の処理モードにおける異なる処理強度に対応する。ユーザは、ディスプレイの第1コントロール上にある、ユーザ選択を表す第2コントロールの位置を移動することによって、異なる処理モードを選択し、処理強度を制御する。
可能な実装において、ヘッドセットアプリケーション(application, APP)が、左イヤホン及び右イヤホンの処理モードを制御するために使用される。
端末デバイス100は、簡潔にヘッドセットアプリケーションと呼ばれる、ヘッドセットを制御するために使用されるヘッドセット制御アプリケーションを含む。例えば、図12Aに示される端末デバイスのホーム画面を参照されたい。ヘッドセットが端末デバイスに接続された後に、ユーザがデスクトップ上のヘッドセットアプリケーション(application, APP)のアイコン001をタップしたとき、端末デバイスは、アイコン001をタップするユーザ操作に応答してヘッドセットアプリケーションを起動し、ディスプレイ上にヘッドセットアプリケーションの制御インタフェースを表示するか、又は、ヘッドセットアプリケーションが起動されたとき、ヘッドセットアプリケーションの制御インタフェースをポップアップし得る。
例えば、図12Bに示されるように選択コントロールはリング形状である。図12Bにおいて、例えば、左イヤホン及び右イヤホンの両方はANCモード、HTモード及びAHモードをサポートする。図12Bのリング形状の選択コントロールにおける第1コントロールは、ANCモード、HTモード、AHモードに別個に対応する3つの円弧セグメントを含む。第2コントロールがANCモードの円弧セグメント上に位置する場合、ANCモードが使用されると判定される。ANCモードの円弧セグメント上の第2コントロールの異なる位置はANCモードにおける異なる処理強度に対応する。第2コントロールがHTモードの円弧セグメント上に位置する場合、HTモードが使用されると判定される。HTモードの円弧セグメント上の第2コントロールの異なる位置は、HTモードにおける異なる処理強度に対応する。第2コントロールがAHモードの円弧セグメント上に位置する場合、AHモードが使用されると決定される。AHモードの円弧セグメント上の第2コントロールの異なる位置は、AHモードにおける異なる処理強度に対応する。
リング(又は外周)上のハイライトされた黒色の点は、ユーザが処理強度を選択するために使用する第2コントロールを表す。ユーザは、外周上で黒色の点の位置を移動することによって、異なる処理モードを選択し、処理強度を制御し得る。端末デバイス100(例えばプロセッサ)は、制御インタフェースにおけるユーザによって実行される操作1に応答する。例えば、操作1は、ディスプレイの第2コントロール上にある、ユーザ選択を表す第2コントロールの位置をユーザが移動するときに生成される。端末デバイス100は、制御命令1を左イヤホン及び右イヤホンへ別個に送信する。制御命令1は、目標モード及び目標処理強度を示す。図12Bにおいて、目標モードはANCモードである。
例において、制御命令1は、ANC識別子及びANC処理の目標処理強度を示すパラメータ値を含み得る。ANCモードにおいて、異なる処理強度(すなわち、処理強度の異なる値)は、異なるFBフィルタリング係数及び/又はFFフィルタリング係数に対応する。
別の例において、制御命令1はラジアンを含む。対応する処理モードは、ラジアンの範囲に基づいて決定され得る。異なるラジアン値は処理モードにおける処理強度に対応する。図12Bに示されるように、(0,180]に対応する処理モードはANCモードであり、(180,270]に対応する処理モードはHTモードであり、(270,360]に対応する処理モードはAHモードである。左イヤホン及び右イヤホンは、ラジアン範囲と処理モードとの間のマッピング関係、及び、ラジアン値とフィルタリング係数との間のマッピング関係を含み得る。ANCモードの例において、異なるラジアン値は異なるFBフィルタリング係数及びFFフィルタリング係数に対応する。
図12Bは例として使用される。ユーザは、ディスクにおける黒色の点をタッチアンドホールドして、黒色の点を時計回りに0度から360度回転させ得る。0度に対応するFFフィルタリング係数及びFBフィルタリング係数に基づいて、ANC効果がもっとも強い。換言すれば、現在のユーザ環境における音及びユーザの外耳道における環境音のユーザ感知が弱められる。回転後、FFフィルタリング係数及びFBフィルタリング係数が変化する。結果として、アクティブノイズコントロール効果は徐々に弱められる。180度において、アクティブノイズコントロール効果がもっとも弱い。これは、ヘッドセットが装着された後にノイズコントロールが実行されないことと同様である。180度から270度において、環境音ヒアスルーが制御される。ユーザはディスクにおける黒色の点をタッチアンドホールドし、時計回りに180度から270度回転させる。180度に対応するHTフィルタリング係数及びFBフィルタリング係数に基づいて、環境音ヒアスルー効果がもっとも弱い。換言すれば、現在のユーザ環境における音のユーザ感知が弱められる。これは、ヘッドセットが装着された後にヌルモードが使用されることと同様である。時計回り回転の後に、HTフィルタリング係数及びFBフィルタリング係数が変化し、その結果、環境音ヒアスルー効果が改善される。聴覚増強は、270度から360度までで制御される。ユーザはディスクにおける黒色の点をタッチアンドホールドする。180度に対応するFFフィルタリング係数、HTフィルタリング係数、及びFBフィルタリング係数に基づいて、聴覚増強効果がもっとも弱い。換言すれば、現在のユーザ環境における環境音に含まれるイベント音のユーザ感知が弱められる。時計回り回転の後に、FFフィルタリング係数、HTフィルタリング係数及びFBフィルタリング係数が変化する。これにより聴覚増強効果を改善する。換言すれば、ユーザが聞くことを期待するイベント信号がより強くなる。これにより聞くことを促進する。
例えば、端末デバイス100はブルートゥース(登録商標)を使用することによって左イヤホン及び右イヤホンに接続される。
例えば、ANCモードが選択される。図12Cに示されるように、端末デバイス100は、ユーザの操作1に応答して、ブルートゥース(登録商標)を使用することによって、左イヤホン及び右イヤホンへ制御命令1を別個に送信する。制御命令1は、目標処理強度のANC識別子及びパラメータ値を含み得る。左イヤホン及び右イヤホンは、制御命令1を受信した後に同様の操作を実行する。左イヤホンの処理は後の説明において例として使用される。制御命令1を受信した後に、左イヤホンの主制御部は、ANC識別子及び目標処理強度に基づいて、係数バンクからANC処理のFFフィルタリング係数及びFBフィルタリング係数を取得する。
例えば、係数バンクは、表1に示されるマッピング関係を含む。表1は単に例であり、マッピング関係に対する特定の限定を構成する。例えば、目標処理強度のパラメータ値は強度1である。左イヤホンの主制御部は、表1に従って強度1に対応するFFフィルタリング係数FF1及びFBフィルタリング係数FB1を取得する。主制御部はFFフィルタを制御して、係数FF1に基づいて、参照マイクロホンによって収集された第1信号に対してFFフィルタリング処理を実行し、信号A1を取得する。主制御部はFBフィルタを制御して、係数FB1に基づいて、信号A3に対してFBフィルタリング処理を実行し、第2オーディオ信号を取得する。具体的には、主制御部は、係数FF1及び係数FB1をAHAカーネルに書き込み、その結果、AHAカーネルは、段階S501~S504を実行して第2オーディオ信号を取得する。
表1
例えば、HTモードが選択される。図12Dに示されるように、端末デバイス100は、ユーザの操作1に応答して、ブルートゥース(登録商標)を使用することによって、左イヤホン及び右イヤホンへ制御命令1を別個に送信する。制御命令1はHT識別子及び目標処理強度を含み得る。目標処理強度は、HT処理の処理強度を示す。左イヤホン及び右イヤホンは、制御命令1を受信した後に同様の操作を実行する。左イヤホンの処理は後の説明において例として使用される。制御命令1を受信した後に、左イヤホンの主制御部は、HT識別子及び目標処理強度に基づいて、HT処理のHTフィルタリング係数及び/又はFBフィルタリング係数を係数バンクから取得する。
表1は例として使用され、目標処理強度の値は強度5である。左イヤホンの主制御部は、表1に従って、強度5に対応するHTフィルタリング係数HT1及びFBフィルタリング係数FB5を取得する。主制御部は、HTフィルタを制御して、係数HT1に基づいて、参照マイクロホンによって収集された第1信号に対してHTフィルタリング処理を実行する。主制御部はFBフィルタを制御して、係数FB5に基づいて信号B3に対してFBフィルタリング処理を実行する。具体的には、主制御部は、係数HT1及び係数FB5をAHAカーネルに書き込み、その結果、AHAカーネルは段階S601~S605を実行して第2オーディオ信号を取得する。
例えばAHモードが選択される。図12Eに示されるように、端末デバイス100は、ユーザの操作1に応答して、ブルートゥース(登録商標)を使用することによって、左イヤホン及び右イヤホンへ制御命令1を別個に送信する。制御命令1は、目標処理強度のAH識別子及びパラメータ値を含み得る。左イヤホン及び右イヤホンは、制御命令1を受信した後に同様の操作を実行する。左イヤホンの処理は後の説明において例として使用される。制御命令1を受信した後に、左イヤホンの主制御部は、HT識別子及び目標処理強度に基づいて、AH処理のHTフィルタリング係数、FFフィルタリング係数、及びFBフィルタリング係数を係数バンクから取得する。
表1は、例として用いられている。目標処理強度の値はインジケーション7である。左イヤホンの主制御部は、表1に従って、インジケーション7に対応するHTフィルタリング係数HT3、FBフィルタリング係数FB7、及びFFフィルタリング係数FF5を取得する。主制御部は、HTフィルタを制御して、係数HT3に基づいて、参照マイクロホンによって収集された第1信号に対してHTフィルタリング処理を実行する。主制御部はFBフィルタを制御して、係数FB7に基づいて信号C5に対してFBフィルタリング処理を実行する。主制御部は、FFフィルタを制御して、係数FF5に基づいて第1信号に対してFFフィルタリング処理を実行する。具体的には、主制御部は係数HT3、係数FB7及び係数FF5をAHAカーネルに書き込み、その結果、AHAカーネルは、段階S801~S807を実行して第2オーディオ信号を取得する。
例えば、図12Fに示されるように、選択コントロールはバー形状であり得る。選択コントロールは、第1コントロール及び第2コントロールを含む。第1コントロールのバーは、ヘッドセットによってサポートされる処理モードの数に基づいて複数のバーセグメントに分割され得る。第1コントロールの異なるバーセグメント上の第2コントロールは異なる処理モードを示す。第1コントロールの同一のバーセグメント上の第2コントロールの異なる位置は同一の処理モードにおける異なる処理強度を示す。図12Fにおいて、例えば、左イヤホン及び右イヤホンの両方はAHAをサポートする。第1コントロールのバーは3つのバーセグメントを含む。
図12Fは例として使用される。ユーザは黒色のバーをタッチアンドホールドして、黒色のバーを左又は右へスライドし得る。位置K1に位置する黒色のバーに対応するFFフィルタリング係数及びFBフィルタリング係数に基づいて、ANC効果がもっとも強い。黒色のバーが右へスライドするとき、FFフィルタリング係数及びFBフィルタリング係数は変化し、その結果、アクティブノイズコントロール効果は徐々に減少する。位置K2において、アクティブノイズコントロール効果はもっとも弱い。これは、ヘッドセットが装着された後にノイズコントロール処理が実行されないことと同様である。位置K2と位置K3との間の領域において、環境音ヒアスルーが制御される。ユーザが黒色のバーをタッチアンドホールドし、黒色のバーを位置K2から位置K3に移動する。位置K2における黒色のバーに対応するHTフィルタリング係数及びFBフィルタリング係数に基づいて、環境音ヒアスルー効果がもっとも弱い。黒色のバーが位置K3に移動されるとき、HTフィルタリング係数及びFBフィルタリング係数は変化し、その結果、環境音ヒアスルー効果が改善される。聴覚増強は位置K3から位置K4まで制御される。ユーザは黒色のバーをタッチアンドホールドし、黒色のバーを位置K3から位置K4に移動する。位置K3における黒色のバーに対応するFFフィルタリング係数、HTフィルタリング係数及びFBフィルタリング係数に基づいて、聴覚増強効果はもっとも弱い。黒色のバーが位置K3から位置K4に移動されるとき、FFフィルタリング係数、HTフィルタリング係数及びFBフィルタリング係数は変化し、その結果、聴覚増強効果が改善される。換言すれば、ユーザが聞くことを期待する声信号はより強くなる。これにより聞くことを促進する。
例えば、図12Gに示されるように、(a)における選択コントロールは、ANCボタン、HTボタン及びAHボタンを含む、異なる処理モードに対応するボタンを含む。ANCモードは例として使用される。端末デバイス100は、ANCボタンをタップするユーザ操作に応答して、図12Gの(b)における表示インタフェースを表示する。(b)における表示インタフェースは、処理強度を選択するために使用されるコントロール002を含む。ユーザは黒色のバーをタッチアンドホールドして、黒色のバーを上下にスライドし、ANC処理の処理強度を決定する、すなわち、対応するFFフィルタリング係数及び対応するFBフィルタリング係数を選択し得る。黒色のバーは領域L1-L2においてスライドする。位置L1に位置する黒色のバーに対応するFFフィルタリング係数及びFBフィルタリング係数に基づいて、ANC効果がもっとも強い。黒色のバーが下へスライドするとき、FFフィルタリング係数及びFBフィルタリング係数は変化し、その結果、アクティブノイズコントロール効果は徐々に減少する。位置L2において、アクティブノイズコントロール効果がもっとも弱い。これは、ヘッドセットが装着された後にノイズコントロール処理が実行されないことと同様である。
別の可能な実装において、ヘッドセット200が端末デバイスとの接続を確立したとき、ヘッドセットAPPがトリガされ得、選択コントロールを含む制御インタフェース、例えば、図12A、図12B、図12F又は図12Gに示される制御インタフェースが表示される。
例えば、端末デバイスによって表示されるインタフェースはインタフェース1である。ヘッドセット200が端末デバイスとの接続を確立することを端末デバイスが識別したとき、インタフェース1は制御インタフェースに切り替えられる。
なお別の可能な実装において、ヘッドセットが端末デバイスとの接続を確立した後に、オーディオを再生するようヘッドセットをトリガするとき、端末デバイスはヘッドセットAPPをトリガし、選択コントロール、例えば、図12A、図12B、図12C又は図12Dに示される表示インタフェースを含む制御インタフェースを表示し得る。例えば、オーディオを再生するようヘッドセットをトリガするとき、端末デバイスは、ヘッドセットとの接続を確立した後に曲を再生し得、選択コントロールを含む制御インタフェースを表示し得る。別の例として、ヘッドセットとの接続を確立した後に、端末デバイスは映像を再生し、選択コントロールを含む制御インタフェースを表示し得る。
なお別の可能な実装において、ヘッドセットが端末デバイスとの接続を確立した後に、端末デバイスがヘッドセットを使用することによってオーディオを再生するとき、現在の外部環境の識別された場面タイプは目標場面であり、目標場面は、第1目標イヤホンの処理モードが調整される必要がある場面タイプに適合し、プロンプト情報が表示され得る。プロンプト情報は、ヘッドセットの処理モードを調整するかどうかをユーザにプロンプトするために使用される。図12Hに示されるように、例えば、プロンプト情報はプロンプトボックスである。ヘッドセットの処理モードを調整することを選択するユーザ操作に応答して、選択コントロールを含む制御インタフェース、例えば、図12A、図12B、図12C又は図12Dに示される制御インタフェースが表示され得る。図12Eは、図12Aに示される制御インタフェースの例を示す。
例えば、端末デバイスは、現在のユーザの場面を騒々しい場面として識別する。この場面において、ユーザは、処理モードを有効化して、ヘッドセットの処理モードを調整するかどうかをユーザにプロンプトするための選択プロンプト情報(例えばプロンプトボックス)を表示する必要があり得る。例えば、端末デバイスは外部環境の場面タイプを騒々しい場面として識別する。この場面において、ユーザは、処理モードを有効化して、ヘッドセットの処理モードを調整するかどうかをユーザにプロンプトするためのプロンプトボックスを表示する必要があり得る。
例において、プロンプトボックスの表示がトリガされる場面タイプは、騒々しい場面、ターミナルビルの場面、鉄道駅の場面、バス停留所の場面及び道路の場面を含み得る。
例えば、信号強度が設定された閾値に到達したとき、場面は騒々しい場面として決定される。別の例として、空港の放送の特定の音が識別されたとき、場面はターミナルビルの場面として決定される。なお別の例として、電車の時間通知の音が識別されたとき、場面は鉄道駅の場面として決定される。なお別の例として、バスチケット放送が識別されたとき、場面はバス停留所の場面として決定される。なお別の例として、信号灯のティック音、又は、自動車のクラクションが識別されたとき、場面は道路の場面として決定される。
なお別の可能な場面において、ヘッドセットが端末デバイスとの接続を確立した後に、端末デバイスがヘッドセットを使用してオーディオを再生するとき、端末デバイスは、識別された現在のユーザの場面に基づいて選択コントロールを含む制御インタフェースを表示する。
例2:2つのコントロールが左イヤホン及び右イヤホンを制御する。
端末デバイス100は、ユーザが要件に基づいて左イヤホンの処理モード及び右イヤホンの処理モードを別個に選択するための制御インタフェースを提供する。左イヤホン及び右イヤホンの処理モードは異なり得る。例えば、左イヤホンはANCモードを選択し右イヤホンはHTモードを選択する。制御インタフェースは、左イヤホン選択コントロール及び右イヤホン選択コントロールを含む。区別を容易にするために、左イヤホン選択コントロールは第1選択コントロールと呼ばれ、右イヤホン選択コントロールは第2選択コントロールと呼ばれる。第1選択コントロールは、ユーザが左イヤホンの処理モードを選択するために使用され、第2選択コントロールは、右イヤホンの処理モードをユーザが選択するために使用される。第1選択コントロール及び第2選択コントロールはリング形状、バー形状又は別の形状であり得る。第1選択コントロール及び第2選択コントロールは同一の形態であり得るか、又は異なる形態であり得る。ユーザは異なる処理モードを選択し、ディスプレイ上にある、ユーザ選択を表すコントロールの位置を移動することによって処理強度をコントロールする。左イヤホン及び右イヤホンによって使用されたコントロールの形状については、例1における説明を参照されたい。ここでは、詳細について改めて説明しない。
左イヤホン及び右イヤホンの両方がリング形状の選択コントロールを使用する例が説明のために使用される。図13に示されるように、第1選択コントロール及び第2選択コントロールの両方は第1コントロール及び第2コントロールを含む。第1コントロール上の第2コントロールの2つの異なる位置は異なる処理モードに対応し、又は、第1コントロール上の第2コントロールの2つの異なる位置は同一の処理モードにおける異なる処理強度に対応する。図13に示される制御インタフェースが例として使用される。ユーザは、第1コントロールの外周上で左イヤホンの第1選択コントロールの第2コントロール(黒色の点)の位置を移動することによって、左イヤホンによって実装される異なる処理モードを選択し、処理強度を制御し得る。ユーザは、第1コントロール上で右イヤホンの第2選択コントロールの第2コントロールの位置を移動することによって、右イヤホンによって実装される異なる処理モードを選択し、処理強度を制御し得る。例2において、ユーザは、左イヤホン及び右イヤホンについて、異なる処理モード、又は、同一の処理モードにおいて同一の処理強度、又は、同一の処理モードにおいて異なる処理強度を選択し、耳の差異を整合させ、又は、異なる用途の要件を満たし得る。
例2において、第1選択コントロール及び第2選択コントロールを含む制御インタフェースの表示をトリガする方式については、例1の説明を参照されたい。ここでは、詳細について改めて説明しない。
例3:端末デバイスがスマート場面検出を実行する。
端末デバイスは現在のユーザの場面を識別する。ヘッドセットは異なる場面において異なる処理モードを使用する。現在の外部環境の場面タイプを第1場面として識別するとき、端末デバイスは、ヘッドセットの処理モードにおける第1場面に対応する目標モードを決定し、左イヤホン及び右イヤホンへ制御信号2を別個に送信する。制御信号2は目標モードを示す。異なる目標モードは異なる場面タイプに対応する。
本願の本実施形態において、端末デバイスは、識別された場面に基づいて、ヘッドセットによって実行される機能を決定する。AHA機能は場面タイプに対応する。もっとも適切な機能が場面タイプについて選択される。このようにして、ユーザは所望の効果を自動的に体験する。
例において、場面タイプは、歩く場面、走る場面、静かな場面、複数人が話す場面、カフェの場面、地下鉄の場面、電車の場面、自動車の場面、待合室の場面、対話の場面、オフィスの場面、屋外の場面、運転の場面、強風の場面、飛行機の場面、アラーム音の場面、警笛音の場面、及び泣き声の場面を含み得る。
端末デバイスは、スマート場面検出を実行するとき、人口知能(artificial intelligence, AI)モデルを使用することによって検出分類を実行し得る。AIモデルはオフライン方式で構築され、端末デバイスに記憶され得る。例えば、端末デバイス上のマイクロホンは、異なる場面における大量のノイズ及びセンサ(sensor)データ及び/又は映像処理ユニット(video processing unit, VPU)データを記録し、データに対応する場面をマニュアルでマークする。第2に、AIモデルは初期化を通じて構築される。モデルは、畳み込みニューラルネットワーク(convolutional neural network, CNN)、ディープニューラルネットワーク(deep neural network, DNN)又は長・短期記憶(long short-term memory, LSTM)ネットワークの1つであり得るか、又は、異なるモデルの組み合わせであり得る。次に、マークされたデータを使用することによってモデル訓練が実行され、対応するAIモデルが取得される。使用において、リアルタイムに収集された外部環境の音信号が計算のためにAIモデルに入力され、分類結果が取得される。
例において、異なる場面タイプに適用可能な処理モードとして、歩く場面(HT)、走る場面(HT)、静かな場面(HT)、複数人が話す場面(ANC)、カフェの場面(ANC)、地下鉄の場面(AH)、電車の場面(ANC)、待合室の場面(AH)、対話の場面(AH)、オフィスの場面(ANC)、屋外の場面(ANC)、運転の場面(ANC)、強風の場面(ANC)、飛行機の場面(ANC)、アラーム音の場面(AH)、警笛音の場面(AH)及び泣き声の場面(AH)が挙げられる。括弧は、場面タイプに対応する処理モードを示す。例えば、飛行機の場面において、飛行機が飛行しているときはノイズが大きく、ANCモードが適切である。別の例として、歩く場面、走る場面及び静かな場面において、HTモードが適切であり、バーストイベント音が聞かれ得る。別の例として、カフェの場面において、ユーザが静寂を必要とする場合、ANCモードが使用され得る。別の例として、軽音楽の場面において、HTモードが使用され得る。別の例として、アラーム音の場面(AH)、警笛音の場面(AH)及び泣き声の場面(AH)において、予め設定された音が聞かれる必要があり、AHモードが適切である。
例において、飛行機の場面において、現在の外部環境の場面タイプを飛行機の場面として識別するとき、端末デバイス100は制御信号2をヘッドセットへ送信し得る。制御信号2は、ヘッドセットがANC機能を実行する必要があると示し、ANCモードを使用するようヘッドセットに示す。制御信号2を受信した後に、左イヤホン及び右イヤホンは、S501からS504の処理を別個に実行する。
例において、歩く場面において、現在の外部環境の場面タイプを歩く場面として識別するとき、端末デバイス100は制御信号2をヘッドセットへ送信し得る。制御信号2は、ヘッドセットがHT機能を実行する必要があると示し、HTモードを使用するようヘッドセットに示す。制御信号2を受信した後に、左イヤホン及び右イヤホンは、S601からS605の処理を別個に実行する。
別の例において、アラーム音の場面において、現在の外部環境の場面タイプを鉄道駅の場面として識別するとき、端末デバイス100は、制御信号2をヘッドセットへ送信し得る。制御信号2は、ヘッドセットがAH機能を実行する必要があると示し、AHモードを使用するようヘッドセットに示す。制御信号2を受信した後に、左イヤホン及び右イヤホンは、S801からS807の処理を別個に実行する。
可能な実装において、ヘッドセットが端末デバイスとの接続を確立した後に、端末デバイスは場面検出を開始する。検出を完了した後に、端末デバイスは更に、検出結果をユーザに表示し得、その結果、ユーザはヘッドセットの処理モードを知る。例えば、検出結果は、プロンプトボックスの形式でユーザに表示される。検出結果は、検出された場面を含み得、検出された場面に対応する処理モードを更に含み得る。例えば、場面を第1場面として識別するとき、端末デバイスは、ヘッドセットの処理モードにおいて第1場面に対応する目標モードを決定し、検出結果、すなわち、第1場面及び目標モードをユーザに表示し、次に、制御信号2を左イヤホン及び右イヤホンへ別個に送信し得る。制御信号2は目標モードを示す。
別の可能な実装において、スマート場面検出を有効化する機能が端末デバイス上で構成される。スマート場面検出機能を有効化するユーザ操作に応答して、端末デバイスは場面検出をトリガする。場面を第1場面として識別するとき、端末デバイスは、ヘッドセットの処理モードにおける第1場面に対応する目標モードを決定し、制御信号2を左イヤホン及び右イヤホンへ別個に送信する。制御信号2は目標モードを示す。
検出を完了した後に、端末デバイスは更に、検出結果をユーザに表示し得、その結果、ユーザはヘッドセットの処理モードを知る。検出結果は、検出された場面を含み得、検出された場面に対応する処理モードを更に含み得る。例えば、場面を第1場面として識別するとき、端末デバイスは、ヘッドセットの処理モードにおいて第1場面に対応する目標モードを決定し、検出結果、すなわち、第1場面及び目標モードをユーザに表示し、次に、制御信号2を左イヤホン及び右イヤホンへ別個に送信し得る。制御信号2は目標モードを示す。任意選択で、検出結果がユーザに表示された後に、目標モードを決定するユーザ操作に応答して、制御信号2は左イヤホン及び右イヤホンへ送信される。
例えば、端末デバイスによって構成され、スマート場面検出を有効化するために使用される機能は、ヘッドセットアプリケーションの制御インタフェースにおいて構成され得るか、又は、端末デバイスのシステム設定メニューバー上で構成され得る。例えば、機能は、ヘッドセットアプリケーションお制御インタフェースにおいて構成される。端末デバイスは、場面を識別することによってヘッドセットの処理モードを制御し得る。端末デバイスは代替的に、制御インタフェースの選択コントロール上のユーザ操作を識別することによって、ヘッドセットの処理モードを制御し得る。端末デバイスは要件に基づいて、スマート場面検出機能を有効化するかどうかを決定し得る。スマート場面検出機能が有効化されないとき、ヘッドセットの処理モードは、例1を使用することによってマニュアルで選択され得る。スマート場面検出機能が有効化されるとき、端末デバイス100は現在のユーザの場面を識別する。スマート場面検出機能が有効化された後に、ユーザは、処理モード手動選択インタフェースを別のインタフェースに更新し得るか、又は、処理モード手動選択インタフェースに基づいて検出結果を表示し得る。
例えば、ユーザがスマート場面検出機能を有効化する前に、端末デバイス上でユーザによって選択された処理機能はHT機能である。スマート場面検出機能が有効化された後に、端末デバイスは、現在のユーザの場面を飛行機の場面として識別し、ANC機能は使用に適用可能である。例において、ユーザはヘッドセットアプリケーションを起動し、ヘッドセットアプリケーションの制御インタフェースはディスプレイ上に表示される。リング形状が例として使用される。ユーザによって選択された処理機能は、図14Aの(a)に示されるようにHT機能である。制御インタフェースは、スマート場面検出機能を有効化又は無効化するための任意選択のコントロールを含む。ユーザが任意選択のコントロールをトリガしてスマート場面検出機能を有効化した後に、ユーザはスマート場面検出機能をトリガし、場面検出を実行して検出結果を取得し、ユーザ選択を表す処理機能コントロールの位置を、ANC機能に属する領域に変更する。ディスク上の黒色の点の位置は、ANC機能のデフォルト値、又は、ANC機能が最後に選択されたときにユーザによって選択された処理強度の位置であり得る。図14Aの(b)を参照されたい。図14Aの(b)において、例えば、飛行機の場面が検出される。端末デバイス100は制御信号2を左イヤホン及び右イヤホンへ別個に送信し、制御信号2はANC機能を示す。別の例において、ユーザはヘッドセットアプリケーションを起動し、ヘッドセットアプリケーションの制御インタフェースはディスプレイ上に表示される。リング形状は例として使用される。ユーザによって選択された処理機能は、図14Bの(a)に示されるようにHT機能である。制御インタフェースは、スマート場面検出機能を有効化又は無効化するための任意選択のコントロールを含む。ユーザが任意選択のコントロールをトリガしてスマート場面検出機能を有効化した後に、ユーザはスマート場面検出機能をトリガし、場面検出を実行して検出結果を取得し、検出結果インタフェースにおいて検出結果を表示する。検出インタフェースは更に、端末デバイスによって識別されることができる場面、及び、場面に対応する処理機能を含み得る。例えば、図14Bの(b)に示されるように、検出結果は飛行機の場面であり、対応する処理機能はANC機能である。端末デバイス100は制御信号2を左イヤホン及び右イヤホンへ別個に送信し、制御信号2はANC機能を示す。
端末デバイスのスマート場面検出方式において、目標モードにおける目標処理強度は、以下の方式のいずれか1つで決定され得る。
方式1:ヘッドセットは目標モードにおけるデフォルトの目標処理強度を使用する。
端末デバイスが制御信号2を左イヤホン及び右イヤホンへ別個に送信した後に、左イヤホンは例として使用される。制御信号2を受信した後に、左イヤホンは処理モードを目標モードとして決定し、制御信号2は目標処理強度を示さず、ヘッドセットはデフォルトの目標処理強度を使用することを決定する。例えば、目標モードはANCモードである。制御信号2を受信した後に、左イヤホンは、ANCモードを使用することを決定し、左イヤホンからANCモードにおけるデフォルトのFFフィルタリング係数及びデフォルトのFBフィルタリング係数を取得する。
方式2:目標モードが最後に使用されたときに使用された処理強度が目標処理強度として使用される。
例において、端末デバイスは目標処理強度を決定し、制御信号を使用することによって目標処理強度を左イヤホン及び右イヤホンに示す。場面検出を実行し、検出された場面に基づいて目標モードを決定した後に、端末デバイスは、目標モードが最後に使用されたときに使用された処理強度を目標処理強度として取得し、制御信号2を左イヤホン及び右イヤホンへ別個に送信し、ここで、制御信号2は、目標モード及び目標処理強度を示す。
別の例において、ヘッドセットは目標モードにおける処理強度を決定する。場面検出を実行した後に、端末デバイスは、検出された場面に基づいて目標モードを決定し、制御信号2を左イヤホン及び右イヤホンへ別個に送信し、制御信号2は目標モードを示す。制御信号2を受信した後に、左イヤホン及び右イヤホンは処理モードを目標モードとして決定し、目標モードが最後に使用されたときに使用された記憶済み処理強度を目標処理強度として取得する。例えば、目標モードはANCモードであり、ANCモードが最後に使用されたときに記憶されたFFフィルタリング係数及びFBフィルタリング係数が取得され、ANC処理が実行される。
方式3:端末デバイスは識別された場面に基づいて目標処理強度を決定する。
スマート場面検出を有効化するための機能が端末デバイス上で構成されないとき、場面を識別した後に、端末デバイスは識別された場面に基づいて目標処理強度を決定し得る。
例において、処理モードは、異なる場面が同一であると決定し、異なる場面は異なる処理強度に対応する。例えば、HTモードは歩く場面、走る場面及び静かな場面に適用可能である。HTモードが使用されるとき、歩く場面、走る場面及び静かな場面は異なる処理強度に別個に対応する。別の例として、ANCモードは複数人が話す場面、カフェの場面、電車の場面、飛行機の場面、強風の場面、及びオフィスの場面に適用可能である。ANCモード、複数人が話す場面、カフェの場面、電車の場面、飛行機の場面、強風の場面、及びオフィスの場面は、異なる処理強度に別個に対応する。別の例として、AHモードは対話の場面、アラーム音の場面、警笛音の場面、及び泣き声の場面に適用可能である。AHモードが使用されるとき、対話の場面、アラーム音の場面、警笛音の場面、及び泣き声の場面は異なる処理強度に別個に対応する。
これに基づいて、端末デバイスは、記憶された場面タイプ間の対応関係、目標モード、及び処理強度に基づいて、制御信号2を左イヤホン及び右イヤホンへ送信し、制御信号2は、目標モード及び目標モードにおける目標処理強度を示す。このようにして、制御信号2を受信した後に、ヘッドセットは、制御信号2に基づいて、目標モードを使用することを決定し、目標処理強度に対応するフィルタリング係数を決定する。例えば、目標モードはAHモードである。FFフィルタリング係数、FBフィルタリング係数、及びHTフィルタリング係数は、目標処理強度に基づいて決定され、S801からS807は、FFフィルタリング係数、FBフィルタリング係数、及びHTフィルタリング係数に基づいて実行される。
方式4:ユーザは、端末デバイスによって提供されるUIコントロールを使用することによって、ヘッドセットに対して、目標モードにおいて使用される処理強度を示す。
例において、端末デバイスが場面検出を実行した後に、検出結果は端末デバイスの表示インタフェースに表示される。検出結果は、検出された場面、及び、検出された場面に対応する目標モードを含む。表示インタフェースは、処理強度を選択するために使用されるコントロールを含み得る。説明を容易にするために、処理強度を選択するために使用されるコントロールは、強度コントロールと呼ばれる。強度コントロールはコントロール1及びコントロール2を含み得る。コントロール1の異なる位置は、目標モードにおける異なる処理強度を示す。強度コントロールはリング形状、バー形状、又は別の形状であり得る。図14Cに示されるように、検出された場面はターミナルビルの場面である。例えば、強度コントロールにおけるコントロール1はリングであり、コントロール2は円状の黒色の点である。ユーザはコントロール2をタッチアンドホールドして、コントロール1上で位置1に移動させる。位置1は、目標モードにおいてユーザによって選択された目標処理強度を示す。次に、制御命令2は、左イヤホン及び右イヤホンへ送信される。制御命令2は、位置1に対応する目標モード及び目標処理強度を示す。
任意選択で、目標モード及び目標処理強度は、異なる制御命令を使用することによって左イヤホン及び右イヤホンへ送信され得る。検出された場面に基づいて目標モードを決定した後に、端末デバイスは、目標モードを示す制御信号を左イヤホン及び右イヤホンへ送信する。目標モードを示す制御信号を受信した後に、左イヤホン及び右イヤホンは、目標モードにおけるデフォルトの処理強度を使用し、すなわち、目標モードにおけるデフォルトのフィルタリング係数を使用して、目標モードに対応する目標処理を実装する。ユーザがコントロール2をタッチアンドホールドしてコントロール1上で位置1に移動するとき、目標処理強度を示す制御信号は左イヤホン及び右イヤホンへ送信される。更に、左イヤホン及び右イヤホンは、目標処理強度に対応するフィルタリング係数に基づいて、目標モードに対応する目標処理を実行する。
別の例において、なお図14Aを参照されたい。ユーザが任意選択のコントロールをトリガしてスマート場面検出機能を有効化した後に、ユーザはスマート場面検出機能をトリガし、場面検出を実行して検出結果を取得し、ユーザ選択を表す処理機能コントロールの位置を、ANC機能に属する領域に変更する。ディスク上の黒色の点の位置は、ANC機能のデフォルト値、又は、ANC機能が最後に選択されたときにユーザによって選択された処理強度の位置であり得る。ユーザは黒色の点を移動することによってANCモードにおける処理強度を選択する。加えて、制御信号2は左イヤホン及び右イヤホンへ送信される。制御信号2はANCモード及び目標処理強度を示す。
例4:ヘッドセット場面検出。異なる場面は異なる処理機能に対応する。
ヘッドセットは場面検出機能を有する。ヘッドセットは現在のユーザの場面を識別する。ヘッドセットの処理機能は異なる検出された場面タイプにおいて異なる。ヘッドセットにおいて、左イヤホンは場面検出機能を有し得、又は、右イヤホンは、場面検出機能を有し得、又は、左イヤホン及び右イヤホンの両方は場面検出機能を有する。例において、左イヤホン及び右イヤホンの1つは場面検出を実行するために使用される。例えば、左イヤホンは場面検出を実行し、検出結果を右イヤホンへ送信し、その結果、左イヤホン及び右イヤホンの両方は、左イヤホンの検出結果に基づいて、検出結果に対応する処理機能を実装するために使用される処理を実行する。代替的に、右イヤホンは、場面検出を実行し、検出結果を左イヤホンへ送信する。したがって、左イヤホン及び右イヤホンの両方は、右イヤホンの検出結果に基づいて、検出結果に対応する処理機能を実装するために使用される処理を実行する。別の例において、左イヤホン及び右イヤホンの両方は場面検出を実行し、左イヤホンは、左イヤホンの検出結果に基づいて、検出結果に対応する処理機能を実装するために使用される処理を実行し、右イヤホンは、右イヤホンの検出結果に基づいて、検出結果に対応する処理機能を実装するために使用される処理を実行する。
可能な実装において、ヘッドセットの場面検出機能を有効化することは、ユーザによって、ヘッドセットを使用することによって、又は、端末デバイスを使用することによって制御され得る。
1つの方式において、場面検出機能を開始するために使用されるボタンはヘッドセット上に配置される。ユーザは、ボタンにタッチすることによってヘッドセットの場面検出機能を有効化又は無効化し得る。ヘッドセットの場面検出機能が有効化された後に、ヘッドセットは、現在のユーザの場面(又は現在のヘッドセット場面)を識別する。場面と処理モードとの間の対応関係に基づいて、場面に対応する処理モードが識別されると決定され、処理モードに対応する処理機能が実装される。
別の方式において、ユーザは、ヘッドセット上のタップ操作、例えば3連続タップによって、ヘッドセットの場面検出機能を有効化又は無効化する。ヘッドセットの場面検出機能が無効化されているとき、ヘッドセットは、3連続タップに応答してヘッドセットの場面検出機能を有効化する。ヘッドセットの場面検出機能が有効化されているとき、ヘッドセットは、3連続タップに応答してヘッドセットの場面検出機能を無効化する。ヘッドセットの場面検出機能が有効化された後に、ヘッドセットは、現在のユーザの場面(又は現在のヘッドセット場面)を識別する。場面と処理モードとの間の対応関係に基づいて、場面に対応する処理モードが識別されると決定され、処理モードに対応する処理機能が実装される。
なお別の方式において、左イヤホン又は右イヤホンの場面検出機能を有効化することは端末デバイス100によって制御される。例えば、ヘッドセット制御インタフェースは、ヘッドセットの場面検出機能を有効化又は無効化するためのボタンを含む。端末デバイスは、ユーザ要求に基づいて、ヘッドセットの場面検出機能を有効化するかどうかを決定し得る。ヘッドセットの場面検出機能が有効化されていないとき、ヘッドセットによって実装される必要がある処理機能は、例1を使用することによってマニュアルで選択され得る。ヘッドセットの場面検出機能が有効化された後に、ヘッドセットは現在の外部環境の場面タイプを識別する。場面タイプと処理モードとの間の対応関係に基づいて、場面タイプに対応する処理モードが識別されると決定され、処理モードに対応する処理機能を実装する。端末デバイス100は、ヘッドセットの場面検出機能を有効化するユーザ操作に応答して、制御信号3をヘッドセット200へ送信する。制御信号3は、場面検出機能を有効化するようにヘッドセットに示す。ヘッドセット200は、制御信号3に基づいて場面検出を実行することを開始する。ヘッドセット200は、現在の外部環境の検出された場面タイプに基づいて、実行される必要がある処理機能を決定する。例えば、処理機能がANC機能である場合、ヘッドセット200はANC処理を実行し、S501からS504を実行する。
別の可能な実装において、ヘッドセットが端末デバイスとの接続を確立した後に、ヘッドセットは場面検出を開始し、又は、ヘッドセットが端末デバイスによって送信されたダウンリンクオーディオ信号を受信したとき、ヘッドセットは場面検出を開始する。
例4において、ヘッドセット検出が完了した後に、検出結果は更に端末デバイスへ送信され得る。例えば、検出結果は指示情報に含まれ、端末デバイスへ送信され得る。検出結果は、検出された場面、及び、場面に対応する処理モードを含み得る。検出結果を受信するとき、端末デバイスは、検出結果をユーザに表示し、その結果、ユーザはヘッドセットの処理モードを知る。例えば、検出結果は、プロンプトボックスの形式でユーザに表示される。任意選択で、検出結果は、検出された場面だけを含み得る。検出結果を受信した後に、端末デバイスは、ヘッドセットによって検出された場面に対応する処理モードを決定し、ヘッドセットによって検出された場面及び場面に対応する処理モードをユーザに表示する。例えば、場面を第1場面として識別するとき、ヘッドセットは、ヘッドセットの処理モードにおいて、第1場面に対応する目標モードを決定し、検出結果、すなわち、第1場面及び目標モードをユーザに表示し得る。
別の例において、ヘッドセット検出が完了した後に、場面に対応する処理モードの処理機能は即時に実行されず、検出結果は端末デバイスへ送信され、端末デバイスは検出結果をユーザに表示する。処理モードを決定するユーザ操作に応答して、端末デバイスは確認命令をヘッドセットへ送信する。確認命令を受信するとき、ヘッドセットは、ヘッドセットによって検出された場面に対応する処理モードを使用することによって処理機能を実行する。
例えば、ヘッドセットによって識別されることができる場面タイプは、歩く場面、走る場面、静かな場面、複数人が話す場面、カフェの場面、地下鉄の場面、電車の場面、自動車の場面、待合室の場面、対話の場面、オフィスの場面、屋外の場面、運転の場面、強風の場面、飛行機の場面、アラーム音の場面、警笛音の場面、及び泣き声の場面を含み得る。
例において、異なる場面タイプに適用可能な処理モードとして、歩く場面(HT)、走る場面(HT)、静かな場面(HT)、複数人が話す場面(ANC)、カフェの場面(ANC)、地下鉄の場面(AH)、電車の場面(ANC)、待合室の場面(AH)、対話の場面(AH)、オフィスの場面(ANC)、屋外の場面(ANC)、運転の場面(ANC)、強風の場面(ANC)、飛行機の場面(ANC)、アラーム音の場面(AH)、警笛音の場面(AH)及び泣き声の場面(AH)が挙げられる。括弧は、場面タイプに対応する処理モードを示す。例えば、飛行機の場面において、飛行機が飛行しているときはノイズが大きく、ANCモードが適切である。別の例として、歩く場面、走る場面及び静かな場面において、HTモードが適切であり、バーストイベント音が聞かれ得る。別の例として、カフェの場面において、ユーザが静寂を必要とする場合、ANCモードが使用され得る。別の例として、軽音楽の場面において、HTモードが使用され得る。別の例として、アラーム音の場面(AH)、警笛音の場面(AH)及び泣き声の場面(AH)において、予め設定された音が聞かれる必要があり、AHモードが適切である。
例において、飛行機の場面において、場面タイプが飛行機の場面として識別されるとき、ANCモードが使用されると決定され、左イヤホン及び右イヤホンは、S501からS504における処理を別個に実行する。
例において、歩く場面において、場面タイプが歩く場面として識別されるとき、HTモードが使用されると決定され、左イヤホン及び右イヤホンはS601からS605における処理を別個に実行する。
別の例において、鉄道駅の場面において、場面タイプが鉄道駅の場面として識別されるとき、AHモードが使用されると決定される。左イヤホン及び右イヤホンはS801からS807の処理を別個に実行する。
ヘッドセットの場面検出方式において、目標モードにおける目標処理強度は、以下の方式のいずれか1つで決定され得る。
方式1:ヘッドセットは目標モードにおけるデフォルトの目標処理強度を使用する。
ヘッドセット(左イヤホン又は右イヤホン)は、検出された場面に基づいて、処理モードを目標モードとして決定し、左イヤホン及び右イヤホンがデフォルトの目標処理強度を使用すると決定する。例えば、目標モードはANCモードである。左イヤホン及び右イヤホンは、ANCモードにおけるデフォルトのFFフィルタリング係数及びデフォルトのFBフィルタリング係数を取得する。
方式2:目標モードが最後に使用されたときに使用された処理強度が目標処理強度として使用される。
例において、ヘッドセット(左イヤホン又は右イヤホン)は目標モードにおける処理強度を決定する。ヘッドセットが場面検出を実行し、検出された場面に基づいて目標モードを決定した後に、ヘッドセットは、目標モードが最後に使用されたときに記憶された処理強度を目標処理強度として取得する。例えば、目標モードはANCモードであり、ANCモードが最後に使用されたときに記憶されたFFフィルタリング係数及びFBフィルタリング係数が取得され、ANC処理が実行される。
別の例において、端末デバイスは目標処理強度を決定し、制御信号を使用することによって目標処理強度を左イヤホン及び右イヤホンに示す。場面検出を実行した後に、ヘッドセットは検出結果を端末デバイスへ送信し、その結果、端末デバイスは、目標モードが最後に使用されたときに使用された処理強度を目標処理強度として取得し、制御信号4を左イヤホン及び右イヤホンへ別個に送信する。制御信号4は目標処理強度を示す。
方式3:ヘッドセットは識別された場面に基づいて目標処理強度を決定する。
場面を識別した後に、ヘッドセットは、識別された場面に基づいて目標処理強度を決定し得る。
例において、処理モードは、異なる場面が同一であると決定し、異なる場面は異なる処理強度に対応する。例えば、HTモードは歩く場面、走る場面及び静かな場面に適用可能である。HTモードが使用されるとき、歩く場面、走る場面及び静かな場面は異なる処理強度に別個に対応する。別の例として、ANCモードは複数人が話す場面、カフェの場面、電車の場面、飛行機の場面、強風の場面、及びオフィスの場面に適用可能である。ANCモード、複数人が話す場面、カフェの場面、電車の場面、飛行機の場面、強風の場面、及びオフィスの場面は、異なる処理強度に別個に対応する。別の例として、AHモードは対話の場面、アラーム音の場面、警笛音の場面、及び泣き声の場面に適用可能である。AHモードが使用されるとき、対話の場面、アラーム音の場面、警笛音の場面、及び泣き声の場面は異なる処理強度に別個に対応する。
これに鑑み、左イヤホン及び右イヤホンは、記憶された場面タイプ、目標モード、及び処理強度間の対応関係に基づいて、検出された場面に対応する目標モード、及び、目標モードにおける目標処理強度を決定する。このように、左イヤホン及び右イヤホンは、目標処理強度に対応するフィルタリング係数を取得する。例えば、目標モードはAHモードである。FFフィルタリング係数、FBフィルタリング係数、及びHTフィルタリング係数は、目標処理強度に基づいて決定され、S801からS807は、FFフィルタリング係数、FBフィルタリング係数、及びHTフィルタリング係数に基づいて実行される。
別の例において、異なる場面において、ヘッドセットは更に緊急イベントを検出して目標イベント(又は目標イベントと呼ばれる)を決定し得る。例えば、緊急イベントは、ウインドノイズイベント、ハウリングイベント、緊急イベント、人声イベント又は非緊急イベントのうちの1又は複数を含む。異なるイベントは異なる処理強度に対応する。ヘッドセットは場面及びイベントを検出する。目標モードにおいて、異なるイベントは異なフィルタリング係数に対応する。ANCは例として使用される。異なるイベントにおいて、異なるFFフィルタリング係数及び/又は異なるFBフィルタリング係数に対応する。左イヤホン又は右イヤホンが場面及びイベント検出を実行した後に、左イヤホン及びANCモードは例として使用される。左イヤホンは、ANC機能が実装されるとき、係数バンクから、検出結果に基づいて、検出されたイベントに対応するFFフィルタリング係数又はFBフィルタリング係数を取得し得る。係数バンクは、処理モード、イベント、FFフィルタリング係数及びFBフィルタリング係数の間のマッピング関係を記憶する。ANCの処理効果は主にFBフィルタリング及び/又はFFフィルタリングに依存する。例えば、FFフィルタのフィルタリング係数は検出された場面に基づいて制御され、FBフィルタリング係数は固定値である。別の例では、FBフィルタのフィルタリング係数は検出された場面に基づいて制御され、FFフィルタリング係数は固定値である。なお別の例では、FFフィルタリング係数及びFBフィルタリング係数は検出された場面に基づいて制御される。例えば、表2に示されるように、イベントはハウリングイベント、ウインドノイズイベント、緊急イベント、人声イベント、又は非緊急イベントを含む。
表2
例えば、ヘッドセット200は外部環境におけるイベント音を検出し、参照マイクロホンによって収集された信号に基づいて、外部環境におけるイベント音に対応する目標イベントを決定し得る。例えば、参照マイクロホンによって収集された信号が、予め設定されたスペクトルの信号を含む場合、予め設定されたスペクトルの信号に対応するイベントが決定される。例えば、ウインドノイズイベントについては、参照マイクロホンによって収集された信号が風の音信号を含む場合、すなわち、収集された信号が、風の音のスペクトルに一致する信号を含む場合、外部環境における検出されたイベント音に対応するイベントがウインドノイズイベントであると決定される。参照マイクロホンによって収集された信号が予め設定されたスペクトルの信号を含むとき、スペクトル一致方式が使用され得るか、又は、ディープニューラルネットワーク(deep neural network, DNN)一致方式が使用され得ると決定される。
例えば、図15に示されるように、ヘッドセット200は、以下の方式で、参照マイクロホンによって収集された信号に基づいて現在のユーザ環境におけるイベントを決定し得る。ヘッドセット200は更に骨伝導センサを含む。骨伝導センサは、ヘッドセットユーザの骨伝導信号を収集するように構成される。ユーザがヘッドセット200を装着していて、音を発する、例えば、話す、又は歌うとき、骨伝導センサは骨伝導信号を収集する、すなわち、ユーザが話すときに生成される骨膜振動信号を収集して骨伝導信号を取得する。
左イヤホン又は右イヤホンの場面検出機能を有効化することは、端末デバイス100によって制御され得るか、又は、ヘッドセットに対するユーザ操作、例えば、左イヤホン又は右イヤホンをタップする操作によって制御され得る。代替的に、ヘッドセットは骨伝導センサを含む。ユーザの上及び下の歯が接触するとき、歯接触音が生成され、その結果、骨伝導センサは、ユーザの上及び下の歯が接触するときに生成されるオーディオ信号を検出することによって、場面検出機能を起動する。
S1501:参照マイクロホンによって収集された第3信号における骨伝導信号をフィルタリング除去してフィルタリング済み信号(簡潔に信号AA1と呼ばれる)を取得する。
段階S1501において、参照マイクロホンによって収集された第3信号は、ヘッドセットが場面検出機能を起動した後に参照マイクロホンによって収集された信号である。
ヘッドセットを装着しているときにユーザが音を発しない、例えば、ユーザが話さない、又は歌わないとき、骨伝導センサによって収集される骨伝導信号のエネルギーは小さいことが理解されるべきである。例えば、骨伝導信号のエネルギーが指定された閾値より小さいとき、S1501は実行されないことがあり得、信号AA1は第3信号である。例において、ヘッドセット200はまず、骨伝導信号のエネルギーを決定し得る。骨伝導信号のエネルギーが指定された閾値より小さい場合、フィルタリング演算は実行されない。換言すれば、S1501が実行されない。骨伝導信号のエネルギーが指定された閾値以上であると決定されるとき、S1501が実行される。
S1502:フィルタリング済み信号に対してスペクトル分析を実行し、フィルタリング済み信号のエネルギー特徴を取得する。
換言すれば、ヘッドセット200は信号AA1に対してスペクトル分析を実行して信号AA1のエネルギー特徴を取得する。例えば、ヘッドセット200は、信号に対してスペクトル分析を実行して信号AA1のフレーム全体のエネルギー、及び、信号AA1の各barkサブバンドのエネルギーを取得して、ベクトルによって表される信号AA1のエネルギー特徴を形成する。
S1503:エネルギー特徴セットに含まれるエネルギー特徴における、フィルタリング済み信号のエネルギー特徴に一致する第1エネルギー特徴を決定し、エネルギー特徴セットに含まれる異なるエネルギー特徴は、異なるイベント識別子に対応する。
S1504:第1エネルギー特徴に対応するイベント識別子によって識別されるイベントを現在のユーザ環境におけるイベント、すなわち、イベント検出の検出結果として決定する。
例において、エネルギー特徴セットは以下の方式で生成され得る。ウインドノイズ検出、バーストノイズ検出、ハウリング検出、及び人声検出が、第1マイクロホン、第2マイクロホン及び第3マイクロホンによって収集された信号に対して実行され、ウインドノイズ信号、バーストノイズ信号及びハウリング信号が取得される。次に、ウインドノイズ信号、バーストノイズ信号、ハウリング信号、及び人声信号に対してスペクトル分析が別個に実行され、ウインドノイズ信号のサブバンドエネルギー特徴、バーストノイズ信号のサブバンドエネルギー特徴、ハウリング信号のサブバンドエネルギー特徴、及び人声信号のサブバンドエネルギー特徴が取得される。ウインドノイズ信号のサブバンドエネルギー特徴、バーストノイズ信号のサブバンドエネルギー特徴、ハウリング信号のサブバンドエネルギー特徴及び人声信号のサブバンドエネルギー特徴はエネルギー特徴セットを形成する。静かな場面において、ノイズのサブバンドエネルギーは弱いことが理解されるべきである。
任意選択で、エネルギー特徴セットに含まれるエネルギー特徴における、フィルタリング済み信号のエネルギー特徴に一致する第1エネルギー特徴が判定されるとき、スペクトル一致方式が使用され得るか、又はディープニューラルネットワーク(deep neural network, DNN)一致方式が使用され得る。例えば、DNN一致方式が使用されるとき、フィルタリング済み信号のエネルギー特徴と、エネルギー特徴セットに含まれる各エネルギー特徴との間の一致度が、DNNを使用することによって判定され得、最高の一致度を有する第1エネルギー特徴に対応するイベント識別子によって識別されるイベントが検出結果である。
本願の本実施形態において、ヘッドセット200における主制御部は、参照マイクロホンによって収集された信号に基づいて現在のユーザ環境におけるイベントを決定し得る。例えば、主制御部はDSPを含む。DSPはS1501~S1504を実行するように構成される。
方式4:ユーザは、端末デバイスによって提供されるUIコントロールを使用することによって、ヘッドセットに対して、目標モードにおいて使用される処理強度を示す。
例において、場面検出を実行した後に、ヘッドセットは検出結果を端末デバイスへ送信する。端末デバイスは検出結果をユーザに表示する。検出結果は端末デバイスの表示インタフェースに表示される。検出結果は、ヘッドセットによって検出された場面、及び、検出された場面に対応する目標モードを含む。表示インタフェースは、処理強度を選択するために使用されるコントロールを更に含む。説明を容易にするために、処理強度を選択するために使用されるコントロールは、強度コントロールと呼ばれる。強度コントロールはコントロール1及びコントロール2を含み得る。コントロール1の異なる位置は、目標モードにおける異なる処理強度を示す。強度コントロールはリング形状、バー形状、又は別の形状であり得る。図16に示されるように、例えば、強度コントロールはリングである。ユーザはコントロール2をタッチアンドホールドして、コントロール1上で位置2に移動させる。位置2は、目標モードにおいてユーザによって選択された目標処理強度を示す。次に、制御命令5は、左イヤホン及び右イヤホンへ送信される。制御命令5は、位置2に対応する目標処理強度を示す。図16において、例えば、目標モードはHTモードである。
例において、端末デバイス100は、ヘッドセットの場面検出機能を有効化するユーザ操作に応答して、制御信号3をヘッドセット200へ送信する。制御信号3は、場面検出機能を有効化することをヘッドセットに示す。ヘッドセット200は、制御信号3に基づいて、場面検出を実行することを起動して検出結果を取得する。ヘッドセット200は、検出結果を端末デバイス100へ送信し得、その結果、端末デバイス100は検出結果をユーザに表示し、ヘッドセットによって使用される必要がある、検出された場面に対応する処理モードをユーザに表示する。
更に、ヘッドセットの場面検出機能が有効化された後に、ユーザは処理モード手動選択インタフェースを別のインタフェースに更新し得るか、又は、処理モード手動選択インタフェースに基づいて検出結果を表示し得る。
例えば、ユーザがヘッドセットの場面検出機能を有効化する前に、端末デバイス上でユーザによって選択された処理機能はHT機能である。ヘッドセットの場面検出機能が有効化された後に、ヘッドセット200は、現在のユーザの場面を飛行機の場面として識別し、ANC機能は適切である。ヘッドセットは検出結果、すなわち、飛行機の場面及びANC機能を端末デバイスへ送信する。例において、ユーザはヘッドセットアプリケーションを起動し、ヘッドセットアプリケーションの制御インタフェースはディスプレイ上に表示される。リング形状が例として使用される。ユーザによって選択された処理機能は、図17Aの(a)に示されるようにHT機能である。制御インタフェースは、ヘッドセットの場面検出機能を有効化又は無効化するための任意選択のコントロールを含む。ユーザがヘッドセットの場面検出機能を有効化するために任意選択のコントロールをトリガした後に、端末デバイスはヘッドセットの場面検出機能をトリガし、制御信号3をヘッドセット200へ送信する。制御信号3は、場面検出機能を有効化することをヘッドセットに示す。ヘッドセット200は、制御信号3に基づいて場面検出を実行することを開始し、検出結果を取得する。ヘッドセット200は検出結果を端末デバイス100へ送信する。検出結果を受信した後に、端末デバイス100は、ユーザ選択を表す処理機能コントロールの位置をANC機能に属する領域に変更する。ユーザは、ディスク上で黒色の点を移動することによってANCモードにおける処理強度を選択する。図17Aの(b)を参照されたい。図17Aの(b)において、例えば、飛行機の場面が検出される。
別の例において、ユーザはヘッドセットアプリケーションを起動し、ヘッドセットアプリケーションの制御インタフェースはディスプレイ上に表示される。リング形状が例として使用される。ユーザによって選択された処理機能は、図17Bの(a)に示されるようにHT機能である。制御インタフェースは、ヘッドセットの場面検出機能を有効化又は無効化するための任意選択のコントロールを含む。ユーザがヘッドセットの場面検出機能を有効化するために任意選択のコントロールをトリガした後に、端末デバイスはヘッドセットの場面検出機能をトリガし、制御信号3をヘッドセット200へ送信する。制御信号3は、場面検出機能を有効化することをヘッドセットに示す。ヘッドセット200は、制御信号3に基づいて場面検出を実行することを開始し、検出結果を取得する。ヘッドセット200は検出結果を端末デバイス100へ送信する。検出結果を受信した後に、端末デバイス100は検出結果インタフェースに検出結果を表示する。検出インタフェースは更に、ヘッドセットによって識別され得る場面、及び、場面に対応する処理モードを含み得る。ユーザは、ディスク上で黒色の点を移動することによって、ANCモードにおける処理強度を選択する。例えば、図17Bの(b)に示されるように、検出結果は飛行機の場面であり、対応する処理モードはANCモードである。
例えば、1つの方式において、ヘッドセット200は、場面検出を実行するときに人口知能(artificial intelligence, AI)モデルを使用することによって検出分類を実行し得る。AIモデルはヘッドセットにおいて構成され得る。別の方式において、場面タイプは、参照マイクロホンによって収集された信号に基づいて決定され得る。例えば、図18に示されるように、ヘッドセット200は、以下の方式で、参照マイクロホンによって収集された信号に基づいて、現在のユーザの場面を決定し得る。
S1801:参照マイクロホンによって収集された第1信号に対してスペクトル分析を実行し、第1信号を複数のサブバンドに分割し、各サブバンドのエネルギーを計算する。例えば、参照マイクロホンによって収集された第1信号は、barkサブバンド分割方法を使用することによって周波数領域においてサブバンドに分割され、各サブバンドのエネルギーが計算される。
S1802:VADを決定し、第1信号におけるノイズセグメントを取得し、ノイズセグメントにおける各サブバンドの平滑エネルギーを取得する。
例において、VAD決定方式は以下の通りである。参照マイクロホンと通信マイクロホンとの間の信号相互相関を計算して相互相関係数Aを取得し、参照マイクロホンの自己相関係数Bを計算し、A<アルファ(第1閾値)かつB<ベータ(第2閾値)であるとき、VADに対応する信号セグメントをノイズセグメントとして決定し、そうでなければ、VADに対応する信号セグメントを音声セグメントとして決定する。
S1803:ノイズセグメントにおける各サブバンドの平滑エネルギーに基づいて場面タイプを決定する。
例において、静かな場面、低周波数重ノイズ場面、及び、人声場面が決定される。決定されたノイズセグメントについて、場面タイプを判定するために以下の処理が実行される:
(1)ノイズセグメントにおける50~1KHzサブバンドのエネルギー平均値C、1~2KHzサブバンドのエネルギー平均値D、及び、2~3KHzサブバンドのエネルギー平均値Eを計算し、C/D/EがN個の連続フレームの閾値ガンマ未満である場合、場面を静かな場面として判定する;
(2)a=D/Cであり、aが閾値t未満であり、C及びDは両方とも閾値kより大きく、M個の連続するフレームについて、aは閾値tより小さく、C及びDは両方とも閾値kより大きい場合、場面を低周波数重ノイズ場面として判定する;又は、
(3)aが閾値kより大きく、P個の連続フレームがノイズフレームでない場合、場面を人声(又は音楽)場面として判定する。
例5:処理モードを決定した後に、ヘッドセットは処理モードにおいてイベント検出を実行する。処理モードにおいて、異なるイベントは異なるフィルタリング係数(すなわち処理モードにおける処理強度)に対応する。
ヘッドセットはユーザ操作を識別し、ユーザによって選択されたヘッドセット200が、ANC処理、HT処理又はAH処理を実装する必要があると判定する。ヘッドセット200によって使用される処理モードはANCモードである。可能な方式において、ユーザ操作はヘッドセットをタップするユーザ操作であり得る。異なる操作を使用することによって、処理モードは、ANCモード、HTモード又はAHモードとして判定される。別の可能な方式において、ボタンがヘッドセット上に配置される。異なるボタンは異なる処理モードを示す。ユーザはボタンを押してヘッドセットの処理モードを選択する。例えば、ヘッドセット200がユーザによってトリガされるANCモードの操作命令を受信した後に、左イヤホン及び右イヤホンはANC処理を実行し、具体的にはS501~S504を実行する。なお別の可能な方式において、ヘッドセットによって実装される必要がある処理モードが選択され、端末デバイス100によって制御される。
左イヤホン又は右イヤホンはイベント検出機能を有し得る。例において、左イヤホン及び右イヤホンの1つが、イベント検出を実行するために使用される。例えば、左イヤホンはイベント検出を実行し、検出結果を右イヤホンへ送信し、又は右イヤホンはイベント検出を実行し、検出結果を左イヤホンへ送信する。ANCモードにおいて、異なるイベントは異なるFFフィルタリング係数及び異なるFBフィルタリング係数に対応する。左イヤホン又は右イヤホンがイベント検出を実行した後に、左イヤホンは例として使用される。左イヤホンは、検出結果に基づいて、係数バンクから、ANCモードにおける検出されたイベントに対応するFFフィルタリング係数又はFBフィルタリング係数を取得し得る。例えば、表2は、係数バンクに含まれる内容を説明し、イベントは、ハウリングイベント、ウインドノイズイベント、緊急イベント、人声イベント又は非緊急イベントを含む。
前述の方法の実施形態における機能を実装するために、ヘッドセットは、各機能を実行するための対応するハードウェア構造及び/又はソフトウェアモジュールを含むと理解され得る。当業者であれば、本願において開示される実施形態において説明される例におけるモジュール及び方法の段階を参照して、本願はハードウェア又はハードウェア及びコンピュータソフトウェアの組み合わせによって実装され得ることに容易に気付くであろう。機能がハードウェアによって実行されるか、又は、コンピュータソフトウェアによって駆動されるハードウェアによって実行されるかは、特定の適用場面、及び、技術的解決策の設計の制約に依存する。
前述の方法と同一の発明の着想に基づいて、図19に示されるように、本願の実施形態は更にノイズ処理装置1900を提供する。ノイズ処理装置1900はヘッドセットに適用される。ヘッドセットは、ANC機能、HT機能又はAH機能のうちの少なくとも2つの機能を有する。ヘッドセットは第1マイクロホン及び第2マイクロホンを含む。第1マイクロホンは第1信号を収集するように構成される。第1信号は現在の外部環境における音を示す。第2マイクロホンは第2信号を収集するように構成される。第2信号は、ヘッドセットを装着しているユーザの外耳道における環境音を示す。ノイズ処理装置1900は、前述の方法の実施形態におけるヘッドセットの機能を実装するように構成され得、したがって、前述の方法の実施形態の有益な効果を実装できる。装置は通信モジュール1901、取得モジュール1902及び第1処理モジュール1903を含み得る。
通信モジュール1901は、端末デバイスから第1オーディオ信号を受信するように構成される。
取得モジュール1902は、目標モードを取得するように構成され、目標モードは、現在の外部環境の場面タイプに基づいて決定され、目標モードは、目標処理機能を実行するようにヘッドセットに指示し、目標処理機能は、アクティブノイズコントロールANC機能、環境音ヒアスルーHT機能又は聴覚増強AH機能の1つである。
第1処理モジュール1903は、目標モード、第1オーディオ信号、第1信号及び第2信号に基づいて第2オーディオ信号を取得するように構成される。
可能な実装において、装置は更に第2オーディオ信号を再生するように構成される再生モジュールを含む。再生モジュールは図19に示されない。
可能な実装において、目標処理機能がANC機能であるとき、再生モジュールによって再生された第2オーディオ信号は、ユーザの外耳道における現在のユーザ環境及び環境音における音のユーザ感知を弱くすることができ、目標処理機能がHT機能であるとき、再生モジュールによって再生される第2オーディオ信号は、現在のユーザ環境における音のユーザ感知を強化でき、又は、目標処理機能がAH機能であるとき、再生モジュールによって再生される第2オーディオ信号は、イベント音のユーザ感知を強化でき、イベント音は予め設定されたスペクトルを満たす。
可能な実装において、目標処理機能がANC機能であるとき、第2オーディオ信号は、第1オーディオ信号、第3信号、及び第4信号に基づいて取得され、第3信号は、第1信号の逆位相信号であり、第4信号は第2信号の逆位相信号であり、目標処理機能がHT機能であるとき、第2オーディオ信号は、第1オーディオ信号、第1信号、及び第2信号に基づいて取得され、又は、目標処理機能がAH機能であるとき、第2オーディオ信号は、第1オーディオ信号、第5信号、及び第4信号に基づいて取得され、第5信号は、第1信号におけるイベント信号であり、イベント信号は予め設定されたスペクトルを満たす。
可能な実装において、通信モジュール1901は更に、第1制御命令を端末デバイスから受信することであって、第1制御命令は目標モードを保持し、目標モードは、現在の外部環境の場面タイプに基づいて端末デバイスによって決定される、こと、及び、目標モードを取得モジュール1902へ送信することを行うように構成される。
可能な実装において、通信モジュール1901は更に、第2制御命令を端末デバイスから受信するように構成され、第2制御命令は目標処理強度を保持し、目標処理強度は、ヘッドセットが目標処理機能を実行するときに使用される処理強度を示す。
第1処理モジュール1903は具体的には、目標モード、目標処理強度、第1オーディオ信号、第1信号及び第2信号に基づいて、第2オーディオ信号を取得するように構成される。
可能な実装において、装置は更に、第1信号に基づいて、現在の外部環境におけるイベント音に対応する目標イベントを決定し、目標イベントに基づいて目標モードにおける目標処理強度を決定するように構成される第2処理モジュール1904を備え、目標処理強度は、ヘッドセットが目標処理機能を実行するときに使用される処理強度を示す。
第1処理モジュール1903は具体的には、目標モード、目標処理強度、第1オーディオ信号、第1信号及び第2信号に基づいて、第2オーディオ信号を取得するように構成される。
可能な実装において、ヘッドセットは更に骨伝導センサを含む。骨伝導センサは、ユーザの声帯の振動によって生成される骨伝導信号を収集するように構成される。
第1処理モジュール1903は具体的には、第1信号及び骨伝導信号に基づいて、現在の外部環境におけるイベント音に対応する目標イベントを決定するように構成される。
可能な実装において、目標イベントは、ハウリングイベント、ウインドノイズイベント、緊急イベント又は人声イベントを含む。
可能な実装において、装置は更に、第1信号に基づいて、現在の外部環境の場面タイプを目標場面として識別し、目標場面に基づいて、ヘッドセットの目標モードを決定するように構成される第3処理モジュール1905を備え、目標モードは目標場面に対応する処理モードである。
可能な実装において、目標場面は、歩く場面、走る場面、静かな場面、複数人が話す場面、カフェの場面、地下鉄の場面、電車の場面、待合室の場面、対話の場面、オフィスの場面、屋外の場面、運転の場面、強風の場面、飛行機の場面、アラーム音の場面、警笛音の場面、及び泣き声の場面のうちの1つを含む。
可能な実装において、通信モジュール1901は更に、指示情報を端末デバイスへ送信することであって、指示情報は目標モードを保持する、こと、及び、第3制御信号を端末デバイスから受信することであって、第3制御信号は目標モードにおける目標処理強度を含み、目標処理強度は、ヘッドセットが目標処理機能を実行するときに使用される処理強度を示す、ことを行うように構成される。
第1処理モジュール1903は具体的には、目標モード、目標処理強度、第1オーディオ信号、第1信号及び第2信号に基づいて、第2オーディオ信号を取得するように構成される。
可能な実装において、目標処理機能がANC機能であるとき、より大きい目標処理強度は、現在のユーザ環境における音及びユーザの外耳道における環境音のより弱いユーザ感知を示し、目標処理機能がHT機能であるとき、より大きい目標処理強度は、現在のユーザ環境における音のより強いユーザ感知を示し、又は、目標処理機能がAH機能であるとき、より大きい目標処理強度は、現在のユーザ環境における音に含まれるイベント音のより強いユーザ感知を示す。
可能な実装において、ヘッドセットは左イヤホンであり、又はヘッドセットは右イヤホンである。
可能な実装において、目標モードは、ANC機能を実行するようにヘッドセットに指示する。第1処理モジュール1903は具体的には、第1信号に対して第1フィルタリング処理を実行して第1フィルタリング信号を取得すること、第2信号に含まれる第1オーディオ信号をフィルタリング除去して第1フィルタリング済み信号を取得すること、第1フィルタリング信号及びフィルタリング済み信号に対してオーディオミキシング処理を実行して第3オーディオ信号を取得すること、第3オーディオ信号に対して第3フィルタリング処理を実行して第4オーディオ信号を取得すること、及び、第4オーディオ信号及び第1オーディオ信号に対してオーディオミキシング処理を実行して第2オーディオ信号を取得することを行うよう構成される。
可能な実装において、第1フィルタリング処理に使用されるフィルタリング係数は、ANC機能の場合において第1フィルタリング処理についての目標処理強度に関連付けられたフィルタリング係数であり、又は、第3フィルタリング処理に使用されるフィルタリング係数は、ANC機能の場合において第3フィルタリング処理についての目標処理強度に関連付けられたフィルタリング係数である。
可能な実装において、目標モードは、HT機能を実行するようにヘッドセットに指示する。第1処理モジュール1903は具体的には、第1信号に対して第1信号処理を実行して第1処理済み信号を取得することであって、第1信号処理は第2フィルタリング処理を含む、こと、第1処理済み信号及び第1オーディオ信号に対してオーディオミキシング処理を実行して第5オーディオ信号を取得すること、第2信号に含まれる第5オーディオ信号をフィルタリング除去して第2フィルタリング済み信号を取得すること、第2フィルタリング済み信号に対して第3フィルタリング処理を実行して第3フィルタリング済み信号を取得すること、及び、第3フィルタリング済み信号及び第5オーディオ信号に対してオーディオミキシング処理を実行して第2オーディオ信号を取得することを行うよう構成される。
可能な実装において、第2フィルタリング処理に使用されるフィルタリング係数は、HT機能の場合において第2フィルタリング処理についての目標処理強度に関連付けられたフィルタリング係数であり、又は、第3フィルタリング処理に使用されるフィルタリング係数は、HT機能の場合において第3フィルタリング処理についての目標処理強度に関連付けられたフィルタリング係数である。
可能な実装において、目標モードは、AH機能を実行するようヘッドセットに指示する。第1処理モジュール1903は具体的には、第1信号に対して第2フィルタリング処理を実行して第2フィルタリング信号を取得し、第2フィルタリング信号に対して強化処理を実行してフィルタリング強化信号を取得し、第1信号に対して第1フィルタリング処理を実行して第1フィルタリング信号を取得し、フィルタリング強化信号及び第1オーディオ信号に対してオーディオミキシング処理を実行して第6オーディオ信号を取得し、第2信号に含まれる第6オーディオ信号をフィルタリング除去して第4フィルタリング済み信号を取得し、第4フィルタリング済み信号に対して第3フィルタリング処理を実行して第5フィルタリング済み信号を取得し、第5フィルタリング済み信号、第6オーディオ信号、及び第1フィルタリング信号に対してオーディオミキシング処理を実行して第2オーディオ信号を取得するよう構成される。
可能な実装において、第1フィルタリング処理について使用されるフィルタリング係数は、AH機能の場合における第1フィルタリング処理についての目標処理強度に関連付けられるフィルタリング係数であり、第2フィルタリング処理について使用されるフィルタリング係数は、AH機能の場合における第2フィルタリング処理についての目標処理強度に関連付けられるフィルタリング係数であり、又は、第3フィルタリング処理について使用されるフィルタリング係数は、AH機能の場合における第3フィルタリング処理についての目標処理強度に関連付けられるフィルタリング係数である。
前述の方法の実施形態における機能を実装するために、端末デバイスは、各機能を実行するための対応するハードウェア構造及び/又はソフトウェアモジュールを含むと理解され得る。当業者であれば、本願において開示される実施形態において説明される例におけるモジュール及び方法の段階を参照して、本願はハードウェア又はハードウェア及びコンピュータソフトウェアの組み合わせによって実装され得ることに容易に気付くであろう。機能がハードウェアによって実行されるか、又は、コンピュータソフトウェアによって駆動されるハードウェアによって実行されるかは、特定の適用場面、及び、技術的解決策の設計の制約に依存する。
前述の方法と同一の発明の着想に基づいて、図20に示されるように、本願の実施形態は更にモード制御装置2000を提供する。モード制御装置2000は端末デバイス100に適用され、前述の方法の実施形態において端末デバイスの機能を実装するように構成され得る。したがって、前述の方法の実施形態の有益な効果を実装できる。
モード制御装置2000は第1検出モジュール2001及び送信モジュール2002を含み、表示モジュール2003及び第2検出モジュール2004を更に含み得る。
第1検出モジュール2001は、現在の外部環境の場面タイプを目標場面として識別するとき、目標場面に基づいて目標モードを判定するように構成される。
目標モードは、ヘッドセットによってサポートされる処理モードの1つである。異なる処理モードは異なる場面タイプに対応する。ヘッドセットによってサポートされる処理モードは、アクティブノイズコントロールANCモード、環境音ヒアスルーHTモード、又は聴覚増強AHモードのうちの少なくとも2つを含む。
送信モジュール2002は、目標モードをヘッドセットへ送信するように構成される。目標モードは、目標モードに対応する処理機能を実装するようヘッドセットに指示する。
可能な実装において、装置は更に、目標モードが目標場面に基づいて決定されるとき、結果プロンプト情報を表示するように構成される表示モジュール2003を備え、結果プロンプト情報は、目標モードに対応する処理機能をヘッドセットが実装することをユーザにプロンプトするために使用される。
可能な実装において、表示モジュール2003は、第1制御信号がヘッドセットへ送信される前に、選択プロンプト情報を表示するように構成され、選択プロンプト情報は、ヘッドセットの処理モードを目標モードに調整するかどうかをユーザにプロンプトするために使用される。
第2検出モジュール2004は、ヘッドセットの処理モードを目標モードとして選択するユーザ操作を検出するように構成される。
可能な実装において、表示モジュール2003は更に、第1コントロール及び第2コントロールを表示するように構成される。第1コントロール上の第2コントロール異なる位置は、目標モードにおける異なる処理強度を示す。
第2検出モジュール2004は更に、送信モジュール2002が第1制御信号をヘッドセットへ送信する前に、第2コントロールをタッチアンドホールドするユーザ操作を検出して、第1コントロール上の第1位置に移動させるように構成される。第1コントロール上の第2コントロールの第1位置は、目標モードにおける目標処理強度を示す。
送信モジュール2002は更に、目標処理強度をヘッドセットへ送信するように構成される。目標処理強度は、ヘッドセットが目標モードに対応する処理機能を実装するときに使用される処理強度を示す。
可能な実装において、第1コントロールはリング形状である。ユーザが第2コントロールをタッチアンドホールドして、時計回り方向で第1コントロール上で動かすとき、目標モードにおける処理強度が増加する。又は、ユーザが第2コントロールをタッチアンドホールドして、反時計周り方向で第1コントロール上で動かすとき、目標モードにおける処理強度が増加する。
可能な実装において、第1コントロールはバー形状である。ユーザが第2コントロールをタッチアンドホールドして、第1コントロール上で上から下に移動するとき、目標モードにおける処理強度は増加する。ユーザが第2コントロールをタッチアンドホールドして、第1コントロール上で下から上に動かすとき、目標モードにおける処理強度が増加する。ユーザが第2コントロールをタッチアンドホールドして、第1コントロール上で左から右に動かすとき、目標モードにおける処理強度が増加する。又は、ユーザが第2コントロールをタッチアンドホールドして、第1コントロール上で右から左に動かすとき、目標モードにおける処理強度が増加する。
可能な実装において、目標処理機能がANC機能であるとき、より大きい目標処理強度は、現在のユーザ環境における音及びユーザの外耳道における環境音のより弱いユーザ感知を示し、目標処理機能がHT機能であるとき、より大きい目標処理強度は、現在のユーザ環境における音のより強いユーザ感知を示し、又は、目標処理機能がAH機能であるとき、より大きい目標処理強度は、現在のユーザ環境における音に含まれるイベント音のより強いユーザ感知を示す。
前述の方法と同一の発明の着想に基づいて、図21に示されるように、本願の実施形態は更にモード制御装置2100を提供する。モード制御装置2100は端末デバイス100に適用され、前述の方法の実施形態において端末デバイスの機能を実装するように構成され得る。したがって、前述の方法の実施形態の有益な効果を実装できる。モード制御装置2100は、処理モジュール2101、送信モジュール2102、受信モジュール2103、表示モジュール2104及び検出モジュール2105を含む。
処理モジュール2101は目標モードを取得するように構成される。目標モードはヘッドセットによってサポートされる処理モードの1つである。ヘッドセットによってサポートされる処理モードは、アクティブノイズコントロールANCモード、環境音ヒアスルーHTモード、又は聴覚増強AHモードのうちの少なくとも2つを含む。
処理モジュール2101は更に、現在の外部環境の場面タイプに基づいて目標モードにおける目標処理強度を決定するように構成される。異なる場面タイプは目標モードにおける異なる処理強度に対応する。
送信モジュール2102は、目標処理強度をヘッドセットへ送信するように構成される。目標処理強度は、目標モードに対応する処理機能をヘッドセットが実装するときに使用される処理強度を示す。
可能な実装において、装置は更に、ヘッドセットによって送信された目標モードを受信するように構成される受信モジュール2103を備える。
可能な実装において、装置は更に、ヘッドセットによってサポートされる処理モードを含む選択コントロールを表示するように、及び、選択コントロールを使用することによってヘッドセットの処理モードから目標モードを選択するユーザ操作を検出するように構成される表示モジュール2104を備える。
可能な実装において、表示モジュール2104は更に、処理モジュール2101が現在の外部環境の場面タイプに基づいて目標モードにおける目標処理強度を決定する前に、受信モジュール2103がヘッドセットによって送信された目標モードを受信した場合、選択プロンプト情報を表示するように構成され、選択プロンプト情報は、ヘッドセットの処理モードを目標モードに調整するかどうかをユーザにプロンプトするために使用される。
装置は更に、ヘッドセットの処理モードを目標モードとして選択及び調整するユーザ操作を検出するように構成される検出モジュール2105を備える。
可能な実装において、目標処理機能がANC機能であるとき、より大きい目標処理強度は、現在のユーザ環境における音及びユーザの外耳道における環境音のより弱いユーザ感知を示し、目標処理機能がHT機能であるとき、より大きい目標処理強度は、現在のユーザ環境における音のより強いユーザ感知を示し、又は、目標処理機能がAH機能であるとき、より大きい目標処理強度は、現在のユーザ環境における音に含まれるイベント音のより強いユーザ感知を示す。
前述の方法と同一の発明の着想に基づいて、図22に示されるように、本願の実施形態は更にモード制御装置2200を提供する。モード制御装置2200は端末デバイス100に適用され、前述の方法の実施形態において端末デバイスの機能を実装するように構成され得る。したがって、前述の方法の実施形態の有益な効果を実装できる。モード制御装置2100は、表示モジュール2201、検出モジュール2202、送信モジュール2203及び識別モジュール2204を含む。
表示モジュール2201は第1インタフェースを表示するように構成される。第1インタフェースは第1選択コントロールを含む。第1選択コントロールは、第1目標イヤホンによってサポートされる処理モード、及び、第1目標イヤホンによってサポートされる処理モードに対応する処理強度を含む。第1目標イヤホンの処理モードは、アクティブノイズコントロールANCモード、環境音ヒアスルーHTモード又は聴覚増強AHモードのうちの少なくとも2つを含む。
検出モジュール2202は、第1インタフェースに対してユーザによって実行される第1操作を検出するように構成される。第1操作は、ユーザが第1選択コントロールを使用することによって、第1目標イヤホンによってサポートされる処理モードから第1目標モードを選択し、第1目標モードにおける処理強度を第1目標処理強度として選択するときに生成される。
送信モジュール2203は、第1目標モード及び第1目標処理強度を第1目標イヤホンへ送信するように構成される。第1目標モードは、第1目標モードに対応する処理機能を実装するように第1目標イヤホンに指示する。第1目標処理強度は、第1目標イヤホンが第1目標モードに対応する処理機能を実装するときに使用される処理強度を示す。
可能な実装において、表示モジュール2201は更に、第1インタフェースが表示される前に、選択プロンプト情報を表示するように構成される。選択プロンプト情報は、ユーザが第1目標イヤホンの処理モードを調整するかどうかを選択するために使用される。
検出モジュール2202は更に、第1目標イヤホンの処理モードを選択及び調整するユーザ操作を検出するように構成される。
可能な実装において、装置は更に、表示モジュール2201が第1インタフェースを表示する前に、目標場面として現在の外部環境の場面タイプを識別するように構成される識別モジュール2204を備え、目標場面は、第1目標イヤホンの処理モードが調整される必要がある場面タイプに適合する。
可能な実装において、装置は更に、表示モジュール2201が第1インタフェースを表示する前に、端末デバイスが第1目標イヤホンをトリガしてオーディオを再生することを識別するように構成される識別モジュール2204を備える。
可能な実装において、検出モジュール2202は更に、表示モジュールが第1インタフェースを表示する前に、端末デバイスが第1目標イヤホンとの接続を確立することを検出するように構成される。
可能な実装において、表示モジュール2201が第1インタフェースを表示する前に、端末デバイスが第1目標イヤホンとの接続を確立することが検出された場合、検出モジュール2202は、ホーム画面上でユーザによって実行される第2操作を検出する。
ホーム画面は第1アプリケーションのアイコンを含む。第2操作は、ユーザが第1アプリケーションのアイコンをタッチするときに生成される。第1インタフェースは第1アプリケーションの表示インタフェースである。
可能な実装において、第1選択コントロールは第1コントロール及び第2コントロールを含む。第1コントロール上の第2コントロールの任意の2つの異なる位置は、第1目標イヤホンの2つの異なる処理モードを示し、又は、第1コントロール上の第2コントロールの任意の2つの異なる位置は、第1目標イヤホンの同一の処理モードにおける異なる処理強度を示す。
第1操作は、ユーザが第1目標モードに対応する領域において第1コントロール上で第2コントロールの第1位置を動かすときに生成される。第1位置は、第1目標モードにおける第1目標処理強度に対応する。
可能な実装において、第1コントロールはリング形状である。リングは少なくとも2つの円弧セグメントを含む。異なる円弧セグメントに位置する第2コントロールは、第1目標イヤホンの異なる処理モードを示す。同一の円弧セグメント上の第2コントロールの異なる位置は、第1目標イヤホンの同一の処理モードにおける異なる処理強度を示す。
代替的に、第1コントロールはバー形状である。バーは少なくとも2つのバーセグメントを含む。異なるバーセグメントに位置する第2コントロールは、第1目標イヤホンの異なる処理モードを示す。同一のバーセグメント上の第2コントロールの異なる位置は、第1目標イヤホンの同一の処理モードにおける異なる処理強度を示す。
可能な実装において、検出モジュール2202は更に、第1インタフェース上でユーザによって実行される第3操作を検出するように構成される。第1インタフェースは更に第2選択コントロールを含む。第2選択コントロールは、第2目標イヤホンによってサポートされる処理モード、及び、第2目標イヤホンによってサポートされる処理モードに対応する処理強度を含む。第2目標イヤホンによってサポートされる処理モードは、アクティブノイズコントロールANCモード、環境音ヒアスルーHTモード、又は聴覚増強AHモードのうちの少なくとも2つを含む。第3操作は、ユーザが第2選択コントロールを使用することによって、第2目標イヤホンの処理モードから第2目標モードを選択し、第2目標モードにおける処理強度を第2目標処理強度として選択するときに生成される。第1目標イヤホンが左イヤホンであるとき、第2目標イヤホンは右イヤホンであり、又は、第1目標イヤホンが右イヤホンであるとき、第2目標イヤホンは左イヤホンである。
送信モジュール2203は更に、第2目標モード及び第2目標処理強度を第2目標イヤホンへ送信するように構成される。第2目標モードは第2目標イヤホンに、第2目標モードに対応する処理機能を実装するように指示する。第2目標処理強度は、第2目標モードに対応する処理機能を第2目標イヤホンが実装するときに使用される処理強度を示す。
これに鑑み、本願の実施形態は更に端末デバイスを提供する。図23に示されるように、端末デバイスは、プロセッサ2301、メモリ2302、通信インタフェース2303及び表示2304を備える。メモリ2302は、プロセッサ2301によって実行される命令又はプログラムを記憶し、命令又はプログラムを実行するためにプロセッサ2301によって必要とされる入力データを記憶し、又は、プロセッサ2301が命令又はプログラムを実行した後に生成されたデータを記憶するように構成される。プロセッサ2301は、メモリ2302に記憶された命令又はプログラムを実行して、前述の方法において、端末デバイスによって実行される機能を実行するよう構成される。
可能な場面において、プロセッサ2301は、第1検出モジュール2001、送信モジュール2002、表示モジュール2003及び第2検出モジュール2004の機能を実行するように構成される。代替的に、プロセッサ2301は、第1検出モジュール2001及び第2検出モジュール2004の機能を実行するように構成される。送信モジュール2002の機能は通信インタフェース2303によって実装される。表示モジュール2003の機能はディスプレイ2304によって実装され得る。
別の可能な場面において、処理モジュール2101、送信モジュール2102、受信モジュール2103、表示モジュール2104及び検出モジュール2105はプロセッサ2301によって実装され得る。代替的に、プロセッサ2301は、処理モジュール2101及び検出モジュール2105の機能を実行するように構成され得る。送信モジュール2102及び受信モジュール2103の機能は通信インタフェース2303によって実装され得る。表示モジュール2104の機能はディスプレイ2304によって実装され得る。
なお別の可能な場面において、表示モジュール2201、検出モジュール2202、送信モジュール2203、及び識別モジュール2204はプロセッサ2301によって実装され得る。代替的に、検出モジュール2202及び識別モジュール2204の両方の機能はプロセッサ2301によって実装され得る。送信モジュール2203の機能は通信インタフェース2303によって実装され得る。表示モジュール2201の機能はディスプレイ2304によって実装され得る。
本願の実施形態において言及されるプロセッサは、中央処理装置(central processing unit、CPU)であり得るか、又は、プロセッサは、別の汎用プロセッサ、デジタル信号プロセッサ(Digital Signal Processor, DSP)、特定用途向け集積回路(application specific integrated circuit, ASIC)、フィールドプログラマブルゲートアレイ(field programmable gate array, FPGA)、又は、別のプログラマブル論理デバイス、トランジスタロジックデバイス、ハードウェアコンポーネント、又は任意の組み合わせであり得ることが理解されるべきである。汎用プロセッサはマイクロプロセッサ又は任意の従来型プロセッサ又は同様のものであり得る。
本願の実施形態における方法の段階は、ハードウェア方式で実装され得るか、又は、プロセッサによってソフトウェア命令を実行する方式で実装され得る。ソフトウェア命令は、対応するソフトウェアモジュールを含んでよい。ソフトウェアモジュールは、ランダムアクセスメモリ(random access memory、RAM)、フラッシュメモリ、リードオンリメモリ(read-only memory、ROM)、又はプログラマブルリードオンリメモリ(programmable ROM、PROM)、消去可能プログラマブルリードオンリメモリ(erasable PROM、EPROM)、電気的消去可能プログラマブルリードオンリメモリ(electrically EPROM、EEPROM)、レジスタ、ハードディスク、着脱式ハードディスク、CD-ROM、又は、当技術分野において周知であるいずれかの他の形態の記憶媒体に記憶され得る。例えば、記憶媒体がプロセッサに結合されることにより、プロセッサは、記憶媒体から情報を読み出す、又は記憶媒体に情報を書き込むことができる。もちろん、記憶媒体は、プロセッサのコンポーネントであってよい。プロセッサ及び記憶媒体は、ASICに配置されてよい。加えて、ASICは、端末デバイスに位置してよい。もちろん、プロセッサ及び記憶媒体は、ディスクリートコンポーネントとして端末デバイスに存在してもよい。
前述の実施形態の全て又はいくつかが、ソフトウェア、ハードウェア、ファームウェア、又はその任意の組み合わせを使用することにより実装されてよい。ソフトウェアが実施形態を実装するために用いられる場合、実施形態の全部又は一部がコンピュータプログラム製品の形式で実装されてよい。コンピュータプログラム製品は、1又は複数のコンピュータプログラム又は命令を含む。コンピュータプログラム又は命令がロードされ、コンピュータ上で実行された場合、本願の実施形態による手順又は機能が全て又は部分的に実装される。コンピュータは、汎用コンピュータ、専用コンピュータ、コンピュータネットワーク、ユーザ機器、又は別のプログラマブル装置であり得る。コンピュータプログラム又は命令は、コンピュータ可読記憶媒体に記憶され得るか、又は、1つのコンピュータ可読記憶媒体から別のコンピュータ可読記憶媒体へ送信され得る。例えば、コンピュータプログラム又は命令は、有線方式又は無線方式で、1つのウェブサイト、コンピュータ、サーバ又はデータセンタから別のウェブサイト、コンピュータ、サーバ又はデータセンタへ送信され得る。コンピュータ可読記憶媒体は、コンピュータ、又は、1又は複数の使用可能な媒体を統合するサーバ若しくはデータセンタなどのデータ記憶デバイスによってアクセス可能な任意の使用可能な媒体であってよい。使用可能な媒体は、磁気媒体、例えば、フロッピディスク、ハードディスク又は磁気テープであり得、光媒体、例えば、デジタルビデオディスク(digital video disc, DVD)であり得、半導体媒体、例えば、ソリッドステートドライブ(solid state drive, SSD)又は同様のものであり得る。
本願の実施形態において、別段の定めが無い限り、又は、論理的矛盾が無い限り、異なる実施形態の間の用語及び/又は説明は一貫し、相互に参照され得、異なる実施形態における技術的特徴は、それらの内部論理関係に基づいて組み合わされ、新しい実施形態を形成し得る。加えて、「含む(include)」、「有する(have)」という用語及びこれらの任意の変形例は、非排他的包含をカバーする、例えば、一連の段階又はユニットを含むことを意図する。方法、システム、製品又はデバイスは、文字通りに列挙されているこれらの段階又はユニットに必ずしも限定されるものではないが、文字通りに列挙されていない、又は、そのようなプロセス、方法、製品又はデバイスに対して固有の他の段階又はユニットを含み得る。
本願が、特定の特徴及びその実施形態を参照して説明されるが、本願の趣旨及び範囲から逸脱することなく、それらに対して様々な修正及び組み合わせが加えられ得ることは明確である。それに対応して、明細書及び添付図面は単に、添付の特許請求の範囲によって定義される解決手段の説明のための例であり、本願の範囲をカバーする修正、変形、組み合わせ又は同等物のいずれか又はすべてとみなされる。
当業者であれば、本願の範囲から逸脱することなく、本願に対して様々な修正及び変形を加えることができることは明確である。本願は、以下の特許請求の範囲及び同等の技術により定義される保護の範囲に含まれる限り、これらの修正及び変形を包含することを目的としている。

Claims (42)

  1. ヘッドセットノイズ処理方法であって、ヘッドセットはアクティブノイズコントロール(ANC)機能、環境音ヒアスルー(HT)機能、又は聴覚増強(AH)機能のうちの少なくとも2つの機能を有し、前記ヘッドセットは第1マイクロホン及び第2マイクロホンを備え、前記第1マイクロホンは、第1信号を収集するように構成され、前記第1信号は、現在の外部環境における音を示し、前記第2マイクロホンは、第2信号を収集するように構成され、前記第2信号は、前記ヘッドセットを装着しているユーザの外耳道における環境音を示し、
    前記ヘッドセットノイズ処理方法は、
    端末デバイスから第1オーディオ信号を受信する段階;
    目標モードを取得する段階であって、前記目標モードは、前記現在の外部環境の場面タイプに基づいて決定され、前記目標モードは、目標処理機能を実行するよう前記ヘッドセットに指示し、前記目標処理機能は、前記アクティブノイズコントロール(ANC)機能、前記環境音ヒアスルー(HT)機能、又は、前記聴覚増強(AH)機能のうちの1つである、段階;及び
    前記目標モード、前記第1オーディオ信号、前記第1信号、及び前記第2信号に基づいて第2オーディオ信号を取得する段階
    を備える方法。
  2. 前記ヘッドセットは更に、スピーカを備え、前記スピーカは、前記第2オーディオ信号を再生するように構成される、請求項1に記載の方法。
  3. 前記目標処理機能が前記ANC機能であるとき、前記スピーカによって再生される前記第2オーディオ信号は、前記現在のユーザ環境における前記音、前記ユーザの前記外耳道における前記環境音のユーザ感知を弱めることが可能であり、
    前記目標処理機能が前記HT機能であるとき、前記スピーカによって再生される前記第2オーディオ信号は、前記現在のユーザ環境における前記音のユーザ感知を強化することが可能であり、又は、
    前記目標処理機能が前記AH機能であるとき、前記スピーカによって再生される前記第2オーディオ信号は、イベント音のユーザ感知を強化することが可能であり、前記イベント音は予め設定されたスペクトルを満たす、
    請求項2に記載の方法。
  4. 前記目標処理機能が前記ANC機能であるとき、前記第2オーディオ信号は、前記第1オーディオ信号、第3信号、及び第4信号に基づいて取得され、前記第3信号は、前記第1信号の逆位相信号であり、前記第4信号は前記第2信号の逆位相信号であり、
    前記目標処理機能が前記HT機能であるとき、前記第2オーディオ信号は、前記第1オーディオ信号、前記第1信号、及び前記第2信号に基づいて取得され、又は、
    前記目標処理機能が前記AH機能であるとき、前記第2オーディオ信号は、前記第1オーディオ信号、第5信号、及び第4信号に基づいて取得され、前記第5信号は、前記第1信号におけるイベント信号であり、前記イベント信号は予め設定されたスペクトルを満たす、請求項1から3のいずれか一項に記載の方法。
  5. 目標モードを取得する前記段階は、
    第1制御命令を前記端末デバイスから受信する段階であって、前記第1制御命令は前記目標モードを保持し、前記目標モードは、前記現在の外部環境の前記場面タイプに基づいて前記端末デバイスによって決定される、段階を含む、請求項1から4のいずれか一項に記載の方法。
  6. 前記方法は、第2制御命令を前記端末デバイスから受信する段階であって、前記第2制御命令は目標処理強度を保持し、前記目標処理強度は、前記ヘッドセットが前記目標処理機能を実行するときに使用される処理強度を示す、段階を更に備え、
    前記目標モード、前記第1オーディオ信号、前記第1信号及び前記第2信号に基づいて第2オーディオ信号を取得する前記段階は、
    前記目標モード、前記目標処理強度、前記第1オーディオ信号、前記第1信号及び前記第2信号に基づいて前記第2オーディオ信号を取得する段階を含む、請求項5に記載の方法。
  7. 前記方法は、前記第1信号に基づいて、前記現在の外部環境におけるイベント音に対応する目標イベントを決定し、前記目標イベントに基づいて前記目標モードにおける目標処理強度を決定する段階であって、前記目標処理強度は、前記ヘッドセットが前記目標処理機能を実行するときに使用される処理強度を示し、異なる処理強度は異なるイベントに対応する、段階を更に備え、
    前記目標モード、前記第1オーディオ信号、前記第1信号、及び前記第2信号に基づいて、第2オーディオ信号を取得する段階は、
    前記目標モード、前記目標処理強度、前記第1オーディオ信号、前記第1信号、及び前記第2信号に基づいて、前記第2オーディオ信号を取得する段階を含む、請求項5に記載の方法。
  8. 前記ヘッドセットは更に、骨伝導センサを備え、前記骨伝導センサは、前記ユーザの声帯の振動によって生成された骨伝導信号を収集するように構成され、前記第1信号に基づいて、前記現在の外部環境におけるイベント音に対応する目標イベントを決定する段階は、
    前記第1信号及び前記骨伝導信号に基づいて、前記現在の外部環境における前記イベント音に対応する前記目標イベントを決定する段階を含む、請求項7に記載の方法。
  9. 前記目標イベントは、ハウリングイベント、ウインドノイズイベント、緊急イベント又は人声イベントのうちの1つを含む、請求項8に記載の方法。
  10. 目標モードを取得する前記段階は、
    前記第1信号に基づいて、前記現在の外部環境の前記場面タイプを目標場面として識別し、前記目標場面に基づいて、前記ヘッドセットの前記目標モードを決定する段階であって、前記目標モードは、前記目標場面に対応する処理モードであり、異なる処理モードは異なる場面タイプに対応する、段階を含む、請求項1から4のいずれか一項に記載の方法。
  11. 前記目標場面は、歩く場面、走る場面、静かな場面、複数人が話す場面、カフェの場面、地下鉄の場面、電車の場面、待合室の場面、対話の場面、オフィスの場面、屋外の場面、運転の場面、強風の場面、飛行機の場面、アラーム音の場面、警笛音の場面、及び泣き声の場面のうちの1つを含む、請求項10に記載の方法。
  12. 前記方法は、
    指示情報を前記端末デバイスへ送信する段階であって、前記指示情報は前記目標モードを保持する、段階;及び
    第3制御信号を前記端末デバイスから受信する段階であって、前記第3制御信号は、前記目標モードにおける目標処理強度を含み、前記目標処理強度は、前記ヘッドセットが前記目標処理機能を実行するときに使用される処理強度を示す、段階
    を更に備え、前記目標モード、前記第1オーディオ信号、前記第1信号、及び前記第2信号に基づいて第2オーディオ信号を取得する前記段階は、
    前記目標モード、前記目標処理強度、前記第1オーディオ信号、前記第1信号及び前記第2信号に基づいて前記第2オーディオ信号を取得する段階を含む、請求項10又は11に記載の方法。
  13. 前記目標処理機能が前記ANC機能であるとき、より大きい目標処理強度は、前記現在のユーザ環境における前記音、及び、前記ユーザの前記外耳道における前記環境音のより弱いユーザ感知を示し、
    前記目標処理機能が前記HT機能であるとき、より大きい目標処理強度は、前記現在のユーザ環境における前記音のより強いユーザ感知を示し、又は、
    前記目標処理機能が前記AH機能であるとき、より大きい目標処理強度は、前記現在のユーザ環境における前記音に含まれるイベント音のより強いユーザ感知を示す、請求項6、7又は12のいずれか一項に記載の方法。
  14. 前記ヘッドセットは左イヤホンであるか、又は前記ヘッドセットは右イヤホンである、請求項1から13のいずれか一項に記載の方法。
  15. 前記目標モードは、前記ANC機能を実行するよう前記ヘッドセットに指示し、前記目標モード、前記第1オーディオ信号、前記第1信号及び前記第2信号に基づいて第2オーディオ信号を取得する前記段階は、
    前記第1信号に対して第1フィルタリング処理を実行して第1フィルタリング信号を取得する段階;
    前記第2信号に含まれる前記第1オーディオ信号をフィルタリング除去して、第1フィルタリング済み信号を取得する段階;
    前記第1フィルタリング信号及び前記フィルタリング済み信号に対してオーディオミキシング処理を実行して、第3オーディオ信号を取得する段階;
    前記第3オーディオ信号に対して第3フィルタリング処理を実行して第4オーディオ信号を取得する段階;及び
    前記第4オーディオ信号及び前記第1オーディオ信号に対してオーディオミキシング処理を実行して前記第2オーディオ信号を取得する段階
    を含む、請求項1から14のいずれか一項に記載の方法。
  16. 前記第1フィルタリング処理に使用されるフィルタリング係数は、前記ANC機能の場合における前記第1フィルタリング処理についての目標処理強度に関連付けられたフィルタリング係数であり、又は、
    前記第3フィルタリング処理に使用されるフィルタリング係数は、前記ANC機能の場合における前記第3フィルタリング処理についての目標処理強度に関連付けられたフィルタリング係数である、請求項15に記載の方法。
  17. 前記目標モードは、前記HT機能を実行するよう前記ヘッドセットに指示し、前記目標モード、前記第1オーディオ信号、前記第1信号及び前記第2信号に基づいて第2オーディオ信号を取得する前記段階は、
    前記第1信号に対して第1信号処理を実行して第1処理済み信号を取得する段階であって、前記第1信号処理は第2フィルタリング処理を含む、段階と、
    前記第1処理済み信号及び前記第1オーディオ信号に対してオーディオミキシング処理を実行して第5オーディオ信号を取得する段階;
    前記第2信号に含まれる前記第5オーディオ信号をフィルタリング除去して第2フィルタリング済み信号を取得する段階;
    前記第2フィルタリング済み信号に対して第3フィルタリング処理を実行して第3フィルタリング済み信号を取得する段階;及び
    前記第3フィルタリング済み信号及び前記第5オーディオ信号に対してオーディオミキシング処理を実行して前記第2オーディオ信号を取得する段階
    を含む、請求項1から14のいずれか一項に記載の方法。
  18. 前記第2フィルタリング処理について使用されるフィルタリング係数は、前記HT機能の場合における前記第2フィルタリング処理についての目標処理強度に関連付けられたフィルタリング係数であり、又は、
    前記第3フィルタリング処理について使用されるフィルタリング係数は、前記HT機能の場合における前記第3フィルタリング処理についての目標処理強度に関連付けられたフィルタリング係数である、請求項17に記載の方法。
  19. 前記目標モードは、前記AH機能を実行するよう前記ヘッドセットに指示し、前記目標モード、前記第1オーディオ信号、前記第1信号及び前記第2信号に基づいて第2オーディオ信号を取得する前記段階は、
    前記第1信号に対して第2フィルタリング処理を実行して第2フィルタリング信号を取得し、前記第2フィルタリング信号に対して強化処理を実行してフィルタリング強化信号を取得する段階;
    前記第1信号に対して第1フィルタリング処理を実行して第1フィルタリング信号を取得する段階;
    前記フィルタリング強化信号及び前記第1オーディオ信号に対してオーディオミキシング処理を実行して第6オーディオ信号を取得する段階;
    前記第2信号に含まれる前記第6オーディオ信号をフィルタリング除去して第4フィルタリング済み信号を取得する段階;
    前記第4フィルタリング済み信号に対して第3フィルタリング処理を実行して第5フィルタリング済み信号を取得する段階;
    前記第5フィルタリング済み信号、前記第6オーディオ信号、及び前記第1フィルタリング信号に対してオーディオミキシング処理を実行して前記第2オーディオ信号を取得する段階;
    を含む、請求項1から14のいずれか一項に記載の方法。
  20. 前記第1フィルタリング処理について使用されるフィルタリング係数は、前記AH機能の場合における前記第1フィルタリング処理についての目標処理強度に関連付けられるフィルタリング係数であり、
    前記第2フィルタリング処理について使用されるフィルタリング係数は、前記AH機能の場合における前記第2フィルタリング処理についての目標処理強度に関連付けられるフィルタリング係数であり、又は、
    前記第3フィルタリング処理について使用されるフィルタリング係数は、前記AH機能の場合における前記第3フィルタリング処理についての目標処理強度に関連付けられるフィルタリング係数である、請求項19に記載の方法。
  21. ノイズ処理装置であって、前記ノイズ処理装置はヘッドセットに適用され、前記ヘッドセットは、アクティブノイズコントロール(ANC)機能、環境音ヒアスルー(HT)機能、又は聴覚増強(AH)機能のうちの少なくとも2つの機能を有し、前記ヘッドセットは、第1マイクロホン及び第2マイクロホンを備え、前記第1マイクロホンは第1信号を収集するように構成され、前記第1信号は、現在の外部環境における音を示し、前記第2マイクロホンは、第2信号を収集するように構成され、前記第2信号は、前記ヘッドセットを装着しているユーザの外耳道における環境音を示し、前記ノイズ処理装置は、
    第1オーディオ信号を端末デバイスから受信するように構成される通信モジュール;
    目標モードを取得するように構成される取得モジュールであって、前記目標モードは、前記現在の外部環境の場面タイプに基づいて決定され、前記目標モードは、目標処理機能を実行するよう前記ヘッドセットに指示し、前記目標処理機能は、前記アクティブノイズコントロール(ANC)機能、前記環境音ヒアスルー(HT)機能又は前記聴覚増強(AH)機能のうちの1つである、取得モジュール;及び
    前記目標モード、前記第1オーディオ信号、前記第1信号、及び前記第2信号に基づいて第2オーディオ信号を取得するように構成される第1処理モジュール;
    を備える装置。
  22. 前記装置は更に、前記第2オーディオ信号を再生するように構成される再生モジュールを備える、請求項21に記載の装置。
  23. 前記目標処理機能が前記ANC機能であるとき、前記再生モジュールによって再生される前記第2オーディオ信号は、前記現在のユーザ環境における前記音、及び、前記ユーザの前記外耳道における前記環境音のユーザ感知を弱めることが可能であり、
    前記目標処理機能が前記HT機能であるとき、前記再生モジュールによって再生される前記第2オーディオ信号は、前記現在のユーザ環境における前記音のユーザ感知を強化することが可能であり、又は、
    前記目標処理機能が前記AH機能であるとき、前記再生モジュールによって再生される前記第2オーディオ信号は、イベント音のユーザ感知を強化することが可能であり、前記イベント音は予め設定されたスペクトルを満たす、請求項22に記載の装置。
  24. 前記目標処理機能が前記ANC機能であるとき、前記第2オーディオ信号は、前記第1オーディオ信号、第3信号、及び第4信号に基づいて取得され、前記第3信号は、前記第1信号の逆位相信号であり、前記第4信号は前記第2信号の逆位相信号であり、
    前記目標処理機能が前記HT機能であるとき、前記第2オーディオ信号は、前記第1オーディオ信号、前記第1信号、及び前記第2信号に基づいて取得され、又は、
    前記目標処理機能が前記AH機能であるとき、前記第2オーディオ信号は、前記第1オーディオ信号、第5信号、及び第4信号に基づいて取得され、前記第5信号は、前記第1信号におけるイベント信号であり、前記イベント信号は予め設定されたスペクトルを満たす、請求項21から23のいずれか一項に記載の装置。
  25. 前記通信モジュールは更に、
    第1制御命令を前記端末デバイスから受信することであって、前記第1制御命令は前記目標モードを保持し、前記目標モードは、前記現在の外部環境の前記場面タイプに基づいて前記端末デバイスによって決定される、こと、及び、
    前記目標モードを前記取得モジュールへ送信すること
    を行うように構成される、請求項21から24のいずれか一項に記載の装置。
  26. 前記通信モジュールは更に、第2制御命令を前記端末デバイスから受信することであって、前記第2制御命令は目標処理強度を保持し、前記目標処理強度は、前記ヘッドセットが前記目標処理機能を実行するときに使用される処理強度を示す、ことを行うように構成され、
    前記第1処理モジュールは具体的には、前記目標モード、前記目標処理強度、前記第1オーディオ信号、前記第1信号及び前記第2信号に基づいて前記第2オーディオ信号を取得するように構成される、請求項25に記載の装置。
  27. 前記装置は、前記第1信号に基づいて、前記現在の外部環境におけるイベント音に対応する目標イベントを決定し、前記目標イベントに基づいて前記目標モードにおける目標処理強度を決定するように構成される第2処理モジュールであって、前記目標処理強度は、前記ヘッドセットが前記目標処理機能を実行するときに使用される処理強度を示し、異なる処理強度は異なるイベントに対応する、第2処理モジュールを更に備え、
    前記第1処理モジュールは具体的には、前記目標モード、前記目標処理強度、前記第1オーディオ信号、前記第1信号及び前記第2信号に基づいて、前記第2オーディオ信号を取得するように構成される、請求項26に記載の装置。
  28. 前記ヘッドセットは更に骨伝導センサを備え、前記骨伝導センサは、前記ユーザの声帯の振動によって生成される骨伝導信号を収集するように構成され、
    前記第1処理モジュールは具体的には、前記第1信号及び前記骨伝導信号に基づいて、前記現在の外部環境における前記イベント音に対応する前記目標イベントを決定するように構成される、請求項27に記載の装置。
  29. 前記目標イベントは、ハウリングイベント、ウインドノイズイベント、緊急イベント又は人声イベントである、請求項28に記載の装置。
  30. 前記第1信号に基づいて、前記現在の外部環境の前記場面タイプを目標場面として識別し、前記目標場面に基づいて前記ヘッドセットの前記目標モードを決定するように構成される第3処理モジュールであって、前記目標モードは、前記目標場面に対応する処理モードであり、異なる処理モードは異なる場面タイプに対応する、第3処理モジュールを更に備える請求項21から24のいずれか一項に記載の装置。
  31. 前記目標場面は、歩く場面、走る場面、静かな場面、複数人が話す場面、カフェの場面、地下鉄の場面、電車の場面、待合室の場面、対話の場面、オフィスの場面、屋外の場面、運転の場面、強風の場面、飛行機の場面、アラーム音の場面、警笛音の場面、及び泣き声の場面のうちの1つである、請求項30に記載の装置。
  32. 前記通信モジュールは更に、
    指示情報を前記端末デバイスへ送信することであって、前記指示情報は前記目標モードを保持する、こと、及び、
    前記端末デバイスから第3制御信号を受信することであって、前記第3制御信号は、前記目標モードにおける目標処理強度を含み、前記目標処理強度は、前記ヘッドセットが前記目標処理機能を実行するときに使用される処理強度を示す、こと、
    を行うよう構成され、前記第1処理モジュールは具体的には、前記目標モード、前記目標処理強度、前記第1オーディオ信号、前記第1信号、及び前記第2信号に基づいて前記第2オーディオ信号を取得するように構成される、請求項30又は31に記載の装置。
  33. 前記目標処理機能が前記ANC機能であるとき、より大きい目標処理強度は、前記現在のユーザ環境における前記音、及び、前記ユーザの前記外耳道における前記環境音のより弱いユーザ感知を示し、
    前記目標処理機能が前記HT機能であるとき、より大きい目標処理強度は、前記現在のユーザ環境における前記音のより強いユーザ感知を示し、又は、
    前記目標処理機能が前記AH機能であるとき、より大きい目標処理強度は、前記現在のユーザ環境における前記音に含まれるイベント音のより強いユーザ感知を示す、請求項26、27又は32のいずれか一項に記載の装置。
  34. 前記ヘッドセットは左イヤホンであり、又は、前記ヘッドセットは右イヤホンである、請求項21から33のいずれか一項に記載の装置。
  35. 前記目標モードは、前記ANC機能を実行するよう前記ヘッドセットに指示し、前記第1処理モジュールは具体的には、
    前記第1信号に対して第1フィルタリング処理を実行して第1フィルタリング信号を取得すること、
    前記第2信号に含まれる前記第1オーディオ信号をフィルタリング除去して第1フィルタリング済み信号を取得すること、
    前記第1フィルタリング信号及び前記フィルタリング済み信号に対してオーディオミキシング処理を実行して第3オーディオ信号を取得すること、
    前記第3オーディオ信号に対して第3フィルタリング処理を実行して第4オーディオ信号を取得すること、及び、
    前記第4オーディオ信号及び前記第1オーディオ信号に対してオーディオミキシング処理を実行して前記第2オーディオ信号を取得すること
    を行うよう構成される、請求項21から34のいずれか一項に記載の装置。
  36. 前記第1フィルタリング処理に使用されるフィルタリング係数は、前記ANC機能の場合における前記第1フィルタリング処理についての目標処理強度に関連付けられたフィルタリング係数であり、又は、
    前記第3フィルタリング処理に使用されるフィルタリング係数は、前記ANC機能の場合における前記第3フィルタリング処理についての目標処理強度に関連付けられたフィルタリング係数である、請求項35に記載の装置。
  37. 前記目標モードは、前記HT機能を実行するよう前記ヘッドセットに指示し、前記第1処理モジュールは具体的には、
    前記第1信号に対して第1信号処理を実行して第1処理済み信号を取得することであって、前記第1信号処理は第2フィルタリング処理を含む、こと、
    前記第1処理済み信号及び前記第1オーディオ信号に対してオーディオミキシング処理を実行して第5オーディオ信号を取得すること、
    前記第2信号に含まれる前記第5オーディオ信号をフィルタリング除去して第2フィルタリング済み信号を取得すること、
    前記第2フィルタリング済み信号に対して第3フィルタリング処理を実行して第3フィルタリング済み信号を取得すること、及び、
    前記第3フィルタリング済み信号及び前記第5オーディオ信号に対してオーディオミキシング処理を実行して前記第2オーディオ信号を取得すること
    を行うように構成される、請求項21から34のいずれか一項に記載の装置。
  38. 前記第2フィルタリング処理について使用されるフィルタリング係数は、前記HT機能の場合における前記第2フィルタリング処理についての目標処理強度に関連付けられたフィルタリング係数であり、又は、
    前記第3フィルタリング処理について使用されるフィルタリング係数は、前記HT機能の場合における前記第3フィルタリング処理についての目標処理強度に関連付けられたフィルタリング係数である、請求項37に記載の装置。
  39. 前記目標モードは、前記AH機能を実行するよう前記ヘッドセットに指示し、前記第1処理モジュールは具体的には、
    前記第1信号に対して第2フィルタリング処理を実行して第2フィルタリング信号を取得し、前記第2フィルタリング信号に対して強化処理を実行してフィルタリング強化信号を取得し、
    前記第1信号に対して第1フィルタリング処理を実行して第1フィルタリング信号を取得し、
    前記フィルタリング強化信号及び前記第1オーディオ信号に対してオーディオミキシング処理を実行して第6オーディオ信号を取得し、
    前記第2信号に含まれる前記第6オーディオ信号をフィルタリング除去して第4フィルタリング済み信号を取得し、
    前記第4フィルタリング済み信号に対して第3フィルタリング処理を実行して第5フィルタリング済み信号を取得し、
    前記第5フィルタリング済み信号、前記第6オーディオ信号、及び前記第1フィルタリング信号に対してオーディオミキシング処理を実行して前記第2オーディオ信号を取得する
    ように構成される、請求項21から34のいずれか一項に記載の装置。
  40. 前記第1フィルタリング処理について使用されるフィルタリング係数は、前記AH機能の場合における前記第1フィルタリング処理についての目標処理強度に関連付けられるフィルタリング係数であり、
    前記第2フィルタリング処理について使用されるフィルタリング係数は、前記AH機能の場合における前記第2フィルタリング処理についての目標処理強度に関連付けられるフィルタリング係数であり、又は、
    前記第3フィルタリング処理について使用されるフィルタリング係数は、前記AH機能の場合における前記第3フィルタリング処理についての目標処理強度に関連付けられるフィルタリング係数である、請求項39に記載の装置。
  41. 目標ヘッドセットであって、前記目標ヘッドセットは、左イヤホン及び右イヤホンを備え、前記左イヤホンは、請求項1から20のいずれか一項に記載の方法を実装するように構成され、又は、前記右イヤホンは、請求項1から20のいずれか一項に記載の方法を実装するように構成される、目標ヘッドセット。
  42. 第1マイクロホン、第2マイクロホン、プロセッサ、メモリ及びスピーカを備える目標ヘッドセットであって、
    前記第1マイクロホンは、第1信号を収集するように構成され、前記第1信号は、現在の外部環境における音を示し、
    前記第2マイクロホンは、第2信号を収集するように構成され、前記第2信号は、前記ヘッドセットを装着しているユーザの外耳道における環境音を示し、
    前記メモリは、プログラム又は命令を記憶するように構成され、
    前記プロセッサは、前記プログラム又は命令を呼び出し、前記目標ヘッドセットが、前記第1信号及び前記第2信号について、請求項1から20のいずれか一項に記載の方法を実行して第2オーディオ信号を取得することを可能にするように構成され、
    前記スピーカは、前記第2オーディオ信号を再生するように構成される、目標ヘッドセット。
JP2022580546A 2020-06-30 2021-06-30 ヘッドセットノイズ処理方法、装置及びヘッドセット Pending JP2023532078A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010623983.X 2020-06-30
CN202010623983.XA CN113873378B (zh) 2020-06-30 2020-06-30 一种耳机噪声处理方法、装置及耳机
PCT/CN2021/103768 WO2022002166A1 (zh) 2020-06-30 2021-06-30 一种耳机噪声处理方法、装置及耳机

Publications (1)

Publication Number Publication Date
JP2023532078A true JP2023532078A (ja) 2023-07-26

Family

ID=78982040

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022580546A Pending JP2023532078A (ja) 2020-06-30 2021-06-30 ヘッドセットノイズ処理方法、装置及びヘッドセット

Country Status (5)

Country Link
US (1) US20230134787A1 (ja)
EP (1) EP4167590A4 (ja)
JP (1) JP2023532078A (ja)
CN (1) CN113873378B (ja)
WO (1) WO2022002166A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113507662B (zh) * 2021-06-29 2023-01-10 锐迪科微电子(上海)有限公司 降噪处理方法、装置、设备、存储介质及程序
CN114630239B (zh) * 2022-02-23 2024-08-13 北京小米移动软件有限公司 降低耳机闭塞效应方法、装置及存储介质
WO2023160286A1 (zh) * 2022-02-28 2023-08-31 荣耀终端有限公司 降噪参数适配方法和装置
CN116709116A (zh) * 2022-02-28 2023-09-05 北京荣耀终端有限公司 声音信号的处理方法及耳机设备
CN114466278B (zh) * 2022-04-11 2022-08-16 北京荣耀终端有限公司 一种耳机模式对应的参数确定方法、耳机、终端和系统
CN115002595B (zh) * 2022-04-21 2023-03-28 广东华冠智联科技有限公司 耳机的节能控制方法、装置、设备及存储介质
CN114640938B (zh) * 2022-05-18 2022-08-23 深圳市听多多科技有限公司 一种基于蓝牙耳机芯片的助听功能实现方法及蓝牙耳机
CN115206278A (zh) * 2022-06-08 2022-10-18 荣耀终端有限公司 一种声音降噪的方法和装置
WO2023245390A1 (zh) * 2022-06-20 2023-12-28 北京小米移动软件有限公司 智能耳机的控制方法、装置、电子设备和存储介质
CN115134708B (zh) * 2022-06-30 2024-07-30 歌尔股份有限公司 耳机模式切换方法、装置、电子设备及可读存储介质
CN117528370A (zh) * 2022-07-30 2024-02-06 华为技术有限公司 信号处理方法及装置、设备控制方法及装置
CN117676406A (zh) * 2022-08-30 2024-03-08 博通集成电路(上海)股份有限公司 主动降噪耳机
CN115379340A (zh) * 2022-09-13 2022-11-22 湖南炬神电子有限公司 一种消噪运动蓝牙耳机
CN118057837A (zh) * 2022-11-21 2024-05-21 荣耀终端有限公司 透传模式的切换方法和切换装置
CN116156385B (zh) * 2023-04-19 2023-07-07 深圳市汇顶科技股份有限公司 滤波方法、滤波装置、芯片和耳机

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK1439734T3 (da) * 2004-02-10 2009-07-27 Phonak Ag Akustisk modforvrænger for höreapparater
US8923543B2 (en) * 2012-12-19 2014-12-30 Starkey Laboratories, Inc. Hearing assistance device vent valve
EP3255897B1 (en) * 2015-05-15 2021-02-17 Huawei Technologies Co. Ltd. Method and terminal for configuring noise reduction earphone, and noise reduction earphone
CN107533839B (zh) * 2015-12-17 2021-02-23 华为技术有限公司 一种对周围环境音的处理方法及设备
US9830930B2 (en) * 2015-12-30 2017-11-28 Knowles Electronics, Llc Voice-enhanced awareness mode
EP3188495B1 (en) * 2015-12-30 2020-11-18 GN Audio A/S A headset with hear-through mode
KR101756674B1 (ko) * 2016-05-27 2017-07-25 주식회사 이엠텍 보청기 기능의 능동 소음 제거 헤드셋 장치
CN107517415B (zh) * 2016-06-16 2024-06-07 江西斐耳科技有限公司 智能耳机
CN106792315B (zh) * 2017-01-05 2023-11-21 歌尔科技有限公司 一种抵消环境噪声的方法和装置及一种主动降噪耳机
CN206698392U (zh) * 2017-02-14 2017-12-01 歌尔股份有限公司 降噪耳机以及电子设备
US10129633B1 (en) * 2017-10-13 2018-11-13 Bose Corporation Automated awareness for ANR systems
CN108391206A (zh) * 2018-03-30 2018-08-10 广东欧珀移动通信有限公司 信号处理方法、装置、终端、耳机及可读存储介质
CN112770214B (zh) * 2021-01-28 2022-11-11 歌尔科技有限公司 耳机的控制方法、装置及耳机

Also Published As

Publication number Publication date
EP4167590A4 (en) 2023-12-13
CN113873378A (zh) 2021-12-31
EP4167590A1 (en) 2023-04-19
US20230134787A1 (en) 2023-05-04
WO2022002166A1 (zh) 2022-01-06
CN113873378B (zh) 2023-03-10

Similar Documents

Publication Publication Date Title
CN113873378B (zh) 一种耳机噪声处理方法、装置及耳机
WO2022002110A1 (zh) 一种模式控制方法、装置及终端设备
WO2021213120A1 (zh) 投屏方法、装置和电子设备
CN113169760B (zh) 无线短距离音频共享方法及电子设备
WO2021083128A1 (zh) 一种声音处理方法及其装置
WO2021036770A1 (zh) 一种分屏处理方法及终端设备
US20230041696A1 (en) Image Syntheis Method, Electronic Device, and Non-Transitory Computer-Readable Storage Medium
WO2020056684A1 (zh) 通过转发模式连接的多tws耳机实现自动翻译的方法及装置
WO2024027259A1 (zh) 信号处理方法及装置、设备控制方法及装置
CN113571035B (zh) 降噪方法及降噪装置
CN112150778A (zh) 环境音处理方法及相关装置
JP2022536868A (ja) 通話方法および装置
WO2022242300A1 (zh) 线性马达的振动波形调整方法及装置
WO2022257563A1 (zh) 一种音量调节的方法,电子设备和系统
CN111065020B (zh) 音频数据处理的方法和装置
WO2022089563A1 (zh) 一种声音增强方法、耳机控制方法、装置及耳机
WO2022242299A1 (zh) 驱动波形的调整方法及装置、电子设备、可读存储介质
CN116962937A (zh) 穿戴设备、拾音方法及装置
WO2024046416A1 (zh) 一种音量调节方法、电子设备及系统
WO2024046182A1 (zh) 一种音频播放方法、系统及相关装置
WO2022242301A1 (zh) 振动描述文件的生成方法、装置、设备及可读存储介质
WO2024032035A1 (zh) 一种语音信号的输出方法和电子设备
CN118466894A (zh) 音效控制的方法、装置和电子设备
CN118098261A (zh) 一种音频处理方法、设备及系统
CN118785048A (zh) 音频处理系统、方法及电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240903