JP6977768B2 - 情報処理装置、情報処理方法、音声出力装置、および音声出力方法 - Google Patents
情報処理装置、情報処理方法、音声出力装置、および音声出力方法 Download PDFInfo
- Publication number
- JP6977768B2 JP6977768B2 JP2019513538A JP2019513538A JP6977768B2 JP 6977768 B2 JP6977768 B2 JP 6977768B2 JP 2019513538 A JP2019513538 A JP 2019513538A JP 2019513538 A JP2019513538 A JP 2019513538A JP 6977768 B2 JP6977768 B2 JP 6977768B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- voice
- noise
- difficulty
- noise source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 33
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000000034 method Methods 0.000 title description 34
- 239000003795 chemical substances by application Substances 0.000 description 56
- 230000015572 biosynthetic process Effects 0.000 description 28
- 238000003786 synthesis reaction Methods 0.000 description 28
- 238000001514 detection method Methods 0.000 description 23
- 238000005516 engineering process Methods 0.000 description 23
- 230000000694 effects Effects 0.000 description 10
- 230000007613 environmental effect Effects 0.000 description 9
- 230000005236 sound signal Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 230000001965 increasing effect Effects 0.000 description 6
- 238000000926 separation method Methods 0.000 description 5
- 238000001228 spectrum Methods 0.000 description 5
- 239000003550 marker Substances 0.000 description 4
- 239000008186 active pharmaceutical agent Substances 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000005314 correlation function Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005562 fading Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 206010011878 Deafness Diseases 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 231100000895 deafness Toxicity 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 208000016354 hearing loss disease Diseases 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 206010011469 Crying Diseases 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G3/00—Gain control in amplifiers or frequency changers
- H03G3/20—Automatic control
- H03G3/30—Automatic control in amplifiers having semiconductor devices
- H03G3/32—Automatic control in amplifiers having semiconductor devices the control being dependent upon ambient noise level or sound level
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
- G10L13/047—Architecture of speech synthesisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G5/00—Tone control or bandwidth control in amplifiers
- H03G5/005—Tone control or bandwidth control in amplifiers of digital signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04Q—SELECTING
- H04Q9/00—Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/406—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Otolaryngology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Circuit For Audible Band Transducer (AREA)
Description
2.第1の実施の形態(ホームエージェント機器単体)
3.第2の実施の形態(ホームエージェント機器と外部機器との連携)
4.第3の実施の形態(クラウドコンピューティングへの適用)
5.その他(屋外で利用される機器への適用)
図1には、ユーザ10と、ユーザ10に対して発話を行う音声出力装置20が示されている。音声出力装置20は、家庭用の音声アシスタントデバイス(ホームエージェント機器)として構成される。
(音声出力装置の機能構成例)
図2は、本技術を適用した第1の実施の形態の音声出力装置20の機能構成例を示している。
次に、図3のフローチャートを参照して、音声出力装置20による音声出力処理の流れについて説明する。
近年、家電機器のIoT(Internet of Things)化や、家庭内におけるWi−Fiなどの無線LAN環境の普及により、ホームエージェント機器が、家電機器を一括してコントロールする方向にある。
図6は、ホームエージェント機器と外部機器とが連携したシステムの構成例を示している。
図7は、本技術を適用した第2の実施の形態の音声出力装置120および外部機器130の機能構成例を示している。
・PCにおいて、キーボードやマウスが操作されている。
・ゲーム機において、コントローラが操作されており、ユーザ10がプレイ中である。
・固定電話機やインターホンにおいて、ユーザ10が通話中である。
・冷蔵庫において、ドアが開かれている。
・炊飯器が稼働中で、そのふたが開けられている。
・ハンディ型の掃除機が稼働中である。
・テレビにおいて、映像および音声が出力されている。
・ラジオにおいて、音声が出力されている。
・オーディオ機器において、音楽が再生されている。
ここで、図10のフローチャートを参照して、音声出力制御部56によって実行される音声出力機器決定処理の詳細について説明する。図10の処理は、通知発話が行われるタイミング(直前)で開始される。
本実施の形態においては、音声出力機器(ホームエージェント機器または外部機器)の発話中にユーザが移動する場合、ユーザの位置の変化に追従して音声出力機器を動的に切り替えるようにすることもできる。
本実施の形態においては、ユーザがホームエージェント機器周辺に存在しないため、ホームエージェント機器がユーザを検出できず、ユーザの近傍に位置する外部機器がユーザを検出した場合、その外部機器を音声出力機器に決定するようにすることもできる。
本実施の形態において、ホームエージェント機器(音声出力装置120)が、音声出力機器に決定された外部機器にヘッドホンやイヤホンが接続されていることを検知できるようにしてもよい。この場合、その外部機器とホームエージェント機器の両方から発話音声が出力されるようにする。
本技術は、クラウドコンピューティングへ適用することもできる。
図15は、本技術を適用した第3の実施の形態のサーバの機能構成例を示している。
以上においては、本技術を、家庭内で利用されるホームエージェント機器に適用した例について説明したが、屋外で利用される機器に適用されるようにしてもよい。
(1)
ユーザに向けて音声出力可能な機器において取得された画像と所定の騒音源からの騒音とに基づいて、前記ユーザの位置での前記機器からの音声の聞き取り難さを示す情報を出力する処理部
を備える情報処理装置。
(2)
前記処理部は、前記情報として、前記ユーザの位置での騒音レベル、前記ユーザからみた前記機器と前記騒音源との角度差、および、前記機器と前記ユーザとの距離を用いて算出される聞き取り難さスコアを出力する
(1)に記載の情報処理装置。
(3)
前記処理部は、前記情報として、前記ユーザの位置での騒音レベル、前記ユーザからみた前記機器と前記騒音源との角度差、および、前記機器と前記ユーザとの距離それぞれを表すパラメータを出力する
(1)に記載の情報処理装置。
(4)
前記処理部は、前記情報として、前記ユーザの位置での騒音レベル、前記ユーザからみた前記機器と前記騒音源との角度差、および、前記機器と前記ユーザとの距離それぞれを表すパラメータ、並びに、それらを用いて算出される聞き取り難さスコアの少なくともいずれかを出力する
(1)に記載の情報処理装置。
(5)
前記処理部は、前記騒音源が複数ある場合、前記騒音源毎に、前記ユーザの位置での騒音レベル、および、前記ユーザからみた前記機器と前記騒音源との角度差を算出する
(2)乃至(4)のいずれかに記載の情報処理装置。
(6)
前記処理部は、前記機器に接続された音声出力可能な他の機器の位置に基づいて、前記ユーザの位置での前記他の機器からの音声の聞き取り難さを示す他の情報をさらに出力する
(1)乃至(5)のいずれかに記載の情報処理装置。
(7)
前記機器として、前記ユーザに向けて音声を出力するように構成される
(1)乃至(6)のいずれかに記載の情報処理装置。
(8)
前記ユーザの位置での音声の聞き取り難さを示す前記情報を用いて、前記ユーザに向けて出力される音声の特性を決定するパラメータを生成することで、前記音声の出力を制御する音声出力制御部をさらに備える
(7)に記載の情報処理装置。
(9)
前記音声出力制御部は、前記パラメータにより決定される前記音声の音量が、出力可能な音量の上限を超える場合、前記機器に接続された音声出力可能な他の機器を、前記音声を出力する音声出力機器に決定する
(8)に記載の情報処理装置。
(10)
前記音声出力制御部は、前記ユーザによる前記他の機器の使用状況に基づいて、前記他の機器を、前記音声出力機器に決定する
(9)に記載の情報処理装置。
(11)
前記音声出力制御部は、前記ユーザとの距離がより近い前記他の機器を、前記音声出力機器に決定する
(9)に記載の情報処理装置。
(12)
前記音声出力制御部は、前記ユーザからみた前記騒音源との角度差がより大きい前記他の機器を、前記音声出力機器に決定する
(9)に記載の情報処理装置。
(13)
ユーザに向けて音声出力可能な機器において取得された画像と所定の騒音源からの騒音とに基づいて、前記ユーザの位置での前記機器からの音声の聞き取り難さを示す情報を出力する
ステップを含む情報処理方法。
(14)
自装置において取得された画像と所定の騒音源からの騒音とに基づいて生成された、ユーザの位置での前記自装置からの音声の聞き取り難さを示す情報を用いて、前記ユーザに向けて出力される音声の特性を決定するパラメータを生成することで、前記音声の出力を制御する音声出力制御部
を備える音声出力装置。
(15)
前記情報は、前記ユーザの位置での騒音レベル、前記ユーザからみた前記自装置と前記騒音源との角度差、および前記自装置と前記ユーザとの距離を用いて算出される聞き取り難さスコアである
(14)に記載の音声出力装置。
(16)
前記情報は、前記ユーザの位置での騒音レベル、前記ユーザからみた前記自装置と前記騒音源との角度差、および、前記自装置と前記ユーザとの距離それぞれを表すパラメータである
(14)に記載の音声出力装置。
(17)
前記情報は、前記ユーザの位置での騒音レベル、前記ユーザからみた前記自装置と前記騒音源との角度差、および、前記自装置と前記ユーザとの距離それぞれを表すパラメータ、並びに、それらを用いて算出される聞き取り難さスコアの少なくともいずれかである
(14)に記載の音声出力装置。
(18)
自装置において取得された画像と所定の騒音源からの騒音とに基づいて生成された、ユーザの位置での前記自装置からの音声の聞き取り難さを示す情報を用いて、前記ユーザに向けて出力される前記音声の特性を決定するパラメータを生成することで、前記音声の出力を制御する
ステップを含む音声出力方法。
Claims (16)
- ユーザに向けて音声出力可能な機器において取得された画像と所定の騒音源からの騒音とに基づいて、前記ユーザの位置での前記機器からの音声の聞き取り難さを示す情報として、前記ユーザの位置での騒音レベル、前記ユーザからみた前記機器と前記騒音源との角度差、および、前記機器と前記ユーザとの距離それぞれを表すパラメータ、並びに、それらを用いて算出される聞き取り難さスコアの少なくともいずれかを出力する処理部
を備える情報処理装置。 - 前記処理部は、前記情報として、前記ユーザの位置での騒音レベル、前記ユーザからみた前記機器と前記騒音源との角度差、および、前記機器と前記ユーザとの距離を用いて算出される聞き取り難さスコアを出力する
請求項1に記載の情報処理装置。 - 前記処理部は、前記情報として、前記ユーザの位置での騒音レベル、前記ユーザからみた前記機器と前記騒音源との角度差、および、前記機器と前記ユーザとの距離それぞれを表すパラメータを出力する
請求項1に記載の情報処理装置。 - 前記処理部は、前記騒音源が複数ある場合、前記騒音源毎に、前記ユーザの位置での騒音レベル、および、前記ユーザからみた前記機器と前記騒音源との角度差を算出する
請求項2に記載の情報処理装置。 - 前記処理部は、前記機器に接続された音声出力可能な他の機器の位置に基づいて、前記ユーザの位置での前記他の機器からの音声の聞き取り難さを示す他の情報をさらに出力する
請求項1乃至4のいずれかに記載の情報処理装置。 - 前記機器として、前記ユーザに向けて音声を出力するように構成される
請求項1乃至5のいずれかに記載の情報処理装置。 - 前記ユーザの位置での音声の聞き取り難さを示す前記情報を用いて、前記ユーザに向けて出力される音声の特性を決定するパラメータを生成することで、前記音声の出力を制御する音声出力制御部をさらに備える
請求項6に記載の情報処理装置。 - 前記音声出力制御部は、前記パラメータにより決定される前記音声の音量が、出力可能な音量の上限を超える場合、前記機器に接続された音声出力可能な他の機器を、前記音声を出力する音声出力機器に決定する
請求項7に記載の情報処理装置。 - 前記音声出力制御部は、前記ユーザによる前記他の機器の使用状況に基づいて、前記他の機器を、前記音声出力機器に決定する
請求項8に記載の情報処理装置。 - 前記音声出力制御部は、前記ユーザとの距離がより近い前記他の機器を、前記音声出力機器に決定する
請求項8に記載の情報処理装置。 - 前記音声出力制御部は、前記ユーザからみた前記騒音源との角度差がより大きい前記他の機器を、前記音声出力機器に決定する
請求項8に記載の情報処理装置。 - ユーザに向けて音声出力可能な機器において取得された画像と所定の騒音源からの騒音とに基づいて、前記ユーザの位置での前記機器からの音声の聞き取り難さを示す情報として、前記ユーザの位置での騒音レベル、前記ユーザからみた前記機器と前記騒音源との角度差、および、前記機器と前記ユーザとの距離それぞれを表すパラメータ、並びに、それらを用いて算出される聞き取り難さスコアの少なくともいずれかを出力する
ステップを含む情報処理方法。 - 自装置において取得された画像と所定の騒音源からの騒音とに基づいて生成された、ユーザの位置での前記自装置からの音声の聞き取り難さを示す情報として、前記ユーザの位置での騒音レベル、前記ユーザからみた前記自装置と前記騒音源との角度差、および、前記自装置と前記ユーザとの距離それぞれを表すパラメータ、並びに、それらを用いて算出される聞き取り難さスコアの少なくともいずれかを用いて、前記ユーザに向けて出力される音声の特性を決定するパラメータを生成することで、前記音声の出力を制御する音声出力制御部
を備える音声出力装置。 - 前記情報は、前記ユーザの位置での騒音レベル、前記ユーザからみた前記自装置と前記騒音源との角度差、および前記自装置と前記ユーザとの距離を用いて算出される聞き取り難さスコアである
請求項13に記載の音声出力装置。 - 前記情報は、前記ユーザの位置での騒音レベル、前記ユーザからみた前記自装置と前記騒音源との角度差、および、前記自装置と前記ユーザとの距離それぞれを表すパラメータである
請求項13に記載の音声出力装置。 - 自装置において取得された画像と所定の騒音源からの騒音とに基づいて生成された、ユーザの位置での前記自装置からの音声の聞き取り難さを示す情報として、前記ユーザの位置での騒音レベル、前記ユーザからみた前記自装置と前記騒音源との角度差、および、前記自装置と前記ユーザとの距離それぞれを表すパラメータ、並びに、それらを用いて算出される聞き取り難さスコアの少なくともいずれかを用いて、前記ユーザに向けて出力される前記音声の特性を決定するパラメータを生成することで、前記音声の出力を制御する
ステップを含む音声出力方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017081035 | 2017-04-17 | ||
JP2017081035 | 2017-04-17 | ||
PCT/JP2018/014200 WO2018193826A1 (ja) | 2017-04-17 | 2018-04-03 | 情報処理装置、情報処理方法、音声出力装置、および音声出力方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018193826A1 JPWO2018193826A1 (ja) | 2020-02-27 |
JP6977768B2 true JP6977768B2 (ja) | 2021-12-08 |
Family
ID=63855785
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019513538A Active JP6977768B2 (ja) | 2017-04-17 | 2018-04-03 | 情報処理装置、情報処理方法、音声出力装置、および音声出力方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11232781B2 (ja) |
EP (1) | EP3614692A4 (ja) |
JP (1) | JP6977768B2 (ja) |
WO (1) | WO2018193826A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102420567B1 (ko) * | 2017-12-19 | 2022-07-13 | 삼성전자주식회사 | 음성 인식 장치 및 방법 |
JP7194897B2 (ja) * | 2018-12-06 | 2022-12-23 | パナソニックIpマネジメント株式会社 | 信号処理装置及び信号処理方法 |
US11043204B2 (en) * | 2019-03-18 | 2021-06-22 | Servicenow, Inc. | Adaptable audio notifications |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4161490B2 (ja) | 1999-11-30 | 2008-10-08 | ソニー株式会社 | 音響信号出力制御装置および音響信号出力制御方法、並びに記録媒体 |
JP5464815B2 (ja) | 2008-03-25 | 2014-04-09 | オリンパスメディカルシステムズ株式会社 | 撮像システムおよび撮像システムのセルフチェック処理の動作方法 |
US9224395B2 (en) * | 2008-07-02 | 2015-12-29 | Franklin S. Felber | Voice detection for automatic volume controls and voice sensors |
JP2010200280A (ja) | 2009-02-27 | 2010-09-09 | Canon Inc | 出力システム、出力制御装置、出力制御方法、及びプログラム |
JP2012255852A (ja) | 2011-06-08 | 2012-12-27 | Panasonic Corp | テレビジョン装置 |
US9692380B2 (en) | 2015-04-08 | 2017-06-27 | Google Inc. | Dynamic volume adjustment |
US10147439B1 (en) * | 2017-03-30 | 2018-12-04 | Amazon Technologies, Inc. | Volume adjustment for listening environment |
-
2018
- 2018-04-03 US US16/492,249 patent/US11232781B2/en active Active
- 2018-04-03 EP EP18788090.1A patent/EP3614692A4/en not_active Withdrawn
- 2018-04-03 JP JP2019513538A patent/JP6977768B2/ja active Active
- 2018-04-03 WO PCT/JP2018/014200 patent/WO2018193826A1/ja unknown
Also Published As
Publication number | Publication date |
---|---|
US20200051546A1 (en) | 2020-02-13 |
EP3614692A1 (en) | 2020-02-26 |
EP3614692A4 (en) | 2020-04-29 |
WO2018193826A1 (ja) | 2018-10-25 |
JPWO2018193826A1 (ja) | 2020-02-27 |
US11232781B2 (en) | 2022-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Launer et al. | Hearing aid signal processing | |
JP6977768B2 (ja) | 情報処理装置、情報処理方法、音声出力装置、および音声出力方法 | |
CN108235181B (zh) | 在音频处理装置中降噪的方法 | |
CN109410973B (zh) | 变声处理方法、装置和计算机可读存储介质 | |
CN114902688B (zh) | 内容流处理方法和装置、计算机系统和介质 | |
CN113905320B (zh) | 为考虑语音检测而调节声音回放的方法和系统 | |
EP3777114B1 (en) | Dynamically adjustable sidetone generation | |
CN115482830B (zh) | 语音增强方法及相关设备 | |
KR20220044204A (ko) | 분산형 오디오 디바이스들을 위한 음향 반향 소거 제어 | |
US20240096343A1 (en) | Voice quality enhancement method and related device | |
US11211080B2 (en) | Conversation dependent volume control | |
JP6849054B2 (ja) | 会話装置、音声処理システム、音声処理方法、および音声処理プログラム | |
CN109841223B (zh) | 一种音频信号处理方法、智能终端及存储介质 | |
RU2818982C2 (ru) | Управление акустической эхокомпенсацией для распределенных аудиоустройств | |
JP2020201337A (ja) | 音声処理装置及び音声処理方法 | |
US12003673B2 (en) | Acoustic echo cancellation control for distributed audio devices | |
JP7459391B2 (ja) | オーディオソース指向性に基づく心理音響的強調 | |
CN113314121B (zh) | 无声语音识别方法、装置、介质、耳机及电子设备 | |
US20240087597A1 (en) | Source speech modification based on an input speech characteristic | |
US20220360899A1 (en) | Dynamics processing across devices with differing playback capabilities | |
EP4158625A1 (en) | A own voice detector of a hearing device | |
CN116783900A (zh) | 基于子带域声学回声消除器的声学状态估计器 | |
CN115580678A (zh) | 一种数据处理方法、装置和设备 | |
JP6409378B2 (ja) | 音声通信装置およびプログラム | |
TWI566240B (zh) | 音訊處理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210824 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210917 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211012 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211025 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6977768 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |