JP2016170405A - 音声処理装置、音声処理方法及び音声処理プログラム - Google Patents

音声処理装置、音声処理方法及び音声処理プログラム Download PDF

Info

Publication number
JP2016170405A
JP2016170405A JP2016038911A JP2016038911A JP2016170405A JP 2016170405 A JP2016170405 A JP 2016170405A JP 2016038911 A JP2016038911 A JP 2016038911A JP 2016038911 A JP2016038911 A JP 2016038911A JP 2016170405 A JP2016170405 A JP 2016170405A
Authority
JP
Japan
Prior art keywords
voice
signal
audio
output
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016038911A
Other languages
English (en)
Other versions
JP6731632B2 (ja
Inventor
野村 和也
Kazuya Nomura
和也 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JP2016170405A publication Critical patent/JP2016170405A/ja
Priority to JP2020105208A priority Critical patent/JP6931819B2/ja
Application granted granted Critical
Publication of JP6731632B2 publication Critical patent/JP6731632B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/84Detection of presence or absence of voice signals for discriminating voice from noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • G10L21/028Voice signal separating using properties of sound source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/40Arrangements for obtaining a desired directivity characteristic
    • H04R25/407Circuits for combining signals of a plurality of transducers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/81Detection of presence or absence of voice signals for discriminating voice from music
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1083Reduction of ambient noise

Abstract

【課題】ユーザの周囲の音声の中から、ユーザに提供する音声を出力することができる音声処理装置、音声処理方法及び音声処理プログラムを提供する。【解決手段】音声抽出部12は、ユーザの周囲の音声を示す周囲音声信号を取得し、抑圧音判別部152は、音声抽出部12によって取得された周囲音声信号から、ユーザに提供する音声を示す提供音声信号を抽出し、信号加算部17は、主音声を示す第1の音声信号及び提供音声信号を出力する。【選択図】図1

Description

本開示は、ユーザの周囲の音声を示す音声信号を取得し、取得した音声信号に対して所定の処理を施す音声処理装置、音声処理方法及び音声処理プログラムに関するものである。
補聴器の一つの基本機能は、会話する相手の声をいかに聴きやすくするかである。この機能を実現するため、会話する相手の声を強調する手段として、適応指向性収音処理、雑音抑圧処理及び音源分離処理等が用いられる。これにより、会話する相手の声以外の音を抑圧することができる。
また、携帯音楽プレーヤ又は携帯ラジオなどは、周囲の音を入力する手段を持たず、専ら機器に蓄積された内容を再生したり、受信した放送の内容を出力したりする。
さらに、一部のヘッドホンは、周囲の音を入力する手段を備え、内部処理で周囲の音を打ち消す信号を生成し、生成した信号を再生音に混合して出力することにより、周囲の音を抑圧する。この技術により、再生のための電子機器のユーザの周囲にある騒音を遮断しつつ、ユーザが所望する再生音を得ることができる。
例えば、特許文献1における聴覚補助装置(補聴器)は、マイクで集音した外来音を常時リングバッファに書き込んでおり、リングバッファが記憶する外来音データから一定期間分の外来音データを読み出して分析し、声の有無を判定し、直前の判定結果が声無しの場合、リングバッファに書き込み直後の外来音データを読み出して、環境音用の増幅率で増幅してスピーカから出力し、直前の判定結果が声無しであったが今回の判定結果が声有りの場合、声有りと判定した一定期間分の外来音データをリングバッファから読み出して、時間圧縮しながら声用の増幅率で増幅してスピーカから出力する。
また、特許文献2における話速変換装置は、入力音声信号を有声区間と無音・無声区間に分離し、有声区間を無音・無声区間へ時間的に伸長させる信号処理を施すことにより話速を変換させた信号を出力し、入力音声信号から予報音信号と正報音信号とで構成された時報信号中の予報音信号を検出し、予報音信号を検出した場合に、信号処理後の有声区間から時報信号を削除し、予報音信号を検出した場合に、予報音信号と正報音信号とで構成された新たな時報信号を生成し、生成した新たな時報信号を、その時報信号の正報音の出力タイミングが入力音声信号の時報信号中の正報音が出力されると仮定した場合の出力タイミングと一致するように、出力信号に対して合成する。
また、特許文献3における両耳補聴器システムは、使用者の第一耳の中又はそばに配置するように構成された、第一入力信号を提供する第一マイクロホンシステム、及び使用者の第二耳の中又はそばに配置するように構成された、第二入力信号を提供する第二マイクロホンシステムを備え、全方向性(OMNI)マイクロホンモードと指向性(DIR)マイクロホンモードとを自動的に切換えている。
特開2005−64744号公報 特開2005−148434号公報 特表2009−528802号公報
上記従来の技術では、更なる改善が必要とされていた。
本開示の一局面に係る音声処理装置は、ユーザの周囲の音声を示す周囲音声信号を取得する周囲音声取得部と、前記周囲音声取得部によって取得された前記周囲音声信号から、ユーザに提供する音声を示す提供音声信号を抽出する音声抽出部と、主音声を示す第1の音声信号及び前記提供音声信号を出力する出力部と、を備える。
本開示によれば、ユーザの周囲の音声の中から、ユーザに提供する音声を出力することができる。
なお、本開示の更なる効果及び利点は、本明細書及び図面の開示内容から明らかとなるであろう。上記更なる効果及び利点は、本明細書及び図面に開示されている様々な実施の形態及び特徴によって個別に提供されてもよく、必ずしもすべての効果及び利点が提供される必要はない。
実施の形態1における音声処理装置の構成を示す図である。 実施の形態1における出力パターンの一例を示す図である。 実施の形態1における音声処理装置の動作の一例を説明するためのフローチャートである。 ユーザに提供する抑圧音声信号を遅延して出力するタイミングの第1の変形例について説明するための模式図である。 ユーザに提供する抑圧音声信号を遅延して出力するタイミングの第2の変形例について説明するための模式図である。 実施の形態2における音声処理装置の構成を示す図である。 実施の形態2における音声処理装置の動作の一例を説明するためのフローチャートである。 実施の形態3における音声処理装置の構成を示す図である。 実施の形態3における音声処理装置の動作の一例を説明するためのフローチャートである。 実施の形態4における音声処理装置の構成を示す図である。 実施の形態4における音声処理装置の動作の一例を説明するためのフローチャートである。
(本開示の基礎となった知見)
従来技術によれば、会話する相手の声以外の音を抑圧するため、例えば電話の着信音などを含むユーザの周囲の音を、ユーザは全く聞くことができなくなる。このため、ユーザは、電話の着信音が鳴ったとしても聞こえず、電話の着信に気づかないということが起こる。
また、特許文献1では、声の有無が判定され、声有りと判定している場合には声無しと判定しているときよりも増幅率が高く設定されるので、騒音が大きい環境下で会話している場合は、騒音も大音量で出力されるため、会話が聞き取りにくくなるおそれがある。
また、特許文献2では、入力音声信号に対して話速変換を行った場合においても、時報については同時に又はほとんど遅延を生じさせることなく音声出力させているが、声及び時報以外の環境音については抑圧されておらず、会話が聞き取りにくくなるおそれがある。
また、特許文献3では、音声を取得するマイクロホンの全方向性マイクロホンモードと指向性マイクロホンモードとを自動的に切換えることについて開示しているが、取得した音声から、ユーザにとって不要な音声を抑圧するとともに、ユーザにとって必要な音声を抽出することについては開示されていない。
以上の考察に基づき、本発明者らは本開示の各態様を想到するに至った。
本開示の一局面に係る音声処理装置は、ユーザの周囲の音声を示す周囲音声信号を取得する周囲音声取得部と、前記周囲音声取得部によって取得された前記周囲音声信号から、ユーザに提供する音声を示す提供音声信号を抽出する音声抽出部と、主音声を示す第1の音声信号及び前記提供音声信号を出力する出力部と、を備える。
この構成によれば、ユーザの周囲の音声を示す周囲音声信号が取得され、取得された周囲音声信号から、ユーザに提供する音声を示す提供音声信号が抽出され、主音声を示す第1の音声信号及び提供音声信号が出力される。
したがって、ユーザの周囲の音声の中から、ユーザに提供する音声を出力することができる。
また、上記の音声処理装置において、前記周囲音声取得部によって取得された前記周囲音声信号を、前記第1の音声信号と、前記主音声とは異なる音声を示す第2の音声信号とに分離する音声分離部をさらに備え、前記音声抽出部は、前記音声分離部によって分離された前記第2の音声信号から前記提供音声信号を抽出し、前記出力部は、前記音声分離部によって分離された前記第1の音声信号を出力するとともに、前記音声抽出部によって抽出された前記提供音声信号を出力してもよい。
この構成によれば、取得された周囲音声信号が、第1の音声信号と、主音声とは異なる音声を示す第2の音声信号とに分離される。分離された第2の音声信号から提供音声信号が抽出される。分離された第1の音声信号が出力されるとともに、抽出された提供音声信号が出力される。
したがって、ユーザの周囲の音声の中から、主音声と、主音声とは異なる音声とが分離されるので、主音声とは異なる音声を抑圧することにより、ユーザは主音声をより明確に聞き取ることができる。
また、上記の音声処理装置において、前記主音声は、会話に参加している人が発話した音声を含んでもよい。
この構成によれば、会話に参加している人が発話した音声とは異なる音声を抑圧することにより、ユーザは、会話に参加している人が発話した音声をより明確に聞き取ることができる。
また、上記の音声処理装置において、前記第1の音声信号を予め記憶する音声信号記憶部をさらに備え、前記出力部は、前記音声信号記憶部から読み出した前記第1の音声信号を出力するとともに、前記音声抽出部によって抽出された前記提供音声信号を出力してもよい。
この構成によれば、第1の音声信号が音声信号記憶部に予め記憶され、音声信号記憶部から読み出した第1の音声信号が出力されるとともに、抽出された提供音声信号が出力されるので、ユーザの周囲の音声から主音声を分離するのではなく、予め記憶されている主音声を出力することができる。
また、上記の音声処理装置において、前記主音声は、音楽データを含んでもよい。この構成によれば、音楽データを出力することができる。
また、上記の音声処理装置において、前記提供音声信号に関するサンプル音声信号を記憶するサンプル音声記憶部をさらに備え、前記音声抽出部は、前記周囲音声信号の特徴量と、前記サンプル音声記憶部に記録されている前記サンプル音声信号の特徴量とを比較し、前記サンプル音声信号の特徴量に類似する特徴量を有する音声信号を前記提供音声信号として抽出してもよい。
この構成によれば、提供音声信号に関するサンプル音声信号がサンプル音声記憶部に記憶されている。周囲音声信号の特徴量と、サンプル音声記憶部に記録されているサンプル音声信号の特徴量とが比較され、サンプル音声信号の特徴量に類似する特徴量を有する音声信号が提供音声信号として抽出される。
したがって、周囲音声信号の特徴量と、サンプル音声記憶部に記録されているサンプル音声信号の特徴量とを比較することにより、提供音声信号を簡単に抽出することができる。
また、上記の音声処理装置において、前記提供音声信号を遅延させずに前記第1の音声信号とともに出力する第1の出力パターンと、前記第1の音声信号のみを出力した後、前記提供音声信号を遅延させて出力する第2の出力パターンと、前記周囲音声信号から前記提供音声出力が抽出されない場合、前記第1の音声信号のみを出力する第3の出力パターンとのうちいずれかの出力パターンを選択する選択部と、前記第1の出力パターンが選択された場合、前記提供音声信号を遅延させずに前記第1の音声信号とともに出力し、前記第2の出力パターンが選択された場合、前記第1の音声信号のみを出力した後、前記提供音声信号を遅延させて出力し、前記第3の出力パターンが選択された場合、前記第1の音声信号のみを出力する音声出力部と、をさらに備えてもよい。
この構成によれば、提供音声信号を遅延させずに第1の音声信号とともに出力する第1の出力パターンと、第1の音声信号のみを出力した後、提供音声信号を遅延させて出力する第2の出力パターンと、周囲音声信号から提供音声出力が抽出されない場合、第1の音声信号のみを出力する第3の出力パターンとのうちいずれかの出力パターンが選択される。第1の出力パターンが選択された場合、提供音声信号が遅延させずに第1の音声信号とともに出力される。第2の出力パターンが選択された場合、第1の音声信号のみが出力された後、提供音声信号が遅延させて出力される。第3の出力パターンが選択された場合、第1の音声信号のみが出力される。
したがって、提供音声信号の優先度に応じて提供音声信号を出力するタイミングを決定することができ、より緊急度の高い提供音声信号については、第1の音声信号とともに出力することができ、緊急度の低い提供音声信号については、第1の音声信号が出力された後に出力することができ、特にユーザに提供する必要がない周囲音声信号については、出力せずに抑圧することができる。
また、上記の音声処理装置において、前記第1の音声信号の出力が終了してから次の第1の音声信号が入力されるまでの無声区間を検出する無声区間検出部をさらに備え、前記音声出力部は、前記第2の出力パターンが選択された場合、前記無声区間検出部によって前記無声区間が検出されたか否かを判断し、前記無声区間が検出されたと判断された場合、前記第3の音声信号を前記無声区間に出力してもよい。
この構成によれば、第1の音声信号の出力が終了してから次の第1の音声信号が入力されるまでの無声区間が検出される。第2の出力パターンが選択された場合、無声区間検出部によって無声区間が検出されたか否かが判断され、無声区間が検出されたと判断された場合、第3の音声信号が無声区間に出力される。
したがって、人の発話がない無声区間に第3の音声信号が出力されるので、ユーザは、第3の音声信号をより明確に聞き取ることができる。
また、上記の音声処理装置において、前記第1の音声信号における話速を検出する話速検出部をさらに備え、前記音声出力部は、前記第2の出力パターンが選択された場合、前記話速検出部によって検出された前記話速が所定の速度より遅いか否かを判断し、前記話速が所定の速度より遅いと判断された場合、前記第3の音声信号を出力してもよい。
この構成によれば、第1の音声信号における話速が検出される。第2の出力パターンが選択された場合、検出された話速が所定の速度より遅いか否かが判断され、話速が所定の速度より遅いと判断された場合、第3の音声信号が出力される。
したがって、話速が所定の速度より遅くなった場合に、第3の音声信号が出力されるので、ユーザは、第3の音声信号をより明確に聞き取ることができる。
また、上記の音声処理装置において、前記第1の音声信号の出力が終了してから次の第1の音声信号が入力されるまでの無声区間を検出する無声区間検出部をさらに備え、前記音声出力部は、前記第2の出力パターンが選択された場合、前記無声区間検出部によって検出される前記無声区間が所定の長さ以上であるか否かを判断し、前記無声区間が所定の長さ以上であると判断された場合、前記第3の音声信号を前記無声区間に出力してもよい。
この構成によれば、第1の音声信号の出力が終了してから次の第1の音声信号が入力されるまでの無声区間が検出される。第2の出力パターンが選択された場合、検出される無
声区間が所定の長さ以上であるか否かが判断され、無声区間が所定の長さ以上であると判断された場合、第3の音声信号が無声区間に出力される。
したがって、発話が途切れた場合に、第3の音声信号が出力されるので、ユーザは、第3の音声信号をより明確に聞き取ることができる。
本開示の他の局面に係る音声処理方法は、ユーザの周囲の音声を示す周囲音声信号を取得する周囲音声取得ステップと、前記周囲音声取得ステップにおいて取得された前記周囲音声信号から、ユーザに提供する音声を示す提供音声信号を抽出する音声抽出ステップと、主音声を示す第1の音声信号及び前記提供音声信号を出力する出力ステップと、を含む。
この構成によれば、ユーザの周囲の音声を示す周囲音声信号が取得され、取得された周囲音声信号から、ユーザに提供する音声を示す提供音声信号が抽出され、主音声を示す第1の音声信号及び提供音声信号が出力される。
したがって、ユーザの周囲の音声の中から、ユーザに提供する音声を出力することができる。
本開示の他の局面に係る音声処理プログラムは、ユーザの周囲の音声を示す周囲音声信号を取得する周囲音声取得部と、前記周囲音声取得部によって取得された前記周囲音声信号から、ユーザに提供する音声を示す提供音声信号を抽出する音声抽出部と、主音声を示す第1の音声信号及び前記提供音声信号を出力する出力部としてコンピュータを機能させる。
この構成によれば、ユーザの周囲の音声を示す周囲音声信号が取得され、取得された周囲音声信号から、ユーザに提供する音声を示す提供音声信号が抽出され、主音声を示す第1の音声信号及び提供音声信号が出力される。
したがって、ユーザの周囲の音声の中から、ユーザに提供する音声を出力することができる。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラム、または、記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
以下添付図面を参照しながら、本開示の実施の形態について説明する。なお、以下の実施の形態は、本開示を具体化した一例であって、本開示の技術的範囲を限定するものではない。
(実施の形態1)
図1は、実施の形態1における音声処理装置の構成を示す図である。音声処理装置1は、例えば、補聴器である。
図1に示す音声処理装置1は、マイクアレイ11、音声抽出部12、会話評価部13、抑圧音格納部14、優先度評価部15、抑圧音出力部16、信号加算部17、音声強調部18及びスピーカ19を備える。
マイクアレイ11は、複数のマイクロホンで構成される。複数のマイクロホンのそれぞれは、周囲の音声を収音し、収音した音声を音声信号に変換する。
音声抽出部12は、音源毎に音声信号を抽出する。音声抽出部12は、ユーザの周囲の音声を示す周囲音声信号を取得する。音声抽出部12は、マイクアレイ11によって取得された複数の音声信号に基づいて、音源が異なる複数の音声信号を抽出する。音声抽出部12は、指向性合成部121及び音源分離部122を備える。
指向性合成部121は、マイクアレイ11から出力された複数の音声信号から、同一音源から出力された複数の音声信号を抽出する。
音源分離部122は、例えば、ブラインド音源分離処理により、入力された複数の音声信号を、人間が発話した音声であり、主音声を示す発話音声信号と、発話以外の音声であり、主音声とは異なる抑圧されるべき音声を示す抑圧音声信号とに分離する。主音声は、会話に参加している人が発話した音声を含む。音源分離部122は、音源毎に音声信号を分離する。例えば、複数の話者が発話する場合、音源分離部122は、複数の話者毎に音声信号を分離する。音源分離部122は、分離した発話音声信号を会話評価部13へ出力し、分離した抑圧音声信号を抑圧音格納部14へ出力する。
会話評価部13は、音源分離部122から入力された複数の発話音声信号を評価する。具体的に、会話評価部13は、複数の発話音声信号のそれぞれの話者を特定する。例えば、会話評価部13は、話者と、話者を識別するために用いられる音響パラメタとを対応付けて記憶する。会話評価部13は、入力された発話音声信号と、記憶されている音響パラメタとを比較することにより、発話音声信号に対応する話者を特定する。なお、会話評価部13は、入力された発話音声信号の大きさ(レベル)に基づいて話者を識別してもよい。すなわち、音声処理装置1を使用するユーザの音声は、会話する相手の音声よりも大きくなる。そこで、会話評価部13は、入力された発話音声信号のレベルが所定値以上である場合、当該発話音声信号がユーザ自身の発話であると判断し、入力された発話音声信号のレベルが所定値より小さい場合、当該発話音声信号がユーザ以外の人物の発話であると判断してもよい。また、会話評価部13は、レベルが2番目に大きい発話音声信号を、ユーザが会話している相手の音声を示す発話音声信号であると判断してもよい。
また、会話評価部13は、複数の発話音声信号のそれぞれの発話区間を特定する。また、会話評価部13は、発話音声信号の出力が終了してから次の発話音声信号が入力されるまでの無声区間を検出してもよい。なお、無声区間は、会話がない区間を表す。そのため、会話評価部13は、会話以外の音声があった場合は無声区間として検出しない。
また、会話評価部13は、複数の発話音声信号の話速(発話速度)を算出してもよい。例えば、会話評価部13は、所定の時間内に発話された文字数を所定の時間で除算した値を話速として算出してもよい。
抑圧音格納部14は、音源分離部122から入力された複数の抑圧音声信号を格納する。また、会話評価部13は、ユーザ自身が発話した音声を示す発話音声信号と、ユーザが会話している相手以外の人物が発話した音声を示す発話音声信号とを抑圧音格納部14へ出力してもよい。抑圧音格納部14は、ユーザ自身が発話した音声を示す発話音声信号と、ユーザが会話している相手以外の人物が発話した音声を示す発話音声信号とを格納してもよい。
優先度評価部15は、複数の抑圧音声信号の優先度を評価する。優先度評価部15は、抑圧音サンプル記憶部151、抑圧音判別部152及び抑圧音出力制御部153を備える。
抑圧音サンプル記憶部151は、ユーザに提供する抑圧音声信号の特徴量を示す音響パラメタを抑圧音声信号毎に記憶する。また、抑圧音サンプル記憶部151は、音響パラメタに対応付けて優先度を記憶してもよい。重要度(緊急度)が高い音声には、高い優先度が付与され、重要度(緊急度)が低い音声には、低い優先度が付与される。例えば、ユーザが会話中であっても、即座にユーザに通知した方がよい音声には、第1の優先度が付与され、会話が終了した後でユーザに通知してもよい音声には、第1の優先度より低い第2の優先度が付与される。また、ユーザに通知する必要がない音声については、第2の優先度より低い第3の優先度が付与されてもよい。なお、抑圧音サンプル記憶部151は、ユーザに通知する必要がない音声の音響パラメタを記憶しなくてもよい。
ここで、ユーザに提供する音声とは、例えば、電話機の着信音、メールの着信音、ドアホンの音、車のエンジン音(車が接近する音)、車のクラクションの音、又は洗濯完了を通知する通知音などの家電機器から通知される通知音などである。このユーザに提供する音声の中には、ユーザが直ちに対応する必要がある音声と、ユーザが直ちに対応する必要はないが、後から対応する必要がある音声とが含まれる。
抑圧音判別部152は、抑圧音格納部14に格納されている複数の抑圧音声信号のうち、ユーザに提供する音声を示す抑圧音声信号(提供音声信号)を判別する。抑圧音判別部152は、取得された周囲音声信号(抑圧音声信号)から、ユーザに提供する音声を示す抑圧音声信号を抽出する。抑圧音判別部152は、抑圧音格納部14に格納されている複数の抑圧音声信号の音響パラメタと、抑圧音サンプル記憶部151に記憶されている音響パラメタとを比較し、抑圧音サンプル記憶部151に記憶されている音響パラメタに類似する音響パラメタを有する抑圧音声信号を抑圧音格納部14から抽出する。
抑圧音出力制御部153は、抑圧音判別部152によってユーザに提供する音声を示す抑圧音声信号であると判別された抑圧音声信号に対応付けられている優先度に応じて、当該抑圧音声信号を出力するか否かを判断するとともに、抑圧音声信号を出力するタイミングを判断する。抑圧音出力制御部153は、抑圧音声信号を遅延させずに発話音声信号とともに出力する第1の出力パターンと、発話音声信号のみを出力した後、抑圧音声信号を遅延させて出力する第2の出力パターンと、抑圧音声信号が抽出されない場合、発話音声信号のみを出力する第3の出力パターンとのうちいずれかの出力パターンを選択する。
図2は、実施の形態1における出力パターンの一例を示す図である。抑圧音出力制御部153は、抑圧音声信号に第1の優先度が対応付けられている場合、抑圧音声信号を遅延させずに発話音声信号とともに出力する第1の出力パターンを選択する。また、抑圧音出力制御部153は、抑圧音声信号に第1の優先度より低い第2の優先度が対応付けられている場合、発話音声信号のみを出力した後、抑圧音声信号を遅延させて出力する第2の出力パターンを選択する。また、抑圧音出力制御部153は、ユーザに提供する抑圧音声信号が抽出されない場合、発話音声信号のみを出力する第3の出力パターンを選択する。
また、抑圧音出力制御部153は、第1の出力パターンが選択された場合、抑圧音声信号を出力するように抑圧音出力部16に指示する。また、抑圧音出力制御部153は、第2の出力パターンが選択された場合、会話評価部13によって無声区間が検出されたか否かを判断し、無声区間が検出されたと判断された場合、抑圧音声信号を出力するように抑圧音出力部16に指示する。また、抑圧音出力制御部153は、第3の出力パターンが選択された場合、抑圧音声信号を出力しないように抑圧音出力部16に指示する。
なお、抑圧音出力制御部153は、ユーザに提供する抑圧音声信号が発話音声信号に対して時間的に重なって入力されたか否かを判断してもよい。ユーザに提供する抑圧音声信号が発話音声信号に対して時間的に重なって入力されたと判断された場合、抑圧音出力制御部153は、第1から第3の出力パターンのいずれかを選択し、ユーザに提供する抑圧音声信号が発話音声信号に対して時間的に重なって入力されていないと判断された場合、当該抑圧音声信号を出力してもよい。
また、抑圧音出力制御部153は、第2の出力パターンが選択された場合、会話評価部13によって検出される無声区間が所定の長さ以上であるか否かを判断し、無声区間が所定の長さ以上であると判断された場合、抑圧音声信号を出力するように抑圧音出力部16に指示してもよい。
さらに、抑圧音出力制御部153は、第2の出力パターンが選択された場合、会話評価部13によって検出された話速が所定の速度より遅いか否かを判断し、話速が所定の速度より遅いと判断された場合、抑圧音声信号を出力するように抑圧音出力部16に指示してもよい。
抑圧音出力部16は、抑圧音出力制御部153からの指示に応じて抑圧音声信号を出力する。
信号加算部17は、主音声を示す発話音声信号(第1の音声信号)及びユーザに提供する抑圧音声信号(提供音声信号)を出力する。信号加算部17は、会話評価部13から出力された分離された発話音声信号と、抑圧音出力部16によって出力された抑圧音声信号とを合成(加算)して出力する。信号加算部17は、第1の出力パターンが選択された場合、抑圧音声信号を遅延させずに発話音声信号とともに出力する。信号加算部17は、第2の出力パターンが選択された場合、発話音声信号のみを出力した後、抑圧音声信号を遅延させて出力する。信号加算部17は、第3の出力パターンが選択された場合、発話音声信号のみを出力する。
音声強調部18は、信号加算部17によって出力された発話音声信号及び/又は抑圧音声信号を強調する。音声強調部18は、使用者の聴覚特性に合わせるため、例えば、音声信号を増幅したり、周波数帯ごとに音声信号の増幅度を調整したりすることなどにより音声信号を強調する。発話音声信号及び/又は抑圧音声信号を強調することにより、難聴者は、発話音声及び/又は抑圧音声を聞き取りやすくなる。
スピーカ19は、音声強調部18によって強調された発話音声信号及び/又は抑圧音声信号を発話音声及び/又は抑圧音声に変換し、変換した発話音声及び/又は抑圧音声を出力する。なお、スピーカ19は、例えばイヤホンである。
なお、本実施の形態1における音声処理装置1は、マイクアレイ11、音声強調部18及びスピーカ19を備えていなくてもよい。例えば、ユーザが装着する補聴器が、マイクアレイ11、音声強調部18及びスピーカ19を備えており、補聴器が、音声処理装置1とネットワークを介して通信可能に接続されてもよい。
図3は、実施の形態1における音声処理装置の動作の一例を説明するためのフローチャートである。
まず、ステップS1において、指向性合成部121は、マイクアレイ11によって変換された音声信号を取得する。
次に、ステップS2において、音源分離部122は、取得した音声信号を音源毎に分離する。特に、音源分離部122は、音源毎に分離した音声信号のうち、人が発話した音声信号を示す発話音声信号を会話評価部13へ出力し、発話音声信号以外の抑圧すべき音声信号を示す抑圧音声信号を抑圧音格納部14へ出力する。
次に、ステップS3において、音源分離部122は、分離した抑圧音声信号を抑圧音格納部14に格納する。
次に、ステップS4において、抑圧音判別部152は、抑圧音格納部14に、ユーザに提供する抑圧音声信号があるか否かを判断する。抑圧音判別部152は、抽出した抑圧音声信号の特徴量と、抑圧音サンプル記憶部151に記憶されている抑圧音声信号のサンプルの特徴量とを比較する。抑圧音判別部152は、抑圧音サンプル記憶部151に記憶されている抑圧音声信号のサンプルの特徴量に類似する特徴量を有する抑圧音声信号が存在する場合、抑圧音格納部14に、ユーザに提供する抑圧音声信号があると判断する。
ここで、抑圧音格納部14に、ユーザに提供する抑圧音声信号がないと判断された場合(ステップS4でNO)、ステップS5において、信号加算部17は、会話評価部13から出力された発話音声信号のみを出力する。音声強調部18は、信号加算部17によって出力された発話音声信号を強調する。そして、スピーカ19は、音声強調部18によって強調された発話音声信号を発話音声に変換し、変換した発話音声を出力する。この場合、発話以外の音声は、抑圧されるため、出力されない。発話音声が出力された後、処理は、ステップS1の処理に戻る。
一方、抑圧音格納部14に、ユーザに提供する抑圧音声信号があると判断された場合(ステップS4でYES)、ステップS6において、抑圧音判別部152は、ユーザに提供する抑圧音声信号を抑圧音格納部14から抽出する。
次に、ステップS7において、抑圧音出力制御部153は、抑圧音判別部152によって抽出されたユーザに提供する抑圧音声信号に対応付けられている優先度に応じて、当該抑圧音声信号を遅延させるか否かを判断する。例えば、抑圧音出力制御部153は、ユーザに提供する抑圧音声信号であると判別された抑圧音声信号に対応付けられている優先度が、所定の値以上である場合、ユーザに提供する抑圧音声信号を遅延させないと判断する。また、抑圧音出力制御部153は、ユーザに提供する抑圧音声信号であると判別された抑圧音声信号に対応付けられている優先度が、所定の値より小さい場合、ユーザに提供する抑圧音声信号を遅延させると判断する。
ユーザに提供する抑圧音声信号を遅延させないと判断された場合、抑圧音出力制御部153は、ステップS6で抽出されたユーザに提供する抑圧音声信号を出力するように抑圧音出力部16に指示する。抑圧音出力部16は、抑圧音出力制御部153からの指示に応じてユーザに提供する抑圧音声信号を出力する。
ここで、ユーザに提供する抑圧音声信号を遅延させないと判断された場合(ステップS7でNO)、ステップS8において、信号加算部17は、会話評価部13から出力された発話音声信号と、抑圧音出力部16によって出力されたユーザに提供する抑圧音声信号とを出力する。音声強調部18は、信号加算部17によって出力された発話音声信号及び抑圧音声信号を強調する。そして、スピーカ19は、音声強調部18によって強調された発話音声信号及び抑圧音声信号を発話音声及び抑圧音声に変換し、変換した発話音声及び抑圧音声を出力する。この場合、発話以外の音声は、発話に重畳して出力される。発話音声及び抑圧音声が出力された後、処理は、ステップS1の処理に戻る。
一方、ユーザに提供する抑圧音声信号を遅延させると判断された場合(ステップS7でYES)、ステップS9において、信号加算部17は、会話評価部13から出力された発話音声信号のみを出力する。音声強調部18は、信号加算部17によって出力された発話音声信号を強調する。そして、スピーカ19は、音声強調部18によって強調された発話音声信号を発話音声に変換し、変換した発話音声を出力する。
次に、ステップS10において、抑圧音出力制御部153は、ユーザの会話が検出されない無声区間が検出されたか否かを判断する。会話評価部13は、発話音声信号の出力が終了してから次の発話音声信号が入力されるまでの無声区間を検出する。会話評価部13は、無声区間が検出された場合、抑圧音出力制御部153へ通知する。抑圧音出力制御部153は、会話評価部13から無声区間が検出されたことが通知された場合、無声区間が検出されたと判断する。無声区間が検出されたと判断された場合、抑圧音出力制御部153は、ステップS6で抽出されたユーザに提供する抑圧音声信号を無声区間に出力するように抑圧音出力部16に指示する。抑圧音出力部16は、抑圧音出力制御部153からの指示に応じてユーザに提供する抑圧音声信号を出力する。ここで、無声区間が検出されていないと判断された場合(ステップS10でNO)、無声区間が検出されるまで、ステップS10の処理が行われる。
一方、無声区間が検出されたと判断された場合(ステップS10でYES)、ステップS11において、信号加算部17は、抑圧音出力部16によって出力されたユーザに提供する抑圧音声信号を出力する。音声強調部18は、信号加算部17によって出力された抑圧音声信号を強調する。そして、スピーカ19は、音声強調部18によって強調された抑圧音声信号を抑圧音声に変換し、変換した抑圧音声を出力する。抑圧音声が出力された後、処理は、ステップS1の処理に戻る。
ここで、ユーザに提供する抑圧音声信号を遅延して出力するタイミングの変形例について説明する。
図4は、ユーザに提供する抑圧音声信号を遅延して出力するタイミングの第1の変形例について説明するための模式図である。
ユーザ自身は、発話をコントロールすることができるので、ユーザ自身の発話に重なって抑圧音声が出力されたとしても問題ない。そこで、抑圧音出力制御部153は、ユーザ自身の発話である発話音声信号が出力されるタイミングを予測し、予測したタイミングでユーザに提供する抑圧音声を出力するように指示してもよい。
図4に示すように、相手の発話と、ユーザ自身の発話とが交互に入力される場合、相手の発話の後、無声区間が検出された場合、次に入力されるのはユーザ自身の発話であると予測することができる。そのため、会話評価部13は、入力された発話音声信号の話者を識別し、抑圧音出力制御部153へ通知する。抑圧音出力制御部153は、相手の発話である発話音声信号に重なってユーザに提供する抑圧音声である抑圧音声信号が入力された後、ユーザ自身の発話である発話音声信号と、相手の発話である発話音声信号とが交互に入力され、相手の発話である発話音声信号の後に無声区間が検出された場合、ユーザに提供する抑圧音声を出力するように指示する。
これにより、ユーザ自身が発話するタイミングでユーザに提供する抑圧音声が出力されるので、ユーザに提供する抑圧音声をユーザはより確実に聞くことができる。
また、抑圧音出力制御部153は、相手の発話である発話音声信号に重なってユーザに提供する抑圧音声である抑圧音声信号が入力された後、ユーザ自身の発話である発話音声信号が入力された場合、ユーザに提供する抑圧音声を出力するように指示してもよい。
また、抑圧音出力制御部153は、会話量が減少し、発話と発話との間隔が大きくなった場合に、ユーザに提供する抑圧音声を出力するように指示してもよい。
図5は、ユーザに提供する抑圧音声信号を遅延して出力するタイミングの第2の変形例について説明するための模式図である。
会話量が減少し、発話と発話との間隔が大きくなった場合、無声区間にユーザに提供する抑圧音声を出力したとしても、ユーザに提供する抑圧音声が、発話と重ならない可能性が高い。そこで、抑圧音出力制御部153は、会話評価部13によって検出された無声区間を記憶し、検出された無声区間が、前回検出された無声区間よりも長くなっている回数が、所定回数連続した場合、ユーザに提供する抑圧音声を出力するように指示してもよい。
図5に示すように、発話と発話との間の無声区間が、徐々に長くなってくると、会話量が減少してきたと判断することができる。そのため、会話評価部13は、発話音声信号の出力が終了してから次の発話音声信号が入力されるまでの無声区間を検出する。抑圧音出力制御部153は、会話評価部13によって検出された無声区間の長さを記憶する。そして、抑圧音出力制御部153は、検出された無声区間が、前回検出された無声区間よりも長くなっている回数が、所定回数連続した場合、ユーザに提供する抑圧音声を出力するように指示する。図5の例では、抑圧音出力制御部153は、検出された無声区間が、前回検出された無声区間よりも長くなっている回数が、3回数連続した場合、ユーザに提供する抑圧音声を出力するように指示している。
これにより、会話量が少なくなったタイミングでユーザに提供する抑圧音声が出力されるので、ユーザに提供する抑圧音声をユーザはより確実に聞くことができる。
また、音声処理装置1は、抑圧音出力制御部153によってユーザに提供する抑圧音声信号の優先度が最も高い優先度であると判断された場合、すなわち、ユーザに提供する抑圧音声信号がユーザに緊急に通知すべき音声である場合、音源分離部122によって分離された発話音声信号を記憶する発話音声記憶部をさらに備えてもよい。抑圧音出力制御部153は、ユーザに提供する抑圧音声信号の優先度が最も高い優先度であると判断した場合、抑圧音声信号を出力するように抑圧音出力部16に指示するとともに、音源分離部122によって分離された発話音声信号を記憶するように発話音声記憶部に指示する。信号加算部17は、抑圧音声信号の出力が完了した後、発話音声記憶部に記憶されている発話音声信号を読み出して出力する。
これにより、例えば緊急に通知すべき抑圧音声信号が出力された後、抑圧音声信号が出力された間に入力された発話音声信号を出力することができるので、ユーザは、ユーザに提供する抑圧音声を確実に聞くことができるとともに、会話も確実に聞くことができる。
また、抑圧音出力部16は、抑圧音声信号の周波数を変更して出力してもよい。また、抑圧音出力部16は、抑圧音声信号の位相を連続的に変化させて出力してもよい。さらに、音声処理装置1は、スピーカ19から抑圧音声が出力される場合、スピーカ19を有するイヤホンを振動させる振動部を備えてもよい。
(実施の形態2)
続いて、実施の形態2における音声処理装置について説明する。実施の形態1では、ユーザに提供する抑圧音声を直接出力しているが、実施の形態2では、ユーザに提供する抑圧音声を直接出力するのではなく、ユーザに提供する抑圧音声が存在することを報知する報知音声を出力する。
図6は、実施の形態2における音声処理装置の構成を示す図である。音声処理装置2は、例えば、補聴器である。
図6に示す音声処理装置2は、マイクアレイ11、音声抽出部12、会話評価部13、抑圧音格納部14、信号加算部17、音声強調部18、スピーカ19、報知音声記憶部20、報知音声出力部21及び優先度評価部22を備える。なお、以下の説明では、実施の形態1と同じ構成については、同じ符号を付して説明を省略し、実施の形態1とは異なる構成についてのみ説明する。
優先度評価部22は、抑圧音サンプル記憶部151、抑圧音判別部152及び報知音声出力制御部154を備える。
報知音声出力制御部154は、抑圧音判別部152によってユーザに提供する音声を示す抑圧音声信号であると判別された抑圧音声信号に対応付けられている優先度に応じて、当該抑圧音声信号に対応付けられている報知音声信号を出力するか否かを判断するとともに、報知音声信号を出力するタイミングを判断する。報知音声出力制御部154における報知音声信号の出力制御処理は、実施の形態1における抑圧音出力制御部153における抑圧音声信号の出力制御処理と同じであるので、詳細な説明は省略する。
報知音声記憶部20は、ユーザに提供する抑圧音声信号に対応付けて報知音声信号を記憶する。報知音声信号は、ユーザに提供する抑圧音声信号が入力されたことを報知するための音声である。例えば、電話機の着信音を示す抑圧音声信号には、「電話が鳴っています」という報知音声信号が対応付けられており、車のエンジン音を示す抑圧音声信号には、「車が接近しています」という報知音声信号が対応付けられている。
報知音声出力部21は、報知音声出力制御部154からの指示に応じて、ユーザに提供する抑圧音声信号に対応付けられている報知音声信号を報知音声記憶部20から読み出し、読み出した報知音声信号を信号加算部17へ出力する。実施の形態2における報知音声信号を出力するタイミングは、実施の形態1における抑圧音声信号を出力するタイミングと同じである。
図7は、実施の形態2における音声処理装置の動作の一例を説明するためのフローチャートである。
なお、図7に示すステップS21〜ステップS27の処理は、図3に示すステップS1〜ステップS7の処理と同じであるので、説明を省略する。
ユーザに提供する抑圧音声信号を遅延させないと判断された場合、報知音声出力制御部154は、ステップS26で抽出されたユーザに提供する抑圧音声信号に対応付けられている報知音声信号を出力するように報知音声出力部21に指示する。
ユーザに提供する抑圧音声信号を遅延させないと判断された場合(ステップS27でNO)、ステップS28において、報知音声出力部21は、ステップS26で抽出されたユーザに提供する抑圧音声信号に対応付けられている報知音声信号を報知音声記憶部20から読み出す。報知音声出力部21は、読み出した報知音声信号を信号加算部17へ出力する。
次に、ステップS29において、信号加算部17は、会話評価部13から出力された発話音声信号と、報知音声出力部21によって出力された報知音声信号とを出力する。音声強調部18は、信号加算部17によって出力された発話音声信号及び報知音声信号を強調する。そして、スピーカ19は、音声強調部18によって強調された発話音声信号及び報知音声信号を発話音声及び報知音声に変換し、変換した発話音声及び報知音声を出力する。発話音声及び報知音声が出力された後、処理は、ステップS21の処理に戻る。
一方、ユーザに提供する抑圧音声信号を遅延させると判断された場合(ステップS27でYES)、ステップS30において、信号加算部17は、会話評価部13から出力された発話音声信号のみを出力する。音声強調部18は、信号加算部17によって出力された発話音声信号を強調する。そして、スピーカ19は、音声強調部18によって強調された発話音声信号を発話音声に変換し、変換した発話音声を出力する。
次に、ステップS31において、報知音声出力制御部154は、ユーザの会話が検出されない無声区間が検出されたか否かを判断する。会話評価部13は、発話音声信号の出力が終了してから次の発話音声信号が入力されるまでの無声区間を検出する。会話評価部13は、無声区間が検出された場合、報知音声出力制御部154へ通知する。報知音声出力制御部154は、会話評価部13から無声区間が検出されたことが通知された場合、無声区間が検出されたと判断する。無声区間が検出されたと判断された場合、報知音声出力制御部154は、ステップS26で抽出されたユーザに提供する抑圧音声信号に対応付けられている報知音声信号を出力するように報知音声出力部21に指示する。ここで、無声区間が検出されていないと判断された場合(ステップS31でNO)、無声区間が検出されるまで、ステップS31の処理が行われる。
一方、無声区間が検出されたと判断された場合(ステップS31でYES)、ステップS32において、報知音声出力部21は、ステップS26で抽出されたユーザに提供する抑圧音声信号に対応付けられている報知音声信号を報知音声記憶部20から読み出す。報知音声出力部21は、読み出した報知音声信号を信号加算部17へ出力する。
次に、ステップS33において、信号加算部17は、報知音声出力部21によって出力された報知音声信号を出力する。音声強調部18は、信号加算部17によって出力された報知音声信号を強調する。そして、スピーカ19は、音声強調部18によって強調された報知音声信号を報知音声に変換し、変換した報知音声を出力する。報知音声が出力された後、処理は、ステップS21の処理に戻る。
以上のように、ユーザに提供する抑圧音声が直接出力されるのではなく、ユーザに提供する抑圧音声が入力されたことを報知する報知音声が出力されるので、ユーザに通知すべき周囲の状況を報知することができる。
なお、本実施の形態2では、分離された抑圧音声信号のうち、ユーザに提供する抑圧音声信号が存在する場合、ユーザに提供する抑圧音声が存在することを報知する報知音声を出力しているが、本開示は特にこれに限定されず、分離された抑圧音声信号のうち、ユーザに提供する抑圧音声信号が存在する場合、ユーザに提供する抑圧音声が存在することを報知する報知画像を表示してもよい。
この場合、音声処理装置2は、実施の形態2の報知音声出力制御部154、報知音声記憶部20及び報知音声出力部21に替えて、報知画像出力制御部、報知画像記憶部、報知画像出力部及び表示部を備える。
報知画像出力制御部は、抑圧音判別部152によってユーザに提供する音声を示す抑圧音声信号であると判別された抑圧音声信号に対応付けられている優先度に応じて、当該抑圧音声信号に対応付けられている報知画像を出力するか否かを判断するとともに、報知画像を出力するタイミングを判断する。
報知画像記憶部は、ユーザに提供する抑圧音声信号に対応付けて報知画像を記憶する。報知画像は、ユーザに提供する抑圧音声信号が入力されたことを報知するための画像である。例えば、電話機の着信音を示す抑圧音声信号には、「電話が鳴っています」という報知画像が対応付けられており、車のエンジン音を示す抑圧音声信号には、「車が接近しています」という報知画像が対応付けられている。
報知画像出力部は、報知画像出力制御部からの指示に応じて、ユーザに提供する抑圧音声信号に対応付けられている報知画像を報知画像記憶部から読み出し、読み出した報知画像を表示部へ出力する。表示部は、報知画像出力部によって出力された報知画像を表示する。
また、本実施の形態では、報知音声は、ユーザに提供する抑圧音声の内容を示す文章で表されるが、本開示はこれに限定されず、ユーザに提供する抑圧音声の内容に対応する音で表してもよい。すなわち、報知音声記憶部20は、ユーザに提供する抑圧音声信号毎に音を予め対応付けて記憶し、報知音声出力部21は、ユーザに提供する抑圧音声信号に対応付けられている音を報知音声記憶部20から読み出して出力してもよい。
(実施の形態3)
続いて、実施の形態3における音声処理装置について説明する。実施の形態1,2では、ユーザの周囲の音声を示す周囲音声信号を、人の発話した音声を示す発話音声信号と、発話した音声とは異なり抑圧される音声を示す抑圧音声信号とに分離しているが、実施の形態3では、音源から再生した再生音声信号を出力するとともに、ユーザの周囲の音声を示す周囲音声信号からユーザに提供する周囲音声信号を抽出して出力する。
図8は、実施の形態3における音声処理装置の構成を示す図である。音声処理装置3は、例えば、携帯型音楽プレーヤ又はラジオ放送受信機である。
図8に示す音声処理装置3は、マイクアレイ11、音源部30、再生部31、音声抽出部32、周囲音格納部33、優先度評価部34、周囲音出力部35、信号加算部36及びスピーカ19を備える。なお、以下の説明では、実施の形態1と同じ構成については、同じ符号を付して説明を省略し、実施の形態1とは異なる構成についてのみ説明する。
音源部30は、例えばメモリで構成され、主音声を示す音声信号を記憶する。なお、主音声は、例えば音楽データである。また、音源部30は、例えばラジオ放送受信機で構成されてもよく、ラジオ放送を受信し、受信したラジオ放送を音声信号に変換してもよい。また、音源部30は、例えばテレビ放送受信機で構成されてもよく、テレビ放送を受信し、受信したテレビ放送を音声信号に変換してもよい。また、音源部30は、例えば光ディスクドライブで構成されてもよく、光ディスクに記録された音声信号を読み出してもよい。
再生部31は、音源部30から音声信号を再生し、再生した再生音声信号を出力する。
音声抽出部32は、指向性合成部321及び音源分離部322を備える。指向性合成部321は、マイクアレイ11から出力された複数の周囲音声信号から、同一音源から出力された複数の周囲音声信号を抽出する。
音源分離部322は、例えば、ブラインド音源分離処理により、入力された複数の周囲音声信号を音源毎に分離する。
周囲音格納部33は、音源分離部322から入力された複数の周囲音声信号を格納する。
優先度評価部34は、周囲音サンプル記憶部341、周囲音判別部342及び周囲音出力制御部343を備える。
周囲音サンプル記憶部341は、ユーザに提供する周囲音声信号の特徴量を示す音響パラメタを周囲音声信号毎に記憶する。また、周囲音サンプル記憶部341は、音響パラメタに対応付けて優先度を記憶してもよい。重要度(緊急度)が高い音声には、高い優先度が付与され、重要度(緊急度)が低い音声には、低い優先度が付与される。例えば、ユーザが再生した音声を聞いている場合であっても、即座にユーザに通知した方がよい音声には、第1の優先度が付与され、音声の再生が終了した後でユーザに通知してもよい音声には、第1の優先度より低い第2の優先度が付与される。また、ユーザに通知する必要がない音声については、第2の優先度より低い第3の優先度が付与されてもよい。なお、抑圧音サンプル記憶部151は、ユーザに通知する必要がない音声の音響パラメタを記憶しなくてもよい。
周囲音判別部342は、周囲音格納部33に格納されている複数の周囲音声信号のうち、ユーザに提供する音声を示す周囲音声信号を判別する。周囲音判別部342は、取得された周囲音声信号から、ユーザに提供する音声を示す周囲音声信号を抽出する。周囲音判別部342は、周囲音格納部33に格納されている複数の周囲音声信号の音響パラメタと、周囲音サンプル記憶部341に記憶されている音響パラメタとを比較し、周囲音サンプル記憶部341に記憶されている音響パラメタに類似する音響パラメタを有する周囲音声信号を周囲音格納部33から抽出する。
周囲音出力制御部343は、周囲音判別部342によってユーザに提供する音声を示す周囲音声信号であると判別された周囲音声信号に対応付けられている優先度に応じて、当該周囲音声信号を出力するか否かを判断するとともに、周囲音声信号を出力するタイミングを判断する。周囲音出力制御部343は、周囲音声信号を遅延させずに再生音声信号とともに出力する第1の出力パターンと、再生音声信号のみを出力した後、周囲音声信号を遅延させて出力する第2の出力パターンと、周囲音声信号が抽出されない場合、再生音声信号のみを出力する第3の出力パターンとのうちいずれかの出力パターンを選択する。
また、周囲音出力制御部343は、第1の出力パターンが選択された場合、周囲音声信号を出力するように周囲音出力部35に指示する。また、周囲音出力制御部343は、第2の出力パターンが選択された場合、再生部31による音声信号の再生が終了したか否かを判断し、音声信号の再生が終了したと判断された場合、周囲音声信号を出力するように周囲音出力部35に指示する。また、周囲音出力制御部343は、第3の出力パターンが選択された場合、周囲音声信号を出力しないように周囲音出力部35に指示する。
周囲音出力部35は、周囲音出力制御部343からの指示に応じて周囲音声信号を出力する。
信号加算部36は、音源部30から読み出した再生音声信号(第1の音声信号)を出力するとともに、抑圧音判別部152によって抽出されたユーザに提供する周囲音声信号(提供音声信号)を出力する。信号加算部36は、再生部31から出力された再生音声信号と、周囲音出力部35によって出力された周囲音声信号とを合成(加算)して出力する。信号加算部36は、第1の出力パターンが選択された場合、周囲音声信号を遅延させずに再生音声信号とともに出力する。信号加算部36は、第2の出力パターンが選択された場合、再生音声信号のみを出力した後、周囲音声信号を遅延させて出力する。信号加算部36は、第3の出力パターンが選択された場合、再生音声信号のみを出力する。
図9は、実施の形態3における音声処理装置の動作の一例を説明するためのフローチャートである。
まず、ステップS41において、指向性合成部121は、マイクアレイ11によって変換された周囲音声信号を取得する。周囲音声信号は、ユーザ(音声処理装置)の周囲の音声を示す。
次に、ステップS42において、音源分離部322は、取得した周囲音声信号を音源毎に分離する。
次に、ステップS43において、音源分離部322は、分離した周囲音声信号を周囲音格納部33に格納する。
次に、ステップS44において、周囲音判別部342は、周囲音格納部33に、ユーザに提供する抑圧音声信号があるか否かを判断する。周囲音判別部342は、抽出した抑圧音声信号の特徴量と、周囲音サンプル記憶部341に記憶されている抑圧音声信号のサンプルの特徴量とを比較する。周囲音判別部342は、周囲音サンプル記憶部341に記憶されている周囲音声信号のサンプルの特徴量に類似する特徴量を有する周囲音声信号が存在する場合、周囲音格納部33に、ユーザに提供する周囲音声信号があると判断する。
ここで、周囲音格納部33に、ユーザに提供する周囲音声信号がないと判断された場合(ステップS44でNO)、ステップS45において、信号加算部36は、再生部31から出力された再生音声信号のみを出力する。そして、スピーカ19は、信号加算部36によって出力された再生音声信号を再生音声に変換し、変換した再生音声を出力する。再生音声が出力された後、処理は、ステップS41の処理に戻る。
一方、周囲音格納部33に、ユーザに提供する周囲音声信号があると判断された場合(ステップS44でYES)、ステップS46において、周囲音判別部342は、ユーザに提供する周囲音声信号を周囲音格納部33から抽出する。
次に、ステップS47において、周囲音出力制御部343は、周囲音判別部342によって抽出されたユーザに提供する周囲音声信号に対応付けられている優先度に応じて、当該周囲音声信号を遅延させるか否かを判断する。例えば、周囲音出力制御部343は、ユーザに提供する周囲音声信号であると判別された周囲音声信号に対応付けられている優先度が、所定の値以上である場合、ユーザに提供する周囲音声信号を遅延させないと判断する。また、周囲音出力制御部343は、ユーザに提供する周囲音声信号であると判別された周囲音声信号に対応付けられている優先度が、所定の値より小さい場合、ユーザに提供する周囲音声信号を遅延させると判断する。
ユーザに提供する周囲音声信号を遅延させないと判断された場合、周囲音出力制御部343は、ステップS46で抽出されたユーザに提供する周囲音声信号を出力するように周囲音出力部35に指示する。周囲音出力部35は、周囲音出力制御部343からの指示に応じてユーザに提供する周囲音声信号を出力する。
ここで、ユーザに提供する周囲音声信号を遅延させないと判断された場合(ステップS47でNO)、ステップS48において、信号加算部36は、再生部31から出力された再生音声信号と、周囲音出力部35によって出力されたユーザに提供する周囲音声信号とを出力する。そして、スピーカ19は、信号加算部36によって出力された再生音声信号及び周囲音声信号を再生音声及び周囲音声に変換し、変換した再生音声及び周囲音声を出力する。再生音声及び周囲音声が出力された後、処理は、ステップS41の処理に戻る。
一方、ユーザに提供する周囲音声信号を遅延させると判断された場合(ステップS47でYES)、ステップS49において、信号加算部36は、再生部31から出力された再生音声信号のみを出力する。そして、スピーカ19は、信号加算部36によって出力された再生音声信号を再生音声に変換し、変換した再生音声を出力する。
次に、ステップS50において、周囲音出力制御部343は、再生部31による再生音声信号の再生が終了したか否かを判断する。再生部31は、再生音声信号の再生が終了した場合、周囲音出力制御部343へ通知する。周囲音出力制御部343は、再生部31から再生音声信号の再生が終了したことが通知された場合、再生音声信号の再生が終了したと判断する。再生音声信号の再生が終了したと判断された場合、周囲音出力制御部343は、ステップS46で抽出されたユーザに提供する周囲音声信号を出力するように周囲音出力部35に指示する。周囲音出力部35は、周囲音出力制御部343からの指示に応じてユーザに提供する周囲音声信号を出力する。ここで、再生音声信号の再生が終了していないと判断された場合(ステップS50でNO)、再生音声信号の再生が終了するまで、ステップS50の処理が行われる。
一方、再生音声信号の再生が終了したと判断された場合(ステップS50でYES)、ステップS51において、信号加算部36は、周囲音出力部35によって出力されたユーザに提供する周囲音声信号を出力する。そして、スピーカ19は、信号加算部36によって出力された周囲音声信号を周囲音声に変換し、変換した周囲音声を出力する。周囲音声が出力された後、処理は、ステップS41の処理に戻る。
なお、実施の形態3における周囲音声を出力するタイミングは、実施の形態1における抑圧音声を出力するタイミングと同じであってもよい。
(実施の形態4)
続いて、実施の形態4における音声処理装置について説明する。実施の形態3では、ユーザに提供する周囲音声を直接出力しているが、実施の形態4では、ユーザに提供する周囲音声を直接出力するのではなく、ユーザに提供する周囲音声が存在することを報知する報知音声を出力する。
図10は、実施の形態4における音声処理装置の構成を示す図である。音声処理装置4は、例えば、携帯型音楽プレーヤ又はラジオ放送受信機である。
図10に示す音声処理装置4は、マイクアレイ11、スピーカ19、音源部30、再生部31、音声抽出部32、周囲音格納部33、信号加算部36、優先度評価部37、報知音声記憶部38及び報知音声出力部39を備える。なお、以下の説明では、実施の形態3と同じ構成については、同じ符号を付して説明を省略し、実施の形態3とは異なる構成についてのみ説明する。
優先度評価部37は、周囲音サンプル記憶部341、周囲音判別部342及び報知音声出力制御部344を備える。
報知音声出力制御部344は、周囲音判別部342によってユーザに提供する音声を示す周囲音声信号であると判別された周囲音声信号に対応付けられている優先度に応じて、当該周囲音声信号に対応付けられている報知音声信号を出力するか否かを判断するとともに、報知音声信号を出力するタイミングを判断する。報知音声出力制御部344における報知音声信号の出力制御処理は、実施の形態3における周囲音出力制御部343における周囲音声信号の出力制御処理と同じであるので、詳細な説明は省略する。
報知音声記憶部38は、ユーザに提供する周囲音声信号に対応付けて報知音声信号を記憶する。報知音声信号は、ユーザに提供する周囲音声信号が入力されたことを報知するための音声である。例えば、電話機の着信音を示す周囲音声信号には、「電話が鳴っています」という報知音声信号が対応付けられており、車のエンジン音を示す周囲音声信号には、「車が接近しています」という報知音声信号が対応付けられている。
報知音声出力部39は、報知音声出力制御部344からの指示に応じて、ユーザに提供する周囲音声信号に対応付けられている報知音声信号を報知音声記憶部38から読み出し、読み出した報知音声信号を信号加算部36へ出力する。実施の形態4における報知音声信号を出力するタイミングは、実施の形態3における抑圧音声信号を出力するタイミングと同じである。
図11は、実施の形態4における音声処理装置の動作の一例を説明するためのフローチャートである。
なお、図11に示すステップS61〜ステップS67の処理は、図9に示すステップS41〜ステップS47の処理と同じであるので、説明を省略する。
ユーザに提供する周囲音声信号を遅延させないと判断された場合、報知音声出力制御部344は、ステップS66で抽出されたユーザに提供する周囲音声信号に対応付けられている報知音声信号を出力するように報知音声出力部39に指示する。
ユーザに提供する周囲音声信号を遅延させないと判断された場合(ステップS67でNO)、ステップS68において、報知音声出力部39は、ステップS66で抽出されたユーザに提供する周囲音声信号に対応付けられている報知音声信号を報知音声記憶部38から読み出す。報知音声出力部39は、読み出した報知音声信号を信号加算部36へ出力する。
次に、ステップS69において、信号加算部36は、再生部31から出力された再生音声信号と、報知音声出力部39によって出力された報知音声信号とを出力する。そして、スピーカ19は、信号加算部36によって出力された再生音声信号及び報知音声信号を再生音声及び報知音声に変換し、変換した再生音声及び報知音声を出力する。再生音声及び報知音声が出力された後、処理は、ステップS61の処理に戻る。
一方、ユーザに提供する周囲音声信号を遅延させると判断された場合(ステップS67でYES)、ステップS70において、信号加算部36は、再生部31から出力された再生音声信号のみを出力する。そして、スピーカ19は、信号加算部36によって出力された再生音声信号を再生音声に変換し、変換した再生音声を出力する。
次に、ステップS71において、報知音声出力制御部344は、再生部31による再生音声信号の再生が終了したか否かを判断する。再生部31は、再生音声信号の再生が終了した場合、報知音声出力制御部344へ通知する。報知音声出力制御部344は、再生部31から再生音声信号の再生が終了したことが通知された場合、再生音声信号の再生が終了したと判断する。再生音声信号の再生が終了したと判断された場合、報知音声出力制御部344は、ステップS66で抽出されたユーザに提供する周囲音声信号に対応付けられている報知音声信号を出力するように報知音声出力部39に指示する。ここで、再生音声信号の再生が終了していないと判断された場合(ステップS71でNO)、再生音声信号の再生が終了するまで、ステップS71の処理が行われる。
一方、再生音声信号の再生が終了したと判断された場合(ステップS71でYES)、ステップS72において、報知音声出力部39は、ステップS66で抽出されたユーザに提供する周囲音声信号に対応付けられている報知音声信号を報知音声記憶部38から読み出す。報知音声出力部39は、読み出した報知音声信号を信号加算部36へ出力する。
次に、ステップS73において、信号加算部36は、報知音声出力部39によって出力された報知音声信号を出力する。そして、スピーカ19は、信号加算部36によって出力された報知音声信号を報知音声に変換し、変換した報知音声を出力する。報知音声が出力された後、処理は、ステップS61の処理に戻る。
以上のように、ユーザに提供する周囲音声が直接出力されるのではなく、ユーザに提供する周囲音声が入力されたことを報知する報知音声が出力されるので、ユーザに通知すべき周囲の状況を報知することができる。
本開示に係る音声処理装置、音声処理方法及び音声処理プログラムは、ユーザの周囲の音声の中から、ユーザに提供する音声を出力することができ、ユーザの周囲の音声を示す音声信号を取得し、取得した音声信号に対して所定の処理を施す音声処理装置、音声処理方法及び音声処理プログラムとして有用である。
1,2,3,4 音声処理装置
11 マイクアレイ
12 音声抽出部
13 会話評価部
14 抑圧音格納部
15 優先度評価部
16 抑圧音出力部
17 信号加算部
18 音声強調部
19 スピーカ
20 報知音声記憶部
21 報知音声出力部
22 優先度評価部
30 音源部
31 再生部
32 音声抽出部
33 周囲音格納部
34 優先度評価部
35 周囲音出力部
36 信号加算部
37 優先度評価部
38 報知音声記憶部
39 報知音声出力部
121 指向性合成部
122 音源分離部
151 抑圧音サンプル記憶部
152 抑圧音判別部
153 抑圧音出力制御部
154 報知音声出力制御部
321 指向性合成部
322 音源分離部
341 周囲音サンプル記憶部
342 周囲音判別部
343 周囲音出力制御部
344 報知音声出力制御部

Claims (12)

  1. ユーザの周囲の音声を示す周囲音声信号を取得する周囲音声取得部と、
    前記周囲音声取得部によって取得された前記周囲音声信号から、ユーザに提供する音声を示す提供音声信号を抽出する音声抽出部と、
    主音声を示す第1の音声信号及び前記提供音声信号を出力する出力部と、
    を備える音声処理装置。
  2. 前記周囲音声取得部によって取得された前記周囲音声信号を、前記第1の音声信号と、前記主音声とは異なる音声を示す第2の音声信号とに分離する音声分離部をさらに備え、
    前記音声抽出部は、前記音声分離部によって分離された前記第2の音声信号から前記提供音声信号を抽出し、
    前記出力部は、前記音声分離部によって分離された前記第1の音声信号を出力するとともに、前記音声抽出部によって抽出された前記提供音声信号を出力する、
    請求項1記載の音声処理装置。
  3. 前記主音声は、会話に参加している人が発話した音声を含む、
    請求項2記載の音声処理装置。
  4. 前記第1の音声信号を予め記憶する音声信号記憶部をさらに備え、
    前記出力部は、前記音声信号記憶部から読み出した前記第1の音声信号を出力するとともに、前記音声抽出部によって抽出された前記提供音声信号を出力する、
    請求項1記載の音声処理装置。
  5. 前記主音声は、音楽データを含む、
    請求項4記載の音声処理装置。
  6. 前記提供音声信号に関するサンプル音声信号を記憶するサンプル音声記憶部をさらに備え、
    前記音声抽出部は、前記周囲音声信号の特徴量と、前記サンプル音声記憶部に記録されている前記サンプル音声信号の特徴量とを比較し、前記サンプル音声信号の特徴量に類似する特徴量を有する音声信号を前記提供音声信号として抽出する、
    請求項1〜5のいずれか1項に記載の音声処理装置。
  7. 前記提供音声信号を遅延させずに前記第1の音声信号とともに出力する第1の出力パターンと、前記第1の音声信号のみを出力した後、前記提供音声信号を遅延させて出力する第2の出力パターンと、前記周囲音声信号から前記提供音声出力が抽出されない場合、前記第1の音声信号のみを出力する第3の出力パターンとのうちいずれかの出力パターンを選択する選択部と、
    前記第1の出力パターンが選択された場合、前記提供音声信号を遅延させずに前記第1の音声信号とともに出力し、前記第2の出力パターンが選択された場合、前記第1の音声信号のみを出力した後、前記提供音声信号を遅延させて出力し、前記第3の出力パターンが選択された場合、前記第1の音声信号のみを出力する音声出力部と、
    をさらに備える請求項1〜6のいずれか1項に記載の音声処理装置。
  8. 前記第1の音声信号の出力が終了してから次の第1の音声信号が入力されるまでの無声区間を検出する無声区間検出部をさらに備え、
    前記音声出力部は、前記第2の出力パターンが選択された場合、前記無声区間検出部によって前記無声区間が検出されたか否かを判断し、前記無声区間が検出されたと判断された場合、前記第3の音声信号を前記無声区間に出力する、
    請求項7記載の音声処理装置。
  9. 前記第1の音声信号における話速を検出する話速検出部をさらに備え、
    前記音声出力部は、前記第2の出力パターンが選択された場合、前記話速検出部によって検出された前記話速が所定の速度より遅いか否かを判断し、前記話速が所定の速度より遅いと判断された場合、前記第3の音声信号を出力する、
    請求項7記載の音声処理装置。
  10. 前記第1の音声信号の出力が終了してから次の第1の音声信号が入力されるまでの無声区間を検出する無声区間検出部をさらに備え、
    前記音声出力部は、前記第2の出力パターンが選択された場合、前記無声区間検出部によって検出される前記無声区間が所定の長さ以上であるか否かを判断し、前記無声区間が所定の長さ以上であると判断された場合、前記第3の音声信号を前記無声区間に出力する、
    請求項7記載の音声処理装置。
  11. ユーザの周囲の音声を示す周囲音声信号を取得する周囲音声取得ステップと、
    前記周囲音声取得ステップにおいて取得された前記周囲音声信号から、ユーザに提供する音声を示す提供音声信号を抽出する音声抽出ステップと、
    主音声を示す第1の音声信号及び前記提供音声信号を出力する出力ステップと、
    を含む音声処理方法。
  12. ユーザの周囲の音声を示す周囲音声信号を取得する周囲音声取得部と、
    前記周囲音声取得部によって取得された前記周囲音声信号から、ユーザに提供する音声を示す提供音声信号を抽出する音声抽出部と、
    主音声を示す第1の音声信号及び前記提供音声信号を出力する出力部としてコンピュータを機能させる、
    音声処理プログラム。
JP2016038911A 2015-03-10 2016-03-01 音声処理装置、音声処理方法及び音声処理プログラム Active JP6731632B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020105208A JP6931819B2 (ja) 2015-03-10 2020-06-18 音声処理装置、音声処理方法及び音声処理プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015046572 2015-03-10
JP2015046572 2015-03-10

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020105208A Division JP6931819B2 (ja) 2015-03-10 2020-06-18 音声処理装置、音声処理方法及び音声処理プログラム

Publications (2)

Publication Number Publication Date
JP2016170405A true JP2016170405A (ja) 2016-09-23
JP6731632B2 JP6731632B2 (ja) 2020-07-29

Family

ID=56886727

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016038911A Active JP6731632B2 (ja) 2015-03-10 2016-03-01 音声処理装置、音声処理方法及び音声処理プログラム
JP2020105208A Active JP6931819B2 (ja) 2015-03-10 2020-06-18 音声処理装置、音声処理方法及び音声処理プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020105208A Active JP6931819B2 (ja) 2015-03-10 2020-06-18 音声処理装置、音声処理方法及び音声処理プログラム

Country Status (3)

Country Link
US (1) US10510361B2 (ja)
JP (2) JP6731632B2 (ja)
CN (1) CN105976829B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022014274A1 (ja) * 2020-07-14 2022-01-20 ソニーグループ株式会社 通知制御装置、通知制御方法、通知システム
JP2022509903A (ja) * 2018-10-26 2022-01-25 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニー 環境トリガに基づく適応的anc

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109152663B (zh) 2016-05-11 2021-06-29 海伯格安全公司 听力保护器和数据传输装置
EP3627495B1 (en) * 2017-05-16 2022-08-10 Sony Group Corporation Information processing device and information processing method
CN110097872B (zh) * 2019-04-30 2021-07-30 维沃移动通信有限公司 一种音频处理方法及电子设备
EP4037338A1 (en) * 2021-02-01 2022-08-03 Orcam Technologies Ltd. Systems and methods for transmitting audio signals with varying delays
WO2023140149A1 (ja) * 2022-01-21 2023-07-27 京セラ株式会社 音声処理装置、音声処理方法及び音声処理システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011048302A (ja) * 2009-08-28 2011-03-10 Fujitsu Ltd ノイズ低減装置およびノイズ低減プログラム
WO2011105003A1 (ja) * 2010-02-25 2011-09-01 パナソニック株式会社 信号処理装置及び信号処理方法
JP2011170282A (ja) * 2010-02-22 2011-09-01 Toshiba Corp 再生装置および再生方法
JP2012134741A (ja) * 2010-12-21 2012-07-12 Dainippon Printing Co Ltd 音楽再生装置及び再生音量制御システム,
US20140072154A1 (en) * 2012-09-10 2014-03-13 Sony Mobile Communications, Inc. Audio reproducing method and apparatus

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6420975B1 (en) * 1999-08-25 2002-07-16 Donnelly Corporation Interior rearview mirror sound processing system
JP3925734B2 (ja) * 2003-03-17 2007-06-06 財団法人名古屋産業科学研究所 対象音検出方法、信号入力遅延時間検出方法及び音信号処理装置
JP4134844B2 (ja) 2003-08-08 2008-08-20 ヤマハ株式会社 聴覚補助装置
JP2005084253A (ja) * 2003-09-05 2005-03-31 Matsushita Electric Ind Co Ltd 音響処理装置、方法、プログラム及び記憶媒体
JP4381108B2 (ja) 2003-11-17 2009-12-09 日本ビクター株式会社 話速変換装置における時報処理装置
CN1684547A (zh) * 2004-04-16 2005-10-19 田德扬 助听装置
JP5188558B2 (ja) * 2004-12-14 2013-04-24 アルパイン株式会社 音声処理装置
US20070189544A1 (en) * 2005-01-15 2007-08-16 Outland Research, Llc Ambient sound responsive media player
JP2007036608A (ja) * 2005-07-26 2007-02-08 Yamaha Corp ヘッドホン装置
US20070160243A1 (en) * 2005-12-23 2007-07-12 Phonak Ag System and method for separation of a user's voice from ambient sound
CN101433098B (zh) 2006-03-03 2015-08-05 Gn瑞声达A/S 助听器内的全向性和指向性麦克风模式之间的自动切换
US7903826B2 (en) * 2006-03-08 2011-03-08 Sony Ericsson Mobile Communications Ab Headset with ambient sound
JP4557919B2 (ja) * 2006-03-29 2010-10-06 株式会社東芝 音声処理装置、音声処理方法および音声処理プログラム
DE102006047982A1 (de) * 2006-10-10 2008-04-24 Siemens Audiologische Technik Gmbh Verfahren zum Betreiben einer Hörfilfe, sowie Hörhilfe
CN101166017B (zh) * 2006-10-20 2011-12-07 松下电器产业株式会社 用于声音产生设备的自动杂音补偿方法及装置
CN101193460B (zh) * 2006-11-20 2011-09-28 松下电器产业株式会社 检测声音的装置及方法
WO2008083315A2 (en) * 2006-12-31 2008-07-10 Personics Holdings Inc. Method and device configured for sound signature detection
US7987090B2 (en) * 2007-08-09 2011-07-26 Honda Motor Co., Ltd. Sound-source separation system
JP5207273B2 (ja) * 2007-10-12 2013-06-12 Necカシオモバイルコミュニケーションズ株式会社 端末装置
ATE490693T1 (de) * 2007-10-29 2010-12-15 Lipid Nutrition Bv Dressingzusammensetzung
JP2012074976A (ja) * 2010-09-29 2012-04-12 Nec Casio Mobile Communications Ltd 携帯端末、携帯システムおよび警告方法
JP5514698B2 (ja) * 2010-11-04 2014-06-04 パナソニック株式会社 補聴器
DE102011087984A1 (de) * 2011-12-08 2013-06-13 Siemens Medical Instruments Pte. Ltd. Hörvorrichtung mit Sprecheraktivitätserkennung und Verfahren zum Betreiben einer Hörvorrichtung
US9191744B2 (en) * 2012-08-09 2015-11-17 Logitech Europe, S.A. Intelligent ambient sound monitoring system
CN102915753B (zh) * 2012-10-23 2015-09-30 华为终端有限公司 一种电子设备的智能控制音量的方法及实现装置
JP6054142B2 (ja) * 2012-10-31 2016-12-27 株式会社東芝 信号処理装置、方法およびプログラム
US9050212B2 (en) * 2012-11-02 2015-06-09 Bose Corporation Binaural telepresence
US9270244B2 (en) * 2013-03-13 2016-02-23 Personics Holdings, Llc System and method to detect close voice sources and automatically enhance situation awareness
KR101984356B1 (ko) * 2013-05-31 2019-12-02 노키아 테크놀로지스 오와이 오디오 장면 장치
EP2869599B1 (en) * 2013-11-05 2020-10-21 Oticon A/s A binaural hearing assistance system comprising a database of head related transfer functions
JP6334895B2 (ja) * 2013-11-15 2018-05-30 キヤノン株式会社 信号処理装置及びその制御方法、プログラム
TWI543635B (zh) * 2013-12-18 2016-07-21 jing-feng Liu Speech Acquisition Method of Hearing Aid System and Hearing Aid System
EP2904972B1 (en) * 2014-02-05 2021-06-30 Oticon A/s Apparatus for determining cochlear dead region
US9685926B2 (en) * 2014-12-10 2017-06-20 Ebay Inc. Intelligent audio output devices
US9513866B2 (en) * 2014-12-26 2016-12-06 Intel Corporation Noise cancellation with enhancement of danger sounds

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011048302A (ja) * 2009-08-28 2011-03-10 Fujitsu Ltd ノイズ低減装置およびノイズ低減プログラム
JP2011170282A (ja) * 2010-02-22 2011-09-01 Toshiba Corp 再生装置および再生方法
WO2011105003A1 (ja) * 2010-02-25 2011-09-01 パナソニック株式会社 信号処理装置及び信号処理方法
JP2012134741A (ja) * 2010-12-21 2012-07-12 Dainippon Printing Co Ltd 音楽再生装置及び再生音量制御システム,
US20140072154A1 (en) * 2012-09-10 2014-03-13 Sony Mobile Communications, Inc. Audio reproducing method and apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022509903A (ja) * 2018-10-26 2022-01-25 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニー 環境トリガに基づく適応的anc
US11869475B1 (en) 2018-10-26 2024-01-09 Meta Platforms Technologies, Llc Adaptive ANC based on environmental triggers
WO2022014274A1 (ja) * 2020-07-14 2022-01-20 ソニーグループ株式会社 通知制御装置、通知制御方法、通知システム

Also Published As

Publication number Publication date
US10510361B2 (en) 2019-12-17
JP6931819B2 (ja) 2021-09-08
CN105976829B (zh) 2021-08-20
US20160267925A1 (en) 2016-09-15
JP2020156107A (ja) 2020-09-24
CN105976829A (zh) 2016-09-28
JP6731632B2 (ja) 2020-07-29

Similar Documents

Publication Publication Date Title
JP6931819B2 (ja) 音声処理装置、音声処理方法及び音声処理プログラム
US9961444B2 (en) Reproducing device, headphone and reproducing method
KR101731714B1 (ko) 음질 개선을 위한 방법 및 헤드셋
JP5929786B2 (ja) 信号処理装置、信号処理方法及び記憶媒体
CN106463107A (zh) 在耳机与源之间协作处理音频
JP2013501969A (ja) 方法、システム及び機器
JP2014174255A5 (ja)
JP2009504060A (ja) 背景雑音に応じてバイブレータの動作を制御することによる移動通信装置の音声了解度の向上
JP2011087196A (ja) 電話機、及び電話機の話速変換方法
US20150049879A1 (en) Method of audio processing and audio-playing device
JP2006211365A (ja) ハンズフリー装置、ナビゲーション装置及び割り込み着信通知方法
JP4402644B2 (ja) 発話抑制装置、発話抑制方法および発話抑制装置のプログラム
JP7284570B2 (ja) 音声再生システムおよびプログラム
US20230143588A1 (en) Bone conduction transducers for privacy
JP2012095047A (ja) 音声処理装置
US20140324418A1 (en) Voice input/output device, method and programme for preventing howling
WO2011027437A1 (ja) 音声再生装置および音声再生方法
JP2539672B2 (ja) 音声再生方式
EP4156181A1 (en) Controlling playback of audio data
KR20120124351A (ko) 휴대 단말기를 이용한 음성인식 보청 시스템 및 그것의 운영방법
JP2006114942A (ja) 音声提示システム、音声提示方法、この方法のプログラム、および記録媒体
WO2024058147A1 (ja) 処理装置、出力装置及び処理システム
JP4381108B2 (ja) 話速変換装置における時報処理装置
JP2008152195A (ja) 音声処理回路、発話システムおよび音声出力方法、電子機器
CN115580678A (zh) 一种数据处理方法、装置和设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200619

R151 Written notification of patent or utility model registration

Ref document number: 6731632

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151