JP2016127376A - 音出力装置および音出力装置における音の再生方法 - Google Patents

音出力装置および音出力装置における音の再生方法 Download PDF

Info

Publication number
JP2016127376A
JP2016127376A JP2014265570A JP2014265570A JP2016127376A JP 2016127376 A JP2016127376 A JP 2016127376A JP 2014265570 A JP2014265570 A JP 2014265570A JP 2014265570 A JP2014265570 A JP 2014265570A JP 2016127376 A JP2016127376 A JP 2016127376A
Authority
JP
Japan
Prior art keywords
sound
user
output device
unit
reproduction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014265570A
Other languages
English (en)
Other versions
JP6404709B2 (ja
Inventor
昌志 多賀谷
Masashi Tagaya
昌志 多賀谷
村上 圭一
Keiichi Murakami
圭一 村上
▲高▼橋 和彦
和彦 ▲高▼橋
Kazuhiko Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2014265570A priority Critical patent/JP6404709B2/ja
Publication of JP2016127376A publication Critical patent/JP2016127376A/ja
Application granted granted Critical
Publication of JP6404709B2 publication Critical patent/JP6404709B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Headphones And Earphones (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

【課題】音出力装置を利用しているときであっても、周囲の状況を把握することが可能な音出力装置を提供する。【解決手段】ヘッドホン装置100は、環境音を取得する取得部121と、ユーザの状況を特定する特定部122と、特定部122によって特定されたユーザの状況に応じて、取得部121によって取得された環境音から所定の音を抽出する抽出部123と、抽出部123によって抽出された音に基づいた再生処理を実行する再生部124と、を備える。【選択図】図2

Description

本発明は、イヤホンやヘッドホンのような音出力装置および音出力装置における音の再生方法に関する。
近年、周囲の音(環境音)をカットすることができる機能を備えたイヤホン装置やヘッドホン装置のような音出力装置が実用に供されている。たとえば下記特許文献1に記載されたヘッドホン装置によれば、環境音に含まれるノイズを打ち消すことによって、その音がユーザに聞こえないようにすることができる。打ち消すべきノイズとしては、たとえば乗物などによって生じる騒音が考えられる。
特開2008−193420号公報
上述の機能によって、音出力装置を利用しているときに環境音に含まれるノイズが打ち消されると、ユーザが周囲の状況を把握しにくくなることもある。たとえば、乗物が近づいてくるような場合にその音がノイズであるとして打ち消されると、ユーザが乗物の接近に気づきにくくなるので好ましくない。この場合には、乗物の音はノイズではなくユーザにとって必要な音である。よって、どのような環境音がユーザにとって必要な音であるかは、ユーザの状況によって異なると考えられる。
本発明は、上記問題点に鑑みてなされたものであり、音出力装置を利用しているときであっても、周囲の状況を把握することが可能な音出力装置および音出力装置における音の再生方法を提供することを目的とする。
本発明の一態様に係る音出力装置は、環境音を取得する取得手段と、ユーザの状況を特定する特定手段と、特定手段によって特定されたユーザの状況に応じて、取得手段によって取得された環境音から所定の音を抽出する抽出手段と、抽出手段によって抽出された音に基づいた再生処理を実行する再生手段と、を備える。
本発明の一態様に係る音出力装置における音の再生方法は、環境音を取得するステップと、ユーザの状況を特定するステップと、特定するステップによって特定されたユーザの状況に応じて、取得するステップによって取得された環境音から特定の音を抽出するステップと、抽出するステップによって抽出された音に基づいた再生処理を実行するステップと、を含む。
上記の音出力装置または音出力装置における音の再生方法によれば、ユーザの状況に応じて環境音から所定の音が抽出され、抽出された音に基づいた再生処理が実行される。たとえば、ユーザにとって必要な所定の音が聞こえやすくなるような再生処理を実行することで、ユーザは音出力装置を利用しているときであってもその音の存在を知ることができ、これにより、周囲の状況を把握することができるようになる。
また、再生手段は、抽出手段によって抽出された音に対して強調処理を実行してもよい。ユーザは、強調処理がされた音を聞くことによって、より確実にユーザにとって必要な所定の音の存在を知ることができるようになる。
また、再生手段は、所定の音の音源と音出力装置との位置関係を考慮して、強調処理を実行してもよい。これにより、ユーザは、音源の位置に対応した音を聞くことができるようになる。
また、再生手段は、抽出手段によって抽出された音に所定の語彙が含まれる場合に、強調処理を実行してもよい。これにより、強調処理の実行の対象となる音をさらに絞り込むことができるので、ユーザは、ユーザにとってより必要な音を聞くことができるようになる。
また、再生手段は、他の音の再生状態を変えることによって、強調処理を実行してもよい。ユーザにとって必要な音が聞こえやすくなるように他の音の再生状態を変えることによって、ユーザは、必要な音をより確実に聞くことができるようになる。
また、再生手段は、抽出手段によって抽出された音を変換することによって、強調処理を実行してもよい。たとえば、抽出された音をユーザが聞きやすい音に変換して再生することにより、ユーザは、その音の存在をより確実に知ることができるようになる。
本発明によれば、音出力装置を利用しているときであっても、周囲の状況を把握することが可能になる。
実施形態に係る音出力装置の概要を説明するための図である。 音出力装置などの概略構成を示す図である。 記憶部が記憶するデータテーブルの一例を示す図である。 他人の足音を抽出するためのデータ処理の概要を説明するための図である。 脳波センサのデータに基づくユーザ状況の特定について説明するための図である。 音出力装置が実行する処理の一例を示すフローチャートである。
以下、本発明の実施形態について、図面を参照しながら説明する。なお、図面の説明において同一要素には同一符号を付し、重複する説明は省略する。
図1は、実施形態に係る音出力装置の概要を説明するための図である。図1に示す例では、音出力装置はヘッドホン装置100であり、ヘッドホン装置100は、マイク110と、コントローラ(制御部)120と、スピーカ140とを含む。これらの要素は、コードCを介して接続されており、コードCの端部には端子Tが設けられている。ユーザは、端子Tを後述のデバイス群200に含まれる各デバイスに接続し、ヘッドホン装置100を装着することによって、スピーカ140からの種々の音(たとえば音楽やゲームの音)を聞くことができる。音以外にも、ヘッドホン装置100は、デバイス群200から種々の情報を取得できるようになっている。なお、種々の音や情報はヘッドホン装置100の端子Tを各デバイスに接続するだけでなく、Bluetooth(登録商標)のような近距離無線通信技術を利用することによって、取得することもできる。なお、実施形態に係る音出力装置は、ヘッドホン装置100に限らず、イヤホン装置であってもよい。
デバイス群200として、図1に示す例では、端末装置200a、リストバンド200b、グラス200c、照度計200d、リストウォッチ200eなどが挙げられる。
端末装置200aは、たとえばスマートホンのような携帯通信端末装置である。そのような端末装置は、ネットワーク通信が可能であるだけでなく、アプリケーションを起動することによって音楽やゲームを楽しむこともできる。ヘッドホン装置100の装着時には、それらの音が、スピーカ140を介してユーザへ出力される。
リストバンド200bは、ユーザのリスト部分に取り付けられることによって、心拍センサ203でユーザの心拍数を取得し、その情報をヘッドホン装置100に送信する。
グラス200cは、ユーザの頭部に取り付けられることによって、脳波センサ202でユーザの脳波を取得し、その情報をヘッドホン装置100に送信する。
照度計200dは、ユーザに携帯されることによって、照度を取得し、その情報をヘッドホン装置100に送信する。
リストウォッチ200eは、ユーザの腕に取り付けられ、現在の時刻を取得し、その情報をヘッドホン装置100に送信する。
なお、上述のリストバンド200b、グラス200c、照度計200d、リストウォッチ200eなどの機能は、端末装置200aにおいて実現されてもよい。また、ヘッドホン装置100の備えるマイク110および制御部120の機能(後述)も、端末装置200aにおいて実現されてもよい。
図2は、ヘッドホン装置100などの概略構成を示すブロック図である。ヘッドホン装置100は、先に説明した図1にも記載されているマイク110、制御部120、スピーカ140の他に、さらに記憶部130を備える。記憶部130は、制御部120が実行する処理に必要な種々の情報を記憶する。図2に示す例では記憶部130は制御部120とは別に設けられているが、記憶部130は制御部120に含まれてもよい。あるいは、記憶部130の機能がサーバ400において実現されてもよい。
まず、一般的なイヤホン装置やヘッドホン装置と同様に、ユーザは、ヘッドホン装置100を用いることによって音楽やゲームの音を聞くことができる。たとえば、音楽再生装置208やゲーム機209の音がヘッドホン装置100に送られてスピーカ140から出力され、ユーザはその音を聞くことができる。なお、音楽再生装置208やゲーム機209の機能は、たとえば図1の端末装置200aにおいて実現され得る。
上記の一般的なイヤホン装置やヘッドホン装置の機能に加え、本実施形態に係るヘッドホン装置100は、マイク110、制御部120、記憶部130などの構成要素を含む点において特徴がある。
マイク110は、周囲の音(環境音)を検出する。なお、マイク110は、複数のマイクであってもよい。先に説明した図1の例では、マイク110は2つのマイクで構成されるが、マイク110の数は3つ以上であってもよい。複数のマイク110を用いることによって、音源の音が各マイク110に到達するタイミグの時間差を検出することができ、それによって音源の位置情報を特定することも可能になる。音源の位置情報は、ヘッドホン装置100から音源までの距離やその方向などを含む。
制御部120は、取得部(取得手段)121と、特定部(特定手段)122と、抽出部(抽出手段)123と、再生部(再生手段)124とを含む。
取得部121は、環境音を取得する部分である。環境音は、マイク110を介して取得される。取得部121は、取得した環境音を適時録音(記憶)しておくこともできる。録音データは、記憶部130に記憶することができる。
特定部122は、ユーザの状況(ユーザ状況)を特定する部分である。ユーザ状況は、デバイス群200から送信される情報に基づいて特定される。これについては、後に図3を参照して詳述する。
抽出部123は、特定部122によって特定されたユーザ状況に応じて、取得部121によって取得された環境音から所定の音(所定音)を抽出する部分である。所定音の抽出は、たとえば周波数成分の分析も含めた公知の音声認識技術などを用いて環境音を解析することによって行うことができる。どのような所定音を抽出するかは、ユーザ状況と所定音とを対応付けて記述したデータベースを予め作成しておき、そのデータベースを参照することによって行うことができる。そのようなデータベースは記憶部130に記憶しておくことができる。その一例については、後に図3を参照して説明する。
再生部124は、抽出部123によって抽出された音に基づいた再生処理を実行する部分である。再生処理は、ユーザが所定音の存在を知ることができるようにするための処理である。再生処理では、抽出された音がそのまま再生されてもよいし、強調処理が実行された後に再生されてもよい。強調処理は、たとえば、抽出された音の音量を増加させたり、抽出された音の周波数を変換したり、抽出された音を予め登録された別の音に置き換えたり(変換したり)する処理である。再生部124は、再生すべき音をスピーカ140に送信する。これにより、スピーカ140が音を出力し、ユーザはその音を聞くことができる。なお、先に説明した音楽やゲームの音も、再生部124を経由してスピーカ140に送信することができる。このため、再生部124は、音楽やゲームの音の再生を制御することもできる。
記憶部130は、制御部120が実行する処理に必要な種々のデータを記憶する。記憶部130に記憶されるデータの一例については、後に図3を参照して説明する。
スピーカ140は、再生部124から送信された音を出力する。なお、スピーカ140は、複数のスピーカであってもよい。先に説明した図1の例では、スピーカ140は2つのスピーカで構成される。複数のスピーカ140を用いることによって、ステレオ出力が可能になる。たとえば各スピーカが出力する音のタイミング(ユーザが左右の耳で聞く音のタイミング)をずらすことによって、ユーザは特定の方向から音が聞こえるように知覚することができる。たとえば先に説明した複数のマイク110によって音源の位置を特定した場合には、その音源の位置がユーザにわかるように、スピーカ140から音を出力することもできる。
以上説明した制御部120は、物理的には、1または複数のCPU(CentralProcessing Unit)、主記憶装置であるRAM(RandomAccess Memory)およびROM(Read OnlyMemory)、データ送受信デバイスである通信モジュール、ならびに、ハードディスクなどの補助記憶装置などのハードウェアを備えるコンピュータを含んで構成することができる。図2を参照して説明した制御部120の各機能は、たとえば、CPU、RAMなどのハードウェア上に1または複数の所定のコンピュータソフトウェアを読み込ませることにより、CPUの制御のもとで通信モジュールを動作させるとともに、RAMおよび補助記憶装置におけるデータの読み出しおよび書き込みを行うことで実現される。なお、専用のハードウェアを用いて制御部120の各機能を実現することもできる。また、先に述べたように、制御部120の機能は、端末装置200aにおいて実現することもできる。
次にデバイス群200について説明すると、図2に示す例では、デバイス群200は、加速度センサ201と、脳波センサ202と、心拍センサ203と、照度センサ204と、タイマ205と、GPS(Global Positioning System)装置206と、通信装置207と、音楽再生装置208と、ゲーム機209とを含む。加速度センサ201、GPS装置206、通信装置207、音楽再生装置208およびゲーム機209の機能は、たとえば端末装置200aにおいて実現される。脳波センサ202は、たとえばグラス200cに搭載される。心拍センサ203は、たとえばリストバンド200bに搭載される。照度センサ204は、たとえば端末装置200aや照度計200dに搭載される。タイマ205は、たとえば端末装置200aやリストウォッチ200eに搭載される。
通信装置207は、通信ネットワーク300を介してサーバ400と通信することができる。たとえば、GPS装置206および通信装置207が協働することによって、サーバ400の処理を利用した位置測位や移動履歴の取得などが可能になる。また、音楽再生装置208および通信装置207が協働することによってさまざまな音楽コンテンツをダウンロードすることができ、ゲーム機209および通信装置207が協働することによってさまざまなゲームコンテンツをダウンロードすることもできる。
ヘッドホン装置100の動作概要を説明すると、まず、ユーザが音楽再生装置208やゲーム機209を利用するときには、音楽やゲームの音がスピーカ140から出力され、ユーザはその音を聞くことができる。さらに、ユーザが音楽やゲームの音を聞いているとき(つまりヘッドホン装置100を利用しているとき)に、マイク110によって検出された環境音に所定音が含まれている場合には、その音が抽出部123によって抽出される。そして、抽出された音に基づく再生処理が再生部124によって実行される。これにより、ユーザは、音楽やゲームの音を聞いているときでも、環境音に含まれる所定音の存在を知ることができるようになる。
本実施形態では、所定音として、ユーザにとって必要であると考えられる音が設定される。そのような所定音はユーザ状況に応じて異なるため、本実施形態では、ユーザ状況に応じた適切な音を所定音に設定する。このため、記憶部130には、ユーザ状況と所定音とを対応付けたデータテーブルが記憶される。
図3は、記憶部130が記憶するデータテーブルの一例を示す図である。図3に示すように、データテーブル130aは、ユーザ状況と、所定音とを対応付けて記述している。
ユーザ状況としては、たとえば「夜道で一人歩き」、「ランニング中」、「電車内でゲームに集中」(あるいは電車内で睡眠中)が挙げられる。これらのユーザ状況に対して、たとえば所定音「他人の足音」、「乗物の音」、「車内アナウンス」がそれぞれ対応する。
所定音「他人の足音」がユーザ状況「夜道で一人歩き」に対応する理由は、夜道で一人歩きの場合に、たとえば他人が背後から近づいてきた場合には、その他人の足音の存在をユーザに知らせることが好ましいと考えられるためである。このことは、ユーザ状況「夜道で一人歩き」の場合には、「他人の足音」はユーザにとって必要な音と判断されることを意味する。
ここで、図4を参照して、他人の足音を抽出するためのデータ処理の概要について説明する。まず、図4(a),(b)を参照して、環境音として、他人の足音が無く、ユーザの足音のみが存在する場合について説明する。
図4(a)は、環境音の時間変化の一例を示すグラフである。グラフの横軸は時間を示し、縦軸は電圧を示す。縦軸が電圧を示しているのは、ユーザの足音がマイク110(図2)によって電圧信号に変換されて取得されたためである。図4(a)に示すように、ユーザの足音が所定の間隔(ユーザの歩行周期の2分の1)で発生していることがわかる。
図4(b)のグラフは、環境音の周波数成分の一例を示すグラフである。グラフの横軸は周波数を示し、縦軸は電力を示す。このグラフは、たとえば図4(a)のデータに対してフーリエ変換処理を実行することによって取得することができる。フーリエ変換処理は、たとえば抽出部123(図2)によって実行される。図4(b)に示すように、周波数f(たとえば2Hz)を中心としたパワースペクトル成分が観測される。周波数fを中心としたパワースペクトル成分はユーザの足音の周波数成分であり、周波数fはユーザの歩行周期に依存し得る。
次に、図4(c),(d)を参照して、環境音として、ユーザの足音に加えて他人の足音も存在する場合について説明する。図4(c)のグラフは、図4(a)のグラフにおいてさらに他人の足音が存在する場合の環境音の時間変化を示す。図4(d)のグラフは、図4(c)のデータにフーリエ変換処理を実行したものである。図4(d)においては、周波数fを中心としたパワースペクトル成分が観測されるだけでなく、周波数f(たとえば1.7Hz)を中心としたパワースペクトル成分も観測される。周波数fを中心としたパワースペクトル成分は他人の足音の周波数成分であり、周波数fは他人の歩行周期に依存し得る。
図4(d)に示ように、ユーザの足音および他人の足音は、周波数fを中心としたパワースペクトルおよび周波数fを中心としたパワースペクトルとして区別することができる。このため、ユーザの足音に関する情報(歩行周期やそれに応じた周波数fなど)が予め分かっていれば、抽出部123(図2)は、図4(d)に示すような周波数パワースペクトルに基づいて、ユーザの足音と他人の足音とを区別し、他人の足音を抽出することができる。ユーザの足音に関する情報は、記憶部130に記憶しておいてもよい。なお、フーリエ変換処理によってパワースペクトルを観測することによって、周期的でない単発の音などを足音として誤認識することを防ぐこともできる。
再び図3に戻って、所定音「乗物の音」がユーザ状況「ランニング中」に対応する理由は、ランニング中に、たとえば乗物が背後から近づいてきた場合には、その乗物の音の存在をユーザに知らせることが好ましいと考えらえるためである。このことは、ユーザ状況「ランニング中」の場合には、「乗物の音」はユーザにとって必要な音であると判断されることを意味する。乗物の音の特定は、たとえば、パワースペクトルに乗物の音の周波数帯域の成分が含まれるか否かを判断することによって行うことができる。
所定音「車内アナウンス」がユーザ状況「電車内でゲームに集中(あるいは睡眠中)」に対応する理由は、電車内でゲームに集中等しているときに車内アナウンスがあった場合には、その車内アナウンスの存在をユーザに知らせることが好ましいと考えられるためである。このことは、ユーザ状況「電車内でゲームに集中(あるいは睡眠中)」の場合には、「車内アナウンス」はユーザにとって必要な音であると判断されることを意味する。車内アナウンスの特定は、たとえば、パワースペクトルに車内アナウンスの周波数帯域の成分が含まれるか否かを判断することによって行うことができるし、音声認識によって行うこともできる。
以上説明したような図3に示すデータテーブル130aを参照すれば、ユーザ状況に応じて、適切な所定音(ユーザにとって必要な音)を設定することができる。
ユーザ状況は、先に説明したように、特定部122(図2)がデバイス群200から送信される情報に基づいて特定する。ここで、図3に記載されたユーザ状況の特定手法について具体的に説明する。
ユーザ状況が「夜道で一人歩き」であることの特定は、現在の時刻およびユーザの位置に関する情報などに基づいて行うことができる。具体的に、現在の時刻が夜(たとえば20:00〜7:00)であり、ユーザの位置が所定の道幅(たとえば6m以下)の路上にあり、その位置における歩行者数が比較的少なく(たとえば0.1人/平方メートル)、比較的暗い場所(たとえば明るさが300ルクス以下)である場合には、ユーザは、夜道で一人歩きを行っていると特定(推測)することができる。図2を参照して説明すると、現在の時刻はタイマ205から取得することができ、ユーザの位置はGPS装置206から取得することができる。また、そのユーザの位置における歩行者数に関する情報は、たとえば通信装置207を介してサーバ400から取得することができる。比較的暗い場所であるか否かは照度センサ204から照度に関する情報を取得することができる。
なお、上記においてユーザの位置における歩行者数に関する情報をサーバ400から取得する場合、その情報は、サーバ400において作成することができる。具体的に、サーバ400は、複数のユーザが携帯している通信端末(たとえば図1の端末装置200a)と通信を行い、各通信端末の位置情報を把握することによって、ユーザの位置における歩行者数に関する情報を作成することができる。
ユーザ状況が「ランニング中」であることの特定は、ユーザの状態およびユーザの位置に関する情報などに基づいて行うことができる。具体的に、ユーザの心拍数が所定値以上(たとえば100拍/分以上)であり、ユーザの移動速度が所定値以上(たとえば8km/h以上)である場合には、ユーザがランニング中であると特定(推測)することができる。図2を参照して説明すると、心拍数は心拍センサ203から取得することができる。また、ユーザの移動速度はGPS装置206から取得した移動履歴に基づいて算出することもできるし、加速度センサ201から取得した加速度履歴に基づいて算出することもできる。
ユーザ状況が「電車内でゲームに集中」、あるいは「電車内で睡眠中」であることの特定は、ユーザの位置に関する情報、ユーザの状態およびユーザ操作などに基づいて行うことができる。具体的に、ユーザの位置、移動速度および移動履歴などから、ユーザが電車に乗車中であることを特定(推定)することができる。また、ユーザの脳波の状態に基づいて、ユーザが集中している状態であるのか、睡眠中であるのかなどを特定(推定)することができる。さらに、ゲーム機209に対するユーザ操作がある場合には、ユーザがゲームをプレイしていることを特定(推定)することができる。図2を参照して説明すると、ユーザの位置、移動速度および移動履歴などはGPS装置206や加速度センサ201から取得することができる。ユーザの脳波の状態は、脳波センサ202から取得することができる。ゲーム機209に対するユーザ操作の有無は、ゲーム機209から取得することができる。
ここで、図5を参照して、脳波センサに基づくユーザ状況の特定について説明する。図5に示すグラフにおいて、横軸は、時間(単位はたとえば秒)を示す。縦軸は、測定した脳波(のレベル)の、平常時の脳波に対する比率(単位はたとえば%)を示す。この場合、脳波センサの測定値は、平常時の脳波(たとえば予め測定して把握しておく)の測定値でキャリブレーションしておく。これにより、現在の脳波と、平常時の脳波との差分を把握することができる。脳波の時間変化(つまり脳波の波形)は、ユーザ状況によって異なる。このため、脳波センサによって取得された情報から、ユーザ状況(集中しているときや睡眠中など)を特定することができる。たとえば、脳波の特定成分が平常時と比較して30%以上観測されるような波形を測定したときは、ユーザ状況を、集中している状態として特定するようにしてもよい。そのようないくつかの所定のパターンの波形と、ユーザ状況とを対応付けたデータを予め作成して、記憶部130(図2)に記憶しておいてもよい。特定部122は、脳波センサ202から送信された情報と、記憶部130に記憶されたデータとに基づいて、ユーザ状況を特定することができる。
図6は、ヘッドホン装置100が実行する処理(音出力装置における音の再生方法)の一例を示すフローチャートである。このフローチャートの処理は、たとえば端末装置200aにおいて音楽再生やゲームのアプリケーションが実行され、音楽やゲームの音がヘッドホン装置100のスピーカ140から出力されたことに応じて開始される。フローチャートの各処理は、とくに説明がない場合には制御部120によって実行されるものとする。
まず、ヘッドホン装置100は、環境音の取得(録音)を開始する(ステップS1)。この処理は、取得部121によって実行される。また、取得部121は、取得した環境音を記憶部130に記憶する。
次に、ヘッドホン装置100は、ユーザ状況を特定する(ステップS2)。この処理は、特定部122によって実行される。図6に示す例では、ユーザ状況として状況A〜Cの3通りの場合の処理が示される。状況Aは一例としてユーザ状況「夜道で一人歩き」であり、状況Bは一例としてユーザ状況「ランニング中」であり、状況Cは一例としてユーザ状況「電車内でゲームに集中」である。
先のステップS2において特定されたユーザの状況が状況Aの場合、ヘッドホン装置100は、抽出すべき音を所定音Aに設定する(ステップS3)。所定音Aは、たとえば他人の足音である。そして、ヘッドホン装置100は、環境音に所定音Aが含まれるか否か判断する(ステップS4)。環境音に所定音Aが含まれる場合(ステップS4:YES)、ヘッドホン装置100は、環境音から所定音Aを抽出する(ステップS5)。そうでない場合(ステップS4:NO)、ヘッドホン装置100は、ステップS2に再び処理を戻す。これらの処理は、抽出部123によって実行される。環境音に所定音Aが含まれることの判断は、たとえば録音された環境音のデータのうち、現時点から過去の所定時間(たとえば数秒から数十秒)までのデータを対象としたデータ処理(たとえば音声認識処理)を実行することによって行うことができる。
先のステップS5において所定音Aを抽出した後、ヘッドホン装置100は、強調処理を実行して再生処理を実行する(ステップS6)。この処理は、再生部124によって実行される。ここでの強調処理は、たとえば音楽の音を小さくし、予め登録された足音を再生することである。予め登録された足音は、たとえば「カツーン、カツーン」といった足音を連想させる音である。その後、ヘッドホン装置100は、ステップS2に再び処理を戻す。
一方、先のステップS2において特定されたユーザの状況が状況Bの場合、ヘッドホン装置100は、抽出すべき音を所定音Bに設定する(ステップS7)。所定音Bは、たとえば乗物の音である。そして、ヘッドホン装置100は、環境音に所定音Bが含まれるか否か判断する(ステップS8)。環境音に所定音Bが含まれる場合(ステップS8:YES)、ヘッドホン装置100は、環境音から所定音Bを抽出する(ステップS9)。そうでない場合(ステップS8:NO)、ヘッドホン装置100は、ステップS2に再び処理を戻す。これらの処理は、抽出部123によって実行される。
先のステップS9において所定音Bを抽出した後、ヘッドホン装置100は、音源の方向を特定する(ステップS10)。音源の方向は、先に説明したように複数のマイク110(図1)を用いることによって特定することができる。この処理は、たとえば取得部121によって実行される。たとえば乗物が接近してくる場合には、音源の方向はその乗物が接近してくる方向である。
そして、ヘッドホン装置100は、強調処理を実行して再生処理を実行する(ステップS11)。ここでの強調処理は、所定音Bの音源とヘッドホン装置100との位置関係をも考慮したものであり、たとえば音楽の音をぼやかして再生し、乗物の音は方向もわかるようにはっきり再生することである。音楽の音をぼやかすとは、ユーザにとって音楽の音が遠い位置にあるように聞こえるようにすることである。たとえば、音楽の音を小さくしたり周波数を変えたりすることによって、音楽の音をぼやかすことができ、これにより、乗物の音を相対的にはっきり再生することにもつながる。乗物の音の方向がわかるようにする再生は、先に説明したように複数のスピーカ140(図1)を用いることによって行うことができる。この処理は、再生部124によって実行される。その後、ヘッドホン装置100は、ステップS2に再び処理を戻す。
また、先のステップS2において特定されたユーザの状況が状況Cの場合、ヘッドホン装置100は、抽出すべき音を所定音Cに設定する(ステップS12)。所定音Cは、たとえば車内アナウンスである。そして、ヘッドホン装置100は、環境音に所定音Cが含まれるか否か判断する(ステップS13)。環境音に所定音Cが含まれる場合(ステップS13:YES)、ヘッドホン装置100は、環境音から所定音Cを抽出する(ステップS14)。そうでない場合(ステップS13:NO)、ヘッドホン装置100は、ステップS2に再び処理を戻す。これらの処理は、抽出部123によって実行される。なお、環境音に車内アナウンスが含まれるか否かの判断は、環境音に車内アナウンスの周波数帯域の音が含まれるか否かを判断することによって行ってもよいし、音声認識技術を用いて行ってもよい。
先のステップS14において所定音Cを抽出した後、ヘッドホン装置100は、所定音Cに所定の語彙が含まれるか否か判断する(ステップS15)。所定の語彙はたとえば降車すべき駅名である。この処理は、抽出部123によって実行される。所定音Cに所定の語彙が含まれる場合(ステップS15:YES)、ヘッドホン装置100は。強調処理を実行して再生処理を実行する(ステップS16)。そうでない場合(ステップS15:NO)、ヘッドホン装置100は、ステップS2に再び処理を戻す。ステップS16における強調処理は、たとえばゲームの音(ゲーム中でなく音楽を聴いているときには音楽)を停止し、車内アナウンスを再生することである。あるいは、ゲームの音の音量を小さくしたり(音量をゼロにすることを含む)、音の再生速度を変化させても(たとえば遅くしても)よい。すなわち、ステップS16における強調処理は、ユーザにとって必要な音(たとえば降車すべき駅名)が聞こえやすくなるように、他の音(たとえばゲームの音)の再生状態を変える処理である。この処理は、再生部124によって実行される。ステップS16の処理の完了後、ヘッドホン装置100は、ステップS2に再び処理を戻す。なお、上述の所定の語彙は、たとえば予めユーザが設定し、記憶部130に記憶しておくことができる。
なお、ステップS1において録音が開始された環境音の録音データは、適宜更新されてもよい。たとえば、所定音の抽出に必要な録音データとして現時点から過去の所定時間(たとえば数秒〜数十秒)までのデータのみを残しておき、それ以前のデータは消去するようにしてもよい。これにより、録音データが大きくなりすぎることを防ぐことができる。また、図6のフローチャートの処理は、たとえば、端末装置200aにおいて音楽再生やゲームのアプリケーションが終了され、音楽やゲームの音がヘッドホン装置100のスピーカ140から出力されなくなったこと応じて終了する。
次に、ヘッドホン装置100の作用効果について説明する。図2,3などに示すように、ヘッドホン装置100では、取得部121が環境音を取得し(ステップS1)、特定部122がユーザ状況を特定する(ステップS2)。抽出部123は、特定されたユーザ状況に応じて、取得された環境音から所定音を抽出する(ステップS5,S9,S14)。再生部124は、抽出された音に基づいた再生処理を実行する(ステップS6,S10,S11,S15,S16)。
ヘッドホン装置100によれば、ユーザ状況に応じた必要な音が聞こえやすくなるような再生処理を実行することで、ユーザは、音楽やゲームの音を聞いているとき(ヘッドホン装置100を利用しているとき)であっても、周囲の状況を把握することができるようになる。
具体的に、再生部124は、抽出部123によって抽出された音に対して強調処理を実行する(ステップS6,S11,S16)。ユーザは、強調処理がされた音を聞くことによって、より確実にユーザにとって必要な所定の音の存在を知ることができるようになる。
また、再生部124は、所定の音の音源とヘッドホン装置100との位置関係を考慮して、強調処理を実行することもできる(ステップS10,S11)。これにより、ユーザは音源の位置に対応した音を聞くことができるようになる。
また、再生部124は、抽出部によって抽出された音に所定の語彙が含まれる場合に、強調処理を実行することもできる(ステップS15,S16)。これにより、強調処理の実行の対象となる音をさらに絞り込むことができるので、ユーザは、ユーザにとってより必要な音を聞くことができるようになる。
また、再生部124は、他の音の再生状態を変えることによって、強調処理を実行することもできる(ステップS16)。ユーザにとって必要な音が聞こえやすくなるように他の音の再生状態を変えることによって、ユーザは、必要な音をより確実に聞くことができるようになる。
また、再生部124は、抽出部123によって抽出された音を変換することによって、強調処理を実行してよい(ステップS6)。たとえば、抽出された音をユーザが聞きやすい音に変換して再生することにより、ユーザは、その音の存在を把握しやすくなる。
以上説明したヘッドホン装置100のような音出力装置として、いわゆる密閉型のヘッドホン装置やイヤホン装置を好適に用いることができる。たとえば図1に示すヘッドホン装置100のように、装着時にスピーカ140の部分がユーザの耳全体を覆う形状としたものは、それによって環境音を遮断する機能を発揮するので、密閉型の音出力装置であると言える。また、いわゆるカナル型のイヤホン装置なども、密閉型の音出力装置である。密閉型の音出力装置とすることによって環境音を遮断すれば、ユーザは音楽やゲームの音をより快適に聞くことができる。また、密閉型の音出力装置によって環境音が遮断されたとしても、本実施形態によれば、ユーザにとって必要な音が再生されるので、ユーザは周囲の状況を把握することができるようになる。
100…ヘッドホン装置、110…マイク、120…制御部、121…取得部、122…特定部、123…抽出部、124…再生部、130…記憶部、140…スピーカ、200…デバイス群、300…通信ネットワーク、400…サーバ。

Claims (7)

  1. 環境音を取得する取得手段と、
    ユーザの状況を特定する特定手段と、
    前記特定手段によって特定されたユーザの状況に応じて、前記取得手段によって取得された環境音から所定の音を抽出する抽出手段と、
    前記抽出手段によって抽出された音に基づいた再生処理を実行する再生手段と、
    を備える、
    音出力装置。
  2. 前記再生手段は、前記抽出手段によって抽出された音に対して強調処理を実行する、請求項1に記載の音出力装置。
  3. 前記再生手段は、前記所定の音の音源と前記音出力装置との位置関係を考慮して、前記強調処理を実行する、請求項2に記載の音出力装置。
  4. 前記再生手段は、前記抽出手段によって抽出された音に所定の語彙が含まれる場合に、前記強調処理を実行する、請求項2に記載の音出力装置。
  5. 前記再生手段は、他の音の再生状態を変えることによって、前記強調処理を実行する、請求項2に記載の音出力装置。
  6. 前記再生手段は、前記抽出手段によって抽出された音を変換することによって、前記強調処理を実行する、請求項2に記載の音出力装置。
  7. 音出力装置における音の再生方法であって、
    環境音を取得するステップと、
    ユーザの状況を特定するステップと、
    前記特定するステップによって特定されたユーザの状況に応じて、前記取得するステップによって取得された環境音から特定の音を抽出するステップと、
    前記抽出するステップによって抽出された音に基づいた再生処理を実行するステップと、
    を含む、
    音出力装置における音の再生方法。
JP2014265570A 2014-12-26 2014-12-26 音出力装置および音出力装置における音の再生方法 Active JP6404709B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014265570A JP6404709B2 (ja) 2014-12-26 2014-12-26 音出力装置および音出力装置における音の再生方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014265570A JP6404709B2 (ja) 2014-12-26 2014-12-26 音出力装置および音出力装置における音の再生方法

Publications (2)

Publication Number Publication Date
JP2016127376A true JP2016127376A (ja) 2016-07-11
JP6404709B2 JP6404709B2 (ja) 2018-10-10

Family

ID=56356789

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014265570A Active JP6404709B2 (ja) 2014-12-26 2014-12-26 音出力装置および音出力装置における音の再生方法

Country Status (1)

Country Link
JP (1) JP6404709B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107995547A (zh) * 2017-11-29 2018-05-04 联想(北京)有限公司 耳机装置和控制方法
JP2018093503A (ja) * 2018-01-09 2018-06-14 株式会社ネイン 音声コンテンツ再生イヤホン、方法、および、プログラム
JP2019152861A (ja) * 2018-03-05 2019-09-12 ハーマン インターナショナル インダストリーズ インコーポレイテッド 集中レベルに基づく、知覚される周囲音の制御
WO2020189837A1 (ko) * 2019-03-20 2020-09-24 삼성전자 주식회사 웨어러블 디바이스를 동작하기 위한 장치 및 방법
JP2020194316A (ja) * 2019-05-27 2020-12-03 株式会社ポケモン ゲームプログラム、方法、情報処理装置
JP7476672B2 (ja) 2020-05-29 2024-05-01 株式会社Jvcケンウッド 受聴装置、及び受聴方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001013941A (ja) * 1999-06-30 2001-01-19 Toshiba Corp 装着型情報呈示装置および方法および記憶媒体
US20130243227A1 (en) * 2010-11-19 2013-09-19 Jacoti Bvba Personal communication device with hearing support and method for providing the same
JP2014007671A (ja) * 2012-06-26 2014-01-16 Kyocera Corp 電子機器及び音出力方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001013941A (ja) * 1999-06-30 2001-01-19 Toshiba Corp 装着型情報呈示装置および方法および記憶媒体
US20130243227A1 (en) * 2010-11-19 2013-09-19 Jacoti Bvba Personal communication device with hearing support and method for providing the same
JP2014007671A (ja) * 2012-06-26 2014-01-16 Kyocera Corp 電子機器及び音出力方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107995547A (zh) * 2017-11-29 2018-05-04 联想(北京)有限公司 耳机装置和控制方法
JP2018093503A (ja) * 2018-01-09 2018-06-14 株式会社ネイン 音声コンテンツ再生イヤホン、方法、および、プログラム
JP2019152861A (ja) * 2018-03-05 2019-09-12 ハーマン インターナショナル インダストリーズ インコーポレイテッド 集中レベルに基づく、知覚される周囲音の制御
JP7306838B2 (ja) 2018-03-05 2023-07-11 ハーマン インターナショナル インダストリーズ インコーポレイテッド 集中レベルに基づく、知覚される周囲音の制御
WO2020189837A1 (ko) * 2019-03-20 2020-09-24 삼성전자 주식회사 웨어러블 디바이스를 동작하기 위한 장치 및 방법
JP2020194316A (ja) * 2019-05-27 2020-12-03 株式会社ポケモン ゲームプログラム、方法、情報処理装置
JP7476672B2 (ja) 2020-05-29 2024-05-01 株式会社Jvcケンウッド 受聴装置、及び受聴方法

Also Published As

Publication number Publication date
JP6404709B2 (ja) 2018-10-10

Similar Documents

Publication Publication Date Title
JP6404709B2 (ja) 音出力装置および音出力装置における音の再生方法
US9949008B2 (en) Reproduction of ambient environmental sound for acoustic transparency of ear canal device system and method
CN108141696A (zh) 用于空间音频调节的系统和方法
KR102192361B1 (ko) 머리 움직임을 이용한 사용자 인터페이스 방법 및 장치
US9668069B2 (en) Hearing device and external device based on life pattern
US20090007596A1 (en) Designer control devices
CN109451390A (zh) 一种tws耳机及其控制方法、装置、设备
JPWO2018061491A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CN115175086A (zh) 在运动和通勤期间实现安全的耳机使用的空间音频
CN109684249A (zh) 用于使用电子附件连接的连接属性促进定位附件的主设备
CN113873378A (zh) 一种耳机噪声处理方法、装置及耳机
JP7167910B2 (ja) 情報処理装置、情報処理方法、およびプログラム
TW201820315A (zh) 改良型音訊耳機裝置及其聲音播放方法、電腦程式
JP7067484B2 (ja) 情報処理装置、情報処理方法、プログラム、および情報処理システム
CN110708625A (zh) 基于智能终端的环境声抑制与增强可调节耳机系统与方法
JP6326573B2 (ja) 多機能イヤホンによる自律型アシスタントシステム
US11197142B1 (en) Methods and systems for communicating with device cases
CN113194383A (zh) 一种声音播放方法、装置、电子设备及可读存储介质
JP2017028680A (ja) 制御方法および制御装置
CN110572734A (zh) 一种耳机智能监听环境音的方法及耳机
EP2887698B1 (en) Hearing aid for playing audible advertisement
JP6884854B2 (ja) 音声提供装置、音声提供方法及びプログラム
JP2018093503A (ja) 音声コンテンツ再生イヤホン、方法、および、プログラム
US20220021998A1 (en) Method for generating sound and devices for performing same
US20200280814A1 (en) Augmented reality audio playback control

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170817

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180913

R150 Certificate of patent or registration of utility model

Ref document number: 6404709

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250