JP2012175580A - 携帯電子機器及び音出力システム - Google Patents

携帯電子機器及び音出力システム Download PDF

Info

Publication number
JP2012175580A
JP2012175580A JP2011037643A JP2011037643A JP2012175580A JP 2012175580 A JP2012175580 A JP 2012175580A JP 2011037643 A JP2011037643 A JP 2011037643A JP 2011037643 A JP2011037643 A JP 2011037643A JP 2012175580 A JP2012175580 A JP 2012175580A
Authority
JP
Japan
Prior art keywords
sound
unit
input direction
sound data
portable electronic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011037643A
Other languages
English (en)
Other versions
JP5697482B2 (ja
Inventor
Takashi Kazama
俊 風間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2011037643A priority Critical patent/JP5697482B2/ja
Publication of JP2012175580A publication Critical patent/JP2012175580A/ja
Application granted granted Critical
Publication of JP5697482B2 publication Critical patent/JP5697482B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephone Function (AREA)
  • Details Of Audible-Bandwidth Transducers (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

【課題】音がどの方向から聞こえてくるのか判別することができる携帯電子機器及び音出力システムを提供する。
【解決手段】携帯電子機器は、複数のマイク41と、複数のマイク41に入力された音に基づいて、音の入力方向を特定する入力方向特定部43と、音の入力方向に応じてそれぞれ設定され、音に対してサラウンド効果を加えるためのテーブルを複数記憶する記憶部44と、記憶部44に記憶される複数のテーブルの中から、特定された音の入力方向に応じたテーブルを選択し、選択されたテーブルに基づいて、音データに基づく音に対してサラウンド効果を加える処理部46と、処理部46によってサラウンド効果が加えられた音を出力するイヤホン48と、を備える。
【選択図】図3

Description

本発明は、マイクに入力された音を出力することが可能な補聴器機能を備える携帯電子機器及び音出力システムに関する。
従来の補聴器は、マイクによって音を集音し、そのマイクによって集音された音に基づく音信号を増幅器によって電気的に増幅し、増幅器によって増幅された音信号に基づく音をイヤホンによって外部に出力する、というものであった。
ここで、補聴器は、マイクによって集音した音をイヤホンから出力するという簡単な構成の場合である為、音源の位置把握ができなかった。このため、補聴器には、特定の周波数を強調することにより、特定の方向の指向性特性を高めたものがある(特許文献1参照)。
国際公開第2005/004536号公報
しかしながら、特許文献1に記載された発明は、周波数を補正することにより、特定の方向の指向性特定を高めたものであるため、実際の耳で音を聞く場合とは音源の位置把握が同じにならないおそれがある。また、特許文献1に記載された発明は、音をイヤホンから出力するものであるため、特定の方向の指向性特性を高めた場合でも、音がどの方向から聞こえてくるのかわからないおそれがある。
本発明は、音がどの方向から聞こえてくるのか判別することができる携帯電子機器及び音出力システムを提供することを目的とする。
本発明の携帯電子機器は、複数のマイクと、前記複数のマイクに入力された音に基づいて、音の入力方向を特定する入力方向特定部と、音の入力方向に応じてそれぞれ設定され、音に対してサラウンド効果を加えるためのテーブルを複数記憶する記憶部と、前記記憶部に記憶される複数のテーブルの中から、特定された音の入力方向に応じたテーブルを選択し、選択されたテーブルに基づいて、音データに基づく音に対してサラウンド効果を加える処理部と、前記処理部によってサラウンド効果が加えられた音を出力する音出力部と、を備えることを特徴とする。
携帯電子機器は、筐体を備え、前記マイクは、前記筐体の前面における左右両端部にそれぞれ配置されると共に、前記筐体の後面における左右両端部にそれぞれ配置されることが好ましい。
また、前記入力方向特定部は、音が前記マイクに入力される時間と、前記マイクから出力される音データに基づく音の周波数特性とに基づいて、音の入力方向を特定することが好ましい。
携帯電子機器は、前記筐体に配置される撮像部を備え、前記撮像部によりユーザの顔が撮像されると、前記筐体と前記ユーザとの位置関係を特定することが好ましい。
本発明は、携帯電子機器と、前記携帯電子機器と通信ネットワークを介して接続する外部装置とを備える音出力システムであって、前記携帯電子機器は、音を入力し、入力した音を第1音データに変換して出力する、複数のマイクと、前記マイクのそれぞれから出力された第1音データを前記外部装置に送信すると共に、第2音データを前記外部装置から受信する第1通信部と、前記第1通信部によって受信された第2音データに基づく音を出力する音出力部と、を備え、前記外部装置は、前記携帯電子機器から第1音データを受信すると共に、前記携帯電子機器に第2音データを送信する第2通信部と、前記第2通信部によって受信された第1音データに基づいて、音の入力方向を特定する入力方向特定部と、音の入力方向に応じてそれぞれ設定され、音に対してサラウンド効果を加えるためのテーブルを複数記憶する記憶部と、前記記憶部に記憶される複数のテーブルの中から、前記入力方向特定部によって特定された音の入力方向に応じたテーブルを選択し、選択されたテーブルに基づいて、第1音データに基づく音に対してサラウンド効果を加えて、第2音データとして前記第2通信部に出力する処理部と、を備えることを特徴とする。
前記携帯電子機器は、筐体と、前記筐体に配置される撮像部と、を備え、前記撮像部によりユーザの顔が撮像されると、前記筐体と前記ユーザとの位置関係を特定することが好ましい。
本発明によれば、音がどの方向から聞こえてくるのか判別することができる。
本発明の携帯電子機器の一実施形態に係る携帯電話機の正面図である。 携帯電話機の背面図である。 携帯電話機が上記機能を発揮するための構成の一例を示す機能ブロック図である。 携帯電話機及び音源の配置位置を説明するための図である。 本発明の一実施形態に係る音出力システムの機能ブロック図である。
以下、本発明の一実施形態について説明する。
まず、本発明の携帯電子機器の一実施形態に係る携帯電話機について説明する。図1は、本発明の携帯電子機器の一実施形態に係る携帯電話機1の正面図である。なお、図1は、ストレートタイプの携帯電話機の形態を示しているが、本発明に係る携帯電話機の形態としては特にこれに限られない。例えば、携帯電話機は、2つの筐体をヒンジによって結合した折畳み式や、2つの筐体を重ね合わせた状態から一方の筐体を一方向にスライドさせるようにしたスライド式や、重ね合せ方向に沿う軸線を中心に一方の筐体を回転させるようにした回転式(ターンタイプ)でもよい。
携帯電話機1は、筐体2を備える。携帯電話機1は、その筐体2の前面10に、操作部11と、携帯電話機1の使用者が通話時に発した音声を入力する第1マイク12と、各種情報を表示する表示部21と、通話の相手側の音声を出力するスピーカ22とを備える。操作部11は、各種設定や電話帳機能やメール機能等の各種機能を作動させるための機能設定操作キー13と、電話番号の数字やメール等の文字等を入力するための入力操作キー14と、各種操作における決定やスクロール等を行う決定操作キー15とから構成されている。なお、これらのキーは、表示部21と一体に形成されたタッチパネルに配置(表示)するようにしてもよい。
このような携帯電話機1は、音がどの方向から聞こえてくるのか判別させる機能を有する。
以下に、携帯電話機1に係る上記機能を発揮するための構成と動作について詳述する。まず、本実施形態に係る携帯電話機1の上記機能を発揮するための構成の一例について、図1から図3を参照しながら説明する。図2は、携帯電話機1の背面図である。図3は、携帯電話機1が上記機能を発揮するための構成の一例を示す機能ブロック図である。
図3に示すように、携帯電話機1は、第2マイク41(第2マイク41は、本発明の「マイク」に対応する。)と、アナログ/ディジタル(A/D)変換部42と、入力方向特定部43と、記憶部44と、決定部45と、処理部46と、ディジタル/アナログ(D/A)変換部47と、音出力部としてのイヤホン48とを備える。
第2マイク41(41A,41B,41C,41D)は、音を入力し、入力した音を音データに変換して出力する。第2マイク41は、携帯電話機1の筐体2に複数配置される。具体的には、第2マイク41は、筐体2の前面10における左右両端部にそれぞれ配置される(図1参照)と共に、筐体2の後面30における左右両端部にそれぞれ配置される(図2参照)。前面10及び後面30のそれぞれに配置される第2マイク41は、左右対称に配置されることが好ましい。
なお、本実施形態では、4つの第2マイク41が筐体2に配置される例について説明している。しかしながら、本発明は、この例に限定されることはなく、2つ以上の第2マイク41が筐体2に配置されればよい。
A/D変換部42は、各第2マイク41の後段に接続される。A/D変換部42は、第2マイク41から出力されたアナログの音データをディジタルの音データに変換して出力する。
入力方向特定部43は、後述する第1テーブルを参照することにより、第2マイク41(A/D変換部42)のそれぞれから出力された音データに基づいて、音の入力方向(音源の位置)を特定する。すなわち、入力方向特定部43は、音が第2マイク41に入力される時間と、第2マイク41(A/D変換部42)から出力される音データに基づく音の周波数特性とに基づいて、音の入力方向を特定する。
入力方向特定部43は、ディジタルシグナルプロセッサ(DSP)等により構成される。入力方向特定部43は、周波数特性を得るために、第2マイク41から出力された音データに基づく音についての周波数スペクトルを解析する。また、入力方向特定部43は、音の入力方向を特定した場合、特定した音の入力方向についての情報(入力方向データ)を処理部46に出力する。さらに、入力方向特定部43は、第2マイク41から入力された音データを処理部46に出力する。なお、音の入力方向を特定する処理の詳細については、後述する。
記憶部44は、音の入力方向に応じてそれぞれ設定され、音に対してサラウンド効果を加えるための第2テーブル(第2テーブルは、本発明の「テーブル」に対応する。)を複数記憶する。ここで、音に対してサラウンド効果を加えるとは、各第2マイク41から出力される音データ基づく音の大きさを音データ毎に変える処理や、各音データの位相を変える処理を行うことである。サラウンド効果が加えられた音を人が聞いた場合には、人は、直接、音を耳で聞くのと同様に、どの方向で音がしたのかを判別する(音源の位置を特定する)ことが可能になる。なお、第2テーブルの詳細については、後述する。
決定部45は、携帯電話機1の向きを決定する。例えば、決定部45は、携帯電話機1の後面に配置される撮像部としてのカメラ23(図2参照)によって、携帯電話機1のユーザの顔が撮影されているか否かを判断する。決定部45は、カメラ23によってユーザの正面の顔が撮影されていると判断した場合、携帯電話機1における前面10の方向と、ユーザが向いている正面の方向とが一致していると決定する。決定部によって決定された結果は、決定データとして処理部46に出力される。
処理部46は、記憶部44に記憶される複数の第2テーブルの中から、入力方向特定部43によって特定された音の入力方向に応じた第2テーブルを選択し、選択されたテーブルに基づいて、音データに基づく音に対してサラウンド効果を加える。すなわち、処理部46は、入力方向データ及び決定データに基づいて、第2テーブルを選択し、選択されたテーブルに基づいて、音データに基づく音に対してサラウンド効果を加える。なお、携帯電話機1のユーザに対するその携帯電話機1の向きが予め決められている場合には、処理部46は、入力方向データのみに基づいて第2テーブルを選択し、選択されたテーブルに基づいて、音データに基づく音に対してサラウンド効果を加えることが可能である。
また、処理部46は、入力方向データ及び決定データに基づいて、例えば、携帯電話機1における前面10の方向と、ユーザが向いている正面の方向とが一致する場合に、筐体2の前面10における左側に配置された第2マイク41Aと、筐体2の後面30における左側に配置された第2マイク41Cとに対応する各音データ(サラウンド効果が加えられた音データ)を、1つの音データに合成して出力する。さらに、処理部46は、筐体2の前面10における右側に配置された第2マイク41Bと、筐体2の後面30における右側に配置された第2マイク41Dとに対応する各音データ(サラウンド効果が加えられた音データ)を、1つの音データに合成して出力する。
D/A変換部47は、処理部46から出力されたディジタルの音データをアナログの音データに変換して出力する。
イヤホン48は、処理部46によってサラウンド効果が加えられた音を出力する。例えば、携帯電話機1における前面10の方向と、ユーザが向いている正面の方向とが一致する場合に、筐体2の前面10及び後面30それぞれにおける左側に配置された第2マイク41A,41Cによって集音された音は、人の左耳に装着されるスピーカ48Lから出力される。一方、筐体2の前面10及び後面30それぞれにおける右側に配置された第2マイク41B,41Dによって集音された音は、人の右耳に装着されるスピーカ48Rから出力される。
次に、音の入力方向を特定する処理について説明する。音の入力方向を特定するために利用される第1テーブルは、入力方向特定部43に保持される。その第1テーブルは、次のようにして作成される。図4は、携帯電話機1及び音源51の配置位置を説明するための図である。
まず、携帯電話機1と、スイープ音(周波数変化音)を出力する音源51とを無響室に配置する。音源51は、図4に示すように、携帯電話機1に対して、正面(パターン1)、右前(パターン2)、右(パターン3)、右後(パターン4)、背面(パターン5)、左後(パターン6)、左(パターン7)、又は左前(パターン8)に配置される。そして、携帯電話機1は、複数の音源51のうちのいずれか1つから出力されるスイープ音を各第2マイク41によって集音する。
入力方向特定部43は、第2マイク41それぞれによって集音された音に対応する音データを入力して、その音の到達時間を判定する。例えば、携帯電話機1の正面に音源51が配置されている場合(パターン1)には、筐体2の正面に配置される第2マイク41A及び第2マイク41Bのそれぞれには略同時にスイープ音が到達する(通常の場合)。一方、筐体2の後面30に配置される第2マイク41C及び第2マイク41Dのそれぞれには、第2マイク41A及び第2マイク41Bにスイープ音が入力された時よりも遅れてスイープ音が到達する(遅い場合)。
さらに、入力方向特定部43は、入力された音データに基づく音について周波数スペクトルの解析を行う。音源51から出力された音が第2マイク41に直接に入力される場合には、周波数スペクトルの解析結果である周波数特性には、変化が生じない(フラットになる)。一方、音源51から出力された音が第2マイク41に直接に入力されない場合には、周波数スペクトルの解析結果である周波数特性には、変化が生じる。すなわち、音源51から出力されるスイープ音の周波数が低域の場合、周波数特性は、より低い周波数となる。また、音源51から出力されるスイープ音の周波数が中・高域の場合には、周波数特性は、より高い周波数となる。
例えば、携帯電話機1の正面に音源51が配置されている場合(パターン1)には、第2マイク41A及び第2マイク41Bにより集音された音に基づく周波数特性は、フラットになる。一方、第2マイク41C及び第2マイク41Dにより集音された音に基づく周波数特性は、低域が低くなり、中・高域が高くなる。
なお、上記の例示をまとめた第1テーブル(パターン1に対応する第1テーブル)は、表1のようになる。
Figure 2012175580
また、パターン2からパターン8の場合についても、パターン1の場合と同様にして、到達時間と、周波数特性を求める。そして、パターン2からパターン8に対応する第1テーブルは、それぞれ表2から表8のようになる。
Figure 2012175580
Figure 2012175580
Figure 2012175580
Figure 2012175580
Figure 2012175580
Figure 2012175580
Figure 2012175580
上記の第1テーブルを参照することにより、音の入力方向を特定する処理は、次のようになる。まず、入力方向特定部43は、各第2マイク41から出力された音データに基づいて、各第2マイク41に音が到達した時間を判別する。さらに、入力方向特定部43は、各第2マイク41から出力された音データに基づく音について周波数スペクトルの解析を行うことにより、周波数特性を調べる。そして、入力方向特定部43は、判別した到達時間と周波数特性とが、複数の第1テーブルのうちいずれのものと一致する又は略一致するのか判定し、判定結果(特定の第1テーブル)に対応するパターンを特定する。例えば、入力方向特定部43は、判別した到達時間と周波数特性とが表1の第1テーブルに一致するという判定結果を得た場合には、判定結果に対応するパターン1を特定する。すなわち、入力方向特定部43は、音の入力方向が筐体2の正面であると特定する。
次に、記憶部44に記憶される第2テーブルについて説明する。表9から表16は、携帯電話機1のユーザに対する音の入力方向がそれぞれ、正面、右前、右、右後、背面、左後、左、及び左前の場合の第2テーブルを示す。
例えば、携帯電話機1のユーザに対する音の入力方向が正面であると特定された場合には、音が人の正面から聞こえるようにするための設定が第2テーブルになされている。具体的には、第2テーブルは、携帯電話機1のユーザの正面に対して、左前に配置される第2マイク41から出力される音データに基づく音、及び右前に配置される第2マイク41から出力される音データに基づく音を、左後に配置される第2マイク41及び右後に配置される第2マイク41それぞれに基づく音よりも大きくするための設定(出力:大)がなされている。また、第2テーブルは、左後に配置される第2マイク41から出力される音データに基づく音、及び右後に配置される第2マイク41から出力される音データに基づく音を通常の大きさで出力するための設定(出力:通常)がなされている。
また、第2テーブルは、左前に配置される第2マイク41から出力される音データE(信号)、及び右前に配置される第2マイク41から出力される音データF(信号)の位相をそのままにしてイヤホン48から出力させるための設定(位相:通常)がなされている。また、第2テーブルは、左後に配置される第2マイク41から出力される音データG(信号)、及び右後に配置される第2マイク41から出力される音データH(信号)の位相を、音データE及び音データFの位相よりも遅くしてイヤホン48から出力させるための設定(位相:遅い)がなされている。
Figure 2012175580
また、携帯電話機1のユーザに対する音の入力方向が、右前、右、右後、背面、左後、左及び左前と特定される場合には、イヤホン48から出力される音がその特定された方向から聞こえるようにするための設定が第2テーブルになされている。音の入力方向が、右前、右、右後、背面、左後、左及び左前の場合に対応する第2テーブルは、それぞれ、表10、表11、表12、表13、表14、表15及び表16のようになる。
Figure 2012175580
Figure 2012175580
Figure 2012175580
Figure 2012175580
Figure 2012175580
Figure 2012175580
Figure 2012175580
次に、携帯電話機1の動作について説明する。なお、この動作説明においては、携帯電話機1の右側で音が発生している場合を例示する。
まず、各第2マイク41は、音を入力して、入力した音を音データに変換して出力する。A/D変換部42は、各第2マイク41から出力されたアナログの音データをディジタルの音データに変換して出力する。
入力方向特定部43は、A/D変換部42から音データが入力された場合に、音が各第2マイク41に入力された時間を特定する。ここでは、入力方向特定部43は、第2マイク41A及び第2マイク41Cに音が入力されたそれぞれの時間(到達時間)が第2マイク41B及び第2マイク41Dに音が入力された時間(到達時間)よりも遅いと特定する。
また、入力方向特定部43は、A/D変換部42から入力された音データに基づく音についての周波数スペクトルを解析する。ここでは、入力方向特定部43は、第2マイク41A及び第2マイク41Cそれぞれに入力された音の周波数特性は、第2マイク41B及び第2マイク41Dそれぞれに入力された音の周波数特性よりも低域が低く、中・高域が高い、という解析結果を得る。
さらに、入力方向特定部43は、取得した到達時間及び周波数特性と、各第1テーブルに記載される特性とを比較することにより、取得した到達時間及び周波数特性がいずれの第1テーブルに記載される特性と一致する又は略一致するのか判定し、判定された第1テーブルに対応する音の入力方向を特定する。ここでは、入力方向特定部43は、取得した到達時間及び周波数特性と表3に記載される特性とが一致すると判定するため、音の入力方向が携帯電話機1の右側であると特定する。
決定部45は、カメラ23によって撮像される画像に携帯電話機1のユーザの顔が写っているか否か判断する。決定部45は、画像にユーザの正面の顔が写っていると判断した場合には、ユーザの正面と、携帯電話機1の正面とが同じ方向を向いていると決定する。また、決定部45は、画像にユーザの顔が右向きに写っていると判断した場合には、ユーザの正面と、携帯電話機1の左側面とが同じ方向を向いていると決定する。さらに、決定部45は、画像にユーザの顔が左向きに写っていると判断した場合には、ユーザの正面と、携帯電話機1の右側面とが同じ方向を向いていると決定する。
処理部46は、入力方向特定部43による特定結果と、決定部45による決定結果とに基づいて、記憶部44に記憶されるいずれかの第2テーブルを選択する。ここで、決定部45によって、ユーザの正面と、携帯電話機1の正面とが同じ方向を向いていると決定されている場合には、処理部46は、入力方向特定部の特定結果に基づいて、ユーザの右側から音が入力されていると判断して、表11に示す第2テーブルを選択する。
また、決定部45によって、ユーザの正面と、携帯電話機1の左側面とが同じ方向を向いていると決定されている場合には、処理部46は、入力方向特定部の特定結果に基づいて、ユーザの後ろ側から音が入力されていると判断して、表13に示す第2テーブルを選択する。
さらに、決定部45によって、ユーザの正面と、携帯電話機1の右側面とが同じ方向を向いていると決定されている場合には、処理部46は、入力方向特定部の特定結果に基づいて、ユーザの正面から音が入力されていると判断して、表9に示す第2テーブルを選択する。
そして、処理部46は、選択された第2テーブルに基づいて、音にサラウンド効果を加える。例えば、ユーザの正面と、携帯電話機1の左側面とが同じ方向を向いていると決定されている場合には、処理部46は、表9に示す第2テーブルに基づいて、第2マイク41B及び第2マイク41Dから出力されたそれぞれの音データB及び音データDに基づく音が、第2マイク41A及び第2マイク41Cから出力されたそれぞれの音データA及び音データCに基づく音よりも大きくなるように、音データB及び音データDを調整する。また、処理部46は、表9に示す第2テーブルに基づいて、第2マイク41A及び第2マイク41Cから出力されたそれぞれの音データA及び音データCに基づく音の位相が、第2マイク41B及び第2マイク41Dから出力されたそれぞれの音データB及び音データDに基づく音の位相よりも遅くなるように、音データA及び音データCを調整する。
さらに、ユーザの正面と、携帯電話機1の左側面とが同じ方向を向いていると決定されている場合には、処理部46は、調整後の音データAと調整後の音データCとが1つの音データACになるよう合成すると共に、調整後の音データBと調整後の音データDとが1つの音データBDになるよう合成する。
ユーザの正面と、携帯電話機1の左側面とが同じ方向を向いていると決定されている場合には、D/A変換部47は、処理部46から出力されたディジタルの音データACと音データBDとをそれぞれアナログの音データACと音データBDとに変換して出力する。
ユーザの正面と、携帯電話機1の左側面とが同じ方向を向いていると決定されている場合には、イヤホン48は、音データACと音データBDとのそれぞれに基づく音を出力する。ここでは、人の左耳に装着されるスピーカ48Lからは音データACに基づく音が出力され、人の右耳に装着されるスピーカ48Rからは音データBDに基づく音が出力される。人は、音データAC及び音データBDそれぞれに基づく音を聞くことにより、音が聞こえてくる方向が右側からであると特定することが可能になる。
このような携帯電話機1によれば、音を聞く人に対して、その音が聞こえてくる方向を特定させることができる。すなわち、携帯電話機1は、音がどの方向から聞こえてくるのか判別させることができる。
次に、本発明の音出力システムの一実施形態について説明する。図5は、本発明の一実施形態に係る音出力システム100の機能ブロック図である。
音出力システム100は、携帯電子機器の一例としての携帯電話機110と、携帯電話機110と通信ネットワークNを介して接続する外部装置120とを備える。
携帯電話機110の外観は、図1及び図2に示す携帯電話機1と同様の構成である。また、携帯電話機110は、複数の第2マイク111(111A,111B,111C,111D)(第2マイク111は、本発明の「マイク」に対応する。)と、A/D変換部112と、第1通信部113と、D/A変換部114と、音出力部としてのイヤホン115と、を備える。
第2マイク111は、音を入力し、入力した音を第1音データに変換して出力する。第2マイク111は、携帯電話機1に配置される第2マイク41と同様の構成である。
A/D変換部112は、各第2マイク111の後段に接続される。A/D変換部112は、携帯電話機1に配置されるA/D変換部42と同様の構成である。
第1通信部113は、第2マイク111(A/D変換部112)のそれぞれから出力された第1音データを、通信ネットワークNを介して外部装置120に送信すると共に、第2音データを、通信ネットワークNを介して外部装置120から受信する。
D/A変換部114は、第1通信部113によって受信されたディジタルの第2音データをアナログの第2音データに変換してイヤホン115に出力する。
イヤホン115は、第1通信部113によって受信された第2音データ(D/A変換部114から出力された第2音データ)に基づく音を出力する。なお、イヤホン115は、携帯電話機1に配置されるイヤホン48と同様の構成である。
外部装置120は、例えば、サーバである。その外部装置120は、第2通信部121と、入力方向特定部122と、記憶部123と、決定部124と、処理部125とを備える。
第2通信部121は、通信ネットワークNを介して携帯電話機110から第1音データを受信すると共に、通信ネットワークNを介して携帯電話機110に第2音データを送信する。
入力方向特定部122は、第2通信部121によって受信された第1音データに基づいて、音の入力方向を特定する。入力方向特定部122は、携帯電話機1に配置される入力方向特定部43と同様の構成である。
記憶部123は、音の入力方向に応じてそれぞれ設定され、音に対してサラウンド効果を加えるための第2テーブル(第2テーブルは、本発明の「テーブル」に対応する。)を複数記憶する。第2テーブルは、携帯電話機1の記憶部44に記憶される第2テーブルと同様の構成である。
決定部124は、携帯電話機1に配置される決定部45と同様の構成である。
処理部125は、記憶部123に記憶される複数の第2テーブルの中から、入力方向特定部122によって特定された音の入力方向に応じた第2テーブルを選択し、選択された第2テーブルに基づいて、第1音データに基づく音に対してサラウンド効果を加えて、第2音データとして第2通信部121に出力する。処理部125は、携帯電話機1に配置される処理部46と同様の構成である。
このような音出力システム100によれば、音を聞く人に対して、その音が聞こえてくる方向を特定させることができる。すなわち、音出力システム100は、音がどの方向から聞こえてくるのか判別させることができる。
なお、上述した実施形態では、携帯電子機器の一例として携帯電話機1,110を挙げた。しかしながら、携帯電子機器は、携帯電話機1,110に限定されることはなく、例えば、PHS(Personal Handy phone System)であってもよい。
1 携帯電話機(携帯電子機器)
2 筐体
41 第2マイク(マイク)
43 入力方向特定部
44 記憶部
45 決定部
46 処理部
48 イヤホン(音出力部)
100 音出力システム
110 携帯電話機(携帯電子機器)
120 外部装置

Claims (6)

  1. 複数のマイクと、
    前記複数のマイクに入力された音に基づいて、音の入力方向を特定する入力方向特定部と、
    音の入力方向に応じてそれぞれ設定され、音に対してサラウンド効果を加えるためのテーブルを複数記憶する記憶部と、
    前記記憶部に記憶される複数のテーブルの中から、特定された音の入力方向に応じたテーブルを選択し、選択されたテーブルに基づいて、音データに基づく音に対してサラウンド効果を加える処理部と、
    前記処理部によってサラウンド効果が加えられた音を出力する音出力部と、
    を備える携帯電子機器。
  2. 筐体を備え、
    前記マイクは、前記筐体の前面における左右両端部にそれぞれ配置されると共に、前記筐体の後面における左右両端部にそれぞれ配置される
    請求項1に記載の携帯電子機器。
  3. 前記入力方向特定部は、音が前記マイクに入力される時間と、前記マイクから出力される音データに基づく音の周波数特性とに基づいて、音の入力方向を特定する
    請求項1又は2に記載の携帯電子機器。
  4. 前記筐体に配置される撮像部を備え、
    前記撮像部によりユーザの顔が撮像されると、前記筐体と前記ユーザとの位置関係を特定する
    請求項2に記載の携帯電子機器。
  5. 携帯電子機器と、前記携帯電子機器と通信ネットワークを介して接続する外部装置とを備える音出力システムであって、
    前記携帯電子機器は、
    音を入力し、入力した音を第1音データに変換して出力する、複数のマイクと、
    前記マイクのそれぞれから出力された第1音データを前記外部装置に送信すると共に、第2音データを前記外部装置から受信する第1通信部と、
    前記第1通信部によって受信された第2音データに基づく音を出力する音出力部と、を備え、
    前記外部装置は、
    前記携帯電子機器から第1音データを受信すると共に、前記携帯電子機器に第2音データを送信する第2通信部と、
    前記第2通信部によって受信された第1音データに基づいて、音の入力方向を特定する入力方向特定部と、
    音の入力方向に応じてそれぞれ設定され、音に対してサラウンド効果を加えるためのテーブルを複数記憶する記憶部と、
    前記記憶部に記憶される複数のテーブルの中から、前記入力方向特定部によって特定された音の入力方向に応じたテーブルを選択し、選択されたテーブルに基づいて、第1音データに基づく音に対してサラウンド効果を加えて、第2音データとして前記第2通信部に出力する処理部と、を備える
    音出力システム。
  6. 前記携帯電子機器は、
    筐体と、
    前記筐体に配置される撮像部と、を備え、
    前記撮像部によりユーザの顔が撮像されると、前記筐体と前記ユーザとの位置関係を特定する
    請求項5に記載の音出力システム。
JP2011037643A 2011-02-23 2011-02-23 携帯電子機器及び音出力システム Expired - Fee Related JP5697482B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011037643A JP5697482B2 (ja) 2011-02-23 2011-02-23 携帯電子機器及び音出力システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011037643A JP5697482B2 (ja) 2011-02-23 2011-02-23 携帯電子機器及び音出力システム

Publications (2)

Publication Number Publication Date
JP2012175580A true JP2012175580A (ja) 2012-09-10
JP5697482B2 JP5697482B2 (ja) 2015-04-08

Family

ID=46978007

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011037643A Expired - Fee Related JP5697482B2 (ja) 2011-02-23 2011-02-23 携帯電子機器及び音出力システム

Country Status (1)

Country Link
JP (1) JP5697482B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015159478A (ja) * 2014-02-25 2015-09-03 京セラ株式会社 音再生装置及び音再生方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005268964A (ja) * 2004-03-16 2005-09-29 Intelligent Cosmos Research Institute 音処理装置、音処理方法および音処理プログラム
JP2008066773A (ja) * 2006-09-04 2008-03-21 Funai Electric Co Ltd オーディオ機器
JP2009232431A (ja) * 2008-03-19 2009-10-08 Takashi Takashima 「音声拡張器付携帯電話(助聴力携帯)」
WO2010084769A1 (ja) * 2009-01-22 2010-07-29 パナソニック株式会社 補聴装置
JP2010193323A (ja) * 2009-02-19 2010-09-02 Casio Hitachi Mobile Communications Co Ltd 録音装置、再生装置、録音方法、再生方法、及びコンピュータプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005268964A (ja) * 2004-03-16 2005-09-29 Intelligent Cosmos Research Institute 音処理装置、音処理方法および音処理プログラム
JP2008066773A (ja) * 2006-09-04 2008-03-21 Funai Electric Co Ltd オーディオ機器
JP2009232431A (ja) * 2008-03-19 2009-10-08 Takashi Takashima 「音声拡張器付携帯電話(助聴力携帯)」
WO2010084769A1 (ja) * 2009-01-22 2010-07-29 パナソニック株式会社 補聴装置
JP2010193323A (ja) * 2009-02-19 2010-09-02 Casio Hitachi Mobile Communications Co Ltd 録音装置、再生装置、録音方法、再生方法、及びコンピュータプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015159478A (ja) * 2014-02-25 2015-09-03 京セラ株式会社 音再生装置及び音再生方法

Also Published As

Publication number Publication date
JP5697482B2 (ja) 2015-04-08

Similar Documents

Publication Publication Date Title
US10560783B2 (en) Methods, apparatuses and computer program products for facilitating directional audio capture with multiple microphones
CN108777732B (zh) 多麦克风的音频捕获
CN108538320B (zh) 录音控制方法和装置、可读存储介质、终端
CN103841491B (zh) 用于管理多个麦克风和扬声器的自适应系统
WO2014161309A1 (zh) 一种移动终端实现声源定位的方法及装置
JP5857674B2 (ja) 画像処理装置、及び画像処理システム
JP2016146547A (ja) 収音システム及び収音方法
EP2744226A1 (en) Hearing instrument
US10142733B2 (en) Head-related transfer function selection device, head-related transfer function selection method, head-related transfer function selection program, and sound reproduction device
TW200820733A (en) Method for providing an alert signal
WO2018000764A1 (zh) 一种声道自动匹配的方法、装置以及耳机
US20080118081A1 (en) Method and Apparatus for Canceling a User's Voice
WO2017135194A1 (ja) 情報処理装置、情報処理システム、制御方法およびプログラム
CN109417664A (zh) 用于电子设备中的音频模块的装置、方法和计算机程序
CN112037825A (zh) 音频信号的处理方法及装置、存储介质
KR101848458B1 (ko) 레코딩 방법 및 그 장치
JP5697482B2 (ja) 携帯電子機器及び音出力システム
KR101395329B1 (ko) 두 개의 마이크로폰을 이용하여 잡음을 제거하는 방법 및이동통신 단말기
US8737652B2 (en) Method for operating a hearing device and hearing device with selectively adjusted signal weighing values
JP2014072835A (ja) 会議装置
JP2021164109A (ja) 音場補正方法、音場補正プログラムおよび音場補正システム
WO2018064883A1 (zh) 一种录音方法、装置、设备及计算机存储介质
JP2016144134A (ja) 音声解析装置、音声解析システムおよびプログラム
JP2021164151A (ja) 集音装置
JP2006025402A (ja) 音声通信装置

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120803

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140805

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150210

R150 Certificate of patent or registration of utility model

Ref document number: 5697482

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees