JP2012065279A - 端末装置および音声処理プログラム - Google Patents

端末装置および音声処理プログラム Download PDF

Info

Publication number
JP2012065279A
JP2012065279A JP2010209936A JP2010209936A JP2012065279A JP 2012065279 A JP2012065279 A JP 2012065279A JP 2010209936 A JP2010209936 A JP 2010209936A JP 2010209936 A JP2010209936 A JP 2010209936A JP 2012065279 A JP2012065279 A JP 2012065279A
Authority
JP
Japan
Prior art keywords
unit
terminal device
sound
call
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010209936A
Other languages
English (en)
Other versions
JP5589708B2 (ja
Inventor
Yoshiteru Tsuchinaga
義照 土永
Kaori Endo
香緒里 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010209936A priority Critical patent/JP5589708B2/ja
Priority to US13/192,092 priority patent/US20120072206A1/en
Publication of JP2012065279A publication Critical patent/JP2012065279A/ja
Application granted granted Critical
Publication of JP5589708B2 publication Critical patent/JP5589708B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/0009Transmission of position information to remote stations
    • G01S5/0072Transmission between mobile stations, e.g. anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/568Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities audio processing specific to telephonic conferencing, e.g. spatial distribution, mixing of participants
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/01Input selection or mixing for amplifiers or loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/07Use of position data from wide-area or local-area positioning systems in hearing devices, e.g. program or information selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

【課題】片方の耳を用いて通話するユーザに通話の相手の方向を的確に知覚させることを課題とする。
【解決手段】端末装置200は、片方の耳での通話状態を検出すると、右耳通話時および左耳通話時について予め設定された補正値を用いて、通話の相手側の端末装置100に向かう方向と、端末装置200の端末方向とのなす相対角度を補正する。そして、端末装置200は、補正した相対角度が小さくなるほど音量が大きくなる特徴音を生成し、生成した特徴音を通話音声にミキシングする。
【選択図】図1

Description

この発明は、端末装置および音声処理プログラムに関する。
従来、例えば、携帯電話やスマートフォンなどの端末装置を用いた通話を行う場合に、通話の相手の方向を求め、この方向に応じて通話音声を加工することにより、通話の相手の方向をユーザに知らせる従来技術がある。以下、図16および図17を参照しつつ従来技術を説明する。図16および図17は、従来技術の説明に用いる図である。例えば、図16に示すU1およびU2は通話を行っている当事者を示すものとする。
この従来技術は、まず、U2が使用している端末装置の位置情報を取得し、U1が使用している端末装置とU2が使用している端末装置との位置関係を求める。なお、位置情報は、例えば、GPS(Global Positioning System)などを用いて取得される。
続いて、この従来技術は、図16に示すように、U1が使用する端末装置の位置からU2が使用する端末装置の位置へ向かう方向と北方向とがなす角度θ1を求める。続いて、この従来技術は、図16に示すように、U1の正面方向であるFとU1が使用する端末装置の端末方向とが一致していることを前提として、U1が使用する端末装置の端末方向と北方向とがなす角度θ2を求める。端末方向は、例えば、端末装置の長手方向に相当する。角度θ2は、端末装置に搭載された電子コンパスなどにより求められる。
続いて、この従来技術は、図16に示すように、角度θ1および角度θ2に基づいて、U1の使用する端末装置の端末方向に対する、U1が使用する端末装置の位置からU2が使用する端末装置の位置へ向かう方向の相対角度θを求める。続いて、この従来技術は、相対角度θに応じて出力音声を生成する。例えば、この従来技術は、図17に示すように、相対角度θに応じて、左耳用の音声および右耳用の音声にそれぞれ生成し、左耳用の音声および右耳用の音声を左右別系統で出力する。例えば、端末装置に搭載されたスピーカ、あるいは端末装置に接続されたヘッドホンやイヤホンなどを介して左右別系統で出力する。このように、この従来技術は、出力する左耳用の音声および右耳用の音声の違いで通話の相手の方向を表現することで、通話の相手の端末装置の方向から音声が聞こえてくるようにユーザに知覚させる。
特開2008−184621号公報 特開2005−341092号公報
上述した従来技術は、図17にも示すように、左耳用の音声および右耳用の音声の違いで通話の相手の方向を表現し、通話の相手の方向をユーザに知覚させる。このため、片方の耳を用いて通話する場合には、左耳用の音声および右耳用の音声の違いで通話の相手の方向を表現するという方法が利用できないので、通話の相手の方向をユーザに知覚させることができないという問題がある。
また、上述した従来技術では、ユーザの正面方向と端末方向とが一致しているという前提で上述した相対角度θを求め、この相対角度θに応じて出力音声を生成する。このため、ユーザの正面方向と端末方向とが一致していない状況では、通話の相手の方向をユーザに対して的確に知覚させることができない。なお、片方の耳を用いて通話する場合には、ユーザの正面方向と端末方向とが一致しない場合がほとんどである。このため、ユーザの正面方向と端末方向とが一致していない状況下で、上述した相対角度θを精度よく導出することができなければ、片方の耳を用いて通話するユーザに対して通話の相手の方向を的確に知覚させることができない。
そこで、本発明は、1側面において、片方の耳を用いて通話するユーザに通話の相手の方向を的確に知覚させることが可能な端末装置および音声処理プログラムを提供することを目的とする。
本願の開示する端末装置は、1つの態様において、他端末位置取得部と、自端末位置取得部と、第1方向取得部と、第2方向取得部と、傾斜方向取得部と、補正部と、決定部とを有する。他端末位置取得部は相手装置の位置を示す位置情報を取得する。自端末位置取得部は自端末装置の位置を示す位置情報を取得する。第1方向取得部は前記取得した自端末装置の位置を基点として算出される前記取得した相手装置の位置へ向かう方向である第1の方向を取得する。第2方向取得部は自端末装置が向く方向である第2の方向を取得する。傾斜方向取得部は自端末装置の傾き方向を検出するセンサーから自端末装置が右方向に傾いているか左方向に傾いているかを示す傾斜情報を取得する。補正部は前記取得した傾斜情報が右方向を示すか左方向を示すかに応じて、前記第1の方向と前記第2の方向とのなす相対角度に対する補正量を切り替える。決定部は前記補正量により補正された相対角度に応じて、音出力部から出力される出力音の属性を決定する。
本発明の1つの態様によれば、片方の耳を用いて通話するユーザに通話の相手の方向を的確に知覚させることができる。
図1は、実施例1に係る端末装置の構成を示す機能ブロック図である。 図2は、実施例1に係る方向取得部の説明に用いる図である。 図3は、実施例1に係る算出部の説明に用いる図である。 図4Aは、実施例1に係る判定部の説明に用いる図である。 図4Bは、実施例1に係る判定部の説明に用いる図である。 図5Aは、実施例1に係る補正部の説明に用いる図である。 図5Bは、実施例1に係る補正部の説明に用いる図である。 図6は、実施例1に係る補正部の説明に用いる図である。 図7は、実施例1に係る生成部の説明に用いる図である。 図8は、実施例1に係る生成部の説明に用いる図である。 図9は、実施例1に係るミキシング部の説明に用いる図である。 図10は、実施例1に係る生成部の説明に用いる図である。 図11は、実施例1に係る端末装置の全体的な処理の流れを示す図である。 図12は、実施例1に係る通話状態検出処理の流れを示す図である。 図13は、実施例1に係る持ち方判定処理の流れを示す図である。 図14は、実施例1に係る方角補正処理の流れを示す図である。 図15は、端末装置のハードウェア構成の一例を示す図である。 図16は、従来技術の説明に用いる図である。 図17は、従来技術の説明に用いる図である。
以下に、図面を参照しつつ、本願の開示する端末装置および音声処理プログラムの一実施形態について詳細に説明する。なお、本願の開示する端末装置および音声処理プログラムの一実施形態として後述する実施例により、本願が開示する技術が限定されるものではない。
[端末装置の構成(実施例1)]
図1は、実施例1に係る端末装置の構成を示す機能ブロック図である。図1には、端末装置100は通話の相手が使用する装置であり、端末装置200は自分が使用する装置である例を図示する。端末装置100および端末装置200は、例えば、携帯電話やスマートフォン、PHS(Personal Handy-phone System)など通話可能で、位置情報を取得可能な携帯端末である。なお、図1に示す端末装置100および端末装置200は同一の構成を有する装置であるが、以下の実施例1では、端末装置100から送信された音声を端末装置200が受信する場合の一実施形態の説明に必要な処理機能部のみを図示する。
図1に示すように、端末装置100は、マイク101と、符号化部110と、位置取得部120と、位置送信部130とを有する。マイク101は、端末装置100のユーザの発話音声を入力する。符号化部110は、マイク101が入力するユーザの発話音声を符号化する。なお、符号化部110により符号化された音声は、端末装置200に送信される。
位置取得部120は、端末装置100の位置情報を取得する。例えば、位置情報取得部120は、例えば、GPS(Global Positioning System)などを用いて得られる緯度および経度から、平面直角座標上における端末装置100の位置を求める。以下では、端末装置の位置を、例えば、「sender_pos(x_sender,y_sender)」と表記する。なお、既存技術を利用することにより、緯度および経度から平面直角座標上における端末装置100の位置を求めることができる。この既存技術の一例としては、例えば、「TOTAL INVERSE SOLUTIONS FOR THE GEODESIC AND GREAT ELLIPTIC」 B.R.Bowring Survey Review33,261(July,1996)461-476,URL「http://vldb.gsi.go.jp/sokuchi/surveycalc/algorithm/(2010年9月1日検索)」がある。また、この既存技術の他の一例としては、URL「http://vldb.gsi.go.jp/sokuchi/surveycalc/algorithm/bl2xy/bl2xy.htm(2010年9月1日検索)」もある。位置送信部130は、位置取得部120により取得された端末装置100の位置情報を端末装置200に送信する。
図1に示すように、端末装置200は、マイク201と、スピーカ202と、符号化部210と、位置取得部220と、位置送信部230と、位置受信部240と、方向取得部250と、算出部260と、復号化部270とを有する。さらに、端末装置200は、検出部280Aと、判定部280Bと、補正部280Cと、生成部280Dと、ミキシング部280Eと、加工部290とを有する。
図1に示すマイク201、符号化部210、位置取得部220および位置送信部230は、上述した端末装置100のマイク101、符号化部110、位置取得部120および位置送信部130とそれぞれ同様の処理を行う。例えば、位置取得部220は、GPS(Global Positioning System)などを用いて得られる緯度および経度から、平面直角座標上における端末装置200の位置を求める。位置情報取得部220は自端末位置取得部の一例である。以下では、端末装置の位置を、例えば、「receiver_pos(x_receiver,y_receiver)」と表記する。位置送信部230は、位置取得部220により取得された端末装置200の位置情報を端末装置100に送信する。なお、マイク201、符号化部210の説明は省略する。
図1に示す位置受信部240は、端末装置100から送信された位置情報を受信する。位置受信部240は他端末位置取得部の一例である。
図1に示す方向取得部250は、電子コンパスを用いて、端末装置200の端末方向の情報を取得する。図2を参照しつつ、方向取得部250について説明する。図2は、実施例1に係る方向取得部の説明に用いる図である。
図2に示すように、方向取得部250は、電子コンパスを用いて、端末装置200の中心縦軸2Aの方向に対応する端末方向D3と、北方向(0°)とがなす角度「ang1(receiver_angle)」を取得する。
図1に示す算出部260は、端末装置200の端末方向に対する、端末装置200の位置から端末装置100の位置へ向かう方向の相対角度を求める。以下では、算出部260により算出される相対角度を、例えば「ang3(relative angle1)」と表記する。図3を参照しつつ、算出部260について説明する。図3は、実施例1に係る算出部の説明に用いる図である。図3に記載のU1は端末装置200を使用しているユーザを示し、図3に記載のU2は端末装置100を使用しているユーザを示す。また、図3に記載のD1は、端末装置200から端末装置100へ向かう方向を示す。また、図3に記載のD2は端末装置200を使用するユーザ方向、つまりユーザの正面の方向を示す。また、図3に記載のD3は端末装置200の端末方向を示す。なお、図3に記載のD3は、図2に記載のD3に対応する。
まず、算出部260は、位置取得部220から端末装置200の位置情報(x_receiver,y_receiver)を取得し、位置受信部240から端末装置100の位置情報(x_sender,y_sender)を取得する。続いて、算出部260は、図3に示すように、端末装置200および端末装置100の位置情報に基づいて、端末装置200から端末装置100へ向かう方向D1を求める。そして、算出部260は、図3に示すように、方向D1と北方向(0°)とがなす角度「ang2(sender_angle)」を求める。例えば、算出部260は、以下の式(1)により、「ang2(sender_angle)」を求めることができる。
Figure 2012065279
続いて、算出部260は、端末方向D3と北方向とがなす角度「ang1(receiver_angle)」を方向取得部250から取得する。そして、算出部260は、図3に示すように、「ang1(receiver_angle)」と、「ang2(sender_angle)」とに基づいて、上述した相対角度「relative angle1」を求める。例えば、算出部260は、以下の式(2)により、相対角度「ang3(relative angle1)」を求めることができる。なお、算出部260は第1方向取得部、第2方向取得部の一例である。
Figure 2012065279
図1に示す復号化部270は、符号化された音声を端末装置100から受信し、受信した音声を復号する。
図1に示す検出部280Aは、ユーザの通話状態を検出する。例えば、検出部280Aは、音声出力パスのチャネル数、つまり音声の出力信号の数を監視し、チャネル数が1chである場合には、片方の耳を用いた通話状態にあると判定する。検出部280Aは、片方の耳を用いた通話状態にあると判定した場合、片方の耳を用いた通話状態であることを示す所定値を所定のフラグにセットする(receiver_flag=1)。
また、検出部280Aは、チャネル数が2chである場合には、片方の耳を用いた通話状態以外、例えば、ヘッドホンやイヤホンなどを用いた通話状態にあると判定する。検出部280Aは、例えば、ヘッドホンやイヤホンなどを用いた通話状態にあると判定した場合、ヘッドホンやイヤホンなどを用いた通話状態であることを示す所定値を所定のフラグにセットする(receiver_flag=2)。なお、検出部280Aは通話状態判定部の一例である。
なお、検出部280Aは、例えば、音声の出力信号数や、モノラルやステレオなどの音声の出力状態を示す情報が記憶されているレジスタを参照して、通話を開始するユーザが片方の耳を用いた通話状態にあるか否かを判定するようにもできる。
図1に示す判定部280Bは、ユーザの通話状態が片方の耳を用いた通話状態にある場合には、ユーザが右耳または左耳のどちらの耳を用いて通話を行っているかを判定する。図4Aおよび図4Bを参照しつつ、判定部280Bについて説明する。図4Aおよび図4Bは、実施例1に係る判定部の説明に用いる図である。図4Aおよび図4Bに記載のU1は端末装置200のユーザを示し、図3に記載のU1と対応する。図4Aに記載のacce1は端末装置200のX軸方向の負の加速度を示す。図4Bに記載のacce2は端末装置200のX軸方向の正の加速度を示す。
例えば、判定部280Bは、検出部280Aによりセットされたフラグの値を取得し、取得したフラグの値が、片方の耳を用いた通話状態にあることを示す値(receiver_flag=1)であるか否かを判定する。判定の結果、片方の耳を用いた通話状態にあることを示す値である場合には、判定部280Bは、加速度センサーから端末装置200の加速度を取得する。
続いて、判定部280Bは、取得した加速度に基づいて、ユーザが右耳または左耳のどちらの耳を用いて通話を行っているかを判定する。例えば、図4Aに示すように、判定部280Bは、加速度センサーから取得したX軸方向の加速度acce1が負の値である場合には、右耳を用いて通話を行っていると判定する。判定部280Bは、右耳を用いて通話を行っていると判定した場合、右耳での通話であることを示す所定値を所定のフラグにセットする(hold_flag=0)。
一方、図4Bに示すように、判定部280Bは、加速度センサーから取得したX軸方向の加速度acce2が正の値である場合には、左耳を用いて通話を行っていると判定する。判定部280Bは、左耳を用いて通話を行っていると判定した場合、左耳での通話であることを示す所定値を所定のフラグにセットする(hold_flag=1)。判定部280Bは傾斜方向取得部の一例である。
図1に示す補正部280Cは、右耳通話時および左耳通話時のそれぞれについて予め設定された補正値を用いて、算出部260により算出された相対角度「ang3(relative angle1)」を補正した補正相対角度を求める。以下では、補正部280Cにより補正された補正相対角度を「ang6(relative angle2)」と表記する。図5A、図5Bおよび図6を参照しつつ、補正部280Cについて説明する。
図5A、図5Bおよび図6は、実施例1に係る補正部の説明に用いる図である。図5Aは、端末装置200を用いてユーザが通話している状態を左側面から見た様子を示す。また、図5Bは、端末装置200を用いてユーザが通話している状態を上方から見た様子を示す。また、図5Aおよび図5Bに記載のD2はユーザ方向を示し、図3に記載のD2に対応する。また、図5Aおよび図5Bに記載のD3は端末装置200の端末方向を示し、図2および図3に記載のD3に対応する。
例えば、補正部280Cは、検出部280Aによりセットされたフラグの値を取得し、取得したフラグの値が、片方の耳を用いた通話状態にあることを示す値(receiver_flag=1)であるか否かを判定する。
判定の結果、片方の耳を用いた通話状態にあることを示す値である場合には、補正部280Cは、判定部280Bによりセットされたフラグの値を取得し、取得したフラグの値が、右耳による通話または左耳による通話のどちらを示す値であるか否かを判定する。判定の結果、補正部280Cは、左耳での通話であることを示す値(hold_flag=1)である場合には、図5Bに示すように、左耳通話時の補正値「ang4(delta_angle_L)」を取得する。続いて、補正部280Cは、算出部260により算出された相対角度「relative angle1」を取得する。そして、補正部280Cは、図6に示すように、補正値「ang4(delta_angle_L)」を用いて、相対角度「relative angle1」を補正し、補正相対角度「ang6(relative angle2)」を求める。このようにして、補正部280Cは、左耳通話時の補正相対角度を求める。
なお、右耳通話時についても同様にして補正相対角度を求めることができる。例えば、補正部280Cは、判定部280Bによりセットされたフラグの値が、右耳での通話であることを示す値(hold_flag=0)である場合には、図5Bに示すように、右耳通話時の補正値「ang5(delta_angle_R)」を取得する。続いて、補正部280Cは、算出部260により算出された相対角度「relative angle1」を取得する。そして、補正部280Cは、補正値「ang5(delta_angle_R)」を用いて、相対角度「relative angle1」を補正し、補正相対角度「ang6(relative angle2)」を求める。補正部280Cは補正部の一例である。
図1に示す生成部280Dは、端末装置100から受信した音声に重畳する特徴音を、補正部280Cから取得した補正相対角度に応じて生成する。図7および図8を参照しつつ、生成部280Dについて説明する。図7および図8は、実施例1に係る生成部の説明に用いる図である。図7に記載のD2はユーザ方向を示し、図3、図5Aおよび図5Bに記載のD2に対応する。また、図7に記載のD1は端末装置100の方角を示し、図3および図6に記載のD1に対応する。図8は、特徴音を生成する時に用いるゲインを示す。
図7に示すように、生成部280Dは、補正部280Cから取得した補正相対角度に応じて、ユーザ方向D2が、端末装置200から端末装置100へ向かう方向D1に近いほど音が大きくなるような特徴音を生成する。例えば、生成部280Dは、以下の式(3)に基づいて特徴音を生成する。
Figure 2012065279
例えば、図8に示すように、生成部280Dが特徴音の生成に用いるゲインには、補正相対角度「ang6(relative angle2)」が180°、または−180°であるときに音量が最も小さく調整されるように最小値の「1」が設定されている。また、図8に示すように、補正相対角度「ang6(relative angle2)」が0°であるときに特徴音の音量が最も大きく調整されるように最大値の「2」が設定されている。また、図8に示すように、生成部280Dは、補正相対角度「ang6(relative angle2)」が0°に近づくほど音量が大きく調整されるようにゲインが設定されている。つまり、生成部280Dは、図8に示すゲインを用いて、端末装置200のユーザが端末装置100の方向を向くほど音量の大きい特徴音を生成することとなる。
ミキシング部280Eは、ユーザが片方の耳を用いた通話状態にある場合には、後述する加工部290から入力される音声に、生成部280により生成された特徴音を重畳する。図9を用いて、ミキシング部280Eについて説明する。図9は、実施例1に係るミキシング部の説明に用いる図である。図9に記載のSpOut(n)は加工部290からの入力音声を示し、図9に記載のSigOut(n)はミキシング部280Eにより音声に特徴音が重畳された出力音声を示す。また、図9に記載のartSig(n)は生成部280Dにより生成された特徴音を示し、図9に記載のreceiver_flagは上述した検出部280Aから入力されるフラグである。また、図9に記載のSWは上述した検出部280Aから入力されるフラグに応じて切り替えられるスイッチを示す。
例えば、ミキシング部280Eは、検出部280Aによりセットされたフラグの値を取得し、取得したフラグの値が、片方の耳を用いた通話状態にあることを示す値(receiver_flag=1)であるか否かを判定する。判定の結果、片方の耳を用いた通話状態にあることを示す値である場合(receiver_flag=1の場合)には、ミキシング部280Eは、スイッチSWをオンにする。続いて、ミキシング部280Eは、加工部290からの入力音声「SpOut(n)」に、生成部280により生成された特徴音「artSig(n)」を重畳して「SigOut(n)」を生成する。そして、ミキシング部280Eは、「SigOut(n)」を再生し、出力系統が1系統であるモノラル出力でスピーカ202から出力する。
また、ミキシング部280Eは、上述した検出部280Aから入力されるフラグに、ヘッドホンやイヤホンなどを用いた通話状態であることを示す所定値がセットされている場合(receiver_flag=2の場合)には、スイッチSWをオフにする。この場合、ミキシング部280Eは、加工部290からの入力音声「SpOut(n)」を再生し、出力系統が左右別の2系統であるステレオ出力でスピーカ202から出力する。なお、生成部280D、ミキシング部280Eは決定部の一例である。
加工部290は、ユーザの通話状態について検出部280Aによりセットされたフラグの内容に応じて、復号化部270から復号された音声を加工する。図10を用いて加工部290について説明する。図10は、実施例1に係る生成部の説明に用いる図である。図10に記載のU1は端末装置200を使用するユーザを示す。また、図10に記載の「H(θ)」は音源1からユーザU1の右耳に音声が入力される場合の頭部伝達関数(インパルス応答)を示す。また、図10に記載の「H(θ)」は音源1からユーザU1の左耳に音声が入力される場合の頭部伝達関数(インパルス応答)を示す。また、図10に記載の「in_R」は音源1から右耳に入力される音声を示す。また、図10に記載の「in_L」は音源1から左耳に入力される音声を示す。
例えば、加工部290は、上述した検出部280Aから入力されるフラグに、片方の耳を用いた通話状態であることを示す所定値がセットされている場合(receiver_flag=1の場合)には、次にように処理する。すなわち、加工部290は、復号化部270から復号された音声をそのままミキシング部280Eに送り出す。
一方、加工部290は、上述した検出部280Aから入力されるフラグに、ヘッドホンやイヤホンなどを用いた通話状態であることを示す所定値がセットされている場合(receiver_flag=2の場合)には、次のように処理する。すなわち、加工部290は、算出部260により算出された相対角度を「θ」に代入し、以下の式(4−1)および(4−2)を用いて、右耳用および左耳用の音声をそれぞれ生成する。なお、式(4−1)および(4−2)は、頭部伝達関数(インパルス応答)と音源Sの音声信号との畳み込み演算を示し、例えば、FIRフィルタ(Finite impulse response)を用いる。
Figure 2012065279
そして、加工部290は、上述した式(4)を用いて生成した右耳用および左耳用の音声をミキシング部280Eに送り出す。なお、上述したように、ヘッドホンやイヤホンなどを用いた通話状態である場合には、ミキシング部280Eにて音声への特徴音の重畳が行われることはなく、右耳用および左耳用の音声がミキシング部280Eからそのまま出力されることとなる。
上述した端末装置100および端末装置200は、例えば、RAM(Random Access Memory)やフラッシュメモリ(flash memory)などの半導体メモリ素子を有し、各種処理に利用する。また、上述した端末装置100および端末装置200は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などの電子回路を有し、RAMやフラッシュメモリを用いて各種処理を実行する。なお、上述した端末装置100および端末装置200は、CPUやMPUの代わりに、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路を有してもよい。
[端末装置による処理(実施例1)]
図11〜14を用いて、上述した端末装置200による処理の流れを説明する。図11は、実施例1に係る端末装置の全体的な処理の流れを示す図である。図12は、実施例1に係る通話状態検出処理の流れを示す図である。図13は、実施例1に係る持ち方判定処理の流れを示す図である。図14は、実施例1に係る方角補正処理の流れを示す図である。
まず、図11を用いて、端末装置200の全体的な処理の流れを説明する。図11に示すように、例えば、端末装置200は、通話ボタンの操作の有無を監視し、通話開始の検出を行う。そして、通話開始が検出されると(ステップS101,Yes)、位置取得部220は、端末装置200の位置情報を取得する(ステップS102)。なお、通話開始を検出していない場合に(ステップS101,No)、端末装置200は、通話開始を検出するまで、通話ボタンの操作の有無について監視を継続する。
続いて、方向取得部250は、端末装置200の端末方向の情報を取得する(ステップS103)。続いて、算出部260は、相手方角、つまり、端末装置200の端末方向に対する、端末装置200の位置から端末装置100の位置へ向かう方向の相対角度を算出する(ステップS104)。
続いて、検出部280Aは、通話状態検出処理を実行する(ステップS105)。続いて、検出部280Aは、ステップS105の通話状態検出処理の結果、ユーザの通話状態が片方の耳を用いた通話状態にあるか否かを判定する(ステップS106)。例えば、片方の耳を用いた通話状態にあると検出部280Aにより判定された場合には(ステップS106,Yes)、判定部280Bは、右耳または左耳のどちらの耳を用いて通話を行っているかを判定する持ち方判定処理を実行する(ステップS107)。
続いて、補正部280Cは、右耳による通話時および左耳による通話時について予め設定された補正値を用いて、ステップS104にて算出された相手方角、つまり相対角度を補正する方角補正処理を実行する(ステップS108)。続いて、生成部280Dは、端末装置100から受信した音声にミキシングする特徴音を、ステップS108により補正された相手方角に応じて生成する(ステップS109)。
続いて、ミキシング部280Eは、ユーザが片方の耳を用いた通話状態にある場合には、端末装置100から受信した音声に、ステップS109にて生成された特徴音をミキシングする(ステップS110)。そして、ミキシング部280Eは、ステップS110でミキシングした音声を1系統のモノラルで出力し(ステップS111)、上述したステップS102の処理に戻る。
ここで、ステップS106の説明に戻る。片方の耳を用いた通話状態以外、例えば、ヘッドホンやイヤホンなどを用いた通話状態にあると検出部280Aにより判定された場合には(ステップS106,No)、加工部290は次の処理を実行する。すなわち、加工部290は、ステップS104にて算出された相対角度に基づいて、端末装置100から受信した音声から右耳用および左耳用の音声をそれぞれ生成する(ステップS112)。そして、ミキシング部280Eは、ステップS112にて生成された右耳用および左耳用の音声を左右別の出力系統であるステレオでそのまま出力し(ステップS113)、上述したステップS102の処理に戻る。
なお、端末装置200を用いた通話が、必ず片方の耳を用いて行なわれることを前提とする場合には、必ずしも上述した図11に示す流れで処理を実行しなくてもよい。例えば、上述したステップS101〜ステップS104、ステップS107〜ステップS111の順に処理を実行してもよい。
次に、図12を用いて、通話状態検出処理の流れを説明する。図12に示すように、検出部280Aは、音声出力パスのチャネル数を取得し(ステップS201)、チャネル数が1chであるか否かを判定する(ステップS202)。判定の結果、チャネル数が1chである場合には(ステップS202,Yes)、検出部280Aは、片方の耳を用いた通話状態にあると判定する。そして、検出部280Aは、片方の耳を用いた通話状態であることを示す所定値を所定のフラグにセットする(receiver_flag=1,ステップS203)。
ステップS202の説明に戻り、判定の結果、チャネル数が1chではない場合には(ステップS202,No)、検出部280Aは、片方の耳を用いた通話状態以外、例えば、ヘッドホンやイヤホンなどを用いた通話状態にあると判定する。そして、検出部280Aは、例えば、ヘッドホンやイヤホンなどを用いた通話状態であることを示す所定値を所定のフラグにセットする(receiver_flag=2,ステップS204)。
次に、図13を用いて、持ち方判定処理の流れを説明する。なお、持ち方判定処理とは、ユーザが右耳または左耳のどちらの耳を用いて通話を行っているかを判定する処理に該当する。
図13に示すように、判定部280Bは、加速度センサーから取得したX軸方向の加速度を取得する(ステップS301)。続いて、判定部280Bは、取得したX軸方向の加速度が正の値であるか否かを判定する(ステップS302)。
判定の結果、X軸方向の加速度が正の値である場合には(ステップS302,Yes)、判定部280Bは、左耳を用いて通話を行っていると判定する。そして、判定部280Bは、左耳での通話であることを示す所定値を所定のフラグにセットする(hold_flag=1,ステップS303)。
ステップS302の説明に戻り、判定の結果、X軸方向の加速度が正の値ではない、つまり負の値ある場合には(ステップS302,No)、判定部280Bは、右耳を用いて通話を行っていると判定する。そして、判定部280Bは、右耳での通話であることを示す所定値を所定のフラグにセットする(hold_flag=0,ステップS304)。
次に、図14を用いて、方角補正処理の流れを説明する。なお、方角補正処理とは、右耳通話時および左耳通話時について予め設定された補正値を用いて、算出部260により算出された相対角度を補正した補正相対角度「ang6(relative angle2)」を求める処理に該当する。
図14に示すように、補正部280Cは、図12を用いて上述した通話状態検出処理の結果、検出部280Aによりセットされたフラグの値を取得する(ステップS401)。続いて、補正部280Cは、取得したフラグの値が、片方の耳を用いた通話状態にあることを示す値(receiver_flag=1)であるか否かを判定する(ステップS402)。
判定の結果、片方の耳を用いた通話状態にあることを示す値である場合には(ステップS402,Yes)、補正部280Cは、判定部280Bによりセットされたフラグの値を取得する。そして、補正部280Cは、取得したフラグの値が左耳による通話を示す値(hold_flag=1)であるか否かを判定する(ステップS403)。判定の結果、左耳での通話であることを示す値である場合には(ステップS403,Yes)、補正部280Cは、左耳通話時の補正値「ang4(delta_angle_L)」を取得する。そして、補正部480Cは、左耳通話時の補正値を用いて、算出部260により算出された相対角度「relative angle1」について左耳での通話に応じた補正を行う(ステップS404)。この補正により、例えば、図6に示すような補正相対角度「ang6(relative angle2)」が算出される。
ここで、ステップS403の説明に戻る。判定の結果、左耳での通話であることを示す値ではない、つまり右耳での通話であることを示す値(hold_flag=0)である場合には(ステップS403,No)、補正部280Cは、次のように処理する。すなわち、補正部280Cは、右耳通話時の補正値「ang5(delta_angle_R)」を取得する。そして、補正部280Cは、右耳通話時の補正値を用いて、算出部260により算出された相対角度「relative angle1」について右耳での通話に応じた補正を行う(ステップS405)。この補正により、例えば、図6に示すような補正相対角度「ang6(relative angle2)」が算出される。
ここで、ステップS402の説明に戻る。判定の結果、検出部280Aによりセットされたフラグの値が片方の耳を用いた通話状態にあることを示す値ではない場合には(ステップS402,No)、補正部280Cは、そのまま方角補正処理を終了する。
[実施例1による効果]
上述してきたように、実施例1に係る端末装置200は、片方の耳での通話状態を検出すると、通話の相手側の端末装置100に向かう方向と、端末装置200の端末方向とのなす相対角度を所定角度分補正する。そして、端末装置200は、補正した相対角度に応じて出力音声の属性を決定する。このようなことから、実施例1によれば、片方の耳を用いて通話するユーザに通話の相手の方向を的確に知覚させることができる。
また、実施例1によれば、右耳通話時および左耳通話時について予め設定された補正値を用いて、通話の相手側の端末装置100に向かう方向と、端末装置200の端末方向とのなす相対角度を補正する。このようなことから、片方の耳での通話であっても、右耳通話時および左耳通話時のそれぞれについて、端末装置200の端末方向とユーザの正面方向と一致させたときの相対角度を精度よく導出できる。この結果、ユーザに知覚させる通話の相手の方向の精度を向上できる。なお、右耳通話時および左耳通話時について予め設定された補正値を用いて、通話の相手側の端末装置100に向かう方向と、端末装置200の端末方向とのなす相対角度を補正する場合に限られない。例えば、端末方向とユーザの正面方向とのなす角度がおおよそ180°となる場合を多いことに鑑み、例えば、通話の相手側の端末装置100に向かう方向と、端末装置200の端末方向とのなす相対角度を180°補正するようにしてもよい。
また、実施例1によれば、補正した相対角度が小さくなるほど音量が大きくなる特徴音を生成し、生成した特徴音を通話音声にミキシングする。このようなことから、左耳用の音声および右耳用の音声の違いで通話の相手の方向を表現することなく、片方の耳を用いて通話するユーザに通話の相手の方向を的確に知覚させることができる。なお、端末装置100からの受信する無言の通話音声に特徴音をミキシングすることにより、通話の相手が無言の状態であっても、通話の相手の方向を知覚させることができる。
なお、上記の実施例1において、例えば、ミキシング部280Eは、加工部290から入力される音声に、生成部280Dにより生成された特徴音をミキシングする場合に、頭部伝達関数を用いた音響加工を行ってもよい。例えば、ミキシング部280Eは、加工部290から入力される音声、および生成部280Dにより生成された特徴音が、異なる位置を仮想的な音源として伝達されるように音響加工した後、重畳して出力する。このようにすれば、相手の音声(出力音声)と特徴音を異なる方向(例えば、上下方向)から再生可能となり、音声と特徴音を聞き分けやすくすることができる。つまり、片耳を用いて通話状態において、相手の音声に特徴音を重畳させる結果、それぞれの音が聞きわけにくくなるのを抑制する。
以下、本願の開示する端末装置および音声処理プログラムの他の実施形態を説明する。
(1)装置構成等
例えば、上述した図1に示す端末装置200の構成は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。例えば、図1に示す検出部280Aと、判定部280Bと、補正部280Cと、生成部280Dと、ミキシング部280Eとを機能的または物理的に統合した一つのユニットとしてもよい。このように、端末装置200が有する処理機能部の全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
(2)端末装置のハードウェア構成
次に、図15を用いて、実施例1に係る端末装置のハードウェアの構成例について説明する。図15は、端末装置のハードウェア構成の一例を示す図である。図15に示すように、端末装置300は、無線通信部310と、アンテナ311と、表示部320と、音声入出力部330と、マイク331と、スピーカ332と、入力部340と、記憶部350と、プロセッサ360とを有する。
無線通信部310、表示部320、音声入出力部330、入力部340、記憶部350は、プロセッサ360と接続される。また、アンテナ311は、無線通信部310と接続される。また、マイク331及びスピーカ332は、音声入出力部330と接続される。
無線通信部310は、図1には示していないが、例えば、端末装置200が有する通信制御部に対応する。また、表示部320は、図1には示していないが、例えば、端末装置200が有するディスプレイに対応する。音声入出力部330、マイク331及びスピーカ332は、例えば、図1に示したマイク201及びスピーカ202、図1には示していないが、例えば、端末装置200が有する入出力制御部に対応する。また、入力部340は、図1には示していないが、例えば、端末装置200が有するキー制御部に対応する。
記憶部350及びプロセッサ360は、例えば、図1に示した検出部280Aと、判定部280Bと、補正部280Cと、生成部280Dと、ミキシング部280E等の機能を実現する。具体的には、記憶部350のプログラム記憶部351は、例えば、図11〜図14等に示す処理を実現する音声処理プログラム等の各種プログラムを記憶している。そして、プロセッサ360は、プログラム記憶部351に記憶されている各プログラムを読み出して実行することで、上述の各機能を実現するプロセスを生成する。また、データ記憶部352は、例えば、図11〜図14等に示す処理に用いる各種データを保持する。また、RAM(Random Access Memory)353は、例えば、図11〜図14等に示す処理を実行する場合に、プロセッサ360により生成されたプロセスに使用される記憶領域を有する。
1 音源
100 端末装置
101 マイク
110 符号化部
120 位置取得部
130 位置送信部
200 端末装置
201 マイク
202 スピーカ
210 符号化部
220 位置取得部
230 位置送信部
240 位置受信部
250 方向取得部
260 算出部
270 復号化部
280A 検出部
280B 判定部
280C 補正部
280D 生成部
280E ミキシング部
290 加工部
300 端末装置
310 無線通信部
311 アンテナ
320 表示部
330 音声入出力部
331 マイク
332 スピーカ
340 入力部
350 記憶部
360 プロセッサ

Claims (5)

  1. 相手装置の位置を示す位置情報を取得する他端末位置取得部と、
    自端末装置の位置を示す位置情報を取得する自端末位置取得部と、
    前記取得した自端末装置の位置を基点として算出される前記取得した相手装置の位置へ向かう方向である第1の方向を取得する、第1方向取得部と、
    自端末装置が向く方向である第2の方向を取得する、第2方向取得部と、
    自端末装置の傾き方向を検出するセンサーから自端末装置が右方向に傾いているか左方向に傾いているかを示す傾斜情報を取得する、傾斜方向取得部と、
    前記取得した傾斜情報が右方向を示すか左方向を示すかに応じて、前記第1の方向と前記第2の方向とのなす相対角度に対する補正量を切り替える補正部と、
    前記補正量により補正された相対角度に応じて、音出力部から出力される出力音の属性を決定する決定部と
    を有することを特徴とする端末装置。
  2. 通話の音出力時の信号数が単数であるか否かを判定する信号数判定部を備え、
    前記補正部は、前記信号数判定部により前記信号数が複数であると判定された場合、前記補正量により前記相対角度を補正する処理を実行しない、
    ことを特徴とする請求項1に記載の端末装置。
  3. 前記補正部により補正された相対角度に応じた特徴音を生成する生成部をさらに有し、
    前記決定部は、前記通話の音に対して前記特徴音の重畳した音を前記出力音の属性として決定することを特徴とする請求項2に記載の端末装置。
  4. 前記決定部は、頭部伝達関数を用いて、前記通話の音と前記特徴音とが異なる位置を仮想的な音源として伝達されるように加工し、加工した音を重畳したものを前記出力音の属性として決定することを特徴とする請求項3に記載の端末装置。
  5. コンピュータに、
    相手装置の位置を示す位置情報を取得する他端末位置取得部と、
    自端末装置の位置を示す位置情報を取得する自端末位置取得部と、
    前記取得した自端末装置の位置を基点として算出される前記取得した相手装置の位置へ向かう方向である第1の方向を取得する、第1方向取得部と、
    自端末装置が向く方向である第2の方向を取得する、第2方向取得部と、
    自端末装置の傾き方向を検出するセンサーから自端末装置が右方向に傾いているか左方向に傾いているかを示す傾斜情報を取得する、傾斜方向取得部と、
    前記取得した傾斜情報が右方向を示すか左方向を示すかに応じて、前記第1の方向と前記第2の方向とのなす相対角度に対する補正量を切り替える補正部と、
    前記補正量により補正された相対角度に応じて、音出力部から出力される出力音の属性を決定する決定部、
    として動作させることを特徴とする音声処理プログラム。
JP2010209936A 2010-09-17 2010-09-17 端末装置および音声処理プログラム Expired - Fee Related JP5589708B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010209936A JP5589708B2 (ja) 2010-09-17 2010-09-17 端末装置および音声処理プログラム
US13/192,092 US20120072206A1 (en) 2010-09-17 2011-07-27 Terminal apparatus and speech processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010209936A JP5589708B2 (ja) 2010-09-17 2010-09-17 端末装置および音声処理プログラム

Publications (2)

Publication Number Publication Date
JP2012065279A true JP2012065279A (ja) 2012-03-29
JP5589708B2 JP5589708B2 (ja) 2014-09-17

Family

ID=45818534

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010209936A Expired - Fee Related JP5589708B2 (ja) 2010-09-17 2010-09-17 端末装置および音声処理プログラム

Country Status (2)

Country Link
US (1) US20120072206A1 (ja)
JP (1) JP5589708B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013025190A1 (en) * 2011-08-12 2013-02-21 Empire Technology Development Llc Usage recommendation for mobile device
CN104184868B (zh) * 2013-05-22 2019-01-29 中兴通讯股份有限公司 一种调节通话音量的方法、装置及移动终端
US9124983B2 (en) * 2013-06-26 2015-09-01 Starkey Laboratories, Inc. Method and apparatus for localization of streaming sources in hearing assistance system
CN105824597A (zh) * 2015-06-30 2016-08-03 维沃移动通信有限公司 一种终端音频处理的方法及终端

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005184621A (ja) * 2003-12-22 2005-07-07 Yamaha Corp 通話装置
JP2005269231A (ja) * 2004-03-18 2005-09-29 Hitachi Ltd 携帯端末
JP2006174074A (ja) * 2004-12-15 2006-06-29 Casio Hitachi Mobile Communications Co Ltd 携帯端末
JP2008145418A (ja) * 2006-12-06 2008-06-26 Sharp Corp 移動電子装置および移動電子装置の制御方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4546151B2 (ja) * 2004-05-26 2010-09-15 株式会社日立製作所 音声コミュニケーション・システム
JP4669340B2 (ja) * 2005-07-28 2011-04-13 富士通株式会社 情報処理装置、情報処理方法および情報処理プログラム
US20080215240A1 (en) * 2006-12-18 2008-09-04 Damian Howard Integrating User Interfaces
CN101667092A (zh) * 2008-05-15 2010-03-10 杭州惠道科技有限公司 实时预测用户输入的人机界面
JP5694174B2 (ja) * 2008-10-20 2015-04-01 ジェノーディオ,インコーポレーテッド オーディオ空間化および環境シミュレーション
US9202455B2 (en) * 2008-11-24 2015-12-01 Qualcomm Incorporated Systems, methods, apparatus, and computer program products for enhanced active noise cancellation
US8351589B2 (en) * 2009-06-16 2013-01-08 Microsoft Corporation Spatial audio for audio conferencing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005184621A (ja) * 2003-12-22 2005-07-07 Yamaha Corp 通話装置
JP2005269231A (ja) * 2004-03-18 2005-09-29 Hitachi Ltd 携帯端末
JP2006174074A (ja) * 2004-12-15 2006-06-29 Casio Hitachi Mobile Communications Co Ltd 携帯端末
JP2008145418A (ja) * 2006-12-06 2008-06-26 Sharp Corp 移動電子装置および移動電子装置の制御方法

Also Published As

Publication number Publication date
JP5589708B2 (ja) 2014-09-17
US20120072206A1 (en) 2012-03-22

Similar Documents

Publication Publication Date Title
US8577046B2 (en) Apparatus for estimating sound source direction from correlation between spatial transfer functions of sound signals on separate channels
US11343605B1 (en) System and method for automatic right-left ear detection for headphones
US20180350381A1 (en) System and method of noise reduction for a mobile device
US9749474B2 (en) Matching reverberation in teleconferencing environments
US10388297B2 (en) Techniques for generating multiple listening environments via auditory devices
US8718295B2 (en) Headset assembly with recording function for communication
US20160269844A1 (en) Stereo headset, terminal, and audio signal processing methods thereof
JP2007282222A (ja) 時間遅延補聴器システムおよび方法
JP5589708B2 (ja) 端末装置および音声処理プログラム
KR101348505B1 (ko) 이어셋
CN109348334B (zh) 一种无线耳机及其环境监听方法和装置
JP2015136100A (ja) 選択可能な知覚空間的な音源の位置決めを備える聴覚装置
WO2006025493A1 (ja) 情報端末
EP3459231A1 (en) Device for generating audio output
CN107277208B (zh) 通话方法、第一通话装置及终端
JP2008160397A (ja) 音声通話装置および音声通話システム
WO2011148570A1 (ja) 聴覚ディスプレイ装置及び方法
TWI582688B (zh) 音訊傳輸系統及其音訊處理之方法
US8526589B2 (en) Multi-channel telephony
CN111083250A (zh) 移动终端及其降噪方法
CN114667744B (zh) 实时通信方法、装置和系统
JP2007013407A (ja) 音像定位移動通信システム、移動通信端末装置、無線基地局装置および移動通信端末上における音像定位方法
US20120172094A1 (en) Mobile Communication Apparatus
WO2015098196A1 (ja) 電子機器、音声出力制御方法、プログラム
KR101482420B1 (ko) 난청자용 휴대폰 단말기의 음향 처리 장치 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140714

R150 Certificate of patent or registration of utility model

Ref document number: 5589708

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees