JP3773917B2 - Mobile communication device and communication method - Google Patents

Mobile communication device and communication method Download PDF

Info

Publication number
JP3773917B2
JP3773917B2 JP2003137767A JP2003137767A JP3773917B2 JP 3773917 B2 JP3773917 B2 JP 3773917B2 JP 2003137767 A JP2003137767 A JP 2003137767A JP 2003137767 A JP2003137767 A JP 2003137767A JP 3773917 B2 JP3773917 B2 JP 3773917B2
Authority
JP
Japan
Prior art keywords
signal
audio signal
unit
acoustic
transmission
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003137767A
Other languages
Japanese (ja)
Other versions
JP2004343443A (en
Inventor
俊一郎 加藤
浩一 沢井
誠 中山
麗 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2003137767A priority Critical patent/JP3773917B2/en
Publication of JP2004343443A publication Critical patent/JP2004343443A/en
Application granted granted Critical
Publication of JP3773917B2 publication Critical patent/JP3773917B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、携帯通信装置、通信方法に関する。
【0002】
【従来の技術】
現在、提供されている第3世代のデジタル携帯電話システムは、動画像の伝送が可能な広帯域な信号伝送が可能である。しかし、音声の伝送に関するシステムは、相手に聴取させる音声の明瞭度を可能な限り向上させることを目的に設計されている。また、音声通話伝送時には可能な限り発話者の周囲の雑音(これを背景雑音という)を除去・抑制する音声信号処理技術(ノイズキャンセリング技術)が適用されている。このため、音声や楽曲の忠実な再現は難しいものの、繁華街や自動車や列車の車中といった喧噪な場所において、携帯電話を利用した場合においても比較的明瞭な音声通話が可能である。
【0003】
従来、「効果音付加型通話システム」においては、以下のような通話システムが提案されている(特許文献1参照)。この従来技術では、発呼者と被呼者との通話に、第3の話者としての効果音サーバを加えて、効果音サーバから効果音を提供することにより、通常の通話に効果音が挿入される。これにより、通話している2者の話し声だけでなく、変化に富んだ内容が通話に含まれるので、ユーザの電話による会話がより盛り上がることになる。これによると、電話機の送話口から効果音を送信する手法に比べて、電話機側で事前に音源を用意する必要がなく、音源としての選択範囲も広くなる。また、楽曲も通信により任意のものが取得可能となっている。
【0004】
また、従来においては、携帯電話機による音声通話において、ユーザの希望する効果音を、希望するタイミングで送出するようにした移動体通信装置が提案されている(特許文献2参照)。この従来技術では、携帯電話機のパネル面に設けられた、効果音送出ボタンを操作することにより、記憶装置から読み出された効果音データと、音声データとが、効果音ミキサーで合成して送信される。このため、会話の途中で、ユーザによる任意のタイミングで、適宜効果音が挿入されるので、効果音の送出のために会話が中断することがない。また、ユーザが所定のテンキーの操作をすることにより、操作されたテンキーに対応するアドレス(記憶部内のアドレス)から、効果音データが読み出される。この結果、簡単な操作で種々の効果音の送出が可能となる。
【0005】
【特許文献1】
特開2002−271494号公報
【0006】
【特許文献2】
特開2002−51116号公報
【0007】
【発明が解決しようとする課題】
しかしながら、上述した従来技術には、次のような問題があった。音声通話伝送に関するシステムにおいては、相手に聴取させるための音声の明瞭度を可能な限り向上させるように設計されている。このため、従来では、会話以外の音響、例えば歌声や楽曲、自然音(鳥や虫の鳴き声や水の流れる音など)の背景音、効果音の伝送は考慮されていなかった。このため、これらの音響は、受話者側には歪んで聞こえたり、雑音のように聞こえてしまうことがあった。さらにノイズキャンセリング技術の適用により、発話者の所在する場所の背景雑音を消去もしくは抑制しているので、喧噪な場所においても比較的明瞭な音声通話が可能となる。ところが、会話を楽しもうとして通話を行う場合、発話者の音響的な周辺状況と、受話者の音響的な周辺状況とのミスマッチが顕著となり、会話が単調なものとなったり、或いは会話を継続させること自体が難しくなったりするといった状況が発生していた。
【0008】
即ち、上述した従来技術では、送信音声信号や受信音声信号に合成するための音響信号(効果音や背景音などの信号)は、送信音声信号や受信音声信号にかかわらず、一定のものであったり、音響信号の音量やテンポは一定であった。このため、通話中の送信音声信号や受信音声信号の変化に応じて、音響信号を変化させることにより、通話の妨げになることを防止したり、通話を盛り上げるということができなかった。
【0009】
本発明は、以上のような問題点を解決するためになされたものであり、通話中の送信音声信号及び/又は受信音声信号の変化に応じて、音響信号を変化させることにより、通話の妨げになることを防止するか、又は、通話を盛り上げることができる携帯通信装置、通信方法を提供することを目的とする。
【0010】
【課題を解決するための手段】
本発明の携帯電話機は、通話相手の通信装置から受信する音声信号である受信音声信号、又は、前記通話相手の通信装置に送信する音声信号である送信音声信号に合成するための音響信号を、前記受信音声信号と合成して、出力するか、又は前記音響信号を前記送信音声信号と合成して、前記通話相手の通信装置に送信する際に、前記受信音声信号及び/又は前記送信音声信号に基づいて、前記送信音声信号及び/又は前記受信音声信号に合成する音響信号を制御する制御手段を有することを特徴とするものである。
【0011】
このため、通話中の送信音声信号及び/又は受信音声信号の変化に応じて、音響信号を変化させるような制御が可能となる。そして、例えば、以下のような音量の制御が行われることにより、音響信号が通話の妨げになることが防止されたり、通話を盛り上げることが可能となる。
【0012】
本発明の携帯電話機は、上記発明において、前記受信音声信号及び/又は前記送信音声信号の音量を時系列に従って、計測する計測手段を有し、前記制御手段は、前記計測手段により計測された、前記受信音声信号及び/又は前記送信音声信号の音量に基づいて、前記送信音声信号及び/又は前記受信音声信号に合成する音響信号の音量を制御することもできる。
【0013】
この制御の具体的な一例として、例えば、本発明の携帯電話機は、前記受信音声信号及び/又は前記送信音声信号の音量に基づいて所定の関係式に従って算出される第1音量値と、前記受信音声信号及び/又は前記送信音声信号に合成する音響信号の実際の音量値である第2音量値とが対応づけられた対応テーブルを記憶する記憶手段と、前記計測手段により計測された、前記受信音声信号及び/又は前記送信音声信号の音量に基づいて、前記所定の関係式に従って、第1音量値を算出し、算出された第1音量値と、前記対応テーブルとに基づいて、前記第1音量値に対応する第2音量値を取得する取得手段とを有し、前記制御手段は、前記取得手段により取得された第2音量値となるように、前記送信音声信号及び/又は前記受信音声信号に合成する音響信号の音量を制御するようにしてもよい。
【0014】
この結果、例えば、通話相手から送られてきた受信音声信号の音量や、通話相手に送信する送信音声信号の音量が高い場合、上記受信音声信号に合成するための音響信号や、送信音声信号に合成するための音響信号の音量が高くなるように制御することができる。また、例えば、通話相手から送られてきた受信音声信号の音量や、通話相手に送信する送信音声信号の音量が低い場合、上記受信音声信号に合成するため音響信号や、送信音声信号に合成するための音響信号の音量が低くなるように制御することができる。
【0015】
これにより、例えば、通話に関する音声信号(送信音声信号、受信音声信号)が変化しても、通話に関する音声信号が優先して、出力されたり、通話相手の携帯電話機1に送信されるので、通話の妨げになるという事態が防止される。
【0016】
また、例えば、通話相手から送られてきた受信音声信号の音量と、通話相手に送信する送信音声信号の音量とのうち、大きい方の音量値に基づいて、送信音声信号、受信音声信号に合成するための音響信号の音量を制御することも可能である。これにより、例えば、通話に関する音声信号(送信音声信号、受信音声信号)が変化しても、音量が大きな音声信号に基づいて、上記音響信号の音量が制御されるので、例えば、盛り上がっている方の音声信号が優先して出力されたり、通話相手の携帯電話機1に送信されることが可能になる。この結果、通話を盛り上げることが可能となる。
【0017】
また、本発明は、例えば、以下のようなテンポの制御が行われることにより、音響信号が通話の妨げになることが防止されたり、通話を盛り上げることが可能となる。
【0018】
本発明の携帯電話機は、上記発明において、前記受信音声信号及び/又は前記送信音声信号における有音声部分から無音声部分へ変化する回数と、無音声部分から有音声部分へ変化する回数とに基づいて、所定時間内の前記受信音声信号及び/又は前記送信音声信号のテンポに関する情報を、所定時間ごとに、計測する計測手段を有し、前記制御手段は、前記計測手段により計測された、前記所定時間内の前記受信音声信号及び/又は前記送信音声信号のテンポに関する情報に基づいて、前記送信音声信号及び/又は前記受信音声信号に合成する音響信号のテンポを制御することもできる。
【0019】
この結果、例えば、通話相手から送られてきた受信音声信号のテンポや、通話相手に送信する送信音声信号のテンポに合うように、上記受信音声信号に合成するため音響信号や、送信音声信号に合成するための音響信号のテンポを制御することができる。
【0020】
これにより、通話に関する音声信号のテンポと異なるテンポの音響信号が合成されてしまうような状態がないので、通話の妨げになるという事態が防止される。また、例えば、通話に関する音声信号のテンポに従ったテンポの音響信号が合成されるので、通話を盛り上げることが可能となる。
【0021】
また、本発明は、通話相手の通信装置から受信する音声信号である受信音声信号、又は、前記通話相手の通信装置に送信する音声信号である送信音声信号に合成するための音響信号を、前記受信音声信号と合成して、出力するか、又は前記音響信号を前記送信音声信号と合成して、前記通話相手の通信装置に送信する携帯通信装置であって、複数の音響信号を記憶する記憶手段と、前記受信音声信号及び/又は前記送信音声信号に基づいて、前記記憶手段に記憶された複数の音響信号のうち、所定の音響信号を選択する選択手段と、前記受信音声信号又は前記送信音声信号と、前記所定の音響信号とを合成する合成手段とを有することを特徴とするものである。
【0022】
このため、通話中の送信音声信号及び/又は受信音声信号の変化に応じて、選択される音響信号が変化することになる。この結果、通話中の送信音声信号及び/又は受信音声信号の変化に応じて、音響信号を変化させることが可能となる。
【0023】
そして、例えば、以下のような選択が行われることにより、通話を盛り上げることが可能となる。
【0024】
本発明は、上記発明において、通話相手の通信装置との間で、前記受信音声信号又は前記送信音声信号の送受信を開始してから現在までの時間である通話時間を計測する計測手段を有し、前記選択手段は、前記計測手段により計測された通話時間に基づいて、前記記憶手段に記憶された複数の音響信号のうち、所定の音響信号を選択することもできる。
【0025】
この選択の具体的な一例として、本発明は、上記発明において、各通話時間と、音響信号を特定する情報とが対応づけられた対応テーブルを記憶する記憶手段を有し、前記選択手段は、前記対応テーブルを参照して、前記計測手段により計測された通話時間に対応する音響信号を、前記所定の音響信号として選択するようにしてもよい。
【0026】
このため、例えば、各通話時間が経過するごとに、別の音響信号が選択されて、送信音声信号及び/又は受信音声信号に合成され、別の音響信号が通話音声信号とともに、出力されたり、通話相手の携帯電話機に送信される。この結果、長い通話となってしまい、通話が単調なものとなってしまっても、突然、別の音響信号を通話者が聞くことになるので、例えば、その音響信号により通話者の気分が変わり、通話の盛り上げに役立つことになる。
【0027】
また、例えば、以下のような選択が行われることにより、通話を盛り上げることが可能となる。
【0028】
本発明は、上記発明において、前記受信音声信号及び/又は前記送信音声信号における無音声が連続する時間である無音時間を計測する計測手段を有し、前記選択手段は、前記計測手段により計測された無音時間に基づいて、前記記憶手段に記憶された複数の音響信号のうち、所定の音響信号を選択することもできる。
【0029】
この選択の具体的な一例として、本発明は、上記発明において、各無音時間と、音響信号を特定する情報とが対応づけられた対応テーブルを記憶する記憶手段を有し、前記選択手段は、前記対応テーブルを参照して、前記計測手段により計測された無音時間に対応する音響信号を、前記所定の音響信号として、選択するようにしてもよい。
【0030】
このため、例えば、各無音時間が経過するごとに、別の音響信号が選択されて、送信音声信号及び/又は受信音声信号に合成され、別の音響信号が通話音声信号とともに、出力されたり、通話相手の携帯電話機1に送信される。この結果、会話が盛り上がらないため、話者の一方又は双方が、声を出さない状態が長く続いても、突然、別の音響信号を通話者が聞くことになるので、例えば、その音響信号により通話者の気分が変わり、通話の盛り上げに役立つことになる。
【0031】
また、例えば、以下のような選択が行われることにより、通話を盛り上げることが可能となる。
【0032】
本発明は、上記発明において、前記受信音声信号及び/又は前記送信音声信号における有音声部分から無音声部分へ変化する回数と、無音声部分から有音声部分へ変化する回数とに基づいて、所定時間内の前記受信音声信号及び/又は前記送信音声信号のテンポに関する情報を、所定時間ごとに、計測する計測手段を有し、前記選択手段は、前記計測手段により計測された、前記所定時間内の前記受信音声信号及び/又は前記送信音声信号のテンポに関する情報に基づいて、前記記憶手段に記憶された複数の音響信号のうち、所定の音響信号を選択することもできる。
【0033】
この選択の具体的な一例として、本発明は、上記発明において、各テンポに関する情報と、音響信号を特定する情報とが対応づけられた対応テーブルを記憶する記憶手段を有し、前記選択手段は、前記対応テーブルを参照して、前記計測手段により計測された、前記所定時間内の前記受信音声信号及び/又は前記送信音声信号のテンポに関する情報に対応する音響信号を、前記所定の音響信号として、選択するようにしてもよい。
【0034】
このため、例えば、受信音声信号のテンポ又は送信音声信号のテンポに基づいて、別の音響信号が選択されて、送信音声信号及び/又は受信音声信号に合成され、別の音響信号が通話音声信号とともに、出力されたり、通話相手の携帯電話機1に送信される。この結果、話者の一方又は双方の通話のテンポが変わった場合、突然、別の音響信号を通話者が聞くことになるので、例えば、その音響信号により通話者の気分が変わり、通話の盛り上げに役立つことになる。
【0035】
また、本発明の携帯電話機は、上記発明において、前記対応テーブルを記憶する記憶装置から、前記対応テーブルを取得する取得手段と、前記取得手段により取得された前記対応テーブルを、前記記憶手段に記憶させる記憶制御手段とを有することを特徴とするものである。このため、携帯電話機のユーザは、自分で対応テーブルを作成する手間が省けるので、ユーザの手間を軽減することができる。
【0036】
また、本発明の携帯電話機は、上記発明において、前記対応テーブルに含まれる情報を入力するための入力手段と、前記入力手段により入力された前記対応テーブルに含まれる情報に基づいて、前記記憶手段に記憶されている対応テーブルの書き換えを行う書き換え手段とを有することを特徴とするものである。このため、音響信号の変更があった場合や、音響信号に対応する情報が変化したような場合でも、速やかに対応できる。
【0037】
また、本発明は、通信方法としても実現できる。この場合、本発明は、通話相手の通信装置から受信する音声信号である受信音声信号、又は、前記通話相手の通信装置に送信する音声信号である送信音声信号に合成するための音響信号を、前記受信音声信号と合成して、出力するか、又は前記音響信号を前記送信音声信号と合成して、前記通話相手の通信装置に送信する通信方法であって、前記受信音声信号及び/又は前記送信音声信号に基づいて、前記送信音声信号及び/又は前記受信音声信号に合成する音響信号を制御することを特徴とするものである。
【0038】
また、本発明は、通話相手の通信装置から受信する音声信号である受信音声信号、又は、前記通話相手の通信装置に送信する音声信号である送信音声信号に合成するための音響信号を、前記受信音声信号と合成して、出力するか、又は前記音響信号を前記送信音声信号と合成して、前記通話相手の通信装置に送信する通信方法であって、複数の音響信号を記憶手段に記憶するステップと、 前記受信音声信号及び/又は前記送信音声信号に基づいて、前記記憶手段に記憶された複数の音響信号のうち、所定の音響信号を選択するステップと、前記受信音声信号又は前記送信音声信号と、前記所定の音響信号とを合成するステップとを有することを特徴とするものである。
【0039】
【発明の実施の形態】
実施の形態1
図1は、本実施の形態の通信システムの構成を示す図である。通信システムは、携帯電話機1(携帯通信装置)と、携帯電話機1と無線通信を行う基地局4と、基地局4と接続されている交換装置5と、交換装置5と公衆ネットワーク(IP通信ネットワークともいう、例えば、インターネット)を介して接続される情報提供サーバ装置6とを有する。ここで、基地局4と、交換装置5とは、デジタル携帯電話ネットワーク部を構成する。
【0040】
なお、本実施の形態では、携帯通信装置として、携帯電話機1(例えば、移動電話機)を例にして説明するが、これに限定されるわけでない。例えば、携帯通信装置として、携帯端末装置(音声及び画像のやりとりを2者間で、できる装置)であってもよい。
【0041】
携帯電話機1は、通話相手の携帯電話機1(通信装置)から受信する音声信号である受信音声信号、又は、通話相手の携帯電話機1に送信する音声信号である送信音声信号に合成するための音響信号を、受信音声信号と合成して出力するか、又は上記音響信号を上記送信音声信号と合成して、通話相手の携帯電話機1に送信する携帯通信装置である。
【0042】
ここでいう音響信号とは、例えば、通話者の音声信号に付加される信号のことであり、例えば、音楽、自然音(鳥の鳴き声、川の流れる音)などの音声信号のことであり、いわゆる効果音信号や、背景音信号のことである。
【0043】
図2は、本実施の形態の携帯電話機1の構成を示す図である。携帯電話機1は、無線受信部11と、無線送信部12と、通信制御部13とを有する。無線受信部11は、基地局4から送信されてきた各種のデータを無線通信を介して、受信する。具体的には、無線受信部11は、基地局4との間で設定された無線通信経路から送信されてきた無線信号を復調し、デジタルビット列信号を生成する。
【0044】
無線送信部12は、基地局4に対して、各種のデータを無線通信を介して、送信する。具体的には、無線送信部12は、多重化部30などから出力されたデジタルビット列信号を変調し、変調したデジタルビット列信号を無線信号として、無線通信経路を介して、基地局4に送信する。
【0045】
また、通信制御部13と無線受信部11と無線送信部12とは、無線インターネット接続通信機能を有する。この機能について、以下に詳細に説明する。通信制御部13は、無線送信部12及び無線受信部11と、情報提供サーバ装置6との間の通信経路の設定処理を行う。この設定処理により、無線送信部12及び無線受信部11は、情報提供サーバ装置6との間で、データ通信を行うことができる。例えば、無線送信部12は、複数の音響情報、複数の対応テーブルのリスト情報(又は、サービスメニュー情報)の要求を、デジタル携帯電話ネットワーク部及び公衆ネットワークに設定された通信経路を介して、情報提供サーバ装置6に送信する。対応テーブルの説明は、後述する。
【0046】
情報提供サーバ装置6は、上記要求に基づいて、上述したリスト情報を、デジタル携帯電話ネットワーク部及び公衆ネットワークに設定された通信経路を介して、無線受信部11に送信する。無線送信部12は、所定の音響情報、所定の対応テーブルの要求を、上記通信経路を介して、情報提供サーバ装置6に送信する。情報提供サーバ装置6は、上記所定の音響情報、所定の対応テーブルの要求に基づいて、上記所定の音響情報、所定の対応テーブルを、上記通信経路、無線受信部11を介して、通信制御部13に送信する。通信制御部13は、上記所定の音響情報、所定の対応テーブルを、記憶制御部14に送ると、記憶制御部14は、所定の音響情報、所定の対応テーブルを、記憶部15に記憶させる。
【0047】
本実施の形態では、一例として、記憶部15には、後述する1つの対応テーブルと、複数の音響信号とが記憶されている場合の説明が行われる。
【0048】
なお、例えば、ユーザ(例えば、携帯電話機1の所有者)がディスプレイ部18に表示された表示に基づいて、入力部31(キーボードなど)を用いて所定の入力操作を行うことにより、上記リスト情報の要求、所定の音響情報、対応テーブルの選択が行われる。
【0049】
また、通信制御部13は、無線送信部12及び無線受信部11と、通話相手の携帯電話機1との間の通信経路の設定処理を行う。この設定処理により、無線送信部12及び無線受信部11は、通話相手の携帯電話機1との間で、データ通信を行うことができる。これにより、通信制御部13と無線受信部11と無線送信部12とは、デジタル携帯電話ネットワーク部に設定された通信経路を介して、通話信号の発信や着信を行うことができる。
【0050】
なお、無線送信部12及び無線受信部11と、通話相手の携帯電話機1との間の通信経路の設定処理の際には、例えば、ディスプレイ部18に表示された表示に基づいて、ユーザが入力部31(キーボードなど)を用いて所定の入力操作を行う。
【0051】
例えば、携帯電話機1のユーザが、入力部31を用いて、通話相手の携帯電話機1の電話番号を入力した後、オフフックボタンを押すと、呼設定信号が、通話相手の携帯電話機1に送信される。通話相手の携帯電話機1が、呼設定信号を取得すると、応答信号をユーザの携帯電話機1に送信する。ユーザの携帯電話機1が上記応答信号を取得すると、ユーザの携帯電話機1と通話相手の携帯電話機1との間における通信経路が設定され、通話状態に移行する。また、例えば、携帯電話機1のユーザが、入力部31を用いて、通話中において、オンフックボタンを押すと、切断信号が、通話相手の携帯電話機1に送信される。通話相手の携帯電話機1が、切断信号を取得すると、応答信号をユーザの携帯電話機1に送信する。ユーザの携帯電話機1が上記応答信号を取得すると、ユーザの携帯電話機1と通話相手の携帯電話機1との間における通信経路の設定が解除され、通話状態が終了する。
【0052】
通信制御部13は、ユーザの携帯電話機1と、通話相手の携帯電話機1との間の通信経路が設定され、通話状態であるか否かを監視する。そして、通信制御部13は、携帯電話機1と通話相手の携帯電話機1との間で、通話状態である場合には、音響情報処理部20、受信側重畳部21、受信側分析部19、送信側分析部25、送信側重畳部26が動作するように制御し、通話状態でない場合には、音響情報処理部20、受信側重畳部21、受信側分析部19、送信側分析部25、送信側重畳部26が動作しないように、制御する。
【0053】
また、携帯電話機1は、記憶制御部14と記憶部15とを有する。記憶制御部14は、対応テーブル及び音響情報を記憶する情報提供サーバ装置6(記憶装置)から、対応テーブル、音響情報を取得する取得手段でもある。具体的には、記憶制御部14は、情報提供サーバ装置6から通信制御部13を介して送られてきた、対応テーブルと複数の音響情報とを、取得する。
【0054】
記憶制御部14は、通信制御部13から送信されてきた対応テーブル、複数の音響情報を記憶部15に記憶させる。また、記憶制御部14は、記憶部15に記憶されている各音響情報のアドレス情報(記憶部15内のアドレス情報)を管理している。そして、音響情報処理部20から、所定のアドレス情報に記憶されている音響情報の要求信号を取得すると、記憶制御部14は、上記要求信号に基づいて、記憶部15の上記所定のアドレス情報に記憶されている音響情報を取得し、音響情報処理部20に送る。
【0055】
記憶部15には、対応テーブルと、複数の音響情報とが記憶されている。対応テーブルの一例は、以下のとおりである。対応テーブルにおいては、受信音声信号及び/又は送信音声信号の音量に基づいて所定の関係式に従って算出される第1音量値と、受信音声信号及び/又は送信音声信号に合成する音響信号の実際の音量値である第2音量値とが対応づけられている。図3は、対応テーブルの一例を示す図である。
【0056】
分離化部16は、無線受信部11から出力されたデジタルビット列信号を取得すると、上記デジタルビット列信号に基づいて、符号化された音声信号(以下、受信音声信号)と、符号化された画像信号(以下、受信画像信号)とに分離する。そして、分離化部16は、符号化された受信音声信号を音声信号復号化部18に出力する。また、分離化部16は、符号化された受信画像信号を画像信号復号化部17に出力する。
【0057】
画像信号復号化部17は、分離化部16から送られてきた受信画像信号を取得すると、受信画像信号の復号化処理を行う。そして、画像信号復号化部17は、復号化された受信画像信号をディスプレイ部18に出力する。
【0058】
ディスプレイ部18は、復号化された受信画像信号を取得すると、ユーザに対して、受信画像信号に基づいた画像を表示する。
【0059】
音声信号復号化部18は、符号化された受信音声信号を取得すると、受信音声信号の復号化処理を行う。そして、音声信号復号化部18は、復号化された受信音声信号を受信側分析部19に出力する。
【0060】
受信側分析部19は、携帯電話機1が、通話相手の携帯電話機1との間で、通話状態でない場合、復号化された受信音声信号をそのまま受信側重畳部21に出力する。一方、受信側分析部19は、携帯電話機1が、通話相手の携帯電話機1との間で、通話状態である場合、以下の処理を行う。即ち、受信側分析部19は、送られてきた受信音声信号に基づいて、分析処理を行う。ここでは、受信側分析部19は、受信音声信号の音量を時系列に従って、計測する。即ち、受信側分析部19は、受信音声信号の音量を時系列に従って、計測する計測手段である。
【0061】
受信側分析部19による計測処理の具体的な説明の一例は、以下のとおりである。受信側分析部19は、送られてきた受信音声信号の音量値を、所定時間間隔Tごとに、計測する。例えば、受信側分析部19は、時間t1から所定時間Tの間の受信音声信号の音量の平均値を、時間t1から所定時間Tの間の受信音声信号の音量値として、計測する。そして、受信側分析部19は、時間t1から所定時間Tの間の受信音声信号の音量値x1(dB)、時間t1+Tから所定時間Tの間の受信音声信号の音量値x2(dB)、..のように計測していく。受信側分析部19は、計測した音量値(例えば、音量値x1)と、上記音量値と対応する所定時間(例えば、T)分の受信音声信号(例えば、音量値x1に対応する、時間t1から所定時間Tの間の受信音声信号)と、を受信側重畳部21に出力する。受信側重畳部21は、計測された音量値に対応する、所定時間分の受信音声信号をいったん保持する。そして、受信側重畳部21は、計測された音量値を音響情報処理部20に送る。
【0062】
音響情報処理部20は、受信音声信号に基づいて、受信音声信号に合成する音響信号を制御する制御手段である。具体的には、例えば、音響情報処理部20は、受信側分析部19により計測された、受信音声信号の音量に基づいて、受信音声信号に合成する音響信号の音量を制御する。
【0063】
音響情報処理部20による制御機能の説明の一例は、以下のとおりである。例えば、音響情報処理部20は、受信側分析部19により計測された、受信音声信号の音量に基づいて、所定の関係式に従って、第1音量値を算出し、算出された第1音量値と、上記対応テーブルとに基づいて、第1音量値に対応する第2音量値を取得する取得手段でもある。そして、音響情報処理部20は、取得した第2音量値となるように、受信音声信号に合成する音響信号の音量を制御する。
【0064】
音響情報処理部20による処理の詳細な説明は、以下のとおりである。音響情報処理部20は、記憶制御部14を介して、記憶部15から、対応テーブルを取得する。また、音響情報処理部20は、記憶制御部14を介して、記憶部15から、所定の音響情報を取得する。そして、音響情報処理部20は、計測された音量値と、所定の関係式とに基づいて、第1音量値を算出する。
【0065】
ここで、所定の関係式の設定の仕方により、音響信号を優先したり、通話音声信号を優先したり、音響信号と通話音声信号とを両方、適度に優先させることができる。
【0066】
ここで、音響情報処理部20による第1音量値の算出方法の一例を以下に説明する。例えば、受信音声信号の音量値が音量値b1と計測され、後述する送信音声信号の音量値が音量値a1と計測された場合、音響情報処理部20は、以下に示す(1)式の所定の関係式に基づいて、第1音量値zを算出する。
【0067】
z=0*a1+n*b1.........(1)
ここで、nは、重み付け係数である。この重み付け係数の値は、特に限定されない。通信システムの設定上要求された値であってもよいし、適当な比例係数(例えば、1/2)であってもよい。
【0068】
そして、音響情報処理部20は、上記対応テーブルを参照して、算出された第1音量値に対応する第2音量値を取得する。例えば、音響情報処理部20は、第1音量値として、音量値B(dB)を算出した場合、図3に示す対応テーブルを参照して、第1音量値Bに対応する第2音量値b(dB)を取得する。
【0069】
そして、音響情報処理部20は、所定時間(T)分の所定の音響信号の音量を、第2音量値となるように、制御する。そして、音量が制御された所定の音響信号(所定時間分の所定の音響信号)は、受信側重畳部21に送られる。
【0070】
受信側重畳部21は、所定時間(T)分の受信音声信号と、音量が制御された所定の音響信号(所定時間(T)分の所定の音響信号)とを合成する。受信音声信号と、所定の音響信号とが合成された信号である合成信号は、スピーカ部22に出力される。スピーカ部22は、合成信号の増幅処理を行った後、ユーザに対して、増幅処理された音声信号を出力する。
【0071】
マイク部23には、ユーザの音声が入力される。マイク部23は、入力されたユーザの音声に基づいて、音声信号をノイズキャンセリング部24に出力する。
【0072】
ノイズキャンセリング部24は、音声信号のうち、周辺雑音に関する信号の除去や抑制処理を行う。ノイズキャンセリング部24は、除去や抑制処理が施された音声信号(以下、送信音声信号という)を送信側分析部25に送る。
【0073】
送信側分析部25は、携帯電話機1が、通話相手の携帯電話機1との間で、通話状態でない場合、送信音声信号をそのまま送信側重畳部26に出力する。一方、送信側分析部25は、携帯電話機1が、通話相手の携帯電話機1との間で、通話状態である場合、以下の処理を行う。即ち、送信側分析部25は、送られてきた送信音声信号に基づいて、分析処理を行う。ここでは、送信側分析部25は、送信音声信号の音量を時系列に従って、計測する。即ち、送信側分析部25は、送信音声信号の音量を時系列に従って、計測する計測手段である。
【0074】
送信側分析部25による計測処理の具体的な説明の一例は、以下のとおりである。送信側分析部25は、送られてきた送信音声信号の音量値を、所定時間間隔Tごとに、計測する。例えば、送信側分析部25は、時間t1から所定時間Tの間の送信音声信号の音量の平均値を、時間t1から所定時間Tの間の送信音声信号の音量値として、計測する。そして、送信側分析部25は、時間t1から所定時間Tの間の送信音声信号の音量値x1(dB)、時間t1+Tから所定時間Tの間の送信音声信号の音量値x2(dB)、..のように計測していく。送信側分析部25は、計測した音量値(例えば、音量値x1)と、上記音量値と対応する所定時間(例えば、T)分の送信音声信号(例えば、音量値x1に対応する、時間t1から所定時間Tの間の送信音声信号)と、を送信側重畳部26に出力する。
【0075】
送信側重畳部26は、計測された音量値に対応する、所定時間分の送信音声信号をいったん保持する。そして、送信側重畳部26は、計測された音量値を音響情報処理部20に送る。
【0076】
音響情報処理部20は、送信音声信号に基づいて、送信音声信号に合成する音響信号を制御する制御手段でもある。具体的には、例えば、音響情報処理部20は、送信側分析部25により計測された、送信音声信号の音量に基づいて、送信音声信号に合成する音響信号の音量を制御する。
【0077】
音響情報処理部20による制御機能の詳細な説明の一例は、以下のとおりである。例えば、音響情報処理部20は、送信側分析部25により計測された、送信音声信号の音量に基づいて、所定の関係式に従って、第1音量値を算出し、算出された第1音量値と、上記対応テーブルとに基づいて、第1音量値に対応する第2音量値を取得する取得手段でもある。そして、音響情報処理部20は、取得した第2音量値となるように、送信音声信号に合成する音響信号の音量を制御する。
【0078】
音響情報処理部20による処理の詳細な説明は、以下のとおりである。音響情報処理部20は、記憶制御部14を介して、記憶部15から、対応テーブルを取得する。また、音響情報処理部20は、記憶制御部14を介して、記憶部15から、所定の音響情報を取得する。そして、音響情報処理部20は、計測された音量値と、所定の関係式とに基づいて、第1音量値を算出する。
【0079】
ここで、音響情報処理部20による第1音量値の算出方法の一例を以下に説明する。例えば、受信音声信号の音量値が音量値b1と計測され、送信音声信号の音量値が音量値a1と計測された場合、音響情報処理部20は、以下に示す(2)式の所定の関係式に基づいて、第1音量値zを算出する。
【0080】
z=m*a1+0*b1.........(2)
ここで、mは、重み付け係数である。この重み付け係数の値は、特に限定されない。通信システムの設定上要求された値であってもよいし、適当な比例係数(例えば、1/2)であってもよい。
【0081】
そして、音響情報処理部20は、上記対応テーブルを参照して、算出された第1音量値に対応する第2音量値を取得する。
【0082】
そして、音響情報処理部20は、所定時間(T)分の所定の音響信号の音量を、第2音量値となるように、制御する。そして、音量が制御された所定の音響信号(所定時間分の所定の音響信号)は、送信側重畳部26に送られる。
【0083】
送信側重畳部26は、所定時間(T)分の送信音声信号と、音量が制御された所定の音響信号(所定時間(T)分の所定の音響信号)とを合成する。送信音声信号と、所定の音響信号とが合成された信号である合成信号は、音声信号符号化部27に送られる。
【0084】
音声信号符号化部27は、送られてきた合成信号の符号化処理を行う。符号化された合成信号(以下、送信合成音声信号という)は、多重化部30に出力される。
【0085】
また、携帯電話機1は、撮影部28を有する。撮影部28は、ユーザによる所定の操作に基づいて、各種の画像を撮影する。撮影部28により撮影された画像を示す信号である画像信号(送信画像信号という)は、画像信号符号化部29に送られる。
【0086】
画像信号符号化部29は、撮影部28から送られた送信画像信号の符号化処理を行う。画像信号符号化部29は、符号化処理を行った送信画像信号を多重化部30に送る。
【0087】
多重化部30は、音声信号符号化部27から送られてきた送信合成音声信号と、画像信号符号化部29から送られてきた送信画像信号との多重化処理を行うことにより、送信デジタルビット列信号を生成する。そして、多重化部30は、送信デジタルビット列信号を無線送信部12に出力する。無線送信部12は、送信デジタルビット列信号を、無線通信、基地局4などを介して、通話相手の携帯電話機1に送信する。
【0088】
なお、上述した画像信号は、静止画像信号であっても、動画像信号であってもよい。
【0089】
(通信方法)
先ず、通信制御部13は、ユーザの携帯電話機1と、ユーザの通話相手の携帯電話機1との間の通信経路が設定され、通話状態であることを認識する。すると、通信制御部13は、音響情報処理部20、受信側重畳部21、受信側分析部19、送信側分析部25、送信側重畳部26が動作するように指示する指示信号を送る。これにより、各部が動作可能な状態に設定される。また、予め、ユーザは、入力部31を用いて、所定の音響信号を特定する情報を入力する。すると、入力された所定の音響信号を特定する情報は、音響情報処理部20に送られる。図4は、上記通信方法の説明を補足するための概念図である。
【0090】
(1)通話相手の携帯電話機1から、受信音声信号を受信し出力する処理
図5は、上記処理を説明するためのフローチャート図である。先ず、無線受信部11には、通話相手の携帯電話機1から、基地局4、交換装置5、基地局4を介して、無線信号が送信される。無線受信部11は、受信デジタルビット列信号を分離化部16に送る(S10)。分離化部16は、無線受信部11から出力された受信デジタルビット列信号を取得すると、受信デジタルビット列信号を、符号化された受信音声信号と、符号化された受信画像信号とに分離する(S20)。分離化部16は、符号化された受信音声信号を音声信号復号化部18に送るとともに、符号化された受信画像信号を画像信号復号化部17に送る。
【0091】
画像信号復号化部17は、符号化された受信画像信号を取得すると、受信画像信号の復号化処理を行う(S30)。そして、画像信号復号化部17は、復号化された受信画像信号をディスプレイ部18に出力する。ディスプレイ部18は、復号化された受信画像を、ユーザに対して表示する(S40)。
【0092】
また、S30,S40の処理と並行して以下の処理が行われる。音声信号復号化部18は、符号化された受信音声信号を取得すると、上記受信音声信号の復号化処理を行う(S50)。そして、音声信号復号化部18は、復号化された受信音声信号を受信側分析部19に出力する。
【0093】
受信側分析部19は、送られてきた受信音声信号の音量値を、所定時間間隔Tごとに、計測する(S60)。例えば、受信側分析部19は、時間t1から所定時間Tの間の受信音声信号の音量の平均値を計測する。そして、受信側分析部19は、時間t1から所定時間Tの間の受信音声信号の音量値x1(dB)、時間t1+Tから所定時間Tの間の受信音声信号の音量値x2(dB)、..のように計測する。受信側分析部19は、計測した音量値と、所定時間(T)分の受信音声信号とを受信側重畳部21に出力する。
【0094】
受信側重畳部21は、所定時間(T)分の受信音声信号をいったん保持する(S70)。そして、受信側重畳部21は、計測された音量値を音響情報処理部20に送る。音響情報処理部20は、記憶制御部14を介して、対応テーブルと、上記所定の音響情報を取得する。そして、音響情報処理部20は、計測された音量値と、所定の関係式とに基づいて、第1音量値を算出する(S80)。この第1音量値の算出処理の詳細な説明は、上述したとおりである。
【0095】
そして、音響情報処理部20は、上記対応テーブルを参照して、算出された第1音量値に対応する第2音量値を取得する(S90)。そして、音響情報処理部20は、所定時間(T)分の所定の音響信号の音量を、第2音量値となるように、制御する(S100)。そして、音量が制御された所定の音響信号(所定時間(T)分の所定の音響信号)は、受信側重畳部21に送られる。
【0096】
受信側重畳部21は、所定時間(T)分の受信音声信号と、音量が制御された所定の音響信号(所定時間(T)分の所定の音響信号)とを合成する(S110)。受信音声信号と、所定の音響信号とが合成された信号である合成信号は、スピーカ部22に出力される(S120)。
【0097】
(2)通話相手の携帯電話機1に、送信音声信号を送信する処理
図6は、上記処理を説明するためのフローチャート図である。マイク部23には、ユーザの音声が入力される。マイク部23は、入力されたユーザの音声に基づいて、音声信号をノイズキャンセリング部24に出力する(S130)。
【0098】
ノイズキャンセリング部24は、音声信号のうち、周辺雑音に関する信号の除去や抑制処理を行う(S140)。そして、ノイズキャンセリング部24は、送信音声信号を送信側分析部25に送る。
【0099】
送信側分析部25は、送られてきた送信音声信号の音量値を、所定時間間隔Tごとに、計測する(S150)。この処理の具体的な説明は、ステップS60の場合と同じである。送信側分析部25は、計測した音量値と、所定時間(T)分の送信音声信号とを送信側重畳部26に出力する。
【0100】
送信側重畳部26は、所定時間(T)分の送信音声信号をいったん保持する(S160)。そして、送信側重畳部26は、計測された音量値を音響情報処理部20に送る。音響情報処理部20は、記憶制御部14を介して、対応テーブルと、所定の音響情報を取得する。そして、音響情報処理部20は、計測された音量値と、所定の関係式とに基づいて、第1音量値を算出する(S170)。この第1音量値の算出処理の詳細な説明は、上述したとおりである。
【0101】
そして、音響情報処理部20は、上記対応テーブルを参照して、算出された第1音量値に対応する第2音量値を取得する(S180)。そして、音響情報処理部20は、所定時間(T)分の所定の音響信号の音量を、第2音量値となるように、制御する(S190)。そして、音量が制御された所定の音響信号(所定時間(T)分の所定の音響信号)は、送信側重畳部26に送られる。
【0102】
送信側重畳部26は、所定時間(T)分の送信音声信号と、音量が制御された所定の音響信号(所定時間(T)分の所定の音響信号)とを合成する(S200)。送信音声信号と、所定の音響信号とが合成された信号である合成信号は、音声信号符号化部27に送られる。
【0103】
音声信号符号化部27は、送られてきた合成信号の符号化処理を行う(S210)。符号化された合成信号は、多重化部30に出力される。その後、S240の処理が行われる。
【0104】
また、S130からS210までの処理と並行して、以下のS220、S230の処理が行われる。撮影部28は、ユーザによる所定の操作に基づいて、各種の画像を撮影する(S220)。撮影部28により撮影された画像を示す信号(送信画像信号)は、画像信号符号化部29に送られる。画像信号符号化部29は、送信画像信号の符号化処理を行う(S230)。画像信号符号化部29は、符号化処理を行った送信画像信号を多重化部30に送る。その後、S240の処理が行われる。
【0105】
多重化部30は、音声信号符号化部27から送られてきた合成信号と、画像信号符号化部29から送られてきた送信画像信号との多重化処理を行うことにより、送信デジタルビット列信号を生成する(S240)。そして、多重化部30は、送信デジタルビット列信号を含む無線信号を無線送信部12に出力する。無線送信部12は、無線信号を、基地局4、交換装置5、通話相手の携帯電話機1と無線通信を行う基地局4を介して、通話相手の携帯電話機1に送信する(S250)。
【0106】
なお、本実施の形態では、一例として、記憶部15には、後述する1つの対応テーブルと、複数の音響信号とが記憶されている場合の説明が行われたが、記憶部15には、複数の対応テーブルが記憶されても良い。そして、音響情報処理部20は、複数の対応テーブルのうち、本実施の形態の機能を実現する対応テーブルを選択して取得するようにしてもよい。
【0107】
(作用効果)
本実施の形態の携帯電話機1は、受信音声信号及び/又は送信音声信号に基づいて、送信音声信号及び/又は受信音声信号に合成する音響信号を制御する音響情報処理部20(制御手段)を有する。このため、通話中の送信音声信号及び/又は受信音声信号の変化に応じて、音響信号を変化させるような制御が可能となる。そして、例えば、以下のような制御が行われることにより、音響信号が通話の妨げになることが防止されたり、通話を盛り上げることが可能となる。
【0108】
このような制御として、例えば、音量の制御がある。携帯電話機1は、受信音声信号及び/又は送信音声信号の音量を時系列に従って、計測する受信側分析部19/送信側分析部25を有する。そして、音響情報処理部20は、計測された、受信音声信号及び/又は送信音声信号の音量に基づいて、送信音声信号及び/又は受信音声信号に合成する音響信号の音量を制御することができる。
【0109】
音響情報処理部20による音量制御の一例は、以下のとおりである。携帯電話機1は、受信音声信号及び/又は送信音声信号の音量に基づいて所定の関係式に従って算出される第1音量値と、受信音声信号及び/又は送信音声信号に合成する音響信号の実際の音量値である第2音量値とが対応づけられた対応テーブルを記憶する記憶部15を有する。そして、音響情報処理部20は、計測された、受信音声信号及び/又は送信音声信号の音量に基づいて、所定の関係式に従って、第1音量値を算出し、算出された第1音量値と、対応テーブルとに基づいて、第1音量値に対応する第2音量値を取得する。そして、音響情報処理部20は、取得した第2音量値となるように、送信音声信号及び/又は受信音声信号に合成する音響信号の音量を制御する。
【0110】
この結果、例えば、通話相手から送られてきた受信音声信号の音量や、通話相手に送信する送信音声信号の音量が高い場合、上記受信音声信号に合成するための音響信号や、送信音声信号に合成するための音響信号の音量が高くなるように制御することができる。また、例えば、通話相手から送られてきた受信音声信号の音量や、通話相手に送信する送信音声信号の音量が低い場合、上記受信音声信号に合成するため音響信号や、送信音声信号に合成するための音響信号の音量が低くなるように制御することができる。
【0111】
これにより、例えば、通話に関する音声信号(送信音声信号、受信音声信号)が変化しても、通話に関する音声信号が優先して、出力されたり、通話相手の携帯電話機1に送信されるので、通話の妨げになるという事態が防止される。
【0112】
また、例えば、通話相手から送られてきた受信音声信号の音量と、通話相手に送信する送信音声信号の音量とのうち、大きい方の音量値に基づいて、送信音声信号、受信音声信号に合成するための音響信号の音量を制御することも可能である。これにより、例えば、通話に関する音声信号(送信音声信号、受信音声信号)が変化しても、音量が大きな音声信号に基づいて、上記音響信号の音量が制御されるので、例えば、盛り上がっている方の音声信号が優先して出力されたり、通話相手の携帯電話機1に送信されることが可能になる。この結果、通話を盛り上げることが可能となる。
【0113】
また、本実施の形態の記憶制御部14は、対応テーブルを記憶する記憶装置(例えば、情報提供サーバ装置6)から、対応テーブルを取得し、取得した対応テーブルを、記憶部15に記憶させる。このため、携帯電話機1のユーザは、自分で対応テーブルを作成する手間が省けるので、ユーザの手間を軽減することができる。
【0114】
また、特開2002−271494号公報に示される「効果音付加型通話システム」では、発呼者が被呼者に接続する際には、事前に発呼者が効果音サーバに発信し、効果音の選択等に必要な操作を行い、その後、実際に会話を行う被呼者の電話番号を入力し相手と接続しなければならない。このため、通話を開始するまでの操作が煩雑であり、かつ発呼者が被呼者への通話料金以外に効果音サーバへの通話料金を負担しなければならなかった。本実施の形態を用いれば、そのような事態が解消される。
【0115】
また、特開2002−51116号公報に示される「移動体通信装置」では、効果音の挿入を携帯電話機1内部にて行っており、テンキーに対応して種々の効果音を送出できるものの、実際に使用可能な効果音の種類及び数量は、携帯電話機1の記憶装置内に予め記憶されたものに限られる。本実施の形態では、記憶制御部14は、対応テーブル、音響信号を記憶する記憶装置から、対応テーブル、音響信号を取得し、取得した対応テーブル、音響信号を、記憶部15に記憶させる。このため、特開2002−51116号公報のように、実際に使用可能な効果音の種類及び数量は、携帯電話機1の記憶装置内に予め記憶されたものに限られることはない。
【0116】
また、特開2002−51116号公報の技術では、効果音の挿入を行う効果音ミキサーは、単純に発話者の音声出力と、レシーバー(スピーカ)入力に配置してあるため、マイクからの混入した発話者の背景音と混じってしまうが、本実施の形態では、携帯電話機1の内部で、発話者の音声と、音響信号とを合成しているので、そのような事態は避けられる。
【0117】
また、本実施の形態の携帯電話機1は、広帯域な情報伝送が可能なデジタル携帯電話機1に適用が可能である。特に、本実施の形態の携帯電話機1は、音声及び動画像の伝送が行われるTV電話機能を有するデジタル携帯電話機1に適用が可能である。
【0118】
(実施の形態1の変更例1)
(1)また、上述した実施の形態では、受信音声信号に合成する所定の音響信号の音量の制御と、送信音声信号に合成する所定の音響信号の音量の制御とをともに、行っていたが、以下のように変更されてもよい。即ち、受信音声信号に合成する所定の音響信号の音量の制御と、送信音声信号に合成する所定の音響信号の音量の制御とのうち、いずれか一方の制御のみが行われるようにしてもよい。
【0119】
そして、例えば、受信音声信号(又は送信音声信号)に合成する所定の音響信号の音量の制御のみが行われる場合、送信音声信号(又は受信音声信号)に合成する所定の音響信号は、一定の音量のままであってもよい。
【0120】
送信音声信号に合成する所定の音響信号の音量の制御のみが行われる場合、上述した所定の関係式(1)により、ユーザの音声が優先され、通話中において、ユーザの音声が優先して通話相手に送信される効果が得られる。
【0121】
一方、受信音声信号に合成する所定の音響信号の音量の制御のみが行われる場合、上述した所定の関係式(2)により、通話相手の音声が優先され、通話中において、通話相手の音声が優先して出力される効果が得られる。
【0122】
また、上述した所定の関係式(1)により、第1音量値が算出され、対応テーブルに基づいて、第2音量値が取得された場合、この取得された第2音量値に基づいて、受信音声信号に合成する所定の音響信号の音量の制御と、送信音声信号に合成する所定の音響信号に音量の制御とが行われるようにしてもよい。この場合にも、ユーザの音声が優先され、通話中において、ユーザの音声が優先して通話相手に送信される効果が得られる。
【0123】
また、上述した所定の関係式(2)により、第1音量値が算出され、対応テーブルに基づいて、第2音量値が取得された場合、この取得された第2音量値に基づいて、受信音声信号に合成する所定の音響信号の音量の制御と、送信音声信号に合成する所定の音響信号に音量の制御とが行われるようにしてもよい。この場合にも、通話相手の音声が優先され、通話中において、通話相手の音声が優先して出力される効果が得られる。
【0124】
(2)なお、音響情報処理部20による第1音量値の算出方法は、上述した実施の形態で示す方法以外に、以下のように変更されてもよい。
【0125】
例えば、受信側分析部19は、受信音声信号の音量値(例えば、時間t1から所定時間Tの間の受信音声信号の音量の平均値)を音量値b1と計測し、送信側分析部25は、送信音声信号の音量値(例えば、時間t1から所定時間Tの間の送信音声信号の音量の平均値)を音量値a1と計測した場合、音響情報処理部20は、以下に示す(3)式の所定の関係式に基づいて、第1音量値zを算出する。
【0126】
z=max(a1,b1).........(3)
ここで、max(a1,b1)は、音量値a1と音量値b1とのうち、大きな音量値(最大の音量値)を示す。
【0127】
この場合には、例えば、通話に関する音声信号(送信音声信号、受信音声信号)が変化しても、音量が大きな音声信号に基づいて、音響信号の音量が制御されるので、盛り上がっている方の音声信号が優先して出力されたり、通話相手の携帯電話機1に送信されるので、通話を盛り上げることが可能となる。
【0128】
そして、音響情報処理部20は、対応テーブルを参照して、第1音量値に対応する第2音量値を取得する。この第2音量値は、所定時間分の受信音声信号に合成する所定の音響信号の音量の制御処理と、所定時間分の送信音声信号に合成する所定の音響信号の音量の制御処理とに用いられる。
【0129】
そして、所定時間分の受信音声信号に合成する所定の音響信号の音量の制御処理、所定時間分の受信音声信号と所定の音響信号との合成処理、所定時間分の送信音声信号に合成する所定の音響信号の音量の制御処理、所定時間分の送信音声信号と所定の音響信号との合成処理、は上述した実施の形態と同様にして行われる。
【0130】
(3)また、音響情報処理部20による第1音量値の算出方法は、以下のように変更されてもよい。例えば、受信側分析部19は、受信音声信号の音量値(例えば、時間t1から所定時間Tの間の受信音声信号の音量の平均値)を音量値b1と計測し、送信側分析部25は、送信音声信号の音量値(例えば、時間t1から所定時間Tの間の送信音声信号の音量の平均値)を音量値a1と計測した場合、音響情報処理部20は、以下に示す(4)式の所定の関係式に基づいて、第1音量値zを算出する。
【0131】
z=m*a1+n*b1.........(4)
ここで、m、nは重み付け係数である。この重み付け係数の値は、特に限定されない。通信システムの設定上要求された値であってもよいし、適当な比例係数(例えば、1/2)であってもよい。
【0132】
この場合には、ユーザの音声が適度に優先され、通話中において、ユーザの音声が適度に優先して通話相手に送信される効果が得られるとともに、通信相手の音声が適度に優先され、通話中において、通信相手の音声が適度に優先して出力される効果が得られる。その後の処理は、上述した実施の形態1の変更例1の(2)の説明の場合と同じである。
【0133】
(実施の形態1の変更例2)
上述した実施の形態1、その変更例1では、音響情報処理部20は、第1音量値を算出した後、対応テーブルを参照して、第1音量値に対応する第2音量値を算出していたが、これに限定されず、例えば、以下のような式(5)を用いた方法で、第2音量値yが算出されてもよい。
【0134】
y=p/z+α1、y≦α2.........(5)
ここで、pは重み付け係数であり、その値は特に限定されない。また、α1は、音量値の下限値であり、α2は、音量値の上限値である。
【0135】
(実施の形態1の変更例3)
上述した実施の形態1は、以下のように変更されてもよい。 受信側分析部19は、受信音声信号における有音声部分から無音声部分へ変化する回数と、無音声部分から有音声部分へ変化する回数とに基づいて、所定時間内の受信音声信号のテンポに関する情報を、所定時間ごとに、計測する計測手段である。また、送信側分析部25は、送信音声信号における有音声部分から無音声部分へ変化する回数と、無音声部分から有音声部分へ変化する回数とに基づいて、所定時間内の送信音声信号のテンポに関する情報を、所定時間ごとに、計測する計測手段でもある。
【0136】
音響情報処理部20は、計測された、所定時間内の受信音声信号及び/又は送信音声信号のテンポに関する情報に基づいて、送信音声信号及び/又は受信音声信号に合成する音響信号のテンポを制御する制御手段でもある。
【0137】
また、記憶部15には、例えば、各テンポに関する情報と、送信音声信号及び/又は受信音声信号に合成する音響信号のテンポとが対応づけられた対応テーブルが記憶されている。テンポに関する情報とは、例えば、所定時間の受信音声信号における有音声部分から無音声部分への変化の回数と、所定時間の受信音声信号における無音声部分から有音声部分への変化の回数との和の値である。
【0138】
(動作)
以下、本変更例の特徴的部分の動作について説明する。即ち、図5に示すS60以降、図6に示すS150以降では、以下の処理が行われる。
【0139】
先ず、音声信号復号化部18から、復号化処理が施された受信音声信号が受信側分析部19に送られる。受信側分析部19は、送られてきた受信音声信号に基づいて、以下の処理を行う。受信音声信号における有音声部分から無音声部分へ変化する回数と、無音声部分から有音声部分へ変化する回数とに基づいて、所定時間内の受信音声信号のテンポに関する情報を、所定時間ごとに、計測する。そして、受信側分析部19は、受信音声信号のテンポに関する情報を音響情報処理部20に送る。
【0140】
また、受信側分析部19は、受信音声信号のテンポに関する情報の計測処理を終えた後、所定時間分の受信音声信号を、受信側重畳部21に出力する。受信側重畳部21は、上記所定時間分の受信音声信号をいったん保持する。
【0141】
音響情報処理部20は、対応テーブルを参照して、計測されたテンポに関する情報に対応するテンポ値を取得する。
【0142】
音響情報処理部20は、上記所定時間分の所定の音響信号のテンポが、取得したテンポとなるように、制御する。そして、テンポが制御された所定の音響信号(上記所定時間分の所定の音響信号)は、受信側重畳部21に送られる。
【0143】
受信側重畳部21は、保持していた所定時間分の受信音声信号と、テンポが制御された所定の音響信号(所定時間分の所定の音響信号)とを合成する。合成された信号である合成信号は、スピーカ部22に出力される。
【0144】
同様にして、送信側分析部25によるテンポに関する情報の計測処理、音響情報処理部20による所定の音響信号の制御処理(テンポの制御)、送信側重畳部26による送信音声信号と所定の音響信号との合成処理が行われる。
【0145】
本変更例によれば、送信側分析部25/受信側分析部19は、受信音声信号及び/又は送信音声信号における有音声部分から無音声部分へ変化する回数と、無音声部分から有音声部分へ変化する回数とに基づいて、所定時間内の受信音声信号及び/又は送信音声信号のテンポに関する情報を、所定時間ごとに、計測する。そして、音響情報処理部20は、計測された、所定時間内の受信音声信号及び/又は送信音声信号のテンポに関する情報に基づいて、送信音声信号及び/又は受信音声信号に合成する音響信号のテンポを制御する。
【0146】
この結果、例えば、通話相手から送られてきた受信音声信号のテンポや、通話相手に送信する送信音声信号のテンポに合うように、上記受信音声信号に合成するため音響信号や、送信音声信号に合成するための音響信号のテンポを制御することができる。
【0147】
これにより、通話に関する音声信号のテンポと異なるテンポの音響信号が合成されてしまうような状態がないので、通話の妨げになるという事態が防止される。また、例えば、通話に関する音声信号のテンポに従ったテンポの音響信号が合成されるので、通話を盛り上げることが可能となる。
【0148】
なお、携帯電話機1は、実施の形態1(又はその変更例1、2)の音響信号の制御機能と、本変更例の音響信号の制御機能をともに、具備するようにしてもよい。そして、ユーザが入力部31を用いて、実施の形態1の制御機能及び本変更例の制御機能のうち、いずれかの制御機能を選択できるようにしてもよい。入力部31により入力された選択を示す情報は、音響情報処理部20に送られる。音響情報処理部20は、入力された選択を示す情報に基づいて、実施の形態1の制御機能又は本変更例の制御機能を行うようにしてもよい。
【0149】
また、携帯電話機1は、ユーザによる各種の操作を検知する可動部を有するようにしてもよい。そして、可動部は、検知したユーザによる操作に基づいて、実施の形態1の制御機能及び本変更例の制御機能のうち、いずれかの制御機能をユーザが選択したことを示す情報を音響情報処理部20に送るようにしても良い。
【0150】
また、本変更例では、受信音声信号に合成する所定の音響信号のテンポの制御と、送信音声信号に合成する所定の音響信号のテンポの制御とをともに、行っていたが、以下のように変更されてもよい。即ち、受信音声信号に合成する所定の音響信号のテンポの制御と、送信音声信号に合成する所定の音響信号のテンポの制御とのうち、いずれか一方の制御のみが行われるようにしてもよい。
【0151】
そして、例えば、受信音声信号(又は送信音声信号)に合成する所定の音響信号のテンポの制御のみが行われる場合、送信音声信号(又は受信音声信号)に合成する所定の音響信号のテンポは、一定のテンポのままであってもよい。
【0152】
なお、本実施の形態、その変更例では、音響信号の制御について、音響信号の音量の制御、テンポの制御について、説明したが、本発明は、これらの制御に限定されない。即ち、受信音声信号及び/又は前記送信音声信号に基づいて、音響信号を制御する場合には、本実施の形態で説明した効果が得られる。
【0153】
実施の形態2.
上述した実施の形態1、その変更例では、受信音声信号及び/又は送信音声信号に合成する音響信号の制御が行われていた。本実施の形態では、受信音声信号及び/又は送信音声信号に基づいて、複数の音響信号のうち、受信音声信号及び/又は送信音声信号に合成するための音響信号の選択が行われる。
【0154】
本実施の形態において、実施の形態1と同じ構成、機能の説明については、同一符号を付してその説明を省略する。
【0155】
記憶部15には、複数の音響信号が記憶されている。また、音響情報処理部20と記憶制御部14は、受信音声信号及び/又は送信音声信号に基づいて、記憶部15に記憶された複数の音響信号のうち、所定の音響信号を選択する選択手段でもある。そして、受信側重畳部21は、受信音声信号と、上記所定の音響信号とを合成する合成手段でもある。また、送信側重畳部26は、送信音声信号と、上記所定の音響信号とを合成する合成手段でもある。
【0156】
音響情報処理部20と記憶制御部14の選択機能の具体的な説明の一例は、以下のとおりである。音響情報処理部20は、通話相手の携帯電話機1との間で、受信音声信号又は送信音声信号の送受信を開始してから現在までの時間である通話時間を計測する計測手段である。具体的には、通信制御部13は、ユーザの携帯電話機1が通話相手の携帯電話機との間で通話状態となった場合、通話状態の開始を示す信号を音響情報処理部20に出力する。音響情報処理部20は、通話状態の開始を示す信号を取得したときから、現在までの時間を示す通話時間を計測する。
【0157】
また、音響情報処理部20と記憶制御部14は、計測した通話時間に基づいて、記憶部15に記憶された複数の音響信号のうち、所定の音響信号を選択する。この選択処理の具体的な説明の一例は、以下のとおりである。記憶部15には、各通話時間と、音響信号を特定する情報とが対応づけられた対応テーブルが記憶されている。なお、本実施の形態で用いられる対応テーブルは、実施の形態1で用いられる対応テーブルとは異なるものである。図7は、本実施の形態で用いられる対応テーブルの一例を示す図である。この対応テーブルにおいては、各通話時間と、音響信号の名称と、音響信号を特定する情報(音響信号が記憶されているアドレス情報)とが対応づけられている。音響情報処理部20は、対応テーブルを参照して、計測された通話時間に対応する音響信号を、所定の音響信号として選択して取得するように、記憶制御部14に指示する。記憶制御部14は、上記指示を実行する。
【0158】
(通信方法)
本通信方法では、一例として、対応テーブルには、通話時間1(T1秒)、通話時間2(T2秒)が含まれている場合の説明が行われる。本通信方法では、特に、音声信号の処理(無線受信部11から、分離化部16、音声信号復号化部18、受信側分析部19を介して音声信号が受信側重畳部21、音響情報処理部20に送られた後、受信側重畳部21、音響情報処理部20などで所定の処理が行われて、スピーカ部22から出力される処理、マイク部23,ノイズキャンセリング部24を介して、音声信号が送信側重畳部26、音響情報処理部20に送られた後、送信側重畳部26、音響情報処理部20などで所定の処理が行われて、音声信号符号化部27に出力される処理)について説明する。なお、以下に示す処理以外の処理(例えば、画像信号の処理の説明、音声信号と画像信号との合成処理、合成された信号の処理、音声信号と画像信号との分離処理などの処理)は、実施の形態1と同じようにして行われるので、その説明を省略する。
【0159】
図8、9は、本実施の形態の通信方法の一例を説明するためのフローチャート図である。
【0160】
先ず、予め、ユーザは、入力部31を用いて、所定の音響信号を特定する情報を入力する。すると、入力された所定の音響信号を特定する情報は、音響情報処理部20に送られる。
【0161】
そして、通信制御部13は、ユーザの携帯電話機1が通話相手の携帯電話機1と通話状態になった場合、通話状態の開始を示す信号を音響情報処理部20に出力する(S300)。
【0162】
そして、通話相手の電話機から基地局4を介して、送信されてきた無線信号は、無線受信部11、分離化部16、音声信号復号化部18、受信側分析部19を介して、受信側重畳部21に送信される。この際、受信側分析部19は、実施の形態1と異なり、音声信号復号化部18から入力された信号をそのまま、受信側重畳部21に出力する。受信側重畳部21は、受信音声信号をいったん保持する。また、マイク部23に入力された音声は、ノイズキャンセリング部24、送信側分析部25を介して、送信側重畳部26に送信される。この際、送信側分析部25は、実施の形態1と異なり、ノイズキャンセリング部24から入力された信号をそのまま、送信側重畳部26に出力する。送信側重畳部26は、送信音声信号をいったん保持する(S310)。
【0163】
音響情報処理部20は、通話状態の開始を示す信号を取得した場合、音響情報処理部20は、通話状態の開始を示す信号を取得したときから、現在までの時間を示す通話時間を計測する(S315)。なお、S315の処理は、S320の処理以後、本実施の形態の処理が終了するまで行われる。この際、音響情報処理部20は、記憶制御部14を介して、記憶部15から対応テーブルを読み出す。
【0164】
音響情報処理部20は、計測した通話時間が、対応テーブルに含まれる最も短い通話時間(例えば、T1秒)に達したか否かを判断する(S320)。計測した通話時間が、対応テーブルに含まれる上記通話時間に達しない場合には、音響情報処理部20は、上記所定の音響信号を記憶制御部14、記憶部15を介して、読み出す。そして、音響情報処理部20は、上記所定の音響信号を受信側重畳部21、送信側重畳部26に送信する(S325)。受信側重畳部21は、保持していた受信音声信号と、上記所定の音響信号とを合成して、スピーカ部22に出力する。また、送信側重畳部26は、保持していた送信音声信号と、上記所定の音響信号とを合成して、音声信号符号化部27へ送る(S330)。そして、ステップS320の処理へ移行する。
【0165】
一方、計測した通話時間が、対応テーブルに含まれる最も短い通話時間に達した場合には、音響情報処理部20は、以下の処理を行う。
【0166】
音響情報処理部20は、対応テーブルを参照して、上記最も短い通話時間に対応するアドレス情報を記憶制御部14に送るとともに、上記通話時間に対応する音響信号の要求を示す信号を記憶制御部14に送る(S340)。例えば、図7に示すように、計測した通話時間がT1秒の場合、音響情報処理部20は、対応テーブルを参照して、通話時間T1秒に対応するアドレス情報aを記憶制御部14に送る。
【0167】
記憶制御部14は、上記要求を示す信号と、アドレス情報とに基づいて、記憶部15に記憶されている複数の音響信号のうち、上記アドレス情報に記憶されている音響信号を選択して取得し、音響情報処理部20に送る(S350)。
【0168】
音響情報処理部20は、送られてきた音響信号を受信側重畳部21に送信する。受信側重畳部21は、保持していた受信音声信号と、送られてきた音響信号とを合成し、スピーカ部22に出力する。また、音響情報処理部20は、送られてきた音響信号を送信側重畳部26に送信する。送信側重畳部26は、保持していた送信音声信号と、送られてきた音響信号とを合成し、音声信号符号化部27に出力する(S360)。
【0169】
そして、音響情報処理部20は、計測した通話時間が、対応テーブルに含まれる次に短い通話時間(例えば、T2秒)に達したか否かを判断する(S365)。計測した通話時間が、対応テーブルに含まれる次に短い通話時間に達しない場合には、ステップS350の処理へ移行する。
【0170】
一方、計測した通話時間が、対応テーブルに含まれる次に短い通話時間に達した場合には、対応テーブルを参照して、音響情報処理部20は、対応テーブルを参照して、上記次に短い通話時間に対応するアドレス情報を記憶制御部14に送るとともに、上記通話時間に対応する音響信号の要求を示す信号を記憶制御部14に送る(S370)。
【0171】
記憶制御部14は、上記要求を示す信号と、アドレス情報とに基づいて、記憶部15に記憶されている複数の音響信号のうち、記憶部15のアドレス情報に記憶されている音響信号を選択して取得し、音響情報処理部20に送る(S375)。
【0172】
音響情報処理部20は、送られてきた音響信号を受信側重畳部21に送信する。受信側重畳部21は、保持していた受信音声信号と、送られてきた音響信号とを合成し、スピーカ部22に出力する(S380)。また、音響情報処理部20は、送られてきた音響信号を送信側重畳部26に送信する。送信側重畳部26は、保持していた送信音声信号と、送られてきた音響信号とを合成し、音声信号符号化部27に出力する(S385)。
【0173】
そして、音響情報処理部20は、通話状態が終了したか否かを判断する(S390)。この際、通信制御部13は、通話状態が終了した場合、その旨を示す信号を音響情報処理部20に送る。通話状態が終了していない場合には、ステップS375の処理へ移行する。通話状態が終了した場合には、本変更例の処理は終了する。
【0174】
上述した説明では、対応テーブルには、2つの通話時間が含まれている場合の説明が行われたが、3つ以上の通話時間が含まれている場合も本発明の適用は可能である。
【0175】
このようにして、計測された通話時間が、対応テーブルに含まれる通話時間を経過するごとに、所定の音響信号が選択される。そして、選択された所定の音響信号は、受信音声信号、送信音声信号と合成される。
【0176】
(作用効果)
本実施の形態の携帯電話機1の音響情報処理部20、記憶制御部14は、受信音声信号及び/又は送信音声信号に基づいて、記憶部15に記憶された複数の音響信号のうち、所定の音響信号を選択する。そして、送信側分析部25/受信側分析部19は、受信音声信号又は前記送信音声信号と、上記所定の音響信号とを合成する。
【0177】
このため、通話中の送信音声信号及び/又は受信音声信号の変化に応じて、選択される音響信号が変化することになる。この結果、通話中の送信音声信号及び/又は受信音声信号の変化に応じて、音響信号を変化させることが可能となる。
【0178】
そして、例えば、以下のような選択が行われることにより、通話を盛り上げることが可能となる。
【0179】
音響情報処理部20、記憶制御部14による選択処理の一例は、例えば、以下のとおりである。音響情報処理部20は、通話相手の通信装置との間で、受信音声信号又は送信音声信号の送受信を開始してから現在までの時間である通話時間を計測する。そして、音響情報処理部20、記憶制御部14は、計測した通話時間に基づいて、記憶部15に記憶された複数の音響信号のうち、所定の音響信号を選択する。
【0180】
具体的な一例は、以下のとおりである。記憶部15には、各通話時間と、音響信号を特定する情報とが対応づけられた対応テーブルが記憶されている。音響情報処理部20は、対応テーブルを参照して、計測した通話時間に対応する音響信号を、所定の音響信号として選択するように、記憶制御部14に指示する。記憶制御部14は、上記指示を実行する。
【0181】
このため、例えば、各通話時間が経過するごとに、別の音響信号が選択されて、送信音声信号及び/又は受信音声信号に合成され、別の音響信号が通話音声信号とともに、出力されたり、通話相手の携帯電話機1に送信される。この結果、長い通話となってしまい、通話が単調なものとなってしまっても、突然、別の音響信号を通話者が聞くことになるので、例えば、その音響信号により通話者の気分が変わり、通話の盛り上げに役立つことになる。
【0182】
また、通話者が長く電話することを防止したいと考える場合には、長電話に対する警告となるので、長電話しがちな通話者にとって都合の良い携帯電話機1が提供される。
【0183】
また、特開2002−271494号公報に示される「効果音付加型通話システム」では、当該システムは効果音を電話機の数字キーで選択させる方式のため、一つのジャンルにおける選択可能な効果音等は9種類に限定されている。本実施の形態では、選択される音響信号には、特にそのような限定はない。
【0184】
なお、本実施の形態では、受信音声信号に合成する所定の音響信号の選択処理(及び所定の音響信号と受信音声信号との合成処理)と、送信音声信号に合成する所定の音響信号の選択処理(及び所定の音響信号と送信音声信号との合成処理)とをともに、行っていたが、以下のように変更されてもよい。即ち、受信音声信号に合成する所定の音響信号の選択処理と、送信音声信号に合成する所定の音響信号の選択処理のうち、いずれか一方のみが行われるようにしてもよい。
【0185】
また、上述した実施の形態において、所定の周期ごとに、例えば、音響信号1、音響信号2とが交互に選択されるようにしてもよい。また、上述した対応テーブルを用いて選択処理が行われる場合、通話時間/設定周期を通話時間として、所定の音響信号の選択処理が行われても良い。
【0186】
(実施の形態2の変更例1)
上述した実施の形態2において、以下のように変更されてもよい。本変更例の携帯電話機1の受信側分析部19は、受信音声信号における無音声が連続する時間である無音時間を計測する計測手段でもある。また、携帯電話機1の送信側分析部25は、送信音声信号における無音声が連続する時間である無音時間を計測する計測手段でもある。また、音響情報処理部20、記憶制御部14は、計測された無音時間に基づいて、記憶部15に記憶された複数の音響信号のうち、所定の音響信号を選択する選択手段でもある。
【0187】
音響情報処理部20、記憶制御部14による選択処理の具体的な説明の一例は、以下のとおりである。記憶部15には、無音時間と、音響信号を特定する情報とが対応づけられた対応テーブルが記憶されている。図10は、対応テーブルの一例を示す図である。なお、本変更例の対応テーブルは、実施の形態1、2の対応テーブルと異なるものである。この対応テーブルにおいては、各無音時間と、音響信号の名称と、音響信号を特定する情報(音響信号が記憶されているアドレス情報)とが対応づけられている。
【0188】
音響情報処理部20は、対応テーブルを参照して、計測された無音時間に対応する音響信号を、所定の音響信号として、選択するように記憶制御部14に指示する。記憶制御部14は、上記指示を実行する。
【0189】
(動作)
以下、本変更例の特徴的部分の動作について説明する。図11,12は、上記動作を説明するためのフローチャート図である。本動作では、一例として、対応テーブルには、無音時間1(T3秒)、無音時間2(T4秒)が含まれている場合の説明が行われる。
【0190】
なお、本動作では、特に、音声信号の処理(受信側分析部19に受信音声信号を送られた後、受信側分析部19,受信側重畳部21、音響情報処理部20などで所定の処理が行われて、スピーカ部22から出力される処理、送信側分析部25に送信音声信号が送られた後、送信側分析部25,送信側重畳部26、音響情報処理部20などで所定の処理が行われて、音声信号符号化部27に出力される処理)について説明する。なお、以下に示す処理以外の処理(例えば、画像信号の処理の説明、音声信号と画像信号との合成処理、合成された信号の処理、音声信号と画像信号との分離処理などの処理)は、実施の形態1と同じようにして行われるので、その説明を省略する。
【0191】
先ず、予め、ユーザは、入力部31を用いて、所定の音響信号を特定する情報を入力する。すると、入力された所定の音響信号を特定する情報は、音響情報処理部20に送られる。
【0192】
そして、音声信号復号化部18から、復号化処理が施された受信音声信号が受信側分析部19に送られる。受信側分析部19は、送られてきた受信音声信号において、無音声が連続する時間である無音時間を計測する(S400)。なお、S400の処理は、例えば、通話状態が終了するまで行われる。そして、受信側分析部19は、計測した無音時間を音響情報処理部20に送る。
【0193】
また、受信側分析部19は、無音時間の計測処理を終えた後、受信音声信号を、受信側重畳部21に出力する。受信側重畳部21は、受信音声信号をいったん保持する(S405)。
【0194】
音響情報処理部20は、計測された無音時間が、対応テーブルに含まれる最も短い無音時間(例えば、T3秒)に達したか否かを判断する(S410)。計測された無音時間が、上記無音時間に達しない場合には、音響情報処理部20は、上記所定の音響信号を記憶制御部14、記憶部15を介して、読み出す。そして、音響情報処理部20は、上記所定の音響信号を受信側重畳部21に送信する。受信側重畳部21は、保持していた受信音声信号と、上記所定の音響信号とを合成して、スピーカ部22に出力する(S415)。そして、S410の処理が行われる。
【0195】
一方、計測した無音時間が、上記無音時間に達した場合には、音響情報処理部20は、以下の処理を行う。
【0196】
音響情報処理部20は、対応テーブルを参照して、上記無音時間に対応するアドレス情報を記憶制御部14に送るとともに、無音時間に対応する音響信号の要求を示す信号を記憶制御部14に送る(S420)。例えば、図10に示すように、計測した通話時間がT3秒の場合、音響情報処理部20は、対応テーブルを参照して、無音時間T3秒に対応するアドレス情報cを記憶制御部14に送る。
【0197】
記憶制御部14は、上記要求を示す信号と、アドレス情報とに基づいて、記憶部15に記憶されている複数の音響信号のうち、上記アドレス情報に記憶されている音響信号を選択して取得し、音響情報処理部20に送る(S425)。
【0198】
音響情報処理部20は、送られてきた音響信号を受信側重畳部21に送信する。受信側重畳部21は、保持していた受信音声信号と、送られてきた音響信号とを合成し、スピーカ部22に出力する(S430)。
【0199】
そして、音響情報処理部20は、一定時間経過後、受信側分析部19にアクセスして、無音時間が継続しているか否かを判断する(S435)。
【0200】
無音時間が継続していない場合、音響情報処理部20は、選択して取得された音響信号を受信側重畳部21に送信するのを中断する。そして、音響情報処理部20は、上記所定の音響信号を記憶制御部14、記憶部15を介して、読み出す。そして、音響情報処理部20は、上記所定の音響信号を受信側重畳部21に送信する。受信側重畳部21は、保持していた受信音声信号と、上記所定の音響信号とを合成して、スピーカ部22に出力する(S440)。そして、S410の処理が行われる。
【0201】
無音時間が継続している場合、音響情報処理部20は、計測された無音時間が、対応テーブルに含まれる次に短い無音時間(例えば、T4秒)に達したか否かを判断する(S445)。上記無音時間に達していない場合、S425の処理へ移行する。
【0202】
上記無音時間に達している場合、音響情報処理部20は、対応テーブルを参照して、無音時間に対応するアドレス情報を記憶制御部14に送るとともに、無音時間に対応する音響信号の要求を示す信号を記憶制御部14に送る(S450)。
【0203】
記憶制御部14は、上記要求を示す信号と、アドレス情報とに基づいて、記憶部15に記憶されている複数の音響信号のうち、記憶部15のアドレス情報に記憶されている音響信号を選択して取得し、音響情報処理部20に送る(S455)。
【0204】
音響情報処理部20は、送られてきた音響信号を受信側重畳部21に送信する。受信側重畳部21は、保持していた受信音声信号と、送られてきた音響信号とを合成し、スピーカ部22に出力する(S460)。
【0205】
そして、音響情報処理部20は、一定時間経過後、受信側分析部19にアクセスして、無音時間が継続しているか否かを判断する(S465)。無音時間が継続している場合、S455の処理へ移行する。
【0206】
無音時間が継続していない場合、音響情報処理部20は、選択して取得された音響信号を受信側重畳部21に送信するのを中断する。そして、音響情報処理部20は、上記所定の音響信号を記憶制御部14、記憶部15を介して、読み出す。そして、音響情報処理部20は、上記所定の音響信号を受信側重畳部21に送信する。受信側重畳部21は、保持していた受信音声信号と、上記所定の音響信号とを合成して、スピーカ部22に出力する(S470)。そして、S410の処理が行われる。
【0207】
上述した説明では、対応テーブルには、2つの無音時間が含まれている場合の説明が行われたが、3つ以上の無音時間が含まれている場合も本発明の適用は可能である。
【0208】
このようにして、計測された無音時間が、対応テーブルに含まれる無音時間を経過するごとに、所定の音響信号が選択される。そして、選択された所定の音響信号は、受信音声信号と合成されて、スピーカ部22から出力される。
【0209】
また、上述した説明において、受信を送信に置き換え、スピーカ部22を音声信号符号化部27に置き換えることにより、送信側重畳部26は、計測された無音時間が、対応テーブルに含まれる通話時間を経過するごとに、所定の音響信号が選択される。そして、選択された所定の音響信号は、送信音声信号と合成されて、画像信号符号化部29に出力される。
【0210】
本変更例によれば、受信側分析部19/送信側分析部25は、受信音声信号及び/又は送信音声信号における無音声が連続する時間である無音時間を計測する。そして、音響情報処理部20、記憶制御部14は、計測された無音時間に基づいて、記憶部15に記憶された複数の音響信号のうち、所定の音響信号を選択する。
【0211】
音響情報処理部20、記憶制御部14による選択処理の一例は、例えば、以下のとおりである。記憶部15には、各無音時間と、音響信号を特定する情報とが対応づけられた対応テーブルが記憶されている。音響情報処理部20は、対応テーブルを参照して、計測された無音時間に対応する音響信号を、所定の音響信号として、選択するように記憶制御部に指示する。記憶制御部14は、上記指示を実行する。
【0212】
このため、例えば、各無音時間が経過するごとに、別の音響信号が選択されて、送信音声信号及び/又は受信音声信号に合成され、別の音響信号が通話音声信号とともに、出力されたり、通話相手の携帯電話機1に送信される。この結果、会話が盛り上がらないため、話者の一方又は双方が、声を出さない状態が長く続いても、突然、別の音響信号を通話者が聞くことになるので、例えば、その音響信号により通話者の気分が変わり、通話の盛り上げに役立つことになる。
【0213】
なお、本変更例では、受信音声信号に合成する所定の音響信号の選択処理(及び所定の音響信号と受信音声信号との合成処理)と、送信音声信号に合成する所定の音響信号の選択処理(及び所定の音響信号と送信音声信号との合成処理)とをともに、行っていたが、以下のように変更されてもよい。即ち、受信音声信号に合成する所定の音響信号の選択処理と、送信音声信号に合成する所定の音響信号の選択処理のうち、いずれか一方のみが行われるようにしてもよい。
【0214】
(実施の形態2の変更例2)
また、上述した実施の形態2は、以下のように変更されてもよい。受信側分析部19は、受信音声信号における有音声部分から無音声部分へ変化する回数と、無音声部分から有音声部分へ変化する回数とに基づいて、所定時間内の受信音声信号のテンポに関する情報を、所定時間ごとに、計測する計測手段でもある。送信側分析部25は、送信音声信号における有音声部分から無音声部分へ変化する回数と、無音声部分から有音声部分へ変化する回数とに基づいて、所定時間内の送信音声信号のテンポに関する情報を、所定時間ごとに、計測する計測手段でもある。
【0215】
音響情報処理部20、記憶制御部14は、計測された、所定時間内の受信音声信号及び/又は送信音声信号のテンポに関する情報に基づいて、記憶部15に記憶された複数の音響信号のうち、所定の音響信号を選択する。
【0216】
音響情報処理部20、記憶制御部14による選択処理の具体的な説明は、以下のとおりである。記憶部15には、各テンポに関する情報と、音響信号を特定する情報とが対応づけられた対応テーブルが記憶されている。本変更例の対応テーブルは、実施の形態1,2、実施の形態2の変更例1の対応テーブルと異なる。
【0217】
図13は、本変更例の対応テーブルの一例を示す図である。対応テーブルにおいては、各テンポに関する情報(所定時間の受信音声信号における有音声部分から無音声部分への変化の回数と、所定時間の受信音声信号における無音声部分から有音声部分への変化の回数との和の値)と、音響信号の名称と、アドレス情報(音響信号を特定する情報)とが対応づけられている。以下、上記和の値を、無/有音声回数という。以下、テンポに関する情報の一例として、この無/有音声回数を用いた説明を行う。
【0218】
音響情報処理部20は、対応テーブルを参照して、計測された、所定時間内の前記受信音声信号及び/又は前記送信音声信号のテンポに関する情報に対応する音響信号を、所定の音響信号として、選択するように記憶制御部14に指示する。記憶制御部は、上記指示を実行する。
【0219】
(動作)
以下、本変更例の特徴的部分の動作について説明する。図14は、本動作を説明するためのフローチャート図である。なお、本動作では、特に、音声信号の処理(受信側分析部19に受信音声信号を送られた後、受信側分析部19,受信側重畳部21、音響情報処理部20などで所定の処理が行われて、スピーカ部22から出力される処理、送信側分析部25に送信音声信号が送られた後、送信側分析部25,送信側重畳部26、音響情報処理部20などで所定の処理が行われて、音声信号符号化部27に出力される処理)について説明する。なお、以下に示す処理以外の処理(例えば、画像信号の処理の説明、音声信号と画像信号との合成処理、合成された信号の処理、音声信号と画像信号との分離処理などの処理)は、実施の形態1と同じようにして行われるので、その説明を省略する。
【0220】
音声信号復号化部18から、復号化処理が施された受信音声信号が受信側分析部19に送られる。受信側分析部19は、送られてきた受信音声信号に基づいて、以下の処理を行う。受信音声信号における有音声部分から無音声部分へ変化する回数と、無音声部分から有音声部分へ変化する回数とに基づいて、所定時間内の受信音声信号における無/有音声回数を、所定時間ごとに、計測する(S500)。
【0221】
この処理の具体的な説明は、以下のとおりである。例えば、受信側分析部19は、T分間の受信音声信号のテンポに関する情報を、T分間ごとに、計測する。また、受信側分析部19は、T分間の受信音声信号における無/有音声回数として、T分間の受信音声信号における有音声部分から無音声部分への変化の回数と、T分間の受信音声信号における無音声部分から有音声部分への変化の回数との和の値を計測する。例えば、T分間の受信音声信号における有音声部分から無音声部分への変化の回数が3回であり、無音声部分から有音声部分への変化の回数が7回である場合、受信側分析部19は、T分間の受信音声信号における無/有音声回数として、10回を計測する。そして、受信側分析部19は、受信音声信号における無/有音声回数を音響情報処理部20に送る。
【0222】
また、受信側分析部19は、受信音声信号における無/有音声回数の計測処理を終えた後、所定時間分の受信音声信号を、受信側重畳部21に出力する。受信側重畳部21は、上記所定時間分の受信音声信号をいったん保持する(S505)。
【0223】
音響情報処理部20は、対応テーブルを参照して、受信音声信号における無/有音声回数に対応するアドレス情報を記憶制御部14に送るとともに、音響信号の要求を示す信号を記憶制御部14に送る(S510)。
【0224】
例えば、図13に示すように、受信音声信号における無/有音声回数がX回(B回からC回の間の回数)であった場合、音響情報処理部20は、対応テーブルを参照して、受信音声信号における無/有音声回数に対応するアドレス情報fを記憶制御部14に送る。
【0225】
記憶制御部14は、上記要求を示す信号と、アドレス情報とに基づいて、記憶部15に記憶されている複数の音響信号のうち、上記アドレス情報に記憶されている音響信号を選択して取得し、音響情報処理部20に送る(S515)。
【0226】
音響情報処理部20は、所定時間分の音響信号を受信側重畳部21に送信する。受信側重畳部21は、保持していた受信音声信号と、送られてきた音響信号とを合成し、スピーカ部22に出力する(S520)。
【0227】
このようにして、受信音声信号について、計測されたテンポに関する情報に対応する音響信号が選択される。そして、選択された音響信号は、受信音声信号と合成されて、スピーカ部22から出力される。
【0228】
また、上述した説明において、受信を送信に置き換え、スピーカ部22を音声信号符号化部27に置き換えることにより、送信音声信号について、計測されたテンポに関する情報に対応する音響信号が選択される。そして、選択された音響信号は、送信音声信号と合成されて、音声信号符号化部27に出力される。
【0229】
本変更例の携帯電話機1の受信側分析部19/送信側分析部25は、受信音声信号及び/又は送信音声信号における有音声部分から無音声部分へ変化する回数と、無音声部分から有音声部分へ変化する回数とに基づいて、所定時間内の受信音声信号及び/又は送信音声信号のテンポに関する情報を、所定時間ごとに、計測する。そして、音響情報処理部20、記憶制御部14は、計測された、所定時間内の受信音声信号及び/又は送信音声信号のテンポに関する情報に基づいて、記憶部15に記憶された複数の音響信号のうち、所定の音響信号を選択する。
【0230】
音響情報処理部20、記憶制御部14による選択処理の一例は、例えば、以下のとおりである。記憶部15には、各テンポに関する情報と、音響信号を特定する情報とが対応づけられた対応テーブルが記憶されている。音響情報処理部20は、対応テーブルを参照して、計測された、所定時間内の受信音声信号及び/又は送信音声信号のテンポに関する情報に対応する音響信号を、所定の音響信号として、選択するように記憶制御部14に指示する。記憶制御部14は、上記指示を実行する。
【0231】
このため、例えば、受信音声信号のテンポ又は送信音声信号のテンポに基づいて、別の音響信号が選択されて、送信音声信号及び/又は受信音声信号に合成され、別の音響信号が通話音声信号とともに、出力されたり、通話相手の携帯電話機1に送信される。この結果、話者の一方又は双方の通話のテンポが変わった場合、突然、別の音響信号を通話者が聞くことになるので、例えば、その音響信号により通話者の気分が変わり、通話の盛り上げに役立つことになる。
【0232】
また、対応テーブルに含まれる、各テンポに関する情報に対応する音響信号のテンポは、各テンポに関する情報に対応するテンポであるようにしてもよい。この場合には、通話に関する音声信号のテンポと異なるテンポの音響信号が合成されてしまうような状態がないので、通話の妨げになるという事態が防止される。また、例えば、通話に関する音声信号のテンポに従ったテンポの音響信号が合成されるので、通話者の気分が盛り上がり、通話を盛り上げることも可能となる。
【0233】
なお、本変更例では、受信音声信号に合成する所定の音響信号の選択処理(及び所定の音響信号と受信音声信号との合成処理)と、送信音声信号に合成する所定の音響信号の選択処理(及び所定の音響信号と送信音声信号との合成処理)とをともに、行っていたが、以下のように変更されてもよい。即ち、受信音声信号に合成する所定の音響信号の選択処理と、送信音声信号に合成する所定の音響信号の選択処理のうち、いずれか一方のみが行われるようにしてもよい。
【0234】
また、送信側分析部25により計測された、送信音声信号のテンポに関する情報に基づいて、受信音声信号に合成する音響信号の選択処理と、送信音声信号に合成する音響信号の選択処理とが行われるようにしてもよい。また、受信側分析部19により計測された、受信音声信号のテンポに関する情報に基づいて、受信音声信号に合成する音響信号の選択処理と、送信音声信号に合成する音響信号の選択処理とが行われるようにしてもよい。
【0235】
また、音響情報処理部20は、受信側分析部19により計測された所定時間内の受信音声信号のテンポに関する情報と、所定時間内の送信音声信号のテンポに関する情報とに基づいて、所定時間内の送受信音声信号のテンポに関する情報を、所定時間ごとに、計測してもよい。
【0236】
例えば、音響情報処理部20は、T分間の受信音声信号における無/有音声回数と、T分間の送信音声信号における無/有音声回数と、の平均値を、T分間の送受信音声信号の無/有音声回数として、計測してもよい。
【0237】
(実施の形態2の変更例3)
本変更例では、実施の形態1又はその変更例と、実施の形態2,実施の形態2の変更例1,実施の形態2の変更例2とを組み合わせることも可能である。
【0238】
この場合、実施の形態1又はその変更例では、音響信号の音量値の制御が示されているが、実施の形態2又はその変更例では、所定の音響信号の選択処理が示されている。このため、実施の形態2,その変更例1,2を同時に適用する場合には、実施の形態2に従った場合に選択される所定の音響信号と、実施の形態2の各変更例に従った場合に選択される所定の音響信号とは異なる場合がある。
【0239】
このような場合、例えば、通話時間に基づいて行われる選択処理の優先度を低くし、無音時間に基づいて行われる選択処理の優先度を高くし、テンポに関する情報に基づいて行われる選択処理においては、音響信号の選択処理を行わず、
音響信号のテンポの制御を行うようにしてもよい。これにより、実施の形態1又は、その変更例,実施の形態2、実施の形態2の変更例1,実施の形態2の変更例2を同時に適用することが可能となる。
【0240】
また、実施の形態1又は、その変更例,実施の形態2、実施の形態2の変更例1,実施の形態2の変更例2の機能を同時に有する携帯電話機1の場合、例えば、ユーザが入力部31を用いて、いずれかの機能が実行されるようにする指示を入力できるようにしてもよい。これにより、入力部31に入力された指示に基づいて、携帯電話機1において、実施の形態1又は、その変更例,実施の形態2、実施の形態2の変更例1,実施の形態2の変更例2の機能のうち、いずれかの機能だけが実行されるようにしてもよい。
【0241】
また、実施の形態1又はその変更例、実施の形態2,実施の形態2の変更例1,変更例2のうち、いずれか2以上の機能を同時に適用する場合、例えば、以下のようにして、所定の音響信号が選択され、上記所定の音響信号の音量値が制御されるようにしてもよい。
【0242】
記憶部15には、例えば、受信音声信号の音量値と、受信音声信号のテンポに関する情報(受信音声信号の有/無音声回数)と、送信音声信号の音量値と、送信音声信号のテンポに関する情報(送信音声信号の有/無音声回数)と、通話時間と、音響信号の名称と、アドレス情報(音響信号を特定する情報)と、音響信号の音量値と、音響信号のテンポとが対応づけられている対応テーブルが記憶されている。図15は、上記対応テーブルの一例を示す図である。また、図16は、本変更例の特徴的な動作の概念を説明するためのフローチャート図である。なお、本動作では、特に、音声信号の処理(受信側分析部19に受信音声信号を送られた後、受信側分析部19,受信側重畳部21、音響情報処理部20などで所定の処理が行われる処理、送信側分析部25に送信音声信号が送られた後、送信側分析部25,送信側重畳部26、音響情報処理部20などで所定の処理が行われる処理)について説明する。なお、以下に示す処理以外の処理は、実施の形態1、実施の形態2と同じようにして行われるので、その説明を省略する。
【0243】
そして、受信側分析部19は、受信音声信号の音量値を計測するとともに、受信音声信号の有/無音声回数を計測し、送信側分析部25は、送信音声信号の音量値を計測するとともに、送信音声信号の有/無音声回数を計測し、音響情報処理部20は、通話時間を計測する(S600)。これらの情報は、音響情報処理部20に送られる。
【0244】
音響情報処理部20は、対応テーブルを参照して、これらの情報に対応する音響信号を選択して取得するように記憶制御部14に指示する。記憶制御部14は、上記指示を実行して、計測された、これらの情報に対応する音響信号を音響情報処理部20に送る。また、音響情報処理部20は、対応テーブルを参照して、上記これらの情報に対応する音響信号の音量値、テンポ値を取得する(S610)。そして、音響情報処理部20は、取得した音量値、テンポ値になるように、取得した音響信号を制御した後、受信側重畳部21、送信側重畳部26に出力する(S620)。そして、受信側重畳部21、保持していた受信音声信号と、出力された音響信号とを合成する。送信側重畳部26は、保持していた送信音声信号と、出力された音響信号とを合成する。その後の処理は、実施の形態2の場合と同じである。
【0245】
例えば、受信音声信号の音量値がA1(dB)、受信音声信号の有/無音声回数がa1(回)、送信音声信号の音量値がA2(dB)、送信音声信号の有/無音声回数がa2(回),通話時間がα1秒であるとする。
【0246】
この場合、音響情報処理部20は、対応テーブルを参照して、これらの情報(受信音声信号の音量値がA1(dB)、受信音声信号の有/無音声回数がa1(回)、送信音声信号の音量値がA2(dB)、送信音声信号の有/無音声回数がa2(回),通話時間がα1秒)に対応する音響信号に関する情報を取得する。
【0247】
音響信号に関する情報とは、例えば、アドレス情報(アドレスa3),音響信号の音量値(例えば、α2(dB))、音響信号のテンポ値(例えば、α3(BPM))である。
【0248】
そして、音響情報処理部20は、アドレス情報に基づいて、記憶制御部14を介して、記憶部15から、上記音響信号(例えば、音響信号A)を取得する。そして、音響情報処理部20は、取得した音量値(例えば、α2(dB))、テンポ値(例えば、α3(BPM))になるように、取得した音響信号を制御した後、受信側重畳部21、送信側重畳部26に出力する。
【0249】
なお、音響情報処理部20は、取得した音響信号を制御した後、受信側重畳部21及び送信側重畳部26に出力するようにしてもよいし、受信側重畳部21及び送信側重畳部26のうち、いずれか一方のみに出力するようにしてもよい。
【0250】
(実施の形態1,2の変更例1)
図17は、本変更例の携帯電話機の構成を示す図である。携帯電話機1には、対応テーブル、音響情報を記憶する記憶装置から、対応テーブル、音響情報を取得する取得手段として、情報通信部32が設けられても良い。
【0251】
例えば、情報通信部32は、1又は複数の音響情報、1又は複数の対応テーブルを格納する記憶装置から、例えば、近距離無線通信、赤外線通信を介して、1又は複数の音響情報、1又は複数の対応テーブルを取得する。取得された1又は複数の音響情報、1又は複数の対応テーブルは、記憶制御部14を介して、記憶部15に送られる。
【0252】
なお、情報通信部32は、ICカードインターフェイス部であってもよい。そして、ICカードインターフェイス部は、対応テーブル、音響情報が記録されたICカードから、対応テーブル、音響情報を読み出し、取得するようにしてもよい。
【0253】
(実施の形態1,2の変更例2)
また、入力部31には、ユーザにより、対応テーブルに含まれる情報、対応テーブルの書き換え要求を示す情報が入力されてもよい。
【0254】
そして、入力部31に入力された対応テーブルに含まれる情報、上記書き換え要求は、記憶制御部14に送られる。記憶制御部14は、上記対応テーブルに含まれる情報と、上記書き換え要求とに基づいて、記憶部15から対応テーブルを読み出し、対応テーブルに含まれる情報のうち、入力部31に入力された、対応テーブルに含まれる情報に対応する情報の書き換え処理を行うようにしてもよい。
【0255】
本変更例によれば、音響信号の変更があった場合や、音響信号に対応する情報が変化したような場合でも、速やかに対応できる。
【0256】
従って、特開2002−271494号公報に示される「効果音付加型通話システム」では、選択操作簡略化のためには、予めどの番号かどの効果音に対応するかの信号を発呼者に知らせておく必要があるが、仮に対応信号や効果音の内容に変更があった場合、変更した信号を発呼者に知らせなければならず、多大な労力を必要とする。また、特開2002−51116号公報に示される移動体通信装置においても、記憶されている効果音データとテンキーの対応が、固定的に割り付けてあるために、対応内容を変更することができない。本変更例によれば、音響信号の変更があった場合や、音響信号に対応する情報が変化したような場合でも、速やかに対応できる。
【0257】
(実施の形態1,2の変更例3)
上述した実施の形態1,2、各変更例では、通話相手の電話機として、携帯電話機1を用いて説明したが、本発明では、これに限定されない。例えば、通信相手の電話機は、固定電話機であってもよい。この場合、交換装置5は、固定電話網の交換装置5と接続されている。携帯電話機1と、固定電話機との間のデータ通信は、従来技術と同様にして行われる。
【0258】
なお、上述した実施の形態1,2、その各変更例においては、音声信号(送信音声信号と音響信号とが合成された音声信号、受信音声信号と音響信号とが合成された音声信号)と画像信号とが合成された信号が、通話中の携帯電話機間(又は携帯電話機と固定電話機との間)でやりとりされる場合の説明が行われたが、本発明は、この場合に限定されることはない。例えば、通話中の携帯電話機間(又は携帯電話機と固定電話機との間)で、音声信号(送信音声信号と音響信号とが合成された音声信号、受信音声信号と音響信号とが合成された音声信号)だけがやりとりされてもよい。
【0259】
この場合には、図2に示す携帯電話機において、画像信号に関する処理を行う機能部(ディスプレイ部18、撮影部28、画像信号復号化部17、画像信号符号化部29、分離化部16,多重化部30)が存在しない。そして、音声信号復号化部18は直接、無線受信部11から音声信号を取得し、音声信号符号化部29は直接、無線送信部12に音声信号を送る。
【0260】
【発明の効果】
以上説明したように、本発明によれば、通話中の送信音声信号及び/又は受信音声信号の変化に応じて、音響信号を変化させることにより、通話の妨げになることを防止するか、又は、通話を盛り上げることができる。この結果、音声会話の雰囲気を盛り上げ、活性化させることが可能になる。
【図面の簡単な説明】
【図1】 実施の形態1の通信システムの構成を示す図である。
【図2】 実施の形態1の携帯電話機の構成を示す図である。
【図3】 実施の形態1の対応テーブルの一例を示す図である。
【図4】 実施の形態1の通信方法の説明を補足するための図である。
【図5】 実施の形態1の通信方法の一部を説明するためのフローチャート図である。
【図6】 実施の形態1の通信方法の一部を説明するためのフローチャート図である。
【図7】 実施の形態2の対応テーブルの一例を示す図である。
【図8】 実施の形態2の携帯電話機の動作の一部を説明するためのフローチャート図である。
【図9】 実施の形態2の携帯電話機の動作の一部を説明するためのフローチャート図である。
【図10】 実施の形態2の変更例1の対応テーブルの一例を示す図である。
【図11】 実施の形態2の変更例1の携帯電話機の動作の一部を説明するためのフローチャート図である。
【図12】 実施の形態2の変更例1の携帯電話機の動作の一部を説明するためのフローチャート図である。
【図13】 実施の形態2の変更例2の対応テーブルの一例を示す図である。
【図14】 実施の形態2の変更例2の携帯電話機の動作の一部を説明するためのフローチャート図である。
【図15】 実施の形態2の変更例3の対応テーブルの一例を示す図である。
【図16】 実施の形態2の変更例3の携帯電話機の動作の一部を説明するためのフローチャート図である。
【図17】 実施の形態1、2の変更例1の携帯電話機の構成を示す図である。
【符号の説明】
1 携帯電話機、4 基地局、5 交換装置、6 情報提供サーバ装置、11無線受信部、12 無線送信部、13 通信制御部、14 記憶制御部、15記憶部、16 分離化部、17 画像信号復号化部、18 ディスプレイ部、19 受信側分析部、20 音響情報処理部、21 受信側重畳部、22 スピーカ部、23 マイク部、24 ノイズキャンセリング部、25 送信側分析部、26 送信側重畳部、27 音声信号符号化部、28 撮影部、29 画像信号符号化部、30 多重化部、31 入力部、32 情報通信部。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a portable communication device and a communication method.
[0002]
[Prior art]
Currently provided third-generation digital cellular phone systems are capable of broadband signal transmission capable of moving image transmission. However, a system related to voice transmission is designed for the purpose of improving as much as possible the clarity of the voice to be heard by the other party. In addition, a voice signal processing technique (noise canceling technique) is applied to remove and suppress noise around the speaker (this is called background noise) as much as possible during voice call transmission. For this reason, although it is difficult to faithfully reproduce voice and music, a relatively clear voice call is possible even when using a mobile phone in a busy place such as a downtown area, a car or a train.
[0003]
Conventionally, in the “sound effect addition type call system”, the following call system has been proposed (see Patent Document 1). In this prior art, a sound effect is provided to a normal call by adding a sound effect server as a third speaker to the call between the calling party and the called party, and providing the sound effect from the sound effect server. Inserted. As a result, not only two talking voices but also various contents are included in the call, so that the conversation by the user's telephone is more exciting. According to this, it is not necessary to prepare a sound source in advance on the telephone side and a selection range as a sound source is widened, compared to a method of transmitting sound effects from a telephone mouthpiece. Arbitrary music can be acquired by communication.
[0004]
Conventionally, there has been proposed a mobile communication device that transmits a sound effect desired by a user at a desired timing in a voice call using a mobile phone (see Patent Document 2). In this prior art, by operating a sound effect sending button provided on the panel surface of the mobile phone, the sound effect data read from the storage device and the sound data are synthesized and transmitted by the sound effect mixer. Is done. For this reason, since a sound effect is appropriately inserted at an arbitrary timing by the user during the conversation, the conversation is not interrupted for sending the sound effect. In addition, when the user operates a predetermined numeric keypad, sound effect data is read from an address (address in the storage unit) corresponding to the operated numeric keypad. As a result, various sound effects can be transmitted with a simple operation.
[0005]
[Patent Document 1]
JP 2002-271494 A
[0006]
[Patent Document 2]
JP 2002-51116 A
[0007]
[Problems to be solved by the invention]
However, the above-described conventional technique has the following problems. The system related to voice call transmission is designed to improve the intelligibility of the voice to be heard by the other party as much as possible. For this reason, conventionally, transmission of sound other than conversation, such as singing voices and music, background sounds of natural sounds (birds and insects, sounds of water, etc.) and sound effects has not been considered. For this reason, these sounds may be distorted or heard like noise on the receiver side. Furthermore, since the background noise of the place where the speaker is located is eliminated or suppressed by applying the noise canceling technique, a relatively clear voice call is possible even in a busy place. However, when a call is made to enjoy the conversation, the mismatch between the speaker's acoustic surroundings and the listener's acoustic surroundings becomes significant, and the conversation becomes monotonous or continues. There was a situation where it was difficult to make it happen.
[0008]
In other words, in the above-described prior art, an acoustic signal (such as a sound effect or a background sound) to be synthesized with a transmission audio signal or a reception audio signal is constant regardless of the transmission audio signal or the reception audio signal. The volume and tempo of the acoustic signal were constant. For this reason, it has been impossible to prevent the call from being disturbed or to raise the call by changing the acoustic signal according to the change in the transmission voice signal or the reception voice signal during the call.
[0009]
The present invention has been made in order to solve the above-described problems, and disturbs a call by changing an acoustic signal according to a change in a transmission voice signal and / or a reception voice signal during a call. It is an object of the present invention to provide a portable communication device and a communication method that can prevent the communication from occurring or increase the conversation.
[0010]
[Means for Solving the Problems]
The mobile phone of the present invention is a received audio signal that is an audio signal received from the communication device of the other party, or an acoustic signal to be combined with a transmission audio signal that is an audio signal transmitted to the communication device of the other party. The received voice signal and / or the transmitted voice signal is output when synthesized with the received voice signal or when the acoustic signal is synthesized with the transmitted voice signal and transmitted to the communication device of the other party. And a control means for controlling an acoustic signal to be synthesized with the transmission voice signal and / or the reception voice signal.
[0011]
For this reason, it is possible to perform control such that the acoustic signal is changed according to the change of the transmission voice signal and / or the reception voice signal during the call. For example, by controlling the sound volume as described below, it is possible to prevent the sound signal from interfering with the call or to increase the call.
[0012]
The mobile phone according to the present invention includes a measuring unit that measures the volume of the received audio signal and / or the transmitted audio signal according to a time series in the above invention, and the control unit is measured by the measuring unit. Based on the volume of the received audio signal and / or the transmitted audio signal, the volume of the acoustic signal combined with the transmitted audio signal and / or the received audio signal can be controlled.
[0013]
As a specific example of this control, for example, the mobile phone of the present invention includes a first volume value calculated according to a predetermined relational expression based on the volume of the received audio signal and / or the transmitted audio signal, and the reception Storage means for storing a correspondence table in which a second volume value that is an actual volume value of an audio signal and / or an acoustic signal to be synthesized with the transmission audio signal is associated; and the reception measured by the measurement means Based on the volume of the audio signal and / or the transmission audio signal, a first volume value is calculated according to the predetermined relational expression, and the first volume value is calculated based on the calculated first volume value and the correspondence table. Acquisition means for acquiring a second volume value corresponding to the volume value, and the control means is configured to obtain the transmission sound signal and / or the reception sound so as to be the second volume value acquired by the acquisition means. signal It may be controlled the volume of the synthesized sound signal.
[0014]
As a result, for example, when the volume of the received voice signal transmitted from the other party or the volume of the transmitted voice signal transmitted to the other party is high, the sound signal or the transmitted voice signal to be synthesized with the received voice signal is used. Control can be performed so that the volume of the acoustic signal for synthesis is increased. Also, for example, when the volume of the received voice signal sent from the other party or the volume of the transmitted voice signal transmitted to the other party is low, the volume is synthesized with the acoustic signal or the transmitted voice signal to be synthesized with the received voice signal. Therefore, it is possible to control the volume of the sound signal to be low.
[0015]
Thereby, for example, even if a voice signal (transmission voice signal, reception voice signal) related to a call changes, the voice signal related to the call is preferentially output or transmitted to the mobile phone 1 of the other party. It is possible to prevent the situation from becoming an obstacle.
[0016]
Also, for example, based on the larger volume value of the volume of the received audio signal sent from the other party and the volume of the transmitted audio signal sent to the other party, it is synthesized into the transmitted audio signal and the received audio signal. It is also possible to control the volume of the acoustic signal for the purpose. As a result, for example, even if a voice signal related to a call (transmission voice signal, reception voice signal) changes, the volume of the acoustic signal is controlled based on the voice signal having a large volume. Can be output with priority, or can be transmitted to the mobile phone 1 of the other party. As a result, it is possible to excite the call.
[0017]
Further, according to the present invention, for example, by controlling the tempo as described below, it is possible to prevent an acoustic signal from interfering with a call or to increase the call.
[0018]
The mobile phone of the present invention is based on the number of times that the received voice signal and / or the transmitted voice signal changes from a voiced portion to a voiceless portion and the number of times that the voiceless portion changes to a voiced portion. And measuring means for measuring information on the tempo of the received audio signal and / or the transmitted audio signal within a predetermined time every predetermined time, and the control means is measured by the measuring means, Based on information on the tempo of the received audio signal and / or the transmitted audio signal within a predetermined time, the tempo of the acoustic signal synthesized with the transmitted audio signal and / or the received audio signal can be controlled.
[0019]
As a result, for example, in order to synthesize the received audio signal to the tempo of the received audio signal sent from the other party or the tempo of the transmitted audio signal transmitted to the other party, The tempo of the acoustic signal for synthesis can be controlled.
[0020]
As a result, there is no state in which an acoustic signal having a tempo different from the tempo of the audio signal related to the call is synthesized, so that a situation in which the call is hindered is prevented. In addition, for example, an acoustic signal having a tempo in accordance with the tempo of an audio signal related to a call is synthesized, so that the call can be excited.
[0021]
Further, the present invention provides an audio signal for synthesizing a received audio signal that is an audio signal received from a communication device of a communication partner or a transmission audio signal that is an audio signal transmitted to the communication device of the communication partner. A portable communication device that synthesizes and outputs a received voice signal, or synthesizes the acoustic signal with the transmitted voice signal and transmits the synthesized signal to the communication device of the other party, and stores a plurality of acoustic signals Means, a selection means for selecting a predetermined acoustic signal among a plurality of acoustic signals stored in the storage means based on the received audio signal and / or the transmitted audio signal, and the received audio signal or the transmission It has a synthesizing means for synthesizing the audio signal and the predetermined acoustic signal.
[0022]
For this reason, the selected acoustic signal changes according to the change of the transmission voice signal and / or the reception voice signal during the call. As a result, it is possible to change the acoustic signal in accordance with changes in the transmission voice signal and / or the reception voice signal during a call.
[0023]
Then, for example, the following selection is performed, so that the call can be excited.
[0024]
The present invention, in the above invention, has a measuring means for measuring a call time which is a time from the start of transmission / reception of the reception voice signal or the transmission voice signal to / from a communication apparatus of a call partner. The selection unit can also select a predetermined acoustic signal from among the plurality of acoustic signals stored in the storage unit based on the call time measured by the measurement unit.
[0025]
As a specific example of this selection, in the present invention, the present invention includes a storage unit that stores a correspondence table in which each call time is associated with information for specifying an acoustic signal. With reference to the correspondence table, an acoustic signal corresponding to the call time measured by the measuring means may be selected as the predetermined acoustic signal.
[0026]
For this reason, for example, as each call time elapses, another acoustic signal is selected and synthesized with a transmission voice signal and / or a reception voice signal, and another acoustic signal is output together with the call voice signal, Sent to the mobile phone of the other party. As a result, even if the call becomes long and the call becomes monotonous, the caller suddenly hears another sound signal. For example, the sound of the caller changes depending on the sound signal. , Will help to boost the conversation.
[0027]
In addition, for example, the following selection can be performed to increase the conversation.
[0028]
In the above invention, the present invention includes a measurement unit that measures a silent time, which is a time during which silence in the reception voice signal and / or the transmission voice signal continues, and the selection unit is measured by the measurement unit. Based on the silent time, a predetermined acoustic signal can be selected from the plurality of acoustic signals stored in the storage means.
[0029]
As a specific example of this selection, the present invention has a storage means for storing a correspondence table in which each silence time and information for specifying an acoustic signal are associated with each other in the above invention, and the selection means includes: With reference to the correspondence table, an acoustic signal corresponding to the silent time measured by the measuring means may be selected as the predetermined acoustic signal.
[0030]
For this reason, for example, as each silent time elapses, another acoustic signal is selected and synthesized with the transmission voice signal and / or the reception voice signal, and the other acoustic signal is output together with the call voice signal. It is transmitted to the mobile phone 1 of the other party. As a result, since the conversation does not rise, even if one or both of the speakers does not speak for a long time, the caller suddenly hears another acoustic signal. The caller's mood will change and it will help boost the call.
[0031]
In addition, for example, the following selection can be performed to increase the conversation.
[0032]
According to the present invention, in the above invention, a predetermined number of times is determined based on the number of times the voiced portion is changed to the voiceless portion and the number of times the voiced portion is changed to the voiced portion in the received voice signal and / or the transmitted voice signal. And measuring means for measuring information on the tempo of the received audio signal and / or the transmitted audio signal within a predetermined time interval, and the selecting means is within the predetermined time period measured by the measuring means. A predetermined acoustic signal can be selected from among the plurality of acoustic signals stored in the storage means based on the received audio signal and / or information on the tempo of the transmitted audio signal.
[0033]
As a specific example of this selection, the present invention includes a storage means for storing a correspondence table in which information on each tempo and information for specifying an acoustic signal are associated with each other in the above invention, , Referring to the correspondence table, an acoustic signal corresponding to information about the tempo of the received audio signal and / or the transmitted audio signal within the predetermined time, which is measured by the measuring means, is used as the predetermined acoustic signal. , May be selected.
[0034]
For this reason, for example, another acoustic signal is selected based on the tempo of the reception voice signal or the tempo of the transmission voice signal, and is synthesized with the transmission voice signal and / or the reception voice signal. At the same time, it is output or transmitted to the mobile phone 1 of the other party. As a result, when the tempo of the call of one or both of the speakers changes, the caller suddenly listens to another acoustic signal. Will be helpful.
[0035]
In the mobile phone of the present invention, in the above invention, an acquisition unit that acquires the correspondence table from a storage device that stores the correspondence table, and the correspondence table acquired by the acquisition unit are stored in the storage unit. And a storage control means. For this reason, since the user of the mobile phone can save the trouble of creating the correspondence table by himself, the trouble of the user can be reduced.
[0036]
In the mobile phone according to the present invention, in the above invention, the storage means is based on input means for inputting information included in the correspondence table, and information included in the correspondence table input by the input means. And a rewriting means for rewriting the correspondence table stored therein. For this reason, even when there is a change in the acoustic signal or when information corresponding to the acoustic signal is changed, it is possible to respond quickly.
[0037]
The present invention can also be realized as a communication method. In this case, the present invention provides a received audio signal that is an audio signal received from the communication device of the other party, or an acoustic signal to be synthesized with a transmission audio signal that is an audio signal to be transmitted to the communication device of the other party. A communication method of synthesizing and outputting the received audio signal and outputting or synthesizing the acoustic signal with the transmitted audio signal and transmitting the synthesized audio signal to the communication device of the other party, wherein the received audio signal and / or the Based on the transmission audio signal, an acoustic signal synthesized with the transmission audio signal and / or the reception audio signal is controlled.
[0038]
Further, the present invention provides an audio signal for synthesizing a received audio signal that is an audio signal received from a communication device of a communication partner or a transmission audio signal that is an audio signal transmitted to the communication device of the communication partner. A communication method for synthesizing and outputting a received audio signal and outputting or synthesizing the acoustic signal with the transmitted audio signal and transmitting the synthesized audio signal to the communication device of the other party, storing a plurality of acoustic signals in a storage means Selecting a predetermined acoustic signal from among the plurality of acoustic signals stored in the storage unit based on the received audio signal and / or the transmitted audio signal, and the received audio signal or the transmission And a step of synthesizing the audio signal and the predetermined acoustic signal.
[0039]
DETAILED DESCRIPTION OF THE INVENTION
Embodiment 1
FIG. 1 is a diagram illustrating a configuration of a communication system according to the present embodiment. The communication system includes a mobile phone 1 (mobile communication device), a base station 4 that performs wireless communication with the mobile phone 1, a switching device 5 connected to the base station 4, a switching device 5 and a public network (IP communication network). The information providing server device 6 is also connected via, for example, the Internet. Here, the base station 4 and the exchange device 5 constitute a digital cellular phone network unit.
[0040]
In the present embodiment, a mobile phone 1 (for example, a mobile phone) is described as an example of the mobile communication device, but the present invention is not limited to this. For example, the mobile communication device may be a mobile terminal device (a device that can exchange voice and images between two parties).
[0041]
The mobile phone 1 is a sound for synthesizing a received voice signal that is a voice signal received from the mobile phone 1 (communication device) of the call partner or a transmission voice signal that is a voice signal transmitted to the mobile phone 1 of the call partner. This is a mobile communication device that synthesizes a signal with a received voice signal and outputs it, or synthesizes the acoustic signal with the transmission voice signal and transmits it to the mobile phone 1 of the other party.
[0042]
The acoustic signal here is, for example, a signal added to the voice signal of the caller, for example, a voice signal such as music, a natural sound (bird cry, river flowing sound), This is a so-called sound effect signal or background sound signal.
[0043]
FIG. 2 is a diagram showing a configuration of the mobile phone 1 according to the present embodiment. The cellular phone 1 includes a wireless reception unit 11, a wireless transmission unit 12, and a communication control unit 13. The wireless reception unit 11 receives various data transmitted from the base station 4 via wireless communication. Specifically, the wireless reception unit 11 demodulates a wireless signal transmitted from a wireless communication path set with the base station 4 to generate a digital bit string signal.
[0044]
The wireless transmission unit 12 transmits various data to the base station 4 via wireless communication. Specifically, the radio transmission unit 12 modulates the digital bit string signal output from the multiplexing unit 30 or the like, and transmits the modulated digital bit string signal as a radio signal to the base station 4 via the radio communication path. .
[0045]
The communication control unit 13, the wireless reception unit 11, and the wireless transmission unit 12 have a wireless Internet connection communication function. This function will be described in detail below. The communication control unit 13 performs setting processing for a communication path between the wireless transmission unit 12 and the wireless reception unit 11 and the information providing server device 6. With this setting process, the wireless transmission unit 12 and the wireless reception unit 11 can perform data communication with the information providing server device 6. For example, the wireless transmission unit 12 sends requests for a plurality of pieces of acoustic information and list information (or service menu information) in a plurality of correspondence tables via communication paths set in the digital mobile phone network unit and the public network. It transmits to the providing server device 6. The correspondence table will be described later.
[0046]
Based on the request, the information providing server device 6 transmits the list information described above to the wireless reception unit 11 via a communication path set in the digital cellular phone network unit and the public network. The wireless transmission unit 12 transmits a predetermined acoustic information and a request for a predetermined correspondence table to the information providing server device 6 through the communication path. The information providing server device 6 transmits the predetermined acoustic information and the predetermined correspondence table to the communication control unit via the communication path and the wireless reception unit 11 based on the predetermined acoustic information and the request for the predetermined correspondence table. 13 to send. When the communication control unit 13 sends the predetermined acoustic information and the predetermined correspondence table to the storage control unit 14, the storage control unit 14 causes the storage unit 15 to store the predetermined acoustic information and the predetermined correspondence table.
[0047]
In the present embodiment, as an example, a case where one correspondence table (to be described later) and a plurality of acoustic signals are stored in the storage unit 15 will be described.
[0048]
For example, the list information can be obtained by a user (for example, the owner of the mobile phone 1) performing a predetermined input operation using the input unit 31 (such as a keyboard) based on the display displayed on the display unit 18. Request, predetermined acoustic information, and correspondence table are selected.
[0049]
In addition, the communication control unit 13 performs setting processing of a communication path between the wireless transmission unit 12 and the wireless reception unit 11 and the mobile phone 1 of the communication partner. By this setting process, the wireless transmission unit 12 and the wireless reception unit 11 can perform data communication with the mobile phone 1 of the other party. Thereby, the communication control part 13, the radio | wireless receiving part 11, and the radio | wireless transmission part 12 can perform the transmission and reception of a call signal via the communication path set to the digital mobile telephone network part.
[0050]
In the process of setting the communication path between the wireless transmission unit 12 and the wireless reception unit 11 and the mobile phone 1 of the other party, for example, the user inputs based on the display displayed on the display unit 18. A predetermined input operation is performed using the unit 31 (keyboard or the like).
[0051]
For example, when the user of the mobile phone 1 uses the input unit 31 to input the telephone number of the other party's mobile phone 1 and then presses the off-hook button, a call setting signal is transmitted to the other party's mobile phone 1. The When the caller's mobile phone 1 obtains the call setting signal, it transmits a response signal to the user's mobile phone 1. When the user's mobile phone 1 acquires the response signal, a communication path between the user's mobile phone 1 and the mobile phone 1 of the other party is set, and the call state is entered. Further, for example, when the user of the mobile phone 1 uses the input unit 31 and presses an on-hook button during a call, a disconnect signal is transmitted to the mobile phone 1 of the other party. When the other party's mobile phone 1 obtains the disconnection signal, it transmits a response signal to the user's mobile phone 1. When the user's mobile phone 1 acquires the response signal, the setting of the communication path between the user's mobile phone 1 and the mobile phone 1 of the call partner is canceled, and the call state ends.
[0052]
The communication control unit 13 monitors whether or not a communication path between the user's mobile phone 1 and the mobile phone 1 of the call partner is set and is in a call state. When the communication control unit 13 is in a call state between the mobile phone 1 and the mobile phone 1 of the other party, the communication information processing unit 20, the reception side superposition unit 21, the reception side analysis unit 19, and the transmission When the side analysis unit 25 and the transmission side superimposition unit 26 are controlled to operate and are not in a call state, the acoustic information processing unit 20, the reception side superposition unit 21, the reception side analysis unit 19, the transmission side analysis unit 25, and the transmission Control is performed so that the side superposition unit 26 does not operate.
[0053]
In addition, the mobile phone 1 includes a storage control unit 14 and a storage unit 15. The storage control unit 14 is also an acquisition unit that acquires the correspondence table and the acoustic information from the information providing server device 6 (storage device) that stores the correspondence table and the acoustic information. Specifically, the storage control unit 14 acquires the correspondence table and the plurality of acoustic information transmitted from the information providing server device 6 via the communication control unit 13.
[0054]
The storage control unit 14 causes the storage unit 15 to store the correspondence table and the plurality of acoustic information transmitted from the communication control unit 13. Further, the storage control unit 14 manages address information (address information in the storage unit 15) of each acoustic information stored in the storage unit 15. And if the request signal of the acoustic information memorize | stored in predetermined address information is acquired from the acoustic information processing part 20, the storage control part 14 will be based on the said predetermined address information of the memory | storage part 15 based on the said request signal. The stored acoustic information is acquired and sent to the acoustic information processing unit 20.
[0055]
The storage unit 15 stores a correspondence table and a plurality of acoustic information. An example of the correspondence table is as follows. In the correspondence table, the first sound volume value calculated according to a predetermined relational expression based on the sound volume of the received sound signal and / or the transmitted sound signal, and the actual sound signal synthesized with the received sound signal and / or the transmitted sound signal. A second volume value, which is a volume value, is associated with the volume value. FIG. 3 is a diagram illustrating an example of the correspondence table.
[0056]
When the separating unit 16 acquires the digital bit string signal output from the wireless receiving unit 11, the separating unit 16 encodes an encoded audio signal (hereinafter referred to as a received audio signal) and an encoded image signal based on the digital bit string signal. (Hereinafter, “received image signal”). Then, the separation unit 16 outputs the encoded received speech signal to the speech signal decoding unit 18. Further, the separation unit 16 outputs the encoded received image signal to the image signal decoding unit 17.
[0057]
When the image signal decoding unit 17 acquires the reception image signal sent from the separation unit 16, the image signal decoding unit 17 performs a decoding process on the reception image signal. Then, the image signal decoding unit 17 outputs the decoded received image signal to the display unit 18.
[0058]
When the display unit 18 acquires the decoded received image signal, the display unit 18 displays an image based on the received image signal to the user.
[0059]
When the audio signal decoding unit 18 acquires the encoded received audio signal, the audio signal decoding unit 18 performs a decoding process on the received audio signal. Then, the audio signal decoding unit 18 outputs the decoded reception audio signal to the reception side analysis unit 19.
[0060]
When the mobile phone 1 is not in a talking state with the mobile phone 1 of the other party, the reception side analysis unit 19 outputs the decoded received voice signal to the reception side superposition unit 21 as it is. On the other hand, the receiving side analysis part 19 performs the following processes, when the mobile phone 1 is in a call state with the mobile phone 1 of the other party. That is, the receiving side analysis unit 19 performs analysis processing based on the received reception audio signal. Here, the receiving side analysis part 19 measures the volume of a received audio | voice signal according to a time series. That is, the receiving side analysis unit 19 is a measuring unit that measures the volume of the received audio signal in time series.
[0061]
An example of a specific description of the measurement process by the receiving side analysis unit 19 is as follows. The reception side analysis unit 19 measures the volume value of the received reception audio signal at every predetermined time interval T. For example, the reception side analysis unit 19 measures the average value of the volume of the received audio signal between the time t1 and the predetermined time T as the volume value of the received audio signal between the time t1 and the predetermined time T. Then, the receiving side analysis unit 19 receives the volume value x1 (dB) of the received voice signal between the time t1 and the predetermined time T, the volume value x2 (dB) of the received voice signal between the time t1 + T and the predetermined time T,. . Measure as follows. The receiving side analysis unit 19 receives the measured sound volume value (for example, the sound volume value x1) and the received sound signal for a predetermined time (for example, T) corresponding to the sound volume value (for example, the time t1 corresponding to the sound volume value x1). To the reception side superimposing unit 21). The reception-side superimposing unit 21 once holds a reception audio signal for a predetermined time corresponding to the measured volume value. Then, the reception side superimposing unit 21 sends the measured volume value to the acoustic information processing unit 20.
[0062]
The acoustic information processing unit 20 is a control unit that controls an acoustic signal to be synthesized with a received voice signal based on the received voice signal. Specifically, for example, the acoustic information processing unit 20 controls the volume of the acoustic signal to be combined with the received audio signal based on the volume of the received audio signal measured by the receiving side analysis unit 19.
[0063]
An example of the description of the control function by the acoustic information processing unit 20 is as follows. For example, the acoustic information processing unit 20 calculates the first volume value according to a predetermined relational expression based on the volume of the received audio signal measured by the reception side analysis unit 19, and the calculated first volume value and Also, it is an acquisition means for acquiring a second volume value corresponding to the first volume value based on the correspondence table. Then, the acoustic information processing unit 20 controls the volume of the acoustic signal synthesized with the received voice signal so that the acquired second volume value is obtained.
[0064]
The detailed description of the processing by the acoustic information processing unit 20 is as follows. The acoustic information processing unit 20 acquires a correspondence table from the storage unit 15 via the storage control unit 14. Further, the acoustic information processing unit 20 acquires predetermined acoustic information from the storage unit 15 via the storage control unit 14. The acoustic information processing unit 20 calculates the first volume value based on the measured volume value and a predetermined relational expression.
[0065]
Here, depending on how the predetermined relational expression is set, the acoustic signal can be given priority, the call voice signal can be given priority, and both the acoustic signal and the call voice signal can be given priority appropriately.
[0066]
Here, an example of a calculation method of the first sound volume value by the acoustic information processing unit 20 will be described below. For example, when the volume value of the received audio signal is measured as the volume value b1, and the volume value of the transmission audio signal described later is measured as the volume value a1, the acoustic information processing unit 20 performs the predetermined expression (1) shown below. Based on the relational expression, the first sound volume value z is calculated.
[0067]
z = 0 * a1 + n * b1. . . . . . . . . (1)
Here, n is a weighting coefficient. The value of the weighting coefficient is not particularly limited. It may be a value required for setting the communication system, or may be an appropriate proportionality coefficient (for example, 1/2).
[0068]
Then, the acoustic information processing unit 20 refers to the correspondence table and acquires the second volume value corresponding to the calculated first volume value. For example, when the sound information processing unit 20 calculates the volume value B (dB) as the first volume value, the second volume value b corresponding to the first volume value B is referred to with reference to the correspondence table shown in FIG. (DB) is acquired.
[0069]
Then, the acoustic information processing unit 20 controls the volume of a predetermined acoustic signal for a predetermined time (T) so as to become the second volume value. Then, a predetermined acoustic signal (a predetermined acoustic signal for a predetermined time) whose volume is controlled is sent to the reception side superimposing unit 21.
[0070]
The reception-side superimposing unit 21 synthesizes a reception audio signal for a predetermined time (T) and a predetermined acoustic signal (a predetermined acoustic signal for a predetermined time (T)) whose volume is controlled. A synthesized signal that is a signal obtained by synthesizing the received audio signal and a predetermined acoustic signal is output to the speaker unit 22. The speaker unit 22 performs amplification processing of the synthesized signal, and then outputs the amplified audio signal to the user.
[0071]
A user's voice is input to the microphone unit 23. The microphone unit 23 outputs an audio signal to the noise canceling unit 24 based on the input user's voice.
[0072]
The noise canceling unit 24 performs processing for removing or suppressing signals related to ambient noise in the audio signal. The noise canceling unit 24 sends an audio signal (hereinafter referred to as a transmission audio signal) that has been subjected to removal and suppression processing to the transmission side analysis unit 25.
[0073]
When the mobile phone 1 is not in a call state with the other party's mobile phone 1, the transmission side analysis unit 25 outputs the transmission voice signal as it is to the transmission side superposition unit 26. On the other hand, when the mobile phone 1 is in a call state with the mobile phone 1 of the call partner, the transmission side analysis unit 25 performs the following processing. That is, the transmission side analysis unit 25 performs analysis processing based on the transmitted transmission audio signal. Here, the transmission side analysis part 25 measures the volume of a transmission audio | voice signal according to a time series. That is, the transmission side analysis unit 25 is a measurement unit that measures the volume of the transmission audio signal in time series.
[0074]
An example of a specific description of the measurement process by the transmission side analysis unit 25 is as follows. The transmission side analysis unit 25 measures the volume value of the transmitted transmission audio signal at every predetermined time interval T. For example, the transmission side analysis unit 25 measures the average value of the volume of the transmission voice signal between the time t1 and the predetermined time T as the volume value of the transmission voice signal between the time t1 and the predetermined time T. Then, the transmission side analysis unit 25 transmits the volume value x1 (dB) of the transmission voice signal between the time t1 and the predetermined time T, the volume value x2 (dB) of the transmission voice signal between the time t1 + T and the predetermined time T,. . Measure as follows. The transmission side analysis unit 25 transmits the measured volume value (for example, volume value x1) and a transmission voice signal (for example, the volume value x1) for a predetermined time (for example, T) corresponding to the volume value. To the transmission side superimposing unit 26 during a predetermined time T).
[0075]
The transmission side superimposing unit 26 temporarily holds a transmission audio signal for a predetermined time corresponding to the measured volume value. Then, the transmitting side superimposing unit 26 sends the measured volume value to the acoustic information processing unit 20.
[0076]
The acoustic information processing unit 20 is also a control unit that controls an acoustic signal to be synthesized with the transmission voice signal based on the transmission voice signal. Specifically, for example, the acoustic information processing unit 20 controls the volume of the acoustic signal to be synthesized with the transmission voice signal based on the volume of the transmission voice signal measured by the transmission side analysis unit 25.
[0077]
An example of a detailed description of the control function by the acoustic information processing unit 20 is as follows. For example, the acoustic information processing unit 20 calculates the first volume value according to a predetermined relational expression based on the volume of the transmission audio signal measured by the transmission side analysis unit 25, and the calculated first volume value and Also, it is an acquisition means for acquiring a second volume value corresponding to the first volume value based on the correspondence table. Then, the acoustic information processing unit 20 controls the volume of the acoustic signal to be synthesized with the transmission voice signal so that the acquired second volume value is obtained.
[0078]
The detailed description of the processing by the acoustic information processing unit 20 is as follows. The acoustic information processing unit 20 acquires a correspondence table from the storage unit 15 via the storage control unit 14. Further, the acoustic information processing unit 20 acquires predetermined acoustic information from the storage unit 15 via the storage control unit 14. The acoustic information processing unit 20 calculates the first volume value based on the measured volume value and a predetermined relational expression.
[0079]
Here, an example of a calculation method of the first sound volume value by the acoustic information processing unit 20 will be described below. For example, when the volume value of the received audio signal is measured as the volume value b1 and the volume value of the transmitted audio signal is measured as the volume value a1, the acoustic information processing unit 20 has a predetermined relationship of the following expression (2). Based on the equation, the first volume value z is calculated.
[0080]
z = m * a1 + 0 * b1. . . . . . . . . (2)
Here, m is a weighting coefficient. The value of the weighting coefficient is not particularly limited. It may be a value required for setting the communication system, or may be an appropriate proportionality coefficient (for example, 1/2).
[0081]
Then, the acoustic information processing unit 20 refers to the correspondence table and acquires the second volume value corresponding to the calculated first volume value.
[0082]
Then, the acoustic information processing unit 20 controls the volume of a predetermined acoustic signal for a predetermined time (T) so as to become the second volume value. Then, a predetermined acoustic signal whose volume is controlled (a predetermined acoustic signal for a predetermined time) is sent to the transmission side superimposing unit 26.
[0083]
The transmission side superimposing unit 26 synthesizes a transmission audio signal for a predetermined time (T) and a predetermined acoustic signal (a predetermined acoustic signal for a predetermined time (T)) whose volume is controlled. A synthesized signal that is a signal obtained by synthesizing the transmission voice signal and a predetermined acoustic signal is sent to the voice signal encoding unit 27.
[0084]
The audio signal encoding unit 27 performs an encoding process on the transmitted synthesized signal. The encoded synthesized signal (hereinafter referred to as “transmission synthesized speech signal”) is output to multiplexing section 30.
[0085]
In addition, the mobile phone 1 has a photographing unit 28. The imaging unit 28 captures various images based on a predetermined operation by the user. An image signal (referred to as a transmission image signal) that is a signal indicating an image captured by the imaging unit 28 is sent to the image signal encoding unit 29.
[0086]
The image signal encoding unit 29 performs encoding processing of the transmission image signal sent from the imaging unit 28. The image signal encoding unit 29 sends the transmission image signal subjected to the encoding process to the multiplexing unit 30.
[0087]
The multiplexing unit 30 performs a multiplexing process on the transmission synthesized audio signal transmitted from the audio signal encoding unit 27 and the transmission image signal transmitted from the image signal encoding unit 29, thereby transmitting a transmission digital bit string. Generate a signal. Then, the multiplexing unit 30 outputs the transmission digital bit string signal to the wireless transmission unit 12. The wireless transmission unit 12 transmits the transmission digital bit string signal to the mobile phone 1 of the other party via wireless communication, the base station 4 or the like.
[0088]
Note that the above-described image signal may be a still image signal or a moving image signal.
[0089]
(Communication method)
First, the communication control unit 13 recognizes that a communication path between the user's mobile phone 1 and the user's call partner mobile phone 1 is set and is in a call state. Then, the communication control unit 13 sends an instruction signal instructing the acoustic information processing unit 20, the reception side superimposing unit 21, the reception side analyzing unit 19, the transmission side analyzing unit 25, and the transmission side superimposing unit 26 to operate. Thereby, each part is set in the operable state. In addition, the user inputs information for specifying a predetermined acoustic signal using the input unit 31 in advance. Then, the information specifying the input predetermined acoustic signal is sent to the acoustic information processing unit 20. FIG. 4 is a conceptual diagram for supplementing the description of the communication method.
[0090]
(1) Processing for receiving and outputting a received voice signal from the mobile phone 1 of the other party
FIG. 5 is a flowchart for explaining the above processing. First, a radio signal is transmitted to the radio reception unit 11 from the mobile phone 1 of the communication partner via the base station 4, the exchange device 5, and the base station 4. The wireless reception unit 11 sends the received digital bit string signal to the separation unit 16 (S10). When the separating unit 16 obtains the received digital bit string signal output from the wireless receiving unit 11, the separating unit 16 separates the received digital bit string signal into an encoded received audio signal and an encoded received image signal (S20). ). The demultiplexing unit 16 sends the encoded received audio signal to the audio signal decoding unit 18 and sends the encoded received image signal to the image signal decoding unit 17.
[0091]
When obtaining the encoded received image signal, the image signal decoding unit 17 performs a decoding process on the received image signal (S30). Then, the image signal decoding unit 17 outputs the decoded received image signal to the display unit 18. The display unit 18 displays the decoded received image to the user (S40).
[0092]
In addition, the following processing is performed in parallel with the processing of S30 and S40. When the audio signal decoding unit 18 acquires the encoded received audio signal, the audio signal decoding unit 18 performs a decoding process on the received audio signal (S50). Then, the audio signal decoding unit 18 outputs the decoded reception audio signal to the reception side analysis unit 19.
[0093]
The reception side analysis unit 19 measures the volume value of the received reception audio signal at every predetermined time interval T (S60). For example, the reception side analysis unit 19 measures the average value of the volume of the received audio signal between the time t1 and the predetermined time T. Then, the receiving side analysis unit 19 receives the volume value x1 (dB) of the received voice signal between the time t1 and the predetermined time T, the volume value x2 (dB) of the received voice signal between the time t1 + T and the predetermined time T,. . Measure as follows. The reception side analysis unit 19 outputs the measured volume value and the reception audio signal for a predetermined time (T) to the reception side superposition unit 21.
[0094]
The receiving side superimposing unit 21 once holds the received audio signal for a predetermined time (T) (S70). Then, the reception side superimposing unit 21 sends the measured volume value to the acoustic information processing unit 20. The acoustic information processing unit 20 acquires the correspondence table and the predetermined acoustic information via the storage control unit 14. Then, the acoustic information processing unit 20 calculates the first volume value based on the measured volume value and a predetermined relational expression (S80). The detailed description of the first sound volume value calculation process is as described above.
[0095]
Then, the acoustic information processing unit 20 refers to the correspondence table and acquires a second volume value corresponding to the calculated first volume value (S90). Then, the acoustic information processing unit 20 controls the volume of a predetermined acoustic signal for a predetermined time (T) so as to become the second volume value (S100). Then, a predetermined acoustic signal whose volume is controlled (a predetermined acoustic signal for a predetermined time (T)) is sent to the reception side superimposing unit 21.
[0096]
The reception-side superimposing unit 21 synthesizes a reception audio signal for a predetermined time (T) and a predetermined acoustic signal (a predetermined acoustic signal for a predetermined time (T)) whose volume is controlled (S110). A synthesized signal, which is a signal obtained by synthesizing the received audio signal and a predetermined acoustic signal, is output to the speaker unit 22 (S120).
[0097]
(2) Processing for transmitting a transmission voice signal to the mobile phone 1 of the other party
FIG. 6 is a flowchart for explaining the above processing. A user's voice is input to the microphone unit 23. The microphone unit 23 outputs an audio signal to the noise canceling unit 24 based on the input user's voice (S130).
[0098]
The noise canceling unit 24 performs processing for removing or suppressing signals related to ambient noise in the audio signal (S140). Then, the noise canceling unit 24 sends the transmission voice signal to the transmission side analysis unit 25.
[0099]
The transmission side analysis unit 25 measures the volume value of the transmitted transmission audio signal at every predetermined time interval T (S150). The specific description of this process is the same as in step S60. The transmission side analysis unit 25 outputs the measured volume value and the transmission audio signal for a predetermined time (T) to the transmission side superimposition unit 26.
[0100]
The transmission side superimposing unit 26 once holds the transmission audio signal for a predetermined time (T) (S160). Then, the transmitting side superimposing unit 26 sends the measured volume value to the acoustic information processing unit 20. The acoustic information processing unit 20 acquires a correspondence table and predetermined acoustic information via the storage control unit 14. Then, the acoustic information processing unit 20 calculates the first volume value based on the measured volume value and a predetermined relational expression (S170). The detailed description of the first sound volume value calculation process is as described above.
[0101]
Then, the acoustic information processing unit 20 refers to the correspondence table and acquires the second volume value corresponding to the calculated first volume value (S180). Then, the acoustic information processing unit 20 controls the volume of the predetermined acoustic signal for a predetermined time (T) so as to become the second volume value (S190). Then, a predetermined acoustic signal whose volume is controlled (a predetermined acoustic signal for a predetermined time (T)) is sent to the transmission side superimposing unit 26.
[0102]
The transmission side superimposing unit 26 synthesizes a transmission audio signal for a predetermined time (T) and a predetermined acoustic signal (a predetermined acoustic signal for a predetermined time (T)) whose volume is controlled (S200). A synthesized signal that is a signal obtained by synthesizing the transmission voice signal and a predetermined acoustic signal is sent to the voice signal encoding unit 27.
[0103]
The audio signal encoding unit 27 performs an encoding process on the transmitted synthesized signal (S210). The encoded combined signal is output to the multiplexing unit 30. Thereafter, the process of S240 is performed.
[0104]
In parallel with the processing from S130 to S210, the following processing of S220 and S230 is performed. The imaging unit 28 captures various images based on a predetermined operation by the user (S220). A signal (transmission image signal) indicating an image captured by the imaging unit 28 is sent to the image signal encoding unit 29. The image signal encoding unit 29 performs encoding processing of the transmission image signal (S230). The image signal encoding unit 29 sends the transmission image signal subjected to the encoding process to the multiplexing unit 30. Thereafter, the process of S240 is performed.
[0105]
The multiplexing unit 30 multiplexes the synthesized signal sent from the audio signal encoding unit 27 and the transmission image signal sent from the image signal encoding unit 29, thereby converting the transmission digital bit string signal. Generate (S240). Then, the multiplexing unit 30 outputs a radio signal including the transmission digital bit string signal to the radio transmission unit 12. The wireless transmission unit 12 transmits a wireless signal to the mobile phone 1 of the call partner via the base station 4, the switching device 5, and the base station 4 that performs wireless communication with the mobile phone 1 of the call partner (S250).
[0106]
In the present embodiment, as an example, the case where one correspondence table (to be described later) and a plurality of acoustic signals are stored in the storage unit 15 has been described. A plurality of correspondence tables may be stored. And the acoustic information processing part 20 may select and acquire the correspondence table which implement | achieves the function of this Embodiment among several correspondence tables.
[0107]
(Function and effect)
The cellular phone 1 according to the present embodiment includes an acoustic information processing unit 20 (control unit) that controls an acoustic signal to be synthesized with a transmission voice signal and / or a reception voice signal based on the reception voice signal and / or the transmission voice signal. Have. For this reason, it is possible to perform control such that the acoustic signal is changed according to the change of the transmission voice signal and / or the reception voice signal during the call. For example, by performing the following control, it is possible to prevent the acoustic signal from interfering with the call or to increase the call.
[0108]
An example of such control is volume control. The mobile phone 1 includes a reception side analysis unit 19 / transmission side analysis unit 25 that measures the volume of the reception voice signal and / or the transmission voice signal in time series. The acoustic information processing unit 20 can control the volume of the acoustic signal to be synthesized with the transmission voice signal and / or the reception voice signal based on the measured volume of the reception voice signal and / or the transmission voice signal. .
[0109]
An example of the volume control by the acoustic information processing unit 20 is as follows. The mobile phone 1 uses the first sound volume value calculated according to a predetermined relational expression based on the sound volume of the received sound signal and / or the transmitted sound signal, and the actual sound signal synthesized with the received sound signal and / or the transmitted sound signal. It has the memory | storage part 15 which memorize | stores the corresponding | compatible table with which the 2nd volume value which is a volume value was matched. Then, the acoustic information processing unit 20 calculates a first volume value according to a predetermined relational expression based on the measured volume of the received audio signal and / or the transmitted audio signal, and the calculated first volume value and The second volume value corresponding to the first volume value is acquired based on the correspondence table. Then, the acoustic information processing unit 20 controls the volume of the acoustic signal synthesized with the transmission voice signal and / or the reception voice signal so that the acquired second volume value is obtained.
[0110]
As a result, for example, when the volume of the received voice signal transmitted from the other party or the volume of the transmitted voice signal transmitted to the other party is high, the sound signal or the transmitted voice signal to be synthesized with the received voice signal is used. Control can be performed so that the volume of the acoustic signal for synthesis is increased. Also, for example, when the volume of the received voice signal sent from the other party or the volume of the transmitted voice signal transmitted to the other party is low, the volume is synthesized with the acoustic signal or the transmitted voice signal to be synthesized with the received voice signal. Therefore, it is possible to control the volume of the sound signal to be low.
[0111]
Thereby, for example, even if a voice signal (transmission voice signal, reception voice signal) related to a call changes, the voice signal related to the call is preferentially output or transmitted to the mobile phone 1 of the other party. It is possible to prevent the situation from becoming an obstacle.
[0112]
Also, for example, based on the larger volume value of the volume of the received audio signal sent from the other party and the volume of the transmitted audio signal sent to the other party, it is synthesized into the transmitted audio signal and the received audio signal. It is also possible to control the volume of the acoustic signal for the purpose. As a result, for example, even if a voice signal related to a call (transmission voice signal, reception voice signal) changes, the volume of the acoustic signal is controlled based on the voice signal having a large volume. Can be output with priority, or can be transmitted to the mobile phone 1 of the other party. As a result, it is possible to excite the call.
[0113]
In addition, the storage control unit 14 according to the present embodiment acquires the correspondence table from the storage device (for example, the information providing server device 6) that stores the correspondence table, and stores the acquired correspondence table in the storage unit 15. For this reason, since the user of the mobile phone 1 can save the trouble of creating the correspondence table by himself, the trouble of the user can be reduced.
[0114]
Further, in the “sound effect addition type communication system” disclosed in Japanese Patent Application Laid-Open No. 2002-271494, when a caller connects to a called party, the caller sends a call to a sound effect server in advance. It is necessary to perform operations necessary for sound selection and the like, and then enter the telephone number of the called party to actually talk and connect to the other party. For this reason, the operation until the start of the call is complicated, and the caller has to bear the call charge to the sound effect server in addition to the call charge to the called party. If this embodiment is used, such a situation is solved.
[0115]
In addition, in the “mobile communication device” disclosed in Japanese Patent Laid-Open No. 2002-51116, sound effects are inserted inside the mobile phone 1 and various sound effects can be sent in response to the numeric keypad. The types and quantities of sound effects that can be used for the mobile phone 1 are limited to those stored in advance in the storage device of the mobile phone 1. In the present embodiment, the storage control unit 14 acquires the correspondence table and the acoustic signal from the correspondence table and the storage device that stores the acoustic signal, and causes the storage unit 15 to store the acquired correspondence table and the acoustic signal. For this reason, as in JP-A-2002-51116, the types and quantities of sound effects that can actually be used are not limited to those stored in advance in the storage device of the mobile phone 1.
[0116]
Moreover, in the technique of Unexamined-Japanese-Patent No. 2002-51116, since the sound effect mixer which inserts a sound effect is simply arrange | positioned to a speaker's audio | voice output and a receiver (speaker) input, it mixed from the microphone. Although this is mixed with the background sound of the speaker, in the present embodiment, since the voice of the speaker and the acoustic signal are synthesized inside the mobile phone 1, such a situation can be avoided.
[0117]
In addition, the mobile phone 1 of the present embodiment can be applied to the digital mobile phone 1 capable of transmitting information over a wide band. In particular, the cellular phone 1 according to the present embodiment can be applied to the digital cellular phone 1 having a TV phone function for transmitting voice and moving images.
[0118]
(Modification 1 of Embodiment 1)
(1) In the above-described embodiment, both the control of the volume of the predetermined acoustic signal synthesized with the received audio signal and the control of the volume of the predetermined acoustic signal synthesized with the transmitted audio signal are performed. The following may be changed. That is, only one of the control of the volume of the predetermined acoustic signal synthesized with the received audio signal and the control of the volume of the predetermined acoustic signal synthesized with the transmitted audio signal may be performed. .
[0119]
For example, when only the control of the volume of the predetermined acoustic signal synthesized with the received audio signal (or the transmitted audio signal) is performed, the predetermined acoustic signal synthesized with the transmitted audio signal (or the received audio signal) is constant. The volume may remain unchanged.
[0120]
When only the control of the volume of a predetermined acoustic signal to be synthesized with the transmission voice signal is performed, the user's voice is given priority according to the predetermined relational expression (1) described above, and the user's voice is given priority during a call. The effect transmitted to the other party is obtained.
[0121]
On the other hand, when only the control of the volume of a predetermined acoustic signal to be synthesized with the received voice signal is performed, the voice of the other party is given priority according to the predetermined relational expression (2) described above, and the voice of the other party is A preferential output effect is obtained.
[0122]
Further, when the first volume value is calculated according to the predetermined relational expression (1) described above and the second volume value is acquired based on the correspondence table, the reception is performed based on the acquired second volume value. Control of the volume of a predetermined acoustic signal synthesized with the audio signal and control of the volume of the predetermined acoustic signal synthesized with the transmission audio signal may be performed. Also in this case, the user's voice is prioritized, and the user's voice is prioritized and transmitted to the other party during the call.
[0123]
Further, when the first volume value is calculated according to the predetermined relational expression (2) described above and the second volume value is acquired based on the correspondence table, the reception is performed based on the acquired second volume value. Control of the volume of a predetermined acoustic signal synthesized with the audio signal and control of the volume of the predetermined acoustic signal synthesized with the transmission audio signal may be performed. Also in this case, the voice of the other party is given priority, and an effect is obtained in which the voice of the other party is given priority during the call.
[0124]
(2) In addition, the calculation method of the 1st sound volume value by the acoustic information processing part 20 may be changed as follows other than the method shown by embodiment mentioned above.
[0125]
For example, the reception side analysis unit 19 measures the volume value of the received audio signal (for example, the average value of the volume of the reception audio signal between the time t1 and the predetermined time T) as the volume value b1, and the transmission side analysis unit 25 When the volume value of the transmission audio signal (for example, the average value of the volume of the transmission audio signal between the time t1 and the predetermined time T) is measured as the volume value a1, the acoustic information processing unit 20 shows the following (3) The first sound volume value z is calculated based on a predetermined relational expression.
[0126]
z = max (a1, b1). . . . . . . . . (3)
Here, max (a1, b1) represents a large volume value (maximum volume value) of the volume value a1 and the volume value b1.
[0127]
In this case, for example, even if the audio signal (transmission audio signal, reception audio signal) related to the call changes, the volume of the acoustic signal is controlled based on the audio signal having a high volume. Since the audio signal is preferentially output or transmitted to the mobile phone 1 of the call partner, the call can be excited.
[0128]
Then, the acoustic information processing unit 20 refers to the correspondence table and acquires the second volume value corresponding to the first volume value. This second volume value is used for the control processing of the volume of the predetermined acoustic signal synthesized with the reception audio signal for the predetermined time and the control processing of the volume of the predetermined acoustic signal synthesized with the transmission audio signal for the predetermined time. It is done.
[0129]
Then, the control processing of the volume of the predetermined acoustic signal synthesized with the reception audio signal for the predetermined time, the synthesis processing of the reception audio signal with the predetermined acoustic signal for the predetermined time, and the predetermined synthesis synthesized with the transmission audio signal for the predetermined time The sound signal volume control processing and the synthesis processing of the transmission audio signal for a predetermined time and the predetermined acoustic signal are performed in the same manner as in the above-described embodiment.
[0130]
(3) Moreover, the calculation method of the 1st sound volume value by the acoustic information processing part 20 may be changed as follows. For example, the reception side analysis unit 19 measures the volume value of the received audio signal (for example, the average value of the volume of the reception audio signal between the time t1 and the predetermined time T) as the volume value b1, and the transmission side analysis unit 25 When the volume value of the transmission voice signal (for example, the average value of the volume of the transmission voice signal between the time t1 and the predetermined time T) is measured as the volume value a1, the acoustic information processing unit 20 shows the following (4) The first sound volume value z is calculated based on a predetermined relational expression.
[0131]
z = m * a1 + n * b1. . . . . . . . . (4)
Here, m and n are weighting coefficients. The value of the weighting coefficient is not particularly limited. It may be a value required for setting the communication system, or may be an appropriate proportionality coefficient (for example, 1/2).
[0132]
In this case, the user's voice is moderately prioritized, and during the call, the user's voice is moderately prioritized and transmitted to the other party, and the communication partner's voice is moderately prioritized. In the middle, there is an effect that the voice of the communication partner is output with a moderate priority. Subsequent processing is the same as in the case of description (2) of Modification 1 of Embodiment 1 described above.
[0133]
(Modification 2 of Embodiment 1)
In the first embodiment and the modification example 1 described above, the acoustic information processing unit 20 calculates the first volume value, and then refers to the correspondence table to calculate the second volume value corresponding to the first volume value. However, the present invention is not limited to this. For example, the second sound volume value y may be calculated by a method using the following equation (5).
[0134]
y = p / z + α1, y ≦ α2. . . . . . . . . (5)
Here, p is a weighting coefficient, and its value is not particularly limited. Α1 is a lower limit value of the volume value, and α2 is an upper limit value of the volume value.
[0135]
(Modification 3 of Embodiment 1)
The first embodiment described above may be modified as follows. The receiving side analysis unit 19 relates to the tempo of the received voice signal within a predetermined time based on the number of times the received voice signal changes from the voiced part to the voiceless part and the number of times the voiced part changes to the voiced part. It is a measuring means for measuring information at predetermined time intervals. Further, the transmission side analysis unit 25 determines the transmission voice signal within a predetermined time based on the number of times the voiced portion is changed from the voiced portion to the voiceless portion and the number of times the voiceless portion is changed to the voiced portion. It is also a measuring means for measuring information about the tempo at predetermined time intervals.
[0136]
The acoustic information processing unit 20 controls the tempo of the acoustic signal to be synthesized with the transmission audio signal and / or the reception audio signal based on the measured information regarding the tempo of the reception audio signal and / or the transmission audio signal within a predetermined time. It is also a control means.
[0137]
In addition, the storage unit 15 stores, for example, a correspondence table in which information on each tempo is associated with the tempo of the acoustic signal synthesized with the transmission audio signal and / or the reception audio signal. Information on the tempo is, for example, the number of changes from a voiced part to a voiceless part in a received voice signal for a predetermined time and the number of changes from a voiceless part to a voiced part in a received voice signal for a predetermined time. It is the sum value.
[0138]
(Operation)
Hereinafter, the operation of the characteristic part of this modification will be described. That is, the following processing is performed after S60 shown in FIG. 5 and after S150 shown in FIG.
[0139]
First, the received audio signal subjected to the decoding process is sent from the audio signal decoding unit 18 to the receiving side analysis unit 19. The receiving side analysis part 19 performs the following processes based on the received reception audio signal. Based on the number of times the received voice signal changes from a voiced portion to a voiceless portion and the number of times that the voiceless portion changes to a voiced portion, information on the tempo of the received voice signal within a predetermined time ,measure. Then, the receiving side analysis unit 19 sends information related to the tempo of the received audio signal to the acoustic information processing unit 20.
[0140]
Further, the reception side analysis unit 19 outputs the reception audio signal for a predetermined time to the reception side superposition unit 21 after finishing the measurement processing of the information related to the tempo of the reception audio signal. The reception side superimposing unit 21 once holds the reception audio signal for the predetermined time.
[0141]
The acoustic information processing unit 20 refers to the correspondence table and acquires a tempo value corresponding to information on the measured tempo.
[0142]
The acoustic information processing unit 20 performs control so that the tempo of the predetermined acoustic signal for the predetermined time becomes the acquired tempo. Then, the predetermined acoustic signal (the predetermined acoustic signal for the predetermined time) whose tempo is controlled is sent to the reception side superimposing unit 21.
[0143]
The reception side superimposing unit 21 synthesizes the received audio signal for a predetermined time and the predetermined acoustic signal (a predetermined acoustic signal for a predetermined time) whose tempo is controlled. A synthesized signal that is a synthesized signal is output to the speaker unit 22.
[0144]
Similarly, a measurement process of information related to the tempo by the transmission side analysis unit 25, a control process of a predetermined acoustic signal by the acoustic information processing unit 20 (tempo control), a transmission audio signal and a predetermined acoustic signal by the transmission side superimposition unit 26 Are combined.
[0145]
According to this modified example, the transmission side analysis unit 25 / reception side analysis unit 19 determines the number of times the received voice signal and / or transmission voice signal changes from the voiced part to the voiceless part, and the voiceless part to the voiced part. Information on the tempo of the received audio signal and / or the transmitted audio signal within a predetermined time is measured every predetermined time based on the number of times of change to. The acoustic information processing unit 20 then measures the tempo of the acoustic signal to be synthesized with the transmission audio signal and / or the reception audio signal based on the measured information regarding the tempo of the reception audio signal and / or the transmission audio signal within the predetermined time. To control.
[0146]
As a result, for example, in order to synthesize the received audio signal to the tempo of the received audio signal sent from the other party or the tempo of the transmitted audio signal transmitted to the other party, The tempo of the acoustic signal for synthesis can be controlled.
[0147]
As a result, there is no state in which an acoustic signal having a tempo different from the tempo of the audio signal related to the call is synthesized, so that a situation in which the call is hindered is prevented. In addition, for example, an acoustic signal having a tempo in accordance with the tempo of an audio signal related to a call is synthesized, so that the call can be excited.
[0148]
Note that the cellular phone 1 may include both the acoustic signal control function of the first embodiment (or its modifications 1 and 2) and the acoustic signal control function of this modification. Then, the user may be allowed to select any one of the control functions of the first embodiment and the control function of the present modification using the input unit 31. Information indicating the selection input by the input unit 31 is sent to the acoustic information processing unit 20. The acoustic information processing unit 20 may perform the control function of the first embodiment or the control function of the present modification based on the information indicating the input selection.
[0149]
Further, the mobile phone 1 may have a movable portion that detects various operations by the user. Then, the movable unit receives information indicating that the user has selected one of the control functions of the first embodiment and the control function of the present modification based on the detected operation by the user as an acoustic information process. You may make it send to the part 20. FIG.
[0150]
In this modification, both the tempo control of the predetermined acoustic signal synthesized with the received audio signal and the tempo control of the predetermined acoustic signal synthesized with the transmitted audio signal are performed. It may be changed. In other words, only one of the control of the tempo of the predetermined acoustic signal synthesized with the received audio signal and the control of the tempo of the predetermined acoustic signal synthesized with the transmission audio signal may be performed. .
[0151]
For example, when only the tempo control of a predetermined acoustic signal synthesized with the received audio signal (or transmission audio signal) is performed, the tempo of the predetermined acoustic signal synthesized with the transmission audio signal (or reception audio signal) is: It may remain at a constant tempo.
[0152]
In the present embodiment and its modified examples, the control of the acoustic signal has been described with respect to the control of the volume of the acoustic signal and the control of the tempo, but the present invention is not limited to these controls. That is, when the acoustic signal is controlled based on the received audio signal and / or the transmitted audio signal, the effects described in this embodiment can be obtained.
[0153]
Embodiment 2. FIG.
In the above-described first embodiment and its modification, the control of the acoustic signal synthesized with the reception voice signal and / or the transmission voice signal is performed. In the present embodiment, based on the received audio signal and / or the transmitted audio signal, an acoustic signal to be combined with the received audio signal and / or the transmitted audio signal is selected from the plurality of audio signals.
[0154]
In the present embodiment, the same configurations and functions as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.
[0155]
The storage unit 15 stores a plurality of acoustic signals. In addition, the acoustic information processing unit 20 and the storage control unit 14 are a selection unit that selects a predetermined acoustic signal from among a plurality of acoustic signals stored in the storage unit 15 based on the received audio signal and / or the transmitted audio signal. But there is. The reception-side superimposing unit 21 is also a synthesis unit that synthesizes the received audio signal and the predetermined acoustic signal. The transmission side superimposing unit 26 is also a synthesis unit that synthesizes the transmission audio signal and the predetermined acoustic signal.
[0156]
An example of a specific description of the selection function of the acoustic information processing unit 20 and the storage control unit 14 is as follows. The acoustic information processing unit 20 is a measuring unit that measures a call time, which is a time from the start of transmission / reception of a reception voice signal or a transmission voice signal to / from a mobile phone 1 of a call partner. Specifically, the communication control unit 13 outputs a signal indicating the start of the call state to the acoustic information processing unit 20 when the user's mobile phone 1 is in a call state with the other party's mobile phone. The acoustic information processing unit 20 measures the call time indicating the time from when the signal indicating the start of the call state is acquired to the present time.
[0157]
Moreover, the acoustic information processing unit 20 and the storage control unit 14 select a predetermined acoustic signal from among the plurality of acoustic signals stored in the storage unit 15 based on the measured call time. An example of a specific description of this selection process is as follows. The storage unit 15 stores a correspondence table in which each call time is associated with information specifying an acoustic signal. Note that the correspondence table used in the present embodiment is different from the correspondence table used in the first embodiment. FIG. 7 is a diagram showing an example of the correspondence table used in the present embodiment. In this correspondence table, each call time, the name of the acoustic signal, and information for identifying the acoustic signal (address information in which the acoustic signal is stored) are associated with each other. The acoustic information processing unit 20 refers to the correspondence table and instructs the storage control unit 14 to select and acquire an acoustic signal corresponding to the measured call time as a predetermined acoustic signal. The storage control unit 14 executes the above instruction.
[0158]
(Communication method)
In this communication method, as an example, a case where the correspondence table includes call time 1 (T1 seconds) and call time 2 (T2 seconds) will be described. In this communication method, in particular, audio signal processing (from the radio reception unit 11 through the demultiplexing unit 16, the audio signal decoding unit 18, and the reception side analysis unit 19) After being sent to the unit 20, predetermined processing is performed by the reception side superimposing unit 21, the acoustic information processing unit 20, etc., and the processing output from the speaker unit 22, the microphone unit 23, and the noise canceling unit 24 After the audio signal is transmitted to the transmission side superimposing unit 26 and the acoustic information processing unit 20, predetermined processing is performed in the transmission side superimposing unit 26, the acoustic information processing unit 20, and the like and output to the audio signal encoding unit 27. Will be described. Processing other than the processing shown below (for example, description of processing of an image signal, processing of combining an audio signal and an image signal, processing of a combined signal, processing of separating an audio signal and an image signal, etc.) Since it is performed in the same manner as in the first embodiment, the description thereof is omitted.
[0159]
8 and 9 are flowcharts for explaining an example of the communication method of the present embodiment.
[0160]
First, the user inputs information for specifying a predetermined acoustic signal using the input unit 31 in advance. Then, the information specifying the input predetermined acoustic signal is sent to the acoustic information processing unit 20.
[0161]
Then, when the user's mobile phone 1 is in a call state with the other party's mobile phone 1, the communication control unit 13 outputs a signal indicating the start of the call state to the acoustic information processing unit 20 (S300).
[0162]
The radio signal transmitted from the telephone of the other party via the base station 4 is transmitted to the receiving side via the radio receiving unit 11, the demultiplexing unit 16, the voice signal decoding unit 18, and the receiving side analyzing unit 19. It is transmitted to the superimposing unit 21. At this time, unlike the first embodiment, the reception side analysis unit 19 outputs the signal input from the audio signal decoding unit 18 to the reception side superposition unit 21 as it is. The reception side superimposing unit 21 temporarily holds the received audio signal. The voice input to the microphone unit 23 is transmitted to the transmission side superimposing unit 26 via the noise canceling unit 24 and the transmission side analyzing unit 25. At this time, unlike the first embodiment, the transmission side analysis unit 25 outputs the signal input from the noise canceling unit 24 to the transmission side superimposition unit 26 as it is. The transmission side superimposing unit 26 temporarily holds the transmission audio signal (S310).
[0163]
When the acoustic information processing unit 20 acquires a signal indicating the start of the call state, the acoustic information processing unit 20 measures the call time indicating the time from when the signal indicating the start of the call state is acquired to the present. (S315). The process of S315 is performed after the process of S320 until the process of the present embodiment is completed. At this time, the acoustic information processing unit 20 reads the correspondence table from the storage unit 15 via the storage control unit 14.
[0164]
The acoustic information processing unit 20 determines whether or not the measured call time has reached the shortest call time (for example, T1 seconds) included in the correspondence table (S320). When the measured call time does not reach the call time included in the correspondence table, the acoustic information processing unit 20 reads the predetermined acoustic signal via the storage control unit 14 and the storage unit 15. Then, the acoustic information processing unit 20 transmits the predetermined acoustic signal to the reception side superposition unit 21 and the transmission side superposition unit 26 (S325). The reception side superimposing unit 21 synthesizes the held reception audio signal and the predetermined acoustic signal, and outputs them to the speaker unit 22. Further, the transmission side superimposing unit 26 synthesizes the held transmission audio signal and the predetermined acoustic signal, and sends the synthesized audio signal to the audio signal encoding unit 27 (S330). Then, the process proceeds to step S320.
[0165]
On the other hand, when the measured call time reaches the shortest call time included in the correspondence table, the acoustic information processing unit 20 performs the following processing.
[0166]
The acoustic information processing unit 20 refers to the correspondence table, sends address information corresponding to the shortest call time to the storage control unit 14, and stores a signal indicating a request for the acoustic signal corresponding to the call time. 14 (S340). For example, as shown in FIG. 7, when the measured call time is T1 seconds, the acoustic information processing unit 20 refers to the correspondence table and sends the address information a corresponding to the call time T1 seconds to the storage control unit 14. .
[0167]
The storage control unit 14 selects and acquires the acoustic signal stored in the address information from the plurality of acoustic signals stored in the storage unit 15 based on the signal indicating the request and the address information. And sent to the acoustic information processing unit 20 (S350).
[0168]
The acoustic information processing unit 20 transmits the transmitted acoustic signal to the reception side superimposing unit 21. The reception side superimposing unit 21 synthesizes the received reception audio signal and the transmitted acoustic signal and outputs the synthesized audio signal to the speaker unit 22. The acoustic information processing unit 20 transmits the transmitted acoustic signal to the transmission side superimposing unit 26. The transmission side superimposing unit 26 synthesizes the held transmission audio signal and the transmitted acoustic signal and outputs the synthesized audio signal to the audio signal encoding unit 27 (S360).
[0169]
Then, the acoustic information processing unit 20 determines whether or not the measured call time has reached the next short call time (for example, T2 seconds) included in the correspondence table (S365). If the measured call time does not reach the next short call time included in the correspondence table, the process proceeds to step S350.
[0170]
On the other hand, when the measured call time reaches the next shortest call time included in the correspondence table, the acoustic information processing unit 20 refers to the correspondence table, and the acoustic information processing unit 20 refers to the correspondence table and is next shortest. Address information corresponding to the call time is sent to the storage control unit 14, and a signal indicating a request for an acoustic signal corresponding to the call time is sent to the storage control unit 14 (S370).
[0171]
The storage control unit 14 selects an acoustic signal stored in the address information of the storage unit 15 among the plurality of acoustic signals stored in the storage unit 15 based on the signal indicating the request and the address information. Is acquired and sent to the acoustic information processing unit 20 (S375).
[0172]
The acoustic information processing unit 20 transmits the transmitted acoustic signal to the reception side superimposing unit 21. The reception-side superimposing unit 21 synthesizes the received reception audio signal and the transmitted acoustic signal and outputs the synthesized audio signal to the speaker unit 22 (S380). The acoustic information processing unit 20 transmits the transmitted acoustic signal to the transmission side superimposing unit 26. The transmission side superimposing unit 26 synthesizes the held transmission audio signal and the transmitted acoustic signal and outputs the synthesized audio signal to the audio signal encoding unit 27 (S385).
[0173]
And the acoustic information processing part 20 judges whether the telephone call state was complete | finished (S390). At this time, when the call state is terminated, the communication control unit 13 sends a signal indicating that to the acoustic information processing unit 20. If the call state has not ended, the process proceeds to step S375. When the call state is finished, the process of this modification example is finished.
[0174]
In the above description, the case where two correspondence times are included in the correspondence table has been described. However, the present invention can also be applied to a case where three or more conversation times are included.
[0175]
In this way, a predetermined acoustic signal is selected every time the measured call time passes the call time included in the correspondence table. Then, the selected predetermined acoustic signal is synthesized with the reception audio signal and the transmission audio signal.
[0176]
(Function and effect)
The acoustic information processing unit 20 and the storage control unit 14 of the mobile phone 1 according to the present embodiment are configured to select a predetermined one of the plurality of acoustic signals stored in the storage unit 15 based on the received audio signal and / or the transmitted audio signal. Select an acoustic signal. Then, the transmission side analysis unit 25 / reception side analysis unit 19 synthesizes the reception sound signal or the transmission sound signal and the predetermined acoustic signal.
[0177]
For this reason, the selected acoustic signal changes according to the change of the transmission voice signal and / or the reception voice signal during the call. As a result, it is possible to change the acoustic signal in accordance with changes in the transmission voice signal and / or the reception voice signal during a call.
[0178]
Then, for example, the following selection is performed, so that the call can be excited.
[0179]
An example of selection processing by the acoustic information processing unit 20 and the storage control unit 14 is as follows, for example. The acoustic information processing unit 20 measures a call time which is a time from the start of transmission / reception of a reception voice signal or a transmission voice signal to / from a communication apparatus of a call partner. Then, the acoustic information processing unit 20 and the storage control unit 14 select a predetermined acoustic signal from among the plurality of acoustic signals stored in the storage unit 15 based on the measured call time.
[0180]
A specific example is as follows. The storage unit 15 stores a correspondence table in which each call time is associated with information specifying an acoustic signal. The acoustic information processing unit 20 refers to the correspondence table and instructs the storage control unit 14 to select an acoustic signal corresponding to the measured call time as a predetermined acoustic signal. The storage control unit 14 executes the above instruction.
[0181]
For this reason, for example, as each call time elapses, another acoustic signal is selected and synthesized with a transmission voice signal and / or a reception voice signal, and another acoustic signal is output together with the call voice signal, It is transmitted to the mobile phone 1 of the other party. As a result, even if the call becomes long and the call becomes monotonous, the caller suddenly hears another sound signal. For example, the sound of the caller changes depending on the sound signal. , Will help to boost the conversation.
[0182]
Further, when it is desired to prevent the caller from calling for a long time, a warning is given to the long call, so that the mobile phone 1 convenient for the caller who tends to make a long call is provided.
[0183]
In addition, in the “sound effect addition type call system” disclosed in Japanese Patent Laid-Open No. 2002-271494, the system selects a sound effect with a numeric key of a telephone. Limited to 9 types. In the present embodiment, the acoustic signal to be selected is not particularly limited.
[0184]
In the present embodiment, a process for selecting a predetermined acoustic signal to be synthesized with the received voice signal (and a process for synthesizing the predetermined acoustic signal and the received voice signal) and a selection of the predetermined acoustic signal to be synthesized with the transmission voice signal are performed. The processing (and the synthesis processing of the predetermined acoustic signal and the transmission audio signal) has been performed together, but may be changed as follows. That is, only one of a selection process of a predetermined acoustic signal to be synthesized with the received audio signal and a selection process of a predetermined acoustic signal to be synthesized with the transmission audio signal may be performed.
[0185]
In the above-described embodiment, for example, the acoustic signal 1 and the acoustic signal 2 may be alternately selected every predetermined period. When the selection process is performed using the correspondence table described above, a predetermined acoustic signal selection process may be performed using the call time / setting period as the call time.
[0186]
(Modification 1 of Embodiment 2)
In the second embodiment described above, the following modifications may be made. The reception side analysis unit 19 of the mobile phone 1 according to the present modification example is also a measuring unit that measures a silence period, which is a period of continuous silence in the received voice signal. Further, the transmission side analysis unit 25 of the mobile phone 1 is also a measuring unit that measures a silence time, which is a time during which silence in the transmission voice signal continues. The acoustic information processing unit 20 and the storage control unit 14 are also a selection unit that selects a predetermined acoustic signal among a plurality of acoustic signals stored in the storage unit 15 based on the measured silent time.
[0187]
An example of a specific description of the selection process performed by the acoustic information processing unit 20 and the storage control unit 14 is as follows. The storage unit 15 stores a correspondence table in which silence periods are associated with information for specifying acoustic signals. FIG. 10 is a diagram illustrating an example of the correspondence table. Note that the correspondence table of this modification is different from the correspondence tables of the first and second embodiments. In this correspondence table, each silent time, the name of the acoustic signal, and information for identifying the acoustic signal (address information in which the acoustic signal is stored) are associated with each other.
[0188]
The acoustic information processing unit 20 refers to the correspondence table and instructs the storage control unit 14 to select an acoustic signal corresponding to the measured silent time as a predetermined acoustic signal. The storage control unit 14 executes the above instruction.
[0189]
(Operation)
Hereinafter, the operation of the characteristic part of this modification will be described. 11 and 12 are flowcharts for explaining the above operation. In this operation, as an example, a case where the silence table includes silence time 1 (T3 seconds) and silence time 2 (T4 seconds) will be described.
[0190]
In this operation, in particular, processing of the audio signal (after receiving the received audio signal to the reception side analysis unit 19, the reception side analysis unit 19, the reception side superposition unit 21, the acoustic information processing unit 20 and the like perform predetermined processing. Is performed and the transmission audio signal is sent to the transmission side analysis unit 25, and then the transmission side analysis unit 25, the transmission side superposition unit 26, the acoustic information processing unit 20 and the like perform predetermined processing. Processing performed and output to the audio signal encoding unit 27) will be described. Processing other than the processing shown below (for example, description of processing of an image signal, processing of combining an audio signal and an image signal, processing of a combined signal, processing of separating an audio signal and an image signal, etc.) Since it is performed in the same manner as in the first embodiment, the description thereof is omitted.
[0191]
First, the user inputs information for specifying a predetermined acoustic signal using the input unit 31 in advance. Then, the information specifying the input predetermined acoustic signal is sent to the acoustic information processing unit 20.
[0192]
Then, the received audio signal subjected to the decoding process is sent from the audio signal decoding unit 18 to the reception side analysis unit 19. The receiving side analysis part 19 measures the silence time which is the time when a silence continues in the sent reception voice signal (S400). Note that the process of S400 is performed until the call state ends, for example. Then, the receiving side analysis unit 19 sends the measured silent time to the acoustic information processing unit 20.
[0193]
In addition, the reception side analysis unit 19 outputs the reception voice signal to the reception side superposition unit 21 after finishing the silent time measurement process. The reception side superimposing unit 21 once holds the received audio signal (S405).
[0194]
The acoustic information processing unit 20 determines whether or not the measured silent time has reached the shortest silent time (for example, T3 seconds) included in the correspondence table (S410). When the measured silent time does not reach the silent time, the acoustic information processing unit 20 reads the predetermined acoustic signal via the storage control unit 14 and the storage unit 15. Then, the acoustic information processing unit 20 transmits the predetermined acoustic signal to the reception side superimposing unit 21. The reception side superimposing unit 21 synthesizes the received audio signal and the predetermined acoustic signal, which are output to the speaker unit 22 (S415). Then, the process of S410 is performed.
[0195]
On the other hand, when the measured silent time reaches the silent time, the acoustic information processing unit 20 performs the following processing.
[0196]
The acoustic information processing unit 20 refers to the correspondence table and sends address information corresponding to the silent time to the storage control unit 14 and sends a signal indicating a request for the acoustic signal corresponding to the silent time to the storage control unit 14. (S420). For example, as shown in FIG. 10, when the measured call time is T3 seconds, the acoustic information processing unit 20 refers to the correspondence table and sends the address information c corresponding to the silence time T3 seconds to the storage control unit 14. .
[0197]
The storage control unit 14 selects and acquires the acoustic signal stored in the address information from the plurality of acoustic signals stored in the storage unit 15 based on the signal indicating the request and the address information. And sent to the acoustic information processing unit 20 (S425).
[0198]
The acoustic information processing unit 20 transmits the transmitted acoustic signal to the reception side superimposing unit 21. The reception-side superposition unit 21 synthesizes the received reception audio signal and the transmitted acoustic signal, and outputs them to the speaker unit 22 (S430).
[0199]
And the acoustic information processing part 20 accesses the receiving side analysis part 19 after progress for a fixed time, and judges whether a silence time is continuing (S435).
[0200]
When the silent time does not continue, the acoustic information processing unit 20 interrupts transmission of the selected and acquired acoustic signal to the reception side superimposing unit 21. Then, the acoustic information processing unit 20 reads the predetermined acoustic signal via the storage control unit 14 and the storage unit 15. Then, the acoustic information processing unit 20 transmits the predetermined acoustic signal to the reception side superimposing unit 21. The reception-side superimposing unit 21 synthesizes the held reception audio signal and the predetermined acoustic signal, and outputs them to the speaker unit 22 (S440). Then, the process of S410 is performed.
[0201]
When the silence time continues, the acoustic information processing unit 20 determines whether or not the measured silence time has reached the next short silence time (for example, T4 seconds) included in the correspondence table (S445). ). If the silent time has not been reached, the process proceeds to S425.
[0202]
When the silent time has been reached, the acoustic information processing unit 20 refers to the correspondence table, sends address information corresponding to the silent time to the storage control unit 14, and indicates a request for an acoustic signal corresponding to the silent time. A signal is sent to the storage control unit 14 (S450).
[0203]
The storage control unit 14 selects an acoustic signal stored in the address information of the storage unit 15 among the plurality of acoustic signals stored in the storage unit 15 based on the signal indicating the request and the address information. Is acquired and sent to the acoustic information processing unit 20 (S455).
[0204]
The acoustic information processing unit 20 transmits the transmitted acoustic signal to the reception side superimposing unit 21. The reception-side superimposing unit 21 synthesizes the received reception audio signal and the transmitted acoustic signal and outputs the synthesized audio signal to the speaker unit 22 (S460).
[0205]
Then, the acoustic information processing unit 20 accesses the receiving side analysis unit 19 after a certain period of time, and determines whether or not the silent time continues (S465). When the silent time continues, the process proceeds to S455.
[0206]
When the silent time does not continue, the acoustic information processing unit 20 interrupts transmission of the selected and acquired acoustic signal to the reception side superimposing unit 21. Then, the acoustic information processing unit 20 reads the predetermined acoustic signal via the storage control unit 14 and the storage unit 15. Then, the acoustic information processing unit 20 transmits the predetermined acoustic signal to the reception side superimposing unit 21. The reception side superimposing unit 21 synthesizes the received audio signal and the predetermined acoustic signal, and outputs the synthesized audio signal to the speaker unit 22 (S470). Then, the process of S410 is performed.
[0207]
In the above description, the case where two silence periods are included in the correspondence table has been described. However, the present invention can also be applied to cases where three or more silence periods are included.
[0208]
In this way, a predetermined acoustic signal is selected every time the measured silent time passes the silent time included in the correspondence table. The selected predetermined acoustic signal is synthesized with the received audio signal and output from the speaker unit 22.
[0209]
Also, in the above description, by replacing reception with transmission and replacing the speaker unit 22 with the audio signal encoding unit 27, the transmission side superimposing unit 26 determines that the measured silent time is the call time included in the correspondence table. Each time a predetermined sound signal is selected. The selected predetermined acoustic signal is combined with the transmission audio signal and output to the image signal encoding unit 29.
[0210]
According to this modified example, the reception side analysis unit 19 / transmission side analysis unit 25 measures a silent time, which is a time during which no voice in the reception voice signal and / or the transmission voice signal continues. Then, the acoustic information processing unit 20 and the storage control unit 14 select a predetermined acoustic signal from among the plurality of acoustic signals stored in the storage unit 15 based on the measured silent time.
[0211]
An example of selection processing by the acoustic information processing unit 20 and the storage control unit 14 is as follows, for example. The storage unit 15 stores a correspondence table in which each silent time is associated with information for specifying an acoustic signal. The acoustic information processing unit 20 refers to the correspondence table and instructs the storage control unit to select an acoustic signal corresponding to the measured silent time as a predetermined acoustic signal. The storage control unit 14 executes the above instruction.
[0212]
For this reason, for example, as each silent time elapses, another acoustic signal is selected and synthesized with the transmission voice signal and / or the reception voice signal, and the other acoustic signal is output together with the call voice signal. It is transmitted to the mobile phone 1 of the other party. As a result, since the conversation does not rise, even if one or both of the speakers does not speak for a long time, the caller suddenly hears another acoustic signal. The caller's mood will change and it will help boost the call.
[0213]
In this modified example, a process for selecting a predetermined acoustic signal to be synthesized with the received audio signal (and a process for synthesizing the predetermined audio signal and the received audio signal) and a process for selecting the predetermined acoustic signal to be synthesized with the transmitted audio signal are performed. (And the synthesis process of the predetermined acoustic signal and the transmission voice signal) are performed together, but may be changed as follows. That is, only one of a selection process of a predetermined acoustic signal to be synthesized with the received audio signal and a selection process of a predetermined acoustic signal to be synthesized with the transmission audio signal may be performed.
[0214]
(Modification 2 of Embodiment 2)
Further, the above-described second embodiment may be modified as follows. The receiving side analysis unit 19 relates to the tempo of the received voice signal within a predetermined time based on the number of times the received voice signal changes from the voiced part to the voiceless part and the number of times the voiced part changes to the voiced part. It is also a measuring means for measuring information at predetermined time intervals. The transmission side analysis unit 25 relates to the tempo of the transmission voice signal within a predetermined time based on the number of times the voiced portion changes from the voiced portion to the voiceless portion in the transmission voice signal and the number of times the voiceless portion changes to the voiced portion. It is also a measuring means for measuring information at predetermined time intervals.
[0215]
The acoustic information processing unit 20 and the storage control unit 14 are measured from among a plurality of acoustic signals stored in the storage unit 15 based on the measured information regarding the tempo of the received audio signal and / or the transmitted audio signal within a predetermined time. A predetermined acoustic signal is selected.
[0216]
The specific description of the selection process by the acoustic information processing unit 20 and the storage control unit 14 is as follows. The storage unit 15 stores a correspondence table in which information on each tempo is associated with information for specifying an acoustic signal. The correspondence table of this modification example is different from the correspondence table of Modification Example 1 of the first and second embodiments and the second embodiment.
[0217]
FIG. 13 is a diagram illustrating an example of the correspondence table of the present modification example. In the correspondence table, information on each tempo (number of changes from a voiced portion to a voiceless portion in a received voice signal for a predetermined time and the number of changes from a voiceless portion to a voiced portion in a received voice signal for a predetermined time) ), The name of the acoustic signal, and address information (information for identifying the acoustic signal) are associated with each other. Hereinafter, the value of the sum is referred to as no / number of voiced times. Hereinafter, as an example of information on the tempo, description will be given using the number of voiceless / voiced times.
[0218]
The acoustic information processing unit 20 refers to the correspondence table, and measures, as a predetermined acoustic signal, the acoustic signal corresponding to the information related to the tempo of the received audio signal and / or the transmitted audio signal measured within a predetermined time. The storage control unit 14 is instructed to select. The storage control unit executes the above instruction.
[0219]
(Operation)
Hereinafter, the operation of the characteristic part of this modification will be described. FIG. 14 is a flowchart for explaining this operation. In this operation, in particular, processing of the audio signal (after receiving the received audio signal to the reception side analysis unit 19, the reception side analysis unit 19, the reception side superposition unit 21, the acoustic information processing unit 20 and the like perform predetermined processing. Is performed and the transmission audio signal is sent to the transmission side analysis unit 25, and then the transmission side analysis unit 25, the transmission side superposition unit 26, the acoustic information processing unit 20 and the like perform predetermined processing. Processing performed and output to the audio signal encoding unit 27) will be described. Processing other than the processing shown below (for example, description of processing of an image signal, processing of combining an audio signal and an image signal, processing of a combined signal, processing of separating an audio signal and an image signal, etc.) Since it is performed in the same manner as in the first embodiment, the description thereof is omitted.
[0220]
The received audio signal subjected to the decoding process is sent from the audio signal decoding unit 18 to the receiving side analysis unit 19. The receiving side analysis part 19 performs the following processes based on the received reception audio signal. Based on the number of times the voiced portion of the received voice signal changes from the voiced portion to the voiceless portion and the number of times of change from the voiceless portion to the voiced portion, Every time, it measures (S500).
[0221]
A specific description of this process is as follows. For example, the receiving side analysis part 19 measures the information regarding the tempo of the reception audio signal for T minutes every T minutes. Further, the reception side analysis unit 19 sets the number of changes from the voiced part to the voiceless part in the received voice signal for T minutes and the received voice signal for T minutes as the number of voiceless / voiced times in the received voice signal for T minutes. The value of the sum of the number of changes from the voiceless part to the voiced part is measured. For example, when the number of changes from the voiced part to the voiceless part in the received voice signal for T minutes is 3 and the number of changes from the voiceless part to the voiced part is 7, the receiving side analysis unit 19 measures 10 times as the number of voiceless / present voices in the received voice signal for T minutes. Then, the receiving side analysis unit 19 sends the number of voiceless / voiced times in the received voice signal to the acoustic information processing unit 20.
[0222]
In addition, the reception side analysis unit 19 outputs the reception voice signal for a predetermined time to the reception side superposition unit 21 after finishing the measurement processing of the number of voiceless / present voices in the reception voice signal. The receiving side superimposing unit 21 once holds the received audio signal for the predetermined time (S505).
[0223]
The acoustic information processing unit 20 refers to the correspondence table, sends address information corresponding to the number of voiceless / voiced voices in the received voice signal to the storage control unit 14, and sends a signal indicating a request for the acoustic signal to the storage control unit 14. Send (S510).
[0224]
For example, as illustrated in FIG. 13, when the number of non-voiced voices in the received voice signal is X times (number of times between B times and C times), the acoustic information processing unit 20 refers to the correspondence table. Then, the address information f corresponding to the number of voiceless / present voice in the received voice signal is sent to the storage control unit 14.
[0225]
The storage control unit 14 selects and acquires the acoustic signal stored in the address information from the plurality of acoustic signals stored in the storage unit 15 based on the signal indicating the request and the address information. And sent to the acoustic information processing unit 20 (S515).
[0226]
The acoustic information processing unit 20 transmits an acoustic signal for a predetermined time to the reception side superimposing unit 21. The reception side superimposing unit 21 synthesizes the held reception audio signal and the transmitted acoustic signal and outputs the synthesized audio signal to the speaker unit 22 (S520).
[0227]
In this way, an acoustic signal corresponding to information on the measured tempo is selected for the received audio signal. The selected acoustic signal is combined with the received audio signal and output from the speaker unit 22.
[0228]
In the above description, by replacing reception with transmission and replacing the speaker unit 22 with the audio signal encoding unit 27, an acoustic signal corresponding to information on the measured tempo is selected for the transmission audio signal. The selected acoustic signal is combined with the transmission audio signal and output to the audio signal encoding unit 27.
[0229]
The reception-side analysis unit 19 / transmission-side analysis unit 25 of the mobile phone 1 of the present modification example includes the number of times the received voice signal and / or transmission voice signal changes from the voiced part to the voiceless part, and the voiceless part to the voiced part. Information on the tempo of the received audio signal and / or the transmitted audio signal within a predetermined time is measured at predetermined time intervals based on the number of times of changing to the portion. The acoustic information processing unit 20 and the storage control unit 14 then measure the plurality of acoustic signals stored in the storage unit 15 based on the measured information regarding the tempo of the received audio signal and / or the transmitted audio signal within a predetermined time. A predetermined acoustic signal is selected.
[0230]
An example of selection processing by the acoustic information processing unit 20 and the storage control unit 14 is as follows, for example. The storage unit 15 stores a correspondence table in which information on each tempo is associated with information for specifying an acoustic signal. The acoustic information processing unit 20 refers to the correspondence table and selects, as a predetermined acoustic signal, an acoustic signal corresponding to the measured tempo of the received audio signal and / or the transmitted audio signal within a predetermined time. The storage controller 14 is instructed as follows. The storage control unit 14 executes the above instruction.
[0231]
For this reason, for example, another acoustic signal is selected based on the tempo of the reception voice signal or the tempo of the transmission voice signal, and is synthesized with the transmission voice signal and / or the reception voice signal. At the same time, it is output or transmitted to the mobile phone 1 of the other party. As a result, when the tempo of the call of one or both of the speakers changes, the caller suddenly listens to another acoustic signal. Will be helpful.
[0232]
Further, the tempo of the acoustic signal corresponding to the information about each tempo included in the correspondence table may be a tempo corresponding to the information about each tempo. In this case, since there is no state in which an acoustic signal having a tempo different from the tempo of the audio signal related to the call is synthesized, a situation in which the call is hindered is prevented. In addition, for example, since an audio signal having a tempo in accordance with the tempo of the audio signal related to the call is synthesized, the caller's mood is raised and the call can be raised.
[0233]
In this modified example, a process for selecting a predetermined acoustic signal to be synthesized with the received audio signal (and a process for synthesizing the predetermined audio signal and the received audio signal) and a process for selecting the predetermined acoustic signal to be synthesized with the transmitted audio signal are performed. (And the synthesis process of the predetermined acoustic signal and the transmission voice signal) are performed together, but may be changed as follows. That is, only one of a selection process of a predetermined acoustic signal to be synthesized with the received audio signal and a selection process of a predetermined acoustic signal to be synthesized with the transmission audio signal may be performed.
[0234]
Further, based on the information about the tempo of the transmission audio signal measured by the transmission side analysis unit 25, the selection process of the acoustic signal to be synthesized with the reception audio signal and the selection process of the acoustic signal to be synthesized with the transmission audio signal are performed. You may be made to be. In addition, based on the information about the tempo of the received audio signal measured by the receiving side analysis unit 19, an acoustic signal selection process to be combined with the reception audio signal and an acoustic signal selection process to be combined with the transmission audio signal are performed. You may be made to be.
[0235]
In addition, the acoustic information processing unit 20 is based on the information related to the tempo of the received audio signal within the predetermined time measured by the receiving side analysis unit 19 and the information related to the tempo of the transmitted audio signal within the predetermined time. Information regarding the tempo of the transmitted / received audio signal may be measured at predetermined time intervals.
[0236]
For example, the acoustic information processing unit 20 calculates the average value of the number of non-voiced / voiced voices in the T-minute received voice signal and the number of voiced / non-voiced voices in the T-minute transmitted voice signal, / The number of voices may be measured.
[0237]
(Modification 3 of Embodiment 2)
In the present modification example, it is possible to combine the first embodiment or the modification example thereof with the first modification example according to the second and second embodiments and the second modification example according to the second embodiment.
[0238]
In this case, the control of the volume value of the acoustic signal is shown in the first embodiment or the modified example thereof, but the selection process of a predetermined acoustic signal is shown in the second embodiment or the modified example thereof. For this reason, when the second embodiment and the first and second modifications are applied at the same time, the predetermined acoustic signal selected when the second embodiment is followed and each modification of the second embodiment. May be different from the predetermined acoustic signal selected.
[0239]
In such a case, for example, in the selection process performed based on the information on the tempo, the priority of the selection process performed based on the call time is lowered, the priority of the selection process performed based on the silent time is increased, and Does not perform acoustic signal selection processing,
You may make it control the tempo of an acoustic signal. As a result, it is possible to simultaneously apply the first embodiment or its modification, the second embodiment, the first modification of the second embodiment, and the second modification of the second embodiment.
[0240]
Further, in the case of the mobile phone 1 having the functions of the first embodiment or the modified example thereof, the second embodiment, the modified example 1 of the second embodiment 1, and the modified example 2 of the second embodiment, for example, the user inputs The unit 31 may be used to input an instruction for executing any of the functions. Thereby, based on the instruction input to the input unit 31, in the mobile phone 1, the first embodiment or its modified example, the second embodiment, the modified example 1 of the second embodiment, the modified example of the second embodiment Only one of the functions of Example 2 may be executed.
[0241]
Moreover, when applying two or more functions simultaneously among Embodiment 1 or its modified example, Modified Example 1 and Modified Example 2 of Embodiment 2 and Modified Example 2, for example, as follows: Alternatively, a predetermined acoustic signal may be selected and the volume value of the predetermined acoustic signal may be controlled.
[0242]
The storage unit 15 stores, for example, the volume value of the received audio signal, information about the tempo of the received audio signal (the number of presence / absence of received audio signal), the volume value of the transmitted audio signal, and the tempo of the transmitted audio signal. Corresponds to information (number of voices with / without transmission voice signal), call duration, name of acoustic signal, address information (information for identifying acoustic signal), volume value of acoustic signal, and tempo of acoustic signal The correspondence table attached is stored. FIG. 15 is a diagram showing an example of the correspondence table. FIG. 16 is a flowchart for explaining the concept of the characteristic operation of this modification. In this operation, in particular, processing of the audio signal (after receiving the received audio signal to the reception side analysis unit 19, the reception side analysis unit 19, the reception side superposition unit 21, the acoustic information processing unit 20 and the like perform predetermined processing. , And a process in which a predetermined process is performed in the transmission side analysis unit 25, the transmission side superposition unit 26, the acoustic information processing unit 20, etc. after the transmission audio signal is sent to the transmission side analysis unit 25. . Since processing other than the processing shown below is performed in the same manner as in the first and second embodiments, the description thereof is omitted.
[0243]
The reception side analysis unit 19 measures the volume value of the reception voice signal and the number of presence / absence of the reception voice signal. The transmission side analysis unit 25 measures the volume value of the transmission voice signal. Then, the number of voices of the transmission voice signal is measured, and the acoustic information processing unit 20 measures the call time (S600). These pieces of information are sent to the acoustic information processing unit 20.
[0244]
The acoustic information processing unit 20 refers to the correspondence table and instructs the storage control unit 14 to select and acquire an acoustic signal corresponding to these pieces of information. The storage control unit 14 executes the above instruction and sends the measured acoustic signal corresponding to the information to the acoustic information processing unit 20. Also, the acoustic information processing unit 20 refers to the correspondence table and acquires the volume value and tempo value of the acoustic signal corresponding to the above information (S610). Then, the acoustic information processing unit 20 controls the acquired acoustic signal so that the acquired volume value and tempo value are obtained, and then outputs them to the reception-side superposition unit 21 and the transmission-side superposition unit 26 (S620). Then, the reception side superimposing unit 21 synthesizes the received reception audio signal and the output acoustic signal. The transmission side superimposing unit 26 synthesizes the held transmission audio signal and the output acoustic signal. Subsequent processing is the same as in the second embodiment.
[0245]
For example, the volume value of the received audio signal is A1 (dB), the presence / absence of the received audio signal is a1 (times), the volume value of the transmitted audio signal is A2 (dB), and the presence / absence of the transmitted audio signal is Is a2 (times), and the call time is α1 seconds.
[0246]
In this case, the acoustic information processing unit 20 refers to the correspondence table, and includes these pieces of information (the volume value of the received audio signal is A1 (dB), the presence / absence frequency of the received audio signal is a1 (times), and the transmitted audio Information on the acoustic signal corresponding to the volume value of the signal A2 (dB), the presence / absence of the transmission voice signal is a2 (times), and the call time is α1 seconds is acquired.
[0247]
The information regarding the acoustic signal is, for example, address information (address a3), a volume value of the acoustic signal (for example, α2 (dB)), and a tempo value of the acoustic signal (for example, α3 (BPM)).
[0248]
And the acoustic information processing part 20 acquires the said acoustic signal (for example, acoustic signal A) from the memory | storage part 15 via the memory | storage control part 14 based on address information. Then, the acoustic information processing unit 20 controls the acquired acoustic signal so that the acquired volume value (for example, α2 (dB)) and tempo value (for example, α3 (BPM)) are obtained, and then the reception side superimposing unit. 21, output to the transmitting side superimposing unit 26.
[0249]
In addition, after controlling the acquired acoustic signal, the acoustic information processing unit 20 may output the signal to the reception-side superposition unit 21 and the transmission-side superposition unit 26, or the reception-side superposition unit 21 and the transmission-side superposition unit 26. Of these, it is possible to output to only one of them.
[0250]
(Modification 1 of Embodiments 1 and 2)
FIG. 17 is a diagram illustrating a configuration of a mobile phone according to this modification. The mobile phone 1 may be provided with an information communication unit 32 as an acquisition unit that acquires the correspondence table and the acoustic information from the correspondence table and the storage device that stores the acoustic information.
[0251]
For example, the information communication unit 32 receives one or more pieces of acoustic information, one or more pieces of acoustic information, one or more pieces of acoustic information, for example, via short-range wireless communication or infrared communication from a storage device that stores one or more correspondence tables. Get multiple correspondence tables. The acquired one or more pieces of acoustic information and one or more correspondence tables are sent to the storage unit 15 via the storage control unit 14.
[0252]
Note that the information communication unit 32 may be an IC card interface unit. Then, the IC card interface unit may read and acquire the correspondence table and the acoustic information from the IC card in which the correspondence table and the acoustic information are recorded.
[0253]
(Modification 2 of Embodiments 1 and 2)
In addition, information included in the correspondence table and information indicating a request to rewrite the correspondence table may be input to the input unit 31 by the user.
[0254]
Then, the information included in the correspondence table input to the input unit 31 and the rewrite request are sent to the storage control unit 14. The storage control unit 14 reads the correspondence table from the storage unit 15 based on the information included in the correspondence table and the rewrite request, and the correspondence input that is input to the input unit 31 among the information included in the correspondence table. Information rewriting processing corresponding to information included in the table may be performed.
[0255]
According to this modified example, it is possible to respond quickly even when there is a change in the acoustic signal or when the information corresponding to the acoustic signal has changed.
[0256]
Therefore, the "sound effects-added call system" disclosed in Japanese Patent Publication 2002-271494, for selective operation simplification, informs or signals corresponding to the advance which number which sound effects to the caller However, if there is a change in the contents of the corresponding signal or the sound effect, it is necessary to inform the caller of the changed signal, which requires a lot of labor. Also, in the mobile communication device disclosed in Japanese Patent Laid-Open No. 2002-51116, the correspondence between the stored sound effect data and the numeric keypad is fixedly assigned, so the correspondence cannot be changed. According to this modified example, it is possible to respond quickly even when there is a change in the acoustic signal or when the information corresponding to the acoustic signal has changed.
[0257]
(Modification 3 of Embodiments 1 and 2)
In the first and second embodiments and each modified example described above, the mobile phone 1 has been described as the telephone of the other party, but the present invention is not limited to this. For example, the communication partner telephone may be a fixed telephone. In this case, the exchange device 5 is connected to the exchange device 5 of the fixed telephone network. Data communication between the mobile phone 1 and the fixed phone is performed in the same manner as in the prior art.
[0258]
In the above-described first and second embodiments and modifications thereof, a voice signal (a voice signal obtained by combining a transmission voice signal and a sound signal, a voice signal obtained by combining a received voice signal and a sound signal) and Although the description has been given of the case where the signal combined with the image signal is exchanged between the mobile phones in a call (or between the mobile phone and the fixed phone), the present invention is limited to this case. There is nothing. For example, a voice signal (a voice signal in which a transmission voice signal and a sound signal are combined, a voice in which a reception voice signal and a sound signal are combined) between mobile phones in a call (or between a mobile phone and a fixed phone) Only the signal) may be exchanged.
[0259]
In this case, in the mobile phone shown in FIG. 2, functional units (display unit 18, imaging unit 28, image signal decoding unit 17, image signal encoding unit 29, demultiplexing unit 16, multiplexing unit) that perform processing related to image signals. There is no conversion unit 30). The audio signal decoding unit 18 directly acquires the audio signal from the radio reception unit 11, and the audio signal encoding unit 29 directly transmits the audio signal to the radio transmission unit 12.
[0260]
【The invention's effect】
As described above, according to the present invention, the acoustic signal is changed according to the change of the transmission voice signal and / or the reception voice signal during the call, thereby preventing the call from being hindered, or , Can raise the call. As a result, it is possible to excite and activate the voice conversation atmosphere.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration of a communication system according to a first embodiment.
2 is a diagram showing a configuration of a mobile phone according to Embodiment 1. FIG.
FIG. 3 is a diagram illustrating an example of a correspondence table according to the first embodiment.
FIG. 4 is a diagram for supplementing the description of the communication method according to the first embodiment.
FIG. 5 is a flowchart for explaining part of the communication method according to the first embodiment;
6 is a flowchart for explaining a part of the communication method according to Embodiment 1. FIG.
7 is a diagram illustrating an example of a correspondence table according to Embodiment 2. FIG.
FIG. 8 is a flowchart for explaining part of the operation of the mobile phone according to the second embodiment;
FIG. 9 is a flowchart for explaining part of the operation of the mobile phone according to the second embodiment;
FIG. 10 is a diagram illustrating an example of a correspondence table according to the first modification of the second embodiment.
FIG. 11 is a flowchart for explaining a part of the operation of the mobile phone according to the first modification of the second embodiment.
FIG. 12 is a flowchart for explaining a part of the operation of the mobile phone according to the first modification of the second embodiment.
FIG. 13 is a diagram illustrating an example of a correspondence table according to the second modification of the second embodiment.
14 is a flowchart for explaining a part of the operation of the mobile phone according to the second modification of the second embodiment. FIG.
FIG. 15 is a diagram illustrating an example of a correspondence table according to the third modification of the second embodiment.
FIG. 16 is a flowchart for explaining a part of the operation of the mobile phone according to the third modification of the second embodiment.
FIG. 17 is a diagram showing a configuration of a mobile phone according to a first modification of the first and second embodiments.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Mobile phone, 4 Base station, 5 Switching apparatus, 6 Information provision server apparatus, 11 Wireless reception part, 12 Wireless transmission part, 13 Communication control part, 14 Storage control part, 15 Storage part, 16 Separation part, 17 Image signal Decoding unit, 18 display unit, 19 reception side analysis unit, 20 acoustic information processing unit, 21 reception side superposition unit, 22 speaker unit, 23 microphone unit, 24 noise canceling unit, 25 transmission side analysis unit, 26 transmission side superposition 27, audio signal encoding unit, 28 photographing unit, 29 image signal encoding unit, 30 multiplexing unit, 31 input unit, 32 information communication unit.

Claims (17)

通信先装置に送信する音声信号である送信音声信号、又は前記通信先装置から受信した音声信号である受信音声信号に音響信号を合成する携帯通信装置であって、
前記送信音声信号と前記受信音声信号との中から最も大きい音量値を有する信号を選択音声信号として所定時間毎に選択する音声信号選択部と、
選択された前記選択音声信号の音量値の大きさに応じて、前記選択音声信号に合成する前記音響信号の音量値の大きさを変更する制御部と
を有することを特徴とする携帯通信装置。
A portable communication device that synthesizes an acoustic signal with a transmission audio signal that is an audio signal to be transmitted to a communication destination device or a reception audio signal that is an audio signal received from the communication destination device,
An audio signal selection unit that selects a signal having the largest volume value from the transmission audio signal and the reception audio signal as a selection audio signal every predetermined time;
A control unit configured to change a volume value of the acoustic signal to be synthesized with the selected sound signal according to a volume value of the selected selected sound signal. Mobile communication device.
前記選択音声信号の音量値を特定するために用いられる第1音量値と前記選択音声信号の音量値の大きさを変更するために用いられる第2音量値とを複数有するテーブルと、
前記選択音声信号の音量値と前記テーブルとを用いて、前記第2音量値を取得する音量値取得部とを有し、
前記制御部は、前記選択音声信号に合成する前記音響信号の音量値を、前記音量値取得部により取得された前記第2音量値に変更することを特徴とする請求項1に記載の携帯通信装置。
A table having a plurality of first volume values used for specifying a volume value of the selected audio signal and a plurality of second volume values used for changing the volume value of the selected audio signal;
Using a volume value of the selected audio signal and the table, a volume value acquisition unit that acquires the second volume value;
2. The mobile communication according to claim 1, wherein the control unit changes a volume value of the acoustic signal combined with the selected audio signal to the second volume value acquired by the volume value acquisition unit. apparatus.
通信先装置に送信する音声信号である送信音声信号、又は前記通信先装置から受信した音声信号である受信音声信号に音響信号を合成する携帯通信装置であって、
前記送信音声信号及び前記受信音声信号は、前記音声信号が時間的に連続して存在する部分である有音声信号と前記音声信号が時間的に連続して存在しない部分である無音声信号とを有し、
前記音響信号は、所定時間における拍子数を示すテンポを有しており、
前記有音声信号から前記無音声信号に変化する第1回数、及び前記無音声信号から前記有音声信号に変化する第2回数を前記所定時間毎に計数する回数計数部と、
計数された前記第1回数及び前記第2回数に基づいて、前記テンポを制御する制御部と
を有することを特徴とする携帯通信装置。
A portable communication device that synthesizes an acoustic signal with a transmission audio signal that is an audio signal to be transmitted to a communication destination device or a reception audio signal that is an audio signal received from the communication destination device,
The transmission voice signal and the reception voice signal are a voiced signal that is a part where the voice signal exists continuously in time and a voiceless signal that is a part where the voice signal does not exist continuously in time. Have
The acoustic signal has a tempo indicating the number of beats in a predetermined time,
A number counting unit that counts the first number of times changing from the voiced signal to the voiceless signal and a second number of times changing from the voiceless signal to the voiced signal every predetermined time;
A control unit for controlling the tempo based on the counted first and second times;
A portable communication device comprising:
前記制御部は、計数された前記第1回数及び前記第2回数の合計数の増減に応じて、前記テンポの拍子数を増減することを特徴とする請求項3に記載の携帯通信装置。The mobile communication device according to claim 3, wherein the control unit increases or decreases the number of beats of the tempo according to an increase or decrease of the total number of the first number and the second number counted. 通信先装置に送信する音声信号である送信音声信号、又は前記通信先装置から受信した音声信号である受信音声信号に音響信号を合成する携帯通信装置であって、A portable communication device that synthesizes an acoustic signal with a transmission audio signal that is an audio signal to be transmitted to a communication destination device or a reception audio signal that is an audio signal received from the communication destination device,
前記送信音声信号及び前記受信音声信号は、前記音声信号が時間的に連続して存在しない部分である無音声信号を有し、The transmission audio signal and the reception audio signal have a non-audio signal that is a portion where the audio signal does not exist continuously in time,
前記無音声信号が連続する無音時間を計測する計測部と、A measurement unit for measuring a silent period in which the silent signal is continuous;
計測された前記無音時間の大きさに応じて、複数の音響信号の中からいずれかの音響信号を選択する音響信号選択部と  An acoustic signal selection unit that selects any one of a plurality of acoustic signals according to the measured duration of the silent time;
を備えることを特徴とする携帯通信装置。A portable communication device comprising:
前記無音時間を特定するために用いられる無音時間情報と前記音響信号を選択するために用いられる選択情報とを複数有するテーブルと、A table having a plurality of silent time information used to specify the silent time and selection information used to select the acoustic signal;
測定された前記無音時間と前記テーブルとを用いて、前記選択情報を取得する情報取得部とを有し、  Using the measured silent time and the table, an information acquisition unit that acquires the selection information,
前記音響信号選択部は、取得された前記選択情報に対応する音響信号を選択することを特徴とする請求項5に記載の携帯通信装置。The mobile communication device according to claim 5, wherein the acoustic signal selection unit selects an acoustic signal corresponding to the acquired selection information.
通信先装置に送信する音声信号である送信音声信号、又は前記通信先装置から受信した音声信号である受信音声信号に音響信号を合成する携帯通信装置であって、A portable communication device that synthesizes an acoustic signal with a transmission audio signal that is an audio signal to be transmitted to a communication destination device or a reception audio signal that is an audio signal received from the communication destination device,
前記送信音声信号及び前記受信音声信号は、前記音声信号が時間的に連続して存在するThe transmission audio signal and the reception audio signal have the audio signal continuously present in time. 部分である有音声信号と前記音声信号が時間的に連続して存在しない部分である無音声信号とを有しており、A voice signal that is a part and a non-voice signal that is a part where the voice signal does not exist continuously in time,
前記有音声信号から前記無音声信号に変化する第1回数、及び前記無音声信号から前記有音声信号に変化する第2回数を所定時間毎に計数する回数計数部と、A number counting unit that counts a first number of times from the voiced signal to the voiceless signal and a second number of times to change from the voiceless signal to the voiced signal every predetermined time;
計数された前記第1回数及び前記第2回数に基づいて、複数の音響信号の中からいずれかの音響信号を選択する音響信号選択部と  An acoustic signal selection unit that selects one of the plurality of acoustic signals based on the counted first and second times;
を有することを特徴とする携帯通信装置。A portable communication device comprising:
前記音響信号は、所定時間における拍子数を示すテンポを有しており、The acoustic signal has a tempo indicating the number of beats in a predetermined time,
前記音響信号選択部は、計数された前記第1回数及び前記第2回数の合計数の増減に応じて、前記テンポの拍子数が増減した音響信号を選択することを特徴とする請求項7に記載の携帯通信装置。The sound signal selection unit selects the sound signal whose number of beats of the tempo is increased or decreased according to the increase or decrease of the total number of the first number and the second number counted. The portable communication device described.
前記第1回数及び前記第2回数の合計数を特定するために用いられる合計数特定情報と前記音響信号を選択するために用いられる選択情報とを複数有するテーブルと、A table having a plurality of total number specifying information used for specifying the total number of the first number of times and the second number of times and selection information used for selecting the acoustic signal;
前記合計数と前記テーブルとを用いて、前記選択情報を取得する情報取得部とを有し、Using the total number and the table, an information acquisition unit that acquires the selection information,
前記音響信号選択部は、取得された前記選択情報に対応する音響信号を選択することを特徴とする請求項7に記載の携帯通信装置。  The mobile communication device according to claim 7, wherein the acoustic signal selection unit selects an acoustic signal corresponding to the acquired selection information.
前記音声信号の送受信が前記通信先装置と行われている通話時間を計測する通話時間計測部を有し、A call time measuring unit for measuring a call time during which transmission / reception of the audio signal is performed with the communication destination device;
前記音響信号選択部は、前記第1回数及び前記第2回数の合計数と前記通話時間とに対応する音響信号を選択することを特徴とする請求項7に記載の携帯通信装置。The mobile communication device according to claim 7, wherein the acoustic signal selection unit selects an acoustic signal corresponding to the total number of the first number and the second number and the call duration.
前記通話時間を特定するために用いられる通話情報と前記第1回数及び前記第2回数の合計数を特定するために用いられる合計数特定情報と前記音響信号を選択するために用いられる選択情報とを複数記憶するテーブルと、Call information used for specifying the call time, total number specifying information used for specifying the total number of the first number and the second number, and selection information used for selecting the acoustic signal, A table for storing a plurality of
前記通話時間と前記合計数と前記テーブルとを用いて、前記選択情報を取得する情報取得部とを有し、Using the call time, the total number, and the table, an information acquisition unit that acquires the selection information;
前記音響信号選択部は、取得された前記選択情報に対応する音響信号を選択することを特徴とする請求項10に記載の携帯通信装置。The mobile communication device according to claim 10, wherein the acoustic signal selection unit selects an acoustic signal corresponding to the acquired selection information.
前記テーブルの全部又は一部の内容を書換るときに用いられる書換情報を記憶する書換情報記憶部と、A rewrite information storage unit for storing rewrite information used when rewriting all or part of the contents of the table;
現在用いられている前記テーブルの全部又は一部の内容を前記書換情報の内容に書換る書換部と  A rewriting unit for rewriting all or part of the contents of the table currently used to the contents of the rewriting information;
を有することを特徴とする請求項2、請求項6、請求項9及び請求項11のいずれかに記載の携帯通信装置。The mobile communication device according to any one of claims 2, 6, 9, and 11.
前記テーブルの全部又は一部の内容を書換るときに用いられる書換情報を取得する取得部と、An acquisition unit for acquiring rewrite information used when rewriting all or part of the contents of the table;
現在用いられている前記テーブルの全部又は一部の内容を前記書換情報の内容に書換る書換部と  A rewriting unit for rewriting all or part of the contents of the table currently used to the contents of the rewriting information;
を有することを特徴とする請求項2、請求項6、請求項9及び請求項11のいずれかに記載の携帯通信装置。The mobile communication device according to any one of claims 2, 6, 9, and 11.
通信先装置に送信する音声信号である送信音声信号、又は前記通信先装置から受信した音声信号である受信音声信号に音響信号を合成する携帯通信装置で動作する通信方法であって、A communication method that operates in a mobile communication device that synthesizes an audio signal with a transmission audio signal that is an audio signal to be transmitted to a communication destination device or a reception audio signal that is an audio signal received from the communication destination device,
前記送信音声信号と前記受信音声信号との中から最も大きい音量値を有する信号を選択音声信号として所定時間毎に選択するステップと、  Selecting a signal having the largest volume value from the transmission voice signal and the reception voice signal as a selection voice signal at predetermined time intervals;
選択された前記選択音声信号の音量値の大きさに応じて、前記選択音声信号に合成する前記音響信号の音量値の大きさを変更するステップとChanging the volume value of the acoustic signal to be synthesized with the selected audio signal according to the volume value of the selected audio signal selected;
を有することを特徴とする通信方法。A communication method characterized by comprising:
通信先装置に送信する音声信号である送信音声信号、又は前記通信Transmission audio signal that is an audio signal to be transmitted to a communication destination device, or the communication 先装置から受信した音声信号である受信音声信号に音響信号を合成する携帯通信装置で動作する通信方法であって、A communication method that operates in a portable communication device that synthesizes an acoustic signal with a received audio signal that is an audio signal received from a previous device,
前記送信音声信号及び前記受信音声信号は、前記音声信号が時間的に連続して存在する部分である有音声信号と前記音声信号が時間的に連続して存在しない部分である無音声信号とを有し、The transmission voice signal and the reception voice signal are a voiced signal that is a part where the voice signal exists continuously in time and a voiceless signal that is a part where the voice signal does not exist continuously in time. Have
前記音響信号は、所定時間における拍子数を示すテンポを有しており、The acoustic signal has a tempo indicating the number of beats in a predetermined time,
前記有音声信号から前記無音声信号に変化する第1回数、及び前記無音声信号から前記有音声信号に変化する第2回数を前記所定時間毎に計数するステップと、  Counting the first number of times from the voiced signal to the voiceless signal and the second number of times to change from the voiceless signal to the voiced signal every predetermined time;
計数された前記第1回数及び前記第2回数に基づいて、前記テンポを制御するステップと  Controlling the tempo based on the counted first and second times;
を有することを特徴とする通信方法。A communication method characterized by comprising:
通信先装置に送信する音声信号である送信音声信号、又は前記通信先装置から受信した音声信号である受信音声信号に音響信号を合成する携帯通信装置で動作する通信方法あって、There is a communication method that operates in a mobile communication device that synthesizes an audio signal with a transmission audio signal that is an audio signal to be transmitted to a communication destination device or a reception audio signal that is an audio signal received from the communication destination device, and
前記送信音声信号及び前記受信音声信号は、前記音声信号が時間的に連続して存在しない部分である無音声信号を有し、The transmission audio signal and the reception audio signal have a non-audio signal that is a portion where the audio signal does not exist continuously in time,
前記無音声信号が連続する無音時間を計測するステップと、  Measuring a silent time in which the silent signal continues; and
計測された前記無音時間の大きさに応じて、複数の音響信号の中からいずれかの音響信号を選択するステップと  Selecting any one of a plurality of sound signals according to the measured duration of the silent time; and
を備えることを特徴とする通信方法。A communication method comprising:
通信先装置に送信する音声信号である送信音声信号、又は前記通信先装置から受信した音声信号である受信音声信号に音響信号を合成する携帯通信装置で動作する通信方法であって、A communication method that operates in a mobile communication device that synthesizes an audio signal with a transmission audio signal that is an audio signal to be transmitted to a communication destination device or a reception audio signal that is an audio signal received from the communication destination device,
前記送信音声信号及び前記受信音声信号は、前記音声信号が時間的に連続して存在する部分である有音声信号と前記音声信号が時間的に連続して存在しない部分である無音声信号とを有しており、The transmission voice signal and the reception voice signal are a voiced signal that is a part where the voice signal exists continuously in time and a voiceless signal that is a part where the voice signal does not exist continuously in time. Have
前記有音声信号から前記無音声信号に変化する第1回数、及び前記無音声信号から前記有音声信号に変化する第2回数を所定時間毎に計数するステップと、  Counting a first number of times that changes from the voiced signal to the voiceless signal and a second number of times that changes from the voiceless signal to the voiced signal every predetermined time;
計数された前記第1回数及び前記第2回数に基づいて、複数の音響信号の中からいずれかの音響信号を選択するステップと  Selecting any one of a plurality of sound signals based on the counted first and second times; and
を有することを特徴とする通信方法。A communication method characterized by comprising:
JP2003137767A 2003-05-15 2003-05-15 Mobile communication device and communication method Expired - Fee Related JP3773917B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003137767A JP3773917B2 (en) 2003-05-15 2003-05-15 Mobile communication device and communication method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003137767A JP3773917B2 (en) 2003-05-15 2003-05-15 Mobile communication device and communication method

Publications (2)

Publication Number Publication Date
JP2004343443A JP2004343443A (en) 2004-12-02
JP3773917B2 true JP3773917B2 (en) 2006-05-10

Family

ID=33527360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003137767A Expired - Fee Related JP3773917B2 (en) 2003-05-15 2003-05-15 Mobile communication device and communication method

Country Status (1)

Country Link
JP (1) JP3773917B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4447438B2 (en) 2004-11-29 2010-04-07 Necエレクトロニクス株式会社 Manufacturing method of semiconductor device
EP2485461A4 (en) * 2009-10-01 2013-11-27 Fujitsu Ltd Voice communication apparatus
WO2014178122A1 (en) * 2013-04-30 2014-11-06 楽天株式会社 Audio communication system, audio communication method, audio communication purpose program, audio transmission terminal, and audio transmission terminal purpose program

Also Published As

Publication number Publication date
JP2004343443A (en) 2004-12-02

Similar Documents

Publication Publication Date Title
KR100389521B1 (en) Voice processing method, telephone using the same and relay station
CN102131305A (en) Method and system for realizing voice service
JP3773917B2 (en) Mobile communication device and communication method
JP2002118689A (en) Function of automatically reproducing voice in response to calling party at other end in transmission through cellular phone
JP3915716B2 (en) Telephone message system, content server, and call transfer system
US7394892B2 (en) Content reproduction device
JP3291920B2 (en) Call system
KR100752294B1 (en) Method and apparatus for providing background sound in mobile phone
JP4059059B2 (en) Information acquisition apparatus and information providing system
JPH11194798A (en) Speech recognition telephone set
WO2001099391A1 (en) Communication terminal device, hold melody sending method, incoming melody playing method and information storing medium
JP2004343566A (en) Mobile telephone terminal and program
JP2005020435A (en) Mobile phone with loudspeaking function, loudspeaking method and its program
JP2007179305A (en) Message converting server and system, and information processor
JP3477099B2 (en) Telephone equipment
JP4601515B2 (en) Telephone with anti-nuisance call sound output function
JP2830508B2 (en) Telephone
JPH10229433A (en) Portable telephone set
JP3757315B2 (en) Answering machine
JP2007049762A (en) Telephone message system, contents server, and call transfer system
JPH05227272A (en) Automatic telephone reception device
JPS6090457A (en) Call confirmation method of telephone
JP2005020189A (en) Telephone set with built-in stereo
JP2001268653A (en) Cordless telephone set and incoming telephone call processing method
KR20060006475A (en) Method and apparatus for converting recorded voice into ringtone of mobile communication terminal

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060215

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100224

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100224

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110224

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120224

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees