JP6201279B2 - サーバ、サーバの制御方法および制御プログラム、情報処理システム、情報処理方法、携帯端末、携帯端末の制御方法および制御プログラム - Google Patents

サーバ、サーバの制御方法および制御プログラム、情報処理システム、情報処理方法、携帯端末、携帯端末の制御方法および制御プログラム Download PDF

Info

Publication number
JP6201279B2
JP6201279B2 JP2012065586A JP2012065586A JP6201279B2 JP 6201279 B2 JP6201279 B2 JP 6201279B2 JP 2012065586 A JP2012065586 A JP 2012065586A JP 2012065586 A JP2012065586 A JP 2012065586A JP 6201279 B2 JP6201279 B2 JP 6201279B2
Authority
JP
Japan
Prior art keywords
processing
voice
server
information
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012065586A
Other languages
English (en)
Other versions
JP2013198066A (ja
Inventor
小林 佳和
佳和 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2012065586A priority Critical patent/JP6201279B2/ja
Priority to PCT/JP2013/055549 priority patent/WO2013140996A1/ja
Publication of JP2013198066A publication Critical patent/JP2013198066A/ja
Application granted granted Critical
Publication of JP6201279B2 publication Critical patent/JP6201279B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/22Arrangements for supervision, monitoring or testing
    • H04M3/2236Quality of speech transmission monitoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/002Applications of echo suppressors or cancellers in telephonic connections

Description

本発明は、音声処理技術に関する。
上記技術分野において、特許文献1には、デジタルPBXで、音声会議での音声に対してエコーキャンセル処理を施す技術が開示されている。
特開2000-082979号公報
しかしながら、上記文献に記載の技術は、単に音声会議の機能を電話機以外の部分で実現するものであって、蓄積した情報に基づいて環境に応じた適切な音声データ処理を行なうことができなかった。
本発明の目的は、上述の課題を解決する技術を提供することにある。
上記目的を達成するため、本発明に係るサーバは、
携帯端末に入力された音声に関する音声データと前記音声を入力された環境に関する環境情報とを受信する受信手段と、
前記環境情報と音声データの処理方法との対応関係を蓄積する蓄積手段と、
前記蓄積手段を参照して、前記音声データに対して施すべき前記処理方法を決定する決定手段と、
決定された前記処理方法に基づいて、前記受信手段で受信した前記音声データに音声処理を加える音声処理手段と、
前記音声処理手段による前記音声処理の結果を情報出力装置に送信する処理結果送信手段と、
を備え
前記蓄積手段は、前記情報出力装置から受信した、前記処理結果送信手段より送信された前記音声処理の結果についての評価結果に応じて、前記蓄積手段に蓄積された前記環境情報と前記音声データの処理方法との対応関係を更新することを特徴とする。
上記目的を達成するため、本発明に係るサーバの制御方法は、
携帯端末と接続可能なサーバの制御方法であって、
前記携帯端末から音声データと音声を入力した環境に関する環境情報とを受信する受信ステップと、
蓄積手段に蓄積された前記環境情報と音声データの処理方法との対応関係を参照して、前記音声データに対して施すべき前記処理方法を決定する決定ステップと、
決定された前記処理方法に基づいて、前記受信ステップで受信した前記音声データに音声処理を加える音声処理ステップと、
前記音声処理ステップによる前記音声処理の結果を情報出力装置に送信する処理結果送信ステップと、
を備え、
さらに、前記情報出力装置から受信した、前記処理結果送信ステップで送信した前記音声処理の結果についての評価結果に応じて、前記蓄積手段に蓄積された前記環境情報と前記音声データの処理方法との対応関係を更新するステップを含むことを特徴とする。
上記目的を達成するため、本発明に係るサーバの制御プログラムは、
携帯端末と接続可能なサーバの制御プログラムであって、
前記携帯端末から音声データと音声を入力した環境に関する環境情報とを受信する受信ステップと、
蓄積手段に蓄積された前記環境情報と音声データの処理方法との対応関係を参照して、前記音声データに対して施すべき前記処理方法を決定する決定ステップと、
決定された前記処理方法に基づいて、前記受信ステップで受信した前記音声データに音声処理を加える音声処理ステップと、
前記音声処理ステップによる前記音声処理の結果を情報出力装置に送信する処理結果送信ステップと、
を備え、
さらに、前記情報出力装置から受信した、前記処理結果送信ステップで送信した前記音声処理の結果についての評価結果に応じて、前記蓄積手段に蓄積された前記環境情報と前記音声データの処理方法との対応関係を更新するステップを含むことを特徴とする。
上記目的を達成するため、本発明に係る情報処理システムは、
携帯端末と情報出力装置とサーバとを含む情報処理システムであって、
前記携帯端末は、
音声を入力して音声データを生成する音声入力手段と、
前記音声データを前記サーバに送信する音声送信手段と、
前記音声を入力した環境に関する環境情報を前記サーバに送信する環境情報送信手段と、
を備え、
前記サーバは、
前記携帯端末から前記音声データと前記環境情報とを受信する受信手段と、
前記環境情報と前記音声データの処理方法との対応関係を蓄積する蓄積手段と、
前記蓄積手段を参照して、前記音声データに対して施すべき前記処理方法を決定する決定手段と、
決定された前記処理方法に基づいて、前記受信手段で受信した前記音声データに音声処理を施す音声処理手段と、
前記音声処理手段による前記音声処理の結果を前記情報出力装置に送信する処理結果送信手段と、
を備え、
前記情報出力装置は、前記サーバから受信した前記音声処理の結果を出力する出力手段と、
前記サーバから受信した前記音声処理の結果を評価する評価手段と、
前記評価手段での評価結果を前記サーバに送信する評価結果送信手段と、
を備え
前記蓄積手段は、前記情報出力装置から受信した前記評価結果に応じて、前記蓄積手段に蓄積された前記環境情報と前記音声データの処理方法との対応関係を更新することを特徴とする。
上記目的を達成するため、本発明に係る情報処理方法は、
携帯端末と情報出力装置とサーバとを用いた情報処理方法であって、
前記携帯端末が、音声を入力して音声データを生成する音声入力ステップと、
前記携帯端末が、前記音声データを前記サーバに送信する音声送信ステップと、
前記携帯端末が、前記音声を入力した環境に関する環境情報を前記サーバに送信する環境情報送信ステップと、
前記サーバが、前記携帯端末から前記音声データと前記環境情報とを受信する受信ステップと、
前記サーバが、前記環境情報と前記音声データの処理方法との対応関係を蓄積した蓄積手段を参照して、前記音声データに対して施すべき前記処理方法を決定する決定ステップと、
前記サーバが、決定された前記処理方法に基づいて、前記受信手段で受信した前記音声データに音声処理を施す音声処理ステップと、
前記サーバが、前記音声処理の結果を前記情報出力装置に送信する処理結果送信ステップと、
前記情報出力装置が、前記サーバから受信した前記音声処理の結果を出力する出力ステップと、
前記情報出力装置が、前記サーバから受信した前記音声処理の結果を評価する評価ステップと、
前記情報出力装置が、前記評価ステップでの評価結果を前記サーバに送信する評価結果送信ステップと、
を含み、
さらに、前記サーバが前記情報出力装置から受信した前記評価結果に応じて、前記蓄積手段に蓄積された前記環境情報と前記音声データの処理方法との対応関係を更新するステップを含むことを特徴とする。
本発明によれば、蓄積した情報を用いて、環境に適応した音声処理を施すことができる。
本発明の第1実施形態に係るサーバの構成を示すブロック図である。 本発明の第2実施形態に係る情報処理システムの概要を示すブロック図である。 本発明の第2実施形態に係る情報処理システムの手続きの処理の流れを示すシーケンス図である。 本発明の第2実施形態に係る情報処理システムの構成を示すブロック図である。 本発明の第2実施形態におけるサーバのノイズキャンセリング方法のテーブルを示す。 本発明の第2実施形態におけるサーバのノイズキャンセリング方法のテーブルを示す。 本発明の第2実施形態におけるサーバのノイズキャンセリング方法のテーブルを示す。 本発明の第2実施形態におけるサーバのハードウェア構成を示す図である。 本発明の第2実施形態におけるサーバの手続きの処理の流れを示すフローチャートである。 本発明の第3実施形態に係る情報処理システムの構成を示すブロック図である 本発明の第3実施形態におけるサーバのテキストデータ生成処理の流れを示すフローチャートである。
以下に、本発明を実施するための形態について、図面を参照して、例示的に詳しく説明記載する。ただし、以下の実施の形態に記載されている、構成、数値、処理の流れ、機能要素などは一例に過ぎず、その変形や変更は自由であって、本発明の技術範囲を以下の記載に限定する趣旨のものではない。
[第1実施形態]
本発明の第1実施形態としてのサーバ110について、図1を用いて説明する。サーバ110は、携帯端末で入力した音声データを、サーバに蓄積された環境情報の履歴に基づいてノイズキャンセリングを行なって情報出力装置から出力するシステムである。
図1に示すように、サーバ110は、携帯端末120と、情報出力装置130と通信可能に接続されている。
サーバ110は、受信部111と、蓄積部112と、決定部113と、音声処理部114と、処理結果送信部115とを備える。受信部111は、携帯端末120に入力された音声に関する音声データと音声を入力された環境に関する環境情報とを受信する。蓄積部112は、環境情報と音声データの処理方法との対応関係を蓄積する。決定部113は、蓄積部112を参照して、音声データに対して施すべき処理方法を決定する。音声処理部114は、決定された処理方法に基づいて、受信部111で受信した音声データに音声処理を加える。処理結果送信部115は、音声処理部114による音声処理の結果を情報出力装置130に送信する。
以上の構成および動作により、本実施形態に係るサーバによれば、蓄積した情報を用いて、環境に適応した音声処理を施すことができる。
[第2実施形態]
次に本発明の第2実施形態に係る情報処理システム200について、図2を用いて説明する。図2は、本実施形態に係る情報処理システム200の概要を説明するための図である。なお、本実施形態においては、情報処理システム200の利用例として電話会議を想定するが、本発明は、講演会、インタビュー、音声チャット、音声同報、音声放送などにおいても利用可能である。図2において、携帯電話としてのスマートフォン210はインターネットに経由で、データセンタのクラウドサーバ220に接続している。
スマートフォン210は、ユーザが発した音声を背景の音(ノイズ)と共に受け付け、さらにユーザの周囲の環境情報として現在位置や状況、日時、天候などを受け付ける。クラウドサーバ220は、この環境情報と、この環境下で得られた音声データに施したノイズキャンセリングの処理方法の対応関係を蓄積する。そして、クラウドサーバ220は、データベースに蓄積された環境情報と、スマートフォン210から取得した音声データ250の環境情報とを対比し、最適な処理方法を選択して音声の品質(音質)を調整した音声データを生成する。クラウドサーバ220は、処理を施した音声データ(処理結果)251を、情報出力装置としてのスマートフォン230に送信する。スマートフォン230は、クラウドサーバ220から取得した音声を出力する。なお、ノイズキャンセリング方法としては、例えば、あるノイズに対して逆位相の信号を重ね合わせる方法の場合、逆位相の信号の種類を環境情報に合わせて選択する方法があるが、これに限られるものではなく、他のノイズキャンセリング方法を用いてもよい。
クラウドサーバ220は、過去に開催した会議で、端末種別、位置情報と接続先の個数、利用アプリケーション、接続先装置をもとにテレビ会議が快適に実現できるパターンをナレッジとして蓄えている。この蓄積したナレッジを利用することにより、今から実施するテレビ会議の環境に最適な設定を提案する。
ここで、情報出力装置としてのスマートフォン230から出力された音声に対してスマートフォン230の画面に表示した音声調節機能を利用して調整を施した場合には、その調整方法をクラウドサーバ220に蓄積する。この調整結果は、スマートフォン230の環境情報と紐付けられた処理方法として蓄積されてもよいし、この調整を行なったユーザに紐付けられた処理方法として蓄積されてもよい。また、会議参加者の満足度を、スマートフォン230から入力してもらい、その満足度を音声良好化のナレッジとしてクラウドサーバ220に蓄積し、次回の設定候補メニュー提示の参考にしてもよい。さらにクラウドサーバ220は、会話中の内容やチャットや環境騒音、明瞭度などを分析して、音声品質が悪い部分などを自動で識別して、音声処理を施してもよい。
音声品質の判定は、例えば、平均片道遅延時間や送話者エコーTELR(Talker echo loudness rating [dB])などを用いて判定してもよい。あるいは、会議中により音声品質が良くなると推定した設定メニュー案を、スマートフォン230のディスプレイを介してユーザに提示してもよい。
次に、情報処理システム200全体の手続き処理の流れを図3を用いて説明する。図3は、情報処理システム200全体の手続き処理の流れを示すシーケンス図である。
ステップS301において、スマートフォン210は、入力した音声から音声データを生成する。ステップS303において、スマートフォン210は、音声データを送信する。ステップS305において、スマートフォン210は、音声データと共に取得した環境情報をクラウドサーバ220に送信する。ステップS307において、クラウドサーバ220は、音声データおよび環境情報を受信する。ステップS309において、クラウドサーバ220は、取得した環境情報下で入力された音声データに施すために最適な処理方法を、データベースに蓄積された処理方法から選択して決定する。ステップS311において、クラウドサーバ220は、決定した処理方法に基づいて音声データにノイズキャンセリングを行なう。ステップS313において、クラウドサーバ220は、処理を行なった音声データをスマートフォン230に送信する。
ステップS315において、スマートフォン230は、取得した音声を出力する。ステップS317において、スマートフォン230は、サーバから取得した音声の処理結果について評価を行なう。ステップS319において、スマートフォン230は、音声処理結果に対する評価結果をクラウドサーバ220に送信する。ステップS321において、クラウドサーバ220は、スマートフォン230から取得した評価結果に基づいて、データベースに蓄積した環境情報と音声データの処理方法との対応関係を更新する。
次に、情報処理システム200の構成を図4を用いて説明する。図4は、情報処理システム200の機能構成を示すブロック図である。
スマートフォン210は、マイク411とスピーカ412と環境判定部413と音質調整部414と音声送信部415と音声受信部416とを有する。また、スマートフォン210は、さらに環境情報送信部417と評価部418と評価結果送信部419とを有する。また、スマートフォン230は、スマートフォン210と同様に、マイク431とスピーカ432と環境判定部433と音質調整部434と音声送信部435と音声受信部436と環境情報送信部437と評価部438と評価結果送信部439とを有する。またスマートフォン210、230は、不図示のカメラ、ディスプレイ、外部I/Fなどを有している。
クラウドサーバ220は、受信部221と、蓄積部222と、決定部223と、音声処理部224と、処理結果送信部225とを有する。
スマートフォン210、230のマイク411、431は、ユーザその他の話者から発せられた音声を入力する。マイク411、431は、背景音が混在した入力音声を、ブラインド音源分離、または独立成分分析などの音声処理方法を用いて背景音と音声とに分離して音声データとして生成する。環境判定部413、433は、音声の入力場所の背景音や、広域測位機能(不図示)を用いて取得したスマートフォン210の位置情報や、ユーザによって入力された情報に基づいて、話者の環境を判定し、環境情報を生成する。環境情報送信部417、437は、環境判定部413、433により生成された環境情報をクラウドサーバ220に送信する。また、音声送信部415、435は、入力した音声データをクラウドサーバ220に送信する。
クラウドサーバ220は、受信部221において、環境情報送信部417、437から送信された環境情報と、音声送信部415、435から送信された音声データとを受信する。蓄積部222は、環境情報と音声処理方法とを対応付けてあらかじめ蓄積している。決定部223は、受信した音声データからノイズを除去するために、受信した環境情報と蓄積部222に蓄積した環境情報とを対比して、同一環境または同様の環境を選択する。
例えば、環境情報に含まれる各種パラメータ(時間、位置など)を数値化して合計することにより環境レベルを決定し、その環境レベルが近似しているものを「同様の環境」と評価する。そしてさらに、決定部223は、選択した特定の環境情報に対応付けて蓄積された音声データのノイズキャンセリング方法を、受信した音声データの処理方法として決定する。音声処理部224は、決定部223により決定されたノイズキャンセリング方法を音声データに適用して、環境情報に適した音声データを生成する。処理結果送信部225は、ノイズキャンセリング方法を適用して生成した音声データをスマートフォン210、230に送信する。
スマートフォン210、230は、音声受信部416、436にて、クラウドサーバ220から送信された音声データを受信する。スピーカ412、432は、ノイズキャンセリングされた音声データに対応する音声を出力する。
音質調整部414、434は、スピーカ412、432から出力された音質を調整するために用いる。すなわち、音質調整部434は、音量、質感、音域などを再調整することにより、現在の環境情報に最適な音声の再生成を可能にする。音声送信部415、435は、音質調整部414、434による調整方法をクラウドサーバ220に送信する。
評価部418、438は、クラウドサーバ220で適用されたノイズキャンセリングによる処理の結果(音質)について評価する。そして、評価結果送信部419、439は、音質についての評価結果をクラウドサーバ220に送信する。
クラウドサーバ220の受信部221は、スマートフォン230から送信された音声データと環境情報とを受信すると、この音質調整部434により調整された音声データの調整方法を、送信された環境情報と共に対応付けて蓄積部222に蓄積する。また、スマートフォン230から送信された、音質についての評価結果や音質調整方法を基に、音声データに適用したノイズキャンセリング方法を、環境情報と共に対応付けて蓄積部222に蓄積する。つまり、クラウドサーバ220は、スマートフォン210、230から得た音質調整方法や評価結果を蓄積して以降の音声処理決定に反映させる。
このように、環境情報に適したノイズキャンセリング方法をクラウドサーバ220に蓄積し、さらにユーザからの評価結果などと対応付けて随時更新することで、ノイズキャンセリングにより処理された音声データに対する多くのユーザの評価を反映させた最適なノイズキャンセリング方法を、いつでも誰もが利用可能となる。
(環境情報のテーブル)
次に、図5A〜図5Cを用いて、ノイズキャンセリング方法の決定方法を説明する。図5A〜図5Cは、環境条件に合わせてノイズキャンセリング方法を決定するため蓄積手段の例として、3つのテーブル500、520、540を示す。
テーブル500は、場所501と、背景音510と、音声処理とを対応させたテーブルである。スマートフォン210に音声データを入力した場所501として、本実施形態においては会議室502と、ホール503と、屋外504とが用意されているが、これらに限られるものではない。例えば、会議室502については、部屋の広さや収容人数などの条件に応じて施すべき音声処理を細分化してもよい。ホール503についても、ホールの広さ(521)や、席数や、階数や、天井の高さなどの条件に応じて細分化してもよい。さらに、屋外504についても、駅、(電)車内、幹線道路沿い、住宅街、工場地帯、建設現場、農場、海上などの条件に応じて細分化してもよい。蓄積部222は、このように場所501の条件を細分化して、環境とノイズキャンセリング方法との対応関係を蓄積することが可能である。
背景音510は、本実施形態においてはスマートフォン210に入力される背景音の大きさを、特大、大、中、小、極小の5段階で表わすが、これに限定されない。決定部223は、例えば、音声データを入力する場所が会議室502であって、背景音510が「特大」の場合には、この環境下で適用されるべきノイズキャンセリング方法として蓄積されている処理Aを、受信した音声データに適用する。また、決定部223は、音声データを入力する場所がホール503であって、背景音510が「大」の場合には、ノイズキャンセリング方法として処理Eを、受信した音声データに適用する。このように、蓄積部222は、環境情報としての場所501や背景音510と、音声データに適用すべきノイズキャンセリング方法との対応関係を蓄積部222に蓄積する。そして、決定部223は、受信部221で受信したスマートフォン210の環境情報および音声データに対して適用すべき最適なノイズキャンセリング方法を選択し、決定することができる。
図5Bのテーブル520は、ホールの広さ521と、入力端末種別522とに応じて施すべき音声処理を決定するためのテーブルである。なお、ホールの広さ521は、位置情報に対応付けてあらかじめ登録されているものとする。決定部223は、音声データを入力するホールの広さ521が「1」であって、入力端末種別522が「スマートフォンA」の場合には、この環境下で適用されるべきノイズキャンセリング方法のパターンとして蓄積されている処理αを受信した音声データに適用する。また、決定部223は、音声データを入力するホールの広さ521が「2」であって、入力端末種別が「スマートフォンB」の場合には、この環境下で適用されるべきノイズキャンセリング方法のパターンとして蓄積されている処理λを受信した音声データに適用する。このように、蓄積部222は、音声データに適用するノイズキャンセリング方法のパターンと、環境情報としてのホールの広さ521と入力端末種別522との対応関係を蓄積する。決定部223は、受信したスマートフォン210の環境情報および音声データに対して適用すべき最適なノイズキャンセリング方法のパターンを選択して、決定することができる。
図5Cを用いて、テーブル540について説明する。テーブル540は、背景音の種類541と、ノイズキャンセリング方法542との対応関係を蓄積するテーブルである。背景音の種類541は、車両の走行音、緊急車両、鉄道の通過音、踏切、工事現場、喫茶店、...nに分けられ、これらの音(背景音)を環境ノイズとしてパターン化する。そして、これらの背景音は、天候、時間などに応じてさらに細分化してパターン化してもよい。なお、背景音の種類541は、位置情報に紐付けてあらかじめ登録されているものとする。そして、これらの音と同様の環境の音か否かの選択は、例えば、音の高さ、大きさ、周波数に応じて選択的に決定する。処理方法542は、処理1、処理2、...処理nである。
決定部223は、音声データを入力する背景音の種類541が「車両の走行音」の場合に、この環境下で適用されるべきノイズキャンセリング方法542として処理1を適用する。背景音の種類541が「鉄道の通過音」に関する処理方法542としては、処理方法3を適用する。蓄積部222は、このように音声データを入力する環境と、この環境下で適用すべきノイズキャンセリング方法とを対応付けて蓄積する。そして、決定部223は、受信したスマートフォン210の環境情報および音声データに対して適用すべきノイズキャンセリング方法542を、蓄積部222に蓄積されたノイズキャンセリング方法から選択し、決定することができる。このノイズキャンセリング方法542としては、会議への参加者のうち、招いた側と招かれた側とからそれぞれ音声の感度についての評価を取得して、ナレッジとして蓄積部222に蓄積する。さらに、例えば、クラウドサーバ220は、「もう一度お願いします。」や、「音が聞こえないから、1回切るね。」などのキーワードを発せられた会議の行なわれた場所、時間、天候などの環境情報、および位置情報を取得して、ナレッジとして蓄積部222に蓄積する。そして、クラウドサーバ220は、これらの環境情報に対応付けて、音声データの処理方法を蓄積部222に蓄積する。
なお、ここでは、図5A〜5Cを用いて、環境情報の例および音声処理方法の導出方法を例示したが、本発明はこれに限定されるものではない。環境情報としては、上に挙げたもののほか、スマートフォンのユーザ(話者など)、時間、季節、および天候などを用いてもよい。これらの情報は、ユーザによりあらかじめ入力されてもよいし、特定のサーバにアクセスすることにより取得してもよい。例えば、ユーザごとに音声処理方法を蓄積して、ユーザの声質に最適な音声処理方法を決定してもよい。あるいは、ユーザデータベースから取得したユーザの年齢に応じた出力音声の高さを蓄積して、例えば、年齢が高い程、高周波の音を聴取し難くなる傾向があることから出力音声を低くするなどの工夫を施してもよい。または、聞き手のユーザの好みに応じた音声処理を施してもよい。スマートフォン210とスマートフォン230とで上記の環境情報が異なる場合には、クラウドサーバ220の音声処理部224は、スマートフォン210から入力した音声データと、スマートフォン230から入力した音声データとに対して、異なる音声処理を施すことになる。
(クラウドサーバのハードウェア構成)
本実施形態に係る情報処理システムにおけるクラウドサーバ220のハードウェア構成について、図6を用いて説明する。
サーバ220は、CPU(Central Processing Unit)610、ROM(Read Only Memory)620、通信制御部630、RAM(Random Access Memory)640、およびストレージ650を備えている。CPU610は中央処理部であって、様々なプログラムを実行することによりサーバ220全体を制御する。ROM620は、リードオンリメモリであり、CPU610が最初に実行すべきブートプログラムの他、各種パラメータ等を記憶している。また、RAM640は、ランダムアクセスメモリであり、各種データを一時記憶している。各種データとして、受信音声データ641と、環境データ642と、送信音声644とを記憶する。一方、ストレージ650は、データベース651およびプログラム652を記憶している。データベース651は図5Aに示すテーブル500と、図5Bに示すテーブル520と、図5Cに示すテーブル540とを含む。また、プログラム652は、選択モジュール653と、音声処理モジュール654と、音声品質判定モジュール655と、ノイズ判別モジュール656とを有する。さらに、通信制御部630は、スマートフォン210およびスマートフォン230とのネットワークを介した通信を制御する。
受信音声データ641は、スマートフォン210のマイク411から入力された話者の音声や背景音である。環境データ642は、環境情報送信部417から送信された、スマートフォン210の存する周囲の環境情報である。具体的には、図5Aの場所501(会議室502、ホール503、屋外504)や、図5Bのホールの広さ521や、図5Cの背景音の種類541(車両の走行音、緊急車両、鉄道の通過音、踏切、工事現場など)である。送信音声644は、マイク411で生成された、背景音の含まれた音声データである。
選択モジュール653は、蓄積部222に蓄積された音声データのノイズキャンセリング方法として、最適な処理方法を選択して決定する。そして、音声処理モジュール654は、最適な処理方法として決定されたノイズキャンセリング方法を実行する。音声品質判定モジュール655は、受信部221で受信した音声データの音声品質を一定の閾値以上であるか否か判定する。ノイズ判別モジュール656は、受信部221で受信した音声データに含まれるノイズを判別する。なお、ノイズとは、会議における話者の音声およびこれに付随する情報以外の不要な音および情報のことである。
(サーバで行なう処理の流れ)
図7は、クラウドサーバ220の手続きの処理の流れを示すフローチャートである。まずスマートフォン210において、クラウドサーバ220にあるテレビ会議や音声録音などのアプリケーションを起動することにより、図7のフローは開始される。その状態で、スマートフォン210は、クラウドサーバ220にて動作しているアプリケーションに音声データを送信する。
ステップS701において、受信部221は、音声データの入力を受け付ける。次に、ステップS703において、音質判定部(不図示)は、受信した音声データの音質を判定する。具体的には、音声部分について会話中の内容やチャットや環境騒音、明瞭度などを分析して、音声品質が悪い部分などを自動で識別する。
ステップS705において、音質判定部は、音質が所定の音質以上であれば、ステップS715に進む。一方、あらかじめ設定してある閾値以下の音声品質の場合には、ステップS707に進み、受信部221は、スマートフォン210の環境情報送信部213から送信された環境情報を取得する。つまり、過去の履歴の中から現在の状況にあった設定値を用いる。スマートフォン210に対して「音声品質が低下しています。過去の成功履歴の設定値を使用しますか。」の表示を行って、接続方法を提案してもよい。なお、この接続方法の提案について、クラウドサーバ220は、スマートフォン210の画面上に接続方法を通知するだけではなく、スマートフォン210の振動(バイブレーション)機能を利用して、利用者に通知してもよい。
さらに、クラウドサーバ220は、音質向上のための文字または振動による提案通知を、音声入力または音声出力に用いられているスマートフォン230に送信するだけでなく、あらかじめクラウドサーバに送信された会議への参加者情報に基づいて他の参加者のスマートフォンなどの携帯電話機に対して行なってもよい。これにより、スマートフォン230のユーザにおいて音質向上の提案通知に対応できない状況であっても、他の参加者を介して会議の音質向上を図ることが可能である。
ステップS709において、音声処理部224は、蓄積部222に蓄積された環境情報とノイズキャンセリング方法との対応関係に基づいて、受信した環境情報に適用すべきノイズキャンセリング方法を選択する。次に、ステップS711において、音声処理部224は、選択したノイズキャンセリング方法を、受信した音声データに適用することを決定する。ステップS713において、音声処理部224は、受信した音声データに、決定したノイズキャンセリング方法を施して音質を向上させた音声データを生成する。
ステップS715において、処理結果送信部225は、音声データをスマートフォン230に送信する。ステップS717において、受信部221は、スマートフォン230から送信された音声データに対する評価結果を受信する。ステップS719において、蓄積部222は、受信した評価結果に基づいて、環境情報と音声データの処理方法との対応関係を更新して蓄積する。
以上の構成および動作により、本実施形態における情報処理システムは、サーバの蓄積情報を用いて音声処理方法を決定するので、蓄積した情報を用いて、環境に適応した音声処理を施すことができる。これにより、音声会議において専用のハードウェアを持ち込んで、エコーキャンセルなどの学習をして、エコーの低減を実施する必要がなくなる。ハウリングなどで会議の継続が困難になるという問題を根本的に解決できる。本実施形態のように、中継装置にスマートフォンのような携帯電話機を用いることにより、スマートフォン1つで会議への参加が容易になり、設備投資も非常に小さくできる。
[第3実施形態]
次に本発明の第3実施形態に係る情報処理システム800について、図8を用いて説明する。図8は、本実施形態に係る情報処理システム800の構成を説明するためのブロック図である。本実施形態に係る情報処理システム800は、上記第2実施形態と比べると、スマートフォン810および830において受信部815または835を有し、情報処理システム800は、スマートフォン830の外部I/F834(USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)、無線LAN(Local Area Network)など)に接続されたディスプレイ850を有する点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
情報処理システム800によれば、クラウドサーバ820を用いて、リアルタイムでスマートフォン810から受信した音声データをテキスト化したテキストデータを生成することが可能である。これにより、スマートフォンの表示部やディスプレイにテキストデータを表示することが可能となり、音声データを聴取できない場合や、難聴者や、電話会議にオブザーバー参加している者や、会議室に遅れて参加する者なども情報を共有することが可能である。
さらに、情報処理システム800によれば、生成したテキストデータを用いて、音声を合成して合成音声を生成することが可能であり、翻訳した合成音声の生成も可能である。クラウドサーバ820は、音声の母音と子音分析などでテキスト化したあと、そのテキストと話者の音節チャートからリアルタイムに音声合成を行ない、明瞭な音声を提供してもよい。クラウドサーバ820には、ふんだんな演算能力があるので、サービスレベルに合わせて、最高レベルの音声処理を施してもよい。例えば、携帯ではもてない数秒や数十秒までの時間のエコーキャンセルと数マイクロ秒単位での背景音キャンセルや音声整形の同時提供を行なってもよい。エコーが無い音にして、会話者の音に同期させて合成配布してもよい。またクラウドサーバ820の強力な処理性能を利用して、長い時間のエコーキャンセルを実行してもよい。そうすれば、遠端のエコーを全く考慮しなくてよいので、その状態を会議音としてミキシングをかけてもよい。ミキシング数は、契約者のサービスレベルに合わせて、数十名など、携帯電話機やタブレットのCPUでは不可能なレベルを提供することができる。
クラウドサーバ820のテキスト生成部826は、受信部221で受信した音声データからリアルタイムでテキストデータを生成する。テキスト生成部826は、広域測位機能(不図示)を用いてスマートフォン810の現在位置を取得すると、緯度経度に合わせた言語(英語、中国語など)を自動的に選択して翻訳してもよい。また、ユーザの使用言語と、テキストデータの言語とを選択可能に表示したり、いずれも表示したりしてもよい。処理結果送信部825は、テキストデータをスマートフォン830に送信する。スマートフォン830の受信部835は、受信したテキストデータを表示部(不図示)に表示する。また、処理結果送信部825は、ディスプレイ850にテキストデータを送信する。ディスプレイ850は、表示部851に送信されたテキストデータを表示する。
なお、音声処理部224は、受信部221で受信した音声データを声紋解析することより、蓄積部222に蓄積された話者データベース(不図示)に同一の声紋が存するか否か検索し、同一の声紋を検出すると、話者を特定する。そして、音声処理部224は、受信した音声データから生成したテキストデータに、特定した話者による発話であることを表示することが可能である。
また、音声処理部224は、スマートフォン810から受信した音声データからテキストデータを生成すると共に、このテキストデータに基づいて音声を合成して合成音声データを生成することが可能である。さらに、音声処理部224は、生成したテキストデータを、ユーザによる選択に応じてリアルタイムで翻訳した音声を合成して音声データを生成してもよい。
図9は、クラウドサーバ820におけるテキストデータ生成処理の流れを示すフローチャートである。
ステップS901において、音声処理部224は、スマートフォン810または830からテキストデータの要求を受け付けたか否か確認する。テキストデータの要求を受けていない場合には、処理を終了する。一方、テキストデータの要求を受けた場合は、ステップS903に進み、音声処理部224は、テキスト化を行なう言語を、スマートフォン810または830の位置情報から選択する。ステップS905において、音声処理部224は、テキストデータを生成する。
以上説明したとおり、本実施形態によれば、テレビ会議や講演、インタビュー、音声チャット、音声同報、音声放送などを実施した際に、録音した音声を人が書き起こして議事録を作成する手間がなくなり、大幅に業務の効率化を達成することができる。
[他の実施形態]
以上、本願発明について上記各実施形態を用いて説明したが、本願発明は上記実施形態に限定されるものではない。例えば、スマートフォンに備えられたマイクはモノラルマイクに限られるものではなく、ステレオマイクであってもよい。スマートフォンは、自機の周辺に存在する騒音源を判定する騒音源判定部を有し、騒音源を判定するとクラウドサーバに騒音源の位置を送信する。クラウドサーバは、受信した騒音源とスマートフォンとの位置関係および蓄積部に蓄積された過去の蓄積情報に基づいて、スマートフォンの利用環境に最適な、位相方向のノイズ(騒音)だけを削除する。
また、例えば、クラウドサーバにおいてハウリングを検出した場合に、クラウドサーバはスマートフォンのマイク感度が高いと判定する。この場合において、クラウドサーバの処理結果送信部からスマートフォンに対してマイク感度を下げる指示を送信する。そして、スマートフォンにおいてマイク感度を下げられたことを検知すると、クラウドサーバは、蓄積部に蓄積された過去の環境情報に基づいて、ハウリングが生じない範囲までマイク感度を上げる。これにより、クラウドサーバは、会議の行なわれている環境においてハウリングが生じず、かつ、明瞭な音質を得られるように音質の最適化を図り、クラウドサーバの演算とスマートフォンのI/O制御とを連動させる。
例えば、スマートフォンのUSBポートにUSBマイクを繋いで会議を開いた場合において、クラウドサーバは、スマートフォンに接続されたUSBマイクと、このUSBマイクが用いられた環境情報とを蓄積する。そしてさらに、クラウドサーバは、USBマイクを用いた会議の利用者から得られた会議における音質についての評価を環境情報と対応付けて蓄積する。例えば、会議終了後に、利用者に対して会議における音質についてのアンケートを実施して、音質(出力音声)に対する評価を受け付けると、クラウドサーバは、この評価と会議の環境情報とを対応付けて蓄積部に蓄積し、次回の会議に反映させる。
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。また、それぞれの実施形態に含まれる別々の特徴を如何様に組み合わせたシステムまたは装置も、本発明の範疇に含まれる。
また、本発明は、複数の機器から構成されるシステムに適用されてもよいし、単体の装置に適用されてもよい。さらに、本発明は、実施形態の機能を実現する情報処理プログラムが、システムあるいは装置に直接あるいは遠隔から供給される場合にも適用可能である。したがって、本発明の機能をコンピュータで実現するために、コンピュータにインストールされるプログラム、あるいはそのプログラムを格納した媒体、そのプログラムをダウンロードさせるWWW(World Wide Web)サーバも、本発明の範疇に含まれる。

Claims (19)

  1. 携帯端末に入力された音声に関する音声データと前記音声を入力された環境に関する環境情報とを受信する受信手段と、
    前記環境情報と音声データの処理方法との対応関係を蓄積する蓄積手段と、
    前記蓄積手段を参照して、前記音声データに対して施すべき前記処理方法を決定する決定手段と、
    決定された前記処理方法に基づいて、前記受信手段で受信した前記音声データに音声処理を加える音声処理手段と、
    前記音声処理手段による前記音声処理の結果を情報出力装置に送信する処理結果送信手段と、
    を備え、
    前記蓄積手段は、前記情報出力装置から受信した、前記処理結果送信手段より送信された前記音声処理の結果についての評価結果に応じて、前記蓄積手段に蓄積された前記環境情報と前記音声データの処理方法との対応関係を更新することを特徴とするサーバ。
  2. 前記決定手段は、さらに、前記音声データの音質を判定して、所定の音質以下の場合に、音声処理を施すことを決定することを特徴とする請求項1に記載のサーバ。
  3. 前記蓄積手段は、前記環境情報とノイズキャンセリング方法との対応関係を蓄積し、
    前記決定手段は、前記蓄積手段を参照して、前記携帯端末から受信した前記環境情報に基づいてノイズキャンセリング方法を決定し、
    前記音声処理手段は、受信した前記音声データに前記決定されたノイズキャンセリング方法を適用することを特徴とする請求項1または2に記載のサーバ。
  4. 前記環境情報は、前記携帯端末の種類、前記携帯端末に対して音声を入力した話者、該音声を入力した場所、背景音の種類、背景音の音量、時間、季節、および天候の少なくともいずれか一つを含むことを特徴とする請求項1ないし3のいずれか1項に記載のサーバ。
  5. 前記音声処理手段は、前記音声処理として、前記受信手段で受信した前記音声データをテキスト化してテキストデータを生成し、
    前記処理結果送信手段は、生成された前記テキストデータを前記情報出力装置に出力することを特徴とする請求項1ないし4のいずれか1項に記載のサーバ。
  6. 前記音声処理手段は、前記音声処理として、前記受信手段で受信した前記音声データをテキスト化した上で翻訳することによりテキストデータを生成し、
    前記処理結果送信手段は、生成された前記テキストデータを前記情報出力装置に出力することを特徴とする請求項1ないし5のいずれか1項に記載のサーバ。
  7. 前記音声処理手段は、前記テキストデータに基づいて音声を合成して合成音声データを生成し、
    前記処理結果送信手段は、前記合成音声データを前記情報出力装置に出力することを特徴とする請求項5または6に記載のサーバ。
  8. 前記音声処理手段は、前記受信手段で受信した前記音声データを声紋解析することにより話者との対応付けを行ない、
    前記処理結果送信手段は、処理結果として、前記話者を特定する情報を送信することを特徴とする請求項1ないし7のいずれか1項に記載のサーバ。
  9. 携帯端末と接続可能なサーバの制御方法であって、
    前記携帯端末から音声データと音声を入力した環境に関する環境情報とを受信する受信ステップと、
    蓄積手段に蓄積された前記環境情報と音声データの処理方法との対応関係を参照して、前記音声データに対して施すべき前記処理方法を決定する決定ステップと、
    決定された前記処理方法に基づいて、前記受信ステップで受信した前記音声データに音声処理を加える音声処理ステップと、
    前記音声処理ステップによる前記音声処理の結果を情報出力装置に送信する処理結果送信ステップと、
    を備え、
    さらに、前記情報出力装置から受信した、前記処理結果送信ステップで送信した前記音声処理の結果についての評価結果に応じて、前記蓄積手段に蓄積された前記環境情報と前記音声データの処理方法との対応関係を更新するステップを含むことを特徴とするサーバの制御方法。
  10. 携帯端末と接続可能なサーバの制御プログラムであって、
    前記携帯端末から音声データと音声を入力した環境に関する環境情報とを受信する受信ステップと、
    蓄積手段に蓄積された前記環境情報と音声データの処理方法との対応関係を参照して、前記音声データに対して施すべき前記処理方法を決定する決定ステップと、
    決定された前記処理方法に基づいて、前記受信ステップで受信した前記音声データに音声処理を加える音声処理ステップと、
    前記音声処理ステップによる前記音声処理の結果を情報出力装置に送信する処理結果送信ステップと、
    を備え、
    さらに、前記情報出力装置から受信した、前記処理結果送信ステップで送信した前記音声処理の結果についての評価結果に応じて、前記蓄積手段に蓄積された前記環境情報と前記音声データの処理方法との対応関係を更新するステップを含むことを特徴とするサーバの制御プログラム。
  11. 携帯端末と情報出力装置とサーバとを含む情報処理システムであって、
    前記携帯端末は、
    音声を入力して音声データを生成する音声入力手段と、
    前記音声データを前記サーバに送信する音声送信手段と、
    前記音声を入力した環境に関する環境情報を前記サーバに送信する環境情報送信手段と、
    を備え、
    前記サーバは、
    前記携帯端末から前記音声データと前記環境情報とを受信する受信手段と、
    前記環境情報と前記音声データの処理方法との対応関係を蓄積する蓄積手段と、
    前記蓄積手段を参照して、前記音声データに対して施すべき前記処理方法を決定する決定手段と、
    決定された前記処理方法に基づいて、前記受信手段で受信した前記音声データに音声処理を施す音声処理手段と、
    前記音声処理手段による前記音声処理の結果を前記情報出力装置に送信する処理結果送信手段と、
    を備え、
    前記情報出力装置は、前記サーバから受信した前記音声処理の結果を出力する出力手段と、
    前記サーバから受信した前記音声処理の結果を評価する評価手段と、
    前記評価手段での評価結果を前記サーバに送信する評価結果送信手段と、
    を備え、
    前記蓄積手段は、前記情報出力装置から受信した前記評価結果に応じて、前記蓄積手段に蓄積された前記環境情報と前記音声データの処理方法との対応関係を更新することを特徴とする情報処理システム。
  12. 前記決定手段は、さらに、前記音声データの音質を判定して、所定の音質以下の場合に、音声処理を施すことを決定することを特徴とする請求項11に記載の情報処理システム。
  13. 前記蓄積手段は、前記環境情報とノイズキャンセリング方法との対応関係を蓄積し、
    前記決定手段は、前記蓄積手段を参照して、前記携帯端末から受信した前記環境情報に基づいてノイズキャンセリング方法を決定し、
    前記音声処理手段は、決定されたノイズキャンセリング方法を受信した前記音声データに適用することを特徴とする請求項11または12に記載の情報処理システム。
  14. 前記環境情報は、前記携帯端末の種類、前記携帯端末に対して音声を入力した話者、該音声を入力した場所、背景音の種類、背景音の音量、時間、季節、および天候の少なくともいずれか一つを含むことを特徴とする請求項11ないし13のいずれか1項に記載の情報処理システム。
  15. 前記音声処理手段は、前記音声処理として、前記受信手段で受信した前記音声データをテキスト化してテキストデータを生成し、
    前記処理結果送信手段は、生成された前記テキストデータを前記情報出力装置に出力し、
    前記情報出力装置は、前記サーバから受信した前記テキストデータを表示することを特徴とする請求項11ないし14のいずれか1項に記載の情報処理システム。
  16. 前記音声処理手段は、前記音声処理として、前記受信手段で受信した前記音声データをテキスト化した上で翻訳することによりテキストデータを生成し、
    前記処理結果送信手段は、生成された前記テキストデータを前記情報出力装置に出力し、
    前記情報出力装置は、前記サーバから受信した前記テキストデータを表示することを特徴とする請求項11ないし15のいずれか1項に記載の情報処理システム。
  17. 前記音声処理手段は、前記テキストデータに基づいて音声を合成して合成音声データを生成し、
    前記処理結果送信手段は、前記合成音声データを前記情報出力装置に出力することを特徴とする請求項15または16に記載の情報処理システム。
  18. 前記音声処理手段は、前記受信手段で受信した前記音声データを声紋解析することにより話者との対応付けを行ない、
    前記処理結果送信手段は、処理結果として、前記話者を特定する情報を送信することを特徴とする請求項11ないし17のいずれか1項に記載の情報処理システム。
  19. 携帯端末と情報出力装置とサーバとを用いた情報処理方法であって、
    前記携帯端末が、音声を入力して音声データを生成する音声入力ステップと、
    前記携帯端末が、前記音声データを前記サーバに送信する音声送信ステップと、
    前記携帯端末が、前記音声を入力した環境に関する環境情報を前記サーバに送信する環境情報送信ステップと、
    前記サーバが、前記携帯端末から前記音声データと前記環境情報とを受信する受信ステップと、
    前記サーバが、前記環境情報と前記音声データの処理方法との対応関係を蓄積した蓄積手段を参照して、前記音声データに対して施すべき前記処理方法を決定する決定ステップと、
    前記サーバが、決定された前記処理方法に基づいて、前記受信ステップで受信した前記音声データに音声処理を施す音声処理ステップと、
    前記サーバが、前記音声処理の結果を前記情報出力装置に送信する処理結果送信ステップと、
    前記情報出力装置が、前記サーバから受信した前記音声処理の結果を出力する出力ステップと、
    前記情報出力装置が、前記サーバから受信した前記音声処理の結果を評価する評価ステップと、
    前記情報出力装置が、前記評価ステップでの評価結果を前記サーバに送信する評価結果送信ステップと、
    を含み、
    さらに、前記サーバが前記情報出力装置から受信した前記評価結果に応じて、前記蓄積手段に蓄積された前記環境情報と前記音声データの処理方法との対応関係を更新するステップを含むことを特徴とする情報処理方法。
JP2012065586A 2012-03-22 2012-03-22 サーバ、サーバの制御方法および制御プログラム、情報処理システム、情報処理方法、携帯端末、携帯端末の制御方法および制御プログラム Active JP6201279B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012065586A JP6201279B2 (ja) 2012-03-22 2012-03-22 サーバ、サーバの制御方法および制御プログラム、情報処理システム、情報処理方法、携帯端末、携帯端末の制御方法および制御プログラム
PCT/JP2013/055549 WO2013140996A1 (ja) 2012-03-22 2013-02-28 情報処理システム、情報処理方法、サーバ、携帯端末およびそれらの制御方法と制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012065586A JP6201279B2 (ja) 2012-03-22 2012-03-22 サーバ、サーバの制御方法および制御プログラム、情報処理システム、情報処理方法、携帯端末、携帯端末の制御方法および制御プログラム

Publications (2)

Publication Number Publication Date
JP2013198066A JP2013198066A (ja) 2013-09-30
JP6201279B2 true JP6201279B2 (ja) 2017-09-27

Family

ID=49222459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012065586A Active JP6201279B2 (ja) 2012-03-22 2012-03-22 サーバ、サーバの制御方法および制御プログラム、情報処理システム、情報処理方法、携帯端末、携帯端末の制御方法および制御プログラム

Country Status (2)

Country Link
JP (1) JP6201279B2 (ja)
WO (1) WO2013140996A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106105175B (zh) * 2015-01-30 2019-05-21 华为技术有限公司 一种多方通话中语音转文本的方法及装置
JP6454847B2 (ja) * 2015-11-04 2019-01-23 独立行政法人国立高等専門学校機構 クラウド型の有害動物捕獲支援システム
CN106131354A (zh) * 2016-06-27 2016-11-16 乐视控股(北京)有限公司 拨号建立方法及系统
JP7176296B2 (ja) * 2018-08-23 2022-11-22 株式会社リコー 通信端末、通信システム、ログデータ送信方法、プログラム
JP2021022836A (ja) * 2019-07-26 2021-02-18 株式会社リコー 通信システム、通信端末、通信方法およびプログラム
CN111614781A (zh) * 2020-05-29 2020-09-01 王浩 一种基于云端服务器的音频处理方法、终端设备及系统

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2004039044A1 (ja) * 2002-10-23 2006-02-23 富士通株式会社 通信端末、声紋情報検索サーバ、個人情報表示システム、通信端末における個人情報表示方法、個人情報表示プログラム
JP4110987B2 (ja) * 2003-02-03 2008-07-02 カシオ計算機株式会社 電子メールシステムおよびプログラム
JP3972921B2 (ja) * 2004-05-11 2007-09-05 ソニー株式会社 音声集音装置とエコーキャンセル処理方法
US7917178B2 (en) * 2005-03-22 2011-03-29 Sony Ericsson Mobile Communications Ab Wireless communications device with voice-to-text conversion
JP4888652B2 (ja) * 2007-03-13 2012-02-29 日本電気株式会社 音源加工装置、方法、及びプログラム
JP2009141788A (ja) * 2007-12-07 2009-06-25 Ntt Docomo Inc 通信システム、端末装置、通信制御装置及び機械翻訳サーバ
JP2010010856A (ja) * 2008-06-25 2010-01-14 Sony Ericsson Mobile Communications Ab ノイズキャンセル装置、ノイズキャンセル方法、ノイズキャンセルプログラム、ノイズキャンセルシステム、及び、基地局

Also Published As

Publication number Publication date
JP2013198066A (ja) 2013-09-30
WO2013140996A1 (ja) 2013-09-26

Similar Documents

Publication Publication Date Title
JP6201279B2 (ja) サーバ、サーバの制御方法および制御プログラム、情報処理システム、情報処理方法、携帯端末、携帯端末の制御方法および制御プログラム
JP5134876B2 (ja) 音声通信装置及び音声通信方法並びにプログラム
DE112015003945T5 (de) Mehrquellen-Rauschunterdrückung
US20190138603A1 (en) Coordinating Translation Request Metadata between Devices
US11782674B2 (en) Centrally controlling communication at a venue
JP2014060647A (ja) 情報処理システム及びプログラム
CN114666695A (zh) 一种主动降噪的方法、设备及系统
JP2022542388A (ja) オーディオ装置の協調
WO2022253003A1 (zh) 语音增强方法及相关设备
CN115482830A (zh) 语音增强方法及相关设备
EP2009891B1 (fr) Transmission de signal audio dans un système de conférence audio immersive
CN110176231B (zh) 音响输出系统、音响输出方法及存储介质
EP3979609A1 (en) Evaluation device, evaluation method, and program
WO2022054900A1 (ja) 情報処理装置、情報処理端末、情報処理方法、およびプログラム
US20200184973A1 (en) Transcription of communications
CN114531425A (zh) 一种处理方法和处理装置
KR101778548B1 (ko) 청각장애인을 위한 음성인식 및 보청지원이 가능한 회의 관리 방법 및 시스템
JP3828185B2 (ja) 会議支援システムおよび会議支援システムの制御方法
Albrecht et al. Continuous mobile communication with acoustic co-location detection
US10237402B1 (en) Management of communications between devices
Pirro et al. A fixed beamforming based approach for stereophonic audio-conference systems
WO2023158658A1 (en) Core sound manager
Beracoechea et al. Implementation of immersive audio applications using robust adaptive beamforming and Wave Field Synthesis
CN114530159A (zh) 一种基于WebRTC技术的多媒体资源整合调度方法
Gros et al. A comparison of speech quality judgments in laboratory and in real environment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160405

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170530

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170814

R150 Certificate of patent or registration of utility model

Ref document number: 6201279

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150