JP2010166324A - Portable terminal, voice synthesizing method, and program for voice synthesis - Google Patents
Portable terminal, voice synthesizing method, and program for voice synthesis Download PDFInfo
- Publication number
- JP2010166324A JP2010166324A JP2009006810A JP2009006810A JP2010166324A JP 2010166324 A JP2010166324 A JP 2010166324A JP 2009006810 A JP2009006810 A JP 2009006810A JP 2009006810 A JP2009006810 A JP 2009006810A JP 2010166324 A JP2010166324 A JP 2010166324A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- keyword
- speech
- signal
- function unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Abstract
Description
本発明は、携帯端末に関し、特に音声を出力する携帯端末に関する。 The present invention relates to a mobile terminal, and more particularly to a mobile terminal that outputs sound.
現在、携帯電話事業者(キャリア)の収益においては、データパケットの比率が増加し、音声の比率が減少している。 Currently, in the profits of mobile phone carriers (carriers), the ratio of data packets is increasing and the ratio of voice is decreasing.
そこで、携帯電話オペレータ各社は、ユニークなアプリケーション(アプリケーションソフトウェア)を持った携帯端末や、サービスを提供する事により、シェアの伸張と共に音声の収益率アップを図っている。 Accordingly, mobile phone operator companies are aiming to increase the profitability of voice along with the expansion of market share by providing mobile terminals and services with unique applications (application software).
しかし、従来の携帯電話は、音声合成機能は備えていても、特定のキーワードに基づいた音声合成の切換、生の音声へのフィルタリング、特定キーワードの自動登録は不可能であった。 However, even if a conventional mobile phone has a speech synthesis function, it is impossible to switch speech synthesis based on a specific keyword, filter to raw speech, and automatically register a specific keyword.
なお、関連する技術として、特開平10−097267号公報(特許文献1)に声質変換方法および装置が開示されている。この関連技術では、利用者(ユーザ)の好みに合致する方向に音質が変換されるように、分析合成方式等を用いて、入力された音声の声質変換を行い、声質の異なる音声を合成し、良好な音声、所望の音質の合成音声、種々の声質の合成音声を出力することを目的としている。 As a related technique, a voice quality conversion method and apparatus are disclosed in Japanese Patent Laid-Open No. 10-097267 (Patent Document 1). In this related technology, the voice quality of the input voice is converted using an analysis / synthesis method so that the voice quality is converted in a direction that matches the user's (user) preference, and voices with different voice quality are synthesized. It is intended to output good speech, synthesized speech of desired sound quality, and synthesized speech of various voice qualities.
本発明の目的は、音声を分析し合成や変換を行う携帯端末を提供することである。 An object of the present invention is to provide a portable terminal that analyzes voice and performs synthesis and conversion.
本発明の携帯端末は、音声分析手段と、変換手段と、音声合成手段とを具備する。音声分析手段は、音声通信の相手の識別情報が音声合成対象として登録されているか判断し、識別情報が音声合成対象として登録されている場合、音声通信に関する音声信号のスペクトラムを分析し、音声信号に基づく音声が特定の感情を示す音声パターンに該当する音声であるかどうか判断する。変換手段は、音声が音声パターンに該当する音声である場合、音声にフィルタをかけるフィルタリング処理を行い、フィルタをかけられた音声を出力する。また、変換手段は、音声が音声パターンに該当する音声でない場合、音声信号に含まれるキーワードがNGワードに該当するか判断し、キーワードがNGワードに該当する場合、音声信号の発信元に対し、キーワードがNGワードである旨を通知する。音声合成手段は、音声信号に基づく音声に対して、所定の音声の合成を行い、合成音を出力する。なお、音声通信の例として、電話による通話、テレビ放送やラジオ放送の受信、ストリーミングデータの受信、記憶装置等からの音声データの取得及び再生等が考えられる。また、音声信号の発信元は、音声信号が外部からの受信信号である場合は送信元の相手を示し、音声信号が外部への送信信号である場合は携帯端末のユーザを示す。但し、実際には、これらの例に限定されない。 The portable terminal of the present invention includes a voice analysis unit, a conversion unit, and a voice synthesis unit. The voice analysis means determines whether the identification information of the other party of voice communication is registered as a voice synthesis target. If the identification information is registered as a voice synthesis target, the voice analysis unit analyzes a spectrum of the voice signal related to voice communication, It is determined whether or not the voice based on the voice corresponds to a voice pattern indicating a specific emotion. When the voice is a voice corresponding to the voice pattern, the conversion means performs a filtering process for filtering the voice and outputs the filtered voice. In addition, when the voice is not a voice corresponding to the voice pattern, the conversion unit determines whether the keyword included in the voice signal corresponds to the NG word, and when the keyword corresponds to the NG word, Notify that the keyword is an NG word. The voice synthesizer synthesizes a predetermined voice with the voice based on the voice signal and outputs a synthesized voice. Note that examples of voice communication include telephone calls, reception of television broadcasts and radio broadcasts, reception of streaming data, acquisition and reproduction of voice data from a storage device, and the like. The source of the audio signal indicates the other party of the transmission source when the audio signal is an externally received signal, and indicates the user of the portable terminal when the audio signal is an externally transmitted signal. However, actually, it is not limited to these examples.
本発明の音声合成方法では、音声通信の相手の識別情報が音声合成対象として登録されているか判断する。また、識別情報が音声合成対象として登録されている場合、音声通信に関する音声信号のスペクトラムを分析し、音声信号に基づく音声が特定の感情を示す音声パターンに該当する音声であるかどうか判断する。また、音声が音声パターンに該当する音声である場合、音声にフィルタをかけるフィルタリング処理を行い、フィルタをかけられた音声を出力する。また、音声が音声パターンに該当する音声でない場合、音声信号に含まれるキーワードがNGワードに該当するか判断し、キーワードがNGワードに該当する場合、音声信号の発信元に対し、キーワードがNGワードである旨を通知する。また、音声信号に基づく音声に対して、所定の音声の合成を行い、合成音を出力する。 In the speech synthesis method of the present invention, it is determined whether or not the identification information of the speech communication partner is registered as a speech synthesis target. When the identification information is registered as a speech synthesis target, the spectrum of the speech signal related to speech communication is analyzed to determine whether the speech based on the speech signal is a speech that corresponds to a speech pattern indicating a specific emotion. Further, when the voice is a voice corresponding to the voice pattern, a filtering process for filtering the voice is performed, and the filtered voice is output. If the voice is not a voice corresponding to the voice pattern, it is determined whether the keyword included in the voice signal corresponds to the NG word. If the keyword corresponds to the NG word, the keyword is determined to be NG word for the source of the voice signal. Notify that. Further, a predetermined voice is synthesized with the voice based on the voice signal, and a synthesized sound is output.
本発明の音声合成用プログラムは、音声通信の相手の識別情報が音声合成対象として登録されているか判断するステップと、識別情報が音声合成対象として登録されている場合、音声通信に関する音声信号のスペクトラムを分析し、音声信号に基づく音声が特定の感情を示す音声パターンに該当する音声であるかどうか判断するステップと、音声が音声パターンに該当する音声である場合、音声にフィルタをかけるフィルタリング処理を行い、フィルタをかけられた音声を出力するステップと、音声が音声パターンに該当する音声でない場合、音声信号に含まれるキーワードがNGワードに該当するか判断し、キーワードがNGワードに該当する場合、音声信号の発信元に対し、キーワードがNGワードである旨を通知するステップと、音声信号に基づく音声に対して、所定の音声の合成を行い、合成音を出力するステップとをコンピュータに実行させるためのプログラムである。 The speech synthesis program according to the present invention includes a step of determining whether identification information of a speech communication partner is registered as a speech synthesis target, and a spectrum of a speech signal related to speech communication when the identification information is registered as a speech synthesis target. And determining whether the voice based on the voice signal is a voice corresponding to a voice pattern indicating a specific emotion, and if the voice is a voice corresponding to the voice pattern, a filtering process for filtering the voice is performed. And outputting a filtered voice and if the voice is not a voice corresponding to a voice pattern, determine whether the keyword included in the voice signal corresponds to a NG word, and if the keyword corresponds to a NG word, Informing the source of the audio signal that the keyword is an NG word; For voice-based No. performs synthesis of a given voice, a program for executing the steps on a computer for outputting the synthesized sound.
電話機能を始めとする音声通信機能の利用価値を向上する。 Improve the utility value of voice communication functions such as telephone functions.
<第1実施形態>
以下に、本発明の第1実施形態について添付図面を参照して説明する。
図1を参照すると、本発明の携帯端末は、アンテナ部11と、受信部12と、音声分析機能部13と、変換機能部14と、音声合成機能部15と、音声出力部16と、音声入力部17と、送信部18と、電話番号帳21と、キーワードデータベース22と、音声データベース23を備える。
<First Embodiment>
Hereinafter, a first embodiment of the present invention will be described with reference to the accompanying drawings.
Referring to FIG. 1, the portable terminal of the present invention includes an antenna unit 11, a
ここでは、携帯端末の例として、携帯電話機を想定している。但し、実際には、携帯端末は、PC(パソコン)、モバイルノートPC、シンクライアント端末、カーナビ(カーナビゲーションシステム)、携帯音楽プレーヤー、携帯ゲーム機、家庭用ゲーム機、双方向テレビ、デジタルチューナー、デジタルレコーダー、情報家電(information home appliance)、OA(Office Automation)機器等でも良い。本質的には、本発明の携帯端末は、音声を出力可能な電子機器であれば良い。 Here, a mobile phone is assumed as an example of the mobile terminal. However, in practice, the portable terminal is a PC (personal computer), a mobile notebook PC, a thin client terminal, a car navigation system (car navigation system), a portable music player, a portable game machine, a home game machine, an interactive TV, a digital tuner, Digital recorders, information home appliances, OA (Office Automation) devices, and the like may be used. Essentially, the portable terminal of the present invention may be any electronic device that can output sound.
アンテナ部11は、信号を電波で送信したり受信したりする。ここでは、携帯端末の通信方式として、無線通信を想定しているが、実際には、有線通信でも良い。 The antenna unit 11 transmits and receives signals by radio waves. Here, wireless communication is assumed as the communication method of the mobile terminal, but actually, wired communication may be used.
受信部12は、アンテナ部11で受信した外部からの信号を音声信号に変換する。ここでは、受信部12は、アンテナ部11が受信した高周波信号を復調してベースバンド信号に変換する。なお、ベースバンド信号とは、変復調をするシステムにおける変調前の信号及び復調後の情報信号(音声、映像、デジタルデータ等)を示す。ここでは、ベースバンド信号は、音声信号である。
The
音声分析機能部13は、電話を掛けて来た相手の電話番号等の識別情報が電話番号帳21に音声合成対象番号として登録されているかを判断する。また、音声分析機能部13は、音声信号のスペクトラムを分析し、音声信号に基づく音声が怒り等の特定の感情を示す音声であるかどうか判断する。例えば、音声分析機能部13は、携帯端末の外部又は内部に記憶された特定の感情を示す音声パターンを参照して、音声信号に基づく音声パターンが、特定の感情を示す音声パターンと適合するかを判断する。但し、実際には、これらの例に限定されない。その後、音声分析機能部13は、変換機能部14に音声信号を送る。このとき、音声分析機能部13は、音声信号に基づく音声が怒り等の特定の感情を示す音声であれば、特定の感情を示す音声である旨を、或いは、元の音声にフィルタをかける旨の指示を、変換機能部14に通知する。なお、変換機能部14は、音声信号に基づく音声が怒り等の特定の感情を示す音声であるかどうか判断しない場合、無条件で変換機能部14に音声信号を送る。
The voice
変換機能部14は、キーワードデータベース22を参照して、音声分析機能部13で分析された音声信号に従い、特定のキーワードを示すキーワードデータを出力する。ここでは、変換機能部14は、電話を掛けて来た相手からの音声信号に含まれるキーワードがNGワードとしてキーワードデータベース22に登録されていた場合、その相手に対し、送信部18を介して、予め決められたNGワードや、NGワードである旨の通知を送信する。例えば、変換機能部14は、音声信号に含まれていた「○○」というキーワードがNGワードとしてキーワードデータベース22に登録されていた場合、相手に対し、送信部18を介して、「○○はNGワードです」という旨の通知を送信する。なお、変換機能部14は、音声信号に含まれるキーワードがNGワードとしてキーワードデータベース22に登録されていた場合、NGワードの部分の音声を、無音又はビープ音に変換するようにしても良い。また、変換機能部14は、音声信号に基づく音声が怒り等の特定の感情を示す音声であれば、元の音声にフィルタをかけた音声を出力する処理(フィルタリング)を行う。
The
音声合成機能部15は、音声データベース23を参照して、受け取った音声信号に応じて、所定の音声の合成を行う。本発明の携帯端末では、音声合成機能部15の前段に音声分析機能部13と変換機能部14を配置している。
The voice
音声出力部16は、受け取った音声信号に基づいて、音声出力を行う。
The
音声入力部17は、ユーザ又はアプリケーションによる音声入力に基づいて、音声信号を発生する。
The
送信部18は、音声信号を変換し、アンテナ部11を介して、変換後の信号を外部に送信する。ここでは、受信部12は、音声信号であるベースバンド信号を変調して高周波信号に変換し、アンテナ部11を介して、高周波信号を外部に送信する。
The
電話番号帳21は、電話を掛けて来た相手の電話番号等の識別情報を格納する。ここでは、電話番号帳21は、電話を掛けて来た相手のうち、音声合成の対象とする相手の電話番号等の識別情報を格納する。なお、電話番号は例示に過ぎず、実際には、電話を掛けて来た相手を特定できる識別情報であれば良い。また、電話番号帳21は、携帯端末自体が有する通常の電話番号帳とは別に設けられていても良い。
The
キーワードデータベース22は、特定のキーワードを示すキーワードデータを格納する。ここでは、キーワードデータベース22には、特定の会話のセンテンスやNGワードが登録されている。特定のキーワードの登録については、受話の操作者が変換機能部14を操作するためのボタンを押下した際、音声分析機能部13がそのボタンの押下時から所定時間前までの音声を分析して特定のキーワードを検出し、検出されたキーワードを示すキーワードデータをキーワードデータベース22に自動的に登録する。この場合、音声分析機能部13は、そのボタンの押下時から所定時間前までの音声を、一時的に記憶している。なお、変換機能部14は、操作者の操作に応じて、特定のキーワードデータをWEBサイト等からダウンロードして、キーワードデータベース22に登録するようにしても良い。このとき、変換機能部14は、キーワードデータベース22自体をWEBサイト等からダウンロードするようにしても良い。
The
音声データベース23は、所定の音声データを格納する。ここでは、音声データベース23には、特定の人物の音声に似た音声データが格納されているものとする。特定の人物の例として、タレント(芸能人)や、その他の著名人、ユーザの家族、知人等が考えられる。但し、実際には、これらの例に限定されない。なお、音声合成機能部15は、操作者の操作に応じて、所定の音声データをWEBサイト等からダウンロードして、音声データベース23に登録する。このとき、音声合成機能部15は、音声データベース23自体をWEBサイト等からダウンロードするようにしても良い。
The
アンテナ部11が利用する通信回線の例として、携帯電話網、WiMAX、3G(第3世代携帯電話)、インターネット、LAN(Local Area Network)、無線LAN(Wireless LAN)、ケーブルテレビ(CATV)回線、固定電話網、専用線(lease line)、IrDA(Infrared Data Association)、Bluetooth(登録商標)、シリアル通信回線等が考えられる。但し、実際には、これらの例に限定されない。 Examples of communication lines used by the antenna unit 11 include a mobile phone network, WiMAX, 3G (third generation mobile phone), the Internet, a LAN (Local Area Network), a wireless LAN (Wireless LAN), a cable television (CATV) line, A fixed telephone network, a leased line, IrDA (Infrared Data Association), Bluetooth (registered trademark), a serial communication line, and the like are conceivable. However, actually, it is not limited to these examples.
受信部12及び送信部18の例として、NIC(Network Interface Card)等のネットワークアダプタや、接続口(コネクタ)等の通信ポート等が考えられる。但し、実際には、これらの例に限定されない。
Examples of the receiving
音声分析機能部13、変換機能部14、及び音声合成機能部15の例として、CPU(Central Processing Unit)やマイクロプロセッサ(microprocessor)等の処理装置、又は同様の機能を有する半導体集積回路(Integrated Circuit(IC))等が考えられる。なお、音声分析機能部13、変換機能部14、及び音声合成機能部15は、各々の機能を携帯端末に実行させるためのプログラム(音声認識ソフトウェア、音声合成ソフトウェア等)でも良い。但し、実際には、これらの例に限定されない。
As an example of the speech
また、変換機能部14は、ユーザ操作等の外部入力を受け付けるための入力装置や、ユーザ通知を行うための出力装置と連携するようにしても良い。入力装置の例として、キーボードやキーパッド、画面上のキーパッド、タッチパネル(touch panel)、タブレット(tablet)等が考えられる。或いは、入力装置は、外部の入力装置や記憶装置から情報を取得するためのインターフェース(I/F:interface)でも良い。また、出力装置の例として、LCD(液晶ディスプレイ)やPDP(プラズマディスプレイ)、有機ELディスプレイ(organic electroluminescence display)等の表示装置、又は、表示内容を壁やスクリーンに投影するプロジェクタ等の映写装置、表示内容を用紙等に印刷するプリンタ等の印刷装置等が考えられる。或いは、出力装置は、外部の表示装置や記憶装置に情報を出力するためのインターフェースでも良い。但し、実際には、これらの例に限定されない。
Further, the
音声出力部16の例として、スピーカー、イヤホン、又はヘッドホン等が考えられる。音声出力部16は、ディスプレイ等の表示装置と一体化していても良い。但し、実際には、これらの例に限定されない。
As an example of the
音声入力部17の例として、マイク等の集音器、文字音声変換ソフトウェア、人工音声ソフトウェア、電子楽器等が考えられる。また、音声入力部17は、携帯端末の内部や外部の記憶装置に格納された音声データを取得するためのインタフェース(Interface(I/F))でも良い。但し、実際には、これらの例に限定されない。
As an example of the
電話番号帳21、キーワードデータベース22、及び音声データベース23の例として、メモリ等の半導体記憶装置、ハードディスク等の外部記憶装置(ストレージ)、又は、記憶媒体(メディア)等が考えられる。なお、電話番号帳21、キーワードデータベース22、及び音声データベース23は、携帯端末の本体に内蔵された記憶装置に限らず、周辺機器(外付けHDD等)や外部のサーバ(ストレージサーバ等)に設置された記憶装置、或いは、NAS(Network Attached Storage)でも良い。但し、実際には、これらの例に限定されない。
As an example of the
図2を参照して、本発明の携帯端末の動作について説明する。 With reference to FIG. 2, the operation of the portable terminal of the present invention will be described.
(1)ステップS101
アンテナ部11は、相手が電話を掛けて来た場合、高周波信号を受信する。
(1) Step S101
The antenna unit 11 receives a high-frequency signal when the other party makes a call.
(2)ステップS102
受信部12は、受信された高周波信号を復調し、ベースバンド信号に変換して音声分析機能部13に送る。このとき、受信部12は、ベースバンド信号と共に、電話を掛けて来た相手の電話番号を示す情報信号を音声分析機能部13に送る。ここでは、ベースバンド信号は、音声信号である。なお、ベースバンド信号は、電話を掛けて来た相手の電話番号を示すデジタルデータを含んでいても良い。
(2) Step S102
The receiving
(3)ステップS103
音声分析機能部13は、電話を掛けて来た相手の電話番号が電話番号帳21に音声合成対象番号として登録されているかを判断する。なお、電話番号は例示に過ぎず、実際には、電話を掛けて来た相手を特定できる識別情報であれば良い。
(3) Step S103
The voice
(4)ステップS104
音声分析機能部13は、電話を掛けて来た相手の電話番号が電話番号帳21に音声合成対象番号として登録された番号でない場合、直接、音声出力部16に音声信号を送る。音声出力部16は、当該音声信号に基づいて、音声出力を行う。このとき、音声分析機能部13は、変換機能部14及び音声合成機能部15に対して動作しないように通知した上で、変換機能部14及び音声合成機能部15を介して音声出力部16に音声信号を送るようにしても良い。
(4) Step S104
The voice
(5)ステップS105
音声分析機能部13は、電話を掛けて来た相手の電話番号が電話番号帳21に音声合成対象番号として登録された番号である場合、音声合成ONと認識し、変換機能部14を動作させる。例えば、音声分析機能部13は、音声合成ONと認識した場合、OFF状態の変換機能部14を起動させる。或いは、音声分析機能部13から変換機能部14への通知を禁止状態から許可状態に変更する。すなわち、音声分析機能部13は、音声合成ONと認識した場合、当該相手との電話中、変換機能部14への音声信号の提供を可能にする。
(5) Step S105
The voice
(6)ステップS106
音声分析機能部13は、音声信号のスペクトラムを分析し、音声信号に基づく音声が怒り等の特定の感情を示す音声であるかどうか判断する。その後、音声分析機能部13は、変換機能部14に音声信号を送る。このとき、音声分析機能部13は、音声信号に基づく音声が怒り等の特定の感情を示す音声であれば、特定の感情を示す音声である旨を、或いは、元の音声にフィルタをかける旨の指示を、変換機能部14に通知する。なお、音声分析機能部13は、音声信号に基づく音声が怒り等の特定の感情を示す音声であるかどうか判断しない場合、無条件で変換機能部14に音声信号を送る。
(6) Step S106
The voice
(7)ステップS107
変換機能部14は、音声信号に基づく音声が怒り等の特定の感情を示す音声であれば、元の音声にフィルタをかけた音声を出力する処理(フィルタリング)を行う。ここでは、変換機能部14は、音声出力部16に対して、元の音声にフィルタをかけた後の音声信号を送る。音声出力部16は、元の音声にフィルタをかけた音声を出力する。このとき、変換機能部14は、音声合成機能部15に対し、音声信号と、元の音声にフィルタをかける旨の通知(フィルタリング依頼)を送り、音声合成機能部15で元の音声にフィルタをかけ、音声合成機能部15から音声出力部16に元の音声にフィルタをかけた後の音声信号を送るようにしても良い。
(7) Step S107
If the voice based on the voice signal indicates a specific emotion such as anger, the
(8)ステップS108
変換機能部14は、音声信号に基づく音声が怒り等の特定の感情を示す音声でなければ、キーワードデータベース22を参照して、音声分析機能部13で分析された音声信号に、特定のキーワードを示すキーワードデータが含まれているかどうか判断する。このとき、変換機能部14は、音声分析機能部13で分析された音声信号に、特定のキーワードを示すキーワードデータが含まれていない場合、音声合成機能部15に音声信号を送る。
(8) Step S108
If the voice based on the voice signal is not a voice indicating a specific emotion such as anger, the
(9)ステップS109
変換機能部14は、音声分析機能部13で分析された音声信号に、特定のキーワードを示すキーワードデータが含まれている場合、音声合成機能部15に対して、音声合成を中止又は禁止し、元の音声を音声出力部16に出力する旨の通知を送る。このとき、音声合成機能部15は、音声信号のうち、特定のキーワードに該当する部分の音声を無音又はビープ音に変換して音声出力部16に送り、他の部分を元の音声で音声出力部16に送る。音声出力部16は、当該音声信号に基づいて、音声出力を行う。
(9) Step S109
When the speech signal analyzed by the speech
(10)ステップS110
変換機能部14は、音声分析機能部13で分析された音声信号に、特定のキーワードを示すキーワードデータが含まれている場合、当該キーワードデータに基づいて、予め決められたNGワードを送信部18に出力する。送信部18は、アンテナ部11を介して、電話を掛けて来た相手に、予め決められたNGワードを送信する。例えば、変換機能部14は、キーワードデータに基づいて、特定のキーワードがNGワードである旨を、送信部18を介して、電話を掛けて来た相手に通知する。このとき、変換機能部14は、NGワードの部分の音声を、無音又はビープ音に変換するようにしても良い。なお、変換機能部14は、特定のキーワードがNGワードである旨を、電話を掛けて来た相手に通知しない場合、特定のキーワードを送信部18に出力しなくても良い。
(10) Step S110
When the voice signal analyzed by the voice
(11)ステップS111
音声合成機能部15は、音声データベース23を参照して、受け取った音声信号に応じて、特定の人物に似た音声の合成を行う。ここでは、音声合成機能部15は、受け取った音声信号に基づく音声の全体に対して、特定の人物に似た音声の合成を行う。
(11) Step S111
The speech
(12)ステップS112
音声合成機能部15は、音声合成された音声信号を音声出力部16に送る。音声出力部16は、音声合成された音声信号に基づいて、スピーカー等から合成音を出力する。
(12) Step S112
The voice synthesizing
(13)ステップS113
音声分析機能部13は、高周波信号の受信が終了するまで、継続的に受話の音声の感情を分析し、音声信号に基づく音声が怒り等の特定の感情を示す音声であるとの結果を得たら、現在の合成音の出力を中止して元の音声にフィルタをかけた音声を出力する処理に切り替える。音声分析機能部13は、通話が終了したら、一連の処理を終了する。
(13) Step S113
The voice
本発明の携帯端末は、テレビやラジオ、カーナビ、無線通信対応の携帯音楽プレーヤーのように、受信専用の音声再生装置でも良い。すなわち、本発明の携帯端末は、音声入力部17や、送信部18を備えていなくても良い。この場合、本発明の携帯端末は、外部に対して、NGワード等の通知を行わない。
The portable terminal of the present invention may be an audio reproduction device dedicated to reception, such as a portable music player compatible with television, radio, car navigation, and wireless communication. That is, the portable terminal of the present invention may not include the
本発明の携帯端末では、音声データベース23に、タレント等の特定の人物の音声データを登録して置けば、受信音声を、その特定の人物を真似た合成音で聞く事ができる。
In the portable terminal of the present invention, if voice data of a specific person such as a talent is registered and placed in the
音声合成の切り替え相手の選択は、予め電話番号帳21に相手を登録しておく事により、又は通話途中でもスイッチを押す事で相手を登録する事により、音声合成をON、OFFする事ができる。
The voice synthesis switching partner can be selected by registering the partner in the
キーワードデータベース22に予め登録された特定のキーワードの音声を認識すると、音声合成を中止して受話音そのままの音声を出力することもできる。
When the voice of a specific keyword registered in advance in the
また、キーワードがNGワードとして登録されていた場合は、相手に対して、決められたNGワードや、NGワードである旨の通知を出力する事もできる。 If the keyword is registered as an NG word, a predetermined NG word or a notification that it is an NG word can be output to the other party.
また、受話の音声の感情を分析し、音声信号に基づく音声が怒り等の特定の感情を示す音声であるとの結果を得たら、特定の人物の音声に真似た合成音を中止して元の音声にフィルタをかけた音声を出力する処理を行う事ができる。 Also, after analyzing the emotion of the received voice and finding that the voice based on the voice signal is a voice that expresses a specific emotion such as anger, the synthesized sound that imitates the voice of a specific person is stopped and the original voice is stopped. It is possible to perform a process of outputting a sound obtained by filtering the sound.
特定のキーワードの登録は、受話の操作者がボタンを押すとその所定時間前の音声を分析してキーワードデータベース22に自動的に登録する事ができる。
The registration of a specific keyword can be automatically registered in the
この携帯端末を使用すれば、特定の相手から掛かって来た着信音を好みのタレントとそっくりな音声に合成し、あたかもタレントと会話をしている雰囲気を作り出す事ができる。 By using this mobile terminal, you can synthesize ringtones coming from a specific party into voices that look just like your favorite talent, creating an atmosphere as if you were talking to the talent.
また、キーワードデータベース22と組合せる事により、相手の感情や、直接音声で言って貰いたくないNGワードを会話から遠ざける事ができる。
Also, by combining with the
ここでは、携帯端末による電話(通話)における音声変換を例に説明しているが、実際には、テレビ機能やラジオ機能等を使用した際(放送視聴時)における音声変換、或いは、記憶装置や記憶媒体等に記憶されている音声データを再生した際(音声再生時)における音声変換も可能である。 Here, voice conversion in a telephone (call) using a mobile terminal is described as an example. However, in reality, voice conversion when using a TV function, a radio function, or the like (during broadcast viewing), a storage device, Audio conversion when audio data stored in a storage medium or the like is reproduced (during audio reproduction) is also possible.
<第2実施形態>
以下に、本発明の第2実施形態について説明する。
第1実施形態では、変換機能部14は、音声分析機能部13で分析された音声信号に、特定のキーワードを示すキーワードデータが含まれている場合、音声合成を中止又は禁止し、NGワードを通知しているが、本実施形態では、音声分析機能部13で分析された音声信号に、特定のキーワードを示すキーワードデータが含まれている場合に、音声合成を行うようにする。
<Second Embodiment>
The second embodiment of the present invention will be described below.
In the first embodiment, when the speech signal analyzed by the speech
本実施形態における携帯端末の構成については、基本的に第1実施形態と同じである。すなわち、本実施形態における携帯端末の構成は、図1に示す通りである。 The configuration of the mobile terminal in the present embodiment is basically the same as in the first embodiment. That is, the configuration of the mobile terminal in the present embodiment is as shown in FIG.
図3を参照して、本実施形態における携帯端末の動作について説明する。 With reference to FIG. 3, the operation of the mobile terminal in the present embodiment will be described.
(1)ステップS201
アンテナ部11は、相手が電話を掛けて来た場合、高周波信号を受信する。
(1) Step S201
The antenna unit 11 receives a high-frequency signal when the other party makes a call.
(2)ステップS202
受信部12は、受信された高周波信号を復調し、ベースバンド信号に変換して音声分析機能部13に送る。このとき、受信部12は、ベースバンド信号と共に、電話を掛けて来た相手の電話番号を示す情報信号を音声分析機能部13に送る。ここでは、ベースバンド信号は、音声信号である。なお、ベースバンド信号は、電話を掛けて来た相手の電話番号を示すデジタルデータを含んでいても良い。
(2) Step S202
The receiving
(3)ステップS203
音声分析機能部13は、電話を掛けて来た相手の電話番号が電話番号帳21に音声合成対象番号として登録されているかを判断する。なお、電話番号は例示に過ぎず、実際には、電話を掛けて来た相手を特定できる識別情報であれば良い。
(3) Step S203
The voice
(4)ステップS204
音声分析機能部13は、電話を掛けて来た相手の電話番号が電話番号帳21に音声合成対象番号として登録された番号でない場合、直接、音声出力部16に音声信号を送る。音声出力部16は、当該音声信号に基づいて、音声出力を行う。このとき、音声分析機能部13は、変換機能部14及び音声合成機能部15に対して動作しないように通知した上で、変換機能部14及び音声合成機能部15を介して音声出力部16に音声信号を送るようにしても良い。
(4) Step S204
The voice
(5)ステップS205
音声分析機能部13は、電話を掛けて来た相手の電話番号が電話番号帳21に音声合成対象番号として登録された番号である場合、音声合成ONと認識し、変換機能部14を動作させる。例えば、音声分析機能部13は、音声合成ONと認識した場合、OFF状態の変換機能部14を起動させる。或いは、音声分析機能部13から変換機能部14への通知を禁止状態から許可状態に変更する。すなわち、音声分析機能部13は、音声合成ONと認識した場合、当該相手との電話中、変換機能部14への音声信号の提供を可能にする。
(5) Step S205
The voice
(6)ステップS206
音声分析機能部13は、音声信号のスペクトラムを分析し、音声信号に基づく音声が怒り等の特定の感情を示す音声であるかどうか判断する。その後、音声分析機能部13は、変換機能部14に音声信号を送る。このとき、音声分析機能部13は、音声信号に基づく音声が怒り等の特定の感情を示す音声であれば、特定の感情を示す音声である旨を、或いは、元の音声にフィルタをかける旨の指示を、変換機能部14に通知する。なお、音声分析機能部13は、音声信号に基づく音声が怒り等の特定の感情を示す音声であるかどうか判断しない場合、無条件で変換機能部14に音声信号を送る。
(6) Step S206
The voice
(7)ステップS207
変換機能部14は、音声信号に基づく音声が怒り等の特定の感情を示す音声であれば、元の音声にフィルタをかけた音声を出力する処理(フィルタリング)を行う。ここでは、変換機能部14は、音声出力部16に対して、元の音声にフィルタをかけた後の音声信号を送る。音声出力部16は、元の音声にフィルタをかけた音声を出力する。このとき、変換機能部14は、音声合成機能部15に対し、音声信号と、元の音声にフィルタをかける旨の通知(フィルタリング依頼)を送り、音声合成機能部15で元の音声にフィルタをかけ、音声合成機能部15から音声出力部16に元の音声にフィルタをかけた後の音声信号を送るようにしても良い。
(7) Step S207
If the voice based on the voice signal indicates a specific emotion such as anger, the
(8)ステップS208
変換機能部14は、音声信号に基づく音声が怒り等の特定の感情を示す音声でなければ、キーワードデータベース22を参照して、音声分析機能部13で分析された音声信号に、特定のキーワードを示すキーワードデータが含まれているかどうか判断する。このとき、変換機能部14は、音声分析機能部13で分析された音声信号に、特定のキーワードを示すキーワードデータが含まれている場合、当該音声信号を音声合成機能部15に出力する。なお、変換機能部14は、音声信号のうち特定のキーワードに該当する部分のみ音声合成機能部15に出力し、他の部分を音声出力部16に出力するようにしても良い。また、変換機能部14は、当該キーワードデータを音声合成機能部15に出力するようにしても良い。
(8) Step S208
If the voice based on the voice signal is not a voice indicating a specific emotion such as anger, the
(9)ステップS209
変換機能部14は、音声分析機能部13で分析された音声信号に、特定のキーワードを示すキーワードデータが含まれていない場合、音声合成機能部15に対して、音声合成を中止又は禁止し、元の音声を音声出力部16に出力する旨の通知を送る。音声出力部16は、当該音声信号に基づいて、元の音声を出力する。
(9) Step S209
If the speech signal analyzed by the speech
(10)ステップS210
変換機能部14は、音声分析機能部13で分析された音声信号に、特定のキーワードを示すキーワードデータが含まれている場合、当該キーワードデータに基づいて、特定のキーワードを送信部18に出力する。送信部18は、アンテナ部11を介して、電話を掛けて来た相手に、特定のキーワードを送信する。例えば、変換機能部14は、キーワードデータに基づいて、特定のキーワードに対して音声合成を行う旨を、送信部18を介して、電話を掛けて来た相手に通知する。なお、変換機能部14は、特定のキーワードに対して音声合成を行う旨を、電話を掛けて来た相手に通知しない場合、特定のキーワードを送信部18に出力しなくても良い。
(10) Step S210
When the voice signal analyzed by the voice
(11)ステップS211
音声合成機能部15は、音声データベース23を参照して、受け取った音声信号に応じて、特定の人物に似た音声の合成を行う。ここでは、音声合成機能部15は、受け取った音声信号に基づく音声の全体に対して、特定の人物に似た音声の合成を行う。なお、音声合成機能部15は、変換機能部14からキーワードデータを受け取り、キーワードデータに基づいて、受け取った音声信号に基づく音声に含まれる特定のキーワードの音声のみ、特定の人物に似た音声の合成を行うようにしても良い。例えば、音声合成機能部15は、キーワードデータが特定の人物の著名な発言を示している場合、受け取った音声信号に基づく音声にこの著名な発言と同じ内容が含まれていれば、その発言の箇所のみ、特定の人物に似た音声での合成を行う。
(11) Step S211
The speech
(12)ステップS212
音声合成機能部15は、音声合成された音声信号を音声出力部16に送る。音声出力部16は、音声合成された音声信号に基づいて、スピーカー等から合成音を出力する。
(12) Step S212
The voice synthesizing
(13)ステップS213
音声分析機能部13は、高周波信号の受信が終了するまで、継続的に受話の音声の感情を分析し、音声信号に基づく音声が怒り等の特定の感情を示す音声であるとの結果を得たら、現在の合成音の出力を中止して元の音声にフィルタをかけた音声を出力する処理に切り替える。音声分析機能部13は、通話が終了したら、一連の処理を終了する。
(13) Step S213
The voice
これにより、本発明の携帯端末は、通話や音声再生の際に、ユーザの知人の口癖や、著名人の有名な台詞(セリフ)が使用された場合、その本人(当人)の声色で再生する事ができる。このとき、声色の音声データ(音源)については、当人の使用許諾を得ているものとする。使用許諾を得る方法として、対価の支払い等が考えられる。声色の音声データ(音源)の入手方法としては、許可を受けた上での当人からの録音や、所定のWebサイトからのダウンロード等が考えられる。 As a result, the portable terminal of the present invention reproduces the voice of the user (person) when the voice of the user's acquaintance or famous speech of a celebrity is used during a call or voice playback. I can do it. At this time, it is assumed that the voice data (sound source) of the voice color has been licensed by the person concerned. As a method of obtaining a license, payment of consideration can be considered. As a method for obtaining voice-colored voice data (sound source), recording from the person with permission and downloading from a predetermined website can be considered.
<第3実施形態>
以下に、本発明の第3実施形態について説明する。
本実施形態では、第1実施形態とは逆に、携帯端末のユーザが音声入力した音声を合成し、合成音を外部に送信するようにする。
<Third Embodiment>
The third embodiment of the present invention will be described below.
In the present embodiment, contrary to the first embodiment, the voice input by the user of the mobile terminal is synthesized and the synthesized sound is transmitted to the outside.
図4を参照すると、本実施形態における携帯端末は、アンテナ部11と、受信部12と、音声分析機能部13と、変換機能部14と、音声合成機能部15と、音声出力部16と、音声入力部17と、送信部18と、電話番号帳21と、キーワードデータベース22と、音声データベース23を備える。
Referring to FIG. 4, the mobile terminal in the present embodiment includes an antenna unit 11, a receiving
アンテナ部11、受信部12、音声分析機能部13、変換機能部14、音声合成機能部15、音声出力部16、音声入力部17、送信部18、電話番号帳21、キーワードデータベース22、及び音声データベース23については、基本的に第1実施形態と同じである。
Antenna unit 11, receiving
本実施形態では、音声分析機能部13は、電話を掛ける相手の電話番号等の識別情報が電話番号帳21に音声合成対象番号として登録されているかを判断する。また、音声分析機能部13は、音声入力部17に入力された音声に基づく音声信号についても分析を行う。すなわち、音声分析機能部13は、送話又は受話の少なくとも一方の音声信号のスペクトラムを分析し、送話又は受話の少なくとも一方の音声が怒り等の特定の感情を示す音声であるかどうか判断する。ここでは、受信部12から受け取った音声信号、及び音声入力部17に入力された音声に基づく音声信号の両方のスペクトラムを分析し、分析された音声信号のうち少なくとも一方の音声信号が怒り等の特定の感情を示す音声信号であるかどうか判断する。その後、音声分析機能部13は、変換機能部14に音声信号を送る。このとき、音声分析機能部13は、送話又は受話の少なくとも一方の音声が怒り等の特定の感情を示す音声であれば、特定の感情を示す音声である旨を、或いは、元の音声にフィルタをかける旨の指示を、変換機能部14に通知する。なお、音声分析機能部13は、送話又は受話の少なくとも一方の音声が怒り等の特定の感情を示す音声であるかどうか判断しない場合、無条件で変換機能部14に音声信号を送る。
In the present embodiment, the voice
変換機能部14は、キーワードデータベース22を参照して、音声分析機能部13で分析された音声信号に従い、特定のキーワードを示すキーワードデータを出力する。ここでは、変換機能部14は、音声入力部17から受け取った音声信号に含まれるキーワードがNGワードとしてキーワードデータベース22に登録されていた場合、音声出力部16に対して、予め決められたNGワードや、NGワードである旨の通知を送る。例えば、変換機能部14は、ユーザにより音声入力された音声信号に含まれていた「○○」というキーワードがNGワードとしてキーワードデータベース22に登録されていた場合、音声出力部16を介して、ユーザに対し、「○○はNGワードです」という旨を通知する。なお、変換機能部14は、音声信号に含まれるキーワードがNGワードとしてキーワードデータベース22に登録されていた場合、NGワードの部分の音声を、無音又はビープ音に変換するようにしても良い。また、変換機能部14は、送話又は受話の少なくとも一方の音声が怒り等の特定の感情を示す音声であれば、元の音声にフィルタをかけた音声を出力する処理(フィルタリング)を行う。
The
音声合成機能部15は、音声データベース23を参照して、受け取った音声信号に応じて、所定の音声の合成を行う。本発明の携帯端末では、音声合成機能部15の前段に音声分析機能部13と変換機能部14を配置している。
The voice
電話番号帳21は、電話を掛ける相手の電話番号等の識別情報を格納する。ここでは、電話番号帳21は、電話を掛ける相手のうち、音声合成の対象とする相手の電話番号等の識別情報を格納する。なお、電話番号は例示に過ぎず、実際には、電話を掛ける相手を特定できる識別情報であれば良い。また、電話番号帳21は、携帯端末自体が有する通常の電話番号帳とは別に設けられていても良い。
The
図5を参照して、本実施形態における携帯端末の動作について説明する。 With reference to FIG. 5, the operation of the portable terminal in the present embodiment will be described.
(1)ステップS301
音声入力部17は、所定の相手に電話を掛ける際、音声入力に応じて、音声信号を発生する。ここでは、音声入力部17は、ユーザ又はアプリケーションによる音声入力に応じて、音声信号を生成し、その音声信号を音声分析機能部13に送る。このとき、音声分析機能部13は、音声信号と、電話を掛ける相手の電話番号を受け取る。例えば、音声分析機能部13は、ユーザにより入力された電話番号を受け取った後、音声入力部17から音声信号を受け取るようにしても良い。
(1) Step S301
The
(2)ステップS302
音声分析機能部13は、電話を掛ける相手の電話番号が電話番号帳21に音声合成対象番号として登録されているかを判断する。なお、電話番号は例示に過ぎず、実際には、電話を掛ける相手を特定できる識別情報であれば良い。
(2) Step S302
The voice
(3)ステップS303
音声分析機能部13は、電話を掛ける相手の電話番号が電話番号帳21に音声合成対象番号として登録された番号でない場合、直接、送信部18に音声信号を送る。このとき、音声分析機能部13は、変換機能部14に対して動作しないように通知した上で、変換機能部14を介して送信部18に音声信号を送るようにしても良い。送信部18は、受け取った音声信号を変調して高周波信号に変換し、アンテナ部11を介して、電話を掛ける相手に対し、その高周波信号を送信する。
(3) Step S303
The voice
(4)ステップS304
音声分析機能部13は、電話を掛ける相手の電話番号が電話番号帳21に音声合成対象番号として登録された番号である場合、音声合成ONと認識し、変換機能部14を動作させる。例えば、音声分析機能部13は、音声合成ONと認識した場合、OFF状態の変換機能部14を起動させる。或いは、音声分析機能部13から変換機能部14への通知を禁止状態から許可状態に変更する。すなわち、音声分析機能部13は、音声合成ONと認識した場合、当該相手との電話中、変換機能部14への音声信号の提供を可能にする。
(4) Step S304
The voice
(5)ステップS305
アンテナ部11は、相手が電話に出た場合、相手からの高周波信号を受信する。
(5) Step S305
The antenna unit 11 receives a high-frequency signal from the other party when the other party answers the call.
(6)ステップS306
受信部12は、受信された高周波信号を復調し、ベースバンド信号に変換して音声分析機能部13に送る。このとき、受信部12は、ベースバンド信号と共に、電話を掛けて来た相手の電話番号を示す情報信号を音声分析機能部13に送る。ここでは、ベースバンド信号は、音声信号である。なお、ベースバンド信号は、電話を掛けて来た相手の電話番号を示すデジタルデータを含んでいても良い。
(6) Step S306
The receiving
(7)ステップS307
音声分析機能部13は、送話又は受話の少なくとも一方の音声信号のスペクトラムを分析し、送話又は受話の少なくとも一方の音声が怒り等の特定の感情を示す音声であるかどうか判断する。すなわち、音声分析機能部13は、受信部12から受け取った音声信号(相手側からの音声信号)と、音声入力部16から受け取った音声信号(ユーザ側からの音声信号)のうち、少なくとも一方の音声信号が怒り等の特定の感情を示す音声信号であるかどうか判断する。その後、音声分析機能部13は、変換機能部14に音声信号を送る。このとき、音声分析機能部13は、送話又は受話の少なくとも一方の音声が怒り等の特定の感情を示す音声であれば、特定の感情を示す音声である旨を、或いは、元の音声にフィルタをかける旨の指示を、変換機能部14に通知する。なお、音声分析機能部13は、怒り等の特定の感情を示す音声であるかどうか判断しない場合、無条件で変換機能部14に音声信号を送る。
(7) Step S307
The voice
(8)ステップS308
変換機能部14は、送話又は受話の少なくとも一方の音声が怒り等の特定の感情を示す音声であれば、元の音声にフィルタをかけた音声を出力する処理(フィルタリング)を行う。ここでは、変換機能部14は、送信部18に対して、元の音声にフィルタをかけた後の音声信号を送る。送信部18は、元の音声にフィルタをかけた音声を出力する。このとき、変換機能部14は、音声合成機能部15に対し、音声信号と、元の音声にフィルタをかける旨の通知(フィルタリング依頼)を送り、音声合成機能部15で元の音声にフィルタをかけ、音声合成機能部15から送信部18に元の音声にフィルタをかけた後の音声信号を送るようにしても良い。
(8) Step S308
The
(9)ステップS309
変換機能部14は、送話又は受話の少なくとも一方の音声が怒り等の特定の感情を示す音声でなければ、キーワードデータベース22を参照して、音声分析機能部13で分析された音声信号に、特定のキーワードを示すキーワードデータが含まれているかどうか判断する。このとき、変換機能部14は、音声分析機能部13で分析された音声信号に、特定のキーワードを示すキーワードデータが含まれていない場合、音声合成機能部15に音声信号を送る。
(9) Step S309
If the voice of at least one of the transmission and reception is not a voice indicating a specific emotion such as anger, the
(10)ステップS310
変換機能部14は、音声分析機能部13で分析された音声信号に、特定のキーワードを示すキーワードデータが含まれている場合、音声合成機能部15に対して、音声合成を中止又は禁止し、元の音声を送信部18に出力する旨の通知を送る。このとき、音声合成機能部15は、音声信号のうち、特定のキーワードに該当する部分の音声を無音又はビープ音に変換して送信部18に送り、他の部分を元の音声で送信部18に送る。送信部18は、受け取った音声信号を変調して高周波信号に変換し、アンテナ部11を介して、電話を掛ける相手に対し、その高周波信号を送信する。
(10) Step S310
When the speech signal analyzed by the speech
(11)ステップS311
変換機能部14は、音声分析機能部13で分析された音声信号に、特定のキーワードを示すキーワードデータが含まれている場合、当該キーワードデータに基づいて、特定のキーワードを音声出力部16に出力する。音声出力部16は、特定のキーワードを出力する。例えば、変換機能部14は、キーワードデータに基づいて、特定のキーワードがNGワードである旨を、音声出力部16を介して、ユーザに通知する。このとき、変換機能部14は、NGワードの部分の音声を、無音又はビープ音に変換するようにしても良い。なお、変換機能部14は、特定のキーワードがNGワードである旨を、ユーザに通知しない場合、特定のキーワードを音声出力部16に出力しなくても良い。
(11) Step S311
When the voice signal analyzed by the voice
(12)ステップS312
音声合成機能部15は、音声データベース23を参照して、受け取った音声信号に応じて、特定の人物に似た音声の合成を行う。ここでは、音声合成機能部15は、受け取った音声信号に基づく音声の全体に対して、特定の人物に似た音声の合成を行う。
(12) Step S312
The speech
(13)ステップS313
音声合成機能部15は、音声合成された音声信号を送信部18に送る。送信部18は、受け取った音声信号を変調して高周波信号に変換し、アンテナ部11を介して、電話を掛ける相手に対し、その高周波信号を送信する。
(13) Step S313
The voice
(14)ステップS314
音声分析機能部13は、高周波信号の送信が終了するまで、継続的に、送話又は受話の少なくとも一方の音声の感情を分析し、送話又は受話の少なくとも一方の音声が怒り等の特定の感情を示す音声であるとの結果を得たら、現在の合成音の出力を中止して元の音声にフィルタをかけた音声を出力する処理に切り替える。音声分析機能部13は、通話が終了したら、一連の処理を終了する。
(14) Step S314
The voice
本実施形態における携帯端末では、デコメ(デコレーションメール)(登録商標)における顔文字や絵文字のように、声色や台詞を「素材」として、音声をデコレーション(装飾)する事ができる。 In the mobile terminal according to the present embodiment, the voice can be decorated (decorated) using the voice color and dialogue as “material” like the emoticons and pictograms in the decoration mail (registered trademark).
<第4実施形態>
以下に、本発明の第4実施形態について説明する。
第3実施形態では、変換機能部14は、音声分析機能部13で分析された音声信号に、特定のキーワードを示すキーワードデータが含まれている場合、音声合成を中止又は禁止し、ユーザにNGワードを通知しているが、本実施形態では、音声分析機能部13で分析された音声信号に、特定のキーワードを示すキーワードデータが含まれている場合に、音声合成を行うようにする。
<Fourth embodiment>
The fourth embodiment of the present invention will be described below.
In the third embodiment, when the speech signal analyzed by the speech
本実施形態における携帯端末の構成については、基本的に第3実施形態と同じである。すなわち、本実施形態における携帯端末の構成は、図4に示す通りである。 The configuration of the mobile terminal in the present embodiment is basically the same as that in the third embodiment. That is, the configuration of the mobile terminal in the present embodiment is as shown in FIG.
図6を参照して、本実施形態における携帯端末の動作について説明する。 With reference to FIG. 6, the operation of the mobile terminal in the present embodiment will be described.
(1)ステップS401
音声入力部17は、所定の相手に電話を掛ける際、音声入力に応じて、音声信号を発生する。ここでは、音声入力部17は、ユーザ又はアプリケーションによる音声入力に応じて、音声信号を生成し、その音声信号を音声分析機能部13に送る。このとき、音声分析機能部13は、音声信号と、電話を掛ける相手(通話相手)の電話番号を受け取る。例えば、音声分析機能部13は、ユーザにより入力された電話番号を受け取った後、音声入力部17から音声信号を受け取るようにしても良い。
(1) Step S401
The
(2)ステップS402
音声分析機能部13は、電話を掛ける相手の電話番号が電話番号帳21に音声合成対象番号として登録されているかを判断する。なお、電話番号は例示に過ぎず、実際には、電話を掛ける相手を特定できる識別情報であれば良い。
(2) Step S402
The voice
(3)ステップS403
音声分析機能部13は、電話を掛ける相手の電話番号が電話番号帳21に音声合成対象番号として登録された番号でない場合、直接、送信部18に音声信号を送る。このとき、音声分析機能部13は、変換機能部14に対して動作しないように通知した上で、変換機能部14を介して送信部18に音声信号を送るようにしても良い。送信部18は、受け取った音声信号を変調して高周波信号に変換し、アンテナ部11を介して、電話を掛ける相手に対し、その高周波信号を送信する。
(3) Step S403
The voice
(4)ステップS404
音声分析機能部13は、電話を掛ける相手の電話番号が電話番号帳21に音声合成対象番号として登録された番号である場合、音声合成ONと認識し、変換機能部14を動作させる。例えば、音声分析機能部13は、音声合成ONと認識した場合、OFF状態の変換機能部14を起動させる。或いは、音声分析機能部13から変換機能部14への通知を禁止状態から許可状態に変更する。すなわち、音声分析機能部13は、音声合成ONと認識した場合、当該相手との電話中、変換機能部14への音声信号の提供を可能にする。
(4) Step S404
The voice
(5)ステップS405
アンテナ部11は、相手が電話に出た場合、相手からの高周波信号を受信する。
(5) Step S405
The antenna unit 11 receives a high-frequency signal from the other party when the other party answers the call.
(6)ステップS406
受信部12は、受信された高周波信号を復調し、ベースバンド信号に変換して音声分析機能部13に送る。このとき、受信部12は、ベースバンド信号と共に、電話を掛けて来た相手の電話番号を示す情報信号を音声分析機能部13に送る。ここでは、ベースバンド信号は、音声信号である。なお、ベースバンド信号は、電話を掛けて来た相手の電話番号を示すデジタルデータを含んでいても良い。
(6) Step S406
The receiving
(7)ステップS407
音声分析機能部13は、送話又は受話の少なくとも一方の音声信号のスペクトラムを分析し、送話又は受話の少なくとも一方の音声が怒り等の特定の感情を示す音声であるかどうか判断する。すなわち、音声分析機能部13は、受信部12から受け取った音声信号(相手側からの音声信号)と、音声入力部16から受け取った音声信号(ユーザ側からの音声信号)のうち、少なくとも一方の音声信号が怒り等の特定の感情を示す音声信号であるかどうか判断する。その後、音声分析機能部13は、変換機能部14に音声信号を送る。このとき、音声分析機能部13は、送話又は受話の少なくとも一方の音声が怒り等の特定の感情を示す音声であれば、特定の感情を示す音声である旨を、或いは、元の音声にフィルタをかける旨の指示を、変換機能部14に通知する。なお、音声分析機能部13は、怒り等の特定の感情を示す音声であるかどうか判断しない場合、無条件で変換機能部14に音声信号を送る。
(7) Step S407
The voice
(8)ステップS408
変換機能部14は、送話又は受話の少なくとも一方の音声が怒り等の特定の感情を示す音声であれば、元の音声にフィルタをかけた音声を出力する処理(フィルタリング)を行う。ここでは、変換機能部14は、送信部18に対して、元の音声にフィルタをかけた後の音声信号を送る。送信部18は、元の音声にフィルタをかけた音声を出力する。このとき、変換機能部14は、音声合成機能部15に対し、音声信号と、元の音声にフィルタをかける旨の通知(フィルタリング依頼)を送り、音声合成機能部15で元の音声にフィルタをかけ、音声合成機能部15から送信部18に元の音声にフィルタをかけた後の音声信号を送るようにしても良い。
(8) Step S408
The
(9)ステップS409
変換機能部14は、送話又は受話の少なくとも一方の音声が怒り等の特定の感情を示す音声でなければ、キーワードデータベース22を参照して、音声分析機能部13で分析された音声信号に、特定のキーワードを示すキーワードデータが含まれているかどうか判断する。このとき、変換機能部14は、音声分析機能部13で分析された音声信号に、特定のキーワードを示すキーワードデータが含まれている場合、当該音声信号を音声合成機能部15に出力する。なお、変換機能部14は、音声信号のうち特定のキーワードに該当する部分のみ音声合成機能部15に出力し、他の部分を送信部18に出力するようにしても良い。また、変換機能部14は、当該キーワードデータを音声合成機能部15に出力するようにしても良い。
(9) Step S409
If the voice of at least one of the transmission and reception is not a voice indicating a specific emotion such as anger, the
(10)ステップS410
変換機能部14は、音声分析機能部13で分析された音声信号に、特定のキーワードを示すキーワードデータが含まれていない場合、音声合成機能部15に対して、音声合成を中止又は禁止し、元の音声を送信部18に出力する旨の通知を送る。送信部18は、当該音声信号に基づいて、元の音声を出力する。
(10) Step S410
If the speech signal analyzed by the speech
(11)ステップS411
変換機能部14は、音声分析機能部13で分析された音声信号に、特定のキーワードを示すキーワードデータが含まれている場合、当該キーワードデータに基づいて、特定のキーワードを音声出力部16に出力する。このとき、変換機能部14は、音声合成機能部15を介して、特定のキーワードに該当する部分の合成音を音声出力部16に出力するようにしても良い。音声出力部16は、ユーザに、特定のキーワードを通知する。すなわち、変換機能部14は、キーワードデータに基づいて、特定のキーワードに対して音声合成を行う旨を、音声出力部16を介して、ユーザに通知する。なお、変換機能部14は、特定のキーワードに対して音声合成を行う旨を、ユーザに通知しない場合、特定のキーワードを音声出力部16に出力しなくても良い。
(11) Step S411
When the voice signal analyzed by the voice
(12)ステップS412
音声合成機能部15は、音声データベース23を参照して、受け取った音声信号に応じて、特定の人物に似た音声の合成を行う。ここでは、音声合成機能部15は、受け取った音声信号に基づく音声の全体に対して、特定の人物に似た音声の合成を行う。なお、音声合成機能部15は、変換機能部14からキーワードデータを受け取り、キーワードデータに基づいて、受け取った音声信号に基づく音声に含まれる特定のキーワードの音声のみ、特定の人物に似た音声の合成を行うようにしても良い。例えば、音声合成機能部15は、キーワードデータが特定の人物の著名な発言を示している場合、受け取った音声信号に基づく音声にこの著名な発言と同じ内容が含まれていれば、その発言の箇所のみ、特定の人物に似た音声での合成を行う。
(12) Step S412
The speech
(13)ステップS413
音声合成機能部15は、音声合成された音声信号を送信部18に送る。送信部18は、受け取った音声信号を変調して高周波信号に変換し、アンテナ部11を介して、電話を掛ける相手に対し、その高周波信号を送信する。
(13) Step S413
The voice
(14)ステップS414
音声分析機能部13は、高周波信号の送信が終了するまで、継続的に、送話又は受話の少なくとも一方の音声の感情を分析し、送話又は受話の少なくとも一方の音声が怒り等の特定の感情を示す音声であるとの結果を得たら、現在の合成音の出力を中止して元の音声にフィルタをかけた音声を出力する処理に切り替える。音声分析機能部13は、通話が終了したら、一連の処理を終了する。
(14) Step S414
The voice
なお、本発明における各実施形態は、組み合わせて実施することも可能である。 It should be noted that the embodiments of the present invention can be implemented in combination.
以上のように、本発明の携帯端末は、音声合成機能と、特定のキーワードや特定の感情の音声に基づいた音声合成の切換機能、生の音声へのフィルタリング機能、及び特定キーワードの自動登録の機能を持つ。 As described above, the mobile terminal of the present invention has a voice synthesis function, a voice synthesis switching function based on a voice of a specific keyword or a specific emotion, a filtering function to raw voice, and an automatic registration of a specific keyword. Has function.
本発明の携帯端末では、受話音を特定の人物の音声に真似た合成音で聞く事ができる。 In the portable terminal of the present invention, the received sound can be heard with a synthesized sound imitating the voice of a specific person.
また、本発明の携帯端末では、音声合成の切り替え相手の選択は予め電話番号帳21に登録した相手を登録でき、また、通話途中でもスイッチを押す事により音声合成をON、OFFする事ができる。
In the portable terminal of the present invention, the voice synthesizer switching partner can be selected by registering the partner previously registered in the
また、本発明の携帯端末では、キーワードデータベース22に登録された特定のキーワードの音声を認識すると音声合成を中止して受話音そのままの音声を出力できる。
Further, in the mobile terminal of the present invention, when the voice of a specific keyword registered in the
また、本発明の携帯端末では、キーワードがNGワードとして登録されていた場合、相手に対しNGワードを出力する事もできる。 In the portable terminal of the present invention, when a keyword is registered as an NG word, the NG word can be output to the other party.
また、本発明の携帯端末では、受話の音声の感情を分析し、怒り等の特定の感情を示す音声であるとの結果を得たら、特定の人物の音声に真似た合成音を中止して元の音声にフィルタをかけた音声を出力する処理を行う事ができる。 Further, in the mobile terminal of the present invention, when the emotion of the received voice is analyzed and a result indicating that the voice indicates a specific emotion such as anger is obtained, the synthesized sound imitating the voice of the specific person is stopped. It is possible to perform processing to output a sound obtained by filtering the original sound.
また、本発明の携帯端末では、受話の操作者がボタンを押すとその所定時間前の音声を分析して、特定のキーワードをキーワードデータベース22に自動的に登録する事ができる。
Further, in the portable terminal of the present invention, when a receiving operator presses a button, a voice before the predetermined time is analyzed and a specific keyword can be automatically registered in the
以上の機能を持ったこの携帯端末を使用すれば、収益比率が減少中の音声ユーザの需要を喚起する事ができ、引いては携帯端末の販売シェアを伸ばす事ができる。 If this mobile terminal having the above functions is used, the demand of voice users whose profit ratio is decreasing can be stimulated, and the sales share of the mobile terminal can be increased.
本発明は、携帯電話機の開発設計製造会社及びその部門での利用が考えられる。 The present invention is considered to be used in mobile phone development and design companies and their departments.
以上、本発明の実施形態を詳述してきたが、実際には、上記の実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の変更があっても本発明に含まれる。 As mentioned above, although embodiment of this invention was explained in full detail, actually, it is not restricted to said embodiment, Even if there is a change of the range which does not deviate from the summary of this invention, it is included in this invention.
11… アンテナ部
12… 受信部
13… 音声分析機能部
14… 変換機能部
15… 音声合成機能部
16… 音声出力部
17… 音声入力部
18… 送信部
21… 電話番号帳
22… キーワードデータベース
23… 音声データベース
DESCRIPTION OF SYMBOLS 11 ...
Claims (15)
前記音声が前記音声パターンに該当する音声である場合、前記音声にフィルタをかけるフィルタリング処理を行い、フィルタをかけられた音声を出力し、前記音声が前記音声パターンに該当する音声でない場合、前記音声信号に含まれるキーワードがNGワードに該当するか判断し、前記キーワードがNGワードに該当する場合、前記音声信号の発信元に対し、前記キーワードがNGワードである旨を通知する変換手段と、
前記音声信号に基づく音声に対して、所定の音声の合成を行い、合成音を出力する音声合成手段と
を具備する
携帯端末。 It is determined whether the identification information of the other party of voice communication is registered as a voice synthesis target, and when the identification information is registered as a voice synthesis target, the spectrum of the voice signal related to the voice communication is analyzed and based on the voice signal A voice analysis means for determining whether the voice corresponds to a voice pattern indicating a specific emotion;
When the voice is a voice corresponding to the voice pattern, a filtering process is performed to filter the voice, and the filtered voice is output. When the voice is not a voice corresponding to the voice pattern, the voice Conversion means for determining whether a keyword included in the signal corresponds to an NG word, and notifying that the keyword is an NG word to a source of the audio signal when the keyword corresponds to an NG word;
A mobile terminal comprising speech synthesis means for synthesizing predetermined speech with speech based on the speech signal and outputting synthesized speech.
前記変換手段は、前記音声通信の最中に、ユーザの所定の操作に応じて、前記所定の操作時から所定時間前までの間に発信された音声信号に含まれる特定のキーワードをNGワードとしてキーワードデータベースに登録し、前記音声信号に含まれるキーワードがNGワードに該当するか判断する際に、前記キーワードデータベースを参照する
携帯端末。 The mobile terminal according to claim 1,
The conversion means uses, as an NG word, a specific keyword included in an audio signal transmitted between the predetermined operation and a predetermined time before the predetermined time according to a predetermined operation of the user during the voice communication. A portable terminal that registers in a keyword database and refers to the keyword database when determining whether a keyword included in the audio signal corresponds to an NG word.
前記音声分析手段は、前記音声通信における送信側及び受信側の両方の音声信号のスペクトラムを分析し、前記送信側及び前記受信側のうち少なくとも一方の音声信号に基づく音声が特定の感情を示す音声であるかどうか判断し、
前記変換手段は、前記送信側及び前記受信側のうち少なくとも一方の音声信号に基づく音声が前記音声パターンに該当する音声である場合、前記特定の感情を示している音声にフィルタをかけるフィルタリング処理を行う
携帯端末。 The mobile terminal according to claim 1 or 2,
The voice analysis unit analyzes a spectrum of a voice signal on both a transmission side and a reception side in the voice communication, and a voice based on at least one voice signal of the transmission side and the reception side indicates a specific emotion To determine whether
The converting means performs a filtering process for filtering the sound indicating the specific emotion when the sound based on at least one sound signal of the transmitting side and the receiving side is a sound corresponding to the sound pattern. Do mobile device.
前記変換手段は、前記音声信号に含まれるキーワードが特定のキーワードに該当するか判断し、前記キーワードが特定のキーワードに該当する場合、前記音声信号を前記音声合成手段に送る
携帯端末。 The mobile terminal according to any one of claims 1 to 3,
The said conversion means judges whether the keyword contained in the said audio | voice signal corresponds to a specific keyword, and when the said keyword corresponds to a specific keyword, the said audio | voice signal is sent to the said voice synthesizing means.
前記変換手段は、前記音声信号に含まれるキーワードが特定のキーワードに該当するか判断し、前記キーワードが特定のキーワードに該当する場合、前記音声信号のうち特定のキーワードに該当する箇所の音声信号を、前記音声合成手段に送り、
前記音声合成手段は、前記音声信号のうち特定のキーワードに該当する箇所の音声信号に対して、所定の音声の合成を行い、合成音を出力する
携帯端末。 The mobile terminal according to any one of claims 1 to 4,
The converting means determines whether a keyword included in the audio signal corresponds to a specific keyword, and if the keyword corresponds to a specific keyword, the audio signal at a location corresponding to the specific keyword is selected from the audio signals. , Sent to the speech synthesis means,
The portable terminal that synthesizes a predetermined voice with respect to a voice signal corresponding to a specific keyword in the voice signal and outputs a synthesized voice.
前記識別情報が音声合成対象として登録されている場合、前記音声通信に関する音声信号のスペクトラムを分析し、前記音声信号に基づく音声が特定の感情を示す音声であるかどうか判断し、
前記音声が前記音声パターンに該当する音声である場合、前記音声にフィルタをかけるフィルタリング処理を行い、フィルタをかけられた音声を出力し、
前記音声が前記音声パターンに該当する音声でない場合、前記音声信号に含まれるキーワードがNGワードに該当するか判断し、前記キーワードがNGワードに該当する場合、前記音声信号の発信元に対し、前記キーワードがNGワードである旨を通知し、
前記音声信号に基づく音声に対して、所定の音声の合成を行い、合成音を出力する
音声合成方法。 Determine whether the identification information of the voice communication partner is registered as the target for speech synthesis,
When the identification information is registered as a voice synthesis target, analyze a spectrum of a voice signal related to the voice communication, determine whether the voice based on the voice signal is a voice indicating a specific emotion,
If the voice is a voice corresponding to the voice pattern, perform a filtering process to filter the voice, and output the filtered voice,
If the voice is not a voice corresponding to the voice pattern, it is determined whether a keyword included in the voice signal corresponds to an NG word. If the keyword corresponds to an NG word, the voice signal source is Notify that the keyword is an NG word,
A speech synthesis method for synthesizing predetermined speech with speech based on the speech signal and outputting synthesized speech.
前記音声通信の最中に、ユーザの所定の操作に応じて、前記所定の操作時から所定時間前までの間に発信された音声信号に含まれる特定のキーワードをNGワードとしてキーワードデータベースに登録し、
前記音声信号に含まれるキーワードがNGワードに該当するか判断する際に、前記キーワードデータベースを参照する
音声合成方法。 The speech synthesis method according to claim 6,
During the voice communication, a specific keyword included in a voice signal transmitted between the predetermined operation and a predetermined time before is registered as an NG word in the keyword database according to a predetermined operation of the user. ,
A speech synthesis method for referring to the keyword database when determining whether a keyword included in the speech signal corresponds to an NG word.
前記音声分析手段は、前記音声通信における送信側及び受信側の両方の音声信号のスペクトラムを分析し、前記送信側及び前記受信側のうち少なくとも一方の音声信号に基づく音声が特定の感情を示す音声であるかどうか判断し、
前記送信側及び前記受信側のうち少なくとも一方の音声信号に基づく音声が前記音声パターンに該当する音声である場合、前記特定の感情を示している音声にフィルタをかけるフィルタリング処理を行う
音声合成方法。 The speech synthesis method according to claim 6 or 7,
The voice analysis unit analyzes a spectrum of a voice signal on both a transmission side and a reception side in the voice communication, and a voice based on at least one voice signal of the transmission side and the reception side indicates a specific emotion To determine whether
A speech synthesizing method that performs a filtering process for filtering the speech indicating the specific emotion when speech based on at least one speech signal of the transmitting side and the receiving side is speech that corresponds to the speech pattern.
前記音声信号に含まれるキーワードが特定のキーワードに該当するか判断し、
前記キーワードが特定のキーワードに該当する場合、前記音声信号に対して、所定の音声の合成を行い、合成音を出力する
音声合成方法。 The speech synthesis method according to any one of claims 6 to 8,
Determining whether a keyword included in the audio signal corresponds to a specific keyword;
A speech synthesis method for synthesizing predetermined speech with respect to the speech signal and outputting a synthesized speech when the keyword corresponds to a specific keyword.
前記音声信号に含まれるキーワードが特定のキーワードに該当するか判断し、
前記キーワードが特定のキーワードに該当する場合、前記音声信号のうち特定のキーワードに該当する箇所の音声信号に対して、所定の音声の合成を行い、合成音を出力する
音声合成方法。 The speech synthesis method according to any one of claims 6 to 9,
Determining whether a keyword included in the audio signal corresponds to a specific keyword;
When the keyword corresponds to a specific keyword, a voice synthesis method for synthesizing a predetermined voice with respect to a voice signal at a location corresponding to the specific keyword in the voice signal and outputting a synthesized voice.
前記識別情報が音声合成対象として登録されている場合、前記音声通信に関する音声信号のスペクトラムを分析し、前記音声信号に基づく音声が特定の感情を示す音声パターンに該当する音声であるかどうか判断するステップと、
前記音声が前記音声パターンに該当する音声である場合、前記音声にフィルタをかけるフィルタリング処理を行い、フィルタをかけられた音声を出力するステップと、
前記音声が前記音声パターンに該当する音声でない場合、前記音声信号に含まれるキーワードがNGワードに該当するか判断し、前記キーワードがNGワードに該当する場合、前記音声信号の発信元に対し、前記キーワードがNGワードである旨を通知するステップと、
前記音声信号に基づく音声に対して、所定の音声の合成を行い、合成音を出力するステップと
をコンピュータに実行させるための
音声合成用プログラム。 Determining whether the identification information of the voice communication partner is registered as a speech synthesis target;
When the identification information is registered as a voice synthesis target, the spectrum of the voice signal related to the voice communication is analyzed to determine whether the voice based on the voice signal is a voice corresponding to a voice pattern indicating a specific emotion. Steps,
If the voice is a voice corresponding to the voice pattern, performing a filtering process to filter the voice, and outputting the filtered voice;
If the voice is not a voice corresponding to the voice pattern, it is determined whether a keyword included in the voice signal corresponds to an NG word. If the keyword corresponds to an NG word, the voice signal source is Notifying that the keyword is an NG word;
A speech synthesis program for causing a computer to execute a step of synthesizing predetermined speech with speech based on the speech signal and outputting the synthesized speech.
前記音声通信の最中に、ユーザの所定の操作に応じて、前記所定の操作時から所定時間前までの間に発信された音声信号に含まれる特定のキーワードをNGワードとしてキーワードデータベースに登録するステップと、
前記音声信号に含まれるキーワードがNGワードに該当するか判断する際に、前記キーワードデータベースを参照するステップと
を更にコンピュータに実行させるための
音声合成用プログラム。 The speech synthesis program according to claim 11,
During the voice communication, a specific keyword included in a voice signal transmitted between the predetermined operation and a predetermined time before is registered in the keyword database as an NG word according to a predetermined operation of the user. Steps,
A speech synthesis program for causing a computer to further execute a step of referring to the keyword database when determining whether or not a keyword included in the speech signal corresponds to an NG word.
前記音声分析手段は、前記音声通信における送信側及び受信側の両方の音声信号のスペクトラムを分析し、前記送信側及び前記受信側のうち少なくとも一方の音声信号に基づく音声が特定の感情を示す音声パターンに該当する音声であるかどうか判断するステップと、
前記送信側及び前記受信側のうち少なくとも一方の音声信号に基づく音声が前記音声パターンに該当する音声である場合、前記特定の感情を示している音声にフィルタをかけるフィルタリング処理を行うステップと
を更にコンピュータに実行させるための
音声合成用プログラム。 The speech synthesis program according to claim 11 or 12,
The voice analysis unit analyzes a spectrum of a voice signal on both a transmission side and a reception side in the voice communication, and a voice based on at least one voice signal of the transmission side and the reception side indicates a specific emotion Determining whether the sound corresponds to the pattern;
A step of performing a filtering process for filtering the voice indicating the specific emotion when the voice based on at least one voice signal of the transmitting side and the receiving side is a voice corresponding to the voice pattern; A speech synthesis program to be executed by a computer.
前記音声信号に含まれるキーワードが特定のキーワードに該当するか判断するステップと、
前記キーワードが特定のキーワードに該当する場合、前記音声信号に対して、所定の音声の合成を行い、合成音を出力するステップと
を更にコンピュータに実行させるための
音声合成用プログラム。 A speech synthesis program according to any one of claims 11 to 13,
Determining whether a keyword included in the audio signal corresponds to a specific keyword;
A speech synthesis program for causing a computer to further execute a step of synthesizing predetermined speech with respect to the speech signal and outputting a synthesized sound when the keyword corresponds to a specific keyword.
前記音声信号に含まれるキーワードが特定のキーワードに該当するか判断するステップと、
前記キーワードが特定のキーワードに該当する場合、前記音声信号のうち特定のキーワードに該当する箇所の音声信号に対して、所定の音声の合成を行い、合成音を出力するステップと
を更にコンピュータに実行させるための
音声合成用プログラム。 A speech synthesis program according to any one of claims 11 to 14,
Determining whether a keyword included in the audio signal corresponds to a specific keyword;
When the keyword corresponds to a specific keyword, the computer further executes a step of synthesizing a predetermined voice with respect to a voice signal at a position corresponding to the specific keyword in the voice signal and outputting a synthesized voice. A program for speech synthesis.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009006810A JP2010166324A (en) | 2009-01-15 | 2009-01-15 | Portable terminal, voice synthesizing method, and program for voice synthesis |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009006810A JP2010166324A (en) | 2009-01-15 | 2009-01-15 | Portable terminal, voice synthesizing method, and program for voice synthesis |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010166324A true JP2010166324A (en) | 2010-07-29 |
Family
ID=42582141
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009006810A Ceased JP2010166324A (en) | 2009-01-15 | 2009-01-15 | Portable terminal, voice synthesizing method, and program for voice synthesis |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010166324A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2487608A1 (en) | 2010-07-23 | 2012-08-15 | Sony Corporation | Information processing device, information processing method, and information processing program for |
JPWO2012104952A1 (en) * | 2011-02-03 | 2014-07-03 | パナソニック株式会社 | Voice reading device, voice output device, voice output system, voice reading method and voice output method |
WO2018023519A1 (en) * | 2016-08-04 | 2018-02-08 | 易晓阳 | Voice control method for music local playback |
WO2018023520A1 (en) * | 2016-08-04 | 2018-02-08 | 易晓阳 | Voice control-based music local playback device |
CN109964226A (en) * | 2016-11-16 | 2019-07-02 | 三星电子株式会社 | Electronic device and its control method |
JP2020061621A (en) * | 2018-10-05 | 2020-04-16 | 京セラ株式会社 | Electronic apparatus, control method, and control program |
JP2021149664A (en) * | 2020-03-19 | 2021-09-27 | ヤフー株式会社 | Output apparatus, output method, and output program |
JP7164793B1 (en) | 2021-11-25 | 2022-11-02 | ソフトバンク株式会社 | Speech processing system, speech processing device and speech processing method |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05316227A (en) * | 1992-05-13 | 1993-11-26 | Nippon Telegr & Teleph Corp <Ntt> | Voice converting telephone service system |
JPH1097267A (en) * | 1996-09-24 | 1998-04-14 | Hitachi Ltd | Method and device for voice quality conversion |
JP2005223500A (en) * | 2004-02-04 | 2005-08-18 | Nippon Telegr & Teleph Corp <Ntt> | Electric communication device |
JP2007259427A (en) * | 2006-02-23 | 2007-10-04 | Matsushita Electric Ind Co Ltd | Mobile terminal unit |
JP2008131310A (en) * | 2006-11-20 | 2008-06-05 | Sharp Corp | Telephone equipment, controlling method of telephone equipment, control program of telephone equipment, and recording medium recorded with the program |
JP2008211271A (en) * | 2007-02-23 | 2008-09-11 | Nomura Research Institute Ltd | Call center management system, call center managing method, program, and recording medium |
-
2009
- 2009-01-15 JP JP2009006810A patent/JP2010166324A/en not_active Ceased
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05316227A (en) * | 1992-05-13 | 1993-11-26 | Nippon Telegr & Teleph Corp <Ntt> | Voice converting telephone service system |
JPH1097267A (en) * | 1996-09-24 | 1998-04-14 | Hitachi Ltd | Method and device for voice quality conversion |
JP2005223500A (en) * | 2004-02-04 | 2005-08-18 | Nippon Telegr & Teleph Corp <Ntt> | Electric communication device |
JP2007259427A (en) * | 2006-02-23 | 2007-10-04 | Matsushita Electric Ind Co Ltd | Mobile terminal unit |
JP2008131310A (en) * | 2006-11-20 | 2008-06-05 | Sharp Corp | Telephone equipment, controlling method of telephone equipment, control program of telephone equipment, and recording medium recorded with the program |
JP2008211271A (en) * | 2007-02-23 | 2008-09-11 | Nomura Research Institute Ltd | Call center management system, call center managing method, program, and recording medium |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2487608A1 (en) | 2010-07-23 | 2012-08-15 | Sony Corporation | Information processing device, information processing method, and information processing program for |
JPWO2012104952A1 (en) * | 2011-02-03 | 2014-07-03 | パナソニック株式会社 | Voice reading device, voice output device, voice output system, voice reading method and voice output method |
JP5677470B2 (en) * | 2011-02-03 | 2015-02-25 | パナソニックIpマネジメント株式会社 | Voice reading device, voice output device, voice output system, voice reading method and voice output method |
WO2018023519A1 (en) * | 2016-08-04 | 2018-02-08 | 易晓阳 | Voice control method for music local playback |
WO2018023520A1 (en) * | 2016-08-04 | 2018-02-08 | 易晓阳 | Voice control-based music local playback device |
CN109964226B (en) * | 2016-11-16 | 2023-06-30 | 三星电子株式会社 | Electronic device and control method thereof |
CN109964226A (en) * | 2016-11-16 | 2019-07-02 | 三星电子株式会社 | Electronic device and its control method |
JP2020061621A (en) * | 2018-10-05 | 2020-04-16 | 京セラ株式会社 | Electronic apparatus, control method, and control program |
JP7072482B2 (en) | 2018-10-05 | 2022-05-20 | 京セラ株式会社 | Electronic equipment, control methods and control programs |
JP7248615B2 (en) | 2020-03-19 | 2023-03-29 | ヤフー株式会社 | Output device, output method and output program |
JP2021149664A (en) * | 2020-03-19 | 2021-09-27 | ヤフー株式会社 | Output apparatus, output method, and output program |
US11749270B2 (en) | 2020-03-19 | 2023-09-05 | Yahoo Japan Corporation | Output apparatus, output method and non-transitory computer-readable recording medium |
JP7164793B1 (en) | 2021-11-25 | 2022-11-02 | ソフトバンク株式会社 | Speech processing system, speech processing device and speech processing method |
JP2023077444A (en) * | 2021-11-25 | 2023-06-06 | ソフトバンク株式会社 | Voice processing system, voice processing device and voice processing method |
JP7394192B2 (en) | 2021-11-25 | 2023-12-07 | ソフトバンク株式会社 | Audio processing device, audio processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010166324A (en) | Portable terminal, voice synthesizing method, and program for voice synthesis | |
CN106652996B (en) | Prompt tone generation method and device and mobile terminal | |
US20080026355A1 (en) | Song lyrics download for karaoke applications | |
US20080113325A1 (en) | Tv out enhancements to music listening | |
JP2008099330A (en) | Information processor, and portable telephone set | |
US20060167677A1 (en) | Mobile communication terminal | |
CN112286481A (en) | Audio output method and electronic equipment | |
US20210089726A1 (en) | Data processing method, device and apparatus for data processing | |
JP2011250311A (en) | Device and method for auditory display | |
JP2006033817A (en) | Apparatus and method for transmitting and outputting data of mobile terminal | |
CN104317404A (en) | Voice-print-control audio playing equipment, control system and method | |
WO2023011370A1 (en) | Audio playing method and apparatus | |
JP4224450B2 (en) | Mobile communication terminal and program | |
WO2020051881A1 (en) | Information prompt method and related product | |
KR20070076942A (en) | Apparatus and method for composing music in portable wireless terminal | |
CN100559805C (en) | Mobile terminals and the message output method that is used for this terminal | |
JP2006084515A (en) | Music play-back apparatus | |
JP2007259427A (en) | Mobile terminal unit | |
KR20110050483A (en) | Method for communicating, a related system for communicating and a related transforming part | |
US8199904B2 (en) | Method and device for creating a media signal | |
CN1937637B (en) | Audiofrequency signaloutput arbitration method and corresponding electronic apparatus | |
JP2005300863A (en) | Mobile communication terminal and karaoke system | |
KR20050067865A (en) | Mobile phone capable of playing multimedia contents with a telephone call | |
CN109088920A (en) | Evaluation method, device, equipment and the storage medium of intelligent sound box | |
KR100678119B1 (en) | Method for replaying music file in wireless terminal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111205 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120906 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20120907 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120910 |
|
AA92 | Notification that decision to refuse application was cancelled |
Free format text: JAPANESE INTERMEDIATE CODE: A971092 Effective date: 20121002 |