JP5387095B2 - Information processing apparatus and information processing method - Google Patents
Information processing apparatus and information processing method Download PDFInfo
- Publication number
- JP5387095B2 JP5387095B2 JP2009082786A JP2009082786A JP5387095B2 JP 5387095 B2 JP5387095 B2 JP 5387095B2 JP 2009082786 A JP2009082786 A JP 2009082786A JP 2009082786 A JP2009082786 A JP 2009082786A JP 5387095 B2 JP5387095 B2 JP 5387095B2
- Authority
- JP
- Japan
- Prior art keywords
- text
- voice
- speech
- candidate
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Information Transfer Between Computers (AREA)
- Telephonic Communication Services (AREA)
Description
本発明は、情報処理装置及び情報処理方法に関する。特に、チャット機能を有する情報処理装置及び情報処理方法に関する。 The present invention relates to an information processing apparatus and an information processing method. In particular, the present invention relates to an information processing apparatus and an information processing method having a chat function.
聴覚障害を持った人と健聴者とのコミュニケーションを助ける手段として、テキストチャットを用いることが考えられる。聴覚障害者は、音声を聞き取ることが出来ない。そのため健聴者はテキストをチャット端末に入力し、聴覚障害者はテキストを見て相手の発言を理解することができる。 It is conceivable to use text chatting as a means of helping communication between a hearing impaired person and a normal hearing person. Hearing impaired people cannot hear the sound. Therefore, a normal hearing person inputs a text into a chat terminal, and a hearing-impaired person can understand a partner's remarks by seeing a text.
チャットシステムを用いたコミュニケーションにおいては、単に伝わるというだけでなく、音声同士のコミュニケーションと同様に円滑にコミュニケーションをとるための工夫がなされている。例えば、特許文献1には音声認識を用いて、テキスト入力の作業負荷を軽減する技術が開示されている。音声認識を用いれば、キーボード操作に熟練していなくてもチャットを円滑に楽しむことが出来る。 In communication using a chat system, not only simply communicates, but also a device for smooth communication as in the case of communication between voices. For example, Patent Document 1 discloses a technique for reducing the workload of text input using voice recognition. Using voice recognition, you can enjoy chatting smoothly even if you are not skilled in keyboard operation.
聴覚障害者が発話障害も併せ持っている場合には、聴覚障害者はテキストによって発言することとなる。ところが、状況によっては音声同士でコミュニケーションされることが好ましい場合がある。例えば、聴覚障害者が講演会や会議など複数人の前で発言する場合及びラジオ放送などで発言する場合であるが、その場合には、チャットシステムに音声合成を用いることが考えられる。 If the hearing impaired person also has speech impairment, the hearing impaired person speaks by text. However, it may be preferable to communicate with each other depending on the situation. For example, a hearing impaired person speaks in front of a plurality of people, such as a lecture or a meeting, or a radio broadcast, etc. In this case, it is conceivable to use speech synthesis for the chat system.
しかし、従来のチャットシステムにおいては入力手段がキーボードなどによるタイプ入力しかなく、入力操作に習熟していない利用者が利用する場合には発言の入力タイミングを利用者が制御できず、第3者にとって聞きやすい自然な音声会話とはならない場合が多かった。 However, in the conventional chat system, the input means is only type input using a keyboard or the like, and when the user who is not familiar with the input operation uses it, the user cannot control the input timing of the speech. In many cases, the voice conversation was not easy to hear.
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、テキストを合成音声に変換して行われる音声チャットにおいて、発言の入力タイミングを利用者が制御することが可能であり、第3者にとって聞こえのいい自然な音声会話をすることが可能な、新規かつ改良された情報処理装置を提供することにある。 Accordingly, the present invention has been made in view of the above problems, and an object of the present invention is to control the input timing of speech in a voice chat performed by converting text into synthesized speech. It is possible to provide a new and improved information processing apparatus capable of having a natural voice conversation that can be heard by a third party.
上記課題を解決するために、本発明のある観点によれば、ネットワークを介して接続された他の情報処理装置とメッセージの交換を用いた会話をすることのできるチャット機能を有する情報処理装置であって、上記メッセージの候補である候補テキストを記憶するテキストデータ記憶部と、予め録音された音声データである候補音声及び上記候補音声に紐付けられ該候補音声の内容を示す候補音声テキストを記憶する音声データ記憶部と、操作画面の表示を制御し、上記候補テキスト及び上記候補音声テキストを上記操作画面上に選択可能に表示させる表示制御部と、上記操作画面に表示された候補テキストの中から利用者により選択された候補テキストである選択テキストを取得する選択テキスト取得部と、上記操作画面に表示された候補音声テキストの中から利用者により選択された候補音声テキストである選択音声テキスト及び上記選択音声テキストに対応して記憶された候補音声である選択音声を取得する選択音声取得部と、上記選択音声を出力又は上記他の情報処理装置に対して送信する音声出力部と、上記選択テキスト及び上記選択音声テキストを上記他の情報処理装置に対して送信するテキスト送信部と、を有する情報処理装置が提供される。 In order to solve the above-described problem, according to an aspect of the present invention, an information processing apparatus having a chat function capable of having a conversation using message exchange with another information processing apparatus connected via a network. A text data storage unit that stores candidate text that is a candidate for the message, and a candidate voice that is pre-recorded voice data and a candidate voice text that is linked to the candidate voice and indicates the content of the candidate voice A voice data storage unit for controlling the display of the operation screen, the display control unit for selectively displaying the candidate text and the candidate voice text on the operation screen, and the candidate text displayed on the operation screen The selected text acquisition unit that acquires the selected text that is the candidate text selected by the user from the above, and the candidates displayed on the operation screen A selected voice acquisition unit that acquires a selected voice text that is a candidate voice text selected from a voice text by a user and a selected voice that is a candidate voice stored corresponding to the selected voice text; and the selected voice Provided is an information processing apparatus having an audio output unit that outputs or transmits to the other information processing apparatus, and a text transmission unit that transmits the selected text and the selected audio text to the other information processing apparatus Is done.
かかる構成により、情報処理装置は、利用者に対してチャット上の発言の候補である候補テキスト及び候補音声テキストを操作画面を通じて提供し、利用者の操作に応じて予め記憶されたテキスト及び音声をメッセージとして出力する。そのため、利用者は、提供されたテキスト及び音声の候補の中から所望のデータを選択し、自らの発言として確定入力することが出来る。これにより、利用者は、例えばキーボード入力操作の習熟度合いに関わらず、発言のタイミングを制御することが出来るようになり、第3者にとって聞こえのよい自然な音声会話が出来るようになる。 With this configuration, the information processing apparatus provides the user with candidate text and candidate speech text that are candidates for speech on the chat through the operation screen, and stores text and speech stored in advance according to the user's operation. Output as a message. Therefore, the user can select desired data from the provided text and speech candidates and can confirm and input the data as his / her own speech. As a result, the user can control the timing of speech regardless of the level of proficiency of keyboard input operation, for example, and a natural voice conversation that can be heard by a third party can be performed.
また、利用者が入力した入力テキストを取得する入力テキスト取得部と、上記入力テキスト、上記選択テキスト、及び上記選択音声テキストの音声化を制御する音声化制御部をさらに有してもよい。 Moreover, you may further have the input text acquisition part which acquires the input text which the user input, and the voice control part which controls the voice of the said input text, the said selected text, and the said selected speech text.
また、上記音声化制御部は、予め登録された登録語及び上記登録語に紐付けられた修正語を含む置換テーブルを有し、上記入力テキスト及び上記選択テキストが上記登録語を含む場合に、上記入力テキスト及び上記選択テキスト中の上記登録語を上記置換テーブル中の上記登録語に対応する修正語に置換してもよい。 Further, the voice control unit has a replacement table including a registered word registered in advance and a correction word linked to the registered word, and when the input text and the selected text include the registered word, The registered word in the input text and the selected text may be replaced with a modified word corresponding to the registered word in the replacement table.
また、上記入力テキスト及び上記選択テキストから合成音声を生成する音声合成部をさらに有し、上記音声出力部は上記合成音声をさらに出力又は上記他の情報処理装置に対して送信してもよい。 Further, a speech synthesis unit that generates synthesized speech from the input text and the selected text may be further included, and the speech output unit may further output the synthesized speech or transmit the synthesized speech to the other information processing apparatus.
また、上記入力テキスト及び上記選択テキストから生成された合成音声の出力時間を計算する音声出力時間計算部をさらに有し、上記表示制御部は、上記音声出力時間計算部から入力された上記出力時間に基づいて、上記合成音声の残り出力時間を上記操作画面に表示させてもよい。 In addition, it further includes a voice output time calculation unit that calculates an output time of a synthesized voice generated from the input text and the selected text, and the display control unit is configured to output the output time input from the voice output time calculation unit. Based on the above, the remaining output time of the synthesized speech may be displayed on the operation screen.
また、上記音声出力部は、上記他の情報処理装置から入力された音声停止指示に従い出力を停止してもよい。 The audio output unit may stop the output in accordance with an audio stop instruction input from the other information processing apparatus.
以上説明したように本発明によれば、テキストを合成音声に変換して行われる音声チャットにおいて、発言の入力タイミングを利用者が制御することが可能であり、第3者にとって聞こえのいい自然な音声会話をすることができる。 As described above, according to the present invention, in voice chat performed by converting text into synthesized speech, the user can control the input timing of speech, which is natural for a third party to hear. You can have a voice conversation.
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.
<第1の実施形態>
まず、図1を参照しながら本発明の第1の実施形態にかかる音声合成チャットシステムの構成について説明する。図1は、本発明の第1の実施形態にかかる音声合成チャットシステムの構成図である。
<First Embodiment>
First, the configuration of the speech synthesis chat system according to the first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a configuration diagram of a speech synthesis chat system according to the first embodiment of the present invention.
(システム構成)
本発明の第1の実施形態にかかる音声合成チャットシステムは、第1のチャット端末装置100、通信網200、及び第2のチャット端末装置300から主に構成される。第1のチャット端末装置100と第2のチャット端末装置300とは通信網200を介して接続されている。本実施形態においては、音声合成チャットシステムは2つの端末装置で構成されるが、これに限られない。2つ以上の複数の情報処理装置で構成されてよい。
(System configuration)
The speech synthesis chat system according to the first embodiment of the present invention is mainly composed of a first
第1のチャット端末装置100及び第2のチャット端末装置300は、通信網200に接続可能な装置である。例えばPC(Personal Computer)であってよい。また、例えば、PDA(Personal Digital Assistant)、携帯電話、デジタルテレビなどの表示装置、ビデオプレーヤ、ビデオデッキ、HDD(Hard Disk Drive)レコーダ、DVD(Digital Versatile Disc)プレーヤ、DVDレコーダなどの記録・再生装置、音楽再生装置、及びゲーム機などの機器であってもよい。
The first
通信網200は、有線または無線の伝送路である。例えば電話回線網、衛星通信網、インターネットなどの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)、IP−VPN(Internet Protocol−Virtual Private Network)等の専用回線網を含んでも良い。
The
(音声合成チャットの概要)
第1のチャット端末装置100は、情報処理装置の一例である。また、第2のチャット端末装置300は、他の情報処理装置の一例である。第1のチャット端末装置100及び第2のチャット端末装置300は、テキストメッセージを交換可能なチャット機能を有する。
(Outline of speech synthesis chat)
The first
利用者A(健聴者)と利用者B(聴覚障害及び発話障害を有する。)との音声コミュニケーションに、本実施形態にかかるチャットシステムを用いる場合を考える。例えば大人数で開催する会議や、ラジオ放送などの場合には、音声によるコミュニケーションが望ましい。発話障害を有する利用者が音声コミュニケーションをとるために、本実施形態にかかるチャットシステムは音声合成を用いる。 Consider a case where the chat system according to the present embodiment is used for voice communication between a user A (normally hearing person) and a user B (having hearing impairment and speech impairment). For example, in the case of a conference held with a large number of people or radio broadcasting, voice communication is desirable. The chat system according to the present embodiment uses speech synthesis in order for a user having a speech disorder to perform voice communication.
利用者Aは、音声を発すると共に第2のチャット端末装置300に発言内容をテキスト入力する。このとき、テキスト入力はキーボードなどの入力手段を用いて入力されてもよいし、音声認識を用いて、音声をテキストに変換したものであってもよい。入力されたテキストは、通信網200を介して第1のチャット端末装置100に送信される。
User A utters a voice and inputs the text of the message to the second
利用者Aによって入力されたテキストは、第1のチャット端末装置100及び第2のチャット端末装置300の操作画面上に表示される。利用者Bは、第1のチャット端末装置100の操作画面に表示されたテキストを見て応答となるテキストを第1のチャット端末装置100に入力する。利用者Bによって入力されたテキストは、通信網200を介して第2のチャット端末装置300に送信されると共に、第1のチャット端末装置100において音声合成され、例えばスピーカーなどの出力手段を用いて音声出力される。本実施形態においては第1のチャット端末装置100と第2のチャット端末装置300とが同じ場所に存在する状況を想定しているため、このような構成であってよい。
The text input by the user A is displayed on the operation screens of the first
例えば、第1のチャット端末装置100と第2のチャット端末装置300とが離れた場所に存在する場合には、第1のチャット端末装置100において入力されたテキストは第2のチャット端末装置300に送信され、第2のチャット端末装置300において音声合成された後、音声出力されてもよい。また、第1のチャット端末装置100において入力されたテキストは、第1のチャット端末装置100において音声合成された後、例えばWAVやMP3などの音声ファイルに変換されてから第2のチャット端末装置300に転送されてもよい。また、音声合成されたデータはストリーミング方式で第2のチャット端末装置300に転送されてもよい。
For example, when the first
以上、本実施形態にかかる音声合成チャットシステムの全体構成と利用方法の概要について説明してきた。しかし、従来このようなシステムを用いて、第3者が聞いても聞こえのよい音声会話となるには、利用者側がシステムの利用に習熟する必要があった。そこで、第3者にとっても聞こえのよい音声会話を助けるための詳細な構成について次に説明する。 Heretofore, an overview of the overall configuration and usage method of the speech synthesis chat system according to the present embodiment has been described. Conventionally, however, in order to achieve a voice conversation that can be heard even by a third party using such a system, the user has to be proficient in using the system. Therefore, a detailed configuration for helping a voice conversation that can be heard by a third party will be described below.
次に、図2と図3とを参照しながら、第1のチャット端末装置100の機能構成と、操作画面の一例について説明する。図2は、第1の実施形態にかかる第1のチャット端末装置の機能構成を示すブロック図である。図3は、第1の実施形態にかかる第1のチャット端末装置の操作画面の一例を示す説明図である。
Next, the functional configuration of the first
(機能構成)
図2を参照しながら本発明の第1の実施形態にかかる第1のチャット端末装置100の機能構成について説明する。本発明の第1の実施形態にかかる第1のチャット端末装置100は、音声データ記憶部102、テキストデータ記憶部104、選択音声取得部106、入力テキスト取得部108、選択テキスト取得部110、表示制御部112、テキスト送信部114、テキスト受信部116、音声合成部118、音声出力部120、及び音声出力時間計算部122を主に有する。
(Functional configuration)
A functional configuration of the first
(音声データ記憶部102)
音声データ記憶部102は、選択音声取得部106に接続される。音声データ記憶部102は、予め録音された音声データである候補音声を記憶しておく記憶部である。候補音声は、候補音声の内容とその特徴を含むテキストである候補音声テキストと紐付けられて記憶される。ここで、候補音声は、例えば予め音声合成で生成したもの、肉声を録音したもの、及び人間の声でない効果音のようなものであってもよい。さらに記憶しておく候補音声としては、例えば図3の音声選択部520に示す「うーん(躊躇)」及び「うーん(納得)」のように、同じ表記の言葉であってもニュアンスの異なるものを蓄積しておくと効果的である。音声合成を用いて生成される音声は、通常、表記が同じである場合には同じ波形を持つ合成音が生成される。ところが、人間の発話は表記としては同じであっても、音声信号として見た場合には音声の継続時間長、パワー、スペクトル、及びピッチの変化の異なる音声を文脈によって通常使い分けている。そこで、このようなニュアンスの違いを加味したデータを蓄積しておくことによって、利用者はより自然な会話をすることが出来るようになる。
(Audio data storage unit 102)
The voice
(テキストデータ記憶部104)
テキストデータ記憶部104は、選択テキスト取得部110に接続される。テキストデータ記憶部104は、予め登録されたテキストデータであり、ネットワークを介して接続された第2のチャット端末装置300に対して送信されるメッセージの候補である候補テキストを記憶しておく記憶部である。ここで、候補テキストは例えばよくしようするフレーズや必ず使用することがわかっている文章などであってよい。特に本実施形態のように音声合成を用いるときには、テキスト入力に時間がかかると、自然な会話のテンポが損なわれる。そこでよく使用するフレーズや、必ず使用することがわかっているフレーズを候補テキストとして登録しておくことによって、テキスト入力にかかる時間を削減することができ、無駄な無言時間の発生を避け、聞き手にとっても聞こえのよい会話となる。
(Text data storage unit 104)
The text
ここで、音声データ記憶部102及びテキストデータ記憶部104は物理的に同じ記憶部であっても別体の記憶部であってもよい。例えば音声データ記憶部102及びテキストデータ記憶部104の具体的な例としては、ハードディスク(Hard Disk)などの磁気記録媒体や、EEPROM(Electronically Erasable and Programmable Read Only Memory)、フラッシュメモリ、MRAM(Magnetoresistive Random Access Memory)、FeRAM(Ferroelectric Random Access Memory)、PRAM(Phase change Random Access Memory)などの不揮発性メモリが挙げられるが、上記に限られない。
Here, the voice
(選択音声取得部106)
選択音声取得部106は、音声データ記憶部102、音声出力部120、表示制御部112、及びテキスト送信部114に接続される。選択音声取得部106は、図3に示す操作画面500の音声選択部520に表示された候補音声テキストの中から利用者により選択された候補音声テキストである選択音声テキスト及び選択音声テキストに対応して記憶された候補音声である選択音声を音声データ記憶部102から取得する。選択音声取得部106は、選択音声を音声出力部120に入力する。また、選択音声取得部106は、選択音声テキストを表示制御部112及びテキスト送信部114に入力する。
(Selected sound acquisition unit 106)
The selected
(入力テキスト取得部108)
入力テキスト取得部108は、音声合成部118、表示制御部112、及びテキスト送信部114に接続される。入力テキスト取得部108は、図3に示す操作画面500のテキスト入力部510において利用者が入力したテキストデータである入力テキストを取得する。そして入力テキスト取得部108は、入力テキストを表示制御部112及びテキスト送信部114に入力すると共に、音声合成部118に入力する。
(Input text acquisition unit 108)
The input
(選択テキスト取得部110)
選択テキスト取得部110は、テキストデータ記憶部104、音声合成部118、表示制御部112、及びテキスト送信部114に接続される。選択テキスト取得部110は、図3に示す操作画面500のテキスト選択部530に表示された候補テキストの中から利用者により選択された候補テキストである選択テキストをテキストデータ記憶部104から取得する。選択テキスト取得部110は、取得した選択テキストを表示制御部112及びテキスト送信部114に入力すると共に、音声合成部118に入力する。
(Selected text acquisition unit 110)
The selected
(テキスト送信部114)
テキスト送信部114は、選択音声取得部106、入力テキスト取得部108、選択テキスト取得部110、及び通信網200に接続される。テキスト送信部114は、入力されたテキストを通信網200に送信する通信インタフェースである。例えばテキスト送信部114は、選択音声取得部106、入力テキスト取得部108、及び選択テキスト取得部110から入力された選択音声テキスト、入力テキスト、及び選択テキストを通信網200を介して他の第2のチャット端末装置300に対して送信する。
(Text transmitter 114)
The
(テキスト受信部116)
テキスト受信部116は、表示制御部112及び通信網200に接続される。テキスト受信部116は、通信網200を介してテキストを受信する通信インタフェースである。例えばテキスト受信部116は、第2のチャット端末装置300から受信したテキストを表示制御部112に入力する。
(Text receiver 116)
The
(音声合成部118)
音声合成部118は、入力テキスト取得部108、選択テキスト取得部110、音声出力部120、及び音声出力時間計算部122に接続される。音声合成部118は、入力されたテキストデータから合成音声を生成する。例えば本実施形態において音声合成部118は、入力テキスト取得部108から入力テキストが入力され、選択テキスト取得部110からは選択テキストが入力される。音声合成部118は、これら入力されたテキストデータからそれぞれ合成音声を生成し、合成音声を音声出力部120に入力する。さらに音声合成部118は、合成音声が音声出力された場合に要する時間長情報を音声出力時間計算部122に入力する。
(Speech synthesizer 118)
The
また、音声合成部118は、本実施形態においては第1のチャット端末装置100に搭載されるが、第2のチャット端末装置300に搭載される構成も可能である。この場合第1のチャット端末装置100は、選択テキスト及び入力テキストに例示されるテキストデータを第2のチャット端末装置300に送信し、第2のチャット端末装置300においてテキストデータは音声合成される。
In addition, the
(音声出力部120)
音声出力部120は、選択音声取得部106、音声合成部118、音声出力時間計算部122、及び音声出力装置(図示せず。)に接続される。上述の通り、本実施形態においては、第1のチャット端末装置100と第2のチャット端末装置300とが同じ会場に存在する場合を想定しているため、音声出力部120は直接音声出力装置(例えばスピーカーなど。)に接続される。例えば音声出力部120は、選択音声取得部106から選択音声が入力される。また音声合成部118から合成音声が入力される。このとき音声出力部120は、入力された選択音声及び合成音声をDA(Digital to Analog)変換し、外部スピーカーなどの音声出力装置に音声のアナログ信号を入力する。
(Audio output unit 120)
The
また、音声出力部120は、音声出力装置の代わりに通信網200に接続される構成も可能である。この場合音声出力部120は、入力された音声をDA変換せずデジタルデータのまま通信網200に対して送信する。ここで音声出力部120は例えば入力された選択音声及び合成音声などの音声データを圧縮処理してもよい。
The
(音声出力時間計算部122)
音声出力時間計算部122は、音声合成部118、音声出力部120、及び表示制御部112に接続される。音声出力時間計算部122は、時計機能を有し、選択音声及び合成音声が出力される残り時間を計算する。音声出力時間計算部122は、音声合成部118から入力された時間長情報から音声の出力のこり時間を計算し、得られた出力残り時間に関する情報を表示制御部112に入力する。
(Audio output time calculator 122)
The voice output
(表示制御部112)
表示制御部112は、選択音声取得部106、入力テキスト取得部108、選択テキスト取得部110、テキスト送信部114、テキスト受信部116、及び音声出力時間計算部122に接続される。表示制御部112は、第1のチャット端末装置100に接続された表示装置(図示せず)の表示、例えば図3に示す操作画面500の表示を制御する機能部である。
(Display control unit 112)
The
ここで図3に示す操作画面500を用いて表示制御部112が行う表示制御の一例について説明する。表示制御部112は、操作画面500の表示に関する制御全般を行う。例えば利用者が入力部(図示せず。)を用いてテキストを入力した場合、表示制御部112は入力されたテキストを一文字ごとに入力テキスト取得部108から受け取り、リアルタイムでテキスト入力部510に表示させる。入力されたテキストが例えばエンターキーなどを用いて確定されると、表示制御部112は、メッセージ表示部540に上記の入力テキストを表示させる。また通信網200を介して接続された他の第2のチャット端末装置300によって確定されたメッセージをテキスト受信部から受け取ると、表示制御部112は受け取ったテキストをメッセージ表示部540に表示させる。ここで入力部は例えば、キーボードやマウスなどの操作入力デバイスや、ボタン、方向キー、ジョグダイヤルなどの回転型セレクター、あるいはこれらの組合せなどが挙げられるが、上記に限られない。
Here, an example of display control performed by the
また表示制御部112は、音声データ記憶部102から記憶された候補音声テキストを取得して操作画面500の音声選択部520に選択可能に表示させる。例えば利用者によって候補音声テキストの中から1の候補音声テキストが選択された場合、表示制御部112は選ばれた候補音声テキストである選択音声テキストをメッセージ表示部540に表示させる。
In addition, the
また表示制御部112は、テキストデータ記憶部104から記憶された候補テキストを取得して操作画面500のテキスト選択部530に選択可能に表示させる。例えば利用者によって候補テキストの中から1の候補テキストが選択された場合、表示制御部112は選ばれた候補テキストである選択テキストをメッセージ表示部540に表示させる。
Further, the
また表示制御部112は、音声出力時間計算部122から受け取った音声の残り出力時間に関する情報を元に、音声の出力残り時間を視覚的に表示する。このとき表示の手段は、例えば操作画面500の第1の音声出力時間表示部550に示したように、棒状の表示を残り時間に応じた数表示するものであってよい。また例えば第2の音声出力時間表示部555に示したように、音声の出力残り時間を時計形式を用いて数値で表してもよい。
The
(第1の実施形態の効果の例)
以上、本発明の第1の実施形態にかかる第1のチャット端末装置100の機能構成について説明してきた。このような第1のチャット端末装置100を用いることによって、利用者は入力手段として通常のキーボードなどの入力部を用いたテキスト入力に加え、予め登録されたテキスト及び予め登録された音声を選択することが出来るようになる。従来の入力手段においては、利用者はキーボードなどを用いてテキスト入力することが必要であり、利用者の入力操作の習熟度合いによっては円滑な会話が出来ない場合があった。特に本実施形態のように音声を用いた会話をする場合においては、会話の間に無駄な無言時間があると聞き手にとって聞こえのよい会話とならない。そこで本実施形態において示した入力手段は、例えばマウスなどの入力部を用いてクリックなどの操作をすることによって入力するテキスト及び音声を選択する選択形式である。このような選択形式の入力手段を用いることにより、利用者は入力操作に習熟していなくとも自らの発言したいタイミングで所望のテキスト及び音声を出力することが可能となる。
(Example of effects of the first embodiment)
The functional configuration of the first
また、テキストデータ記憶部に予め登録されたテキストを操作画面上に選択可能に表示することによって、クリックひとつで長い文章も入力し、音声化することができるようになる。これにより、予め用意したテキストを用いるためテキストの打ち誤りを防止することが出来ると共に、キー入力の必要がないためキー入力操作に習熟していない利用者であっても入力にかかる時間が削減される。従って、音声の品質を向上させることが出来る。聞き手にとっては余計な無言時間を抑え、回答者にとっては端末に向かう時間が抑えられるため、周囲に注意を払うことが出来るようになる。 In addition, by displaying text pre-registered in the text data storage unit on the operation screen so as to be selectable, a long sentence can be input and voiced with a single click. This makes it possible to prevent text typing errors by using text prepared in advance, and reduces the time required for input even for users who are not familiar with key input operations because there is no need for key input. The Therefore, the quality of voice can be improved. For the listener, the unnecessary silent time is reduced, and for the respondent, the time to go to the terminal is reduced, so that attention can be paid to the surroundings.
また、音声データ記憶部に予め登録された音声を操作画面上で選択することによってクリック一つで音声を出力することが出来るようになった。ここで出力することが出来る音声は、予め音声合成によって生成されたものであってもよいが、肉声を録音しておくと効果的である。音声合成によって得られる音声は、通常同じ表記のテキストに対しては同じ波形の音声が生成されるため、言葉の微妙なニュアンスを表現できないことが多い。これが合成音声を用いた会話の表現力の限界となっている部分があった。予めよく使用する言葉、例えば相槌など感情を表現したい言葉を登録しておくことにより、利用者は、音声の時間長、パワー、スペクトル、ピッチの変化の異なる音声を文脈によって使い分けることが出来るようになる。 In addition, it is possible to output a voice with one click by selecting a voice registered in the voice data storage unit on the operation screen. The voice that can be output here may be generated by voice synthesis in advance, but it is effective to record a real voice. Since the speech obtained by speech synthesis usually generates speech with the same waveform for text with the same notation, it is often impossible to express subtle nuances of words. This was the limit of the expressiveness of conversation using synthetic speech. By registering frequently used words in advance, such as words that express emotions such as conflict, users can use different voices with different time length, power, spectrum, and pitch depending on the context. Become.
また、本実施形態にかかる第1のチャット端末装置100は音声出力時間計算部122を有するため、操作画面に自ら入力した音声及び、入力したテキストから生成された合成音声の残り出力時間を把握することが出来るようになった。本実施形態にかかる第1のチャット端末装置100の利用者は聴覚障害及び発話障害を有する利用者を想定しているため、利用者が周囲の状況を把握する補助手段として音声の残り出力時間を表示させる。利用者は、聴覚障害を有するため音声で会話の状況を把握することが出来ない。そのため、操作画面上のメッセージ表示部及び音声出力時間表示部を参照することによって音声による会話がどのように進んでいるかを把握することが可能となる。
In addition, since the first
<第2の実施形態>
次に、本発明の第2の実施形態にかかる音声合成チャットシステムの第1のチャット端末装置100について図4を用いて説明する。図4は、第2の実施形態にかかる第1のチャット端末装置の機能構成を示すブロック図である。本発明の第2の実施形態にかかる音声合成チャットシステムは、第1のチャット端末装置100の機能構成の一部分が第1の実施形態と異なる。そのため、第1の実施形態と同様の構成については説明を省略する。
<Second Embodiment>
Next, the 1st
(音声化制御部124)
第2の実施形態にかかる第1のチャット端末装置100は、音声化制御部124をさらに有する点において第1の実施形態にかかる第1のチャット端末装置100と異なる。音声化制御部124は、選択音声取得部106、入力テキスト取得部108、選択テキスト取得部110、表示制御部112、テキスト送信部114、及び音声合成部118に接続される。音声化制御部124は、入力されたテキストの音声化を制御する機能部である。また、音声化制御部124は、音声化するか否かを制御したり、音声化された場合に第3者にとって聞こえのよい音声とならないテキストを検知すると、入力されたテキストを制御する。
(Voice control unit 124)
The first
音声化制御部124の制御の一例を図5を用いて説明する。図5は、第2の実施形態にかかる音声化制御部の動作の一例を示すフローチャートである。まず、音声化制御部124は、ステップS100において入力されたテキストが選択音声取得部106からの入力であるか否かを判断する。かかる判断において選択音声取得部106からの入力であると判断された場合には、ステップS114において入力されたテキストを表示制御部112及びテキスト送信部114に出力する。選択音声取得部106から選択音声テキストが入力された場合、選択音声取得部106は音声化判断部124に選択音声テキストを入力すると共に音声出力部120に選択音声を入力している。即ち、選択音声テキストを音声合成部118に入力してしまうと同じ内容が2重に音声出力されてしまうため、選択音声入力部からの入力であった場合には音声合成は用いない。
An example of the control of the
ステップS100の判断において選択音声取得部106からの入力でないと判断された場合、即ち入力テキスト取得部108及び選択テキスト取得部110からの入力であると判断された場合には、次にステップS102において入力されたテキストが直前と同じテキストであるか否かが判断される。音声化制御部124は、直前に音声合成部118に出力したテキストを記憶しておき、入力されたテキストデータと記憶されたテキストデータとを比較する。かかる比較において同一であると判断された場合には、ステップS104において入力を確定するか否か判断される。このような判断と確認ステップを実施するのは、操作の誤りなどで同じテキストを二度連続して音声化するのを防ぐためである。特に、選択テキスト取得部110からの入力である場合には、利用者はクリックするだけでテキストを入力できるため、上記のような操作ミスを行うことが考えられる。同じ音声を2度出力してしまうと、聞き手にとって無駄な時間を与えてしまうばかりでなく、機械操作感が強くなるため、自然な音声コミュニケーションを低下させる。
If it is determined in step S100 that the input is not from the selected
ステップS104の入力を確定するか否かの判断は、利用者からの入力によって判断されてよい。例えば、操作画面に直前のテキストデータと同じである旨を伝えるメッセージを表示すると共に、入力を確定するか否か選択を促す画面を表示する。入力が操作の誤りであって、利用者が入力を確定しないことを選択した場合には、ステップS112において入力されたテキストはいずれにも出力されず、処理を中断する。 The determination of whether or not to confirm the input in step S104 may be determined by an input from the user. For example, a message indicating that the text data is the same as the immediately preceding text data is displayed on the operation screen, and a screen prompting the user to select whether to confirm the input is displayed. If the input is an operation error and the user selects not to confirm the input, the text input in step S112 is not output to any item, and the process is interrupted.
また、ステップS104において利用者によって入力を確定することが選択された場合及びステップS102において直前と同じテキストではないと判断された場合には、ステップS106において、入力されたテキストに登録語が含まれるか否かを判断される。ここで図6を用いてステップS106の判断について詳しく説明する。図6は、本実施形態において音声化制御部が有する置換テーブルの一例である。置換テーブル600は、登録語610、制限情報620、及び修正語630を含む。入力されたテキストに含まれていた場合に修正したい言葉を予め登録語610に登録しておく。登録語610には、修正語630が紐付けられている。また、登録語610は制限情報620がさらに紐付けられていてもよい。例えば図6の例を参照すると、登録語610に「でs。」、修正語630に「です。」、制限を「文末」と登録しておくと、音声化制御部124は、置換テーブル600を参照して、入力されたテキストのうち文末に「でs。」を含むテキストを「です。」に置換する。このような置換テーブルの活用例としては、キーボード入力の打ち誤りに対応することが挙げられる。例えば利用者の過去のチャットログを解析することにより、利用者がよく打ち間違える言葉を登録しておくことは効果的である。打ち間違いを含むテキストを音声化した場合には、聞き手にとって聞きづらい音声となる場合が多い。このような置換テーブル600を利用することによって、音声の向上につながる。また、置換テーブルの他の利用としては、伏せておきたい固有名詞、数値、放送禁止用語などを登録しておくことが挙げられる。合成音声をそのまま公共の電波を用いた放送に用いる場合や、合成音声を大勢の人の前で流す場合に効果的である。
If it is selected in step S104 that the user confirms the input, or if it is determined in step S102 that the input text is not the same as the previous one, in step S106, the input word includes a registered word. It is judged whether or not. Here, the determination in step S106 will be described in detail with reference to FIG. FIG. 6 is an example of a replacement table included in the voice control unit in the present embodiment. The replacement table 600 includes a registered
ステップS106において登録語が含まれると判断された場合には、ステップS108において音声化制御部124は、登録語を修正語に置換し、置換されたテキストデータをステップS110において音声合成部118、表示制御部112、テキスト送信部114に出力する。
If it is determined in step S106 that the registered word is included, in step S108, the
尚、音声化制御部124は、さらに予め設定した文字数を超える入力が一度にされた場合に、入力を確定するか否か判断してもよい。また、上記では直前と同じテキストが入力された場合の判断を利用者からの入力に基づいて行ったが、これに限られない。例えば、2度全く同じテキストが連続して入力できないようにしてもよい。
Note that the
また、第2の実施形態において選択音声取得部106、入力テキスト取得部108、及び選択テキスト取得部110からの出力テキストは、第1の実施形態においては音声合成部118、表示制御部112、及びテキスト送信部114に直接入力されていたが、第2の実施形態においてはいずれも音声化制御部124に入力され、音声化制御部124から音声合成部118、表示制御部112、及びテキスト送信部114に入力される点において第1の実施形態と異なる。
In the second embodiment, the output text from the selected
(第2の実施形態の効果の例)
以上説明したように、第2の実施形態にかかる第1のチャット端末装置100は、音声化制御部124を設けることによって、操作間違い、例えばタイプミスにより誤った単語などを正しい表記に修正してから修正語のテキストを音声化することが出来るようになる。また、例えば2重クリックなどの操作間違いにより、誤って同じテキストを複数回入力してしまった場合には、入力を確定するか否かを利用者自らが判断できるようになった。従って、入力されたテキストが音声化された場合に不都合となるテキストを含んでいる場合に、テキストを音声化する前に修正することが出来るようになる。これにより、聞き手にとって聞こえのよい音声会話を実施することができる。
(Example of effects of the second embodiment)
As described above, the first
<第3の実施形態>
次に、本発明の第3の実施形態かかる音声合成チャットシステムの第1のチャット端末装置100について図7と図8とを用いて説明する。図7は、第3の実施形態にかかる第1のチャット端末装置の機能構成を示すブロック図である。図8は、第3の実施形態において音声出力制御部が表示させるメッセージの一例である。以下、第1の実施形態及び第2の実施形態と同様の構成については説明を省略する。
<Third Embodiment>
Next, the 1st
(第2のチャット端末装置300の機能構成)
まず、第2のチャット端末装置300の機能構成について図7を用いて説明する。第2のチャット端末装置300は、音声出力制御部310、テキスト送受信部320、テキスト表示部330、及びテキスト入力部340を主に有する。
(Functional configuration of second chat terminal device 300)
First, the functional configuration of the second
(音声出力制御部310)
音声出力制御部310は、第1のチャット端末装置100の音声出力を制御する機能部である。音声出力制御部310は、第1のチャット端末装置100の音声出力部120に対して音声の停止及び出力可能指示信号を送信する。上記指示信号は、通信網200を介して送信されてよい。
(Audio output control unit 310)
The voice
(第1のチャット端末装置100の機能構成)
(音声出力部120)
音声出力部120は、上記の音声の「出力停止」を示す指示信号を受信すると、音声の出力が出来ない状態にする。この時、例えば図8のaに示すように「音声出力を停止します。」というメッセージを第1のチャット端末装置100の画面上に表示させてもよい。また、音声「出力再開」を示す指示信号を受信すると、音声の出力を直ちに再開する。このとき、例えば図8のbに示すように「音声出力を再開します。」というメッセージを第1のチャット端末装置100の画面上に表示させてもよい。
(Functional configuration of first chat terminal device 100)
(Audio output unit 120)
When the
また、強制的に出力の停止、再開を制御することが好ましくない場合には、例えば「出力停止」を示す指示信号を受信した場合、音声出力部120は音声の出力を停止せず、単にメッセージを表示するだけでもよい。この場合、例えば図8のcに示す「音声出力しないでください。」というメッセージが用いられても良い。音声の「出力再開」を示す指示信号を受信した場合には、例えば図8のdに示す「音声出力をして結構です。」といったメッセージを表示させることができる。
Also, when it is not preferable to forcibly stop the output stop or restart, for example, when an instruction signal indicating “output stop” is received, the
(第3の実施形態の効果の例)
このように、第2のチャット端末装置300側で第1のチャット端末装置100の音声を制御することが出来るようにすることによって、第2のチャット端末装置300の利用者A(健聴者)の都合により音声の出力を制御することが出来るようになる。第1のチャット端末装置100の利用者B(聴覚障害及び発話障害を有する。)は、画面に向かっている時間が多いため、周囲の状況にリアルタイムで気が付けない場合がある。本発明の一実施形態に係る音声合成チャットシステムが大人数で開催する会議や、ラジオ放送などに用いられる場合、聴衆にとって聞き苦しい音声が出力される場合には、強制的に制御することが出来ることが好ましい場合もある。
(Example of effects of the third embodiment)
In this way, by allowing the second
また、第1のチャット端末装置100の利用者Bは音声を聞き取ることができないため、自らが発言することが好ましい状況か否かの判断が遅れる場合がある。そのため第2のチャット端末装置300からの入力によって、利用者Bの操作画面上に音声出力が好ましい状態か否かを知らせるメッセージを表示することによって音声出力が好ましくない状況で音声が出力されてしまう危険を回避することができるようになる。
In addition, since the user B of the first
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されないことは言うまでもない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても当然に本発明の技術的範囲に属するものと了解される。 As mentioned above, although preferred embodiment of this invention was described in detail, referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this example. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.
尚、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的に又は個別的に実行される処理をも含む。また時系列的に処理されるステップでも、場合によっては適宜順序を変更することが可能であることは言うまでもない。 In this specification, the steps described in the flowcharts are executed in parallel or individually even if they are not necessarily processed in time series, as well as processes performed in time series in the described order. Including processing to be performed. Further, it goes without saying that the order can be appropriately changed even in the steps processed in time series.
100 第1のチャット端末装置
102 音声データ記憶部
104 テキストデータ記憶部
106 選択音声取得部
108 入力テキスト取得部
110 選択テキスト取得部
112 表示制御部
114 テキスト送信部
116 テキスト受信部
118 音声合成部
120 音声出力部
122 音声出力時間計算部
124 音声化制御部
DESCRIPTION OF
Claims (9)
前記メッセージの候補である候補テキストを記憶するテキストデータ記憶部と、
予め録音された音声データである候補音声及び前記候補音声に紐付けられ該候補音声の内容を示す候補音声テキストを記憶する音声データ記憶部と、
操作画面の表示を制御し、前記候補テキスト及び前記候補音声テキストを前記操作画面上に選択可能に表示させる表示制御部と、
前記会話の発言として、前記操作画面に表示された候補テキストに対する利用者による選択を受けて、選択された候補テキストである選択テキストを取得する選択テキスト取得部と、
前記操作画面に表示された候補音声テキストの中から利用者により選択された候補音声テキストである選択音声テキスト及び前記選択音声テキストに対応して記憶された候補音声である選択音声を取得する選択音声取得部と、
前記選択音声を出力又は前記他の情報処理装置に対して送信する音声出力部と、
前記選択テキスト及び前記選択音声テキストを前記他の情報処理装置に対して送信するテキスト送信部と、
を備える情報処理装置。 An information processing apparatus having a chat function capable of having a conversation using message exchange with another information processing apparatus connected via a network,
A text data storage unit for storing candidate text that is a candidate for the message;
A voice data storage unit that stores candidate voices that are pre-recorded voice data and candidate voice text that is linked to the candidate voices and indicates the contents of the candidate voices;
A display control unit that controls display of an operation screen and displays the candidate text and the candidate speech text in a selectable manner on the operation screen;
As a speech of the conversation, a selection text acquisition unit that receives selection by the user for the candidate text displayed on the operation screen and acquires the selection text that is the selected candidate text;
Selected speech that acquires selected speech text that is a candidate speech text selected by a user from candidate speech texts displayed on the operation screen and selected speech that is a candidate speech stored corresponding to the selected speech text An acquisition unit;
An audio output unit for outputting the selected audio or transmitting the selected audio to the other information processing apparatus;
A text transmission unit that transmits the selected text and the selected voice text to the other information processing apparatus;
An information processing apparatus comprising:
前記入力テキスト、前記選択テキスト、及び前記選択音声テキストの音声化を制御する音声化制御部をさらに備える、請求項1に記載の情報処理装置。 An input text acquisition unit for acquiring the input text input by the user;
The information processing apparatus according to claim 1, further comprising a voice control unit that controls voice conversion of the input text, the selected text, and the selected voice text.
予め登録された登録語及び前記登録語に紐付けられた修正語を含む置換テーブルを有し、
前記入力テキスト及び前記選択テキストが前記登録語を含む場合に、前記入力テキスト及び前記選択テキスト中の前記登録語を前記置換テーブル中の前記登録語に対応する修正語に置換する、請求項2に記載の情報処理装置。 The voice control unit
Having a replacement table containing pre-registered registered words and correction words linked to the registered words;
If the input text and the selected text comprising the registered word, replacing the registered word of the input text and the selected in text corrected word corresponding to the registered word in the substitution table, to claim 2 The information processing apparatus described.
前記音声出力部は前記合成音声をさらに出力又は前記他の情報処理装置に対して送信する、
請求項2または3に記載の情報処理装置。 A speech synthesizer that generates synthesized speech from the input text and the selected text;
The voice output unit further outputs the synthesized voice or transmits it to the other information processing apparatus;
The information processing apparatus according to claim 2 or 3 .
前記表示制御部は、前記音声出力時間計算部から入力された前記出力時間に基づいて、前記合成音声の残り出力時間を前記操作画面に表示させる、請求項2〜4のいずれかに記載の情報処理装置。 A speech output time calculation unit for calculating an output time of a synthesized speech generated from the input text and the selected text;
The display controller, on the basis of the said output time input from the audio output time calculation unit, and displays the remaining output time of the synthesized speech on the operation screen, the information of any one of claims 2-4 Processing equipment.
前記表示制御部は、当該別々の音声データを、それぞれ別の候補として選択可能に前記候補音声テキストを前記操作画面に表示させることを特徴とする請求項1〜7のいずれかに記載の情報処理装置。 The voice data storage unit stores voice data indicating the same notation and different voice signals as separate voice data,
The information processing according to claim 1, wherein the display control unit displays the candidate speech text on the operation screen so that the separate speech data can be selected as different candidates. apparatus.
前記メッセージの候補である候補テキストを記憶するステップと、
予め録音された音声データである候補音声及び前記候補音声に紐付けられ該候補音声の内容を示す候補音声テキストを記憶するステップと、
操作画面の表示を制御し、前記候補テキスト及び前記候補音声テキストを前記操作画面上に選択可能に表示させるステップと、
前記操作画面に表示された候補テキストの中から利用者により選択された候補テキストである選択テキストを取得するステップと、
前記操作画面に表示された候補音声テキストの中から利用者により選択された候補音声テキストである選択音声テキスト及び前記選択音声テキストに対応して記憶された候補音声である選択音声を取得するステップと、
前記選択音声を出力又は前記他の情報処理装置に対して送信するステップと、
前記選択テキスト及び前記選択音声テキストを前記他の情報処理装置に対して送信するステップと、
を含む、情報処理方法。
An information processing method executed in an information processing apparatus connected to another information processing apparatus via a network and having a chat function for conversation using message exchange,
Storing candidate text that is a candidate for the message;
Storing candidate speech that is pre-recorded speech data and candidate speech text associated with the candidate speech and indicating the content of the candidate speech;
Controlling the display of the operation screen to display the candidate text and the candidate speech text so as to be selectable on the operation screen;
Obtaining a selected text that is a candidate text selected by a user from among the candidate texts displayed on the operation screen;
Obtaining a selected speech text that is a candidate speech text selected by a user from candidate speech texts displayed on the operation screen, and a selected speech that is a candidate speech stored corresponding to the selected speech text; ,
Outputting the selected voice or transmitting to the other information processing apparatus;
Transmitting the selected text and the selected voice text to the other information processing apparatus;
Including an information processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009082786A JP5387095B2 (en) | 2009-03-30 | 2009-03-30 | Information processing apparatus and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009082786A JP5387095B2 (en) | 2009-03-30 | 2009-03-30 | Information processing apparatus and information processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010237802A JP2010237802A (en) | 2010-10-21 |
JP5387095B2 true JP5387095B2 (en) | 2014-01-15 |
Family
ID=43092083
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009082786A Expired - Fee Related JP5387095B2 (en) | 2009-03-30 | 2009-03-30 | Information processing apparatus and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5387095B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6847006B2 (en) * | 2017-09-12 | 2021-03-24 | 株式会社Nttドコモ | Communication control device and terminal |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07181992A (en) * | 1993-12-22 | 1995-07-21 | Toshiba Corp | Device and method for reading document out |
JPH10312377A (en) * | 1997-05-13 | 1998-11-24 | Sanyo Electric Co Ltd | Text speech synthesizing device and computer-readable recording medium where text speech synthesizing process program is recorded |
US20090129295A1 (en) * | 2005-07-13 | 2009-05-21 | Sharp Kabushiki Kaisha | Electronic Conference System, Electronic Conference Managing Device, Terminal Device, Electronic Conference Managing Method, Control Program, and Computer-Readable Storage Medium Storing Same Control Program |
-
2009
- 2009-03-30 JP JP2009082786A patent/JP5387095B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010237802A (en) | 2010-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7974392B2 (en) | System and method for personalized text-to-voice synthesis | |
US7822050B2 (en) | Buffering, pausing and condensing a live phone call | |
CA2372061C (en) | Real-time transcription correction system | |
KR101143034B1 (en) | Centralized method and system for clarifying voice commands | |
US8594290B2 (en) | Descriptive audio channel for use with multimedia conferencing | |
US20060224385A1 (en) | Text-to-speech conversion in electronic device field | |
EP1703492A1 (en) | System and method for personalised text-to-voice synthesis | |
JP2013025299A (en) | Transcription support system and transcription support method | |
KR100783113B1 (en) | Method for shortened storing of music file in mobile communication terminal | |
JP2008107624A (en) | Transcription system | |
US20200075000A1 (en) | System and method for broadcasting from a group of speakers to a group of listeners | |
JP5387095B2 (en) | Information processing apparatus and information processing method | |
KR20080037402A (en) | Method for making of conference record file in mobile terminal | |
US20130210419A1 (en) | System and Method for Associating Media Files with Messages | |
US20220006893A1 (en) | Systems and methods for cellular and landline text-to-audio and audio-to-text conversion | |
JP2020064300A (en) | Memorandum creation system, memorandum creation method, and program of log management server for memorandum creation system | |
JP2006338335A (en) | Mobile device terminal with instantly vocalized mail transmitting and receiving functions | |
JP2005135301A (en) | Portable terminal device | |
JP2009053342A (en) | Minutes preparation apparatus | |
US20110216915A1 (en) | Providing audible information to a speaker system via a mobile communication device | |
CN114648989A (en) | Voice information processing method and device implemented in electronic equipment and storage medium | |
JP3927155B2 (en) | Dialog recording apparatus and dialog recording program | |
JP2007259427A (en) | Mobile terminal unit | |
JP7344612B1 (en) | Programs, conversation summarization devices, and conversation summarization methods | |
JP2005123869A (en) | System and method for dictating call content |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120924 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121002 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130604 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130723 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130910 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130923 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5387095 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |