JP2015125203A - Sound output device and sound output program - Google Patents
Sound output device and sound output program Download PDFInfo
- Publication number
- JP2015125203A JP2015125203A JP2013268180A JP2013268180A JP2015125203A JP 2015125203 A JP2015125203 A JP 2015125203A JP 2013268180 A JP2013268180 A JP 2013268180A JP 2013268180 A JP2013268180 A JP 2013268180A JP 2015125203 A JP2015125203 A JP 2015125203A
- Authority
- JP
- Japan
- Prior art keywords
- tone
- voice
- word
- text
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、少なくとも音声の再生が可能な音声出力装置及び音声出力プログラムに関する。 The present invention relates to an audio output device and an audio output program capable of reproducing at least audio.
従来から、電子辞書等の音声出力装置として、例えばユーザが表示されたテキストや単語等の音声の再生を指示すると、指示された範囲のテキストや単語等を、予め録音されたネイティブの音声で出力する装置が知られている。 Conventionally, as a voice output device such as an electronic dictionary, for example, when a user instructs playback of voices such as displayed texts and words, texts and words in a designated range are output in native voices recorded in advance. Devices that do this are known.
また、例えば特許文献1に記載された語学学習装置では、ネイティブの発音(標準音声)の波形と、ユーザ(学習者)が発声して録音した波形とを比較して、発音やアクセントの誤りを提示して、ユーザの発声練習を行うことが提案されている。
Further, for example, in the language learning device described in
ところで、例えばネイティブの日常会話においては、同じ文や単語を発音する場合であっても、会話の内容やその話の流れ等に応じて、文中の特定の部分や単語を強調する等して声調を変えて発声することで、文や単語のニュアンスを変えて発声されることが少なくない。なお、本明細書等において、声調とは、音の強弱や抑揚、イントネーション等の広義のアクセントを含めた発音の仕方をいうものとし、例えば中国語の四声も本明細書等における声調に含まれる。 By the way, in native daily conversation, even if the same sentence or word is pronounced, the tone of the sentence is emphasized by emphasizing a specific part or word in the sentence according to the content of the conversation or the flow of the conversation. By changing the voice, it is often the case that the voice is changed with different nuances of sentences and words. In this specification and the like, the tone means a pronunciation method including broad accents such as dynamics, intonation, intonation, etc., for example, Chinese four voices are also included in the tone in this specification etc. It is.
しかしながら、従来の電子辞書や語学学習装置等の音声出力装置では、録音されて装置に記憶されている、例えばネイティブが発音したテキストの音声データにおける声調を変えることができるようには構成されていない。そのため、上記のように、文や単語のニュアンスを変えるために声調を変えて発声した場合にどのように発音されるかを、ユーザが聞いて確認することができなかった。 However, conventional voice output devices such as electronic dictionaries and language learning devices are not configured to be able to change the tone in voice data of text recorded and stored in the device, for example, texts spoken by native speakers. . For this reason, as described above, it has been impossible for the user to hear and confirm how the pronunciation is produced when the voice is changed in order to change the nuance of the sentence or word.
本発明は、上記の問題点を鑑みてなされたものであり、テキスト内の文や単語の声調を変えて発音させて文や単語の音声を学習することが可能な音声出力装置及び音声出力プログラムを提供することを目的とする。 The present invention has been made in view of the above problems, and an audio output device and an audio output program capable of learning the sound of a sentence or word by changing the tone of the sentence or word in the text and generating a pronunciation The purpose is to provide.
以上の課題を解決するため、本発明の音声出力装置は、
テキストに対応付けて音声データが記憶されている音声データ記憶手段と、
前記テキストを表示する表示手段と、
前記音声データ記憶手段に記憶された音声データに基づいて、前記テキスト中の各単語に声調を付して当該声調を表す識別表示を行うように制御する声調識別表示制御手段と、
前記声調識別表示手段により識別表示されたいずれかの単語の声調をユーザの操作により変更する声調変更手段と、
前記声調変更手段により変更された前記単語の声調に従って、前記テキストの音声データの声調を変更して出力するように制御する声調変更音声出力制御手段と、
を備えることを特徴とする。
In order to solve the above problems, the audio output device of the present invention is:
Voice data storage means for storing voice data in association with text;
Display means for displaying the text;
Based on the voice data stored in the voice data storage means, a tone identification display control means for controlling to add a tone to each word in the text and to perform an identification display representing the tone;
Tone change means for changing the tone of any word identified and displayed by the tone identification display means by a user operation;
Tone change voice output control means for controlling to change the tone of the voice data of the text according to the tone of the word changed by the tone change means;
It is characterized by providing.
また、本発明の他の音声出力装置は、
模範音声データ、又はテキストと対応する音声データとを取得する音声データ取得手段と、
前記テキストを表示する表示手段と、
前記音声データに基づいて、前記テキスト中の各単語に声調を付して当該声調を表す識別表示を行うように制御する声調識別表示制御手段と、
前記声調識別表示手段により識別表示されたいずれかの単語の声調をユーザの操作により変更する声調変更手段と、
前記声調変更手段により変更された前記単語の声調に従って、前記テキストの音声データの声調を変更して出力するように制御する声調変更音声出力制御手段と、
を備えることを特徴とする。
In addition, another audio output device of the present invention,
Voice data acquisition means for acquiring model voice data or voice data corresponding to text;
Display means for displaying the text;
Based on the voice data, tone identification display control means for controlling each word in the text to give a tone and to perform identification display representing the tone;
Tone change means for changing the tone of any word identified and displayed by the tone identification display means by a user operation;
Tone change voice output control means for controlling to change the tone of the voice data of the text according to the tone of the word changed by the tone change means;
It is characterized by providing.
本発明によれば、テキスト内の文や単語の声調を変えて発音させて文や単語の音声を学習することが可能となる。 According to the present invention, it is possible to learn the sound of a sentence or word by changing the tone of the sentence or word in the text and generating a pronunciation.
以下、図面を参照して、本発明に係る音声出力装置を電子辞書に適用した場合の実施形態について詳細に説明する。 DESCRIPTION OF EMBODIMENTS Hereinafter, an embodiment in which a sound output device according to the present invention is applied to an electronic dictionary will be described in detail with reference to the drawings.
[第1の実施の形態]
[外観構成]
図1は、本発明の第1の実施形態に係る音声出力装置としての電子辞書1の平面図である。図1に示すように、電子辞書1は、メインディスプレイ10、サブディスプレイ11、カードスロット12、スピーカ13、マイク14及びキー群2を備えている。
[First Embodiment]
[Appearance configuration]
FIG. 1 is a plan view of an
メインディスプレイ10及びサブディスプレイ11は、ユーザによるキー群2の操作に応じたテキストや文字、符号等の各種データをカラーで表示する部分であり、LCD(Liquid Crystal Display)やELD(Electronic Luminescence Display)等によって構成されている。
The
本実施形態におけるメインディスプレイ10及びサブディスプレイ11は、いわゆるタッチパネル110(後述する図2参照)と一体的に形成されており、手書き入力等の操作を受け付けることができるようになっている。また、本実施形態では、少なくともメインティスプレイ10の左側に各種のアイコンIが表示されるようになっている。なお、本実施形態及び後述する第2の実施形態では、ユーザがメインディスプレイ10上で操作を行う場合について説明するが、サブディスプレイ11上、或いは両方のディスプレイを使って操作を行うように構成することも可能である。
The
カードスロット12は、種々の情報を記憶した外部情報記憶媒体12a(図2参照)と着脱可能に設けられている。スピーカ13は、ユーザによるキー群2の操作に応じた音声を出力する部分であり、マイク14は外部から音声を取り込む部分である。
The
キー群2は、ユーザから電子辞書1を操作するための操作を受ける各種キーを有している。具体的には、キー群2は、決定キー2bと、文字キー2cと、カーソルキー2eと、音声キー2g等とを有している。
The
決定キー2bは、検索の実行や、見出し語の決定等に使用されるキーである。文字キー2cは、ユーザによる文字の入力等に使用されるキーであり、本実施形態においては“A”〜“Z”キーを備えている。カーソルキー2eは、画面内の反転表示位置、つまりカーソル位置の移動等に使用されるキーであり、本実施形態においては上下左右の方向を指定可能となっている。音声キー2gは、音声を学習するとき等に使用されるキーである。
The
[内部構成]
続いて、電子辞書1の内部構造について説明する。図2は、電子辞書1の内部構成を示すブロック図である。図2に示すように、電子辞書1は、表示部21、入力部22、音声入出力部70、記録媒体読取部60、CPU(Central Processing Unit)20、記憶部80を備え、各部はバスで相互にデータ通信可能に接続されて構成されている。
[Internal configuration]
Next, the internal structure of the
表示部21は、上述のメインディスプレイ10及びサブディスプレイ11を備えており、CPU20から入力される表示信号に基づいてテキスト等の各種情報をメインディスプレイ10やサブディスプレイ11に表示するようになっている。
The
入力部22は、上述のキー群2やタッチパネル110を備えており、押下されたキーやタッチパネル110の位置に対応する信号をCPU20に出力するようになっている。
The
音声入出力部70は、上述のスピーカ13及びマイク14を備えており、CPU20から入力される音声出力信号に基づいてスピーカ13に音声出力を行わせたり、CPU20から入力される録音信号に基づいてマイク14にユーザが発声した音声の録音を行わせたりするようになっている。
The audio input /
記録媒体読取部60は、上述のカードスロット12を備えており、当該カードスロット12に装着された外部情報記憶媒体12aから情報を読み出したり、当該外部情報記憶媒体12aに情報を記録したりするようになっている。ここで、外部情報記憶媒体12aには、教材コンテンツ30や単語音声の模範音声データ40M等が格納されるようになっている。
The recording
通信部50は、ネットワーク(通信網)を介して外部装置Gと接続されることができるようになっており、外部装置Gから辞書データベース30や単語音声の模範音声データ40M等の必要な情報を取得したり、外部装置Gに対して情報を送信したりすることができるようになっている。
The
なお、外部情報記憶媒体12aや外部装置Gにおける教材コンテンツ30や単語音声の模範音声データ40M等は、電子辞書1の後述する記憶部80における教材コンテンツ30や単語音声の模範音声データ40M等と同様のデータ構造を有しているため、ここでは説明を省略する。また、通信部50は、本実施形態のように音声出力装置を電子辞書1に適用する場合には必ずしも必要ではないが、例えば後述する図9に示すように、ネットワーク等を介して音声出力装置1と外部装置Gとを有線や無線で接続して、外部装置Gから英会話コンテンツ30Aや模範音声データ30AM等の必要な情報を取得するように構成する場合には必要になる。
Note that the teaching material content 30 and the word voice
記憶部80は、電子辞書1の各種機能を実現するためのプログラムやデータを記憶するとともに、CPU20の作業領域として機能するメモリである。本実施形態においては、記憶部80は、音声録音再生プログラム81の記憶領域と、辞書データベース群3の記憶領域と、教材コンテンツ群3の記憶領域と、単語音声データ群4の記憶領域と、強弱色設定データ5等の記憶領域とを備えている。
The
音声録音再生プログラム81は、本発明に係る音声出力プログラムであり、後述する声調識別表示出力処理や声調変更出力処理等(図3〜図5参照)をCPU20に実行させるためのプログラムである。
The voice recording /
教材コンテンツ群3は、複数の教材コンテンツ30を有しており、本実施形態では、少なくとも英会話の教材コンテンツ30Aを有している。そして、英会話の教材コンテンツ30Aは、英会話に関する項目ごとに、学習対象の複数の英文を含むテキストデータ30ATと、文ごとの模範音声データ30AMとを有している。すなわち、本実施形態では、記憶部80が、本発明に係る、テキストに対応付けて音声データである模範音声データ30AMが記憶されている音声データ記憶手段に相当する。
The teaching
単語音声データ群4は、各辞書データベース30における見出し語の各単語の模範音声データ40Mを有している。なお、この単語音声データ群4は、同一の単語について複数の模範音声データ40Mを有していても良い。
The word
強弱色設定データ5は、後述するように、メインディスプレイ10上に表示されたテキスト中の指定された範囲内の各単語をその強弱の順に色分けして識別表示したり、ユーザの操作により各単語の識別表示の色を変更することで各単語の強弱を変更する際に、各単語を色分けして識別表示するために用いられるデータである。なお、この強弱色設定データ5については後で説明する。
As will be described later, the strong / weak
なお、本実施形態では、このように、前述した単語の声調として単語の強弱のみに着目し、強弱色設定データ5を用いて声調としての音の強弱を変更する場合について説明するが、この他にも、単語の声調として、前述したように抑揚やイントネーション等の広義のアクセント等を変更するように構成することも可能であり、本発明は、以下で説明する声調が音の強弱である場合に限定されない。具体的には、単語の抑揚すなわち音の昇降を変更するために、上記の強弱色設定データ5の代わりに、例えば抑揚設定データとして、抑揚のない平坦な声調を表す矢印や線(すなわち→や−)や、図示を省略するが、音が上昇することを表す右肩上がりの矢印や線、音が下降することを表す右肩下がりの矢印や線等を、声調設定データとして有するように構成することも可能である。
In the present embodiment, as described above, the case where the strength of the sound as the tone is changed using the strength
また、記憶部80には、この他に、ユーザが発声した音声(ユーザ音声)を録音して録音データ6として記憶する記憶領域等が設けられている。すなわち、本実施形態では、記憶部80は、本発明に係る、ユーザ音声を録音データ6として登録するユーザ音声登録手段としても機能するようになっている。なお、この点については、後述する第2の実施形態で説明する。
In addition to this, the
また、CPU20は、入力される指示に応じて所定のプログラムに基づいた処理を実行し、各機能部への指示やデータの転送等を行い、電子辞書1を統括的に制御するようになっている。具体的には、CPU20は、入力部22から入力される操作信号等に応じて記憶部80に格納された各種プログラムを読み出し、当該プログラムに従って処理を実行する。そして、CPU20は、処理結果を記憶部80に保存するとともに、当該処理結果を音声入出力部70や表示部21に適宜出力させるようになっている。また、本実施形態では、CPU20は、本発明に係る声調識別表示制御手段や声調変更手段、声調変更音声出力制御手段等として機能するようになっているが、この点については、下記の電子辞書1の動作の説明の中で説明する。
In addition, the
[動作]
次に、本実施形態に係る音声出力装置である電子辞書1における動作について、図3、図4に示すフローチャートに基づいて他の図面を参照しつつ説明する。なお、以下で説明する音声出力装置(電子辞書1)の動作は、図2に示した音声録音再生プログラム81に従って行われるため、以下の説明は、本実施形態に係る音声出力プログラムである音声録音再生プログラム81についての説明にもなっている。
[Operation]
Next, the operation of the
[基本動作]
まず、本実施形態に係る電子辞書1のCPU20における基本動作について説明する。なお、以下で説明する各処理とは関係のない操作(例えば以下で説明する各処理の最中にユーザにより歴史大辞典等の別のコンテンツのボタンが押下される等の操作)が行われた場合には、CPU20は、以下の各処理を中止して、指定された処理を行うようになっている。
[basic action]
First, the basic operation in the
CPU20は、ユーザによりキー群2が操作されて英会話コンテンツ30Aが指定されると(図3のステップS1)、記憶部80の当該英会話コンテンツ30Aの記憶領域からテキストデータ30ATを読み出して、例えば図1に示したようにメインディスプレイ10上に当該英会話コンテンツ30Aのテキストを表示する(ステップS2)。また、それと同時に、図1に示したように、メインティスプレイ10の左側に、各種の処理内容を表すアイコンIを表示する。
When the user operates the
そして、CPU20は、ユーザによりタッチペンや指でタッチされる等して「音声学習」以外のアイコンIが選択された場合には(ステップS3;NO)、処理を終了し、選択されたアイコンIに対応する他の処理を行う。また、ユーザは、「音声学習」アイコンIaを選択すると(ステップS3;YES)、続いて、聞きたい或いは学習したいと思うテキスト中の文字列の範囲をタッチペンでなぞる等して指定する(ステップS4。図1参照)。なお左側のアイコンエリアには、「ノート」、「さらに検索」、「マーカ」、「付箋」、「単語帳」、「音声学習」一般の学習機能の各アイコンが上から順に並べて表示される。
Then, when an icon I other than “speech learning” is selected by touching with a touch pen or a finger by the user (step S3; NO), the
CPU20は、ユーザにより左側のアイコンエリア中の「音声学習」アイコンIa(図1参照)が選択されると(ステップS3;YES)、メインティスプレイ10の左側のアイコンIの表示を図6(A)に示すように、上から順に「音声切替」I1、「音声比較」I2、「強弱表示OFF」I3、「強弱反映OFF」I4、「強弱変更」I5、「強弱取消」I6の音声機能の表示に切り替える。また、テキストの左上部分に「会話音声」アイコンIkが表示される。ここで「会話音声」アイコンIk以外のアイコンIがユーザによりタッチペンでタッチされる等して選択されると(ステップS5;NO)、処理を終了し、選択されたアイコンIに対応する他の処理を行う。
When the user selects the “speech learning” icon Ia (see FIG. 1) in the icon area on the left side (step S3; YES), the
また、CPU20は、図6(A)に示すように「会話音声」アイコンIkがユーザによりタッチペンPIでタッチされる等して選択されると(ステップS5;YES)、例えば図6(A)に示すように、メインティスプレイ10の左側のアイコンIの表示を切り替える。なお、図6(A)では、上記のステップS4で、ユーザにより「How do you do?」というテキストの文字列のうち「do you do」の範囲が指定された場合が示されている。
Further, when the “conversation voice” icon Ik is selected by being touched by the user with the touch pen PI as shown in FIG. 6A (step S5; YES), for example, FIG. As shown, the display of the icon I on the left side of the
なお、図6(A)以下の各図において、図中に網掛けされている部分がある場合、当該網掛けの部分の文字列(この場合は「do you do」)や単語等が、上記のように指定されたり、後述するように識別表示される等して、特定の色(図6(A)の場合は例えば緑)でマーカ表示(緑;Mg)されていることを表している。 In each figure following FIG. 6A, if there is a shaded part in the figure, the character string (in this case “do you do”), the word, etc. This indicates that the marker is displayed in a specific color (eg, green in the case of FIG. 6A) (green; Mg) by being designated as shown in FIG. .
続いて、CPU20は、メインティスプレイ10の左側の各アイコンIのうち、ユーザにより「音声切替」アイコンI1が選択されたか否かを判断し(ステップS6)、「音声切替」アイコンI1が選択された場合には(ステップS6;YES)、「音声」アイコンI2の枠内の表示を「比較」から「録音」に切り替える(ステップS7。後述する図7(C)参照)。また、「音声」アイコンI2の枠内の表示が「録音」である場合に、「音声切替」アイコンI1が選択された場合には(ステップS6;YES)、「音声」アイコンI2の枠内の表示を「録音」から「比較」に切り替える(ステップS7)。
Subsequently, the
すなわち、CPU20は、ユーザにより「音声切替」アイコンI1が選択されるごとに、「音声」アイコンI2の枠内の表示を「比較」と「録音」との間で切り替えるようになっている。なお、この基本動作では、「音声」アイコンI2の枠内の表示が「比較」である場合の各処理を説明する。「音声」アイコンI2の枠内の表示が「録音」である場合の各処理については、後述する第2の実施形態で説明する。
That is, the
ユーザにより「音声切替」アイコンI1が選択されておらず(ステップS6;NO)、「音声」アイコンI2が選択された場合(ステップS8;YES)、CPU20は、「音声」アイコンI2の枠内の表示が「比較」であるか否かを判断する(ステップS9)。上記のように、この基本動作の場合、「音声」アイコンI2の枠内の表示は「比較」であるから(ステップS9;YES)、CPU20は、ステップS10の処理に進む。
When the “voice switch” icon I1 has not been selected by the user (step S6; NO) and the “voice” icon I2 has been selected (step S8; YES), the
そして、CPU20は、ユーザにより選択された英会話コンテンツの指定された文字列(単語を含む。以下同じ。)を含むテキストデータ30AT(図2参照)に対応する模範音声データ30AMを、記憶部80の英会話コンテンツ30Aから読み出し、指定された文字列(すなわち図6(A)のマーカ表示(緑;Mg)部分)に対応する部分を音声出力する(ステップS10)。この場合、模範音声データ30AMとして記憶されている強弱(すなわち声調)のまま音声出力する。
Then, the
また、本実施形態では、CPU20は、このようにして指定された文字列に対応する部分の模範音声データ30AMを音声出力した後、続いて、指定された文字列の各単語について、記憶部80の単語音声データ群4の中から模範音声データ40Mを順に読み出して、それぞれ音声出力するようになっている(ステップS11)。
In the present embodiment, the
すなわち、本実施形態では、CPU20は、ユーザにより指定された文字列「do you do」について、リエゾン等を含みネイティブが会話する状態の模範音声データ30AMを音声出力して「do you do」と音声出力した後(ステップS10)、続いて、指定された文字列の各単語を、リエゾン等を含まず、各単語に分けた状態の模範音声データ40Mを音声中で、連続して「do」、「you」、「do」と音声出力するようになっている。
In other words, in the present embodiment, the
このように構成することで、ユーザは、指定した文字列について、リエゾン等を含む会話の発音と単語ごとの発音とをそれぞれ聞き比べて学習することが可能となる。なお、上記の「比較」は、この聞き比べのことを意味するものである。 With this configuration, the user can learn by listening and comparing the pronunciation of a conversation including a liaison and the pronunciation of each word for a designated character string. The above-mentioned “comparison” means this hearing comparison.
[声調識別表示出力処理]
次に、電子辞書1のCPU20で行われる声調識別表示出力処理について説明する。声調識別表示出力処理では、CPU20は、上記のように記憶部80(音声データ記憶手段)に記憶されている模範音声データに基づいて、テキスト中に指定された文字列の各単語に強弱(すなわち声調。以下同じ。)を表す識別表示を行ったり、各単語の強弱に従って、模範音声データ30AMを音声出力するように制御する。すなわち、CPU20は、本発明に係る声調識別表示制御手段として機能するようになっている。以下、具体的に説明する。
[Tone identification display output processing]
Next, a tone identification display output process performed by the
CPU20は、ユーザにより「音声切替」アイコンI1が選択されておらず(ステップS6;NO)すなわち今の状態では「音声」アイコンI2の枠内の表示が「比較」のままで、「音声」アイコンI2が選択されずに(ステップS8;NO)、「強弱表示」アイコンI3(図6(B)参照)が選択されると、指定されている文字列の模範音声データ30AMに基づいて当該文字列の各単語に強弱を表す識別表示(すなわち声調を表す識別表示。以下同じ。)を行ったり識別表示を解除したりするように制御する。
The
すなわち、CPU20は、「強弱表示」アイコンI3が選択されると(図4のステップS14;YES)、「強弱表示」アイコンI3中の表示が「ON」であれば、指定されている文字列の各単語の強弱を表す識別表示を行い、「強弱表示」アイコンI3中の表示が「OFF」であれば、その識別表示を解除する(ステップS15)。具体的には、テキスト中の各単語に対応づけて記憶されている音声データの各単語部分の強弱(又は声調)を検知して、各単語に強弱(声調)の情報を付して、その強弱(声調)を示すマーカ(ここでは、弱;黄色マーカMy、中;青色マーカMb、強;赤色マーカMr)を付けて識別表示する。
That is, when the “strong / weak display” icon I3 is selected (step S14 in FIG. 4; YES), the
また、CPU20は、「強弱表示」アイコンI3が連続して選択されると、すなわち他のアイコンIが選択される等せずに「強弱表示」アイコンI3が続けて選択されると(ステップS12;YES)、「強弱表示」アイコンI3中の「ON」と「OFF」の表示を切り替えて表示する。すなわち、「強弱表示」アイコンI3中の表示が「OFF」であれば「ON」に切り替え、表示が「OFF」であれば「ON」に切り替えて表示する。そして、それと同時に、ステップS15の処理を行う。
Further, the
具体的には、例えば、メインディスプレイ10の表示が図6(A)の状態であった場合に、「強弱表示」アイコンI3をタッチペンや指等でタッチして選択すると、この場合は「強弱表示」アイコンI3が初めて選択されたため、CPU20は、ステップS12の判定処理でNO判定を行い、ステップS14の判定処理に移行する。そして、「強弱表示」アイコンI3は選択され(ステップS14;YES)、この場合、「強弱表示」アイコンI3中の表示は「OFF」であるから、指定されている文字列の各単語の強弱を表す識別表示(すなわちこの場合は強弱を表す識別表示)を解除する(ステップS15)。すなわち、この場合は、それまで文字列の識別表示が行われていないため、識別表示を解除するということは、元の図6(A)の状態のまま表示を変えないということになる。
Specifically, for example, when the display on the
そして、ユーザが他のアイコンを選択する等せずに「強弱表示」アイコンI3に対して2回目のタッチを行って連続して選択すると(ステップS12;YES)、図6(A)に示した「強弱表示」アイコンI3中の「OFF」の表示が、図6(B)に示すように「ON」の表示に切り替わる(ステップS13)。そして、それと同時に、CPU20によりディスプレイ10上で指定されている文字列の各単語の強弱を表す識別表示が行われる(ステップS15)。
Then, when the user performs a second touch on the “strength display” icon I3 without selecting another icon or the like (step S12; YES), the selection is shown in FIG. 6A. The display of “OFF” in the “strength display” icon I3 is switched to the display of “ON” as shown in FIG. 6B (step S13). At the same time, the
すなわち、本実施形態では、ユーザは、「強弱表示」アイコンI3中の表示が「OFF」である状態で、ディスプレイ10上で指定した文字列の各単語の強弱を表す識別表示を行わせたい場合には、「強弱表示」アイコンI3をタッチペンや指等で連続してタッチすればよいことになる。このように「強弱表示」アイコンI3を連続して選択すれば、上記のように、「強弱表示」アイコンI3中の表示を「ON」に切り替えて、ディスプレイ10上で指定した文字列の各単語の強弱を表す識別表示を行わせることができる。
That is, in the present embodiment, the user wants to perform identification display indicating the strength of each word of the character string designated on the
本実施形態では、具体的には、テキスト中の各単語に対応づけて記憶されている音声データの各単語部分の強弱(又は声調)を検知して、各単語に強弱(声調)の情報を付して、その強弱(声調)を示すマーカ(ここでは、弱;黄色マーカMy、中;青色マーカMb、強;赤色マーカMr)を付けて識別表示する。 In the present embodiment, specifically, the strength (or tone) of each word portion of the speech data stored in association with each word in the text is detected, and the strength (tone) information is provided for each word. A marker (here, weak; yellow marker My, middle; blue marker Mb, strong; red marker Mr) indicating the strength (tone) is added and displayed.
そして、CPU20は、指定されている文字列の各単語の強弱を表す識別表示を行う場合には、指定されている文字列を含むテキストデータ30AT(図2参照)に対応する模範音声データ30AMを、記憶部80の英会話コンテンツ30Aから読み出し、指定された文字列の各単語の強弱を判定する。そして、上記の強弱色設定データ6に基づいて、図6(B)に示すように、メインディスプレイ10上に表示したテキスト中の指定された範囲内の文字列の各単語を、その強弱(声調)の順に、例えば上記の赤、青、黄等で色分けしマーカ表示して識別表示する制御を行うようになっている。
When the
なお、図面上では色で表現することができないため、発音される単語の強さが強くなるほど網掛けをより細かくしていくように表現することとする。すなわち、図6(B)の場合には、最後の「do」が最も強く、最初の「do」が中程度の強さであり、「you」が最も弱く発音されることを表している。 Since it cannot be expressed in color on the drawing, it is expressed so that the shading is made finer as the strength of the pronounced word increases. That is, in the case of FIG. 6B, the last “do” is the strongest, the first “do” is the medium strength, and “you” is the weakest.
また、模範音声データ30AMについては、上記のように、CPU20が、読み出した模範音声データ30AMの各単語の強弱を判定する代わりに、予め模範音声データ30AMの各単語に強弱のレベル(すなわちこの場合は強い、中程度、弱い)を対応付けておき、CPU20は、各単語に対応付けられた強弱のレベルに応じて各単語を識別表示するように構成することも可能である。
As for the model voice data 30AM, as described above, instead of the
さらに、図6(B)の状態でユーザが他のアイコンを選択する等せずに再度「強弱表示」アイコンI3を選択すると、ステップS12の判定処理でYES判定が行われるため、「強弱表示」アイコンI3中の「ON」の表示が「OFF」の表示に切り替わると同時に、ディスプレイ10上での識別表示が解除される。このように、「強弱表示」アイコンI3が連続して選択されるたびに、「強弱表示」アイコンI3中の「ON」と「OFF」の表示が切り替わると同時に、ディスプレイ10上で識別表示が行われたり解除されたりする動作が繰り返されることになる。
Furthermore, if the user selects the “strong / weak display” icon I3 again without selecting another icon in the state of FIG. 6B, a YES determination is made in the determination processing in step S12, and therefore “strong / weak display” is performed. At the same time that the display of “ON” in the icon I3 is switched to the display of “OFF”, the identification display on the
本実施形態では、前述した声調識別表示制御手段としてのCPU20は、このように、メインディスプレイ10上で指定された文字列に対応する模範音声データ30AMに基づいて、文字列(すなわちテキスト)の各単語の強弱を判定し、各単語に強弱を表す(例えば色分けされた)識別表示を行うように表示部21等の各機能部を制御するようになっている。
In the present embodiment, the
一方、CPU20は、ユーザにより「強弱反映」アイコンI4(図6(A)や図6(B)参照)が選択された場合には(ステップS18;YES)、「強弱反映」アイコンI4中の表示が「ON」であれば、上記のようにして各単語の強弱を色分けして識別表示した指定された文字列(テキスト)の部分について、単語の強弱に従って模範音声データ30AMを音声出力するように音声入出力部70等を制御する。また、「強弱反映」アイコンI4中の表示が「OFF」であれば、指定された文字列の部分の模範音声データ30AMをそのまま音声出力する(ステップS19)。
On the other hand, when the “dynamic reflection” icon I4 (see FIGS. 6A and 6B) is selected by the user (step S18; YES), the
また、CPU20は、上記と同様に、「強弱反映」アイコンI4が連続して選択された場合には(ステップS16;YES)、「強弱反映」アイコンI4中の「ON」と「OFF」の表示を切り替えて表示し、それと同時に、ステップS18の処理を行う。
Similarly to the above, the
すなわち、ユーザが、「強弱反映」アイコンI4中の表示が「ON」の状態で音声出力させると、メインディスプレイ10上で指定した文字列が、色分けして識別表示された各単語の強弱に従って音声出力される。また、「強弱反映」アイコンI4中の表示が「OFF」の状態で音声出力させると、指定した文字列に対応する部分の模範音声データ30AMがそのまま音声出力される。
That is, when the user outputs a sound with the display in the “reflection” icon I4 being “ON”, the character string designated on the
なお、例えば図6(B)に示したように色分けして識別表示された各単語の強弱は、そもそも模範音声データ30AMにおける各単語の強弱をそのまま反映したものであるため、「強弱反映」アイコンI4中の表示が「ON」の状態で音声出力させても、「OFF」の状態で音声出力させても、結局、模範音声データ30AMがそのまま音声出力される状態になる。この「強弱反映」アイコンI4が選択された場合の処理は、主に、下記のように文字列の各単語の強弱が変更された後(すなわち下記の声調変更出力処理が行われた後)で音声出力させる場合に、各単語の強弱が変更された後の音声出力と変更される前の模範音声データ30AMの音声出力とを聞き比べる際に有益な効果が発揮される。 For example, as shown in FIG. 6B, the strength of each word identified and displayed by color coding reflects the strength of each word in the model voice data 30AM as it is, so the “strike strength” icon Regardless of whether the display in I4 is “ON” or the voice is output in the “OFF” state, the model voice data 30AM is output as it is. The processing when the “reflection” icon I4 is selected is mainly after the strength of each word in the character string is changed as described below (that is, after the following tone change output processing is performed). When the voice is output, a beneficial effect is exhibited when comparing the voice output after the strength of each word is changed with the voice output of the model voice data 30AM before the change.
[声調変更出力処理]
次に、電子辞書1のCPU20で行われる声調変更出力処理について説明する。声調変更出力処理では、CPU20は、上記のように識別表示したいずれかの単語の声調(この場合は強弱)をユーザの操作により変更したり(声調変更手段としての機能)、変更した単語の声調に従って、指定された文字列(テキスト)の模範音声データ30AMを出力するように制御するようになっている(声調変更音声出力制御手段としての機能)。以下、具体的に説明する。
[Tone change output processing]
Next, a tone change output process performed by the
すなわち、CPU20は、「強弱変更」アイコンI5(図6(B)参照)が選択されると(ステップS20;YES)、例えば図6(C)に示すように、この場合は単語の強弱を変更するための声調変更用のペンアイコンPIを、例えば指定され各単語が識別表示された文字列のうち先頭の単語「do」を指すようにメインディスプレイ10上に表示する(ステップS21)。また、それと同時に、メインディスプレイ10の左側に表示する各アイコンIを、例えば図6(C)に示すようなアイコンI7〜I10に切り替える。
That is, when the “change strength” icon I5 (see FIG. 6B) is selected (step S20; YES), the
そして、CPU20は、例えば図6(C)に示した状態でユーザが「カラー」アイコンI9をタッチして選択するごとに、声調を表す識別表示、すなわちこの場合は強弱を表す色を変更する(ステップS22)。すなわち、例えば、上記のように単語が強く発音される順に赤、青、黄でそれぞれ識別表示される場合、ユーザが「カラー」アイコンI9をタッチするごとに、CPU20は、指定された文字列の最初の「do」を識別表示する色を、赤、青、黄の順に変更する。図6(C)に示した状態では、最初の「do」は青(中程度の強さであることを表す色)で識別表示されているため、ユーザが「カラー」アイコンI9をタッチするごとに、最初の「do」の識別表示の色が青から黄、赤、青、…と変更される。
Then, for example, every time the user touches and selects the “color” icon I9 in the state shown in FIG. 6C, the
そして、ユーザにより「ペン」アイコンI8がタッチされて選択されると、図示を省略するが、CPU20は、例えばペンアイコンPIの表示位置を右の単語「you」を指す位置に移動させる。そして、上記と同様にユーザが「カラー」アイコンI9をタッチするごとに単語「you」を識別表示する色を順に変更する。指定された文字列の最後の「do」に対しても同様の操作を行うことで識別表示の色を変更することができる。なお、ユーザは指定した文字列の全ての単語の強弱を変更する必要はなく、文字列のうちのいずれかの単語の強弱のみを変更することも可能である。なお、ユーザにより「消しゴム」アイコンI10がタッチされて選択されると、CPU20は、ペンアイコンPIで指し示されている単語の識別表示を消す。
When the “pen” icon I8 is touched and selected by the user, the
本実施形態では、声調変更手段としての電子辞書1のCPU20は、以上のようにして、ユーザにより指定された文字列のいずれかの単語(全ての単語の場合を含む。)の強弱(声調)をユーザの操作により変更するとともに、その単語に付された強弱データ(声調データ)も変更後の色の強弱データに変更されるようになっている。また、ユーザにより「決定」アイコンI7がタッチされて選択されると、CPU20は、変更された単語の強弱の情報等を記憶部80に記憶する。また、それとともに、例えば図6(D)に示すように、変更された識別表示を維持した状態で、ペンアイコンPIの表示を消すとともに、メインディスプレイ10の左側に表示する各アイコンIを、元のアイコンI1〜I6に戻すようになっている。
In the present embodiment, the
そして、この状態で(図6(D)参照)、前述したように、ユーザにより「強弱反映」アイコンI4が選択されると(ステップS18;YES)、声調変更音声出力制御手段としてのCPU20は、「強弱反映」アイコンI4中の表示が「ON」であれば、上記のようにして各単語の強弱の色分けを変更して識別表示した文字列(テキスト)の部分について、変更した単語の強弱に従って模範音声データ30AMを音声出力するように音声入出力部70等を制御する。なお、「強弱反映」アイコンI4中の表示が「OFF」である場合には2回連続して「強弱反映」アイコンI4にタッチすれば(ステップS16;YES)、「OFF」の表示を「ON」の表示に切り替えることができるため(ステップS17)、ユーザは、このように操作して、変更した単語の強弱に従った模範音声データ30AMの音声出力を聞くことができる。
Then, in this state (see FIG. 6D), as described above, when the “dynamic reflection” icon I4 is selected by the user (step S18; YES), the
また、ユーザは、「強弱反映」アイコンI4中の表示を「ON」から「OFF」に切り替えれば、強弱が変更される前の元の模範音声データ30AMの音声出力を聞くことができる。本実施形態に係る電子辞書1(音声出力装置)を用いれば、このようにして、ユーザは、単語の強弱を変更する前と変更した後の音声出力を聞き比べることが可能となる。 Further, the user can listen to the voice output of the original model voice data 30AM before the strength is changed by switching the display in the “reflection of strength” icon I4 from “ON” to “OFF”. If the electronic dictionary 1 (speech output device) according to the present embodiment is used, in this way, the user can hear and compare the speech output before and after changing the strength of the word.
そして、単語の強弱を変更する前と変更した後の音声出力を聞き比べることで、テキスト内の文字列、すなわち文や単語の声調を変えて発音させた状態の文や単語の音声を学習することが可能となる。そのため、文や単語のニュアンス等を変えるために、文中の特定の部分や単語の声調を変えて発声する場合にどのように発音したり発声すればよいかを、ネイティブの発音(すなわち模範音声データ30AM)に基づいて学習することが可能となる。 Then, by listening and comparing the voice output before and after changing the strength of the word, learn the character string in the text, that is, the sentence or word voice that is pronounced by changing the tone of the sentence or word It becomes possible. Therefore, in order to change the nuances of a sentence or word, the native pronunciation (i.e. model voice data) indicates how to pronounce or speak when changing the tone of a specific part or word in the sentence. 30AM).
なお、「強弱変更」アイコンI5(図6(B)参照)が選択されて、上記のようにして、ユーザにより文字列の各単語の強弱が変更された後、例えば、図6(D)の状態でユーザにより「音声(比較)」アイコンI2がタッチされて選択された場合には、上記の[基本動作]で説明したように、CPU20は、指定された文字列に対応する部分の模範音声データ30AMを変更された後の声調(強弱)に従って音声出力させた後(図3のステップS10)、続いて、指定された文字列の各単語を、変更された後の声調(強弱)に従ってそれぞれ音声出力させることになる(ステップS11)。
Note that after the “change strength” icon I5 (see FIG. 6B) is selected and the strength of each word in the character string is changed by the user as described above, for example, as shown in FIG. In the state, when the “voice (comparison)” icon I2 is selected by being touched by the user, as described in [Basic operation] above, the
一方、例えば図6(D)の状態で、ユーザは「強弱取消」アイコンI6をタッチして選択すれば、上記のようにして行った文字列の各単語の強弱の変更設定を取り消すことができる。すなわち、CPU20は、「強弱取消」アイコンI6がタッチされて選択されると(図4のステップS23;YES)、上記のようにして行われた識別表示の変更を解除して(ステップS24)、メインティスプレイ10上の表示を、図6(A)に示したように、例えば「do you do」の範囲が指定された状態(すなわちその範囲が緑でマーカ表示された状態)に戻す。また、それとともに、記憶部80に記憶された、変更された単語の強弱の情報等を、記憶部80から削除する等の処理を行うようになっている。
On the other hand, for example, in the state shown in FIG. 6D, if the user touches and selects the “strength cancel” icon I6, the setting for changing the strength of each word in the character string can be cancelled. . That is, when the “strength cancel” icon I6 is touched and selected (step S23 in FIG. 4; YES), the
[効果]
以上のように、本実施形態に係る電子辞書1(音声出力装置)や音声出力プログラムによれば、CPU20を、記憶部80(音声データ記憶手段)に記憶されているテキストデータ30ATに対応付けられたテキストの模範音声データ30AMに基づいて、ユーザにより指定された文字列(テキスト)の各単語に声調を表す識別表示を行うとともに(声調識別表示制御手段としての機能)、識別表示したいずれかの単語の声調をユーザの操作により変更し(声調変更手段としての機能)、変更した単語の声調に従って、文字列の模範音声データ30AMを出力するように音声入出力部70等を制御する(声調変更音声出力制御手段としての機能)ように構成した。
[effect]
As described above, according to the electronic dictionary 1 (voice output device) and the voice output program according to the present embodiment, the
そのため、ユーザは、メインディスプレイ10等に表示させたテキスト中の文字列を指定し、その文字列中の各単語の強弱等の声調を変更し、声調を変更した後の模範音声データ30AMの音声出力と、声調を変更する前の元の模範音声データ30AMの音声出力とを聞き比べることが可能となる。
Therefore, the user designates a character string in the text displayed on the
そして、単語の強弱を変更する前と変更した後の音声出力を聞き比べることで、テキスト内の文字列(すなわち文や単語)の声調を変えて発音させた状態の文や単語の音声を学習することが可能となる。そのため、文や単語のニュアンス等を変えるために、文中の特定の部分や単語の声調を変えて発声する場合にどのように発音したり発声すればよいか等を、ネイティブの発音(すなわち模範音声データ30AM)に基づいて効果的に学習することが可能となる。 Then, by listening and comparing the voice output before and after changing the strength of the word, learn the voice of the sentence or word in the state of changing the tone of the character string (ie sentence or word) in the text It becomes possible to do. Therefore, in order to change the nuance of a sentence or word, how to pronounce or utter when a specific part of the sentence or the tone of the word is changed, the native pronunciation (i.e. model voice) It becomes possible to learn effectively based on the data 30AM).
なお、前述したように、本実施形態では、声調識別表示制御手段としてのCPU20は、例えば図6(B)に示したように、メインディスプレイ10上で、テキスト中に指定された文字列の各単語に対して、当該単語の声調に応じて色分けしたマーカ表示(すなわち前述した例えば強弱に応じた赤、青、黄等のマーカ表示)を行うことにより、声調を表す識別表示を行う。また、声調変更手段としてのCPU20は、例えば図6(C)や図6(D)に示したように、ユーザが単語ごとにマーカ表示の色を変更する操作を行うと、それに応じて、識別表示された単語の声調(例えば強弱)を変更するように構成されている。
As described above, in the present embodiment, the
そのため、前述した特許文献1に記載された語学学習装置のように、ネイティブやユーザの発音を波形で表す場合に比べて、本実施形態では、単語の強弱等の声調が色分けしたマーカ表示により表示されるため、ユーザが単語の声調を的確に認識して発音等を学習することが可能となるといった効果がある。
Therefore, as in the language learning device described in
[第2の実施の形態]
次に、本発明の第2の実施形態に係る電子辞書1(音声出力装置)について説明する。上記の第1の実施形態では、ユーザが、電子辞書1の記憶部80に記憶されている、ネイティブの発音に係る模範音声データ30AMを用い、テキスト中に指定した文字列の各単語の強弱(すなわち声調)を変更して音声出力させる場合について説明した。すなわち、模範音声データ30AMの声調を変更する場合について説明した。
[Second Embodiment]
Next, an electronic dictionary 1 (voice output device) according to the second embodiment of the present invention will be described. In the first embodiment described above, the user uses the model voice data 30AM related to native pronunciation stored in the
第2の実施形態では、ユーザが発声した音声を録音した録音データ6(図2参照)について、文字列の各単語に声調を表す識別表示を行ったり、各単語の声調を変更するように構成することについて説明する。すなわち、ユーザが発声した自分の音声の声調を変更する場合について説明する。 In the second embodiment, the recording data 6 (refer to FIG. 2) in which the voice uttered by the user is recorded, the identification display indicating the tone is performed on each word of the character string, and the tone of each word is changed. Explain what to do. That is, a case where the tone of his / her voice uttered by the user is changed will be described.
そして、この場合、ユーザは、例えば「How do you do?」と発声する際の声調を模範音声データ30AMすなわちネイティブの声調と比較してチェックしたり、或いは、どの単語の声調をどのように変更すればネイティブの声調に近づけることができるか等を学習することが可能となる。なお、以下の第2の実施形態において、上記の第1の実施形態と同じように機能したり同じ処理を行う場合には、第1の実施形態で用いたものと同じ符号や処理のステップ番号等を付して説明する。 In this case, for example, the user checks the tone at the time of uttering “How do you do?” By comparing it with the exemplary voice data 30AM, that is, the native tone, or changes the tone of which word. This makes it possible to learn whether it is possible to approximate the native tone. In the following second embodiment, when the same function or the same process as the first embodiment is performed, the same reference numerals and process step numbers as those used in the first embodiment are used. A description will be given with the above.
本実施形態では、ユーザは、第1の実施形態と同様に、図1に示したように英会話コンテンツの例えば「How do you do?」を開いた状態で「音声学習」アイコンIaをタッチペンや指等でタッチして選択する。そして、メインディスプレイ10上に表示されたテキストのうち、自分の発音をチェックしたり学習したりする範囲として、例えば図7(A)に示すように「How do you do?」の文字列を指定する(ステップS4)。電子辞書1のCPU20は、指定された文字列(この場合は「How do you do?」)を例えば緑の色でマーカ表示Mgして識別表示する。
In the present embodiment, as in the first embodiment, the user presses the “speech learning” icon Ia with a touch pen or finger while the English conversation content, for example, “How do you do?” Is open as shown in FIG. Touch to select. Then, a text string “How do you do?” Is designated as a range in which the pronunciation of the text displayed on the
そして、この状態で、ユーザが電子辞書1に例えば第1の実施形態で説明した[声調識別表示出力処理]を実行させるために、「強弱表示」アイコンI3を2回連続してタッチして選択すると(ステップS12;YES)、CPU20は、「強弱表示」アイコンI3中の表示を「OFF」から「ON」に切り替えて(ステップS13)、図7(B)に示すように、指定されている文字列(この場合は「How do you do?」)の各単語の強弱を表す識別表示を行う(ステップS15)。
In this state, in order to cause the
なお、第1の実施形態や本実施形態では、前述したように、強弱色設定データ6(図2参照)として、最も強く発音される単語を赤、中程度の強さで発音される単語を青、最も弱く発音される単語を黄で識別表示するためのデータが備えられているため、図7(B)に示すように、「How do you do?」の文字列のうち、「How」と最初の「do」が中程度の青Mb、「you」が最も弱い黄My、最後の「do」が最も強い赤Mrでマーカ表示される。しかし、第1の実施形態においても同様であるが、音の強弱をさらに細かく分類して識別表示するように構成することも可能である。 In the first embodiment and the present embodiment, as described above, as the strong and weak color setting data 6 (see FIG. 2), the most pronounced word is red, and the pronounced word is medium intensity. As shown in FIG. 7B, data for identifying and displaying the most weakly pronounced word in yellow is provided. As shown in FIG. 7B, “How” in the character string “How do you do?” The first “do” is displayed as a medium blue Mb, “you” is the weakest yellow My, and the last “do” is the strongest red Mr. However, the same applies to the first embodiment, but it is also possible to configure such that sound intensity is further finely classified and identified and displayed.
[録音処理]
一方、例えば図7(B)の状態で、本実施形態に係る録音学習を実行する場合、ユーザが自分が発声した音声を録音させるために「音声切替」アイコンI1をタッチして選択すると(ステップS6;YES)、前述したように、CPU20は、「音声」アイコンI2の枠内の表示を「比較」から「録音」に切り替える(図3のステップS7)。
[Recording process]
On the other hand, when recording learning according to the present embodiment is executed in the state of FIG. 7B, for example, when the user touches and selects the “voice switching” icon I1 in order to record the voice uttered by the user (step) As described above, the
そして、この状態で、ユーザが「音声」アイコンI2をタッチして選択すると(ステップS8;YES)、CPU20は、上記のように「音声」アイコンI2の枠内の表示が「比較」ではなく(ステップS9:NO)、「録音」であるから、図5のステップS25以下の録音処理に進む。
In this state, when the user touches and selects the “voice” icon I2 (step S8; YES), the
録音処理では、CPU20は、例えば図7(A)や図7(B)に示したように、ユーザにより「How do you do?」の文字列が指定されている場合には、図7(C)に示すように、この指定された文字列「How do you do?」をメインディスプレイ10上に2段表示する(ステップS25)。
In the recording process, for example, as shown in FIGS. 7A and 7B, the
そして、CPU20は、図7(C)に示すように、2段表示した文字列のうち、上側の文字列の横に「模範音声」と表示し、下側の文字列の横に「録音音声」と表示する(ステップS26)。
Then, as shown in FIG. 7C, the
そして、CPU20は、音声入出力部70(図2参照)を制御してマイク13を起動させるとともに、例えばメインディスプレイ10上に「録音できます」等の表示を行ったり「録音音声」の表示を点滅させる等して、ユーザに指定した文字列を発声させるように促す。そして、ユーザが発声した音声を録音し(ステップS27)、録音したユーザ音声を録音データ6として記憶部80に記憶して登録する。すなわち、CPU20は、本発明に係るユーザ音声登録手段として機能するようになっている。
Then, the
その際、例えば、2段表示した下側の文字列の横に表示する「模範音声」の表示を、録音前は白地に所定の色で表示し、録音後は所定の色の地に白抜きで表示するように切り替える等することで、ユーザに録音が完了したことを知らせるように構成することも可能である。 In this case, for example, the “speech voice” display displayed next to the lower character string displayed in two rows is displayed in a predetermined color on a white background before recording, and is white on a background of the predetermined color after recording. It is also possible to configure so that the user is notified that the recording has been completed, for example, by switching the display so as to be displayed.
また、本実施形態では、CPU20は、このようにしてユーザの音声の録音が完了すると、指定された文字列の模範音声データ30AMを読み出して音声出力する(ステップS28)。そして、それに続けて、録音した録音データ6を再生して、録音したユーザの音声を音声出力するようになっている(ステップS29)。
In the present embodiment, when the recording of the user's voice is completed in this way, the
[強弱表示や強弱変更等について]
そして、前述した声調識別表示制御手段や声調変更手段、声調変更音声出力制御手段としてのCPU20は、第1の実施形態で説明した、文字列(テキスト)に対するユーザの操作に応じて、模範音声データ30AMに対して行うことができる処理と同様の処理を、ユーザの音声の録音データ6に対しても行うことができるようになっている。
[About strength display and strength change]
Then, the
具体的には、すなわち、例えば図7(C)に示した状態で、ユーザが2段表示の下側の「録音音声」の方の文字列「How do you do?」をタッチペンでなぞる等して指定すると、電子辞書1のCPU20は、図示を省略するが、例えばその範囲を緑等の特定の色でマーカ表示する。そして、その状態でユーザにより「強弱表示」アイコンI3が選択されると(ステップS14;YES)、CPU20は、指定されている文字列「How do you do?」を各単語に分け、各単語の強弱を分析して、例えば図7(D)に示すように、指定されている文字列の各単語の強弱を例えば赤、青、黄等でマーカ表示する等して識別表示を行う(ステップS15)。すなわち、CPU20は、本発明に係る、登録されたユーザ音声に基づいてテキスト中の各単語に声調を付して当該声調を表す識別表示を行うように制御するユーザ声調識別表示制御手段として機能するようになっている。
Specifically, for example, in the state shown in FIG. 7C, the user traces the character string “How do you do?” Of the “recorded voice” on the lower side of the two-stage display with a touch pen. The
なお、「強弱表示」アイコンI3中の表示が「OFF」になっている場合は、ユーザは「強弱表示」アイコンI3を連続して選択すれば(ステップS12;YES)、「強弱表示」アイコンI3中の表示を「ON」に切り替えることができる(ステップS13)ことは、第1の実施形態で説明した通りである。また、図7(C)に示したように、2段表示の上側の「模範音声」の方で既に文字列の範囲が「How do you do?」に指定されている場合には、2段表示の下側の「録音音声」の方の文字列で範囲を指定しなくても、自動的に上側の「模範音声」の方の文字列と同じ範囲を指定して識別表示を行うように構成することも可能である。 In addition, when the display in the “strong display” icon I3 is “OFF”, if the user continuously selects the “strong display” icon I3 (step S12; YES), the “strong display” icon I3 is displayed. The display inside can be switched to “ON” (step S13) as described in the first embodiment. Further, as shown in FIG. 7C, when the range of the character string is already designated as “How do you do?” In the “model voice” on the upper side of the two-level display, the two-level Even if you do not specify the range for the “recording voice” character string at the bottom of the display, the same range as the character string for the “model voice” at the top is automatically specified to perform identification display. It is also possible to configure.
そして、ユーザは、例えば図7(D)に示されている、メインディスプレイ10上の「模範音声」における文字列の各単語の強弱の識別表示と、自分が発声した音声を録音した「録音音声」における文字列の各単語の強弱の識別表示と見比べることで、自分の発音の声調すなわちこの場合は強弱が模範音声とどのように違っているかを視覚的に認識することが可能となる。
Then, for example, as shown in FIG. 7 (D), the user identifies and displays the strength of each word of the character string in the “model voice” on the
すなわち、図7(D)の場合は、「模範音声」では文字列「How do you do?」のうち最後の「do」が最も強く発音されているが、自分の発音では「How」が最も強く発音されてしまっていることを、識別表示を見比べることで的確に認識することが可能となる。そして、その際、識別表示を上記のように赤、青、黄等で色分けしてマーカ表示して行うことで、視覚的に容易かつ的確に識別表示の違いを認識することが可能となる。 That is, in the case of FIG. 7D, in the “model voice”, the last “do” in the character string “How do you do?” Is pronounced most strongly, but “How” is the most pronounced in my pronunciation. It is possible to accurately recognize that the pronunciation is strong by comparing the identification display. At that time, the identification display is color-coded in red, blue, yellow, etc. as described above and displayed as a marker, so that the difference in the identification display can be recognized visually and easily.
また、ユーザは、「模範音声」と「録音音声」との違いを聞き比べたい場合には、前述したように、例えば図7(D)に示した状態で、「強弱反映」アイコンI4をタッチして選択し(ステップS18;YES)、或いは、図7(D)に示すように「強弱反映」アイコンI4中の表示が「OFF」になっている場合には「強弱反映」アイコンI4を連続してタッチして選択して(ステップS16;YES)「強弱反映」アイコンI4中の表示を「ON」に切り替える(ステップS17)。 Further, when the user wants to compare the difference between the “model voice” and the “recorded voice”, as described above, for example, in the state shown in FIG. (Step S18; YES), or when the display in the “dynamic reflection” icon I4 is “OFF” as shown in FIG. 7D, the “dynamic reflection” icon I4 is continuously displayed. Then, the display is touched and selected (step S16; YES), and the display in the “strong reflection” icon I4 is switched to “ON” (step S17).
このように操作することで、「模範音声」と「録音音声」の各単語の強弱がそれぞれ反映された状態でそれぞれ音声出力されるため(ステップS19)、それらを聞き比べることができる。そのため、このようにして、ユーザは「模範音声」と「録音音声」との違いを聴覚的に容易かつ的確に認識することが可能となる。 By operating in this way, the voices are output in a state where the strength of each word of “model voice” and “recorded voice” is reflected (step S19), so that they can be compared. Therefore, in this way, the user can easily and accurately recognize the difference between the “model voice” and the “recorded voice”.
一方、ユーザは、自分が発声した「録音音声」を「模範音声」に近づけるように、文字列の各単語の強弱を変更することも可能である。すなわち、CPU20は、本発明に係るユーザ声調変更手段として機能するようになっている。すなわち、ユーザは、例えば図7(D)に示した状態で「強弱変更」アイコンI5をタッチして選択し(ステップS20;YES)、自分が発声した「録音音声」の文字列「How do you do?」の各単語に対して図6(C)に示した操作と同様の操作を行うことで、図8に示すように、「録音音声」の各単語の声調(すなわちこの場合は強弱)を「模範音声」の各単語の声調(強弱)にあわせるように変更する(ステップS21、S22)。
On the other hand, the user can change the strength of each word in the character string so that the “recorded voice” uttered by the user is closer to the “model voice”. That is, the
また、CPU20は、本発明に係るユーザ声調変更音声出力制御手段としても機能するようになっており、上記のように変更した単語の声調に従って、ユーザ音声の声調を変更して出力するようになっている。そして、ユーザが上記と同様に「強弱反映」アイコンI4をタッチする等の操作を行って声調(強弱)を変更した「録音音声」を音声出力させ、「模範音声」とを聞き比べることで、自分が発音する際に、どの単語をどのように強く発音すればよいかを聴覚的に学習することが可能となる。
The
[効果]
以上のように、本実施形態に係る電子辞書1(音声出力装置)や音声出力プログラムによれば、ネイティブの発音を録音した録音音声と、ユーザが発声した音声を録音して録音音声とを聞き比べたり、録音音声の声調(強弱)を模範音声の声調(強弱)にあわせて変更したり、或いは録音音声と模範音声の声調(強弱)をそれぞれ変更して発音させることで、正しい発音を容易かつ的確に学習することが可能となる。
[effect]
As described above, according to the electronic dictionary 1 (sound output device) and the sound output program according to the present embodiment, the recorded sound in which native pronunciation is recorded and the sound uttered by the user are recorded and the recorded sound is heard. Compare, change the tone of the recorded voice (strength) to match the tone of the model voice (strength), or change the tone of the recorded voice and model voice (strength) to make it sound correctly It becomes possible to learn accurately and accurately.
なお、本実施形態のように、メインディスプレイ10上に、模範音声(模範音声データ30AM)に対応する文字列(テキスト)と、録音音声(録音データ6)に対応する文字列(テキスト)とを2段表示することで、上記のように、模範音声と録音音声に対してユーザがそれぞれ独立に操作を行ったり、CPU20がそれぞれ独立に処理を行うことが容易になるといったメリットがある。
As in this embodiment, a character string (text) corresponding to the model voice (model voice data 30AM) and a character string (text) corresponding to the recorded voice (recorded data 6) are displayed on the
また、上記のように、ユーザが発声した音声の録音音声のみについて各単語の声調(強弱)を変更するだけでなく、例えば上記の第1の実施形態と第2の実施形態とを組み合わせて、録音音声と同時に、模範音声についても文字列の各単語の声調を変更させて、それぞれ各単語の声調が変更された音声を出力させて聞き比べるように構成することも可能である。 Further, as described above, not only the tone (strength) of each word is changed only for the recording voice of the voice uttered by the user, but for example, the first embodiment and the second embodiment described above are combined, Simultaneously with the recorded voice, it is also possible to change the tone of each word of the character string with respect to the model voice, and output the voice in which the tone of each word has been changed to compare them.
すなわち、例えば図8に示した状態で、「強弱変更」アイコンI5をタッチして選択し(ステップS20;YES)、「模範音声」と「録音音声」の両方の文字列の各単語の強弱を同じように変更することで、「模範音声」と「録音音声」の両方の各単語の声調(すなわちこの場合は強弱)を変更する(ステップS21、S22)。そして、「強弱反映」アイコンI4をタッチする等の操作を行って、声調(強弱)を変更した「模範音声」と「録音音声」とを聞くことで、ニュアンスを変えて発音する際に、どの単語をどのように強く発音すればよいかを聴覚的に学習することが可能となる。 That is, for example, in the state shown in FIG. 8, the “strength change” icon I5 is selected by touching (step S20; YES), and the strength of each word in both the “exemplary voice” and “recorded voice” character strings is determined. By changing in the same way, the tone (that is, strength in this case) of each word of both “exemplary voice” and “recorded voice” is changed (steps S21 and S22). Then, by touching the “Reflect strength” icon I4, etc. and listening to the “model voice” and “recorded voice” with the changed tone (strength), which one is used when changing the nuance, It becomes possible to learn aurally how to pronounce a word strongly.
なお、本発明を適用可能な実施形態は、上述した実施形態や変形例に限定されることなく、本発明の趣旨を逸脱しない範囲で適宜変更可能である。 The embodiments to which the present invention can be applied are not limited to the above-described embodiments and modifications, and can be appropriately changed without departing from the spirit of the present invention.
例えば、本発明に係る音声出力装置を電子辞書1として説明したが、本発明が適用可能なものは、このような製品に限定されず、図示を省略するが、例えばデスクトップ型やタブレット型のパソコン、ノートパソコン、携帯電話、スマートフォン、PDA(Personal digital Assistant)、ゲーム機等の電子機器全般に適用することが可能である。また、本発明に係る音声録音再生プログラム81は、電子辞書1に対して着脱可能なメモリカード、CD等に記憶されることとしてもよい。
For example, although the voice output device according to the present invention has been described as the
また、上記の第1、第2の実施形態では、図2に示したように、少なくとも英会話コンテンツ30Aすなわちテキストデータ30ATや模範音声データ30AMが予め対応付けられて音声出力装置(例えば電子辞書1)の記憶部80(音声データ記憶手段)に記憶されている場合について説明した。しかし、例えば図6(D)に示すように、ネットワーク等を介して音声出力装置1と外部装置Gとを有線や無線で接続して、音声出力装置1のCPU20が、英会話コンテンツ30Aを外部装置Gから取得したり、或いは、予め音声出力装置1に英会話コンテンツ30Aのテキストデータ30ATのみを記憶させておき、外部装置Gからテキストデータ30ATに対応する模範音声データ30AMを取得するように構成することも可能である。
In the first and second embodiments described above, as shown in FIG. 2, at least the English conversation content 30A, that is, the text data 30AT and the model voice data 30AM are associated in advance with the voice output device (for example, the electronic dictionary 1). The case where the data is stored in the storage unit 80 (voice data storage means) has been described. However, as shown in FIG. 6D, for example, the
このように構成する場合、音声出力装置1のCPU20が音声データ取得手段として機能することになる。そして、このように構成することで、音声出力装置1の記憶部80として記憶容量がより少ないメモリ等を用いることが可能となり、音声出力装置1をより安価に製造することが可能となる等のメリットがある。
In such a configuration, the
以上、本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
テキストに対応付けて音声データが記憶されている音声データ記憶手段と、
前記テキストを表示する表示手段と、
前記音声データ記憶手段に記憶された音声データに基づいて、前記テキスト中の各単語に声調を付して当該声調を表す識別表示を行うように制御する声調識別表示制御手段と、
前記声調識別表示手段により識別表示されたいずれかの単語の声調をユーザの操作により変更する声調変更手段と、
前記声調変更手段により変更された前記単語の声調に従って、前記テキストの音声データの声調を変更して出力するように制御する声調変更音声出力制御手段と、
を備えることを特徴とする音声出力装置。
<請求項2>
前記表示手段により表示されたテキストに対応づけてユーザ音声を登録するユーザ音声登録手段と、
前記ユーザ音声登録手段により登録されたユーザ音声に基づいて、前記テキスト中の各単語に声調を付して当該声調を表す識別表示を行うように制御するユーザ声調識別表示制御手段と、
を備えることを特徴とする請求項1に記載の音声出力装置。
<請求項3>
前記ユーザ声調識別表示制御手段は、
前記声調識別表示制御手段による前記テキスト中の各単語の声調を表す識別表示を行う表示と、対応する位置に前記テキスト中の各単語のユーザ音声による声調を表す識別表示を行うことを特徴とする請求項1又は2に記載の音声出力装置。
<請求項4>
前記ユーザ声調識別表示手段により識別表示されたいずれかの単語の声調をユーザの操作により変更するユーザ声調変更手段と、
前記ユーザ声調変更手段により変更された前記単語の声調に従って、前記ユーザ音声登録手段により登録されたユーザ音声の声調を変更して出力するように制御するユーザ声調変更音声出力制御手段と、
を備えることを特徴とする請求項1から請求項3のいずれか一項に記載の音声出力装置。
<請求項5>
模範音声データ、又はテキストと対応する音声データとを取得する音声データ取得手段と、
前記テキストを表示する表示手段と、
前記音声データに基づいて、前記テキスト中の各単語に声調を付して当該声調を表す識別表示を行うように制御する声調識別表示制御手段と、
前記声調識別表示手段により識別表示されたいずれかの単語の声調をユーザの操作により変更する声調変更手段と、
前記声調変更手段により変更された前記単語の声調に従って、前記テキストの音声データの声調を変更して出力するように制御する声調変更音声出力制御手段と、
を備えることを特徴とする音声出力装置。
<請求項6>
前記声調識別表示制御手段は、前記文字列の各単語に、当該単語の声調に応じて色分けしたマーカ表示を行うことにより前記声調を表す識別表示を行い、
前記声調変更手段は、ユーザが前記単語ごとに前記マーカ表示の色を変更する操作に応じて、識別表示された前記単語の声調を変更することを特徴とする請求項1から請求項5のいずれか一項記載の音声出力装置。
<請求項7>
テキストデータに対応付けて音声データが記憶されている音声データ記憶手段を備えるコンピュータに、
前記テキストを表示する制御を行う表示制御機能と、
前記音声データに基づいて、前記テキスト中の各単語に声調を付して当該声調を表す識別表示を行うように制御を行う声調識別表示制御機能と、
識別表示されたいずれかの単語の声調をユーザの操作により変更する声調変更機能と、
変更された前記単語の声調に従って、前記テキストの模範音声データの声調を変更して出力するように制御を行う声調変更音声出力制御機能と、
を実現させることを特徴とする音声出力プログラム。
<請求項8>
コンピュータに、
音声データ、又はテキストと対応する音声データとを取得する音声データ取得機能と、
前記テキストを表示する制御を行う表示制御手段と、
前記音声データに基づいて、テキスト中に指定された文字列の各単語に声調を付して当該声調を表す識別表示を行うように制御を行う声調識別表示制御機能と、
識別表示されたいずれかの単語の声調をユーザの操作により変更する声調変更機能と、
変更された前記単語の声調に従って、前記テキストの模範音声データの声調を変更して出力するように制御する声調変更音声出力制御機能と、
を実現させることを特徴とする音声出力プログラム。
As mentioned above, although several embodiment of this invention was described, the scope of the present invention is not limited to the above-mentioned embodiment, The range of the invention described in the claim, and its equivalent range Including.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
Voice data storage means for storing voice data in association with text;
Display means for displaying the text;
Based on the voice data stored in the voice data storage means, a tone identification display control means for controlling to add a tone to each word in the text and to perform an identification display representing the tone;
Tone change means for changing the tone of any word identified and displayed by the tone identification display means by a user operation;
Tone change voice output control means for controlling to change the tone of the voice data of the text according to the tone of the word changed by the tone change means;
An audio output device comprising:
<Claim 2>
User voice registration means for registering user voice in association with the text displayed by the display means;
User voice tone identification display control means for controlling to add a tone to each word in the text based on the user voice registered by the user voice registration means, and to perform an identification display representing the tone;
The audio output device according to
<Claim 3>
The user tone identification display control means includes:
A display for performing identification display indicating the tone of each word in the text by the tone identification display control means, and an identification display for expressing the tone of the word in each text in the text by the user voice are performed. The audio output device according to
<Claim 4>
User tone change means for changing the tone of any word identified and displayed by the user tone identification display means by a user operation;
User tone change voice output control means for controlling to change and output the tone of the user voice registered by the user voice registration means according to the tone of the word changed by the user tone change means;
The audio output device according to any one of
<Claim 5>
Voice data acquisition means for acquiring model voice data or voice data corresponding to text;
Display means for displaying the text;
Based on the voice data, tone identification display control means for controlling each word in the text to give a tone and to perform identification display representing the tone;
Tone change means for changing the tone of any word identified and displayed by the tone identification display means by a user operation;
Tone change voice output control means for controlling to change the tone of the voice data of the text according to the tone of the word changed by the tone change means;
An audio output device comprising:
<Claim 6>
The tone identification display control means performs an identification display representing the tone by performing marker display color-coded according to the tone of the word on each word of the character string,
The said tone change means changes the tone of the said identified and displayed word according to operation which a user changes the color of the said marker display for every said word, The any of
<Claim 7>
In a computer provided with voice data storage means in which voice data is stored in association with text data,
A display control function for controlling the display of the text;
Based on the voice data, a tone identification display control function for performing control to attach a tone to each word in the text and perform an identification display representing the tone;
A tone change function for changing the tone of any of the identified words by a user operation,
According to the changed tone of the word, a tone change voice output control function for performing control to change and output the tone of the exemplary voice data of the text;
An audio output program characterized by realizing the above.
<Claim 8>
On the computer,
An audio data acquisition function for acquiring audio data or audio data corresponding to text;
Display control means for performing control to display the text;
Based on the voice data, a tone identification display control function for performing control to attach a tone to each word of a character string specified in the text and perform an identification display representing the tone;
A tone change function for changing the tone of any of the identified words by a user operation,
A tone change voice output control function for controlling to change and output the tone of the exemplary voice data of the text according to the changed tone of the word;
An audio output program characterized by realizing the above.
1 電子辞書(音声出力装置)
6 録音データ
10 メインディスプレイ(表示手段)
20 CPU(声調識別表示制御手段、声調変更手段、声調変更音声出力制御手段、ユーザ声調識別表示制御手段、ユーザ声調変更手段、ユーザ声調変更音声出力制御手段、音声データ取得手段)
21 表示部(表示手段)
30AM 模範音声データ
30AT テキストデータ
80 記憶部(音声データ記憶手段、ユーザ音声登録手段)
81 音声録音再生プログラム(音声出力プログラム)
1 Electronic dictionary (voice output device)
6 Recorded
20 CPU (tone tone identification display control means, tone change means, tone change voice output control means, user tone identification display control means, user tone change display means, user tone change voice output control means, voice data acquisition means)
21 Display section (display means)
30AM model voice data
81 Voice recording and playback program (voice output program)
Claims (8)
前記テキストを表示する表示手段と、
前記音声データ記憶手段に記憶された音声データに基づいて、前記テキスト中の各単語に声調を付して当該声調を表す識別表示を行うように制御する声調識別表示制御手段と、
前記声調識別表示手段により識別表示されたいずれかの単語の声調をユーザの操作により変更する声調変更手段と、
前記声調変更手段により変更された前記単語の声調に従って、前記テキストの音声データの声調を変更して出力するように制御する声調変更音声出力制御手段と、
を備えることを特徴とする音声出力装置。 Voice data storage means for storing voice data in association with text;
Display means for displaying the text;
Based on the voice data stored in the voice data storage means, a tone identification display control means for controlling to add a tone to each word in the text and to perform an identification display representing the tone;
Tone change means for changing the tone of any word identified and displayed by the tone identification display means by a user operation;
Tone change voice output control means for controlling to change the tone of the voice data of the text according to the tone of the word changed by the tone change means;
An audio output device comprising:
前記ユーザ音声登録手段により登録されたユーザ音声に基づいて、前記テキスト中の各単語に声調を付して当該声調を表す識別表示を行うように制御するユーザ声調識別表示制御手段と、
を備えることを特徴とする請求項1に記載の音声出力装置。 User voice registration means for registering user voice in association with the text displayed by the display means;
User voice tone identification display control means for controlling to add a tone to each word in the text based on the user voice registered by the user voice registration means, and to perform an identification display representing the tone;
The audio output device according to claim 1, further comprising:
前記声調識別表示制御手段による前記テキスト中の各単語の声調を表す識別表示を行う表示と、対応する位置に前記テキスト中の各単語のユーザ音声による声調を表す識別表示を行うことを特徴とする請求項1又は2に記載の音声出力装置。 The user tone identification display control means includes:
A display for performing identification display indicating the tone of each word in the text by the tone identification display control means, and an identification display for expressing the tone of the word in each text in the text by the user voice are performed. The audio output device according to claim 1 or 2.
前記ユーザ声調変更手段により変更された前記単語の声調に従って、前記ユーザ音声登録手段により登録されたユーザ音声の声調を変更して出力するように制御するユーザ声調変更音声出力制御手段と、
を備えることを特徴とする請求項1から請求項3のいずれか一項に記載の音声出力装置。 User tone change means for changing the tone of any word identified and displayed by the user tone identification display means by a user operation;
User tone change voice output control means for controlling to change and output the tone of the user voice registered by the user voice registration means according to the tone of the word changed by the user tone change means;
The audio output device according to any one of claims 1 to 3, further comprising:
前記テキストを表示する表示手段と、
前記音声データに基づいて、前記テキスト中の各単語に声調を付して当該声調を表す識別表示を行うように制御する声調識別表示制御手段と、
前記声調識別表示手段により識別表示されたいずれかの単語の声調をユーザの操作により変更する声調変更手段と、
前記声調変更手段により変更された前記単語の声調に従って、前記テキストの音声データの声調を変更して出力するように制御する声調変更音声出力制御手段と、
を備えることを特徴とする音声出力装置。 Voice data acquisition means for acquiring model voice data or voice data corresponding to text;
Display means for displaying the text;
Based on the voice data, tone identification display control means for controlling each word in the text to give a tone and to perform identification display representing the tone;
Tone change means for changing the tone of any word identified and displayed by the tone identification display means by a user operation;
Tone change voice output control means for controlling to change the tone of the voice data of the text according to the tone of the word changed by the tone change means;
An audio output device comprising:
前記声調変更手段は、ユーザが前記単語ごとに前記マーカ表示の色を変更する操作に応じて、識別表示された前記単語の声調を変更することを特徴とする請求項1から請求項5のいずれか一項記載の音声出力装置。 The tone identification display control means performs an identification display representing the tone by performing marker display color-coded according to the tone of the word on each word of the character string,
The said tone change means changes the tone of the said identified and displayed word according to operation which a user changes the color of the said marker display for every said word, The any of Claim 1 to 5 characterized by the above-mentioned. The audio output device according to claim 1.
前記テキストを表示する制御を行う表示制御機能と、
前記音声データに基づいて、前記テキスト中の各単語に声調を付して当該声調を表す識別表示を行うように制御を行う声調識別表示制御機能と、
識別表示されたいずれかの単語の声調をユーザの操作により変更する声調変更機能と、
変更された前記単語の声調に従って、前記テキストの模範音声データの声調を変更して出力するように制御を行う声調変更音声出力制御機能と、
を実現させることを特徴とする音声出力プログラム。 In a computer provided with voice data storage means in which voice data is stored in association with text,
A display control function for controlling the display of the text;
Based on the voice data, a tone identification display control function for performing control to attach a tone to each word in the text and perform an identification display representing the tone;
A tone change function for changing the tone of any of the identified words by a user operation,
According to the changed tone of the word, a tone change voice output control function for performing control to change and output the tone of the exemplary voice data of the text;
An audio output program characterized by realizing the above.
音声データ、又はテキストと対応する音声データとを取得する音声データ取得機能と、
前記テキストを表示する制御を行う表示制御手段と、
前記音声データに基づいて、テキスト中に指定された文字列の各単語に声調を付して当該声調を表す識別表示を行うように制御を行う声調識別表示制御機能と、
識別表示されたいずれかの単語の声調をユーザの操作により変更する声調変更機能と、
変更された前記単語の声調に従って、前記テキストの模範音声データの声調を変更して出力するように制御する声調変更音声出力制御機能と、
を実現させることを特徴とする音声出力プログラム。 On the computer,
An audio data acquisition function for acquiring audio data or audio data corresponding to text;
Display control means for performing control to display the text;
Based on the voice data, a tone identification display control function for performing control to attach a tone to each word of a character string specified in the text and perform an identification display representing the tone;
A tone change function for changing the tone of any of the identified words by a user operation,
A tone change voice output control function for controlling to change and output the tone of the exemplary voice data of the text according to the changed tone of the word;
An audio output program characterized by realizing the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013268180A JP2015125203A (en) | 2013-12-26 | 2013-12-26 | Sound output device and sound output program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013268180A JP2015125203A (en) | 2013-12-26 | 2013-12-26 | Sound output device and sound output program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015125203A true JP2015125203A (en) | 2015-07-06 |
Family
ID=53535963
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013268180A Pending JP2015125203A (en) | 2013-12-26 | 2013-12-26 | Sound output device and sound output program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015125203A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102105699B1 (en) * | 2020-01-20 | 2020-04-28 | 김대혁 | Mask type Moisture Pack |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6175373A (en) * | 1984-09-21 | 1986-04-17 | 富士通株式会社 | Enunciation training apparatus |
JPH0628898U (en) * | 1992-09-10 | 1994-04-15 | 日本電信電話株式会社 | Voice message editing device |
JPH08328590A (en) * | 1995-05-29 | 1996-12-13 | Sanyo Electric Co Ltd | Voice synthesizer |
JP2002091472A (en) * | 2000-09-19 | 2002-03-27 | Nippon Hoso Kyokai <Nhk> | Rhythm display device, and reproducing device and similarity judging device for voice language and voice language processor and recording medium |
JP2003162291A (en) * | 2001-11-22 | 2003-06-06 | Ricoh Co Ltd | Language learning device |
JP2005345699A (en) * | 2004-06-02 | 2005-12-15 | Toshiba Corp | Device, method, and program for speech editing |
JP2007206317A (en) * | 2006-02-01 | 2007-08-16 | Yamaha Corp | Authoring method and apparatus, and program |
JP2010262090A (en) * | 2009-05-01 | 2010-11-18 | Nintendo Co Ltd | Learning support program and learning support device |
JP2010271615A (en) * | 2009-05-25 | 2010-12-02 | Nintendo Co Ltd | Program and device for evaluating pronunciation |
JP2011203422A (en) * | 2010-03-25 | 2011-10-13 | Panasonic Corp | Recording and reproducing device |
JP2011209471A (en) * | 2010-03-29 | 2011-10-20 | Escor:Kk | Method and device for training speech of aphasic person |
-
2013
- 2013-12-26 JP JP2013268180A patent/JP2015125203A/en active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6175373A (en) * | 1984-09-21 | 1986-04-17 | 富士通株式会社 | Enunciation training apparatus |
JPH0628898U (en) * | 1992-09-10 | 1994-04-15 | 日本電信電話株式会社 | Voice message editing device |
JPH08328590A (en) * | 1995-05-29 | 1996-12-13 | Sanyo Electric Co Ltd | Voice synthesizer |
US5842167A (en) * | 1995-05-29 | 1998-11-24 | Sanyo Electric Co. Ltd. | Speech synthesis apparatus with output editing |
JP2002091472A (en) * | 2000-09-19 | 2002-03-27 | Nippon Hoso Kyokai <Nhk> | Rhythm display device, and reproducing device and similarity judging device for voice language and voice language processor and recording medium |
JP2003162291A (en) * | 2001-11-22 | 2003-06-06 | Ricoh Co Ltd | Language learning device |
JP2005345699A (en) * | 2004-06-02 | 2005-12-15 | Toshiba Corp | Device, method, and program for speech editing |
JP2007206317A (en) * | 2006-02-01 | 2007-08-16 | Yamaha Corp | Authoring method and apparatus, and program |
JP2010262090A (en) * | 2009-05-01 | 2010-11-18 | Nintendo Co Ltd | Learning support program and learning support device |
JP2010271615A (en) * | 2009-05-25 | 2010-12-02 | Nintendo Co Ltd | Program and device for evaluating pronunciation |
JP2011203422A (en) * | 2010-03-25 | 2011-10-13 | Panasonic Corp | Recording and reproducing device |
JP2011209471A (en) * | 2010-03-29 | 2011-10-20 | Escor:Kk | Method and device for training speech of aphasic person |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102105699B1 (en) * | 2020-01-20 | 2020-04-28 | 김대혁 | Mask type Moisture Pack |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100996212B1 (en) | Methods, systems, and programming for performing speech recognition | |
JP5756555B1 (en) | Utterance evaluation apparatus, utterance evaluation method, and program | |
JP6535998B2 (en) | Voice learning device and control program | |
US20160139877A1 (en) | Voice-controlled display device and method of voice control of display device | |
JP2006234907A (en) | Voice recognition method | |
KR101819459B1 (en) | Voice recognition system and apparatus supporting voice recognition error correction | |
KR101789057B1 (en) | Automatic audio book system for blind people and operation method thereof | |
JP2015036788A (en) | Pronunciation learning device for foreign language | |
JP6613560B2 (en) | Electronic device, learning support method and program | |
JP6166831B1 (en) | Word learning support device, word learning support program, and word learning support method | |
JP6841309B2 (en) | Electronics and programs | |
KR20170009486A (en) | Database generating method for chunk-based language learning and electronic device performing the same | |
JP6641680B2 (en) | Audio output device, audio output program, and audio output method | |
JP2015125203A (en) | Sound output device and sound output program | |
KR20140078810A (en) | Apparatus and method for learning rhythm pattern by using native speaker's pronunciation data and language data. | |
JP6710893B2 (en) | Electronics and programs | |
KR100937573B1 (en) | Device for studying a language and drive method of the same | |
JP6746886B2 (en) | Learning support device and program for the learning support device | |
KR20140107067A (en) | Apparatus and method for learning word by using native speakerpronunciation data and image data | |
JP6413216B2 (en) | Electronic device, audio output recording method and program | |
KR20180006728A (en) | Electronic device for control of displaying caption | |
TWI752437B (en) | At least two phoneme-based voice input operation method and computer program product | |
KR20140074459A (en) | Apparatus and method for learning word by using native speaker's pronunciation data and syllable of a word and image data | |
KR20140087950A (en) | Apparatus and method for learning rhythm pattern by using native speaker's pronunciation data and language data. | |
JP2019040194A (en) | Electronic apparatus, speech output recording method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161214 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171027 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171114 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180104 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180626 |