JP2015125203A - Sound output device and sound output program - Google Patents

Sound output device and sound output program Download PDF

Info

Publication number
JP2015125203A
JP2015125203A JP2013268180A JP2013268180A JP2015125203A JP 2015125203 A JP2015125203 A JP 2015125203A JP 2013268180 A JP2013268180 A JP 2013268180A JP 2013268180 A JP2013268180 A JP 2013268180A JP 2015125203 A JP2015125203 A JP 2015125203A
Authority
JP
Japan
Prior art keywords
tone
voice
word
text
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013268180A
Other languages
Japanese (ja)
Inventor
雅大 伊藤
Masahiro Ito
雅大 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2013268180A priority Critical patent/JP2015125203A/en
Publication of JP2015125203A publication Critical patent/JP2015125203A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a sound output device capable of learning the sound of a sentence or a word by having a sentence or a word in text pronounced while changing a tone of voice.SOLUTION: A sound output device 1 comprises: sound data storage means 80 in which sound data 30AM is stored in correlation with text; display means 10, 21 for displaying text; tone of voice discrimination and display control means 20 for exerting control on the basis of the sound data stored in the sound data storage means 80 so that a tone of voice is added to each word in the text and discrimination and display indicating the tone of voice is made; tone of voice change means 20 for changing, by a user operation, the tone of voice of any word discriminately displayed by the tone of voice discrimination and display control means 20; and tone of voice changed sound output control means 20 for exerting control so that the sound data of text is outputted by changing its tone of voice in accordance with the tone of voice of the word changed by the tone of voice change means 20.

Description

本発明は、少なくとも音声の再生が可能な音声出力装置及び音声出力プログラムに関する。   The present invention relates to an audio output device and an audio output program capable of reproducing at least audio.

従来から、電子辞書等の音声出力装置として、例えばユーザが表示されたテキストや単語等の音声の再生を指示すると、指示された範囲のテキストや単語等を、予め録音されたネイティブの音声で出力する装置が知られている。   Conventionally, as a voice output device such as an electronic dictionary, for example, when a user instructs playback of voices such as displayed texts and words, texts and words in a designated range are output in native voices recorded in advance. Devices that do this are known.

また、例えば特許文献1に記載された語学学習装置では、ネイティブの発音(標準音声)の波形と、ユーザ(学習者)が発声して録音した波形とを比較して、発音やアクセントの誤りを提示して、ユーザの発声練習を行うことが提案されている。   Further, for example, in the language learning device described in Patent Literature 1, a waveform of a native pronunciation (standard speech) is compared with a waveform uttered and recorded by a user (learner), and a pronunciation or accent error is detected. It has been proposed to present and practice the user's speech.

特開2003−162291号公報JP 2003-162291 A

ところで、例えばネイティブの日常会話においては、同じ文や単語を発音する場合であっても、会話の内容やその話の流れ等に応じて、文中の特定の部分や単語を強調する等して声調を変えて発声することで、文や単語のニュアンスを変えて発声されることが少なくない。なお、本明細書等において、声調とは、音の強弱や抑揚、イントネーション等の広義のアクセントを含めた発音の仕方をいうものとし、例えば中国語の四声も本明細書等における声調に含まれる。   By the way, in native daily conversation, even if the same sentence or word is pronounced, the tone of the sentence is emphasized by emphasizing a specific part or word in the sentence according to the content of the conversation or the flow of the conversation. By changing the voice, it is often the case that the voice is changed with different nuances of sentences and words. In this specification and the like, the tone means a pronunciation method including broad accents such as dynamics, intonation, intonation, etc., for example, Chinese four voices are also included in the tone in this specification etc. It is.

しかしながら、従来の電子辞書や語学学習装置等の音声出力装置では、録音されて装置に記憶されている、例えばネイティブが発音したテキストの音声データにおける声調を変えることができるようには構成されていない。そのため、上記のように、文や単語のニュアンスを変えるために声調を変えて発声した場合にどのように発音されるかを、ユーザが聞いて確認することができなかった。   However, conventional voice output devices such as electronic dictionaries and language learning devices are not configured to be able to change the tone in voice data of text recorded and stored in the device, for example, texts spoken by native speakers. . For this reason, as described above, it has been impossible for the user to hear and confirm how the pronunciation is produced when the voice is changed in order to change the nuance of the sentence or word.

本発明は、上記の問題点を鑑みてなされたものであり、テキスト内の文や単語の声調を変えて発音させて文や単語の音声を学習することが可能な音声出力装置及び音声出力プログラムを提供することを目的とする。   The present invention has been made in view of the above problems, and an audio output device and an audio output program capable of learning the sound of a sentence or word by changing the tone of the sentence or word in the text and generating a pronunciation The purpose is to provide.

以上の課題を解決するため、本発明の音声出力装置は、
テキストに対応付けて音声データが記憶されている音声データ記憶手段と、
前記テキストを表示する表示手段と、
前記音声データ記憶手段に記憶された音声データに基づいて、前記テキスト中の各単語に声調を付して当該声調を表す識別表示を行うように制御する声調識別表示制御手段と、
前記声調識別表示手段により識別表示されたいずれかの単語の声調をユーザの操作により変更する声調変更手段と、
前記声調変更手段により変更された前記単語の声調に従って、前記テキストの音声データの声調を変更して出力するように制御する声調変更音声出力制御手段と、
を備えることを特徴とする。
In order to solve the above problems, the audio output device of the present invention is:
Voice data storage means for storing voice data in association with text;
Display means for displaying the text;
Based on the voice data stored in the voice data storage means, a tone identification display control means for controlling to add a tone to each word in the text and to perform an identification display representing the tone;
Tone change means for changing the tone of any word identified and displayed by the tone identification display means by a user operation;
Tone change voice output control means for controlling to change the tone of the voice data of the text according to the tone of the word changed by the tone change means;
It is characterized by providing.

また、本発明の他の音声出力装置は、
模範音声データ、又はテキストと対応する音声データとを取得する音声データ取得手段と、
前記テキストを表示する表示手段と、
前記音声データに基づいて、前記テキスト中の各単語に声調を付して当該声調を表す識別表示を行うように制御する声調識別表示制御手段と、
前記声調識別表示手段により識別表示されたいずれかの単語の声調をユーザの操作により変更する声調変更手段と、
前記声調変更手段により変更された前記単語の声調に従って、前記テキストの音声データの声調を変更して出力するように制御する声調変更音声出力制御手段と、
を備えることを特徴とする。
In addition, another audio output device of the present invention,
Voice data acquisition means for acquiring model voice data or voice data corresponding to text;
Display means for displaying the text;
Based on the voice data, tone identification display control means for controlling each word in the text to give a tone and to perform identification display representing the tone;
Tone change means for changing the tone of any word identified and displayed by the tone identification display means by a user operation;
Tone change voice output control means for controlling to change the tone of the voice data of the text according to the tone of the word changed by the tone change means;
It is characterized by providing.

本発明によれば、テキスト内の文や単語の声調を変えて発音させて文や単語の音声を学習することが可能となる。   According to the present invention, it is possible to learn the sound of a sentence or word by changing the tone of the sentence or word in the text and generating a pronunciation.

音声出力装置の一例としての電子辞書の概観を示す平面図である。It is a top view which shows the general view of the electronic dictionary as an example of an audio | voice output apparatus. 電子辞書の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of an electronic dictionary. 電子辞書の基本動作を表すフローチャートである。It is a flowchart showing the basic operation | movement of an electronic dictionary. 声調識別表示出力処理や声調変更出力処理等の各処理を表すフローチャートである。It is a flowchart showing each process, such as a tone identification display output process and a tone change output process. 録音処理の各処理を表すフローチャートである。It is a flowchart showing each process of a recording process. メインディスプレイ上の表示内容等を示す図である。It is a figure which shows the display content etc. on a main display. メインディスプレイ上の表示内容等を示す図である。It is a figure which shows the display content etc. on a main display. メインディスプレイ上の表示内容等を示す図である。It is a figure which shows the display content etc. on a main display. 外部装置に接続される音声出力装置を示す図である。It is a figure which shows the audio | voice output apparatus connected to an external device.

以下、図面を参照して、本発明に係る音声出力装置を電子辞書に適用した場合の実施形態について詳細に説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, an embodiment in which a sound output device according to the present invention is applied to an electronic dictionary will be described in detail with reference to the drawings.

[第1の実施の形態]
[外観構成]
図1は、本発明の第1の実施形態に係る音声出力装置としての電子辞書1の平面図である。図1に示すように、電子辞書1は、メインディスプレイ10、サブディスプレイ11、カードスロット12、スピーカ13、マイク14及びキー群2を備えている。
[First Embodiment]
[Appearance configuration]
FIG. 1 is a plan view of an electronic dictionary 1 as an audio output device according to the first embodiment of the present invention. As shown in FIG. 1, the electronic dictionary 1 includes a main display 10, a sub display 11, a card slot 12, a speaker 13, a microphone 14, and a key group 2.

メインディスプレイ10及びサブディスプレイ11は、ユーザによるキー群2の操作に応じたテキストや文字、符号等の各種データをカラーで表示する部分であり、LCD(Liquid Crystal Display)やELD(Electronic Luminescence Display)等によって構成されている。   The main display 10 and the sub display 11 are parts for displaying various data such as text, characters, codes, and the like in color according to the operation of the key group 2 by the user, and are LCD (Liquid Crystal Display) and ELD (Electronic Luminescence Display). Etc. are constituted.

本実施形態におけるメインディスプレイ10及びサブディスプレイ11は、いわゆるタッチパネル110(後述する図2参照)と一体的に形成されており、手書き入力等の操作を受け付けることができるようになっている。また、本実施形態では、少なくともメインティスプレイ10の左側に各種のアイコンIが表示されるようになっている。なお、本実施形態及び後述する第2の実施形態では、ユーザがメインディスプレイ10上で操作を行う場合について説明するが、サブディスプレイ11上、或いは両方のディスプレイを使って操作を行うように構成することも可能である。   The main display 10 and the sub display 11 in the present embodiment are formed integrally with a so-called touch panel 110 (see FIG. 2 described later), and can accept operations such as handwriting input. In the present embodiment, various icons I are displayed at least on the left side of the main display 10. In the present embodiment and the second embodiment to be described later, a case where the user performs an operation on the main display 10 will be described. However, the operation is performed on the sub display 11 or using both displays. It is also possible.

カードスロット12は、種々の情報を記憶した外部情報記憶媒体12a(図2参照)と着脱可能に設けられている。スピーカ13は、ユーザによるキー群2の操作に応じた音声を出力する部分であり、マイク14は外部から音声を取り込む部分である。   The card slot 12 is detachably attached to an external information storage medium 12a (see FIG. 2) that stores various information. The speaker 13 is a part that outputs sound according to the operation of the key group 2 by the user, and the microphone 14 is a part that captures sound from the outside.

キー群2は、ユーザから電子辞書1を操作するための操作を受ける各種キーを有している。具体的には、キー群2は、決定キー2bと、文字キー2cと、カーソルキー2eと、音声キー2g等とを有している。   The key group 2 has various keys that receive operations for operating the electronic dictionary 1 from the user. Specifically, the key group 2 includes an enter key 2b, a character key 2c, a cursor key 2e, a voice key 2g, and the like.

決定キー2bは、検索の実行や、見出し語の決定等に使用されるキーである。文字キー2cは、ユーザによる文字の入力等に使用されるキーであり、本実施形態においては“A”〜“Z”キーを備えている。カーソルキー2eは、画面内の反転表示位置、つまりカーソル位置の移動等に使用されるキーであり、本実施形態においては上下左右の方向を指定可能となっている。音声キー2gは、音声を学習するとき等に使用されるキーである。   The determination key 2b is a key used for executing a search, determining a headword, and the like. The character key 2c is a key used for inputting characters by the user, and includes "A" to "Z" keys in the present embodiment. The cursor key 2e is a key used for the reverse display position in the screen, that is, the movement of the cursor position. In this embodiment, the up / down / left / right directions can be designated. The voice key 2g is a key used when learning a voice.

[内部構成]
続いて、電子辞書1の内部構造について説明する。図2は、電子辞書1の内部構成を示すブロック図である。図2に示すように、電子辞書1は、表示部21、入力部22、音声入出力部70、記録媒体読取部60、CPU(Central Processing Unit)20、記憶部80を備え、各部はバスで相互にデータ通信可能に接続されて構成されている。
[Internal configuration]
Next, the internal structure of the electronic dictionary 1 will be described. FIG. 2 is a block diagram showing an internal configuration of the electronic dictionary 1. As shown in FIG. 2, the electronic dictionary 1 includes a display unit 21, an input unit 22, a voice input / output unit 70, a recording medium reading unit 60, a CPU (Central Processing Unit) 20, and a storage unit 80. Each unit is a bus. They are connected to each other so that data communication is possible.

表示部21は、上述のメインディスプレイ10及びサブディスプレイ11を備えており、CPU20から入力される表示信号に基づいてテキスト等の各種情報をメインディスプレイ10やサブディスプレイ11に表示するようになっている。   The display unit 21 includes the main display 10 and the sub display 11 described above, and displays various information such as text on the main display 10 and the sub display 11 based on a display signal input from the CPU 20. .

入力部22は、上述のキー群2やタッチパネル110を備えており、押下されたキーやタッチパネル110の位置に対応する信号をCPU20に出力するようになっている。   The input unit 22 includes the key group 2 and the touch panel 110 described above, and outputs a signal corresponding to the pressed key or the position of the touch panel 110 to the CPU 20.

音声入出力部70は、上述のスピーカ13及びマイク14を備えており、CPU20から入力される音声出力信号に基づいてスピーカ13に音声出力を行わせたり、CPU20から入力される録音信号に基づいてマイク14にユーザが発声した音声の録音を行わせたりするようになっている。   The audio input / output unit 70 includes the speaker 13 and the microphone 14 described above, and causes the speaker 13 to output audio based on the audio output signal input from the CPU 20, or based on the recording signal input from the CPU 20. The microphone 14 is made to record the voice uttered by the user.

記録媒体読取部60は、上述のカードスロット12を備えており、当該カードスロット12に装着された外部情報記憶媒体12aから情報を読み出したり、当該外部情報記憶媒体12aに情報を記録したりするようになっている。ここで、外部情報記憶媒体12aには、教材コンテンツ30や単語音声の模範音声データ40M等が格納されるようになっている。   The recording medium reading unit 60 includes the card slot 12 described above, and reads information from the external information storage medium 12a attached to the card slot 12 or records information on the external information storage medium 12a. It has become. Here, in the external information storage medium 12a, the teaching material content 30, the model voice data 40M of the word voice, and the like are stored.

通信部50は、ネットワーク(通信網)を介して外部装置Gと接続されることができるようになっており、外部装置Gから辞書データベース30や単語音声の模範音声データ40M等の必要な情報を取得したり、外部装置Gに対して情報を送信したりすることができるようになっている。   The communication unit 50 can be connected to the external device G via a network (communication network), and the necessary information such as the dictionary database 30 and the exemplary speech data 40M of word speech is received from the external device G. It is possible to acquire or send information to the external device G.

なお、外部情報記憶媒体12aや外部装置Gにおける教材コンテンツ30や単語音声の模範音声データ40M等は、電子辞書1の後述する記憶部80における教材コンテンツ30や単語音声の模範音声データ40M等と同様のデータ構造を有しているため、ここでは説明を省略する。また、通信部50は、本実施形態のように音声出力装置を電子辞書1に適用する場合には必ずしも必要ではないが、例えば後述する図9に示すように、ネットワーク等を介して音声出力装置1と外部装置Gとを有線や無線で接続して、外部装置Gから英会話コンテンツ30Aや模範音声データ30AM等の必要な情報を取得するように構成する場合には必要になる。   Note that the teaching material content 30 and the word voice model voice data 40M in the external information storage medium 12a and the external device G are the same as the teaching material content 30 and the word voice model voice data 40M in the storage unit 80 to be described later of the electronic dictionary 1. Therefore, the description is omitted here. Further, the communication unit 50 is not necessarily required when the voice output device is applied to the electronic dictionary 1 as in the present embodiment, but for example, as shown in FIG. 9 described later, the voice output device via a network or the like. 1 and the external device G are connected to each other by wire or wirelessly, and is necessary when acquiring necessary information such as the English conversation content 30A and the model voice data 30AM from the external device G.

記憶部80は、電子辞書1の各種機能を実現するためのプログラムやデータを記憶するとともに、CPU20の作業領域として機能するメモリである。本実施形態においては、記憶部80は、音声録音再生プログラム81の記憶領域と、辞書データベース群3の記憶領域と、教材コンテンツ群3の記憶領域と、単語音声データ群4の記憶領域と、強弱色設定データ5等の記憶領域とを備えている。   The storage unit 80 is a memory that stores programs and data for realizing various functions of the electronic dictionary 1 and functions as a work area of the CPU 20. In the present embodiment, the storage unit 80 includes a storage area for the audio recording / playback program 81, a storage area for the dictionary database group 3, a storage area for the teaching material content group 3, a storage area for the word audio data group 4, and a strength level. Storage area for color setting data 5 and the like.

音声録音再生プログラム81は、本発明に係る音声出力プログラムであり、後述する声調識別表示出力処理や声調変更出力処理等(図3〜図5参照)をCPU20に実行させるためのプログラムである。   The voice recording / playback program 81 is a voice output program according to the present invention, and is a program for causing the CPU 20 to execute tone identification display output processing, tone change output processing, and the like (see FIGS. 3 to 5) described later.

教材コンテンツ群3は、複数の教材コンテンツ30を有しており、本実施形態では、少なくとも英会話の教材コンテンツ30Aを有している。そして、英会話の教材コンテンツ30Aは、英会話に関する項目ごとに、学習対象の複数の英文を含むテキストデータ30ATと、文ごとの模範音声データ30AMとを有している。すなわち、本実施形態では、記憶部80が、本発明に係る、テキストに対応付けて音声データである模範音声データ30AMが記憶されている音声データ記憶手段に相当する。   The teaching material content group 3 includes a plurality of teaching material contents 30, and in this embodiment, at least the teaching material content 30 </ b> A for English conversation. Then, the teaching material content 30A for English conversation has text data 30AT including a plurality of English sentences to be learned and model voice data 30AM for each sentence for each item related to English conversation. That is, in the present embodiment, the storage unit 80 corresponds to an audio data storage unit according to the present invention in which the exemplary audio data 30AM that is audio data is stored in association with text.

単語音声データ群4は、各辞書データベース30における見出し語の各単語の模範音声データ40Mを有している。なお、この単語音声データ群4は、同一の単語について複数の模範音声データ40Mを有していても良い。   The word voice data group 4 includes model voice data 40M of each word of the headword in each dictionary database 30. The word voice data group 4 may have a plurality of model voice data 40M for the same word.

強弱色設定データ5は、後述するように、メインディスプレイ10上に表示されたテキスト中の指定された範囲内の各単語をその強弱の順に色分けして識別表示したり、ユーザの操作により各単語の識別表示の色を変更することで各単語の強弱を変更する際に、各単語を色分けして識別表示するために用いられるデータである。なお、この強弱色設定データ5については後で説明する。   As will be described later, the strong / weak color setting data 5 is used to identify and display each word within a specified range in the text displayed on the main display 10 by color-coded in the order of the strength, or by the user's operation. When the strength of each word is changed by changing the color of the identification display, the data is used for identifying and displaying each word by color. The strong / weak color setting data 5 will be described later.

なお、本実施形態では、このように、前述した単語の声調として単語の強弱のみに着目し、強弱色設定データ5を用いて声調としての音の強弱を変更する場合について説明するが、この他にも、単語の声調として、前述したように抑揚やイントネーション等の広義のアクセント等を変更するように構成することも可能であり、本発明は、以下で説明する声調が音の強弱である場合に限定されない。具体的には、単語の抑揚すなわち音の昇降を変更するために、上記の強弱色設定データ5の代わりに、例えば抑揚設定データとして、抑揚のない平坦な声調を表す矢印や線(すなわち→や−)や、図示を省略するが、音が上昇することを表す右肩上がりの矢印や線、音が下降することを表す右肩下がりの矢印や線等を、声調設定データとして有するように構成することも可能である。   In the present embodiment, as described above, the case where the strength of the sound as the tone is changed using the strength color setting data 5 will be described while focusing on only the strength of the word as the tone of the word as described above. In addition, as described above, it is also possible to configure the tone of the word to be changed in a broad sense such as intonation and intonation as described above, and in the present invention, when the tone described below is a sound intensity It is not limited to. Specifically, in order to change word inflection, that is, sound up and down, instead of the above-described intensity setting data 5, for example, as inflection setting data, an arrow or a line representing a flat tone without inflection (that is, → or Although not shown in the figure, the voice setting data includes an arrow and a line that rises to the right to indicate that the sound rises, and an arrow and line to the right that indicates that the sound falls. It is also possible to do.

また、記憶部80には、この他に、ユーザが発声した音声(ユーザ音声)を録音して録音データ6として記憶する記憶領域等が設けられている。すなわち、本実施形態では、記憶部80は、本発明に係る、ユーザ音声を録音データ6として登録するユーザ音声登録手段としても機能するようになっている。なお、この点については、後述する第2の実施形態で説明する。   In addition to this, the storage unit 80 is provided with a storage area for recording voices (user voices) uttered by the user and storing them as recorded data 6. In other words, in the present embodiment, the storage unit 80 functions as user voice registration means for registering user voice as the recording data 6 according to the present invention. This point will be described in a second embodiment described later.

また、CPU20は、入力される指示に応じて所定のプログラムに基づいた処理を実行し、各機能部への指示やデータの転送等を行い、電子辞書1を統括的に制御するようになっている。具体的には、CPU20は、入力部22から入力される操作信号等に応じて記憶部80に格納された各種プログラムを読み出し、当該プログラムに従って処理を実行する。そして、CPU20は、処理結果を記憶部80に保存するとともに、当該処理結果を音声入出力部70や表示部21に適宜出力させるようになっている。また、本実施形態では、CPU20は、本発明に係る声調識別表示制御手段や声調変更手段、声調変更音声出力制御手段等として機能するようになっているが、この点については、下記の電子辞書1の動作の説明の中で説明する。   In addition, the CPU 20 executes processing based on a predetermined program in accordance with an input instruction, performs an instruction to each function unit, data transfer, and the like, and comprehensively controls the electronic dictionary 1. Yes. Specifically, the CPU 20 reads various programs stored in the storage unit 80 in accordance with an operation signal or the like input from the input unit 22, and executes processing according to the program. The CPU 20 saves the processing result in the storage unit 80 and appropriately outputs the processing result to the voice input / output unit 70 and the display unit 21. In the present embodiment, the CPU 20 functions as a tone identification display control means, a tone change means, a tone change voice output control means, etc. according to the present invention. This will be described in the description of the operation 1.

[動作]
次に、本実施形態に係る音声出力装置である電子辞書1における動作について、図3、図4に示すフローチャートに基づいて他の図面を参照しつつ説明する。なお、以下で説明する音声出力装置(電子辞書1)の動作は、図2に示した音声録音再生プログラム81に従って行われるため、以下の説明は、本実施形態に係る音声出力プログラムである音声録音再生プログラム81についての説明にもなっている。
[Operation]
Next, the operation of the electronic dictionary 1 that is the voice output device according to the present embodiment will be described based on the flowcharts shown in FIGS. 3 and 4 with reference to other drawings. In addition, since the operation | movement of the audio | voice output apparatus (electronic dictionary 1) demonstrated below is performed according to the audio | voice recording / reproducing program 81 shown in FIG. 2, the following description is the audio | voice recording which is an audio | voice output program which concerns on this embodiment. It also explains the reproduction program 81.

[基本動作]
まず、本実施形態に係る電子辞書1のCPU20における基本動作について説明する。なお、以下で説明する各処理とは関係のない操作(例えば以下で説明する各処理の最中にユーザにより歴史大辞典等の別のコンテンツのボタンが押下される等の操作)が行われた場合には、CPU20は、以下の各処理を中止して、指定された処理を行うようになっている。
[basic action]
First, the basic operation in the CPU 20 of the electronic dictionary 1 according to the present embodiment will be described. An operation unrelated to each process described below (for example, an operation such as a user pressing a button of another content such as a history dictionary in the middle of each process described below) was performed. In this case, the CPU 20 stops the following processes and performs designated processes.

CPU20は、ユーザによりキー群2が操作されて英会話コンテンツ30Aが指定されると(図3のステップS1)、記憶部80の当該英会話コンテンツ30Aの記憶領域からテキストデータ30ATを読み出して、例えば図1に示したようにメインディスプレイ10上に当該英会話コンテンツ30Aのテキストを表示する(ステップS2)。また、それと同時に、図1に示したように、メインティスプレイ10の左側に、各種の処理内容を表すアイコンIを表示する。   When the user operates the key group 2 to specify the English conversation content 30A (step S1 in FIG. 3), the CPU 20 reads the text data 30AT from the storage area of the English conversation content 30A in the storage unit 80, for example, FIG. As shown in FIG. 4, the text of the English conversation content 30A is displayed on the main display 10 (step S2). At the same time, as shown in FIG. 1, icons I representing various processing contents are displayed on the left side of the main display 10.

そして、CPU20は、ユーザによりタッチペンや指でタッチされる等して「音声学習」以外のアイコンIが選択された場合には(ステップS3;NO)、処理を終了し、選択されたアイコンIに対応する他の処理を行う。また、ユーザは、「音声学習」アイコンIaを選択すると(ステップS3;YES)、続いて、聞きたい或いは学習したいと思うテキスト中の文字列の範囲をタッチペンでなぞる等して指定する(ステップS4。図1参照)。なお左側のアイコンエリアには、「ノート」、「さらに検索」、「マーカ」、「付箋」、「単語帳」、「音声学習」一般の学習機能の各アイコンが上から順に並べて表示される。   Then, when an icon I other than “speech learning” is selected by touching with a touch pen or a finger by the user (step S3; NO), the CPU 20 ends the process and changes to the selected icon I. Perform other corresponding processing. When the user selects the “speech learning” icon Ia (step S3; YES), the user subsequently specifies the range of the character string in the text he / she wants to hear or want to learn by tracing with a touch pen (step S4). (See FIG. 1). In the icon area on the left, icons for general learning functions of “note”, “further search”, “marker”, “sticky note”, “word book”, and “speech learning” are displayed in order from the top.

CPU20は、ユーザにより左側のアイコンエリア中の「音声学習」アイコンIa(図1参照)が選択されると(ステップS3;YES)、メインティスプレイ10の左側のアイコンIの表示を図6(A)に示すように、上から順に「音声切替」I1、「音声比較」I2、「強弱表示OFF」I3、「強弱反映OFF」I4、「強弱変更」I5、「強弱取消」I6の音声機能の表示に切り替える。また、テキストの左上部分に「会話音声」アイコンIkが表示される。ここで「会話音声」アイコンIk以外のアイコンIがユーザによりタッチペンでタッチされる等して選択されると(ステップS5;NO)、処理を終了し、選択されたアイコンIに対応する他の処理を行う。   When the user selects the “speech learning” icon Ia (see FIG. 1) in the icon area on the left side (step S3; YES), the CPU 20 displays the icon I on the left side of the main display 10 as shown in FIG. ), In order from the top, the voice functions of “voice switching” I1, “sound comparison” I2, “strong / weak display OFF” I3, “strong reflection OFF” I4, “strong / weak change” I5, and “strong / weak cancellation” I6 Switch to display. In addition, a “conversation voice” icon Ik is displayed in the upper left part of the text. Here, when an icon I other than the “conversation voice” icon Ik is selected by the user touching with a touch pen or the like (step S5; NO), the process ends, and another process corresponding to the selected icon I is performed. I do.

また、CPU20は、図6(A)に示すように「会話音声」アイコンIkがユーザによりタッチペンPIでタッチされる等して選択されると(ステップS5;YES)、例えば図6(A)に示すように、メインティスプレイ10の左側のアイコンIの表示を切り替える。なお、図6(A)では、上記のステップS4で、ユーザにより「How do you do?」というテキストの文字列のうち「do you do」の範囲が指定された場合が示されている。   Further, when the “conversation voice” icon Ik is selected by being touched by the user with the touch pen PI as shown in FIG. 6A (step S5; YES), for example, FIG. As shown, the display of the icon I on the left side of the main display 10 is switched. FIG. 6A shows a case where the range of “do you do” is specified by the user in the text string “How do you do?” In step S4 described above.

なお、図6(A)以下の各図において、図中に網掛けされている部分がある場合、当該網掛けの部分の文字列(この場合は「do you do」)や単語等が、上記のように指定されたり、後述するように識別表示される等して、特定の色(図6(A)の場合は例えば緑)でマーカ表示(緑;Mg)されていることを表している。   In each figure following FIG. 6A, if there is a shaded part in the figure, the character string (in this case “do you do”), the word, etc. This indicates that the marker is displayed in a specific color (eg, green in the case of FIG. 6A) (green; Mg) by being designated as shown in FIG. .

続いて、CPU20は、メインティスプレイ10の左側の各アイコンIのうち、ユーザにより「音声切替」アイコンI1が選択されたか否かを判断し(ステップS6)、「音声切替」アイコンI1が選択された場合には(ステップS6;YES)、「音声」アイコンI2の枠内の表示を「比較」から「録音」に切り替える(ステップS7。後述する図7(C)参照)。また、「音声」アイコンI2の枠内の表示が「録音」である場合に、「音声切替」アイコンI1が選択された場合には(ステップS6;YES)、「音声」アイコンI2の枠内の表示を「録音」から「比較」に切り替える(ステップS7)。   Subsequently, the CPU 20 determines whether or not the “voice switching” icon I1 is selected by the user among the icons I on the left side of the main display 10 (step S6), and the “voice switching” icon I1 is selected. In the case where it is (step S6; YES), the display in the frame of the “voice” icon I2 is switched from “comparison” to “recording” (step S7; see FIG. 7C described later). If the display within the frame of the “voice” icon I2 is “recording” and the “voice switch” icon I1 is selected (step S6; YES), the frame within the frame of the “voice” icon I2 is displayed. The display is switched from “recording” to “comparison” (step S7).

すなわち、CPU20は、ユーザにより「音声切替」アイコンI1が選択されるごとに、「音声」アイコンI2の枠内の表示を「比較」と「録音」との間で切り替えるようになっている。なお、この基本動作では、「音声」アイコンI2の枠内の表示が「比較」である場合の各処理を説明する。「音声」アイコンI2の枠内の表示が「録音」である場合の各処理については、後述する第2の実施形態で説明する。   That is, the CPU 20 switches the display within the frame of the “voice” icon I2 between “comparison” and “recording” every time the user selects the “voice switch” icon I1. In this basic operation, each process when the display in the frame of the “voice” icon I2 is “comparison” will be described. Each processing when the display in the frame of the “voice” icon I2 is “recording” will be described in a second embodiment to be described later.

ユーザにより「音声切替」アイコンI1が選択されておらず(ステップS6;NO)、「音声」アイコンI2が選択された場合(ステップS8;YES)、CPU20は、「音声」アイコンI2の枠内の表示が「比較」であるか否かを判断する(ステップS9)。上記のように、この基本動作の場合、「音声」アイコンI2の枠内の表示は「比較」であるから(ステップS9;YES)、CPU20は、ステップS10の処理に進む。   When the “voice switch” icon I1 has not been selected by the user (step S6; NO) and the “voice” icon I2 has been selected (step S8; YES), the CPU 20 is within the frame of the “voice” icon I2. It is determined whether or not the display is “comparison” (step S9). As described above, in the case of this basic operation, since the display in the frame of the “voice” icon I2 is “comparison” (step S9; YES), the CPU 20 proceeds to the process of step S10.

そして、CPU20は、ユーザにより選択された英会話コンテンツの指定された文字列(単語を含む。以下同じ。)を含むテキストデータ30AT(図2参照)に対応する模範音声データ30AMを、記憶部80の英会話コンテンツ30Aから読み出し、指定された文字列(すなわち図6(A)のマーカ表示(緑;Mg)部分)に対応する部分を音声出力する(ステップS10)。この場合、模範音声データ30AMとして記憶されている強弱(すなわち声調)のまま音声出力する。   Then, the CPU 20 stores the model voice data 30AM corresponding to the text data 30AT (see FIG. 2) including the designated character string (including words; the same applies hereinafter) of the English conversation content selected by the user in the storage unit 80. A portion corresponding to the designated character string (that is, the marker display (green: Mg) portion in FIG. 6A) is read out from the English conversation content 30A and outputted (step S10). In this case, the voice is output with the strength (ie, tone) stored as the model voice data 30AM.

また、本実施形態では、CPU20は、このようにして指定された文字列に対応する部分の模範音声データ30AMを音声出力した後、続いて、指定された文字列の各単語について、記憶部80の単語音声データ群4の中から模範音声データ40Mを順に読み出して、それぞれ音声出力するようになっている(ステップS11)。   In the present embodiment, the CPU 20 outputs the portion of the model voice data 30AM corresponding to the character string designated in this manner, and then stores the word 80 in the storage unit 80 for each word of the designated character string. The model voice data 40M are sequentially read out from the word voice data group 4 and are output as voices (step S11).

すなわち、本実施形態では、CPU20は、ユーザにより指定された文字列「do you do」について、リエゾン等を含みネイティブが会話する状態の模範音声データ30AMを音声出力して「do you do」と音声出力した後(ステップS10)、続いて、指定された文字列の各単語を、リエゾン等を含まず、各単語に分けた状態の模範音声データ40Mを音声中で、連続して「do」、「you」、「do」と音声出力するようになっている。   In other words, in the present embodiment, the CPU 20 outputs, by voice, the model voice data 30AM in a state in which the native language includes a liaison and the like for the character string “do you do” designated by the user, and “do you do” is spoken. After the output (step S10), subsequently, each word of the designated character string does not include a liaison or the like, and the exemplary voice data 40M in a state of being divided into each word is continuously “do” "You" and "do" are output as voice.

このように構成することで、ユーザは、指定した文字列について、リエゾン等を含む会話の発音と単語ごとの発音とをそれぞれ聞き比べて学習することが可能となる。なお、上記の「比較」は、この聞き比べのことを意味するものである。   With this configuration, the user can learn by listening and comparing the pronunciation of a conversation including a liaison and the pronunciation of each word for a designated character string. The above-mentioned “comparison” means this hearing comparison.

[声調識別表示出力処理]
次に、電子辞書1のCPU20で行われる声調識別表示出力処理について説明する。声調識別表示出力処理では、CPU20は、上記のように記憶部80(音声データ記憶手段)に記憶されている模範音声データに基づいて、テキスト中に指定された文字列の各単語に強弱(すなわち声調。以下同じ。)を表す識別表示を行ったり、各単語の強弱に従って、模範音声データ30AMを音声出力するように制御する。すなわち、CPU20は、本発明に係る声調識別表示制御手段として機能するようになっている。以下、具体的に説明する。
[Tone identification display output processing]
Next, a tone identification display output process performed by the CPU 20 of the electronic dictionary 1 will be described. In the tone identification display output process, the CPU 20 determines whether each word of the character string specified in the text is strong or weak (that is, based on the model voice data stored in the storage unit 80 (voice data storage unit) as described above (that is, Control is performed so that the exemplary voice data 30AM is output as voice according to the strength of each word. That is, the CPU 20 functions as a tone identification display control unit according to the present invention. This will be specifically described below.

CPU20は、ユーザにより「音声切替」アイコンI1が選択されておらず(ステップS6;NO)すなわち今の状態では「音声」アイコンI2の枠内の表示が「比較」のままで、「音声」アイコンI2が選択されずに(ステップS8;NO)、「強弱表示」アイコンI3(図6(B)参照)が選択されると、指定されている文字列の模範音声データ30AMに基づいて当該文字列の各単語に強弱を表す識別表示(すなわち声調を表す識別表示。以下同じ。)を行ったり識別表示を解除したりするように制御する。   The CPU 20 does not select the “voice switch” icon I1 by the user (step S6; NO), that is, in the current state, the display within the frame of the “voice” icon I2 remains “comparison”, and the “voice” icon If I2 is not selected (step S8; NO) and the “strong / weak display” icon I3 (see FIG. 6B) is selected, the character string is based on the model voice data 30AM of the designated character string. Control is performed so that the identification display indicating the strength (ie, the identification display indicating the tone, the same shall apply hereinafter) is performed on each of the words and the identification display is canceled.

すなわち、CPU20は、「強弱表示」アイコンI3が選択されると(図4のステップS14;YES)、「強弱表示」アイコンI3中の表示が「ON」であれば、指定されている文字列の各単語の強弱を表す識別表示を行い、「強弱表示」アイコンI3中の表示が「OFF」であれば、その識別表示を解除する(ステップS15)。具体的には、テキスト中の各単語に対応づけて記憶されている音声データの各単語部分の強弱(又は声調)を検知して、各単語に強弱(声調)の情報を付して、その強弱(声調)を示すマーカ(ここでは、弱;黄色マーカMy、中;青色マーカMb、強;赤色マーカMr)を付けて識別表示する。   That is, when the “strong / weak display” icon I3 is selected (step S14 in FIG. 4; YES), the CPU 20 determines that the specified character string is displayed if the display in the “strong / weak display” icon I3 is “ON”. Identification display indicating the strength of each word is performed. If the display in the “strength display” icon I3 is “OFF”, the identification display is canceled (step S15). Specifically, the strength (or tone) of each word portion of the voice data stored in association with each word in the text is detected, and the strength (tone) information is attached to each word. A marker (in this case, weak; yellow marker My, medium; blue marker Mb, strong; red marker Mr) indicating the strength (voice tone) is added for identification display.

また、CPU20は、「強弱表示」アイコンI3が連続して選択されると、すなわち他のアイコンIが選択される等せずに「強弱表示」アイコンI3が続けて選択されると(ステップS12;YES)、「強弱表示」アイコンI3中の「ON」と「OFF」の表示を切り替えて表示する。すなわち、「強弱表示」アイコンI3中の表示が「OFF」であれば「ON」に切り替え、表示が「OFF」であれば「ON」に切り替えて表示する。そして、それと同時に、ステップS15の処理を行う。   Further, the CPU 20 continuously selects the “strength display” icon I3, that is, when the “strength display” icon I3 is continuously selected without selecting another icon I (step S12; YES), “ON” and “OFF” in the “strength display” icon I3 are switched and displayed. That is, if the display in the “strength display” icon I3 is “OFF”, the display is switched to “ON”, and if the display is “OFF”, the display is switched to “ON”. At the same time, the process of step S15 is performed.

具体的には、例えば、メインディスプレイ10の表示が図6(A)の状態であった場合に、「強弱表示」アイコンI3をタッチペンや指等でタッチして選択すると、この場合は「強弱表示」アイコンI3が初めて選択されたため、CPU20は、ステップS12の判定処理でNO判定を行い、ステップS14の判定処理に移行する。そして、「強弱表示」アイコンI3は選択され(ステップS14;YES)、この場合、「強弱表示」アイコンI3中の表示は「OFF」であるから、指定されている文字列の各単語の強弱を表す識別表示(すなわちこの場合は強弱を表す識別表示)を解除する(ステップS15)。すなわち、この場合は、それまで文字列の識別表示が行われていないため、識別表示を解除するということは、元の図6(A)の状態のまま表示を変えないということになる。   Specifically, for example, when the display on the main display 10 is in the state of FIG. 6A, when the “strong display” icon I3 is selected by touching with a touch pen, a finger, or the like, in this case, “strong display” is displayed. Since the icon I3 is selected for the first time, the CPU 20 makes a NO determination in the determination process in step S12, and proceeds to the determination process in step S14. Then, the “strength display” icon I3 is selected (step S14; YES). In this case, the display in the “strength display” icon I3 is “OFF”, so the strength of each word of the designated character string is displayed. The identification display (that is, the identification display indicating strength in this case) is released (step S15). That is, in this case, since the identification display of the character string has not been performed so far, releasing the identification display means that the display is not changed in the original state of FIG.

そして、ユーザが他のアイコンを選択する等せずに「強弱表示」アイコンI3に対して2回目のタッチを行って連続して選択すると(ステップS12;YES)、図6(A)に示した「強弱表示」アイコンI3中の「OFF」の表示が、図6(B)に示すように「ON」の表示に切り替わる(ステップS13)。そして、それと同時に、CPU20によりディスプレイ10上で指定されている文字列の各単語の強弱を表す識別表示が行われる(ステップS15)。   Then, when the user performs a second touch on the “strength display” icon I3 without selecting another icon or the like (step S12; YES), the selection is shown in FIG. 6A. The display of “OFF” in the “strength display” icon I3 is switched to the display of “ON” as shown in FIG. 6B (step S13). At the same time, the CPU 20 performs an identification display indicating the strength of each word of the character string designated on the display 10 (step S15).

すなわち、本実施形態では、ユーザは、「強弱表示」アイコンI3中の表示が「OFF」である状態で、ディスプレイ10上で指定した文字列の各単語の強弱を表す識別表示を行わせたい場合には、「強弱表示」アイコンI3をタッチペンや指等で連続してタッチすればよいことになる。このように「強弱表示」アイコンI3を連続して選択すれば、上記のように、「強弱表示」アイコンI3中の表示を「ON」に切り替えて、ディスプレイ10上で指定した文字列の各単語の強弱を表す識別表示を行わせることができる。   That is, in the present embodiment, the user wants to perform identification display indicating the strength of each word of the character string designated on the display 10 in a state where the display in the “strong display” icon I3 is “OFF”. In this case, the “strong display” icon I3 may be continuously touched with a touch pen or a finger. If the “strong display” icon I3 is continuously selected in this way, the display in the “strong display” icon I3 is switched to “ON” as described above, and each word of the character string designated on the display 10 is switched. It is possible to display an identification indicating the strength of the.

本実施形態では、具体的には、テキスト中の各単語に対応づけて記憶されている音声データの各単語部分の強弱(又は声調)を検知して、各単語に強弱(声調)の情報を付して、その強弱(声調)を示すマーカ(ここでは、弱;黄色マーカMy、中;青色マーカMb、強;赤色マーカMr)を付けて識別表示する。   In the present embodiment, specifically, the strength (or tone) of each word portion of the speech data stored in association with each word in the text is detected, and the strength (tone) information is provided for each word. A marker (here, weak; yellow marker My, middle; blue marker Mb, strong; red marker Mr) indicating the strength (tone) is added and displayed.

そして、CPU20は、指定されている文字列の各単語の強弱を表す識別表示を行う場合には、指定されている文字列を含むテキストデータ30AT(図2参照)に対応する模範音声データ30AMを、記憶部80の英会話コンテンツ30Aから読み出し、指定された文字列の各単語の強弱を判定する。そして、上記の強弱色設定データ6に基づいて、図6(B)に示すように、メインディスプレイ10上に表示したテキスト中の指定された範囲内の文字列の各単語を、その強弱(声調)の順に、例えば上記の赤、青、黄等で色分けしマーカ表示して識別表示する制御を行うようになっている。   When the CPU 20 performs the identification display indicating the strength of each word of the designated character string, the CPU 20 selects the model voice data 30AM corresponding to the text data 30AT (see FIG. 2) including the designated character string. Then, the content is read from the English conversation content 30A in the storage unit 80, and the strength of each word of the designated character string is determined. Then, based on the intensity color setting data 6, as shown in FIG. 6B, each word of the character string within the specified range in the text displayed on the main display 10 is converted to its strength (voice tone). ), For example, the above-described red, blue, yellow and the like are color-coded and displayed as markers for identification display control.

なお、図面上では色で表現することができないため、発音される単語の強さが強くなるほど網掛けをより細かくしていくように表現することとする。すなわち、図6(B)の場合には、最後の「do」が最も強く、最初の「do」が中程度の強さであり、「you」が最も弱く発音されることを表している。   Since it cannot be expressed in color on the drawing, it is expressed so that the shading is made finer as the strength of the pronounced word increases. That is, in the case of FIG. 6B, the last “do” is the strongest, the first “do” is the medium strength, and “you” is the weakest.

また、模範音声データ30AMについては、上記のように、CPU20が、読み出した模範音声データ30AMの各単語の強弱を判定する代わりに、予め模範音声データ30AMの各単語に強弱のレベル(すなわちこの場合は強い、中程度、弱い)を対応付けておき、CPU20は、各単語に対応付けられた強弱のレベルに応じて各単語を識別表示するように構成することも可能である。   As for the model voice data 30AM, as described above, instead of the CPU 20 determining the strength of each word of the read model voice data 30AM, the level of the strength of each word of the model voice data 30AM (that is, in this case) Can be configured such that each word is identified and displayed according to the strength level associated with each word.

さらに、図6(B)の状態でユーザが他のアイコンを選択する等せずに再度「強弱表示」アイコンI3を選択すると、ステップS12の判定処理でYES判定が行われるため、「強弱表示」アイコンI3中の「ON」の表示が「OFF」の表示に切り替わると同時に、ディスプレイ10上での識別表示が解除される。このように、「強弱表示」アイコンI3が連続して選択されるたびに、「強弱表示」アイコンI3中の「ON」と「OFF」の表示が切り替わると同時に、ディスプレイ10上で識別表示が行われたり解除されたりする動作が繰り返されることになる。   Furthermore, if the user selects the “strong / weak display” icon I3 again without selecting another icon in the state of FIG. 6B, a YES determination is made in the determination processing in step S12, and therefore “strong / weak display” is performed. At the same time that the display of “ON” in the icon I3 is switched to the display of “OFF”, the identification display on the display 10 is canceled. In this way, each time the “strong display” icon I3 is continuously selected, the display of “ON” and “OFF” in the “strong display” icon I3 is switched, and at the same time, the identification display is performed on the display 10. The operation of breaking or releasing is repeated.

本実施形態では、前述した声調識別表示制御手段としてのCPU20は、このように、メインディスプレイ10上で指定された文字列に対応する模範音声データ30AMに基づいて、文字列(すなわちテキスト)の各単語の強弱を判定し、各単語に強弱を表す(例えば色分けされた)識別表示を行うように表示部21等の各機能部を制御するようになっている。   In the present embodiment, the CPU 20 serving as the above-described tone identification display control means, as described above, based on the model voice data 30AM corresponding to the character string designated on the main display 10, each character string (that is, text). Each functional unit such as the display unit 21 is controlled so as to determine the strength of the word and to perform identification display (for example, color-coded) indicating the strength of each word.

一方、CPU20は、ユーザにより「強弱反映」アイコンI4(図6(A)や図6(B)参照)が選択された場合には(ステップS18;YES)、「強弱反映」アイコンI4中の表示が「ON」であれば、上記のようにして各単語の強弱を色分けして識別表示した指定された文字列(テキスト)の部分について、単語の強弱に従って模範音声データ30AMを音声出力するように音声入出力部70等を制御する。また、「強弱反映」アイコンI4中の表示が「OFF」であれば、指定された文字列の部分の模範音声データ30AMをそのまま音声出力する(ステップS19)。   On the other hand, when the “dynamic reflection” icon I4 (see FIGS. 6A and 6B) is selected by the user (step S18; YES), the CPU 20 displays the “dynamic reflection” icon I4. If “ON”, the voice data of the model voice data 30AM is output according to the strength of the word for the portion of the designated character string (text) that is identified and displayed by color-coding the strength of each word as described above. The voice input / output unit 70 and the like are controlled. On the other hand, if the display in the “strong reflection” icon I4 is “OFF”, the model voice data 30AM of the designated character string portion is output as voice (step S19).

また、CPU20は、上記と同様に、「強弱反映」アイコンI4が連続して選択された場合には(ステップS16;YES)、「強弱反映」アイコンI4中の「ON」と「OFF」の表示を切り替えて表示し、それと同時に、ステップS18の処理を行う。   Similarly to the above, the CPU 20 displays “ON” and “OFF” in the “strong reflection” icon I4 when the “strong reflection” icon I4 is continuously selected (step S16; YES). At the same time, the process of step S18 is performed.

すなわち、ユーザが、「強弱反映」アイコンI4中の表示が「ON」の状態で音声出力させると、メインディスプレイ10上で指定した文字列が、色分けして識別表示された各単語の強弱に従って音声出力される。また、「強弱反映」アイコンI4中の表示が「OFF」の状態で音声出力させると、指定した文字列に対応する部分の模範音声データ30AMがそのまま音声出力される。   That is, when the user outputs a sound with the display in the “reflection” icon I4 being “ON”, the character string designated on the main display 10 is sounded according to the strength of each word identified and displayed in different colors. Is output. Further, if the voice display is performed while the display in the “strike reflection” icon I4 is “OFF”, the model voice data 30AM corresponding to the designated character string is output as voice.

なお、例えば図6(B)に示したように色分けして識別表示された各単語の強弱は、そもそも模範音声データ30AMにおける各単語の強弱をそのまま反映したものであるため、「強弱反映」アイコンI4中の表示が「ON」の状態で音声出力させても、「OFF」の状態で音声出力させても、結局、模範音声データ30AMがそのまま音声出力される状態になる。この「強弱反映」アイコンI4が選択された場合の処理は、主に、下記のように文字列の各単語の強弱が変更された後(すなわち下記の声調変更出力処理が行われた後)で音声出力させる場合に、各単語の強弱が変更された後の音声出力と変更される前の模範音声データ30AMの音声出力とを聞き比べる際に有益な効果が発揮される。   For example, as shown in FIG. 6B, the strength of each word identified and displayed by color coding reflects the strength of each word in the model voice data 30AM as it is, so the “strike strength” icon Regardless of whether the display in I4 is “ON” or the voice is output in the “OFF” state, the model voice data 30AM is output as it is. The processing when the “reflection” icon I4 is selected is mainly after the strength of each word in the character string is changed as described below (that is, after the following tone change output processing is performed). When the voice is output, a beneficial effect is exhibited when comparing the voice output after the strength of each word is changed with the voice output of the model voice data 30AM before the change.

[声調変更出力処理]
次に、電子辞書1のCPU20で行われる声調変更出力処理について説明する。声調変更出力処理では、CPU20は、上記のように識別表示したいずれかの単語の声調(この場合は強弱)をユーザの操作により変更したり(声調変更手段としての機能)、変更した単語の声調に従って、指定された文字列(テキスト)の模範音声データ30AMを出力するように制御するようになっている(声調変更音声出力制御手段としての機能)。以下、具体的に説明する。
[Tone change output processing]
Next, a tone change output process performed by the CPU 20 of the electronic dictionary 1 will be described. In the tone change output process, the CPU 20 changes the tone (in this case, the strength) of one of the words identified and displayed as described above by a user operation (function as a tone change means), or the tone of the changed word. Accordingly, control is performed so as to output the model voice data 30AM of the designated character string (text) (function as a tone change voice output control means). This will be specifically described below.

すなわち、CPU20は、「強弱変更」アイコンI5(図6(B)参照)が選択されると(ステップS20;YES)、例えば図6(C)に示すように、この場合は単語の強弱を変更するための声調変更用のペンアイコンPIを、例えば指定され各単語が識別表示された文字列のうち先頭の単語「do」を指すようにメインディスプレイ10上に表示する(ステップS21)。また、それと同時に、メインディスプレイ10の左側に表示する各アイコンIを、例えば図6(C)に示すようなアイコンI7〜I10に切り替える。   That is, when the “change strength” icon I5 (see FIG. 6B) is selected (step S20; YES), the CPU 20 changes the strength of the word in this case as shown in FIG. 6C, for example. For example, a tone-changing pen icon PI is displayed on the main display 10 so as to point to the first word “do” in the character string in which each designated word is identified and displayed (step S21). At the same time, the icons I displayed on the left side of the main display 10 are switched to icons I7 to I10 as shown in FIG. 6C, for example.

そして、CPU20は、例えば図6(C)に示した状態でユーザが「カラー」アイコンI9をタッチして選択するごとに、声調を表す識別表示、すなわちこの場合は強弱を表す色を変更する(ステップS22)。すなわち、例えば、上記のように単語が強く発音される順に赤、青、黄でそれぞれ識別表示される場合、ユーザが「カラー」アイコンI9をタッチするごとに、CPU20は、指定された文字列の最初の「do」を識別表示する色を、赤、青、黄の順に変更する。図6(C)に示した状態では、最初の「do」は青(中程度の強さであることを表す色)で識別表示されているため、ユーザが「カラー」アイコンI9をタッチするごとに、最初の「do」の識別表示の色が青から黄、赤、青、…と変更される。   Then, for example, every time the user touches and selects the “color” icon I9 in the state shown in FIG. 6C, the CPU 20 changes the identification display representing the tone, that is, the color representing the strength in this case ( Step S22). That is, for example, when the words are identified and displayed in red, blue, and yellow in the order of strong pronunciation as described above, each time the user touches the “color” icon I9, the CPU 20 The color for identifying and displaying the first “do” is changed in the order of red, blue, and yellow. In the state shown in FIG. 6C, since the first “do” is identified and displayed in blue (a color representing medium intensity), every time the user touches the “color” icon I9. In addition, the identification display color of the first “do” is changed from blue to yellow, red, blue,.

そして、ユーザにより「ペン」アイコンI8がタッチされて選択されると、図示を省略するが、CPU20は、例えばペンアイコンPIの表示位置を右の単語「you」を指す位置に移動させる。そして、上記と同様にユーザが「カラー」アイコンI9をタッチするごとに単語「you」を識別表示する色を順に変更する。指定された文字列の最後の「do」に対しても同様の操作を行うことで識別表示の色を変更することができる。なお、ユーザは指定した文字列の全ての単語の強弱を変更する必要はなく、文字列のうちのいずれかの単語の強弱のみを変更することも可能である。なお、ユーザにより「消しゴム」アイコンI10がタッチされて選択されると、CPU20は、ペンアイコンPIで指し示されている単語の識別表示を消す。   When the “pen” icon I8 is touched and selected by the user, the CPU 20 moves the display position of the pen icon PI to a position indicating the right word “you”, for example, although not shown. Then, in the same manner as described above, every time the user touches the “color” icon I9, the color for identifying and displaying the word “you” is changed in order. The color of the identification display can be changed by performing the same operation on the last “do” of the designated character string. Note that the user does not need to change the strength of all the words in the designated character string, and can change only the strength of any word in the character string. When the user touches and selects the “eraser” icon I10, the CPU 20 erases the identification display of the word pointed to by the pen icon PI.

本実施形態では、声調変更手段としての電子辞書1のCPU20は、以上のようにして、ユーザにより指定された文字列のいずれかの単語(全ての単語の場合を含む。)の強弱(声調)をユーザの操作により変更するとともに、その単語に付された強弱データ(声調データ)も変更後の色の強弱データに変更されるようになっている。また、ユーザにより「決定」アイコンI7がタッチされて選択されると、CPU20は、変更された単語の強弱の情報等を記憶部80に記憶する。また、それとともに、例えば図6(D)に示すように、変更された識別表示を維持した状態で、ペンアイコンPIの表示を消すとともに、メインディスプレイ10の左側に表示する各アイコンIを、元のアイコンI1〜I6に戻すようになっている。   In the present embodiment, the CPU 20 of the electronic dictionary 1 as a voice tone changing means, as described above, the strength (tone) of any word (including all words) of the character string designated by the user. Is changed by the user's operation, and the strength data (tone data) attached to the word is also changed to the color strength data after the change. When the “determine” icon I7 is touched and selected by the user, the CPU 20 stores information on the strength of the changed word in the storage unit 80. At the same time, as shown in FIG. 6D, for example, the display of the pen icon PI is turned off while the changed identification display is maintained, and each icon I displayed on the left side of the main display 10 is replaced with the original icon I. The icons are returned to the icons I1 to I6.

そして、この状態で(図6(D)参照)、前述したように、ユーザにより「強弱反映」アイコンI4が選択されると(ステップS18;YES)、声調変更音声出力制御手段としてのCPU20は、「強弱反映」アイコンI4中の表示が「ON」であれば、上記のようにして各単語の強弱の色分けを変更して識別表示した文字列(テキスト)の部分について、変更した単語の強弱に従って模範音声データ30AMを音声出力するように音声入出力部70等を制御する。なお、「強弱反映」アイコンI4中の表示が「OFF」である場合には2回連続して「強弱反映」アイコンI4にタッチすれば(ステップS16;YES)、「OFF」の表示を「ON」の表示に切り替えることができるため(ステップS17)、ユーザは、このように操作して、変更した単語の強弱に従った模範音声データ30AMの音声出力を聞くことができる。   Then, in this state (see FIG. 6D), as described above, when the “dynamic reflection” icon I4 is selected by the user (step S18; YES), the CPU 20 as the tone change audio output control means If the display in the “dynamic reflection” icon I4 is “ON”, the character string (text) portion identified and displayed by changing the color coding of each word as described above according to the strength of the changed word. The voice input / output unit 70 and the like are controlled so as to output the model voice data 30AM. When the display in the “dynamic reflection” icon I4 is “OFF”, if the “dynamic reflection” icon I4 is touched twice (step S16; YES), the “OFF” display is set to “ON”. ”(Step S17), the user can listen to the voice output of the model voice data 30AM according to the strength of the changed word by operating in this way.

また、ユーザは、「強弱反映」アイコンI4中の表示を「ON」から「OFF」に切り替えれば、強弱が変更される前の元の模範音声データ30AMの音声出力を聞くことができる。本実施形態に係る電子辞書1(音声出力装置)を用いれば、このようにして、ユーザは、単語の強弱を変更する前と変更した後の音声出力を聞き比べることが可能となる。   Further, the user can listen to the voice output of the original model voice data 30AM before the strength is changed by switching the display in the “reflection of strength” icon I4 from “ON” to “OFF”. If the electronic dictionary 1 (speech output device) according to the present embodiment is used, in this way, the user can hear and compare the speech output before and after changing the strength of the word.

そして、単語の強弱を変更する前と変更した後の音声出力を聞き比べることで、テキスト内の文字列、すなわち文や単語の声調を変えて発音させた状態の文や単語の音声を学習することが可能となる。そのため、文や単語のニュアンス等を変えるために、文中の特定の部分や単語の声調を変えて発声する場合にどのように発音したり発声すればよいかを、ネイティブの発音(すなわち模範音声データ30AM)に基づいて学習することが可能となる。   Then, by listening and comparing the voice output before and after changing the strength of the word, learn the character string in the text, that is, the sentence or word voice that is pronounced by changing the tone of the sentence or word It becomes possible. Therefore, in order to change the nuances of a sentence or word, the native pronunciation (i.e. model voice data) indicates how to pronounce or speak when changing the tone of a specific part or word in the sentence. 30AM).

なお、「強弱変更」アイコンI5(図6(B)参照)が選択されて、上記のようにして、ユーザにより文字列の各単語の強弱が変更された後、例えば、図6(D)の状態でユーザにより「音声(比較)」アイコンI2がタッチされて選択された場合には、上記の[基本動作]で説明したように、CPU20は、指定された文字列に対応する部分の模範音声データ30AMを変更された後の声調(強弱)に従って音声出力させた後(図3のステップS10)、続いて、指定された文字列の各単語を、変更された後の声調(強弱)に従ってそれぞれ音声出力させることになる(ステップS11)。   Note that after the “change strength” icon I5 (see FIG. 6B) is selected and the strength of each word in the character string is changed by the user as described above, for example, as shown in FIG. In the state, when the “voice (comparison)” icon I2 is selected by being touched by the user, as described in [Basic operation] above, the CPU 20 reads the model voice of the portion corresponding to the designated character string. After the data 30AM is output according to the tone (strength) after the change (step S10 in FIG. 3), each word of the designated character string is then changed according to the tone (strength) after the change. The voice is output (step S11).

一方、例えば図6(D)の状態で、ユーザは「強弱取消」アイコンI6をタッチして選択すれば、上記のようにして行った文字列の各単語の強弱の変更設定を取り消すことができる。すなわち、CPU20は、「強弱取消」アイコンI6がタッチされて選択されると(図4のステップS23;YES)、上記のようにして行われた識別表示の変更を解除して(ステップS24)、メインティスプレイ10上の表示を、図6(A)に示したように、例えば「do you do」の範囲が指定された状態(すなわちその範囲が緑でマーカ表示された状態)に戻す。また、それとともに、記憶部80に記憶された、変更された単語の強弱の情報等を、記憶部80から削除する等の処理を行うようになっている。   On the other hand, for example, in the state shown in FIG. 6D, if the user touches and selects the “strength cancel” icon I6, the setting for changing the strength of each word in the character string can be cancelled. . That is, when the “strength cancel” icon I6 is touched and selected (step S23 in FIG. 4; YES), the CPU 20 cancels the change of the identification display performed as described above (step S24), As shown in FIG. 6A, for example, the display on the main display 10 is returned to a state in which a range of “do you do” is designated (that is, a state in which the range is displayed in green). At the same time, processing such as deleting information about the strength of the changed word stored in the storage unit 80 from the storage unit 80 is performed.

[効果]
以上のように、本実施形態に係る電子辞書1(音声出力装置)や音声出力プログラムによれば、CPU20を、記憶部80(音声データ記憶手段)に記憶されているテキストデータ30ATに対応付けられたテキストの模範音声データ30AMに基づいて、ユーザにより指定された文字列(テキスト)の各単語に声調を表す識別表示を行うとともに(声調識別表示制御手段としての機能)、識別表示したいずれかの単語の声調をユーザの操作により変更し(声調変更手段としての機能)、変更した単語の声調に従って、文字列の模範音声データ30AMを出力するように音声入出力部70等を制御する(声調変更音声出力制御手段としての機能)ように構成した。
[effect]
As described above, according to the electronic dictionary 1 (voice output device) and the voice output program according to the present embodiment, the CPU 20 is associated with the text data 30AT stored in the storage unit 80 (voice data storage means). Based on the model voice data 30AM of the text, the identification display indicating the tone is performed for each word of the character string (text) designated by the user (function as a tone identification display control means), and any of the identification display The tone of the word is changed by the user's operation (function as a tone changing means), and the voice input / output unit 70 is controlled so as to output the exemplary voice data 30AM of the character string according to the changed tone of the word (tone change) (Function as voice output control means)

そのため、ユーザは、メインディスプレイ10等に表示させたテキスト中の文字列を指定し、その文字列中の各単語の強弱等の声調を変更し、声調を変更した後の模範音声データ30AMの音声出力と、声調を変更する前の元の模範音声データ30AMの音声出力とを聞き比べることが可能となる。   Therefore, the user designates a character string in the text displayed on the main display 10 or the like, changes the tone such as the strength of each word in the character string, and changes the tone of the model voice data 30AM after changing the tone. It becomes possible to hear and compare the output and the sound output of the original model sound data 30AM before changing the tone.

そして、単語の強弱を変更する前と変更した後の音声出力を聞き比べることで、テキスト内の文字列(すなわち文や単語)の声調を変えて発音させた状態の文や単語の音声を学習することが可能となる。そのため、文や単語のニュアンス等を変えるために、文中の特定の部分や単語の声調を変えて発声する場合にどのように発音したり発声すればよいか等を、ネイティブの発音(すなわち模範音声データ30AM)に基づいて効果的に学習することが可能となる。   Then, by listening and comparing the voice output before and after changing the strength of the word, learn the voice of the sentence or word in the state of changing the tone of the character string (ie sentence or word) in the text It becomes possible to do. Therefore, in order to change the nuance of a sentence or word, how to pronounce or utter when a specific part of the sentence or the tone of the word is changed, the native pronunciation (i.e. model voice) It becomes possible to learn effectively based on the data 30AM).

なお、前述したように、本実施形態では、声調識別表示制御手段としてのCPU20は、例えば図6(B)に示したように、メインディスプレイ10上で、テキスト中に指定された文字列の各単語に対して、当該単語の声調に応じて色分けしたマーカ表示(すなわち前述した例えば強弱に応じた赤、青、黄等のマーカ表示)を行うことにより、声調を表す識別表示を行う。また、声調変更手段としてのCPU20は、例えば図6(C)や図6(D)に示したように、ユーザが単語ごとにマーカ表示の色を変更する操作を行うと、それに応じて、識別表示された単語の声調(例えば強弱)を変更するように構成されている。   As described above, in the present embodiment, the CPU 20 as the tone identification display control means, for example, each character string specified in the text on the main display 10 as shown in FIG. By performing marker display color-coded according to the tone of the word (that is, marker display of red, blue, yellow, etc. according to the above-described strength, for example), the identification display indicating the tone is performed. Further, for example, as shown in FIG. 6C or FIG. 6D, the CPU 20 as the tone change unit performs an identification operation when the user performs an operation of changing the color of the marker display for each word. It is configured to change the tone (for example, strength) of the displayed word.

そのため、前述した特許文献1に記載された語学学習装置のように、ネイティブやユーザの発音を波形で表す場合に比べて、本実施形態では、単語の強弱等の声調が色分けしたマーカ表示により表示されるため、ユーザが単語の声調を的確に認識して発音等を学習することが可能となるといった効果がある。   Therefore, as in the language learning device described in Patent Document 1 described above, in this embodiment, the tone of words such as strength or weakness is displayed by marker display, as compared with the case where the pronunciation of native or user is represented by a waveform. Therefore, there is an effect that the user can learn the pronunciation and the like by accurately recognizing the tone of the word.

[第2の実施の形態]
次に、本発明の第2の実施形態に係る電子辞書1(音声出力装置)について説明する。上記の第1の実施形態では、ユーザが、電子辞書1の記憶部80に記憶されている、ネイティブの発音に係る模範音声データ30AMを用い、テキスト中に指定した文字列の各単語の強弱(すなわち声調)を変更して音声出力させる場合について説明した。すなわち、模範音声データ30AMの声調を変更する場合について説明した。
[Second Embodiment]
Next, an electronic dictionary 1 (voice output device) according to the second embodiment of the present invention will be described. In the first embodiment described above, the user uses the model voice data 30AM related to native pronunciation stored in the storage unit 80 of the electronic dictionary 1, and uses the strength of each word of the character string specified in the text ( That is, the case where the voice is output by changing the tone) has been described. That is, the case where the tone of the model audio data 30AM is changed has been described.

第2の実施形態では、ユーザが発声した音声を録音した録音データ6(図2参照)について、文字列の各単語に声調を表す識別表示を行ったり、各単語の声調を変更するように構成することについて説明する。すなわち、ユーザが発声した自分の音声の声調を変更する場合について説明する。   In the second embodiment, the recording data 6 (refer to FIG. 2) in which the voice uttered by the user is recorded, the identification display indicating the tone is performed on each word of the character string, and the tone of each word is changed. Explain what to do. That is, a case where the tone of his / her voice uttered by the user is changed will be described.

そして、この場合、ユーザは、例えば「How do you do?」と発声する際の声調を模範音声データ30AMすなわちネイティブの声調と比較してチェックしたり、或いは、どの単語の声調をどのように変更すればネイティブの声調に近づけることができるか等を学習することが可能となる。なお、以下の第2の実施形態において、上記の第1の実施形態と同じように機能したり同じ処理を行う場合には、第1の実施形態で用いたものと同じ符号や処理のステップ番号等を付して説明する。   In this case, for example, the user checks the tone at the time of uttering “How do you do?” By comparing it with the exemplary voice data 30AM, that is, the native tone, or changes the tone of which word. This makes it possible to learn whether it is possible to approximate the native tone. In the following second embodiment, when the same function or the same process as the first embodiment is performed, the same reference numerals and process step numbers as those used in the first embodiment are used. A description will be given with the above.

本実施形態では、ユーザは、第1の実施形態と同様に、図1に示したように英会話コンテンツの例えば「How do you do?」を開いた状態で「音声学習」アイコンIaをタッチペンや指等でタッチして選択する。そして、メインディスプレイ10上に表示されたテキストのうち、自分の発音をチェックしたり学習したりする範囲として、例えば図7(A)に示すように「How do you do?」の文字列を指定する(ステップS4)。電子辞書1のCPU20は、指定された文字列(この場合は「How do you do?」)を例えば緑の色でマーカ表示Mgして識別表示する。   In the present embodiment, as in the first embodiment, the user presses the “speech learning” icon Ia with a touch pen or finger while the English conversation content, for example, “How do you do?” Is open as shown in FIG. Touch to select. Then, a text string “How do you do?” Is designated as a range in which the pronunciation of the text displayed on the main display 10 is checked or learned, for example, as shown in FIG. (Step S4). The CPU 20 of the electronic dictionary 1 identifies and displays the designated character string (in this case, “How do you do?”) In, for example, a green color marker display Mg.

そして、この状態で、ユーザが電子辞書1に例えば第1の実施形態で説明した[声調識別表示出力処理]を実行させるために、「強弱表示」アイコンI3を2回連続してタッチして選択すると(ステップS12;YES)、CPU20は、「強弱表示」アイコンI3中の表示を「OFF」から「ON」に切り替えて(ステップS13)、図7(B)に示すように、指定されている文字列(この場合は「How do you do?」)の各単語の強弱を表す識別表示を行う(ステップS15)。   In this state, in order to cause the electronic dictionary 1 to execute, for example, the [tone identification display output process] described in the first embodiment, the user touches and selects the “strong display” icon I3 twice in succession. Then (step S12; YES), the CPU 20 switches the display in the “strong / weak display” icon I3 from “OFF” to “ON” (step S13), and is designated as shown in FIG. 7B. An identification display indicating the strength of each word of the character string (in this case, “How do you do?”) Is performed (step S15).

なお、第1の実施形態や本実施形態では、前述したように、強弱色設定データ6(図2参照)として、最も強く発音される単語を赤、中程度の強さで発音される単語を青、最も弱く発音される単語を黄で識別表示するためのデータが備えられているため、図7(B)に示すように、「How do you do?」の文字列のうち、「How」と最初の「do」が中程度の青Mb、「you」が最も弱い黄My、最後の「do」が最も強い赤Mrでマーカ表示される。しかし、第1の実施形態においても同様であるが、音の強弱をさらに細かく分類して識別表示するように構成することも可能である。   In the first embodiment and the present embodiment, as described above, as the strong and weak color setting data 6 (see FIG. 2), the most pronounced word is red, and the pronounced word is medium intensity. As shown in FIG. 7B, data for identifying and displaying the most weakly pronounced word in yellow is provided. As shown in FIG. 7B, “How” in the character string “How do you do?” The first “do” is displayed as a medium blue Mb, “you” is the weakest yellow My, and the last “do” is the strongest red Mr. However, the same applies to the first embodiment, but it is also possible to configure such that sound intensity is further finely classified and identified and displayed.

[録音処理]
一方、例えば図7(B)の状態で、本実施形態に係る録音学習を実行する場合、ユーザが自分が発声した音声を録音させるために「音声切替」アイコンI1をタッチして選択すると(ステップS6;YES)、前述したように、CPU20は、「音声」アイコンI2の枠内の表示を「比較」から「録音」に切り替える(図3のステップS7)。
[Recording process]
On the other hand, when recording learning according to the present embodiment is executed in the state of FIG. 7B, for example, when the user touches and selects the “voice switching” icon I1 in order to record the voice uttered by the user (step) As described above, the CPU 20 switches the display in the frame of the “voice” icon I2 from “comparison” to “recording” (step S7 in FIG. 3).

そして、この状態で、ユーザが「音声」アイコンI2をタッチして選択すると(ステップS8;YES)、CPU20は、上記のように「音声」アイコンI2の枠内の表示が「比較」ではなく(ステップS9:NO)、「録音」であるから、図5のステップS25以下の録音処理に進む。   In this state, when the user touches and selects the “voice” icon I2 (step S8; YES), the CPU 20 displays the “voice” icon I2 in the frame as described above instead of “comparison” ( Step S9: NO) Since “recording”, the process proceeds to the recording process of step S25 and subsequent steps in FIG.

録音処理では、CPU20は、例えば図7(A)や図7(B)に示したように、ユーザにより「How do you do?」の文字列が指定されている場合には、図7(C)に示すように、この指定された文字列「How do you do?」をメインディスプレイ10上に2段表示する(ステップS25)。   In the recording process, for example, as shown in FIGS. 7A and 7B, the CPU 20 determines that the character string “How do you do?” Is designated by the user as shown in FIG. ), The designated character string “How do you do?” Is displayed in two stages on the main display 10 (step S25).

そして、CPU20は、図7(C)に示すように、2段表示した文字列のうち、上側の文字列の横に「模範音声」と表示し、下側の文字列の横に「録音音声」と表示する(ステップS26)。   Then, as shown in FIG. 7C, the CPU 20 displays “exemplary voice” beside the upper character string, and “recorded voice” beside the lower character string. Is displayed (step S26).

そして、CPU20は、音声入出力部70(図2参照)を制御してマイク13を起動させるとともに、例えばメインディスプレイ10上に「録音できます」等の表示を行ったり「録音音声」の表示を点滅させる等して、ユーザに指定した文字列を発声させるように促す。そして、ユーザが発声した音声を録音し(ステップS27)、録音したユーザ音声を録音データ6として記憶部80に記憶して登録する。すなわち、CPU20は、本発明に係るユーザ音声登録手段として機能するようになっている。   Then, the CPU 20 controls the voice input / output unit 70 (see FIG. 2) to activate the microphone 13 and displays, for example, “Recording is possible” on the main display 10 or displays “Recorded voice”. The user is prompted to utter a specified character string by blinking or the like. Then, the voice uttered by the user is recorded (step S27), and the recorded user voice is stored as recording data 6 in the storage unit 80 and registered. That is, the CPU 20 functions as user voice registration means according to the present invention.

その際、例えば、2段表示した下側の文字列の横に表示する「模範音声」の表示を、録音前は白地に所定の色で表示し、録音後は所定の色の地に白抜きで表示するように切り替える等することで、ユーザに録音が完了したことを知らせるように構成することも可能である。   In this case, for example, the “speech voice” display displayed next to the lower character string displayed in two rows is displayed in a predetermined color on a white background before recording, and is white on a background of the predetermined color after recording. It is also possible to configure so that the user is notified that the recording has been completed, for example, by switching the display so as to be displayed.

また、本実施形態では、CPU20は、このようにしてユーザの音声の録音が完了すると、指定された文字列の模範音声データ30AMを読み出して音声出力する(ステップS28)。そして、それに続けて、録音した録音データ6を再生して、録音したユーザの音声を音声出力するようになっている(ステップS29)。   In the present embodiment, when the recording of the user's voice is completed in this way, the CPU 20 reads out the model voice data 30AM of the designated character string and outputs the voice (step S28). Subsequently, the recorded recording data 6 is reproduced, and the recorded user's voice is output as a voice (step S29).

[強弱表示や強弱変更等について]
そして、前述した声調識別表示制御手段や声調変更手段、声調変更音声出力制御手段としてのCPU20は、第1の実施形態で説明した、文字列(テキスト)に対するユーザの操作に応じて、模範音声データ30AMに対して行うことができる処理と同様の処理を、ユーザの音声の録音データ6に対しても行うことができるようになっている。
[About strength display and strength change]
Then, the CPU 20 as the above-described tone identification display control means, tone change means, and tone change voice output control means performs model voice data according to the user's operation on the character string (text) described in the first embodiment. A process similar to the process that can be performed on 30AM can be performed on the recording data 6 of the user's voice.

具体的には、すなわち、例えば図7(C)に示した状態で、ユーザが2段表示の下側の「録音音声」の方の文字列「How do you do?」をタッチペンでなぞる等して指定すると、電子辞書1のCPU20は、図示を省略するが、例えばその範囲を緑等の特定の色でマーカ表示する。そして、その状態でユーザにより「強弱表示」アイコンI3が選択されると(ステップS14;YES)、CPU20は、指定されている文字列「How do you do?」を各単語に分け、各単語の強弱を分析して、例えば図7(D)に示すように、指定されている文字列の各単語の強弱を例えば赤、青、黄等でマーカ表示する等して識別表示を行う(ステップS15)。すなわち、CPU20は、本発明に係る、登録されたユーザ音声に基づいてテキスト中の各単語に声調を付して当該声調を表す識別表示を行うように制御するユーザ声調識別表示制御手段として機能するようになっている。   Specifically, for example, in the state shown in FIG. 7C, the user traces the character string “How do you do?” Of the “recorded voice” on the lower side of the two-stage display with a touch pen. The CPU 20 of the electronic dictionary 1 displays the marker in a specific color such as green, for example, although illustration is omitted. In this state, when the “strong / weak display” icon I3 is selected by the user (step S14; YES), the CPU 20 divides the designated character string “How do you do?” Into each word, As shown in FIG. 7D, for example, as shown in FIG. 7D, the strength of each word in the designated character string is displayed as a marker with, for example, red, blue, yellow, etc., and identification display is performed (step S15). ). That is, the CPU 20 functions as a user tone identification display control unit that performs control so that a tone is given to each word in the text based on the registered user voice and an identification display that represents the tone is performed according to the present invention. It is like that.

なお、「強弱表示」アイコンI3中の表示が「OFF」になっている場合は、ユーザは「強弱表示」アイコンI3を連続して選択すれば(ステップS12;YES)、「強弱表示」アイコンI3中の表示を「ON」に切り替えることができる(ステップS13)ことは、第1の実施形態で説明した通りである。また、図7(C)に示したように、2段表示の上側の「模範音声」の方で既に文字列の範囲が「How do you do?」に指定されている場合には、2段表示の下側の「録音音声」の方の文字列で範囲を指定しなくても、自動的に上側の「模範音声」の方の文字列と同じ範囲を指定して識別表示を行うように構成することも可能である。   In addition, when the display in the “strong display” icon I3 is “OFF”, if the user continuously selects the “strong display” icon I3 (step S12; YES), the “strong display” icon I3 is displayed. The display inside can be switched to “ON” (step S13) as described in the first embodiment. Further, as shown in FIG. 7C, when the range of the character string is already designated as “How do you do?” In the “model voice” on the upper side of the two-level display, the two-level Even if you do not specify the range for the “recording voice” character string at the bottom of the display, the same range as the character string for the “model voice” at the top is automatically specified to perform identification display. It is also possible to configure.

そして、ユーザは、例えば図7(D)に示されている、メインディスプレイ10上の「模範音声」における文字列の各単語の強弱の識別表示と、自分が発声した音声を録音した「録音音声」における文字列の各単語の強弱の識別表示と見比べることで、自分の発音の声調すなわちこの場合は強弱が模範音声とどのように違っているかを視覚的に認識することが可能となる。   Then, for example, as shown in FIG. 7 (D), the user identifies and displays the strength of each word of the character string in the “model voice” on the main display 10 and “recorded voice” that records the voice uttered by the user. By comparing with the strength identification display of each word in the character string, it is possible to visually recognize the tone of his pronunciation, that is, how the strength is different from the model voice in this case.

すなわち、図7(D)の場合は、「模範音声」では文字列「How do you do?」のうち最後の「do」が最も強く発音されているが、自分の発音では「How」が最も強く発音されてしまっていることを、識別表示を見比べることで的確に認識することが可能となる。そして、その際、識別表示を上記のように赤、青、黄等で色分けしてマーカ表示して行うことで、視覚的に容易かつ的確に識別表示の違いを認識することが可能となる。   That is, in the case of FIG. 7D, in the “model voice”, the last “do” in the character string “How do you do?” Is pronounced most strongly, but “How” is the most pronounced in my pronunciation. It is possible to accurately recognize that the pronunciation is strong by comparing the identification display. At that time, the identification display is color-coded in red, blue, yellow, etc. as described above and displayed as a marker, so that the difference in the identification display can be recognized visually and easily.

また、ユーザは、「模範音声」と「録音音声」との違いを聞き比べたい場合には、前述したように、例えば図7(D)に示した状態で、「強弱反映」アイコンI4をタッチして選択し(ステップS18;YES)、或いは、図7(D)に示すように「強弱反映」アイコンI4中の表示が「OFF」になっている場合には「強弱反映」アイコンI4を連続してタッチして選択して(ステップS16;YES)「強弱反映」アイコンI4中の表示を「ON」に切り替える(ステップS17)。   Further, when the user wants to compare the difference between the “model voice” and the “recorded voice”, as described above, for example, in the state shown in FIG. (Step S18; YES), or when the display in the “dynamic reflection” icon I4 is “OFF” as shown in FIG. 7D, the “dynamic reflection” icon I4 is continuously displayed. Then, the display is touched and selected (step S16; YES), and the display in the “strong reflection” icon I4 is switched to “ON” (step S17).

このように操作することで、「模範音声」と「録音音声」の各単語の強弱がそれぞれ反映された状態でそれぞれ音声出力されるため(ステップS19)、それらを聞き比べることができる。そのため、このようにして、ユーザは「模範音声」と「録音音声」との違いを聴覚的に容易かつ的確に認識することが可能となる。   By operating in this way, the voices are output in a state where the strength of each word of “model voice” and “recorded voice” is reflected (step S19), so that they can be compared. Therefore, in this way, the user can easily and accurately recognize the difference between the “model voice” and the “recorded voice”.

一方、ユーザは、自分が発声した「録音音声」を「模範音声」に近づけるように、文字列の各単語の強弱を変更することも可能である。すなわち、CPU20は、本発明に係るユーザ声調変更手段として機能するようになっている。すなわち、ユーザは、例えば図7(D)に示した状態で「強弱変更」アイコンI5をタッチして選択し(ステップS20;YES)、自分が発声した「録音音声」の文字列「How do you do?」の各単語に対して図6(C)に示した操作と同様の操作を行うことで、図8に示すように、「録音音声」の各単語の声調(すなわちこの場合は強弱)を「模範音声」の各単語の声調(強弱)にあわせるように変更する(ステップS21、S22)。   On the other hand, the user can change the strength of each word in the character string so that the “recorded voice” uttered by the user is closer to the “model voice”. That is, the CPU 20 functions as user tone change means according to the present invention. That is, for example, the user touches and selects the “change strength” icon I5 in the state shown in FIG. 7D (step S20; YES), and the character string “How do you” of the “recorded voice” uttered by himself / herself. By performing the same operation as that shown in FIG. 6C on each word “do?”, the tone of each word “recorded speech” (ie, strength in this case) as shown in FIG. Is changed to match the tone (strength) of each word of “model voice” (steps S21 and S22).

また、CPU20は、本発明に係るユーザ声調変更音声出力制御手段としても機能するようになっており、上記のように変更した単語の声調に従って、ユーザ音声の声調を変更して出力するようになっている。そして、ユーザが上記と同様に「強弱反映」アイコンI4をタッチする等の操作を行って声調(強弱)を変更した「録音音声」を音声出力させ、「模範音声」とを聞き比べることで、自分が発音する際に、どの単語をどのように強く発音すればよいかを聴覚的に学習することが可能となる。   The CPU 20 also functions as a user tone change voice output control means according to the present invention, and changes and outputs the tone of the user voice according to the tone of the word changed as described above. ing. Then, by performing an operation such as the user touching the “Reflect strength” icon I4 in the same manner as described above, the “recorded voice” whose tone (dynamic strength) has been changed is output as a voice, and the “model voice” is compared and compared. It becomes possible to learn audibly which word should be pronounced strongly when you pronounce it.

[効果]
以上のように、本実施形態に係る電子辞書1(音声出力装置)や音声出力プログラムによれば、ネイティブの発音を録音した録音音声と、ユーザが発声した音声を録音して録音音声とを聞き比べたり、録音音声の声調(強弱)を模範音声の声調(強弱)にあわせて変更したり、或いは録音音声と模範音声の声調(強弱)をそれぞれ変更して発音させることで、正しい発音を容易かつ的確に学習することが可能となる。
[effect]
As described above, according to the electronic dictionary 1 (sound output device) and the sound output program according to the present embodiment, the recorded sound in which native pronunciation is recorded and the sound uttered by the user are recorded and the recorded sound is heard. Compare, change the tone of the recorded voice (strength) to match the tone of the model voice (strength), or change the tone of the recorded voice and model voice (strength) to make it sound correctly It becomes possible to learn accurately and accurately.

なお、本実施形態のように、メインディスプレイ10上に、模範音声(模範音声データ30AM)に対応する文字列(テキスト)と、録音音声(録音データ6)に対応する文字列(テキスト)とを2段表示することで、上記のように、模範音声と録音音声に対してユーザがそれぞれ独立に操作を行ったり、CPU20がそれぞれ独立に処理を行うことが容易になるといったメリットがある。   As in this embodiment, a character string (text) corresponding to the model voice (model voice data 30AM) and a character string (text) corresponding to the recorded voice (recorded data 6) are displayed on the main display 10. The two-stage display has an advantage that the user can operate the model voice and the recorded voice independently as described above, and the CPU 20 can easily perform the processing independently.

また、上記のように、ユーザが発声した音声の録音音声のみについて各単語の声調(強弱)を変更するだけでなく、例えば上記の第1の実施形態と第2の実施形態とを組み合わせて、録音音声と同時に、模範音声についても文字列の各単語の声調を変更させて、それぞれ各単語の声調が変更された音声を出力させて聞き比べるように構成することも可能である。   Further, as described above, not only the tone (strength) of each word is changed only for the recording voice of the voice uttered by the user, but for example, the first embodiment and the second embodiment described above are combined, Simultaneously with the recorded voice, it is also possible to change the tone of each word of the character string with respect to the model voice, and output the voice in which the tone of each word has been changed to compare them.

すなわち、例えば図8に示した状態で、「強弱変更」アイコンI5をタッチして選択し(ステップS20;YES)、「模範音声」と「録音音声」の両方の文字列の各単語の強弱を同じように変更することで、「模範音声」と「録音音声」の両方の各単語の声調(すなわちこの場合は強弱)を変更する(ステップS21、S22)。そして、「強弱反映」アイコンI4をタッチする等の操作を行って、声調(強弱)を変更した「模範音声」と「録音音声」とを聞くことで、ニュアンスを変えて発音する際に、どの単語をどのように強く発音すればよいかを聴覚的に学習することが可能となる。   That is, for example, in the state shown in FIG. 8, the “strength change” icon I5 is selected by touching (step S20; YES), and the strength of each word in both the “exemplary voice” and “recorded voice” character strings is determined. By changing in the same way, the tone (that is, strength in this case) of each word of both “exemplary voice” and “recorded voice” is changed (steps S21 and S22). Then, by touching the “Reflect strength” icon I4, etc. and listening to the “model voice” and “recorded voice” with the changed tone (strength), which one is used when changing the nuance, It becomes possible to learn aurally how to pronounce a word strongly.

なお、本発明を適用可能な実施形態は、上述した実施形態や変形例に限定されることなく、本発明の趣旨を逸脱しない範囲で適宜変更可能である。   The embodiments to which the present invention can be applied are not limited to the above-described embodiments and modifications, and can be appropriately changed without departing from the spirit of the present invention.

例えば、本発明に係る音声出力装置を電子辞書1として説明したが、本発明が適用可能なものは、このような製品に限定されず、図示を省略するが、例えばデスクトップ型やタブレット型のパソコン、ノートパソコン、携帯電話、スマートフォン、PDA(Personal digital Assistant)、ゲーム機等の電子機器全般に適用することが可能である。また、本発明に係る音声録音再生プログラム81は、電子辞書1に対して着脱可能なメモリカード、CD等に記憶されることとしてもよい。   For example, although the voice output device according to the present invention has been described as the electronic dictionary 1, those to which the present invention can be applied are not limited to such products, and are not shown in the figure. For example, a desktop or tablet personal computer It can be applied to electronic devices such as notebook computers, mobile phones, smartphones, PDAs (Personal Digital Assistants), and game machines. Further, the audio recording / playback program 81 according to the present invention may be stored in a memory card, CD, or the like that can be attached to and detached from the electronic dictionary 1.

また、上記の第1、第2の実施形態では、図2に示したように、少なくとも英会話コンテンツ30Aすなわちテキストデータ30ATや模範音声データ30AMが予め対応付けられて音声出力装置(例えば電子辞書1)の記憶部80(音声データ記憶手段)に記憶されている場合について説明した。しかし、例えば図6(D)に示すように、ネットワーク等を介して音声出力装置1と外部装置Gとを有線や無線で接続して、音声出力装置1のCPU20が、英会話コンテンツ30Aを外部装置Gから取得したり、或いは、予め音声出力装置1に英会話コンテンツ30Aのテキストデータ30ATのみを記憶させておき、外部装置Gからテキストデータ30ATに対応する模範音声データ30AMを取得するように構成することも可能である。   In the first and second embodiments described above, as shown in FIG. 2, at least the English conversation content 30A, that is, the text data 30AT and the model voice data 30AM are associated in advance with the voice output device (for example, the electronic dictionary 1). The case where the data is stored in the storage unit 80 (voice data storage means) has been described. However, as shown in FIG. 6D, for example, the audio output device 1 and the external device G are connected by wire or wireless via a network or the like, and the CPU 20 of the audio output device 1 transfers the English conversation content 30A to the external device. Or the voice output device 1 stores only the text data 30AT of the English conversation content 30A in advance, and the model voice data 30AM corresponding to the text data 30AT is acquired from the external device G. Is also possible.

このように構成する場合、音声出力装置1のCPU20が音声データ取得手段として機能することになる。そして、このように構成することで、音声出力装置1の記憶部80として記憶容量がより少ないメモリ等を用いることが可能となり、音声出力装置1をより安価に製造することが可能となる等のメリットがある。   In such a configuration, the CPU 20 of the audio output device 1 functions as an audio data acquisition unit. With this configuration, it is possible to use a memory or the like having a smaller storage capacity as the storage unit 80 of the audio output device 1, and the audio output device 1 can be manufactured at a lower cost. There are benefits.

以上、本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
テキストに対応付けて音声データが記憶されている音声データ記憶手段と、
前記テキストを表示する表示手段と、
前記音声データ記憶手段に記憶された音声データに基づいて、前記テキスト中の各単語に声調を付して当該声調を表す識別表示を行うように制御する声調識別表示制御手段と、
前記声調識別表示手段により識別表示されたいずれかの単語の声調をユーザの操作により変更する声調変更手段と、
前記声調変更手段により変更された前記単語の声調に従って、前記テキストの音声データの声調を変更して出力するように制御する声調変更音声出力制御手段と、
を備えることを特徴とする音声出力装置。
<請求項2>
前記表示手段により表示されたテキストに対応づけてユーザ音声を登録するユーザ音声登録手段と、
前記ユーザ音声登録手段により登録されたユーザ音声に基づいて、前記テキスト中の各単語に声調を付して当該声調を表す識別表示を行うように制御するユーザ声調識別表示制御手段と、
を備えることを特徴とする請求項1に記載の音声出力装置。
<請求項3>
前記ユーザ声調識別表示制御手段は、
前記声調識別表示制御手段による前記テキスト中の各単語の声調を表す識別表示を行う表示と、対応する位置に前記テキスト中の各単語のユーザ音声による声調を表す識別表示を行うことを特徴とする請求項1又は2に記載の音声出力装置。
<請求項4>
前記ユーザ声調識別表示手段により識別表示されたいずれかの単語の声調をユーザの操作により変更するユーザ声調変更手段と、
前記ユーザ声調変更手段により変更された前記単語の声調に従って、前記ユーザ音声登録手段により登録されたユーザ音声の声調を変更して出力するように制御するユーザ声調変更音声出力制御手段と、
を備えることを特徴とする請求項1から請求項3のいずれか一項に記載の音声出力装置。
<請求項5>
模範音声データ、又はテキストと対応する音声データとを取得する音声データ取得手段と、
前記テキストを表示する表示手段と、
前記音声データに基づいて、前記テキスト中の各単語に声調を付して当該声調を表す識別表示を行うように制御する声調識別表示制御手段と、
前記声調識別表示手段により識別表示されたいずれかの単語の声調をユーザの操作により変更する声調変更手段と、
前記声調変更手段により変更された前記単語の声調に従って、前記テキストの音声データの声調を変更して出力するように制御する声調変更音声出力制御手段と、
を備えることを特徴とする音声出力装置。
<請求項6>
前記声調識別表示制御手段は、前記文字列の各単語に、当該単語の声調に応じて色分けしたマーカ表示を行うことにより前記声調を表す識別表示を行い、
前記声調変更手段は、ユーザが前記単語ごとに前記マーカ表示の色を変更する操作に応じて、識別表示された前記単語の声調を変更することを特徴とする請求項1から請求項5のいずれか一項記載の音声出力装置。
<請求項7>
テキストデータに対応付けて音声データが記憶されている音声データ記憶手段を備えるコンピュータに、
前記テキストを表示する制御を行う表示制御機能と、
前記音声データに基づいて、前記テキスト中の各単語に声調を付して当該声調を表す識別表示を行うように制御を行う声調識別表示制御機能と、
識別表示されたいずれかの単語の声調をユーザの操作により変更する声調変更機能と、
変更された前記単語の声調に従って、前記テキストの模範音声データの声調を変更して出力するように制御を行う声調変更音声出力制御機能と、
を実現させることを特徴とする音声出力プログラム。
<請求項8>
コンピュータに、
音声データ、又はテキストと対応する音声データとを取得する音声データ取得機能と、
前記テキストを表示する制御を行う表示制御手段と、
前記音声データに基づいて、テキスト中に指定された文字列の各単語に声調を付して当該声調を表す識別表示を行うように制御を行う声調識別表示制御機能と、
識別表示されたいずれかの単語の声調をユーザの操作により変更する声調変更機能と、
変更された前記単語の声調に従って、前記テキストの模範音声データの声調を変更して出力するように制御する声調変更音声出力制御機能と、
を実現させることを特徴とする音声出力プログラム。
As mentioned above, although several embodiment of this invention was described, the scope of the present invention is not limited to the above-mentioned embodiment, The range of the invention described in the claim, and its equivalent range Including.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
Voice data storage means for storing voice data in association with text;
Display means for displaying the text;
Based on the voice data stored in the voice data storage means, a tone identification display control means for controlling to add a tone to each word in the text and to perform an identification display representing the tone;
Tone change means for changing the tone of any word identified and displayed by the tone identification display means by a user operation;
Tone change voice output control means for controlling to change the tone of the voice data of the text according to the tone of the word changed by the tone change means;
An audio output device comprising:
<Claim 2>
User voice registration means for registering user voice in association with the text displayed by the display means;
User voice tone identification display control means for controlling to add a tone to each word in the text based on the user voice registered by the user voice registration means, and to perform an identification display representing the tone;
The audio output device according to claim 1, further comprising:
<Claim 3>
The user tone identification display control means includes:
A display for performing identification display indicating the tone of each word in the text by the tone identification display control means, and an identification display for expressing the tone of the word in each text in the text by the user voice are performed. The audio output device according to claim 1 or 2.
<Claim 4>
User tone change means for changing the tone of any word identified and displayed by the user tone identification display means by a user operation;
User tone change voice output control means for controlling to change and output the tone of the user voice registered by the user voice registration means according to the tone of the word changed by the user tone change means;
The audio output device according to any one of claims 1 to 3, further comprising:
<Claim 5>
Voice data acquisition means for acquiring model voice data or voice data corresponding to text;
Display means for displaying the text;
Based on the voice data, tone identification display control means for controlling each word in the text to give a tone and to perform identification display representing the tone;
Tone change means for changing the tone of any word identified and displayed by the tone identification display means by a user operation;
Tone change voice output control means for controlling to change the tone of the voice data of the text according to the tone of the word changed by the tone change means;
An audio output device comprising:
<Claim 6>
The tone identification display control means performs an identification display representing the tone by performing marker display color-coded according to the tone of the word on each word of the character string,
The said tone change means changes the tone of the said identified and displayed word according to operation which a user changes the color of the said marker display for every said word, The any of Claim 1 to 5 characterized by the above-mentioned. The audio output device according to claim 1.
<Claim 7>
In a computer provided with voice data storage means in which voice data is stored in association with text data,
A display control function for controlling the display of the text;
Based on the voice data, a tone identification display control function for performing control to attach a tone to each word in the text and perform an identification display representing the tone;
A tone change function for changing the tone of any of the identified words by a user operation,
According to the changed tone of the word, a tone change voice output control function for performing control to change and output the tone of the exemplary voice data of the text;
An audio output program characterized by realizing the above.
<Claim 8>
On the computer,
An audio data acquisition function for acquiring audio data or audio data corresponding to text;
Display control means for performing control to display the text;
Based on the voice data, a tone identification display control function for performing control to attach a tone to each word of a character string specified in the text and perform an identification display representing the tone;
A tone change function for changing the tone of any of the identified words by a user operation,
A tone change voice output control function for controlling to change and output the tone of the exemplary voice data of the text according to the changed tone of the word;
An audio output program characterized by realizing the above.

1 電子辞書(音声出力装置)
6 録音データ
10 メインディスプレイ(表示手段)
20 CPU(声調識別表示制御手段、声調変更手段、声調変更音声出力制御手段、ユーザ声調識別表示制御手段、ユーザ声調変更手段、ユーザ声調変更音声出力制御手段、音声データ取得手段)
21 表示部(表示手段)
30AM 模範音声データ
30AT テキストデータ
80 記憶部(音声データ記憶手段、ユーザ音声登録手段)
81 音声録音再生プログラム(音声出力プログラム)
1 Electronic dictionary (voice output device)
6 Recorded data 10 Main display (display means)
20 CPU (tone tone identification display control means, tone change means, tone change voice output control means, user tone identification display control means, user tone change display means, user tone change voice output control means, voice data acquisition means)
21 Display section (display means)
30AM model voice data 30AT text data 80 storage unit (voice data storage means, user voice registration means)
81 Voice recording and playback program (voice output program)

Claims (8)

テキストに対応付けて音声データが記憶されている音声データ記憶手段と、
前記テキストを表示する表示手段と、
前記音声データ記憶手段に記憶された音声データに基づいて、前記テキスト中の各単語に声調を付して当該声調を表す識別表示を行うように制御する声調識別表示制御手段と、
前記声調識別表示手段により識別表示されたいずれかの単語の声調をユーザの操作により変更する声調変更手段と、
前記声調変更手段により変更された前記単語の声調に従って、前記テキストの音声データの声調を変更して出力するように制御する声調変更音声出力制御手段と、
を備えることを特徴とする音声出力装置。
Voice data storage means for storing voice data in association with text;
Display means for displaying the text;
Based on the voice data stored in the voice data storage means, a tone identification display control means for controlling to add a tone to each word in the text and to perform an identification display representing the tone;
Tone change means for changing the tone of any word identified and displayed by the tone identification display means by a user operation;
Tone change voice output control means for controlling to change the tone of the voice data of the text according to the tone of the word changed by the tone change means;
An audio output device comprising:
前記表示手段により表示されたテキストに対応づけてユーザ音声を登録するユーザ音声登録手段と、
前記ユーザ音声登録手段により登録されたユーザ音声に基づいて、前記テキスト中の各単語に声調を付して当該声調を表す識別表示を行うように制御するユーザ声調識別表示制御手段と、
を備えることを特徴とする請求項1に記載の音声出力装置。
User voice registration means for registering user voice in association with the text displayed by the display means;
User voice tone identification display control means for controlling to add a tone to each word in the text based on the user voice registered by the user voice registration means, and to perform an identification display representing the tone;
The audio output device according to claim 1, further comprising:
前記ユーザ声調識別表示制御手段は、
前記声調識別表示制御手段による前記テキスト中の各単語の声調を表す識別表示を行う表示と、対応する位置に前記テキスト中の各単語のユーザ音声による声調を表す識別表示を行うことを特徴とする請求項1又は2に記載の音声出力装置。
The user tone identification display control means includes:
A display for performing identification display indicating the tone of each word in the text by the tone identification display control means, and an identification display for expressing the tone of the word in each text in the text by the user voice are performed. The audio output device according to claim 1 or 2.
前記ユーザ声調識別表示手段により識別表示されたいずれかの単語の声調をユーザの操作により変更するユーザ声調変更手段と、
前記ユーザ声調変更手段により変更された前記単語の声調に従って、前記ユーザ音声登録手段により登録されたユーザ音声の声調を変更して出力するように制御するユーザ声調変更音声出力制御手段と、
を備えることを特徴とする請求項1から請求項3のいずれか一項に記載の音声出力装置。
User tone change means for changing the tone of any word identified and displayed by the user tone identification display means by a user operation;
User tone change voice output control means for controlling to change and output the tone of the user voice registered by the user voice registration means according to the tone of the word changed by the user tone change means;
The audio output device according to any one of claims 1 to 3, further comprising:
模範音声データ、又はテキストと対応する音声データとを取得する音声データ取得手段と、
前記テキストを表示する表示手段と、
前記音声データに基づいて、前記テキスト中の各単語に声調を付して当該声調を表す識別表示を行うように制御する声調識別表示制御手段と、
前記声調識別表示手段により識別表示されたいずれかの単語の声調をユーザの操作により変更する声調変更手段と、
前記声調変更手段により変更された前記単語の声調に従って、前記テキストの音声データの声調を変更して出力するように制御する声調変更音声出力制御手段と、
を備えることを特徴とする音声出力装置。
Voice data acquisition means for acquiring model voice data or voice data corresponding to text;
Display means for displaying the text;
Based on the voice data, tone identification display control means for controlling each word in the text to give a tone and to perform identification display representing the tone;
Tone change means for changing the tone of any word identified and displayed by the tone identification display means by a user operation;
Tone change voice output control means for controlling to change the tone of the voice data of the text according to the tone of the word changed by the tone change means;
An audio output device comprising:
前記声調識別表示制御手段は、前記文字列の各単語に、当該単語の声調に応じて色分けしたマーカ表示を行うことにより前記声調を表す識別表示を行い、
前記声調変更手段は、ユーザが前記単語ごとに前記マーカ表示の色を変更する操作に応じて、識別表示された前記単語の声調を変更することを特徴とする請求項1から請求項5のいずれか一項記載の音声出力装置。
The tone identification display control means performs an identification display representing the tone by performing marker display color-coded according to the tone of the word on each word of the character string,
The said tone change means changes the tone of the said identified and displayed word according to operation which a user changes the color of the said marker display for every said word, The any of Claim 1 to 5 characterized by the above-mentioned. The audio output device according to claim 1.
テキストに対応付けて音声データが記憶されている音声データ記憶手段を備えるコンピュータに、
前記テキストを表示する制御を行う表示制御機能と、
前記音声データに基づいて、前記テキスト中の各単語に声調を付して当該声調を表す識別表示を行うように制御を行う声調識別表示制御機能と、
識別表示されたいずれかの単語の声調をユーザの操作により変更する声調変更機能と、
変更された前記単語の声調に従って、前記テキストの模範音声データの声調を変更して出力するように制御を行う声調変更音声出力制御機能と、
を実現させることを特徴とする音声出力プログラム。
In a computer provided with voice data storage means in which voice data is stored in association with text,
A display control function for controlling the display of the text;
Based on the voice data, a tone identification display control function for performing control to attach a tone to each word in the text and perform an identification display representing the tone;
A tone change function for changing the tone of any of the identified words by a user operation,
According to the changed tone of the word, a tone change voice output control function for performing control to change and output the tone of the exemplary voice data of the text;
An audio output program characterized by realizing the above.
コンピュータに、
音声データ、又はテキストと対応する音声データとを取得する音声データ取得機能と、
前記テキストを表示する制御を行う表示制御手段と、
前記音声データに基づいて、テキスト中に指定された文字列の各単語に声調を付して当該声調を表す識別表示を行うように制御を行う声調識別表示制御機能と、
識別表示されたいずれかの単語の声調をユーザの操作により変更する声調変更機能と、
変更された前記単語の声調に従って、前記テキストの模範音声データの声調を変更して出力するように制御する声調変更音声出力制御機能と、
を実現させることを特徴とする音声出力プログラム。
On the computer,
An audio data acquisition function for acquiring audio data or audio data corresponding to text;
Display control means for performing control to display the text;
Based on the voice data, a tone identification display control function for performing control to attach a tone to each word of a character string specified in the text and perform an identification display representing the tone;
A tone change function for changing the tone of any of the identified words by a user operation,
A tone change voice output control function for controlling to change and output the tone of the exemplary voice data of the text according to the changed tone of the word;
An audio output program characterized by realizing the above.
JP2013268180A 2013-12-26 2013-12-26 Sound output device and sound output program Pending JP2015125203A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013268180A JP2015125203A (en) 2013-12-26 2013-12-26 Sound output device and sound output program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013268180A JP2015125203A (en) 2013-12-26 2013-12-26 Sound output device and sound output program

Publications (1)

Publication Number Publication Date
JP2015125203A true JP2015125203A (en) 2015-07-06

Family

ID=53535963

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013268180A Pending JP2015125203A (en) 2013-12-26 2013-12-26 Sound output device and sound output program

Country Status (1)

Country Link
JP (1) JP2015125203A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102105699B1 (en) * 2020-01-20 2020-04-28 김대혁 Mask type Moisture Pack

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6175373A (en) * 1984-09-21 1986-04-17 富士通株式会社 Enunciation training apparatus
JPH0628898U (en) * 1992-09-10 1994-04-15 日本電信電話株式会社 Voice message editing device
JPH08328590A (en) * 1995-05-29 1996-12-13 Sanyo Electric Co Ltd Voice synthesizer
JP2002091472A (en) * 2000-09-19 2002-03-27 Nippon Hoso Kyokai <Nhk> Rhythm display device, and reproducing device and similarity judging device for voice language and voice language processor and recording medium
JP2003162291A (en) * 2001-11-22 2003-06-06 Ricoh Co Ltd Language learning device
JP2005345699A (en) * 2004-06-02 2005-12-15 Toshiba Corp Device, method, and program for speech editing
JP2007206317A (en) * 2006-02-01 2007-08-16 Yamaha Corp Authoring method and apparatus, and program
JP2010262090A (en) * 2009-05-01 2010-11-18 Nintendo Co Ltd Learning support program and learning support device
JP2010271615A (en) * 2009-05-25 2010-12-02 Nintendo Co Ltd Program and device for evaluating pronunciation
JP2011203422A (en) * 2010-03-25 2011-10-13 Panasonic Corp Recording and reproducing device
JP2011209471A (en) * 2010-03-29 2011-10-20 Escor:Kk Method and device for training speech of aphasic person

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6175373A (en) * 1984-09-21 1986-04-17 富士通株式会社 Enunciation training apparatus
JPH0628898U (en) * 1992-09-10 1994-04-15 日本電信電話株式会社 Voice message editing device
JPH08328590A (en) * 1995-05-29 1996-12-13 Sanyo Electric Co Ltd Voice synthesizer
US5842167A (en) * 1995-05-29 1998-11-24 Sanyo Electric Co. Ltd. Speech synthesis apparatus with output editing
JP2002091472A (en) * 2000-09-19 2002-03-27 Nippon Hoso Kyokai <Nhk> Rhythm display device, and reproducing device and similarity judging device for voice language and voice language processor and recording medium
JP2003162291A (en) * 2001-11-22 2003-06-06 Ricoh Co Ltd Language learning device
JP2005345699A (en) * 2004-06-02 2005-12-15 Toshiba Corp Device, method, and program for speech editing
JP2007206317A (en) * 2006-02-01 2007-08-16 Yamaha Corp Authoring method and apparatus, and program
JP2010262090A (en) * 2009-05-01 2010-11-18 Nintendo Co Ltd Learning support program and learning support device
JP2010271615A (en) * 2009-05-25 2010-12-02 Nintendo Co Ltd Program and device for evaluating pronunciation
JP2011203422A (en) * 2010-03-25 2011-10-13 Panasonic Corp Recording and reproducing device
JP2011209471A (en) * 2010-03-29 2011-10-20 Escor:Kk Method and device for training speech of aphasic person

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102105699B1 (en) * 2020-01-20 2020-04-28 김대혁 Mask type Moisture Pack

Similar Documents

Publication Publication Date Title
KR100996212B1 (en) Methods, systems, and programming for performing speech recognition
JP5756555B1 (en) Utterance evaluation apparatus, utterance evaluation method, and program
JP6535998B2 (en) Voice learning device and control program
US20160139877A1 (en) Voice-controlled display device and method of voice control of display device
JP2006234907A (en) Voice recognition method
KR101819459B1 (en) Voice recognition system and apparatus supporting voice recognition error correction
KR101789057B1 (en) Automatic audio book system for blind people and operation method thereof
JP2015036788A (en) Pronunciation learning device for foreign language
JP6613560B2 (en) Electronic device, learning support method and program
JP6166831B1 (en) Word learning support device, word learning support program, and word learning support method
JP6841309B2 (en) Electronics and programs
KR20170009486A (en) Database generating method for chunk-based language learning and electronic device performing the same
JP6641680B2 (en) Audio output device, audio output program, and audio output method
JP2015125203A (en) Sound output device and sound output program
KR20140078810A (en) Apparatus and method for learning rhythm pattern by using native speaker&#39;s pronunciation data and language data.
JP6710893B2 (en) Electronics and programs
KR100937573B1 (en) Device for studying a language and drive method of the same
JP6746886B2 (en) Learning support device and program for the learning support device
KR20140107067A (en) Apparatus and method for learning word by using native speakerpronunciation data and image data
JP6413216B2 (en) Electronic device, audio output recording method and program
KR20180006728A (en) Electronic device for control of displaying caption
TWI752437B (en) At least two phoneme-based voice input operation method and computer program product
KR20140074459A (en) Apparatus and method for learning word by using native speaker&#39;s pronunciation data and syllable of a word and image data
KR20140087950A (en) Apparatus and method for learning rhythm pattern by using native speaker&#39;s pronunciation data and language data.
JP2019040194A (en) Electronic apparatus, speech output recording method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180104

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180626