JP2021043306A - Electronic apparatus, sound reproduction method, and program - Google Patents

Electronic apparatus, sound reproduction method, and program Download PDF

Info

Publication number
JP2021043306A
JP2021043306A JP2019164749A JP2019164749A JP2021043306A JP 2021043306 A JP2021043306 A JP 2021043306A JP 2019164749 A JP2019164749 A JP 2019164749A JP 2019164749 A JP2019164749 A JP 2019164749A JP 2021043306 A JP2021043306 A JP 2021043306A
Authority
JP
Japan
Prior art keywords
pronunciation
reproduction
specified
data
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019164749A
Other languages
Japanese (ja)
Other versions
JP7379968B2 (en
Inventor
誠 北地
Makoto Kitachi
誠 北地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2019164749A priority Critical patent/JP7379968B2/en
Publication of JP2021043306A publication Critical patent/JP2021043306A/en
Application granted granted Critical
Publication of JP7379968B2 publication Critical patent/JP7379968B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an electronic apparatus with which it is possible for a user to naturally practice a listening lesson while listening to a pronounced portion that includes a phoneme which the user is not good at, without being obstructed from hearing the entire text.SOLUTION: If set to a hard-to-catch pronunciation listening mode when reproducing, for example, discretionarily selected English voice data, a pronunciation element hard for a user to catch which is discretionarily selected or registered to a table in advance is specified. A pronunciation timing that corresponds to a hard-to-catch pronunciation element in the voice data to be reproduced is specified on the basis of the position of a phonetic symbol added to text data that corresponds to the voice data, or the voice data is specified by voice recognition and a reproduction section of voice data of a pronunciation portion that includes the pronunciation timing of the specified hard-to-catch pronunciation element is specified. In the reproduction section of a pronunciation portion of the voice data to be reproduced that includes the pronunciation timing of the hard-to-catch pronunciation element, the reproduction speed is slowly switched and the speech rate is converted when reproduced.SELECTED DRAWING: Figure 4

Description

本発明は、例えば、ユーザが苦手な発音を含む音声データを再生するための電子機器、音声再生方法、およびプログラムに関する。 The present invention relates to, for example, an electronic device, a voice reproduction method, and a program for reproducing voice data including pronunciation that the user is not good at.

例えば、語学学習機などの学習装置において、学習対象となる言語のネイティブによる発音の音声データを再生する機能がある。ユーザは、単語、熟語、文章など、様々なテキストの中から任意のテキストを選択し、当該テキストに対応する音声データを聞くことで、リスニングの学習を行なうことができる。 For example, in a learning device such as a language learning machine, there is a function of reproducing voice data of pronunciation by a native speaker of the language to be learned. The user can learn listening by selecting an arbitrary text from various texts such as words, idioms, and sentences, and listening to the voice data corresponding to the text.

従来の学習装置では、選択したテキストに対応する音声データの全体(先頭から末尾まで)の再生速度を変化させ、ユーザは、当該音声データをゆっくり聞いたり速く聞いたりして学習できる。 In the conventional learning device, the playback speed of the entire voice data (from the beginning to the end) corresponding to the selected text is changed, and the user can learn by listening to the voice data slowly or quickly.

また、一般的に日本人が苦手な音素である「L」及び「R」の発音の聞き取りを練習するために、当該音素を含む発音区間で再生速度を変化させた専用の音声データを用いて、聞き取り練習を行なうことのできる英語の音素「L」及び「R」の学習装置が考えられている(例えば、特許文献1参照。)。 In addition, in order to practice listening to the pronunciation of "L" and "R", which are generally not good for Japanese people, we use dedicated voice data in which the playback speed is changed in the pronunciation section including the phoneme. , A learning device for English phonemes "L" and "R" capable of practicing listening is considered (see, for example, Patent Document 1).

特開2004−334164号公報Japanese Unexamined Patent Publication No. 2004-334164

従来、苦手な音素の発音の聞き取りを練習するための学習装置では、当該苦手な音素(「L」及び「R」など)を含む専用の音声データを用いる必要がある。 Conventionally, in a learning device for practicing listening to the pronunciation of a phoneme that is not good at it, it is necessary to use dedicated voice data including the phoneme that is not good at it (“L”, “R”, etc.).

このため、従来の学習装置では、ユーザが、例えば任意のテキストの音声データを再生させて聞いているときに、ユーザの苦手な音素を含む発音部分の聞き取り練習を行なうことはできない。 Therefore, in the conventional learning device, when the user is listening to the voice data of an arbitrary text, for example, it is not possible to practice listening to the pronunciation portion including the phonemes that the user is not good at.

本発明は、このような課題に鑑みてなされたもので、ユーザによるテキスト全体の聞き取りが妨げられることなく、ユーザが自然に苦手な音素を含む発音部分の聞き取り練習を行なうことが可能になる電子機器、音声再生方法、およびプログラムを提供することを目的とする。 The present invention has been made in view of such a problem, and an electronic device that enables a user to practice listening to a pronunciation portion including a phoneme that is naturally weak, without hindering the user from listening to the entire text. It is intended to provide equipment, audio reproduction methods, and programs.

本発明に係る電子機器は、
プロセッサを備え、
前記プロセッサは、
学習対象となる発音要素を特定し、
再生対象の音声データ内で、前記特定された発音要素を含む一部の再生区間を対象区間として特定し、
前記音声データの再生中に、前記特定された前記対象区間での再生状態を他の再生区間の再生状態に対して変化させる、
ように構成されている。
The electronic device according to the present invention is
Equipped with a processor
The processor
Identify the pronunciation elements to be learned and
In the audio data to be reproduced, a part of the reproduction section including the specified sounding element is specified as the target section.
During the reproduction of the audio data, the reproduction state in the specified target section is changed with respect to the reproduction state of another reproduction section.
It is configured as follows.

本発明の電子機器の実施形態に係る学習支援装置10の外観構成を示す図。The figure which shows the appearance structure of the learning support apparatus 10 which concerns on embodiment of the electronic device of this invention. 学習支援装置10の電子回路の構成を示すブロック図。The block diagram which shows the structure of the electronic circuit of the learning support apparatus 10. 苦手発音テーブル(22g)に3段階の語学レベルに区分して記述されたユーザが苦手な複数の音素の発音記号の一例を示す図。It is a figure which shows an example of the phonetic symbols of a plurality of phonemes which a user is not good at, which is described in the weak pronunciation table (22 g) divided into three language levels. 学習支援装置10の第1実施形態の音声再生処理(1)を示すフローチャート。The flowchart which shows the voice reproduction processing (1) of 1st Embodiment of a learning support apparatus 10. 音声再生処理(1)に含まれる音声選択処理(S1)を示すフローチャート。The flowchart which shows the audio selection process (S1) included in the audio reproduction process (1). 音声再生処理(1)に含まれる苦手発音要素特定処理(S3)を示すフローチャート。The flowchart which shows the weak pronunciation element identification process (S3) included in the voice reproduction process (1). 音声再生処理(1)に含まれる発音タイミング特定処理(S4)を示すフローチャート。The flowchart which shows the pronunciation timing specification process (S4) included in the voice reproduction process (1). 音声再生処理(1)に含まれる話速変換区間設定方法特定処理(S5)を示すフローチャート。The flowchart which shows the speech speed conversion section setting method specification process (S5) included in the voice reproduction process (1). 音声再生処理(1)に従った再生対象の音声データの通常の再生タイミングと、苦手な発音要素の発音部分に対応して再生速度を変化させ話速変換して再生する再生タイミングとを対比して示す図。Compare the normal playback timing of the voice data to be played back according to the voice playback process (1) with the playback timing of changing the playback speed according to the pronunciation part of the pronunciation element that is not good and converting the speech speed to play. The figure shown. 学習支援装置10の第2実施形態の音声再生処理(2)を示すフローチャート。The flowchart which shows the voice reproduction processing (2) of the 2nd Embodiment of a learning support apparatus 10. 音声再生処理(2)に含まれる話速変換発音区間特定処理(A4)を示すフローチャート。The flowchart which shows the speech speed conversion sounding section identification process (A4) included in the voice reproduction process (2). 音声再生処理(2)に従った2つの類似音素をそれぞれ含む2つの単語の音声データの通常の再生タイミングと、類似音素の発音部分に対応して再生速度を変化させ話速変換して再生する再生タイミングとを対比して示す図。The normal playback timing of the voice data of two words including two similar phonemes according to the voice playback process (2) and the playback speed are changed according to the pronunciation part of the similar phonemes to convert the speech speed and play the data. The figure which shows in comparison with the reproduction timing.

以下図面を参照して本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の電子機器の実施形態に係る学習支援装置10の外観構成を示す図である。 FIG. 1 is a diagram showing an external configuration of a learning support device 10 according to an embodiment of the electronic device of the present invention.

電子機器は、以下に説明する学習支援専用の学習支援装置10(実施形態では電子辞書)として構成されるか、学習支援機能を備えたタブレット型のPDA(personal digital assistants)、PC(personal computer)、携帯電話、電子ブック、携帯ゲーム機などとして構成される。 The electronic device is configured as a learning support device 10 (electronic dictionary in the embodiment) dedicated to learning support described below, or is a tablet-type PDA (personal digital assistant) or PC (personal computer) having a learning support function. , Mobile phones, electronic books, portable game machines, etc.

学習支援装置10は、その本体ケース11と蓋体ケース12とがヒンジ部13を介して展開/閉塞可能な折り畳み型ケースを備えて構成される。折り畳み型ケースを展開した本体ケース11の表面には、[ホーム]キー14a、機能指定キー14b、文字入力キー14c、[訳/決定]キー14d、[戻る/リスト]キー14e、カーソルキー14f、[シフト]キー14g、[音声]キー14S、などを含むキー入力部(キーボード)14、音声出力部(スピーカを含む)15、および音声入力部(マイクを含む)16が設けられる。 The learning support device 10 is configured to include a foldable case in which the main body case 11 and the lid case 12 can be deployed / closed via the hinge portion 13. On the surface of the main body case 11 in which the foldable case is unfolded, [Home] key 14a, function specification key 14b, character input key 14c, [translation / decision] key 14d, [back / list] key 14e, cursor key 14f, A key input unit (keyboard) 14 including a [shift] key 14g, a [voice] key 14S, and the like, an audio output unit (including a speaker) 15, and an audio input unit (including a microphone) 16 are provided.

また、蓋体ケース12の表面には、タッチパネル式表示部(ディスプレイ)17が設けられる。タッチパネル式表示部17は、ユーザがペンや指などでタッチした位置を検出するタッチ位置検出装置と表示装置が一体となった構造であり、バックライト付きのカラー液晶表示画面に透明タッチパネルを重ねて構成される。 Further, a touch panel type display unit (display) 17 is provided on the surface of the lid case 12. The touch panel type display unit 17 has a structure in which a touch position detection device for detecting a position touched by a user with a pen or a finger and a display device are integrated, and a transparent touch panel is superimposed on a backlit color liquid crystal display screen. It is composed.

そして、タッチパネル式表示部17の右端には、キー入力部14における一部のキーの押下操作や本学習支援装置10の一部の機能の指定操作を、タッチ操作により行うためのキーや機能の表記([ホーム][音声][訳/決定]など)が固定印刷されたタッチキーエリア17Aが設けられる。 Then, at the right end of the touch panel type display unit 17, there are keys and functions for performing a touch operation for pressing some keys in the key input unit 14 and designating some functions of the learning support device 10. A touch key area 17A on which notations ([home], [voice], [translation / decision], etc.) are fixedly printed is provided.

キー入力部14の機能指定キー14bは、各キーに表記されている辞書コンテンツ([大辞典]など)、辞書コンテンツのカテゴリ([国語][古語][漢和][英和]など)、学習コンテンツのカテゴリ([学習1][学習2])、[コンテンツ一覧]、ツールの一つのカテゴリ[学習帳]を、それぞれ直接指定するためのキーである。 The function designation key 14b of the key input unit 14 is a dictionary content ([large dictionary], etc.) written on each key, a category of dictionary content ([national language], [old language], [Kanwa], [English-Japanese], etc.), and learning content. It is a key for directly specifying each of the categories ([Learning 1] and [Learning 2]), [Content list], and one category [Learning book] of the tool.

また、キー入力部14のキーは、[シフト]キー14gが操作された後に続けて操作されることで、そのキートップに枠囲み無しで記載されたキー機能ではなく、枠囲みして記載されたキーとして機能できるようになっている。例えば、[シフト]キー14gの操作後に[訳/決定]キー14dが操作(以下、[シフト]+[決定]キーと記す。)されると、登録対象として指定されているデータを登録する機能を起動させるための[登録]キーとなる。[シフト]+[削除]キーは[設定]キーとなる。 Further, the keys of the key input unit 14 are described in a frame instead of the key function described in the key top without a frame by being continuously operated after the [shift] key 14g is operated. It can function as a key. For example, when the [Translate / Enter] key 14d is operated (hereinafter referred to as [Shift] + [Enter] key) after the operation of the [Shift] key 14g, the function of registering the data designated as the registration target. It becomes the [Registration] key to start. The [Shift] + [Delete] keys are the [Settings] keys.

キー入力部14の[音声]キー14Sおよびタッチキーエリア17Aの[音声]タッチキーBSは、何れも、タッチパネル式表示部17に表示されているテキストや項目の内容に対応する音声データを出力させるための音声再生機能を起動させるキーである。 Both the [voice] key 14S of the key input unit 14 and the [voice] touch key BS of the touch key area 17A output voice data corresponding to the contents of the text and items displayed on the touch panel type display unit 17. It is a key to activate the voice playback function for.

例えば、図1に示すように、英和辞典の見出し語検索に従い、見出し語“establish”の見出し語説明画面GEをタッチパネル式表示部17に表示させた状態で、[音声]キー14S(又は[音声]タッチキーBS)の操作により音声再生機能を起動させる。そして、見出し語説明画面GE上の見出し語“establish”を再生対象として選択して反転表示(識別表示)hさせた状態で、[訳/決定]キー14dを操作すると、選択された見出し語“establish”に対応する音声データ(見出し語“establish”を読み上げる、例えばネイティブの音声データ)が再生され、音声出力部15から出力される。 For example, as shown in FIG. 1, according to the headword search of the English-Japanese dictionary, the headword explanation screen GE of the headword "establish" is displayed on the touch panel display unit 17, and the [voice] key 14S (or [voice] is displayed. ] Touch key BS) to activate the voice playback function. Then, when the heading word "establish" on the heading word explanation screen GE is selected as the playback target and highlighted (identified display) h, the [translation / decision] key 14d is operated to select the heading word "establish". The voice data corresponding to "establish" (reading out the heading word "establish", for example, native voice data) is reproduced and output from the voice output unit 15.

本実施形態の学習支援装置10は、音声再生機能に基づき音声データを再生する際、当該音声データにユーザが苦手な音素の発音(例えば“establish”の“sh”[∫]に対応する発音)が含まれている場合に、当該苦手な音素を含む発音部分に対応する音声データの再生区間を特定し、特定された再生区間での音声データの再生速度を変化させる(例えば遅くする)と共に、話速変換して再生する機能を有する。 When the learning support device 10 of the present embodiment reproduces voice data based on the voice reproduction function, the pronunciation of phonemes that the user is not good at with the voice data (for example, the pronunciation corresponding to “sh” [∫] of “establish”). When is included, the reproduction section of the audio data corresponding to the sounding portion including the phoneme that is not good at the above is specified, and the reproduction speed of the audio data in the specified reproduction section is changed (for example, slowed down). It has a function to convert the speech speed and play it.

これにより、本実施形態の学習支援装置10では、再生対象としてユーザが選択した音声データの全体を再生する過程において、ユーザが苦手な音素を含む発音部分の音声データを、当該ユーザが聞き取り易いようにその再生速度を変化させて再生できる。 As a result, in the learning support device 10 of the present embodiment, in the process of reproducing the entire voice data selected by the user as the playback target, the user can easily hear the voice data of the sounding portion including the phonemes that the user is not good at. It can be played by changing its playback speed.

図2は、学習支援装置10の電子回路の構成を示すブロック図である。 FIG. 2 is a block diagram showing a configuration of an electronic circuit of the learning support device 10.

学習支援装置10の電子回路は、コンピュータであるCPU(プロセッサ)21を備える。 The electronic circuit of the learning support device 10 includes a CPU (processor) 21 which is a computer.

CPU21は、フラッシュROMなどの記憶部(ストレージ)22に予め記憶されたプログラム(学習支援処理プログラム22aおよび音声再生処理プログラム22bを含む)、あるいはメモリカードなどの外部記録媒体23から記録媒体読取部24により読み取られて記憶部22に記憶されたプログラム、あるいは通信ネットワークN上のWebサーバ(ここではプログラムサーバ)30から通信部25を介してダウンロードされ記憶部22に記憶されたプログラム、に従って回路各部の動作を制御する。 The CPU 21 is a recording medium reading unit 24 from a program (including a learning support processing program 22a and a voice reproduction processing program 22b) stored in advance in a storage unit (storage) 22 such as a flash ROM, or an external recording medium 23 such as a memory card. According to the program read by the user and stored in the storage unit 22, or the program downloaded from the Web server (here, the program server) 30 on the communication network N via the communication unit 25 and stored in the storage unit 22, each circuit unit Control the operation.

CPU21には、データ及び制御バスを介して、記憶部22、記録媒体読取部24、通信部25を接続するほか、キー入力部14、音声出力部15、音声入力部16、表示部17、を接続する。 A storage unit 22, a recording medium reading unit 24, and a communication unit 25 are connected to the CPU 21 via a data and control bus, and a key input unit 14, a voice output unit 15, a voice input unit 16, and a display unit 17 are connected to the CPU 21. Connecting.

音声出力部15は、記憶部22に記憶されているかあるいは録音された音声データに基づく音声を出力する本体スピーカ15Sを備える。 The audio output unit 15 includes a main body speaker 15S that outputs audio based on audio data stored or recorded in the storage unit 22.

音声入力部16は、ユーザ等の音声を入力する本体マイク16Mを備える。 The voice input unit 16 includes a main body microphone 16M for inputting voice of a user or the like.

音声出力部15および音声入力部16は、共用の外部接続端子(EX)26を備え、外部接続端子26には、ユーザが必要に応じてイヤホンマイク27を接続する。 The audio output unit 15 and the audio input unit 16 are provided with a shared external connection terminal (EX) 26, and the user connects the earphone microphone 27 to the external connection terminal 26 as needed.

イヤホンマイク27は、イヤホンを有すると共に、マイク27mを備えたリモコン部27Rを有する。 The earphone microphone 27 has an earphone and a remote control unit 27R provided with a microphone 27m.

記憶部22は、プログラム(学習支援処理プログラム22aおよび音声再生処理プログラム22bを含む)を記憶するプログラム記憶部のほか、学習コンテンツ記憶部22c、辞書データ記憶部22d、他のコンテンツ記憶部22e、語学レベルデータ記憶部22f、苦手発音テーブル記憶部22g、発音変化イディオムテーブル記憶部22h、音声再生モードデータ記憶部22i、話速変換区間設定データ記憶部22j、および話速変換再生区間データ記憶部22kを備える。 The storage unit 22 includes a program storage unit that stores programs (including a learning support processing program 22a and a voice reproduction processing program 22b), a learning content storage unit 22c, a dictionary data storage unit 22d, another content storage unit 22e, and a language. Level data storage unit 22f, weak pronunciation table storage unit 22g, pronunciation change idiom table storage unit 22h, voice reproduction mode data storage unit 22i, speech speed conversion section setting data storage unit 22j, and speech speed conversion reproduction section data storage unit 22k. Be prepared.

学習支援処理プログラム22aとしては、学習支援装置10の全体の動作を司るシステムプログラム、通信部25を介して外部の電子機器と通信接続するためのプログラム、および音声再生処理プログラム22bと併せて学習コンテンツ記憶部22c、辞書データ記憶部22d、および他のコンテンツ記憶部22eに記憶されている各種のコンテンツデータに応じた学習機能を実行するためのプログラムなどを記憶する。 The learning support processing program 22a includes a system program that controls the overall operation of the learning support device 10, a program for communicating with an external electronic device via the communication unit 25, and a learning content together with the voice reproduction processing program 22b. A program for executing a learning function corresponding to various content data stored in the storage unit 22c, the dictionary data storage unit 22d, and the other content storage unit 22e is stored.

音声再生処理プログラム22bは、ユーザ操作に応じして選択された再生対象の音声データを再生するためのプログラム、および再生対象の音声データを再生する際、当該音声データにユーザが苦手な音素の発音が含まれている場合に、当該苦手な音素を含む発音部分に対応する音声データの再生区間を特定し、特定された再生区間での音声データの再生速度を変化させると共に、話速変換して再生するためのプログラムを含む。 The voice reproduction processing program 22b is a program for reproducing the audio data to be reproduced selected in response to the user operation, and when reproducing the audio data to be reproduced, the voice data is pronounced as a sound element that the user is not good at. When is included, the playback section of the voice data corresponding to the sounding part including the weak phonetic element is specified, the playback speed of the voice data in the specified playback section is changed, and the speech speed is converted. Includes a program for playback.

学習コンテンツ記憶部22cは、例えば、リスニングレッスンデータ22c1、スピーキングレッスンデータ22c2、などの学習コンテンツデータを記憶する。 The learning content storage unit 22c stores learning content data such as listening lesson data 22c1 and speaking lesson data 22c2, for example.

リスニングレッスンデータ22c1は、例えば、リスニングレッスンの模範となる単語と文章に対応するテキストデータ(テキストデータには発音記号が付加されている)と当該テキストデータに対応する音声データを有し、単語または文章のテキストデータを表示部17に表示させ、音声データを音声出力部15から出力する機能を有する。 The listening lesson data 22c1 has, for example, text data corresponding to a word and a sentence as a model of the listening lesson (text data has a pronunciation symbol added) and voice data corresponding to the text data, and is a word or a word or a sentence. It has a function of displaying text data of a sentence on the display unit 17 and outputting voice data from the voice output unit 15.

スピーキングレッスンデータ22c2は、例えば、スピーキングレッスンの模範となるテキストデータ(テキストデータには発音記号が付加されている)と当該テキストデータに対応する音声データを有し、テキストデータを表示部17に表示させ、音声データを音声出力部15から出力した後に、音声入力部16から入力したユーザの音声データを解析し、正誤等の判定結果を表示や音声により出力する機能を有する。 The speaking lesson data 22c2 has, for example, text data that serves as a model for speaking lessons (text data has a pronunciation symbol added) and voice data corresponding to the text data, and the text data is displayed on the display unit 17. After the voice data is output from the voice output unit 15, the user's voice data input from the voice input unit 16 is analyzed, and a determination result such as correctness is displayed or output by voice.

辞書データ記憶部22dは、例えば、英和辞書、和英辞書、英英辞書、国語辞書などの各種の辞書コンテンツデータを記憶し、辞書コンテンツデータは、例えば、ユーザ操作に応じてキー入力または音声入力される辞書検索の対象となる見出し語に基づいて、当該見出し語に対応する説明情報を辞書検索して表示や音声により出力する機能を有する。 The dictionary data storage unit 22d stores various dictionary content data such as an English-Japanese dictionary, a Japanese-English dictionary, an English-English dictionary, and a Japanese dictionary, and the dictionary content data is, for example, key-input or voice-input according to a user operation. Based on the entry word that is the target of the dictionary search, it has a function to search the dictionary for the explanatory information corresponding to the entry word and output it by display or voice.

なお、辞書コンテンツデータは、各種の辞書のそれぞれにおいて、見出し語、見出し語の意味,内容を含む説明情報、見出し語を含む例文などのテキストデータ、および当該テキストデータに対応する音声データを有し、そのうち例えば見出し語および例文のテキストデータには、発音記号が付加されている。 The dictionary content data includes headwords, meanings of headwords, explanatory information including contents, text data such as example sentences including headwords, and audio data corresponding to the text data in each of the various dictionaries. Of these, for example, pronunciation symbols are added to the text data of headwords and example sentences.

他のコンテンツ記憶部22eは、学習コンテンツデータ(22c)、辞書コンテンツデータ(22d)以外の、例えば書籍、新聞、雑誌などの他のコンテンツデータを記憶する。他のコンテンツデータは、各コンテンツデータのテキストデータ、および当該テキトデータに対応する音声データを有する。 The other content storage unit 22e stores other content data such as books, newspapers, magazines, etc. other than the learning content data (22c) and the dictionary content data (22d). The other content data includes text data of each content data and audio data corresponding to the text data.

語学レベルデータ記憶部22fは、ユーザの語学レベルのデータを、例えば、初級:1、中級:2、上級:3として記憶する。語学レベルは、ユーザ操作に応じてユーザ自身の語学レベルが入力されて記憶されるか、あるいは学習コンテンツデータ(22c)や辞書コンテンツデータ(22d)に応じた学習機能が実行された際に、当該学習機能の中で判定されたユーザの語学レベルが自動更新されて記憶される。 The language level data storage unit 22f stores the user's language level data as, for example, beginner: 1, intermediate: 2, and advanced: 3. The language level corresponds to when the user's own language level is input and stored according to the user operation, or when the learning function according to the learning content data (22c) or the dictionary content data (22d) is executed. The language level of the user determined by the learning function is automatically updated and stored.

苦手発音テーブル記憶部22gは、ユーザが苦手な音素の発音記号および当該発音記号に対応する音声データを、例えば3段階の語学レベル(初級:1、中級:2、上級:3)に区分けして対応付けたテーブルとして記憶する(図3参照)。 The weak pronunciation table storage unit 22g divides the phonetic symbols of phonemes that the user is not good at and the voice data corresponding to the phonetic symbols into, for example, three levels of language (beginner: 1, intermediate: 2, advanced: 3). Store as an associated table (see FIG. 3).

図3は、苦手発音テーブル(22g)に3段階の語学レベルに区分して記述されたユーザが苦手な複数の音素の発音記号の一例を示す図である。 FIG. 3 is a diagram showing an example of phonetic symbols of a plurality of phonemes that a user is not good at, which is described in a weak pronunciation table (22 g) divided into three language levels.

図3に示す苦手発音テーブル(22g)では、ユーザが苦手な音素の発音記号として、ユーザが苦手で且つ聞き分けるのが難しい2つの類似する音素の発音記号の組みが、複数組み記述され、語学レベル1(初級)のユーザは当該テーブルに記述された全ての音素の組み(16組み)が聞き分けの苦手な類似音素であることを示し、語学レベル2(中級)のユーザは当該テーブルに記述された全ての音素の組みのうち下から9組みが聞き分けの苦手な類似音素であることを示し、語学レベル3(上級)のユーザは当該テーブルに記述された全ての音素の組みのうち下から4組みが聞き分けの苦手な類似音素であることを示している。 In the weak phoneme table (22 g) shown in FIG. 3, a plurality of sets of phoneme symbols of two similar phonemes that the user is not good at and difficult to distinguish are described as phoneme symbols that the user is not good at, and the language level. The 1 (beginner) user showed that all the phoneme sets (16 sets) described in the table were similar phonemes that were difficult to distinguish, and the language level 2 (intermediate) user was described in the table. It is shown that the bottom 9 pairs of all phoneme pairs are similar phonemes that are difficult to distinguish, and the user of language level 3 (advanced) can use the bottom 4 pairs of all phoneme pairs described in the table. Indicates that is a similar phoneme that is difficult to distinguish.

発音変化イディオムテーブル記憶部22hは、熟語や成句など、複数の単語を連結して構成される語句のうち、単語を単一で発音した場合と比較して発音が変化する複数の発音変化語句(例えば“there is”:ゼァ・イズ→ゼァリズと発音変化)のデータをテーブルにして記憶する。発音変化語句のデータは、発音変化語句のテキストデータ、およびテキストデータに対応する音声データを有し、テキストデータには、発音が変化するテキストの範囲に対応して発音記号が付加(ユーザが苦手な音素の発音記号として付加)されている。 The pronunciation change idiom table storage unit 22h is a plurality of pronunciation change words (phrases whose pronunciation changes as compared with the case where a single word is pronounced among words and phrases composed by concatenating a plurality of words such as idioms and phrases. For example, the data of “there is”: “there is” → “there is” and the pronunciation change) is stored as a table. The phonetic change phrase data includes text data of the pronunciation change phrase and voice data corresponding to the text data, and phonetic symbols are added to the text data corresponding to the range of the text whose pronunciation changes (users are not good at it). It is added as a phonetic symbol of a phonetic element).

音声再生モードデータ記憶部22iは、音声データの再生モード(通常再生モードまたは苦手発音聞き取り(練習)モードまたは類似音素聞き分け(練習)モードなど)を示すデータを記憶する。音声データの再生モードは、例えばユーザ操作に応じて選択される。 The voice reproduction mode data storage unit 22i stores data indicating a reproduction mode of voice data (normal reproduction mode, weak pronunciation listening (practice) mode, similar phoneme distinction (practice) mode, etc.). The audio data reproduction mode is selected, for example, according to the user operation.

話速変換区間設定データ記憶部22jは、再生対象の音声データのうち、ユーザが苦手な音素を含む発音部分として再生速度を変化させ話速変換して再生する再生区間を、音素単位に設定するか、単語単位に設定するか、文単位に設定するか、の設定方法を示すデータ(話速変換区間設定データ)を記憶する。話速変換区間設定データ(音素単位/単語単位/文単位)は、ユーザ操作に応じて任意に特定されるか、またはユーザの語学レベルに応じて特定される。 The speech speed conversion section setting data storage unit 22j sets, in phoneme units, a reproduction section in which the speech speed is converted and reproduced by changing the reproduction speed as a sounding portion including phonemes that the user is not good at in the audio data to be reproduced. Data (speech speed conversion section setting data) indicating the setting method of whether to set in word units or sentence units is stored. The speech speed conversion interval setting data (phoneme unit / word unit / sentence unit) is arbitrarily specified according to the user operation, or is specified according to the language level of the user.

話速変換再生区間データ記憶部22kは、再生対象の音声データの先頭(開始時間)から末尾(終了時間)までの再生タイミング(例えば先頭(開始時間)を0msecとした末尾(終了時間)までの時間で管理される:図9参照)において、話速変換区間設定データ(22j)に基づき特定された話速変換の再生区間に対応する再生タイミング(例えばN msec〜M msec)のデータを記憶する。 The speech speed conversion reproduction section data storage unit 22k is the reproduction timing from the beginning (start time) to the end (end time) of the audio data to be reproduced (for example, to the end (end time) with the beginning (start time) as 0 msec). In time management (see FIG. 9), the data of the reproduction timing (for example, N msec to M msec) corresponding to the reproduction section of the speech speed conversion specified based on the speech speed conversion interval setting data (22j) is stored. ..

このように構成された学習支援装置10は、CPU21が学習支援処理プログラム22aおよび音声再生処理プログラム22bに記述された命令に従い回路各部の動作を制御し、ソフトウエアとハードウエアとが協働して動作することにより、以下の動作説明で述べるような、音声再生機能を実現する。 In the learning support device 10 configured in this way, the CPU 21 controls the operation of each part of the circuit according to the instructions described in the learning support processing program 22a and the voice reproduction processing program 22b, and the software and the hardware cooperate with each other. By operating, the voice reproduction function as described in the following operation description is realized.

次に、実施形態の学習支援装置(電子辞書)10の動作について説明する。 Next, the operation of the learning support device (electronic dictionary) 10 of the embodiment will be described.

(第1実施形態)
図4は、学習支援装置10の第1実施形態の音声再生処理(1)を示すフローチャートである。
(First Embodiment)
FIG. 4 is a flowchart showing the voice reproduction process (1) of the first embodiment of the learning support device 10.

図5は、音声再生処理(1)に含まれる音声選択処理(S1)を示すフローチャートである。 FIG. 5 is a flowchart showing a voice selection process (S1) included in the voice reproduction process (1).

図6は、音声再生処理(1)に含まれる苦手発音要素特定処理(S3)を示すフローチャートである。 FIG. 6 is a flowchart showing a weak pronunciation element identification process (S3) included in the voice reproduction process (1).

図7は、音声再生処理(1)に含まれる発音タイミング特定処理(S4)を示すフローチャートである。 FIG. 7 is a flowchart showing a sounding timing specifying process (S4) included in the voice reproduction process (1).

図8は、音声再生処理(1)に含まれる話速変換区間設定方法特定処理(S5)を示すフローチャートである。 FIG. 8 is a flowchart showing a speech speed conversion section setting method specifying process (S5) included in the voice reproduction process (1).

図9は、音声再生処理(1)に従った再生対象の音声データの通常の再生タイミングと、苦手な発音要素の発音部分に対応して再生速度を変化させ話速変換して再生する再生タイミングとを対比して示す図である。 FIG. 9 shows a normal playback timing of the voice data to be played back according to the voice playback process (1), and a playback timing in which the playback speed is changed according to the sounding portion of the sounding element that is not good at the speech speed conversion. It is a figure which shows in contrast with.

再生対象の音声データを選択するための音声選択処理(S1)(図5参照)において、例えばユーザによる機能指定キー14bの操作に応じて辞書が選択されると(ステップS101(Yes))、CPU21は、選択された辞書データに対応して検索対象の見出し語を入力するための見出し語入力画面(図示せず)を表示部17に表示させる(ステップS102)。 In the voice selection process (S1) (see FIG. 5) for selecting the voice data to be reproduced, for example, when the dictionary is selected according to the operation of the function designation key 14b by the user (step S101 (Yes)), the CPU 21 Displays a headword input screen (not shown) for inputting a headword to be searched corresponding to the selected dictionary data on the display unit 17 (step S102).

見出し語入力画面において、ユーザ操作に応じて検索対象の見出し語が入力されると、CPU21は、入力された見出し語のデータを、選択された辞書データから検索し(ステップS103)、検索された見出し語とその意味,内容のデータを展開した見出し語説明画面GE(図1参照)を表示部17に表示させる(ステップS104)。 When the headword to be searched is input in response to the user operation on the headword input screen, the CPU 21 searches the input headword data from the selected dictionary data (step S103) and searches. The display unit 17 displays the headword explanation screen GE (see FIG. 1) in which the headword, its meaning, and the content data are expanded (step S104).

見出し語説明画面GEにおいて、例えば当該画面GEに対するユーザのタッチ操作に応じてテキストが選択され、選択されたテキストが反転表示(識別表示)hされると(ステップS105(Yes))、CPU21は、選択されたテキストに対応する音声データを再生対象に設定する(ステップS106)。 On the headword explanation screen GE, for example, when a text is selected in response to a user's touch operation on the screen GE and the selected text is highlighted (identified display) h (step S105 (Yes)), the CPU 21 moves the CPU 21. The voice data corresponding to the selected text is set as the playback target (step S106).

一方、ユーザ操作に応じて、学習コンテンツ記憶部22cに記憶されているリスニングレッスンデータ22c1の学習コンテンツが選択されると(ステップS107(Yes))、CPU21は、選択された学習コンテンツが有する、例えばリスニング練習の対象となる単語や文章の項目の一覧を表示部17に表示させる(ステップS108)。 On the other hand, when the learning content of the listening lesson data 22c1 stored in the learning content storage unit 22c is selected according to the user operation (step S107 (Yes)), the CPU 21 has, for example, the selected learning content. A list of items of words and sentences to be practiced for listening is displayed on the display unit 17 (step S108).

表示された項目の一覧から、ユーザの例えばタッチ操作に応じて任意の項目が選択されると(ステップS109(Yes))、CPU21は、選択された項目に対応する単語や文章のテキストの音声データを再生対象に設定する(ステップS110)。 When an arbitrary item is selected from the displayed list of items according to, for example, a touch operation by the user (step S109 (Yes)), the CPU 21 performs voice data of the text of the word or sentence corresponding to the selected item. Is set as the playback target (step S110).

また、ユーザ操作に応じて、他のコンテンツ記憶部22eに記憶されている他のコンテンツが選択されると(ステップS111(Yes))、CPU21は、選択された他のコンテンツのテキストデータを表示部17に表示させる(ステップS112)。 Further, when other content stored in the other content storage unit 22e is selected according to the user operation (step S111 (Yes)), the CPU 21 displays the text data of the selected other content. It is displayed on 17 (step S112).

表示された他のコンテンツのテキストデータの中から、ユーザの例えばタッチ操作に応じて単語や文章などの任意のテキストが選択されると(ステップS113(Yes))、CPU21は、選択されたテキストに対応する音声データを再生対象に設定する(ステップS114)。 When any text such as a word or a sentence is selected from the text data of other displayed contents according to, for example, a touch operation of the user (step S113 (Yes)), the CPU 21 selects the selected text. The corresponding audio data is set as the playback target (step S114).

このように、音声選択処理(S1)に従い再生対象の音声データが選択されると、CPU21は、音声再生モードデータ記憶部22iに記憶されている再生モードのデータに基づき、苦手発音聞き取りモードか通常再生モードかを判定する(ステップS2)。 In this way, when the audio data to be reproduced is selected according to the audio selection process (S1), the CPU 21 is in the poor pronunciation listening mode or the normal, based on the reproduction mode data stored in the audio reproduction mode data storage unit 22i. It is determined whether the mode is the playback mode (step S2).

ここで、通常再生モードと判定されると(ステップS2(No))、CPU21は、再生対象の音声データをその先頭から末尾まで通常の再生速度タイミングに従い通常の再生速度で再生する(ステップS11)。 Here, when the normal playback mode is determined (step S2 (No)), the CPU 21 reproduces the audio data to be reproduced from the beginning to the end at the normal reproduction speed according to the normal reproduction speed timing (step S11). ..

一方、苦手発音聞き取りモードと判定されると(ステップS2(Yes))、CPU21は、ユーザが苦手な発音の要素(音素)を特定するための苦手発音要素特定処理(S2)(図6参照)に移行する。 On the other hand, when it is determined that the pronunciation listening mode is not good (step S2 (Yes)), the CPU 21 performs a weak pronunciation element identification process (S2) (see FIG. 6) for identifying a pronunciation element (phoneme) that the user is not good at. Move to.

苦手発音要素特定処理に移行されると、CPU21は、ユーザが苦手な発音の要素を、当該ユーザが任意に特定するか、または当該ユーザの語学レベルに応じて自動で特定するか、または発音変化イディオムテーブル(22h)に基づき自動で特定するかの何れかの項目について、ユーザに選択させる項目選択画面を表示部17に表示させる。 When the process shifts to the weak pronunciation element identification process, the CPU 21 either arbitrarily identifies the pronunciation element that the user is not good at, automatically identifies it according to the language level of the user, or changes the pronunciation. The display unit 17 displays an item selection screen for the user to select any item that is automatically specified based on the idiom table (22h).

項目選択画面において、ユーザが苦手な発音の要素を、ユーザが任意に特定する項目が選択されると(ステップS31(Yes))、CPU21は、例えば英語系の辞書データから読み出した発音記号の一覧を表示部17に表示させる(ステップS32)。 On the item selection screen, when an item for which the user arbitrarily identifies an element of pronunciation that the user is not good at is selected (step S31 (Yes)), the CPU 21 is, for example, a list of phonetic symbols read from English dictionary data. Is displayed on the display unit 17 (step S32).

発音記号の一覧において、ユーザ操作に応じて、当該ユーザが苦手な一つまたは複数の音素の発音記号が選択されると(ステップS33(Yes))、CPU21は、選択された発音記号の発音要素を苦手発音要素として特定する(ステップS34)。 In the list of phonetic symbols, when the phonetic symbols of one or more phonemes that the user is not good at are selected according to the user operation (step S33 (Yes)), the CPU 21 determines the phonetic elements of the selected phonetic symbols. Is specified as a weak pronunciation element (step S34).

一方、項目選択画面において、ユーザが苦手な発音の要素を、ユーザの語学レベルに応じて自動で特定する項目が選択されると(ステップS35(Yes))、CPU21は、語学レベルデータ記憶部22fからユーザの語学レベル(初級:1、または中級:2、または上級:3)のデータを取得し(ステップS36)、苦手発音テーブル(22g:図3参照)の中から、当該ユーザの語学レベルに応じた複数の発音記号の発音要素を苦手発音要素として特定する(ステップS37)。 On the other hand, on the item selection screen, when an item for automatically identifying a pronunciation element that the user is not good at is selected according to the language level of the user (step S35 (Yes)), the CPU 21 is the language level data storage unit 22f. Obtain the data of the user's language level (beginner: 1, intermediate: 2, or advanced: 3) from (step S36), and change the user's language level from the weak pronunciation table (22 g: see FIG. 3). The pronunciation elements of the corresponding plurality of phonetic symbols are specified as weak pronunciation elements (step S37).

また、項目選択画面において、ユーザが苦手な発音の要素を、発音変化イディオムテーブル(22h)に基づき自動で特定する項目が選択されると(ステップS35(No))、CPU21は、発音変化イディオムテーブル(22h)にある複数の発音変化語句のテキストデータにそれぞれ対応付けられた、発音が変化するテキストの範囲に対応した発音記号の発音要素を苦手発音要素として特定する(ステップS38)。 Further, on the item selection screen, when an item for automatically identifying a pronunciation element that the user is not good at is selected based on the pronunciation change idiom table (22h) (step S35 (No)), the CPU 21 uses the pronunciation change idiom table. The pronunciation element of the phonetic symbol corresponding to the range of the text whose pronunciation changes, which is associated with the text data of the plurality of pronunciation change words in (22h), is specified as a weak pronunciation element (step S38).

このように、苦手発音要素特定処理(S3)に従いユーザが苦手な発音の要素(音素)が特定されると、CPU21は、音声選択処理(S1)に従い選択された再生対象の音声データのうち、苦手発音要素特定処理(S3)に従い特定された苦手発音要素に対応する発音タイミングを特定するための発音タイミング特定処理(S4)(図7参照)に移行する。 In this way, when the pronunciation element (phoneme) that the user is not good at is specified according to the weak pronunciation element identification process (S3), the CPU 21 performs the reproduction target voice data selected according to the voice selection process (S1). The process shifts to the pronunciation timing specifying process (S4) (see FIG. 7) for specifying the pronunciation timing corresponding to the weak pronunciation element specified according to the weak pronunciation element specifying process (S3).

発音タイミング特定処理に移行されると、CPU21は、再生対象の音声データに対応するテキストデータに発音記号が付加されているか否かを判定する(ステップS41)。 When the process shifts to the sounding timing specifying process, the CPU 21 determines whether or not a phonetic symbol is added to the text data corresponding to the voice data to be reproduced (step S41).

音声選択処理(S1)に従い選択された再生対象の音声データが、例えば辞書データ(22d)または学習コンテンツデータ(22c)から選択された音声データである場合に、当該音声データに対応するテキストデータに発音記号が付加されていると判定されると(ステップS41(Yes))、CPU21は、苦手発音要素特定処理(S3)に従い特定されたユーザが苦手な発音要素が、発音変化イディオムテーブル(22h)を利用して特定されたものか否かを判定する(ステップS42)。 When the voice data to be reproduced selected according to the voice selection process (S1) is, for example, voice data selected from dictionary data (22d) or learning content data (22c), the text data corresponding to the voice data is used. When it is determined that the phonetic symbol is added (step S41 (Yes)), the CPU 21 determines that the phonetic element identified by the user according to the weak pronunciation element identification process (S3) is the pronunciation change idiom table (22h). It is determined whether or not it has been specified by using (step S42).

苦手発音要素特定処理(S3)に従い特定されたユーザが苦手な発音要素が、発音変化イディオムテーブル(22h)を利用して特定されたものではない、すなわち、ユーザにより任意に特定された発音記号の発音要素であるか、ユーザの語学レベルに応じて苦手発音テーブル(22g)から特定された発音記号の発音要素であると判定されると(ステップS42(No))、CPU21は、再生対象の音声データのうち、当該ユーザが苦手な発音要素の発音記号に対応する発音タイミングを、当該音声データに対応するテキストデータに付加された発音記号の位置に基づき特定する(ステップS44)。 The phonetic element that the user is not good at, which is specified according to the weak phonetic element identification process (S3), is not specified by using the pronunciation change idiom table (22h), that is, the phonetic symbol arbitrarily specified by the user. When it is determined that it is a phonetic element or a phonetic element of a phonetic symbol specified from a phonetic symbol (22 g) that is not good according to the language level of the user (step S42 (No)), the CPU 21 determines the sound to be reproduced. Among the data, the pronunciation timing corresponding to the phonetic symbol of the phonetic element that the user is not good at is specified based on the position of the phonetic symbol added to the text data corresponding to the voice data (step S44).

また、苦手発音要素特定処理(S3)に従い特定されたユーザが苦手な発音要素が、発音変化イディオムテーブル(22h)を利用して特定されたものであると判定された場合(ステップS42(Yes))、CPU21は、再生対象の音声データに対応するテキストデータに、発音変化イディオムテーブル(22h)にある発音変化イディオム(発音変化語句)のテキストデータと一致する部分があるか、すなわち、再生対象の音声データに発音変化語句と同じく発音が変化する部分が含まれているかを判定する(ステップS43)。 Further, when it is determined that the pronunciation element that the user who is not good at according to the weak pronunciation element identification process (S3) is identified by using the pronunciation change idiom table (22h) (step S42 (Yes)). ), The CPU 21 has a part in the text data corresponding to the voice data to be reproduced that matches the text data of the pronunciation change idiom (pronunciation change phrase) in the pronunciation change idiom table (22h), that is, the reproduction target. It is determined whether the voice data includes a portion whose pronunciation changes as in the pronunciation change phrase (step S43).

再生対象の音声データに対応するテキストデータに、発音変化イディオム(発音変化語句)のテキストデータと一致する部分があると判定されると(ステップS43(Yes))、CPU21は、再生対象の音声データのうち、発音変化イディオムテーブル(22h)を利用して特定されたユーザが苦手な発音要素の発音記号に対応する発音タイミングを、当該音声データに対応するテキストデータに付加された発音記号の位置に基づき特定する(ステップS44)。 When it is determined that the text data corresponding to the voice data to be reproduced has a part that matches the text data of the pronunciation change idiom (pronunciation change phrase) (step S43 (Yes)), the CPU 21 determines the voice data to be reproduced. Among them, the pronunciation timing corresponding to the phonetic symbol of the phonetic element that the user identified by using the pronunciation change idiom table (22h) is set to the position of the phonetic symbol added to the text data corresponding to the voice data. Specify based on (step S44).

一方、音声選択処理(S1)に従い選択された再生対象の音声データが、例えば他のコンテンツデータ(22e)から選択された音声データである場合に、当該音声データに対応するテキストデータに発音記号が付加されていないと判定されると(ステップS41(No))、CPU21は、再生対象の音声データを音声認識し、当該音声データをその先頭(開始時間)から末尾(終了時間)までに含まれる複数の音素毎の音素区間に分解する(ステップS45)。 On the other hand, when the voice data to be reproduced selected according to the voice selection process (S1) is, for example, voice data selected from other content data (22e), a pronunciation symbol is added to the text data corresponding to the voice data. If it is determined that the data is not added (step S41 (No)), the CPU 21 recognizes the voice data to be reproduced and includes the voice data from the beginning (start time) to the end (end time). It is decomposed into speech section for each of a plurality of speech elements (step S45).

そして、CPU21は、苦手発音要素特定処理(S3)に従い特定されたユーザが苦手な発音要素が、発音変化イディオムテーブル(22h)を利用して特定されたものか否かを判定する(ステップS46)。 Then, the CPU 21 determines whether or not the pronunciation element that the user is not good at according to the weak pronunciation element identification process (S3) is identified by using the pronunciation change idiom table (22h) (step S46). ..

苦手発音要素特定処理(S3)に従い特定されたユーザが苦手な発音要素が、発音変化イディオムテーブル(22h)を利用して特定されたものではない、すなわち、ユーザにより任意に特定された発音記号の発音要素であるか、ユーザの語学レベルに応じて苦手発音テーブル(22g)から特定された発音記号の発音要素であると判定されると(ステップS46(No))、CPU21は、ステップS45にて音素区間に分解された再生対象の音声データの中に、任意または苦手発音テーブル(22g)から特定された苦手な発音要素の音声データに一致する音素区間があるかを判定する(ステップS49)。 The pronunciation element that the user is not good at, which is identified according to the weak pronunciation element identification process (S3), is not identified by using the pronunciation change idiom table (22h), that is, the pronunciation symbol arbitrarily specified by the user. When it is determined that it is a pronunciation element or a pronunciation element of a pronunciation symbol specified from a pronunciation table (22 g) that is not good according to the language level of the user (step S46 (No)), the CPU 21 performs step S45. It is determined whether or not there is a phoneme section that matches the phoneme data of the unfavorable pronunciation element specified from the arbitrary or weak pronunciation table (22 g) in the sound data to be reproduced decomposed into the phoneme sections (step S49).

再生対象の音声データの中に、任意または苦手発音テーブル(22g)から特定された苦手な発音要素の音声データに一致する音素区間があると判定されると(ステップS49(Yes))、CPU21は、再生対象の音声データの中の、任意または苦手発音テーブル(22g)から特定された苦手な発音要素の音声データに一致した音素区間の発音タイミングを特定する(ステップS48)。 When it is determined that there is a phoneme section in the audio data to be reproduced that matches the audio data of the unfavorable pronunciation element specified from the arbitrary or weak pronunciation table (22 g) (step S49 (Yes)), the CPU 21 determines. , The pronunciation timing of the phoneme section that matches the speech data of the weak pronunciation element specified from the arbitrary or weak pronunciation table (22 g) in the voice data to be reproduced is specified (step S48).

また、苦手発音要素特定処理(S3)に従い特定されたユーザが苦手な発音要素が、発音変化イディオムテーブル(22h)を利用して特定されたものであると判定された場合(ステップS46(Yes))、CPU21は、ステップS45にて音素区間に分解された再生対象の音声データの中に、発音変化イディオムテーブル(22h)から特定された苦手な発音要素の音声データに一致する音素区間があるかを判定する(ステップS47)。 Further, when it is determined that the pronunciation element that the user who is not good at according to the weak pronunciation element identification process (S3) is identified by using the pronunciation change idiom table (22h) (step S46 (Yes)). ), Does the CPU 21 have a phoneme section that matches the phoneme data of the sounding element that the CPU 21 is not good at identified from the pronunciation change idiom table (22h) in the voice data to be reproduced decomposed into phoneme sections in step S45? Is determined (step S47).

再生対象の音声データの中に、発音変化イディオムテーブル(22h)から特定された苦手な発音要素の音声データに一致する音素区間があると判定されると(ステップS47(Yes))、CPU21は、再生対象の音声データの中の、発音変化イディオムテーブル(22h)から特定された苦手な発音要素の音声データに一致した音素区間の発音タイミングを特定する(ステップS48)。 When it is determined that there is a phoneme section in the voice data to be reproduced that matches the voice data of the sounding element that is not good at being identified from the pronunciation change idiom table (22h) (step S47 (Yes)), the CPU 21 determines. In the voice data to be reproduced, the pronunciation timing of the phoneme section that matches the voice data of the poor pronunciation element specified from the pronunciation change idiom table (22h) is specified (step S48).

このように、発音タイミング特定処理(S4)に従い、再生対象の音声データの中のユーザが苦手な発音要素(音素)に対応する発音タイミングが特定されると、CPU21は、再生対象の音声データのうち、当該ユーザが苦手な発音要素(音素)の発音タイミングを含む発音部分として再生速度を変化させ話速変換して再生する再生区間を、音素単位に設定するか、単語単位に設定するか、文単位に設定するか、の設定方法を特定するための話速変換区間設定方法特定処理(S5)(図8参照)に移行する。 In this way, when the pronunciation timing corresponding to the pronunciation element (phoneme) that the user is not good at in the voice data to be played back is specified according to the pronunciation timing specifying process (S4), the CPU 21 causes the voice data to be played back to be played. Of these, whether the playback section to be played by changing the playback speed and converting the speech speed as the pronunciation part including the pronunciation timing of the pronunciation element (phoneme) that the user is not good at is set in phoneme units or word units. The process shifts to the speech speed conversion section setting method specifying process (S5) (see FIG. 8) for setting in sentence units or specifying the setting method.

話速変換区間設定方法特定処理に移行されると、CPU21は、当該話速変換区間の設定方法について、ユーザが任意に特定するか、またはユーザの語学レベルに応じて自動で特定するかの何れかの設定方法特定項目について、ユーザに選択させる設定方法特定項目選択画面を表示部17に表示させる。 When the process shifts to the speaking speed conversion section setting method specifying process, the CPU 21 either arbitrarily specifies the setting method of the speaking speed conversion section by the user, or automatically specifies the setting method according to the language level of the user. Setting method for the user to select a specific item The display unit 17 displays the setting method specific item selection screen.

設定方法特定項目選択画面において、ユーザが任意に設定方法を特定する項目が選択されると(ステップS51(Yes))、CPU21は、話速変換して再生する再生区間を、音素単位に設定するか、単語単位に設定するか、文単位に設定するか、の設定方法の一覧を表示部17に表示させる(ステップS52)。 When an item for which the user arbitrarily specifies the setting method is selected on the setting method specific item selection screen (step S51 (Yes)), the CPU 21 sets the playback section to be reproduced by converting the speech speed in phoneme units. A list of setting methods for setting in word units or sentence units is displayed on the display unit 17 (step S52).

設定方法の一覧において、ユーザ操作に応じて、音素単位または単語単位または文単位のうち何れかの設定方法が選択されると(ステップS53(Yes))、CPU21は、選択された設定方法を話速変換区間の設定方法として特定し、話速変換区間設定データ記憶部22jに記憶させる(ステップS54)。 In the list of setting methods, when any of phoneme unit, word unit, and sentence unit setting method is selected according to the user operation (step S53 (Yes)), the CPU 21 talks about the selected setting method. It is specified as a method for setting the speed conversion section, and is stored in the speech speed conversion section setting data storage unit 22j (step S54).

一方、設定方法特定項目選択画面において、ユーザの語学レベルに応じて自動で特定する項目が選択されると(ステップS51(No))、CPU21は、語学レベルデータ記憶部22fからユーザの語学レベル(初級:1、または中級:2、または上級:3)のデータを取得する(ステップS56)。 On the other hand, when an item to be automatically specified is selected according to the language level of the user on the setting method specific item selection screen (step S51 (No)), the CPU 21 performs the language level of the user from the language level data storage unit 22f (step S51 (No)). The data of beginner level: 1, intermediate level: 2, or advanced level: 3) is acquired (step S56).

そして、話速変換区間の設定方法を、ユーザの語学レベルが(初級:1)である場合は<文単位>として特定し(ステップS56→S57a)、また、(中級:2)である場合は<単語単位>として特定し(ステップS56→S57b)、また、(上級:3)である場合は<音素単位>として特定し(ステップS56→S57c)、話速変換区間設定データ記憶部22jに記憶させる。 Then, the method of setting the speech speed conversion section is specified as <sentence unit> when the user's language level is (beginner: 1) (step S56 → S57a), and when it is (intermediate: 2). It is specified as <word unit> (step S56 → S57b), and if it is (advanced: 3), it is specified as <phoneme unit> (step S56 → S57c) and stored in the speech speed conversion section setting data storage unit 22j. Let me.

CPU21は、話速変換区間設定方法特定処理(S5)に従い特定された話速変換区間の設定方法に基づいて、再生対象の音声データにおけるユーザが苦手な発音要素(音素)の発音タイミングを含む再生区間を特定する(ステップS6)。 Based on the speech speed conversion section setting method specified according to the speech speed conversion section setting method specifying process (S5), the CPU 21 reproduces the voice data to be reproduced including the pronunciation timing of the pronunciation element (phoneme) that the user is not good at. The section is specified (step S6).

例えば、音声選択処理(S1)にて選択された再生対象の音声データが、図9の(A)に示すように、学習コンテンツデータ(22c)または辞書データ(22d)から選択された英単語“think”に対応する音声データであり、苦手発音要素特定処理(S3)に従い特定されたユーザが苦手な発音要素が、当該英単語“think”の“th”に対応する発音記号[θ]の発音要素(音素)であり、発音タイミング特定処理(S4)に従い特定された発音タイミングが、音声データ“think”のうち0〜100msecの発音タイミングであり、話速変換区間設定方法特定処理(S5)に従い特定された話速変換区間の設定方法が<音素単位>である場合、CPU21は、再生対象の音声データ“think”におけるユーザが苦手な発音要素(音素)[θ]を含む再生区間を、当該<音素単位>である0〜100msecとして特定し、話速変換再生区間データ記憶部22kに記憶させる(ステップS6)。 For example, as shown in FIG. 9A, the audio data to be reproduced selected in the audio selection process (S1) is an English word selected from the learning content data (22c) or the dictionary data (22d). The pronunciation element that is the voice data corresponding to "think" and is not good for the user identified according to the weak pronunciation element identification process (S3) is the pronunciation of the pronunciation symbol [θ] corresponding to the "th" of the English word "think". The pronunciation timing, which is an element (phonetic element) and is specified according to the pronunciation timing specifying process (S4), is the pronunciation timing of 0 to 100 msec in the voice data “think”, and is according to the speech speed conversion section setting method specifying process (S5). When the specified method of setting the speech speed conversion section is <phone unit unit>, the CPU 21 sets the playback section including the pronunciation element (phone element) [θ] that the user is not good at in the voice data “think” to be played. It is specified as 0 to 100 msec, which is a <speech unit>, and is stored in the speech speed conversion reproduction section data storage unit 22k (step S6).

CPU21は、再生対象の音声データ“think”の音声出力部15からの通常再生を開始すると共に(ステップS7)、当該音声データ“think”の再生区間が、話速変換再生区間データ記憶部22kに記憶された話速変換の対象となる再生区間0〜100msecであるか否かを判定する(ステップS8)。 The CPU 21 starts normal playback of the voice data “think” to be played back from the voice output unit 15 (step S7), and the playback section of the voice data “think” is changed to the speech speed conversion playback section data storage unit 22k. It is determined whether or not the reproduction section is 0 to 100 msec, which is the target of the stored speech speed conversion (step S8).

そして、音声データ“think”の再生区間が、話速変換の対象となる再生区間0〜100msecであると判定される状態では(ステップS8(Yes))、CPU21は、図9の(A)(B)に示すように、音声データ“think”の“th”に対応する発音部分について、再生速度を遅く(ここでは2.7倍に遅く)切り換えて変化させると共に話速変換して再生する(ステップS9a)。 Then, in a state where it is determined that the reproduction section of the voice data “think” is the reproduction section 0 to 100 msec to be converted in speech speed (step S8 (Yes)), the CPU 21 is in the state (A) (A) of FIG. As shown in B), for the sounding part corresponding to "th" of the voice data "think", the playback speed is slowed down (here, 2.7 times slower) to change and the speech speed is converted and played back (here). Step S9a).

また、音声データ“think”の再生区間が、話速変換の対象となる再生区間0〜100msecではない再生区間100〜400msecと判定される状態では(ステップS8(No))、CPU21は、図9の(A)(B)に示すように、音声データ“think”の“ink”に対応する発音部分について、再生速度を通常の再生速度に切り換えて話速変換せずに再生する(ステップS9b)。 Further, in a state where the reproduction section of the voice data “think” is determined to be a reproduction section of 100 to 400 msec, which is not a reproduction section of 0 to 100 msec to be converted in speech speed (step S8 (No)), the CPU 21 is shown in FIG. As shown in (A) and (B) of the above, the pronunciation portion corresponding to "ink" of the voice data "think" is reproduced by switching the reproduction speed to the normal reproduction speed without converting the speech speed (step S9b). ..

そして、再生対象の音声データ“think”(0〜400msec)の全ての再生が終了したと判定されると(ステップS10(Yes))、CPU21は、一連の音声再生処理(1)を終了する。 Then, when it is determined that all the reproduction of the audio data “think” (0 to 400 msec) to be reproduced has been completed (step S10 (Yes)), the CPU 21 ends a series of audio reproduction processes (1).

これにより、再生対象の音声データ“think”は、ユーザが苦手な“th”の発音記号[θ]に対応する発音要素(音素)を含む発音部分の再生区間において、再生速度が遅く切り換えられ話速変換されて再生されるので、当該再生対象の音声データ“think”の全体のユーザによる聞き取りが妨げられることなく、ユーザが自然に苦手な音素を含む発音部分の聞き取り練習を行なうことが可能になる。 As a result, the voice data "think" to be played back is switched at a slower playback speed in the playback section of the sounding part including the phonetic element (phoneme) corresponding to the phonetic symbol [θ] of "th", which the user is not good at. Since it is quickly converted and played back, it is possible for the user to practice listening to the pronunciation part including phonemes that he or she is not naturally good at without hindering the listening of the entire voice data "think" to be played back. Become.

なお、ここでは、再生対象の音声データが単語であり、話速変換区間設定方法特定処理(S5)により特定された話速変換区間の設定方法が<音素単位>である場合の例について説明したが、再生対象の音声データが複数の単語からなる文であり(例えば英単語“think”を含む例文“Where do you think she lives?”)、当該話速変換区間の設定方法が<単語単位>として特定された場合には、再生対象の音声データ“ Where do you think she lives?”におけるユーザが苦手な発音要素(音素)[θ]を含む単語単位の発音部分である“think”の再生区間が特定され(図9の(A)参照)、再生対象の音声データの全体である“ Where do you think she lives?”のうちの“think”の単語の再生区間において、再生速度が遅く(例えば2.7倍に遅く)切り換えられ話速変換して再生され、その他の単語の再生区間については話速変換せずに通常の再生速度で再生される(ステップS8,S9a,S10)。 Here, an example in which the voice data to be reproduced is a word and the setting method of the speaking speed conversion section specified by the speaking speed conversion section setting method specifying process (S5) is <phoneme unit> has been described. However, the voice data to be played is a sentence consisting of a plurality of words (for example, an example sentence "Where do you think she lives?" Including the English word "think"), and the method of setting the speech speed conversion section is <word unit>. When specified as, the playback section of "think", which is a word-based pronunciation part including the pronunciation element (phoneme) [θ] that the user is not good at in the voice data "Where do you think she lives?" Is specified (see (A) in FIG. 9), and the playback speed is slow (for example, in the playback section of the word “think” in “Where do you think she lives?”, Which is the entire audio data to be played back. (2.7 times slower) is switched and the speech speed is converted and reproduced, and the reproduction sections of other words are reproduced at the normal reproduction speed without the speech speed conversion (steps S8, S9a, S10).

これによれば、話速変換区間の設定方法が<音素単位>である場合と比較して、ユーザが苦手な発音要素(音素)[θ]を含む英単語“think”の音声データを、再生対象の文に含まれる他の単語よりもユーザにより聞き取り易く再生できる。 According to this, the voice data of the English word “think” including the pronunciation element (phoneme) [θ], which the user is not good at, is reproduced as compared with the case where the setting method of the speech speed conversion section is <phoneme unit>. It can be played more easily by the user than other words contained in the target sentence.

また、音声選択処理(S1)にて選択された再生対象の音声データが、例えば他のコンテンツ(22e)から選択された複数の文が連なる文章の音声データであって、話速変換区間の設定方法が<文単位>として特定された場合には、再生対象の音声データ(ここでは文章)におけるユーザが苦手な発音要素(音素)[θ]を含む単語を有した文単位の発音部分である文の再生区間が特定される。そして、再生対象の音声データの全体である文章のうちの苦手な発音要素(音素)[θ]を含む単語を有した文の再生区間において、再生速度が遅く(例えば2.7倍に遅く)切り換えられ話速変換して再生され、その他の文の再生区間については話速変換せずに通常の再生速度で再生される(ステップS8,S9a,S10)。 Further, the voice data to be reproduced selected in the voice selection process (S1) is, for example, voice data of a sentence in which a plurality of sentences selected from other contents (22e) are connected, and the speech speed conversion section is set. When the method is specified as <sentence unit>, it is a sentence unit pronunciation part having a word containing a pronunciation element (phonetic element) [θ] that the user is not good at in the speech data (sentence in this case) to be reproduced. The playback section of the sentence is specified. Then, the reproduction speed is slow (for example, 2.7 times slower) in the reproduction section of the sentence having the word containing the pronunciation element (phoneme) [θ] which is not good in the sentence which is the whole voice data to be reproduced. It is switched and the speech speed is converted and reproduced, and the reproduction sections of other sentences are reproduced at the normal reproduction speed without the speech speed conversion (steps S8, S9a, S10).

これによれば、話速変換区間の設定方法が<音素単位>である場合、および<単語単位>である場合と比較して、ユーザが苦手な発音要素(音素)[θ]を含む単語を有した文の音声データを、再生対象の文章に含まれる他の文よりもユーザにより聞き取り易く再生できる。
また、複数の単語を連結して構成される語句であって、複数の単語が連続する部分で音が変化するような場合に、その複数の単語の発音部分を聞き取り易くすることができる。
According to this, a word containing a pronunciation element (phoneme) [θ] that the user is not good at is compared with the case where the method of setting the speech speed conversion section is <phoneme unit> and the case where <word unit> is used. The voice data of the sentence can be reproduced more easily by the user than other sentences included in the sentence to be reproduced.
In addition, when a phrase is composed by connecting a plurality of words and the sound changes in a portion where the plurality of words are continuous, the pronunciation portion of the plurality of words can be easily heard.

なお、図7を参照して説明した発音タイミング特定処理(S4)において、再生対象の音声データに、ユーザが苦手な発音要素に対応する発音部分が含まれないと判定された場合(ステップS43(No)/S47(No)/S49(No))には、当該音声データに話速変換の対象となる再生区間は特定されないので、同音声データはその全体の再生区間において通常の再生速度で再生される(ステップS5〜S8(No),S9b,S10,終了)。 In the pronunciation timing specifying process (S4) described with reference to FIG. 7, when it is determined that the voice data to be reproduced does not include a pronunciation portion corresponding to a pronunciation element that the user is not good at (step S43 (step S43). No) / S47 (No) / S49 (No)) does not specify a playback section for which the speech speed is converted in the voice data, so that the voice data is played back at a normal playback speed in the entire playback section. (Steps S5 to S8 (No), S9b, S10, end).

以上のように構成した学習支援装置10の第1実施形態の音声再生処理(1)によれば、辞書データ(22d)や学習コンテンツデータ(22c)などからユーザにより任意に選択された、例えば英語のテキストデータに対応する音声データを再生する際に、音声再生モード(22i)が苦手発音聞き取りモードに設定されている場合には、ユーザにより発音記号の一覧から任意に選択されるか、または苦手発音テーブル(22g)や発音変化イディオムテーブル(22h)に登録されている、ユーザが苦手な発音記号の発音要素が特定される。 According to the voice reproduction processing (1) of the first embodiment of the learning support device 10 configured as described above, the user arbitrarily selects from the dictionary data (22d), the learning content data (22c), and the like, for example, English. When the voice data corresponding to the text data of is played, if the voice playback mode (22i) is set to the poor pronunciation listening mode, the user can arbitrarily select it from the list of phonetic symbols or is not good at it. The phonetic elements of phonetic symbols that the user is not good at, which are registered in the phonetic table (22 g) and the phonetic change idiom table (22h), are specified.

すると、再生対象の音声データにおける苦手な発音要素に対応する発音タイミングが、当該音声データに対応するテキストデータに付加された発音記号の位置に基づき特定されるか、または当該音声データを音声認識して同音声データを構成する音素区間に分解し、苦手な発音要素の音声データと一致する音素区間を判定することで特定され、特定された苦手な発音要素の発音タイミングを含む発音部分の音声データの再生区間が特定される。 Then, the pronunciation timing corresponding to the pronunciation element that is not good in the voice data to be reproduced is specified based on the position of the phonetic symbol added to the text data corresponding to the voice data, or the voice data is voice-recognized. It is specified by decomposing into the phonetic sections that compose the same voice data and determining the phonetic section that matches the voice data of the phonetic element that is not good at it. The playback section of is specified.

そして、再生対象の音声データの通常の再生が開始され、当該音声データの苦手な発音要素の発音タイミングを含む発音部分の再生区間では、再生速度が遅く切り換えられると共に話速変換されて再生される。 Then, normal reproduction of the audio data to be reproduced is started, and in the reproduction section of the pronunciation portion including the pronunciation timing of the pronunciation element which is not good at the audio data, the reproduction speed is switched slowly and the speech speed is converted and reproduced. ..

これにより、ユーザにより選択されたテキスト全体の聞き取りが妨げられることなく、ユーザが自然に苦手な音素を含む発音部分の聞き取り練習を行なうことが可能になる。 This makes it possible for the user to practice listening to the pronunciation part including phonemes that the user is naturally not good at, without hindering the listening of the entire text selected by the user.

また、学習支援装置10の第1実施形態の音声再生処理(1)によれば、再生対象の音声データにおける苦手な発音要素の発音タイミングを含む発音部分の再生区間は、ユーザにより任意に選択されて特定されるか、ユーザの語学レベル(22f)に応じて特定される、話速変換区間の設定方法(<音素単位>または<単語単位>または<文単位>)に従い特定される。 Further, according to the voice reproduction process (1) of the first embodiment of the learning support device 10, the reproduction section of the pronunciation portion including the pronunciation timing of the pronunciation element which is not good in the audio data to be reproduced is arbitrarily selected by the user. It is specified according to the setting method (<phoneme unit> or <word unit> or <sentence unit>) of the speech speed conversion section, which is specified according to the language level (22f) of the user.

このため、例えばユーザが語学上級者である場合は、再生対象の音声データのうち、ユーザが苦手な発音要素(音素)を含む当該音素の発音部分のみ話速変換の対象となる再生区間として特定され、また、例えばユーザが語学中級者や語学初級者である場合は、再生対象の音声データのうち、ユーザが苦手な発音要素(音素)を含む発音部分として、単語全体や文全体が話速変換の対象となる再生区間として特定されるので、ユーザの語学レベルに応じて、当該ユーザが苦手な発音要素(音素)を含む音声データの発音部分を、当該ユーザが聞き取り易く且つ学習に効果的な範囲に特定して再生できる。 Therefore, for example, when the user is an advanced language expert, only the pronunciation part of the phoneme including the pronunciation element (phoneme) that the user is not good at is specified as the playback section to be the target of speech speed conversion in the voice data to be played. In addition, for example, when the user is an intermediate language person or a beginner language person, the whole word or the whole sentence is spoken as a pronunciation part including a pronunciation element (phoneme) that the user is not good at in the voice data to be reproduced. Since it is specified as the playback section to be converted, it is easy for the user to hear and effective for learning the pronunciation part of the voice data including the pronunciation element (phoneme) that the user is not good at, depending on the language level of the user. It can be played by specifying it in a wide range.

以上、第1実施形態の音声再生処理(1)では、再生対象の音声データを再生する際に、当該音声データうち、ユーザが苦手な発音要素(音素)を含む発音部分の再生区間を特定し、特定した再生区間の再生速度を遅く切り換えて(変化させて)再生する実施例について説明した。 As described above, in the voice reproduction process (1) of the first embodiment, when the audio data to be reproduced is reproduced, the reproduction section of the pronunciation portion including the pronunciation element (phoneme) that the user is not good at is specified. , The embodiment in which the reproduction speed of the specified reproduction section is slowly switched (changed) and reproduced has been described.

以下、第2実施形態の音声再生処理(2)では、2つの類似の発音要素(音素)をそれぞれ含む2つの単語(熟語、成句等でもよい)の音声データをそれぞれ再生し、ユーザが類似音素を聞き分ける練習を行なう際に、当該2つの単語それぞれの音声データにおいて、2つの類似の発音要素(音素)を含む発音部分の再生区間を特定し、特定した再生区間の再生速度を遅く変化させ話速変換して再生する実施例について説明する。 Hereinafter, in the voice reproduction process (2) of the second embodiment, the voice data of two words (which may be compound words, phrases, etc.) including two similar pronunciation elements (phonemes) are reproduced, and the user uses the similar phonemes. When practicing to distinguish between the two words, the playback section of the pronunciation part containing two similar pronunciation elements (phonemes) is specified in the voice data of each of the two words, and the playback speed of the specified playback section is changed slowly. An example of speed conversion and reproduction will be described.

(第2実施形態)
図10は、学習支援装置10の第2実施形態の音声再生処理(2)を示すフローチャートである。
(Second Embodiment)
FIG. 10 is a flowchart showing the voice reproduction process (2) of the second embodiment of the learning support device 10.

図11は、音声再生処理(2)に含まれる話速変換発音区間特定処理(A4)を示すフローチャートである。 FIG. 11 is a flowchart showing a speech speed conversion sounding section specifying process (A4) included in the voice reproduction process (2).

図12は、音声再生処理(2)に従った2つの類似音素をそれぞれ含む2つの単語の音声データの通常の再生タイミングと、類似音素の発音部分に対応して再生速度を変化させ話速変換して再生する再生タイミングとを対比して示す図である。 FIG. 12 shows the normal playback timing of the voice data of two words including two similar phonemes according to the voice reproduction process (2), and the speech speed conversion by changing the playback speed according to the sounding portion of the similar phonemes. It is a figure which shows in comparison with the reproduction timing which is reproduced.

ユーザ操作に応じて音声再生処理(2)が開始されると、CPU21は、音声再生モードデータ記憶部22iに記憶されている再生モードのデータに基づき、再生モードが、類似音素の聞き分けモードであるかを判定する(ステップA1)。 When the voice reproduction process (2) is started in response to the user operation, the CPU 21 sets the reproduction mode as a listening mode for similar phonemes based on the reproduction mode data stored in the audio reproduction mode data storage unit 22i. (Step A1).

類似音素の聞き分けモードであると判定されると(ステップA1(Yes))、CPU21は、例えば苦手発音テーブル(22g:図3参照)に記述されている、ユーザが苦手で且つ聞き分けるのが難しい2つの類似する音素の発音記号の組み(16組み)を、表示部17に一覧にして表示させ、聞き分け対象となる2つの類似する音素の発音記号の組みをユーザに選択させる(ステップA2)。 When it is determined that the mode is for distinguishing similar phonemes (step A1 (Yes)), the CPU 21 is not good at the user and is difficult to distinguish, which is described in, for example, a weak pronunciation table (22 g: see FIG. 3). The phonetic symbol sets (16 sets) of two similar phonemes are displayed in a list on the display unit 17, and the user is made to select the phonetic symbol sets of two similar phonemes to be distinguished (step A2).

ここでは、聞き分け対象となる2つの類似する音素の発音記号の組みとして、苦手発音テーブル(22g)の語学レベル1(初級)に区分けされている発音記号の組み([∫]:[θ])が選択されたと仮定する。 Here, as a set of phonetic symbols of two similar phonemes to be distinguished, a set of phonetic symbols divided into language level 1 (beginner) of the weak pronunciation table (22 g) ([∫]: [θ]) Suppose that is selected.

CPU21は、選択された聞き分け対象となる2つの類似する音素をそれぞれ含む音声データを選択する(ステップA3)。 The CPU 21 selects voice data including two similar phonemes to be selected and distinguished (step A3).

ここでは、ステップA2にて選択された2つの類似する音素の発音記号([∫]:[θ])に基づいて、辞書データ(22d)あるいは学習コンテンツデータ(22c)から、それぞれの音素が含まれる2つの単語(“sink”と“think”)に対応する音声データが選択されたと仮定する。 Here, each phoneme is included from the dictionary data (22d) or the learning content data (22c) based on the phonetic symbols ([∫]: [θ]) of two similar phonemes selected in step A2. It is assumed that the phoneme data corresponding to the two words (“sink” and “think”) are selected.

すると、CPU21は、話速変換発音区間特定処理(A4:図11参照)に移行し、選択された2つの単語(“sink”と“think”)に対応する音声データを対象に、それぞれの音声データ内の類似する発音要素([∫]:[θ])に対応する発音タイミングを特定し、特定された発音タイミングに対応する部分の音声データを、再生速度を遅くして話速変換処理する。 Then, the CPU 21 shifts to the speech speed conversion pronunciation section identification process (A4: see FIG. 11), and targets the voice data corresponding to the two selected words (“sink” and “think”), and each voice is targeted. The pronunciation timing corresponding to a similar pronunciation element ([∫]: [θ]) in the data is specified, and the voice data of the part corresponding to the specified pronunciation timing is subjected to speech speed conversion processing at a slower playback speed. ..

すなわち、話速変換発音区間特定処理(A4)に移行されると、CPU21は、先ず、聞き分け対象として選択された2つの音声データが類似の音声であるか否かを、例えば各音声データに対応するテキストに付加された発音記号の一致度に基づき判定する(ステップA41)。 That is, when the process shifts to the speech speed conversion pronunciation section identification process (A4), the CPU 21 first determines whether or not the two voice data selected as the distinction targets are similar voices, for example, for each voice data. Judgment is made based on the degree of matching of the phonetic symbols added to the text to be used (step A41).

聞き分け対象として選択された2つの音声データが、2つの単語(“sink”と“think”)に対応する音声データである場合に、当該各音声データに対応する発音記号の一致度に基づき類似の音声であると判定されると(ステップA41(Yes))、CPU21は、2つの音声データをそれぞれ音声認識して、例えば図12の(A1)(B1)に示すように、開始時間0msecから終了時間400msecまでを構成する各音素区間の発音タイミング(0−100−170−270−400msec)に分解する(ステップA42)。 When the two voice data selected as the distinction target are voice data corresponding to two words (“sink” and “think”), they are similar based on the degree of matching of the phonetic symbols corresponding to each voice data. When it is determined that the sound is voice (step A41 (Yes)), the CPU 21 recognizes each of the two voice data, and ends from a start time of 0 msec, for example, as shown in (A1) and (B1) of FIG. It is decomposed into the sounding timing (0-100-170-270-400 msec) of each phoneme section constituting the time up to 400 msec (step A42).

そして、2つの音声データを比較して差異のある部分(“sink”の“s”[∫]の部分と“think”の“th”[θ]の部分)の音素区間に対応する発音タイミング(0−100msec)を特定し、例えば図12の(A2)(B2)に示すように、特定された発音タイミングに対応する部分の音声データを、再生速度を遅く(ここでは2.7倍に遅く)して話速変換処理する(ステップA43)。 Then, comparing the two voice data, the pronunciation timing corresponding to the phoneme section of the difference (“s” [∫] part of “sink” and “th” [θ] part of “think”) (0-100 msec) is specified, and as shown in (A2) and (B2) of FIG. 12, the reproduction speed of the audio data of the portion corresponding to the specified sounding timing is slowed down (here, 2.7 times slower). ) To perform the speech speed conversion process (step A43).

一方、聞き分け対象として選択された2つの音声データが、類似の音声ではないと判定された場合(ステップA41(No))、CPU21は、2つの音声データそれぞれにおいて、選択された類似音素の発音記号([∫]:[θ])に対応する発音タイミングを特定し、特定された発音タイミングに対応する部分の音声データを、再生速度を遅くして話速変換処理する(ステップA44)。 On the other hand, when it is determined that the two voice data selected as the objects to be distinguished are not similar voices (step A41 (No)), the CPU 21 uses the phonetic symbols of the selected similar phonemes in each of the two voice data. The pronunciation timing corresponding to ([∫]: [θ]) is specified, and the voice data of the portion corresponding to the specified pronunciation timing is subjected to the speech speed conversion process by slowing down the reproduction speed (step A44).

CPU21は、話速変換発音区間特定処理(A4)に従い、図12の(A2)(B2)に示すように、話速変換処理された2つの音声データ(“sink”と“think”)のうち、一方の音声データ“sink”と他方の音声データ“think”とを順番に再生する(ステップA5,A6)。 The CPU 21 follows the speech speed conversion sound section identification process (A4), and as shown in (A2) and (B2) of FIG. 12, of the two voice data (“sink” and “think”) that have been subjected to the speech speed conversion process. , One audio data "sink" and the other audio data "think" are reproduced in order (steps A5 and A6).

ここで、CPU21は、一方の音声データ“sink”と他方の音声データ“think”が、ユーザにより順番に指定される毎に再生するよう処理してもよいし、自動で順次再生するよう処理してもよい。 Here, the CPU 21 may process the one audio data "sink" and the other audio data "think" to be reproduced each time they are sequentially specified by the user, or may be processed to automatically reproduce the audio data "sink" in sequence. You may.

以上のように構成した学習支援装置10の第2実施形態の音声再生処理(2)によれば、2つの類似の発音要素(音素)をそれぞれ含む2つの単語(熟語、成句等でもよい)の音声データが、聞き分け対象の音声データとして選択されると、当該2つの単語それぞれの音声データにおいて、2つの類似の発音要素(音素)を含む発音部分の再生区間が特定され、特定された再生区間の再生速度が遅く変化され話速変換されて再生される。 According to the voice reproduction process (2) of the second embodiment of the learning support device 10 configured as described above, two words (may be compound words, phrases, etc.) containing two similar pronunciation elements (phonemes), respectively. When the voice data is selected as the voice data to be discriminated, the reproduction section of the pronunciation portion including two similar pronunciation elements (phonemes) is specified in the voice data of each of the two words, and the specified reproduction section is specified. The playback speed of is changed slowly and the speech speed is converted and played.

これにより、ユーザによる聞き取りが苦手な2つの類似の発音要素(音素)をそれぞれ含む2つの英単語等の音声データの再生において、ユーザは、当該類似の発音要素(音素)の部分を容易に聞き取って、効果的に聞き分ける練習を行なうことが可能になる。 As a result, in reproducing voice data such as two English words including two similar pronunciation elements (phonemes) that the user is not good at hearing, the user can easily hear the part of the similar pronunciation element (phoneme). Therefore, it becomes possible to practice distinguishing effectively.

なお、以上の学習支援装置10による第1および第2実施形態の音声再生処理において、再生対象の音声データを再生する際に、ユーザが苦手なあるいは聞き分け対象の発音要素(音素)を含む発音部分の再生区間を特定し、当該特定した再生区間の再生速度を遅く切り換えるタイミングと、元の通常の再生速度に切り換えるタイミングでは、当該再生速度を段階的に切り換えることで、ユーザに聞き取りの違和感を与えないよう処理してもよい。 In the voice reproduction processing of the first and second embodiments by the above learning support device 10, when reproducing the audio data to be reproduced, the pronunciation portion including the pronunciation element (phoneme) that the user is not good at or is to distinguish. At the timing of specifying the playback section of the above and switching the playback speed of the specified playback section slowly and the timing of switching to the original normal playback speed, the playback speed is gradually switched to give the user a sense of discomfort in listening. You may process it so that it does not exist.

また、第1および第2実施形態の音声再生処理では、再生対象の音声データの、ユーザが苦手なあるいは聞き分け対象の発音要素(音素)を含む特定の再生区間において、再生速度を遅く切り換える(変化させる)ことで、当該ユーザが苦手なあるいは聞き分け対象の発音要素(音素)を含む発音部分をユーザに聞き取り易く再生し、ユーザが効果的に練習を行えるよう構成した。 Further, in the audio reproduction processing of the first and second embodiments, the reproduction speed of the audio data to be reproduced is switched slowly (change) in a specific reproduction section including a pronunciation element (phoneme) which the user is not good at or is to be distinguished. By doing so, the pronunciation part including the pronunciation element (phoneme) that the user is not good at or is to be distinguished is reproduced so that the user can easily hear it, and the user can practice effectively.

これとは逆に、再生対象の音声データの、特定の再生区間の再生速度を早く切り換える(変化させる)ことで、ユーザが苦手なあるいは聞き分け対象の発音要素(音素)を含む発音部分を、ユーザにより聞き取り難く再生し、例えば語学レベルの高いユーザにとって効果的な練習が行えるよう構成してもよい。 On the contrary, by quickly switching (changing) the playback speed of a specific playback section of the voice data to be played back, the user can select the pronunciation part including the pronunciation element (phoneme) that the user is not good at or is to distinguish. The playback may be difficult to hear, and may be configured so that, for example, a user with a high language level can practice effectively.

さらに、再生対象の音声データの、特定の再生区間の再生速度を変化させるのではなく、当該特定の再生区間の再生音量を大きくまたは小さく変化させ強調して再生することで、ユーザが苦手なあるいは聞き分け対象の発音要素(音素)を含む発音部分の聞き取り練習を行なう構成としてもよい。 Furthermore, the user is not good at playing the audio data to be played back by changing the playback volume of the specific playback section to a large or small value and emphasizing the playback, instead of changing the playback speed of the specific playback section. It may be configured to practice listening to the pronunciation part including the pronunciation element (phoneme) to be distinguished.

前記各実施形態において記載した電子機器(学習支援装置10)による各処理の手法、すなわち、図4〜図8のフローチャートに示す第1実施形態の音声再生処理(1)、図10,図11のフローチャートに示す第2実施形態の音声再生処理(2)などの各手法は、何れもコンピュータに実行させることができるプログラムとして、メモリカード(ROMカード、RAMカードなど)、磁気ディスク(フロッピ(登録商標)ディスク、ハードディスクなど)、光ディスク(CD−ROM、DVDなど)、半導体メモリなどの外部記録装置の媒体に格納して配布することができる。そして、電子機器のコンピュータ(CPU)は、この外部記録装置の媒体に記録されたプログラムを記憶装置に読み込み、この読み込んだプログラムによって動作が制御されることにより、前記各実施形態において説明した音声再生機能を実現し、前述した手法による同様の処理を実行することができる。 Each processing method by the electronic device (learning support device 10) described in each of the above embodiments, that is, the voice reproduction processing (1) of the first embodiment shown in the flowcharts of FIGS. 4 to 8, FIGS. 10 and 11. Each method such as the sound reproduction processing (2) of the second embodiment shown in the flowchart is a memory card (ROM card, RAM card, etc.) and a magnetic disk (floppy (registered trademark)) as programs that can be executed by a computer. ) Disks, hard disks, etc.), optical disks (CD-ROM, DVD, etc.), semiconductor memories, etc. can be stored and distributed in external recording device media. Then, the computer (CPU) of the electronic device reads the program recorded in the medium of the external recording device into the storage device, and the operation is controlled by the read program, so that the audio reproduction described in each of the above-described embodiments It is possible to realize the function and execute the same processing by the above-mentioned method.

また、前記各手法を実現するためのプログラムのデータは、プログラムコードの形態として通信ネットワーク(N)上を伝送させることができ、この通信ネットワーク(N)に接続されたコンピュータ装置(プログラムサーバ)から、前記プログラムのデータを電子機器に取り込んで記憶装置に記憶させ、前述した音声再生機能を実現することもできる。 Further, the data of the program for realizing each of the above methods can be transmitted on the communication network (N) in the form of a program code, and is transmitted from a computer device (program server) connected to the communication network (N). It is also possible to take the data of the program into an electronic device and store it in a storage device to realize the above-mentioned voice reproduction function.

本願発明は、前記各実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。さらに、前記各実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、各実施形態に示される全構成要件から幾つかの構成要件が削除されたり、幾つかの構成要件が異なる形態にして組み合わされても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除されたり組み合わされた構成が発明として抽出され得るものである。 The present invention is not limited to each of the above-described embodiments, and can be variously modified at the implementation stage without departing from the gist thereof. Further, each of the above-described embodiments includes inventions at various stages, and various inventions can be extracted by an appropriate combination of a plurality of disclosed constituent requirements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in each embodiment or some constituent requirements are combined in different forms, the problems described in the section of the problem to be solved by the invention Can be solved and the effects described in the section on the effects of the invention can be obtained, the configuration in which this constituent requirement is deleted or combined can be extracted as the invention.

以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。 The inventions described in the claims of the original application of the present application are described below.

[付記1]
プロセッサを備え、
前記プロセッサは、
学習対象となる発音要素を特定し、
再生対象の音声データ内で、前記特定された発音要素を含む一部の再生区間を対象区間として特定し、
前記音声データの再生中に、前記特定された前記対象区間での再生状態を他の再生区間の再生状態に対して変化させる、
ように構成されている電子機器。
[Appendix 1]
Equipped with a processor
The processor
Identify the pronunciation elements to be learned and
In the audio data to be reproduced, a part of the reproduction section including the specified sounding element is specified as the target section.
During the reproduction of the audio data, the reproduction state in the specified target section is changed with respect to the reproduction state of another reproduction section.
An electronic device that is configured to.

[付記2]
前記プロセッサは、
ユーザが再生対象として任意に指定したテキストに対応する音声データを再生し、
学習モードが設定されている場合には、前記特定された対象区間での再生状態を他の再生区間の再生状態に対して変化させ、学習モードが設定されていない場合には、前記音声データの全体を同じ再生状態で再生する、
ように構成されている付記1に記載の電子機器。
[Appendix 2]
The processor
Plays the audio data corresponding to the text arbitrarily specified by the user as the playback target,
When the learning mode is set, the reproduction state in the specified target section is changed with respect to the reproduction state of another reproduction section, and when the learning mode is not set, the audio data Play the whole in the same playback state,
The electronic device according to Appendix 1, which is configured as described above.

[付記3]
前記プロセッサは、
前記音声データの再生中に、前記特定された前記対象区間で再生される音声を他の再生区間で再生される音声よりも強調するか、前記特定された対象区間での再生速度を他の再生区間の再生速度よりも遅くする、
ように構成されている付記1または付記2に記載の電子機器。
[Appendix 3]
The processor
During the reproduction of the audio data, the audio reproduced in the specified target section is emphasized more than the audio reproduced in the other reproduction section, or the reproduction speed in the specified target section is set to another reproduction. Slower than the playback speed of the section,
The electronic device according to Appendix 1 or Appendix 2, which is configured as described above.

[付記4]
前記プロセッサは、
前記特定された対象区間で、音程を変えずに再生速度を変化させる話速変換により再生速度を変化させる、
ように構成されている付記1ないし付記3の何れかに記載の電子機器。
[Appendix 4]
The processor
In the specified target section, the reproduction speed is changed by the speech speed conversion that changes the reproduction speed without changing the pitch.
The electronic device according to any one of Supplementary note 1 to Supplementary note 3 configured as described above.

[付記5]
前記プロセッサは、
再生対象のテキストが単語を含む場合に、前記単語に含まれる一部の発音要素の発音部分を前記対象区間として特定する第1処理と、
再生対象のテキストが文を含む場合に、前記文に含まれる一部の単語の発音部分を前記対象区間として特定する第2処理と、
再生対象のテキストが文章である場合に、前記文章に含まれる一部の文の発音部分を前記対象区間として特定する第3処理、
のうちの少なくとも1つの処理を実行する、
ように構成されている付記1乃至付記4のいずれかに記載の電子機器。
[Appendix 5]
The processor
When the text to be reproduced contains a word, the first process of specifying the pronunciation part of a part of the pronunciation element included in the word as the target section, and
When the text to be reproduced contains a sentence, the second process of specifying the pronunciation part of some words included in the sentence as the target section, and
Third process of specifying the pronunciation part of a part of the sentence included in the sentence as the target section when the text to be reproduced is a sentence.
Perform at least one of the processes,
The electronic device according to any one of Supplementary note 1 to Supplementary note 4, which is configured as described above.

[付記6]
前記プロセッサは、
前記第1処理と、前記第2処理と、前記第3処理、のいずれかをユーザに選択させる、
付記5に記載の電子機器。
[Appendix 6]
The processor
Let the user select one of the first process, the second process, and the third process.
The electronic device according to Appendix 5.

[付記7]
ディスプレイと、
ストレージと、を備え、
前記プロセッサは、
学習対象となる発音要素を、前記ディスプレイに表示させた複数の発音記号の中からユーザに選択させて特定するか、または前記ストレージに予め記憶された前記ユーザにとって苦手な発音要素のデータに基づき特定する、
ように構成されている付記1ないし付記6の何れかに記載の電子機器。
[Appendix 7]
With the display
With storage,
The processor
The phonetic element to be learned is specified by the user by selecting it from a plurality of phonetic symbols displayed on the display, or is specified based on the data of the phonetic element that is stored in the storage in advance and is not good for the user. To do,
The electronic device according to any one of Supplementary note 1 to Supplementary note 6 configured as described above.

[付記8]
前記ストレージは、音声データを対応付けたテキストデータを記憶し、
前記プロセッサは、
前記ストレージに記憶されたテキストデータのテキストを前記ディスプレイに表示させる、ように構成され、
前記再生対象の音声データは、前記ディスプレイに表示されたテキストの中からユーザにより任意に選択されたテキストに対応する音声データである、
付記7に記載の電子機器。
[Appendix 8]
The storage stores text data associated with voice data, and stores the text data.
The processor
It is configured to display the text of the text data stored in the storage on the display.
The voice data to be reproduced is voice data corresponding to a text arbitrarily selected by the user from the text displayed on the display.
The electronic device according to Appendix 7.

[付記9]
前記プロセッサは、
前記音声データの前記特定された苦手な発音要素を含む再生区間を、当該苦手な発音要素としての音素を含む音素単位または単語単位または文単位の再生区間として特定する、
ように構成されている付記7または付記8に記載の電子機器。
[Appendix 9]
The processor
A reproduction section including the specified weak pronunciation element of the voice data is specified as a phoneme unit, a word unit, or a sentence unit reproduction section including a phoneme as the weak pronunciation element.
The electronic device according to Appendix 7 or Appendix 8, which is configured as described above.

[付記10]
前記プロセッサは、
前記苦手な発音要素としての音素を含む音素単位または単語単位または文単位の再生区間を、ディスプレイに表示させた当該音素単位または単語単位または文単位の選択項目をユーザに選択させて特定するか、またはストレージに記憶されたユーザの語学レベルのデータに応じて特定する、
付記9に記載の電子機器。
[Appendix 10]
The processor
The user is allowed to select a phoneme-based, word-based, or sentence-based playback section that includes a phoneme as a pronunciation element that he / she is not good at, and the user selects and specifies the phoneme-based, word-based, or sentence-based selection item displayed on the display. Or identify according to the user's language level data stored in the storage,
The electronic device according to Appendix 9.

[付記11]
前記ストレージに予め記憶された苦手な発音要素のデータは、複数の単語を連結して構成される語句のうち、当該単語を単一で発音した場合と比較して発音が変化する発音変化語句の当該発音が変化する部分の発音要素のデータである、
付記7または付記8に記載の電子機器。
[Appendix 11]
The data of the pronunciation element that is not good to be stored in advance in the storage is the pronunciation change phrase whose pronunciation changes as compared with the case where the word is pronounced alone among the words and phrases composed by concatenating a plurality of words. It is the data of the pronunciation element of the part where the pronunciation changes,
The electronic device according to Appendix 7 or Appendix 8.

[付記12]
前記プロセッサは、
前記音声データの前記特定された再生区間での再生速度を、当該特定された再生区間以外での再生速度よりも遅く変化させる、
ように構成されている付記1ないし付記11の何れかに記載の電子機器。
[Appendix 12]
The processor
The reproduction speed of the audio data in the specified reproduction section is changed to be slower than the reproduction speed in the other than the specified reproduction section.
The electronic device according to any one of Supplementary note 1 to Supplementary note 11 configured as described above.

[付記13]
前記プロセッサは、
聞き分け練習の対象となる2つの発音要素を特定し、
前記特定された2つの発音要素をそれぞれ含む2つの単語の音声データを再生する際に、前記2つの音声データそれぞれの前記2つの発音要素を含む再生区間を特定し、
前記2つの音声データの前記特定されたそれぞれの再生区間での再生速度を変化させる、
ように構成されている付記1ないし付記12の何れかに記載の電子機器。
[Appendix 13]
The processor
Identify the two pronunciation elements that are the subject of listening practice,
When reproducing the voice data of two words including the two specified pronunciation elements, the reproduction section including the two pronunciation elements of each of the two voice data is specified.
The reproduction speed of the two audio data in each of the specified reproduction sections is changed.
The electronic device according to any one of Supplementary note 1 to Supplementary note 12, which is configured as described above.

[付記14]
電子機器のプロセッサにより、
学習対象となる発音要素を特定し、
再生対象の音声データ内で、前記特定された発音要素を含む一部の再生区間を対象区間として特定し、
前記音声データの再生中に、前記特定された前記対象区間での再生状態を他の再生区間の再生状態に対して変化させる、
ようにした音声再生方法。
[Appendix 14]
Depending on the processor of the electronic device
Identify the pronunciation elements to be learned and
In the audio data to be reproduced, a part of the reproduction section including the specified sounding element is specified as the target section.
During the reproduction of the audio data, the reproduction state in the specified target section is changed with respect to the reproduction state of another reproduction section.
How to play audio.

[付記15]
電子機器のプロセッサを、
学習対象となる発音要素を特定し、
再生対象の音声データ内で、前記特定された発音要素を含む一部の再生区間を対象区間として特定し、
前記音声データの再生中に、前記特定された前記対象区間での再生状態を他の再生区間の再生状態に対して変化させる、
ように機能させるためのプログラム。
[Appendix 15]
Electronic processor,
Identify the pronunciation elements to be learned and
In the audio data to be reproduced, a part of the reproduction section including the specified sounding element is specified as the target section.
During the reproduction of the audio data, the reproduction state in the specified target section is changed with respect to the reproduction state of another reproduction section.
A program to make it work like this.

10 …学習支援装置(電子機器)
14 …キー入力部(キーボード)
14S…[音声]キー
BS …[音声]タッチキー
15 …音声出力部
15S…本体スピーカ
17 …タッチパネル式表示部(ディスプレイ)
21 …CPU(プロセッサ)
22 …記憶部(ストレージ)
22a…学習支援処理プログラム
22b…音声再生処理プログラム
22c…学習コンテンツ記憶部
22d…辞書データ記憶部
22e…他のコンテンツ記憶部
22f…語学レベルデータ記憶部
22g…苦手発音テーブル記憶部
22h…発音変化イディオムテーブル記憶部
22i…音声再生モードデータ記憶部
22j…話速変換区間設定データ記憶部
22k…話速変換再生区間データ記憶部
23 …外部記録媒体
24 …記録媒体読取部
25 …通信部
27 …イヤホンマイク
30 …Webサーバ(プログラムサーバ)
N …通信ネットワーク(インターネット)
10 ... Learning support device (electronic device)
14 ... Key input section (keyboard)
14S ... [Voice] key BS ... [Voice] Touch key 15 ... Audio output unit 15S ... Main unit speaker 17 ... Touch panel display unit (display)
21 ... CPU (processor)
22 ... Storage unit
22a ... Learning support processing program 22b ... Voice reproduction processing program 22c ... Learning content storage unit 22d ... Dictionary data storage unit 22e ... Other content storage unit 22f ... Language level data storage unit 22g ... Bad pronunciation table storage unit 22h ... Pronunciation change idiom Table storage unit 22i ... Voice reproduction mode data storage unit 22j ... Speaking speed conversion section setting data storage unit 22k ... Speaking speed conversion reproduction section data storage unit 23 ... External recording medium 24 ... Recording medium reading unit 25 ... Communication unit 27 ... Earphone microphone 30 ... Web server (program server)
N ... Communication network (Internet)

Claims (15)

プロセッサを備え、
前記プロセッサは、
学習対象となる発音要素を特定し、
再生対象の音声データ内で、前記特定された発音要素を含む一部の再生区間を対象区間として特定し、
前記音声データの再生中に、前記特定された前記対象区間での再生状態を他の再生区間の再生状態に対して変化させる、
ように構成されている電子機器。
Equipped with a processor
The processor
Identify the pronunciation elements to be learned and
In the audio data to be reproduced, a part of the reproduction section including the specified sounding element is specified as the target section.
During the reproduction of the audio data, the reproduction state in the specified target section is changed with respect to the reproduction state of another reproduction section.
An electronic device that is configured to.
前記プロセッサは、
ユーザが再生対象として任意に指定したテキストに対応する音声データを再生し、
学習モードが設定されている場合には、前記特定された対象区間での再生状態を他の再生区間の再生状態に対して変化させ、学習モードが設定されていない場合には、前記音声データの全体を同じ再生状態で再生する、
ように構成されている請求項1に記載の電子機器。
The processor
Plays the audio data corresponding to the text arbitrarily specified by the user as the playback target,
When the learning mode is set, the reproduction state in the specified target section is changed with respect to the reproduction state of another reproduction section, and when the learning mode is not set, the audio data Play the whole in the same playback state,
The electronic device according to claim 1, which is configured as described above.
前記プロセッサは、
前記音声データの再生中に、前記特定された前記対象区間で再生される音声を他の再生区間で再生される音声よりも強調するか、前記特定された対象区間での再生速度を他の再生区間の再生速度よりも遅くする、
ように構成されている請求項1または請求項2に記載の電子機器。
The processor
During the reproduction of the audio data, the audio reproduced in the specified target section is emphasized more than the audio reproduced in the other reproduction section, or the reproduction speed in the specified target section is set to another reproduction. Slower than the playback speed of the section,
The electronic device according to claim 1 or 2, which is configured as described above.
前記プロセッサは、
前記特定された対象区間で、音程を変えずに再生速度を変化させる話速変換により再生速度を変化させる、
ように構成されている請求項1乃至請求項3のいずれか一項に記載の電子機器。
The processor
In the specified target section, the reproduction speed is changed by the speech speed conversion that changes the reproduction speed without changing the pitch.
The electronic device according to any one of claims 1 to 3, which is configured as described above.
前記プロセッサは、
再生対象のテキストが単語を含む場合に、前記単語に含まれる一部の発音要素の発音部分を前記対象区間として特定する第1処理と、
再生対象のテキストが文を含む場合に、前記文に含まれる一部の単語の発音部分を前記対象区間として特定する第2処理と、
再生対象のテキストが文章である場合に、前記文章に含まれる一部の文の発音部分を前記対象区間として特定する第3処理、
のうちの少なくとも1つの処理を実行する、
ように構成されている請求項1乃至請求項4のいずれか一項に記載の電子機器。
The processor
When the text to be reproduced contains a word, the first process of specifying the pronunciation part of a part of the pronunciation element included in the word as the target section, and
When the text to be reproduced contains a sentence, the second process of specifying the pronunciation part of some words included in the sentence as the target section, and
Third process of specifying the pronunciation part of a part of the sentence included in the sentence as the target section when the text to be reproduced is a sentence.
Perform at least one of the processes,
The electronic device according to any one of claims 1 to 4, which is configured as described above.
前記プロセッサは、
前記第1処理と、前記第2処理と、前記第3処理、のいずれかをユーザに選択させる、
ように構成されている請求項5に記載の電子機器。
The processor
Let the user select one of the first process, the second process, and the third process.
The electronic device according to claim 5, which is configured as described above.
ディスプレイと、
ストレージと、を備え、
前記プロセッサは、
学習対象となる発音要素を、前記ディスプレイに表示させた複数の発音記号の中からユーザに選択させて特定するか、または前記ストレージに予め記憶された前記ユーザにとって苦手な発音要素のデータに基づき特定する、
ように構成されている請求項1乃至請求項6のいずれか一項に記載の電子機器。
With the display
With storage,
The processor
The phonetic element to be learned is specified by the user by selecting it from a plurality of phonetic symbols displayed on the display, or is specified based on the data of the phonetic element that is stored in the storage in advance and is not good for the user. To do,
The electronic device according to any one of claims 1 to 6, which is configured as described above.
前記ストレージは、音声データを対応付けたテキストデータを記憶し、
前記プロセッサは、
前記ストレージに記憶されたテキストデータのテキストを前記ディスプレイに表示させる、ように構成され、
前記再生対象の音声データは、前記ディスプレイに表示されたテキストの中からユーザにより任意に選択されたテキストに対応する音声データである、
請求項7に記載の電子機器。
The storage stores text data associated with voice data, and stores the text data.
The processor
It is configured to display the text of the text data stored in the storage on the display.
The voice data to be reproduced is voice data corresponding to a text arbitrarily selected by the user from the text displayed on the display.
The electronic device according to claim 7.
前記プロセッサは、
前記音声データの前記特定された苦手な発音要素を含む再生区間を、当該苦手な発音要素としての音素を含む音素単位または単語単位または文単位の再生区間として特定する、
ように構成されている請求項7または請求項8に記載の電子機器。
The processor
A reproduction section including the specified weak pronunciation element of the voice data is specified as a phoneme unit, a word unit, or a sentence unit reproduction section including a phoneme as the weak pronunciation element.
The electronic device according to claim 7 or 8.
前記プロセッサは、
前記苦手な発音要素としての音素を含む音素単位または単語単位または文単位の再生区間を、ディスプレイに表示させた当該音素単位または単語単位または文単位の選択項目をユーザに選択させて特定するか、またはストレージに記憶されたユーザの語学レベルのデータに応じて特定する、
請求項9に記載の電子機器。
The processor
The user is allowed to select a phoneme-based, word-based, or sentence-based playback section that includes a phoneme as a pronunciation element that he / she is not good at, and the user selects and specifies the phoneme-based, word-based, or sentence-based selection item displayed on the display. Or identify according to the user's language level data stored in the storage,
The electronic device according to claim 9.
前記ストレージに予め記憶された苦手な発音要素のデータは、複数の単語を連結して構成される語句のうち、当該単語を単一で発音した場合と比較して発音が変化する発音変化語句の当該発音が変化する部分の発音要素のデータである、
請求項7または請求項8に記載の電子機器。
The data of the pronunciation element that is not good to be stored in advance in the storage is the pronunciation change phrase whose pronunciation changes as compared with the case where the word is pronounced alone among the words and phrases composed by concatenating a plurality of words. It is the data of the pronunciation element of the part where the pronunciation changes,
The electronic device according to claim 7 or 8.
前記プロセッサは、
前記音声データの前記特定された再生区間での再生速度を、当該特定された再生区間以外での再生速度よりも遅く変化させる、
ように構成されている請求項1ないし請求項11の何れか一項に記載の電子機器。
The processor
The reproduction speed of the audio data in the specified reproduction section is changed to be slower than the reproduction speed in the other than the specified reproduction section.
The electronic device according to any one of claims 1 to 11, which is configured as described above.
前記プロセッサは、
聞き分け練習の対象となる2つの発音要素を特定し、
前記特定された2つの発音要素をそれぞれ含む2つの単語の音声データを再生する際に、前記2つの音声データそれぞれの前記2つの発音要素を含む再生区間を特定し、
前記2つの音声データの前記特定されたそれぞれの再生区間での再生速度を変化させる、
ように構成されている請求項1ないし請求項12の何れか一項に記載の電子機器。
The processor
Identify the two pronunciation elements that are the subject of listening practice,
When reproducing the voice data of two words including the two specified pronunciation elements, the reproduction section including the two pronunciation elements of each of the two voice data is specified.
The reproduction speed of the two audio data in each of the specified reproduction sections is changed.
The electronic device according to any one of claims 1 to 12, which is configured as described above.
電子機器のプロセッサにより、
学習対象となる発音要素を特定し、
再生対象の音声データ内で、前記特定された発音要素を含む一部の再生区間を対象区間として特定し、
前記音声データの再生中に、前記特定された前記対象区間での再生状態を他の再生区間の再生状態に対して変化させる、
ようにした音声再生方法。
Depending on the processor of the electronic device
Identify the pronunciation elements to be learned and
In the audio data to be reproduced, a part of the reproduction section including the specified sounding element is specified as the target section.
During the reproduction of the audio data, the reproduction state in the specified target section is changed with respect to the reproduction state of another reproduction section.
How to play audio.
電子機器のプロセッサを、
学習対象となる発音要素を特定し、
再生対象の音声データ内で、前記特定された発音要素を含む一部の再生区間を対象区間として特定し、
前記音声データの再生中に、前記特定された前記対象区間での再生状態を他の再生区間の再生状態に対して変化させる、
ように機能させるためのプログラム。
Electronic processor,
Identify the pronunciation elements to be learned and
In the audio data to be reproduced, a part of the reproduction section including the specified sounding element is specified as the target section.
During the reproduction of the audio data, the reproduction state in the specified target section is changed with respect to the reproduction state of another reproduction section.
A program to make it work like this.
JP2019164749A 2019-09-10 2019-09-10 Learning support devices, learning support methods and programs Active JP7379968B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019164749A JP7379968B2 (en) 2019-09-10 2019-09-10 Learning support devices, learning support methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019164749A JP7379968B2 (en) 2019-09-10 2019-09-10 Learning support devices, learning support methods and programs

Publications (2)

Publication Number Publication Date
JP2021043306A true JP2021043306A (en) 2021-03-18
JP7379968B2 JP7379968B2 (en) 2023-11-15

Family

ID=74862302

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019164749A Active JP7379968B2 (en) 2019-09-10 2019-09-10 Learning support devices, learning support methods and programs

Country Status (1)

Country Link
JP (1) JP7379968B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006139162A (en) 2004-11-15 2006-06-01 Yamaha Corp Language learning system
JP2007148235A (en) 2005-11-30 2007-06-14 Casio Comput Co Ltd Information display control device and program
JP2007248750A (en) 2006-03-15 2007-09-27 Casio Comput Co Ltd Speech reproduction device
WO2013118387A1 (en) 2012-02-10 2013-08-15 ソニー株式会社 Information processing device, information processing method, and program
JP2014038140A (en) 2012-08-11 2014-02-27 Yasuaki Iwai Language learning assistant device, language learning assistant method and language learning assistant program
JP2015025842A (en) 2013-07-24 2015-02-05 パナソニック株式会社 Sound reproduction apparatus
JP6365520B2 (en) 2015-05-13 2018-08-01 カシオ計算機株式会社 Audio output device, audio output method, and program

Also Published As

Publication number Publication date
JP7379968B2 (en) 2023-11-15

Similar Documents

Publication Publication Date Title
CN101223571B (en) Voice tone variation portion locating device and method
JP4370811B2 (en) Voice display output control device and voice display output control processing program
JP2008268684A (en) Voice reproducing device, electronic dictionary, voice reproducing method, and voice reproducing program
TWI554984B (en) Electronic device
JP6535998B2 (en) Voice learning device and control program
CN109389873B (en) Computer system and computer-implemented training system
JP2015036788A (en) Pronunciation learning device for foreign language
JP2010198241A (en) Chinese input device and program
JP5083155B2 (en) Electronic device and program with dictionary function
JP5119671B2 (en) Audio output device and audio output program
JP4769611B2 (en) Audio data reproducing apparatus and data display method of audio data reproducing apparatus
US8165879B2 (en) Voice output device and voice output program
JP6641680B2 (en) Audio output device, audio output program, and audio output method
JP2006236037A (en) Voice interaction content creation method, device, program and recording medium
JP7379968B2 (en) Learning support devices, learning support methods and programs
JP7424104B2 (en) Learning equipment, learning methods and programs
JP2005128711A (en) Emotional information estimation method, character animation creation method, program using the methods, storage medium, emotional information estimation apparatus, and character animation creation apparatus
KR20010000156A (en) Method for studying english by constituent using internet
JP2021047769A (en) Electronic dictionary, learning word determination method, and program
JP2016212374A (en) Voice output device, voice output method, and program
CN113920786B (en) Singing teaching method and device
KR101030777B1 (en) Method and apparatus for producing script data
JP2005106844A (en) Voice output device, server, and program
JP4985714B2 (en) Voice display output control device and voice display output control processing program
JP2023046222A (en) Electronic apparatus, information processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220902

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231016

R150 Certificate of patent or registration of utility model

Ref document number: 7379968

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150