JP4914808B2 - Word learning device, interactive learning system, and word learning program - Google Patents
Word learning device, interactive learning system, and word learning program Download PDFInfo
- Publication number
- JP4914808B2 JP4914808B2 JP2007299077A JP2007299077A JP4914808B2 JP 4914808 B2 JP4914808 B2 JP 4914808B2 JP 2007299077 A JP2007299077 A JP 2007299077A JP 2007299077 A JP2007299077 A JP 2007299077A JP 4914808 B2 JP4914808 B2 JP 4914808B2
- Authority
- JP
- Japan
- Prior art keywords
- character string
- word
- segmented
- phoneme
- phonetic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000002452 interceptive effect Effects 0.000 title claims description 9
- 238000000034 method Methods 0.000 claims description 44
- 230000008569 process Effects 0.000 claims description 27
- 230000006870 function Effects 0.000 claims description 10
- 230000000881 depressing effect Effects 0.000 claims description 4
- 230000000994 depressogenic effect Effects 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 10
- 238000013519 translation Methods 0.000 description 7
- 230000014616 translation Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 206010013932 dyslexia Diseases 0.000 description 5
- 101100146536 Picea mariana RPS15 gene Proteins 0.000 description 4
- 208000003028 Stuttering Diseases 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 3
- 208000035475 disorder Diseases 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 208000015897 writing disease Diseases 0.000 description 3
- 241001342895 Chorus Species 0.000 description 2
- 244000269722 Thea sinensis Species 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- HAORKNGNJCEJBX-UHFFFAOYSA-N cyprodinil Chemical compound N=1C(C)=CC(C2CC2)=NC=1NC1=CC=CC=C1 HAORKNGNJCEJBX-UHFFFAOYSA-N 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 230000005057 finger movement Effects 0.000 description 2
- 230000012447 hatching Effects 0.000 description 2
- 201000003723 learning disability Diseases 0.000 description 2
- 230000008707 rearrangement Effects 0.000 description 2
- 208000024891 symptom Diseases 0.000 description 2
- 208000012239 Developmental disease Diseases 0.000 description 1
- 208000020358 Learning disease Diseases 0.000 description 1
- 240000000220 Panda oleosa Species 0.000 description 1
- 235000016496 Panda oleosa Nutrition 0.000 description 1
- 101100247669 Quaranfil virus (isolate QrfV/Tick/Afghanistan/EG_T_377/1968) PB1 gene Proteins 0.000 description 1
- 235000014328 Schoenoplectus acutus var occidentalis Nutrition 0.000 description 1
- 244000136421 Scirpus acutus Species 0.000 description 1
- 235000014326 Scirpus californicus Nutrition 0.000 description 1
- 235000017913 Scirpus lacustris Nutrition 0.000 description 1
- 101150025928 Segment-1 gene Proteins 0.000 description 1
- 101100242902 Thogoto virus (isolate SiAr 126) Segment 1 gene Proteins 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 239000002023 wood Substances 0.000 description 1
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
Description
本発明は、外国語の単語を効果的に学習するための単語学習装置、対話型学習システムおよびプログラムに関する。 The present invention relates to a word learning device, an interactive learning system, and a program for effectively learning a foreign language word.
一般的に、外国語の単語の暗記方法としては、単語を発音しながらノートに繰り返し書いて綴りを覚えていくという学習法が効果的であると考えられている。しかしながら、この従来の学習法においては、単語を記憶するに際して、単語の綴りのみならず、発音と意味を同時に覚えるという作業が必要とされるため、この複合的な作業がどの学習者にも有効に作用するとは云えなかった。より効果的な学習方法として、例えば、特許文献1には、英単語の綴り、音声、意味(意味と関連したイラスト)、用例などをひとつの冊子に収めることにより、単語を多角的に学習することを可能とした技術が提案されている。
ところで、学習者の中には、「読み書き障害」(dyslexia:ディスレクシア)を持つ人たちが存在することがある。読み書き障害とは、会話や運動など、一般的な知能の発達には問題がないのに、文字を読んだり書いたりすることが非常に困難な障害のことで、学習障害(Learning Disability; LD)や発達障害の中心的な症状であるとされている。その数は、欧米で全人口の10%以上、日本でも5-10%存在すると言われており、決して少数ではない。症状としては、文字単位で読めてもそれが何かの単語であることがわからない、つまり、文字をまとまり(単語)として認識できない。すなわち、読み書き障害の傾向がある学習者は、文字という記号とその意味を結びつけるという外国語の学習に必須となる処理が苦手であり、それが原因で外国語に対する学習意欲を失ってしまう学習者も少なくない。
本発明は、上述した事情に鑑みてなされたものであり、ノートに単語を繰り返し書くという作業を必要とせず、健常者のみならず読み書き障害の傾向がある学習者でも、確実に単語を学習することができる単語学習装置、対話型学習システム、および単語学習プログラムを提供することを解決課題とする。
By the way, among learners, there are people who have “dyslexia”. Reading and writing disorders are learning disorders (Learning Disability; LD) that are very difficult to read and write, even though there is no problem with general intelligence development such as conversation and exercise. It is said to be a central symptom of developmental disorders. The number is said to be more than 10% of the total population in Europe and the United States, and 5-10% in Japan. As a symptom, even if it can be read in character units, it does not know that it is a word, that is, it cannot recognize characters as a group (word). In other words, learners who tend to have reading and writing disabilities are not good at the processing that is essential for foreign language learning to connect the symbols of letters and their meanings, and that causes them to lose their willingness to learn foreign languages. Not a few.
The present invention has been made in view of the above-described circumstances, and does not require the work of repeatedly writing a word in a notebook, so that not only a healthy person but also a learner who has a tendency to read / write disorder can learn a word reliably. A problem to be solved is to provide a word learning device, an interactive learning system, and a word learning program.
上述した課題を解決するため、本発明の単語学習装置(電子機器)は、複数の音素文字の列から成る単語を学習するための単語学習装置であって、画面の指定された二次元座標位置に画像を表示するための表示部と、単語を1又は複数の音素文字を含む複数の部分に分割した各々を区分としたとき、当該区分を構成する音素文字列を指定する区分音素文字列データと、前記区分の発音を1又は複数の表音文字で表記した表音文字列を指定する区分表音文字列データとを対応づけて記憶する記憶手段と、学習の対象となる単語が指定されると、前記記憶手段から当該単語に対応する区分音素文字列データおよび区分表音文字列データを読み出し、読み出した区分音素文字列データおよび区分表音文字列データに基づいて、当該単語の音素文字列と当該単語の発音を表記した表音文字列を前記表示部に表示するよう制御する制御部とを備え、前記記憶手段は、前記区分の発音において発音の最小単位を最小発音単位としたとき、前記区分音素文字列データと前記区分表音文字列データとを、前記最小発音単位ごとに対応づけて記憶しており、前記制御部は、第1の方向と平行に前記音素文字列と前記表音文字列とを配置し、かつ、前記最小発音単位ごとに、前記音素文字列の配列方向における当該音素文字列の中心と前記表音文字列の配列方向における当該表音文字列の中心とが前記第1の方向と直交する同一直線上に位置するように、前記単語の音素文字列と当該単語の発音を表記した表音文字列とを前記表示部に表示する。好ましくは、前記最小発音単位の音は、これを表記した1又は複数の表音文字と1対1で対応するように定められたものである。
ここで、最小発音単位とは、発音を区分したときの音の最小単位であり、この最小発音単位の音をさらに区分することはできない。具体的には、発音最小単位の音は、「1表音文字」(例えば、「キ」)、「1表音文字+1拗音」(例えば、「キャ」)、「1表音文字+1長母音」(例えば、「キー」)、「1表音文字+1促音」(例えば、「キッ」)、「1表音文字+1拗音+1長母音」(例えば、「キャー」)、「1表音文字+1拗音+1促音」(例えば、「キャッ」)、「1表音文字+1拗音+1長母音+1促音」(例えば、「キャーッ」)のいずれかによって表記され得る。
さらに、本発明は、電子機器のコンピュータを上述した手段として機能させるための単語学習プログラムとしても把握される。
In order to solve the above-described problem, a word learning device (electronic device) according to the present invention is a word learning device for learning a word composed of a plurality of phoneme character strings, and a specified two-dimensional coordinate position on a screen. A segmentation phoneme character string data that designates a phoneme character string that constitutes a segment when each segmented word is divided into a plurality of parts including one or a plurality of phoneme characters. And storage means for storing the categorical phonetic character string data specifying the phonic character string in which the pronunciation of the classification is expressed by one or a plurality of phonic characters, and a word to be learned are designated Then, the segmented phoneme character string data and the segmented phonetic character string data corresponding to the word are read from the storage means, and the phoneme character of the word is based on the read segmented phoneme character string data and the segmented phonetic character string data. Column A control unit that controls the display unit to display a phonetic character string that describes the pronunciation of the word, and the storage unit, when the minimum unit of pronunciation in the pronunciation of the section is the minimum pronunciation unit, The segmented phoneme string data and the segmented phonetic string data are stored in association with each minimum pronunciation unit, and the control unit stores the phoneme string and the phonetic sound in parallel with a first direction. And the center of the phoneme character string in the arrangement direction of the phoneme character string and the center of the phonetic character string in the arrangement direction of the phonetic character string for each minimum pronunciation unit, The phoneme character string of the word and the phonetic character string describing the pronunciation of the word are displayed on the display unit so as to be positioned on the same straight line orthogonal to the first direction. Preferably, the sound of the minimum pronunciation unit is determined so as to correspond one-to-one with one or a plurality of phonetic characters representing the sound.
Here, the minimum pronunciation unit is the minimum unit of sound when the pronunciation is divided, and the sound of the minimum pronunciation unit cannot be further divided. Specifically, the sound of the minimum pronunciation unit is “one phonetic character” (for example, “ki”), “one phonetic character + 1 stuttering” (for example, “ca”), “one phonetic character + 1 long vowel”. (For example, “key”), “one phonetic character + 1 prompting sound” (for example, “Kit”), “one phonetic character + 1 chorus + 1 long vowel” (for example, “car”), “one phonetic character + 1” It can be expressed by either “sound + +1 sound” (for example, “ka”) or “1 phonetic character + 1 sound + long vowel + 1 sound” (for example, “ca”).
Furthermore, the present invention can be understood as a word learning program for causing a computer of an electronic device to function as the above-described means.
本発明の単語学習装置および単語学習プログラムによれば、単語を複数の区分に分割して、その区分ごとに単語を記憶することを可能とし、且つ、その区分ごとに、1つの音を1通りの表記方法によってのみ表記する表音文字を用いて音素文字列の発音を表すので、学習者は、音素文字列とその発音との対応関係を簡単に記憶することができる。さらに、本発明によれば、区分音素文字列データと区分表音文字列データとを発音最小単位ごとに対応づけて記憶し、各音素文字列および表音文字列の各配列方向における中心が同一直線上に位置するので、電子機器の表示部の画面の横軸(X軸)方向を上記第1の方向としたとき、音素文字列と表音文字列とが最小発音単位ごとに上下に整列して表示される。よって、音素文字列と表音文字列との対応関係が最小発音単位ごとに明確に表示される。よって、当該単語学習装置を用いて(あるいは単語学習プログラムをコンピュータに実行させて)単語学習を実行することで、高い学習効果を得ることができる。特に、読み書き障害の傾向がある学習者は、綴りが長い単語を覚えることが困難な場合があり、それが原因で外国語の学習意欲を喪失してしまうことがある。しかしながら、本発明によれば、単語を複数の区分に分割して、その区分の綴りと発音との対応関係を視覚的に学習することができるので、ノートに単語を繰り返し書くという従来の暗記方法と比較して、より確実に単語を覚えることができる。また単語を暗記するストレスが緩和される。 According to the word learning device and the word learning program of the present invention, it is possible to divide a word into a plurality of sections and store a word for each section, and to make one sound for each section. The phonetic character string is expressed only by the notation method described above, so that the learner can easily store the correspondence between the phoneme character string and the pronunciation. Furthermore, according to the present invention, the segmented phoneme character string data and the segmented phonetic character string data are stored in association with each minimum pronunciation unit, and the center of each phoneme character string and the phonetic character string in each arrangement direction is the same. Because it is located on a straight line, when the horizontal axis (X-axis) direction of the screen of the display unit of the electronic device is the first direction, the phoneme character string and the phonetic character string are aligned vertically for each minimum pronunciation unit. Is displayed. Therefore, the correspondence between the phoneme character string and the phonetic character string is clearly displayed for each minimum pronunciation unit. Therefore, a high learning effect can be obtained by executing word learning using the word learning device (or causing the computer to execute a word learning program). In particular, learners who are prone to reading and writing disorders may find it difficult to learn words with long spelling, which may cause them to lose their willingness to learn foreign languages. However, according to the present invention, it is possible to divide a word into a plurality of sections and visually learn the correspondence between spelling and pronunciation of the sections. Compared with, you can remember words more reliably. The stress of memorizing words is alleviated.
本発明の好適な態様において、前記記憶手段は、前記区分音素文字列データと前記区分表音文字列データとに対応した区分音声データをさらに記憶し、当該単語学習装置は、前記区分音声データに基づいて音声を出力する音声出力部をさらに備え、前記表示部はタッチパネルを含み、当該タッチパネルは、前記画面に対してユーザ操作が行われたときに、その押し下げ位置を検知することが可能であるとともに、前記押し下げ位置とは異なる位置において前記画面が押し下げられた状態から解放されたときの押し下げ解放位置を検知することが可能であり、前記制御部は、1または複数の前記区分音素文字列データが表示されているときにユーザ操作が行われると、前記1または複数の区分音素文字列データのうち、前記押し下げ位置と前記押し下げ解放位置とに基づいて、前記ユーザ操作によって指示された区分音素文字列データを特定し、特定した区分音素文字列データに対応する前記区分音声データを前記音声出力部から出力する。
本発明によれば、タッチパネル上においてユーザ操作が行われたときに、当該ユーザ操作によって指示された区分音素文字列に対応する区分音声(すなわち、選択した区分の発音)が出力されるので、表音文字列で表記された区分の発音を視覚的に学習するのみでなく、音声で聴いて学習できる。よって、学習者がカタカナ読みの発音を覚えてしまうことを防ぎ、より自然な英語の発音を身につけることができる。好ましくは、ユーザ操作とは、音素文字列画像を文字列の配列方向に指でなぞる操作であり、学習者は、手の触感を使いながら、音素文字列の区分と、対応する表音文字列とを視覚的に捉え、且つ、耳で当該区分の発音を聴くことができる。よって、学習の効果はさらに増大する。
In a preferred aspect of the present invention, the storage means further stores segmented speech data corresponding to the segmented phoneme character string data and the segmented phonetic character string data, and the word learning device stores the segmented speech data in the segmented speech data. An audio output unit that outputs audio based on the display unit, the display unit including a touch panel, and the touch panel can detect a pressed position when a user operation is performed on the screen; In addition, it is possible to detect a depressing release position when the screen is released from a depressed state at a position different from the depressing position, and the control unit can detect one or a plurality of the segmented phoneme character string data. If a user operation is performed while is displayed, among the one or more segmented phoneme character string data, the depressed position and the On the basis of the lowered release position to said identified partitioning phoneme string data indicated by the user operation, and outputs the division voice data corresponding to the specified division phoneme string data from said sound output unit.
According to the present invention, when a user operation is performed on the touch panel, the segmented speech corresponding to the segmented phoneme character string designated by the user operation (that is, the pronunciation of the selected segment) is output. Not only can you visually learn the pronunciation of a section represented by a phonetic character string, but you can also learn by listening to it by voice. Therefore, it is possible to prevent the learner from learning the pronunciation of katakana reading and to acquire a more natural English pronunciation. Preferably, the user operation is an operation of tracing the phoneme character string image with a finger in the arrangement direction of the character string, and the learner can use the touch feeling of the hand and classify the phoneme character string and the corresponding phonetic character string. Can be visually recognized, and the pronunciation of the section can be heard with the ear. Therefore, the learning effect is further increased.
本発明の別の好適な態様において、前記記憶手段は、前記区分ごとに、前記複数の音素文字の各々を文字単位画像(文字画像)として表した文字単位画像データ(文字ピースデータ)を記憶するとともに、複数の前記文字単位画像の、前記区分における文字順情報をさらに記憶し、前記制御部は、前記区分に含まれる前記複数の文字単位画像を前記表示手段の前記画面上の異なる位置に表示し、当該複数の文字単位画像を並び替えるようにユーザに促し、前記複数の文字単位画像が前記第1の方向に配列されたときに、その配列順と前記文字順情報とが一致しているか否かを判定する。本態様によれば、ユーザは、文字単位画像を並べ替える作業を単語の区分ごとに行うことができ、各区分における音素文字列の文字の配列を確実に記憶することができる。 In another preferred aspect of the present invention, the storage means stores character unit image data (character piece data) representing each of the plurality of phonemic characters as a character unit image (character image) for each of the sections. And further storing character order information in the section of the plurality of character unit images, and the control unit displays the plurality of character unit images included in the section at different positions on the screen of the display means. And prompting the user to rearrange the plurality of character unit images, and when the plurality of character unit images are arranged in the first direction, whether the arrangement order matches the character order information. Determine whether or not. According to this aspect, the user can perform the operation of rearranging the character unit images for each word segment, and can reliably store the character arrangement of the phoneme character string in each segment.
加えて、上記課題を解決するため、本発明の対話型学習システムは、サーバ装置と、当該サーバ装置と通信可能なユーザ端末との間で、複数の音素文字の列から成る単語を学習する単語学習処理を実行することが可能な対話型単語学習システムであって、前記サーバ装置は、単語を1又は複数の音素文字を含む複数の部分に分割した各々を区分としたとき、当該区分を構成する音素文字列を指定する区分音素文字列データと、前記区分の発音を1又は複数の表音文字で表記した表音文字列を指定する区分表音文字列データとを対応づけて記憶する記憶手段と、前記ユーザ端末から学習の対象となる単語が指定されると、当該指定された単語に対応する区分音素文字列データおよび区分表音文字列データを前記記憶手段から読み出し、前記ユーザ端末に送信する送信手段とを備え、前記ユーザ端末は、画面の指定された二次元座標位置にデータを表示するための表示部と、前記サーバ装置から前記区分音素文字列データおよび前記区分表音文字列データを受信すると、前記音素文字列と前記表音文字列とを前記表示部に配置する表示制御手段と、を備え、前記サーバ装置の前記記憶手段は、前記区分の発音において発音の最小単位を最小発音単位としたとき、前記区分音素文字列データと前記区分表音文字列データとを、前記最小発音単位ごとに対応づけて記憶しており、前記ユーザ端末の表示制御部は、第1の方向と平行に前記音素文字列と前記表音文字列とを配置し、かつ、前記最小発音単位ごとに、前記音素文字列の配列方向における当該音素文字列の中心と前記表音文字列の配列方向における当該表音文字列の中心とが前記第1の方向と直交する同一直線上に位置するように、前記単語の音素文字列と当該単語の発音を表記した表音文字列とを前記表示部に表示するよう制御する。
本発明によれば、サーバ装置の記憶手段に区分音素文字列データと区分表音文字列データとを対応づけて記憶しておくので、ユーザ端末の記憶容量への負荷が軽減される。また、サーバ装置側で簡単に記憶内容を更新することができる。さらに、サーバ装置の記憶容量がユーザ端末よりも大きい場合には、各種の単語帳を記憶しておき、ユーザが所望の単語帳にアクセスして単語学習をすることができるので、学習の幅が広がる。
In addition, in order to solve the above-described problem, the interactive learning system of the present invention learns a word composed of a plurality of phonemic character strings between a server device and a user terminal that can communicate with the server device. An interactive word learning system capable of executing learning processing, wherein the server device configures each division when each of the words divided into a plurality of parts including one or more phonemic characters is classified A storage for storing the phoneme character string data specifying the phoneme character string to be associated with the phonetic character string data specifying the phonetic character string in which the pronunciation of the category is expressed by one or more phonetic characters. When a word to be learned is designated from the means and the user terminal, the segmented phoneme character string data and the segmented phonetic character string data corresponding to the designated word are read from the storage unit, and the user Transmitting means for transmitting to the terminal, wherein the user terminal includes a display unit for displaying data at a specified two-dimensional coordinate position on the screen, and the segmented phoneme character string data and the segmented phonetic sound from the server device. Receiving character string data, display control means for arranging the phoneme character string and the phonetic character string on the display unit, and the storage means of the server device has a minimum pronunciation in the pronunciation of the category When the unit is the minimum pronunciation unit, the segmented phoneme character string data and the segmented phonetic character string data are stored in association with each minimum pronunciation unit, and the display control unit of the user terminal The phoneme character string and the phonetic character string are arranged in parallel with the direction of 1, and the center of the phoneme character string in the arrangement direction of the phoneme character string and the phonetic character string for each minimum pronunciation unit of The phoneme character string of the word and the phonetic character string describing the pronunciation of the word so that the center of the phonetic character string in the column direction is located on the same straight line orthogonal to the first direction. Control to display on the display unit.
According to the present invention, since the segmented phoneme character string data and the segmented phonetic character string data are stored in the storage unit of the server device in association with each other, the load on the storage capacity of the user terminal is reduced. In addition, the stored contents can be easily updated on the server device side. Furthermore, when the storage capacity of the server device is larger than that of the user terminal, various word books are stored, and the user can access a desired word book to learn words, so that the learning range is wide. spread.
以下、添付の図面を参照しながら本発明に係る実施の形態を説明する。
A:第1実施形態
図1(a)および(b)は、第1実施形態に係る単語学習器具100Aの外観を示す斜視図である。図1(a)および(b)に示されるように、単語学習器具100Aは、各々にアルファベットが表示された複数の文字ピース20と、これらの文字ピース20を収容するための長方形のケース10とを備える。ケース10は上箱10Aおよび下箱10Bから成り、この上箱10Aと下箱10Bとは、各々の辺縁部のうち対向する一方の長辺がヒンジ(図示略)で結合されることにより、開閉自在となっている。ヒンジは、ケース10が全開のときに、上箱10Aおよび下箱10Bの両方が、当該学習器具が使用時に配置される机などの配置面に対して略水平となるように(すなわち、180度まで見開き可能なように)上箱10Aおよび下箱10Bを結合する。また、辺縁部のうち、もう一方の長辺側においてはその略中央部分に係止具30a,30bが設けられ、これにより、ケース10が閉じた状態において上箱10Aと下箱10Bを係止する。
Embodiments according to the present invention will be described below with reference to the accompanying drawings.
A: First Embodiment FIGS. 1A and 1B are perspective views showing an appearance of a
本実施形態では、アルファベット小文字26文字が3セット、アルファベット大文字26文字が1セット、さらに5つの母音(a,i,u,e,o)が各4文字ずつの計124個が、文字ピース20としてケース10に収容される。各文字ピース20およびケース10は、手触りが心地よい木製であり、文字ピース20は厚さが略3mmかつ1.5cm四方の正方形、ケース10は15cm×23cmの長方形で上箱10Aおよび下箱10Bの各々が約1cmの深さ(すなわち内側側面部の短辺の長さが約1cm)を有するものであることが望ましい。なお、文字ピース20およびケース10の素材および大きさは、上述の態様に限られるものではなく、学習者が当該学習器具を用いて後述の単語学習法を行うにあたって扱い易いものであればよい。文字ピース20の厚みおよび大きさは、ひっくり返し易く、探し易いものが好ましい。さらに、手の触感により脳の活動をより活性化させ得るものであれば、なお良い。
In this embodiment, there are 3 sets of 26 lowercase alphabetic characters, 1 set of 26 uppercase alphabetic characters, and 5 vowels (a, i, u, e, o), 4 characters each, for a total of 124
図2は、単語学習器具100Aを用いた英単語学習法の流れを示すフローチャートである。
学習者は、まず、ケース10の係止具30a,30bを開放し、ケース10を図1(b)に示されるような見開き状態とするとともに、文字ピース124個をすべて上箱10Aに置く。以下の説明では、教授者が本実施形態の単語学習器具100Aを用いて学習者に単語を教授する場合を想定する。
まず最初に、図2を参照して、当該学習方法の基本的な流れを説明する。まず、ステップS1およびS2において、教授者は、上箱10Aに置かれた文字ピース20の中から学習対象である単語の綴りを成すアルファベットを探し、発音しながら下箱10Bの底面部に順に並べる。この例では、単語「pencil」(読み:ペンスル、意味:鉛筆)を学習する。具体的には、ステップS1では、「p」「e」「n」「c」「i」「l」の各々が記載された文字ピース20を探し、ステップS2では「ぺ…ン…ス…ル」とゆっくりと発音しながらこれらの文字ピース20を正しい文字順でケース10の下箱10Bの内側底面部に配列する。なお、図2では、文字ピース20を探すステップ(S1)と発音しながら並べるステップ(S2)とが別々のステップとして記載したが、綴りの順に文字ピース20を1つずつ探し、見つかる度に1つずつ並べながら発音するようにしてもよい。図1(b)には、ケース10の長辺と略平行な方向を単語の文字ピース20の配列方向として並べた例が示されている。
FIG. 2 is a flowchart showing the flow of the English word learning method using the
First, the learner opens the
First, the basic flow of the learning method will be described with reference to FIG. First, in steps S1 and S2, the professor searches the
次に、ステップS3において、教授者は、並べた文字ピース20の配列の図中下側を手でなぞりながら、繰り返し発音する。このとき、単語の意味を口頭で導入する。次に、ステップS4において、文字ピース20をシャッフルし、学習者に並べ替えてみるように指示する。学習者は、シャッフルされた文字ピース20を発音しながら並べ(ステップS2)、正しい順序で並べる。次に、並べた文字ピース20の配列の図中下側を手でなぞりながら、繰り返し発音して覚える(ステップS4)。教授者は再び並べた文字ピース20をシャッフルし(ステップS4)、学習者に並べ替えるように指示する。そして、並べ替えが完了したら、単語の文字列の下側を手でなぞりながら発音するように指示する。こうして、ステップS2〜S4、S5;NOを所定回数(例えば、3回)繰り返す。所定回数を超えた場合(ステップS5;YES)には、ステップS6において、教授者は、学習対象の単語が覚えられたかどうか確認する。確認方法としては、例えば、紙に綴りを書かせる、意味を尋ねる、などがある。単語を暗記できたことが確認できない場合(ステップS6;NO)、教授者は、シャッフルした文字ピース20を再び学習者に並べ替えるように指示する(ステップS2)。教授者は、ステップS6の判定が否定的である限りステップS2〜S5を繰り返し、肯定的になると当該単語の学習を終了する。
Next, in step S3, the professor repeats pronunciation while tracing the lower side of the arrangement of the arranged
ところで、英単語の綴りには、「foreign」の「g」のような無音文字を含んでいたり、「address」のように子音文字が連続して用いられたり、また、「tremendous」の「ou」のように複数の母音文字で別の母音を表す場合などがある。これらの、必ずしも規則的とは言えない文字の組み合わせを含む単語を記憶するには、学習者は単語の綴りを丸暗記することしかない。このため、従来から単語を発音しながらその綴りと訳語を何度もノートに書いて暗記するという方法が英語の学習者の間で一般的に行われている。しかしながら、学習者が、「読み書き障害」(dyslexia)を持っている場合がある。読み書き障害とは、会話や運動など、一般的な知能の発達には問題がないのに、文字を読んだり書いたりすることが非常に困難な障害のことである。読み書き障害の傾向がある学習者は、文字をまとまり(単語)として認識することや、文字という記号とその意味を結びつけるという外国語の学習に必須となる処理が苦手である。このような学習者にとって、特に長い綴りの単語を暗記する場合に、ノートに綴りをひたすら書いて覚える従来の暗記方法が有効に作用しない場合があった。 Incidentally, the spelling of English words, or contain silent letters such as "g" in "Forei g n", or consonant characters are used successively as "a dd re ss", also " There are cases where a plurality of vowel characters represent different vowels such as “ou” in “trend ou s”. In order to memorize words that contain these non-regular character combinations, the learner can only memorize the spellings of the words. For this reason, it has been a common practice among English learners to write and memorize the spelling and translations of a word over and over again while pronouncing the word. However, the learner may have “dyslexia”. A literacy disorder is a disorder in which it is very difficult to read or write letters, even though there is no problem with general intelligence development such as conversation and exercise. Learners who have a tendency to read and write are not good at processing that is essential for learning foreign languages, such as recognizing letters as a group (word), or linking the meaning of a letter and its meaning. For such learners, particularly when memorizing long spelled words, the conventional memorizing method of writing and remembering spells on a notebook may not work effectively.
そこで、本実施形態の単語学習器具100Aでは、単語を学習する際に、その綴りを、複数の部分に分割し、分割した区分単位で綴りを覚える方法を用いる。例えば、図1(b)に図示されるように、ステップS2において、教授者は、学習対象の単語「pencil」を、「pen」と「cil」の2つの部分に分割して、下箱10Bの底面部上に並べる。すなわち、図示のように、「n」と「c」との間にスペースを空けて文字ピースを配置する。ステップS3においては、その区分単位で発音を導入する。すなわち、「pen」に対応する発音「ペン」と、「cil」に対応する発音「スル」を別々に導入する。したがって、学習者は、区分に分割された綴りを、その発音に対応させて記憶することができるので、長い綴りを通しで暗記しようとする場合と比較して、発音と綴りとの対応関係が認識し易く、記憶に定着し易い。
Therefore, in the
この単語の綴りの区分は、従来の音節による区切り方に捉われる必要はなく、例えば、「pe」(ペ)、「n」(ン)、「si」(ス)、「l」(ル)と音単位で分割してもよいし、音節よりも大きな(すなわち文字数が多い)単位に分割してもよい。個人によって一度に記憶できる文字数に違いがあるので、3〜4文字を1区分における文字数の基準とし、学習者に合った区分に分割するのがよい。本実施形態の単語学習器具100Aによれば、文字の各々が独立した文字ピース20に表示されているので、学習者の能力に応じて単語の綴りの区分を適宜変更することができ、教授者は学習者に適した区分で単語の綴りを区分して単語を教授するというきめ細やかな指導を行うことが可能となる。なお、教授者とは、英語専門の教師である必要はなく、他の科目を専門とする教師、また家庭学習においては父親、母親などでもよい。よって、教授者はCD−ROMやカセットテープなどに記憶された、ネイティブスピーカーなどによる単語の自然な発音を再生して聞かせるようにしてよい。
The spelling of the word need not be captured by the conventional syllable separation method. For example, “pe” (pe), “n” (n), “si” (su), “l” (le) And may be divided into units that are larger than the syllable (that is, the number of characters is larger). Since there are differences in the number of characters that can be stored at a time depending on the individual, it is better to divide 3 to 4 characters into categories suitable for the learner based on the number of characters in each category. According to the
本実施形態の単語学習器具は、学習者が独りで学習する独り学習の際の器具としても用いることができる。図3(a)および(b)は、独り学習のときに補助的に用いられる印刷物に表示された単語の例を示す。図3(a)に示す例では、学習対象の単語「pencil」を、「pen」と「cil」の2つの部分に分割されており、図3の(b)に示す例では、「tremendous」は「tre」(トゥレ)と「men」(メン)と「dous」(ダス)の3つの部分に分割されている。各単語の文字列の図中上側には、その発音がカタカナで表示されている。学習者は、この表示に従って、単語の綴りのアルファベットが表示された文字ピース20を探し(図2のステップS1)、カタカナで示された発音の表記にしたがって、単語を発音しながら、文字ピース20を正しい文字順に並べ替える(ステップS2)。
The word learning device of the present embodiment can also be used as a device for single learning where a learner learns alone. FIGS. 3A and 3B show examples of words displayed on a printed material that is used supplementarily when learning alone. In the example shown in FIG. 3A, the word “pencil” to be learned is divided into two parts “pen” and “cil”. In the example shown in FIG. 3B, “tremendous” Is divided into three parts, “tre”, “men”, and “dous”. The pronunciation is displayed in katakana on the upper side of the character string of each word. The learner searches for the
ここで、言語で用いられる文字体系には、アルファベットのように母音と子音のそれぞれが字母(文字記号)を持ち、これらを組み合わせて発音を表すことで言語を表記する音素文字(または単音文字)がある。音素文字では、一般にひとつの音を1又は複数の文字記号で表記する。例えば、上述の例「pencil」は、4つの音を「pe」、「n」、「si」、「l」の各々で表記する。これに対し、表す音ごとに別の文字で表記する文字体系は表音文字と云われ、日本語のかな文字(カタカナおよびひらがな)はこの表音文字に該当する。表音文字では、原則として、ひとつの音をひとつの文字記号で表記する。上述の例では、4つの音を「ぺ」、「ン」、「ス」、「ル」の各々で表記する。このように、カタカナは、1つの発音に対してひと通りの表記しかないので、学習者は発音を理解しやすい。なお、カタカナの代わりにひらがなを用いた場合にも同様の効果が得られる。 Here, in the character system used in the language, each vowel and consonant has alphabets (letter symbols) like alphabets, and phonemes (or single phone characters) that express the language by combining these to represent pronunciation There is. In a phoneme character, one sound is generally expressed by one or more character symbols. For example, in the above example “pencil”, four sounds are represented by “pe”, “n”, “si”, and “l”, respectively. On the other hand, a character system that is expressed by different characters for each sound to be expressed is called a phonetic character, and Japanese Kana characters (Katakana and Hiragana) correspond to this phonetic character. In phonograms, as a rule, one sound is represented by one letter symbol. In the above example, the four sounds are represented by “pe”, “n”, “su”, and “le”. In this way, katakana has only one way of writing for one pronunciation, so that the learner can easily understand the pronunciation. The same effect can be obtained when hiragana is used instead of katakana.
なお、表音文字における1音1文字表記には例外がある。例えば、「tremendous」の「t」(トゥ)は2個の表音文字で1つの音を表わす。これは拗音と呼ばれ、小書きにして子音の後ろに添え字として表記されることにより一音を表すものである(例えば、「ゥ」、「ィ」、「ェ」、「ャ」、「ュ」、「ョ」、「ヮ」など)。ほかにも、長母音を表す「ー」や促音「ッ」のように、単独で音を表すことはなく他の音の後にだけ現れるものがある。このような拗音や、長母音、促音などの単独では音を表すことができない文字は、他の表音文字と組み合わせることによりはじめて「ひとつの音」の一部となり得る。すなわち、「ひとつの音」は、「1表音文字」(例えば、「キ」)、「1表音文字+1拗音」(例えば、「キャ」)、「1表音文字+1長母音」(例えば、「キー」)、「1表音文字+1促音」(例えば、「キッ」)、「1表音文字+1拗音+1長母音」(例えば、「キャー」)、「1表音文字+1拗音+1促音」(例えば、「キャッ」)、「1表音文字+1拗音+1長母音+1促音」(例えば、「キャーッ」)のいずれかによって表記され得る。本実施形態では、このような「ひとつの音」を発音の最小単位として捉え、「最小発音単位」と呼ぶ。すなわち、最小発音単位とは原則的には1つの表音文字で表記されるものを示すが、2〜4個の表音文字で表記されるものも含む。この最小発音単位は、1音1文字で表記する場合にも、1音2文字、1音3文字、1音4文字のいずれで表記する場合にも、ひとつの発音に対してひと通りの表記しかなく、学習者は発音を容易に理解することができる。 There is an exception to the notation of one sound per character in phonograms. For example, “t” (toe) of “tremendous” represents one sound by two phonetic characters. This is called roaring, and represents a single sound by writing it as a subscript after the consonant (for example, “u”, “i”, “e”, “a”, “ ”,“ Yo ”,“ ヮ ”, etc.). Others, such as “-” for long vowels and “tsu” for prompt sounds, do not represent sounds alone but appear only after other sounds. Characters that cannot be expressed by themselves, such as stuttering, long vowels, and prompting sounds, can be part of “one sound” only when combined with other phonetic characters. That is, “one phonetic character” includes “one phonetic character” (for example, “ki”), “one phonetic character + 1 stuttering” (for example, “ca”), “one phonetic character + 1 long vowel” (for example, , “Key”), “one phonetic character + 1 sounding sound” (for example, “Kit”), “one phonetic character + 1 stuttering sound + 1 long vowel” (for example, “car”), “one phonetic character + 1 sounding sound + 1 sounding sound” ”(For example,“ ka ”) or“ 1 phonetic character + 1 chorus +1 long vowel + 1 prompting sound ”(for example,“ ka ”). In the present embodiment, such “one sound” is regarded as a minimum unit of pronunciation and is referred to as “minimum pronunciation unit”. In other words, the minimum pronunciation unit indicates in principle one expressed by one phonogram, but also includes one expressed by 2 to 4 phonograms. This minimum pronunciation unit is a single expression for one pronunciation, whether it is expressed by one letter, one letter, two letters, three letters, or four letters. However, the learner can easily understand pronunciation.
さらに、図3に示されるように、単語の文字列の下側には、単語の区分をひとつのかたまりとして示す曲線(円弧)が描かれており、二重線はアクセントが置かれる区分を示す。この曲線は、単語の区分としてのかたまりを示すだけでなく、ステップS3において手でなぞりながら発音する際の指の動きの望ましい軌跡を示す。学習者は、この曲線の表示を参照しながら、一重曲線、二重曲線の部分を手でなぞり、これらの曲線で示される区分を単位として単語の綴りと発音とを覚えることができる。なお、この表示は必ずしも曲線である必要はなく、直線など他の種類の線でもよい。しかしながら、口に出して発音しながら指でなぞるという、口、耳、手を利用して単語の区分とその綴りおよび発音とを記憶に定着させる意味では、手の動きが英語の抑揚により合致する円弧を用いることが望ましい。また、区切りの始点と終点とが明確に示される曲線を用いた方が、綴りの区分を認識し易い。 Further, as shown in FIG. 3, a curve (arc) indicating the word segment as one lump is drawn below the character string of the word, and the double line indicates the segment where the accent is placed. . This curve not only shows a group of words as a segment, but also shows a desirable trajectory of finger movement when pronunciation while tracing by hand in step S3. While referring to the display of this curve, the learner can trace the single curve and double curve by hand, and can learn the spelling and pronunciation of words in units of segments indicated by these curves. This display does not necessarily need to be a curve, and may be another type of line such as a straight line. However, the movement of the hand matches with the inflection of English in the sense that the mouth, ears, and hands are used to trace the word classification and its spelling and pronunciation in memory, with the mouth and the pronunciation. It is desirable to use an arc. In addition, it is easier to recognize the spelling division if a curve in which the start and end points of the break are clearly shown is used.
なお、以上に述べた単語学習装置を用いた英語学習方法は、読み書き障害の傾向がある学習者のみならず、健常者にも有効である。
以上説明したように、本実施形態の単語学習装置は、学習の対象となる英単語を覚える際に、各々にアルファベットが表示された文字ピース20を単語の区分ごとに並べるという簡易な方法により、学習者の能力に適した長さの部分に単語を区分して学習することを可能とする。さらに、各区分の文字列は、最小発音単位の音に1対1で対応するカタカナやひらがなの表音文字で表記されるので、学習者にとって発音が理解しやすい。すなわち、音と綴りとの対応関係が明確となり、記憶に定着しやすい。加えて、本実施形態においては、手触りの良い木製の文字ピース20を使って「探す」「並べる」「なぞり」ながら、教授者の発音を聴いたり自分で発音したりするので、単語の綴りをノートに繰り返し書いて覚えるという単語の暗記学習のストレスが分散され、緩和される。
In addition, the English learning method using the word learning apparatus described above is effective not only for learners who have a tendency of reading and writing disorders but also for healthy persons.
As described above, the word learning device of the present embodiment, when learning the English word to be learned, by a simple method of arranging the
B:第2実施形態
次に、図4〜10を参照して本発明の第2実施形態について説明する。本実施形態においては、電子機器を用いて上記第1実施形態で説明した単語学習方法を実現する。
図4は、第2実施形態に係る電子機器100Bの外観を示す斜視図であり、図5は、図4に示す電子機器100Bの機能構成を示す機能ブロック図である。図4に示されるように、電子機器100Bは、例えば、PDA(Personal Digital Assistants)であり、本体200と、電源をオンまたはオフ状態とするための電源スイッチ210と、メモリカードが挿入されるスロット230と、タッチペン220と、表示部120とを備える。さらに、図5に示されるように、電子機器100Bは、音声出力部130と、記憶部140と、これら各部を制御するCPU110とを有し、各部はバスを介して相互に接続されている。
B: Second Embodiment Next, a second embodiment of the present invention will be described with reference to FIGS. In the present embodiment, the word learning method described in the first embodiment is realized using an electronic device.
FIG. 4 is a perspective view showing an appearance of the
表示部120は、例えば、LCD(Liquid Crystal Display)であり、CPU110から渡された画像をCPU110によって指定された二次元座標位置(X,Y)に表示するとともに、タッチパネル120aとしても機能する。タッチパネル120aは指やタッチペン220によるユーザからの指示入力を受け付け、指示入力に応じた信号を出力する。CPU110は、ユーザの指またはタッチペン220によるタッチパネル120aに対する操作(ユーザ操作)のタッチ点およびデタッチ点を検出する。すなわち、タッチパネル120aが押し下げられた後に当該押し下げが同一位置において解放された場合の押し下げ位置、また、押し下げられたまま別の位置に移動した場合の最初の押し下げ位置をタッチ点であると判定し、タッチパネル120aが押し下げられたままの状態で別の位置まで移動した後に押し下げが解放された場合の解放位置をデタッチ点であると判定する。CPU110は、タッチ点およびデタッチ点の各座標を検出可能である。CPU110は、1または複数の区分音素文字列が表示されているときにユーザ操作が行われると、タッチ点座標(押し下げ位置)とデタッチ点座標(押し下げ解放位置)に基づいて、ユーザ操作によって指示された区分音素文字列を特定することができる。さらに、タッチパネル120aでは、ユーザは画面上に表示された画像を指またはタッチペン220でドラッグおよびドロップすることができる。
The
スロット230には、学習の対象となる単語の単語テーブルTBLを含む単語帳メモリカード150や、当該電子機器100Bで動作する任意のアプリケーションソフトウェアが記憶されたメモリカード等を挿入することができる。メモリカードに記憶されたデータは、スロット230にメモリカードが挿入された状態においてCPU110によって読み出され、各部に渡されて処理される。音声出力部130は、CPU110から渡された音声データを変換して音声として外部に出力する。本実施形態では、音声出力部130が処理する音声データは、学習対象となる単語の発音を示す音声データである。
In the
記憶部140は、RAM(Random Access Memory)140bおよびROM(Read Only Memory)140aを備える。RAM140bは各種データを一時的に記憶するとともにCPU110のワークエリアとして機能する。CPU110はROM140aに記憶された単語学習プログラムPを実行することにより、本実施形態に係る単語学習処理を制御する手段として機能する。
CPU110は、図示せぬカウンタを備える。CPU110は、単語学習プログラムPが実行する文字順学習処理(後述)において、文字画像の並べ替え操作に応じてカウント値をインクリメントする。
The
The
図6は、単語帳メモリカード150に記憶された単語テーブルTBLの記憶内容の一例を示すものであり、図7は、電子機器100Bを用いた単語学習処理の流れを示すフローチャートである。図9〜図10は、単語学習処理における画面の表示例を示す。
本実施形態の単語帳メモリカード150は、中学校1年〜3年の英語教科書に準拠した単語を記憶している。単語帳メモリカード150では、学年ごとに単語データフォルダが設けられ、当該フォルダの中に単語テーブルTBLがUnitやLessonなどの単元ごとに収められる。図6は、中学3年生の「Unit 3」として記憶された単語テーブルTBLの一部を表示したものである。
FIG. 6 shows an example of the contents of the word table TBL stored in the word
The word
図6に示されるように、単語テーブルTBLには、各単語について、複数種類のデータが対応づけられて記憶されている。説明の簡易のため、これら複数種類のデータを3つのグループA,B,Cに大別して説明する。グループAにおいては、学習の対象である単語の綴りと単語の上側に併記された単語の発音のカタカナ表記とを含む全表示データ、単語の訳語を示す訳語データ、および単語の通しの発音を示す通し音声データとが対応づけられて記憶されている。全表示データおよび訳語データは各々について表示されるべき座標位置が指定された座標位置指定情報を含む画像データであり、各画像は、図9の(a)に示されるように、座標位置指定情報によって指定された位置に表示される。座標位置指定情報は、全表示データが訳語データより画面の上部に表示されるように各全表示データおよび訳語データの各座標を指定する。すなわち、各全表示データおよび訳語データの各文字列の配列方向がX軸と平行であるとき、配列方向における文字列の中心、左端、または右端のいずれかが全表示データと訳語データとで同じX座標を有するように設定される。図9の(a)は、全表示データおよび訳語データの各文字列の中心が同じX座標を有する場合の例を示す。通し音声データは、全表示データおよび訳語データが表示されると、CPU110によって単語テーブルTBLから読み出されて音声出力部130から出力されることにより、表示中の単語の発音を音声により示す。
As shown in FIG. 6, the word table TBL stores a plurality of types of data in association with each word. For simplicity of explanation, these plural types of data will be roughly classified into three groups A, B, and C. In group A, all display data including the spelling of the word to be learned and the katakana notation of the pronunciation of the word written above the word, the translation data indicating the translation of the word, and the pronunciation of the word are shown. The sound data is stored in association with each other. All the display data and the translated word data are image data including coordinate position designation information in which coordinate positions to be displayed are designated, and each image has coordinate position designation information as shown in FIG. It is displayed at the position specified by. The coordinate position designation information designates each coordinate of each display data and each translation data so that all the display data is displayed at the top of the screen from the translation data. That is, when the arrangement direction of each character string of each full display data and translation data is parallel to the X axis, either the center, left end, or right end of the character string in the arrangement direction is the same for all display data and translation data. It is set to have an X coordinate. FIG. 9A shows an example in which the center of each character string of all display data and translated word data has the same X coordinate. When all the display data and the translated word data are displayed, the continuous voice data is read from the word table TBL by the
ところで、第1実施形態において説明したように、アルファベットは子音と母音のそれぞれに字母が割り当てられ、これらの字母の組み合わせにより音を表記する音素文字である。音素文字においては、同じ音に対して異なる表記が使用される。例えば、「ティー」という音は「tee」とも「tea」とも綴られる。これに対し、カタカナやひらがなは、原則として音を1文字で表記する表音文字であり、例外的に1音を2文字〜4文字のいずれかで表記する場合においても、音と表記(1〜4文字のいずれか)とは1対1で対応するように定められている。すなわち、ひとつの音に対する表記はひと通りしか存在しない。したがって、音素文字を文字体系とする英単語を学習する際にその発音を表音文字であるカタカナ(又はひらがな)で表記すると、学習者は綴りと発音との対応関係を理解しやすい。すなわち、単語の綴りをその発音と対応づけて覚えることが容易となる。そこで、本実施形態では、単語を複数の部分に区分し、各区分における英単語の綴りを示す文字列(以下、「音素文字列」という)と、その発音を表記したカタカナ(以下、「表音文字列」)とを対応させて表示することにより、学習者が効果的に単語を学習できる構成としている。 By the way, as explained in the first embodiment, alphabets are phonemic characters in which letters are assigned to consonants and vowels, and sounds are expressed by combinations of these letters. In phonemic characters, different notations are used for the same sound. For example, the sound “tea” is spelled as “tee” or “tea”. On the other hand, katakana and hiragana are phonograms that represent a single character as a rule. In exceptional cases, even when a single sound is represented by any of two to four characters, it is represented as a sound (1 (Any one of 4 characters) is defined to correspond one-to-one. In other words, there is only one way of writing for one sound. Therefore, when learning an English word having a phoneme character as a character system, if the pronunciation is expressed in katakana (or hiragana) as a phonetic character, the learner can easily understand the correspondence between spelling and pronunciation. That is, it becomes easy to remember the spelling of a word in association with its pronunciation. Therefore, in this embodiment, a word is divided into a plurality of parts, a character string indicating the spelling of English words in each section (hereinafter referred to as “phoneme character string”), and a katakana (hereinafter referred to as “table”) indicating its pronunciation. By displaying the character string “) in correspondence with each other, the learner can effectively learn the word.
具体的には、単語テーブルTBLには、グループBにおいて、単語を1又は複数の音素文字を含む複数の部分に分割した各々を区分としたとき、区分を構成する音素文字列を指定する区分音素文字列データと、区分の発音を1又は複数の表音文字で表記した表音文字列を指定する区分表音文字列データと、区分の発音を音声で表した区分発音データとが対応づけて記憶されている。 Specifically, in the word table TBL, when each of the group B divided into a plurality of parts including one or more phoneme characters is defined as a segment, the segmented phoneme that designates the phoneme character string constituting the segment Character string data is associated with segmented phonetic character string data that specifies a phonetic character string in which the pronunciation of the segment is expressed by one or more phonetic characters, and segmented phonetic data that represents the pronunciation of the segment in speech. It is remembered.
図6に示す例において、単語の区分は、「tremendous」を3分割した「tre」、「men」、「dous」の各々であり、各区分に含まれる1又は複数の音素文字が、ひとかたまりの画像データ(区分音素文字列データ)として記憶される。図示の例においては、各画像データの文字列は長方形の枠内に表示され、枠の下側に、枠内に表示された文字列をひとかたまりの区分として示す曲線(円弧)が描かれている。二重曲線は単語の区分のうち発音のアクセントが置かれる部分を示す。第1実施形態において説明したように、曲線は単語の区分としてのかたまりを示すだけでなく、指またはタッチペン220でなぞりながら各区分を発音する際および各区分の発音を聴く際の指の動きの望ましい軌跡を示す。学習者は、タッチパネル120a上で、一重曲線、二重曲線上を手でなぞることにより、各曲線で示される区分を単位として単語の綴りと発音とを覚える作業を行うことができる。すなわち、口に出して発音しながら指でなぞるという、口、耳、手の感覚を使うことにより、単語の区分とその綴りおよび発音とをより効果的に記憶に定着させることができる。なお、この表示は必ずしも曲線である必要はなく、直線など他の種類の線でもよい。
In the example shown in FIG. 6, the word segments are “tre”, “men”, and “dous” obtained by dividing “tremendous” into three, and one or more phonemic characters included in each segment are a group. It is stored as image data (segmented phoneme character string data). In the illustrated example, the character strings of each image data are displayed in a rectangular frame, and a curve (arc) indicating the character strings displayed in the frame as a group of segments is drawn below the frame. . The double curve shows the portion of the word segment where the pronunciation accent is placed. As described in the first embodiment, the curve indicates not only a group of words as a segment, but also a finger movement when the segment is pronounced and the pronunciation of each segment is heard while tracing with the finger or the
区分音素文字列データには、さらに、図6において斜線またはドットのハッチングにより示す色指定情報が含まれることにより、区分音素文字列画像が表示されるときに、適宜色づけして表示することができる。なお、発音のアクセントが置かれる区分には赤などの強調色を用いることが望ましい。 The segmented phoneme character string data further includes color designation information indicated by hatching or dot hatching in FIG. 6 so that when the segmented phoneme character string image is displayed, it can be appropriately colored and displayed. . Note that it is desirable to use an emphasis color such as red for the section where the accent of pronunciation is placed.
区分表音文字列データは、区分音素文字列データに含まれる音素文字列の発音を表記した1又は複数の表音文字から成る表音文字列の画像データである。図10の(b)に表示されるように、区分表音文字列データは、当該区分表音文字列データの表音文字列によって表される音に対応する区分音素文字列の配列の図中上部に位置に表示される。さらに詳述すると、表示部120の画面上の位置を横軸Xと横軸Yの二次元座標で表したとき、区分音素文字列およびその音素文字列の発音を表記した表音文字列の各々は、X軸(第1の方向)と平行に配置され、かつ、区分音素文字列の配列方向における当該区分音素文字列の中心と区分表音文字列の配列方向における当該区分表音文字列の中心とがY軸に平行な(第1の方向と直交する)同一直線上に位置するように配置される。すなわち、区分音素文字列データと区分表音文字列データは、区分音素文字列の中心の座標を(X0,Y0)とし、区分表音文字列の中心の座標を(X1,Y1)としたとき、X0=X1且つY0+α=Y1となるように配置される。αは所定値であり、音素文字列と表音文字列とのY方向における間隔が近接しすぎず且つ離間しすぎない値が適宜定められる。
The segmented phonetic character string data is image data of a phonetic character string composed of one or a plurality of phonetic characters describing the pronunciation of the phoneme character string included in the segmented phoneme character string data. As shown in (b) of FIG. 10, the segmented phonetic character string data is an array of segmented phoneme character strings corresponding to sounds represented by the phonetic character string of the segmented phonetic character string data. Displayed at the top position. More specifically, when the position on the screen of the
区分音素文字列データおよび区分表音文字列データには、さらに、その単語の区分の音素文字列の発音を音声で表した区分音声データが対応づけられる。この区分音声データは、例えば、図10の(b)に示す画面において、区分文字列の下側に表示された曲線を指またはタッチペン220でなぞると、単語テーブルTBLから読み出されて音声出力部130から出力される。すなわち、音素文字列の下に表示される曲線は、当該音素文字列に対応する区分音声データを音声出力部130から出力させるための指示入力箇所を示す指示手段であると云うことができる。また、区分音声データは、図11の(c)に示す画面において、学習者が単語の並べ替えをしてひとつの区分文字列が完成した場合に、その完成をトリガとして単語テーブルTBLから読み出されて音声出力部130から出力される。
The segmented phoneme character string data and the segmented phonetic character string data are further associated with segmented speech data that expresses the pronunciation of the phoneme character string of the segment of the word. For example, in the screen shown in FIG. 10B, the segmented voice data is read from the word table TBL when the curve displayed below the segmented character string is traced with a finger or the
次に、図6に示す単語テーブルTBLにおいて、グループCにおいては、各区分音素文字列データについて、区分音素文字列データに含まれる音素文字の各文字画像(文字単位画像)が別個の文字ピースデータとして記憶され、各文字ピースデータには当該文字ピースデータによって表される音素文字の文字順情報が関連づけられて記憶されている。文字順情報は、区分音素文字列内の配列順である。さらに、各文字ピースデータには、当該文字ピースデータによって表される音素文字が区分音素文字列内の最後の文字か否かを示す情報(以下、「最後フラグ」という)が対応づけられて記憶されている。区分音素文字列内の最後の文字である場合には、最後フラグは「1」にセットされ、そうでない場合には「0」にセットされる。 Next, in the word table TBL shown in FIG. 6, in group C, for each segmented phoneme string data, each character image (character unit image) of the phoneme character included in the segmented phoneme string data is separate character piece data. Each character piece data is stored in association with character order information of phonemic characters represented by the character piece data. The character order information is an arrangement order in the segmented phoneme character string. Further, each character piece data is stored in association with information indicating whether or not the phoneme character represented by the character piece data is the last character in the segmented phoneme character string (hereinafter referred to as “last flag”). Has been. If it is the last character in the segmented phoneme string, the last flag is set to “1”, otherwise it is set to “0”.
図7は、電子機器100Bを用いた単語学習処理の流れを示すフローチャートである。CPU110は、ROM140aに記憶された単語学習プログラムPを実行することにより、当該単語学習処理を実行する。以下、図7〜図11を参照しながら、本実施形態に係る単語学習処理の動作を説明する。
まず、学習者であるユーザが単語帳メモリカード150を電子機器100Bのスロット230に挿入した状態で電源スイッチ210をオン状態にすると、CPU110は単語帳メモリカード150のデータを読み出して、図9の(a)に示される画面を表示部120に表示する。挿入された単語帳メモリカード150には、中学校の教科書に準拠した単語が記憶されているので、図9の(a)に示されるように、「中学教科書英単語」と中学1年〜3年の各学年を示す各ボックスが表示される。ユーザは、自己が学習したい学年のボックスを指またはタッチペン220で押し下げすることにより選択する。なお、以下の説明においては、ユーザは指でタッチパネル120aを操作することとし、操作に際して指またはタッチペン220のいずれかを用いるかについての説明は省略する。この例では、ユーザは「中学3年」が選択されたと仮定する。ユーザは、「中学3年」のボックスを選択状態とし、「次へ」ボタンを押し下げする。
FIG. 7 is a flowchart showing the flow of word learning processing using the
First, when the user who is a learner inserts the word
次に、図9の(b)に示される画面において、中学3年で学習する英単語の単元が各ボックスに表示される。ユーザはここで「Unit 3」を選択し、「次へ」ボタンを押し下げする。続いて、図9の(c)に示されるように、「Unit 3の単語学習を始めます」という確認メッセージが表示される。ユーザは、別の単元または別の学年の単語を学習したい場合には、「戻る」ボタンを押し下げして前の画面に戻り、再度選択操作を行う。Unit 3の単語学習を始めてよい場合には、「スタート」ボタンを押し下げする。なお、図9〜図11に示す各画面において、「次へ」ボタン、「戻る」ボタン、「やめる」ボタンが表示されている場合には、ユーザはこれらのボタンのいずれかを選択することにより、次の処理に進む、前の画面に戻る、あるいは単語学習を中止する、のいずれかを選択することができる。
Next, on the screen shown in FIG. 9B, units of English words learned in the third year of junior high school are displayed in each box. The user now selects “
続いて、図9の(d)に示されるように、中学3年のUnit 3に収録されている単語の一覧が表示される。ユーザは、単語に付与された識別番号の左側に表示されたカーソル「?」を上下に移動させることにより、学習の対象となる単語を選択する。表示されたページに学習対象の単語がない場合には、「次頁」ボタンにより別のページに画面を遷移させることができる。この例では、ユーザは、「1.tremendous」を学習の対象として選択し、「次へ」を押し下げする。CPU110はこの単語の選択を受け付ける(図7のステップSA1)。
Subsequently, as shown in FIG. 9 (d), a list of words recorded in
続いて、ステップSA3において、CPU110はユーザによって選択された単語を表示部120に表示する。具体的には、図10(a)に示されるように、「tremendous」に対応して記憶されている全表示データおよび訳語データを単語テーブルTBLから読み出して表示部120の略中央部分に全表示データの画像を表示し、その図中下側に訳語データの画像を表示するとともに、通し音声データV1を読み出して音声出力部130から出力させる。この画面において、「発音を聴く」ボタンを押し下げすると、発音を繰り返し聴くことができる。ユーザは、発音を聴きながら、単語の表音文字列(カタカナ)および音素文字列(アルファベット)を読み、自分で発音し、且つ訳語を覚える作業をした後に、「次へ」ボタンを押し下げする。このステップにおいて、発音を聴きながらカタカナを見ることで、ユーザの当該単語の発音がカタカナ読みになることを防ぐことができる。
Subsequently, in step SA3, the
次に、ステップSA5において、CPU110は、「tremendous」に対応して記憶されている「tre」、「men」、「dous」の各区分音素文字列データおよび各々に対応する区分表音文字列データを単語テーブルTBLから読み出す。そして、図10の(b)に示すように、表示部120の略中央部分に各区分音素文字列データの画像を表示し、その図中上側図中に、対応する区分表音文字列データの画像を表示する。具体的には、「tre」の上側に「トゥレ」、「men」の上側に「メン」、「dous」の上側に「ダス」と表示する。このとき、CPU110は、画面に「(曲線を)指でなぞりながら発音しましょう」と表示することにより、各区分音素文字の下側に表示された曲線を手でなぞるようにユーザに促す。ユーザが曲線を指でなぞると、CPU110は曲線がユーザによってなぞられたこと検知し、その区分音素文字列に対応する区分音声データ(V1−1、V1−1、V1−1のいずれか)を単語テーブルTBLから読み出して音声出力部130から出力する。このとき、CPU110はユーザの指のタッチ点およびデタッチ点を検知し、各タッチ点およびデタッチ点の座標を求める。そして、これらの座標に基づいて、どの区分音素文字列画像の曲線がなぞられたどうかを検出する。この検出は、例えば、タッチ点座標とデタッチ点座標と重なって表示されている区分音素文字列データを検出することにより行われる。
ユーザは、各区分表音文字列(カタカナ)および区分音素文字列(アルファベット)を読み、手でなぞりながら自分で発音し、且つ、発音を聴くことにより単語を覚える作業を行う。例えば、曲線をなぞりながら単語を3回どおり発音し、単語が覚えられたと自己で判断したら、「はい」ボタンを押し下げする。
Next, in step SA5, the
The user reads each segmented phonetic character string (katakana) and the segmented phoneme character string (alphabet), pronounces himself by tracing with his hand, and learns words by listening to the pronunciation. For example, a word is pronounced three times while tracing a curve, and if it is determined that the word has been memorized, the “Yes” button is depressed.
次に、ステップSA7において、CPU110は、文字順学習処理を実行する。図8は、文字順学習処理の詳細な流れを示すフローチャートである。図8のステップSB1において、CPU110は単語テーブルTBLから最初の区分音素文字列データ「tre」に対応して記憶されている文字ピースデータ「t」、「r」および「e」の文字画像を読み出し、各文字画像をシャッフル表示するとともに、ユーザにこれらの文字画像を正しい文字順に並べ替えるように指示する。すなわち、図10の(c)に示されるように、各文字画像を文字順がバラバラの状態で表示部120に表示するとともに、「発音しながら並べ替えてみましょう」と表示することにより、文字画像を並べ替えるようにユーザに促す。本実施形態では、このときの各文字画像は、枠内が黄色に配色されている。
Next, in step SA7, the
CPU110は1つの文字画像がドラッグされた後にドロップされたことを検知する(ステップSB3;YES)と、カウンタを1だけインクリメントする(ステップSB5)。なお、ステップSB3の判定処理は、文字画像のドラッグおよびドロップを検知するまで繰り返される(ステップSB3;NO)。次に、ステップSB7において、インクリメントされた後のカウンタ値(この場合、初期値「0」→「1」)と、ドラッグされた文字画像を表す文字ピースデータに対応づけて単語テーブルTBLに記憶されている文字順情報とを比較して、同一の場合には「正解」であると判断し(ステップSB7;YES)、ステップSB9に進む。一方、非同一の場合には「不正解」であると判断し(ステップSB7;NO)、ステップSB17に進む。
When
この例では、ステップSB3において、文字画像「t」がドラッグおよびドロップされたとする。文字画像「t」の文字順情報は「1」なので、インクリメント後のカウンタ値「1」と同一である。よって、CPU110はステップSB7において正解であると判断し、ステップSB9において、「正解!」と表示するとともに文字画像「t」の枠内を黄色から緑色に変化させる(図10の(d))。次に、ステップSB11において、CPU110は正解の文字画像を表す文字ピースデータに対応づけて単語テーブルTBLに記憶されている最後フラグの値を参照することにより、当該文字画像が区分の最後であるか否かを判定する。この場合、文字画像「t」に対応づけられて単語テーブルTBLに記憶されている最後フラグの値は「0」なので、当該文字画像は区分の最後でないと判定され(ステップSB11;NO)、CPU110は再びステップSB3に戻り、同じ区分の次の文字画像の並べ替えを行う。
In this example, it is assumed that the character image “t” is dragged and dropped in step SB3. Since the character order information of the character image “t” is “1”, it is the same as the counter value “1” after the increment. Therefore, the
次に、ステップSB3において、文字画像「e」がドラッグおよびドロップされて文字画像「t」の右横に配置されたとする。CPU110は、文字画像「e」のドラッグおよびドロップを検知すると(ステップSB3;YES)、ステップSB5において、カウンタ値を「1」から「2」にインクリメントする。しかし、ステップSB7において文字画像「e」の文字順情報は「3」と現在のカウント値「2」とを比較すると、両者は非同一であるので、「不正解」であると判断する(ステップSB7;NO)。そこで、ステップSB17において、CPU110は図11(a)に示されるように「残念。もう一度!」と画面に表示することにより、ユーザにもう一度文字画像を並べるよう促す。そして、文字画像がドラッグおよびドロップされたことを検知する(ステップSB19;YES)と、現在のカウンタ値(この場合「2」)と、ドラッグされた文字画像を表す文字ピースデータに対応づけて単語テーブルTBLに記憶されている文字順情報とを比較して、同一の場合には「正解」であると判断し(ステップSB21;YES)、非同一の場合には「不正解」であると判断する(ステップSB21;NO)。
Next, in step SB3, it is assumed that the character image “e” is dragged and dropped and placed on the right side of the character image “t”. When detecting dragging and dropping of the character image “e” (step SB3; YES), the
この例においては、ユーザは再び文字画像「e」をドラッグおよびドロップして文字画像「t」の右横に配置したとする。すると、現在のカウンタ値(「2」)と文字画像「e」の文字順情報「3」とは非同一なのでステップSB21においてNOと判定され、CPU110は処理をステップSB23に進める。するとCPU110は、図11(b)に示されるように「残念!」と表示するとともに、カウンタ値と同一の文字順情報を有する文字画像を選択し(この場合、文字画像「r」)、当該画像を黄色から緑色に変化させることにより正解画像として表示する(ステップSB23,図11(b))。続いて、処理はステップSB11に進む。この場合、文字画像「r」に対応づけられて単語テーブルTBLに記憶されている最後フラグの値は「0」なので、当該文字画像は区分の最後でないと判定され(ステップSB11;NO)、CPU110は再びステップSB3に戻り、同じ区分の次の文字画像の並べ替えを行う。
これに対し、ステップSB17の後に、ユーザが文字画像「r」をドラッグおよびドロップして文字画像「t」の右横に配置したとする。その場合には、ステップSB21においてYESと判定され、処理はステップSB9に進む。すなわち、画面に「正解!」と表示され、文字画像「r」の枠内を黄色から緑色に変化させる。
In this example, it is assumed that the user drags and drops the character image “e” again and arranges it on the right side of the character image “t”. Then, since the current counter value (“2”) and the character order information “3” of the character image “e” are not the same, it is determined NO in Step SB21, and the
On the other hand, after step SB17, it is assumed that the user drags and drops the character image “r” and arranges it on the right side of the character image “t”. In that case, YES is determined in step SB21, and the process proceeds to step SB9. That is, “correct!” Is displayed on the screen, and the frame of the character image “r” is changed from yellow to green.
次に、当該区分における残りの文字画像「e」について、CPU110は順次同様の処理を行う(ステップSB3〜SB11、SB17〜SB23)。文字画像「e」に対応づけられた最後フラグの値は「1」であるので、ステップSB11において、当該文字画像が区分の最後であることが判定され(ステップSB11;YES)、CPU110はステップSB13においてカウンタ値を「0」にリセットするとともに、区分音素文字列データの画像「tre」を単語テーブルTBLから読み出して表示する(図11(c))。この画面において、ユーザが「tre」の下側に表示された曲線を指でなぞると、「tre」を囲む長方形の枠内の色が、例えば、緑色に変化し、当該区分の区分音声データV1−1が読み出されて音声出力部130から出力される。
Next, the
続いて、ステップSB15において次の区分があるか否か判定する。この場合、「tre」には次の区分が存在するのでYESと判定され、処理はステップSB3に戻り、続いて、次の区分「men」についてステップSB3〜SB23の処理が順次実行される。
続いて、最後の区分「dous」についてもステップSB3〜SB23の処理が順次実行され、ステップSB15において次の区分がない旨が判定される(ステップSB15;NO)と、当該文字順学習処理が終了する。続いて、処理は図7のステップSA9に戻る。
Subsequently, in step SB15, it is determined whether or not there is a next section. In this case, since the next section exists in “tre”, it is determined YES, the process returns to step SB3, and then the processes of steps SB3 to SB23 are sequentially executed for the next section “men”.
Subsequently, the processes of steps SB3 to SB23 are sequentially executed for the last section “dous”, and when it is determined in step SB15 that there is no next section (step SB15; NO), the character order learning process is ended. To do. Subsequently, the process returns to step SA9 in FIG.
ステップSA9において、CPU110は、「tremendous」に対応して記憶されている区分音素文字列データ「tre」、「men」、「dous」の各区分音素文字列データおよび各々に対応する区分表音文字列データを単語テーブルTBLから読み出して、表示部120の略中央部分に各区分表音文字列データの画像をX軸方向に沿って一列に表示する(図11の(d))。さらに、訳語データを単語テーブルTBLから読み出して、区分表音文字列データの画像の下側(図中)に訳語を表示する。このとき、CPU110は画面に「(曲線を)指でなぞりながら発音しましょう」と表示することにより、各区分音素文字の下側に表示された曲線を手でなぞるようにユーザに促す。ユーザが曲線を指でなぞると、CPU110は曲線がユーザによってなぞられたこと検知し、その区分音素文字列に対応する区分音声データ(V1−1、V1−1、V1−1のいずれか)を単語テーブルTBLから読み出して音声出力部130から出力する。
図11の(d)に示された画面において、ユーザが「次の単語へ」ボタンを押し下げすると、図9の(d)に示された単語の選択画面に遷移し、「やめる」ボタンを押し下げすると、図9の(a)に示された初期画面に遷移する。以上で本実施形態の単語学習処理に関する動作が終了する。
In step SA9, the
In the screen shown in FIG. 11D, when the user presses down the “next word” button, the screen changes to the word selection screen shown in FIG. 9D, and the “quit” button is pressed down. Then, the screen changes to the initial screen shown in FIG. The operation relating to the word learning process of the present embodiment is thus completed.
以上説明したように、本実施形態によれば、上記第1実施形態と同様の効果が得られる。さらに、電子機器100Bを用いて単語学習を行うことが可能な構成としたので、単語の区分音素文字列に対応した表音文字列や区分発音を独りでも学習することができる。よって、教授者が不在の場合にも、教授者が付き添って学習する場合と同程度の効果を得ることができる。
As described above, according to the present embodiment, the same effect as in the first embodiment can be obtained. Furthermore, since it is configured to be able to perform word learning using the
C:変形例
(1)上述した第2実施形態では、単語の1区分のなかに複数の最小発音単位を含んでもよい構成としていたが、1つの最小発音単位を1区分単位としてもよい。すなわち、「tremendous」を「tre」(トゥレ)と「men」(メン)と「dous」(ダス)に区分する代わりに、「t」(トゥ)、「re」(レ)、「me」(メ)、「n」(ン)、「dou」(ダ)、「s」(ス)に区分するようにしてもよい。その場合、「t」、「re」、「me」、「n」、「dou」、「s」の各々を区分音素文字列データとし、「トゥ」、「レ」、「メ」、「ン」、「ダ」、「ス」の各々を区分表音文字列データとして単語テーブルTBLに記憶しておく。そして、CPU110は、表示部120に表示する際には、音素文字列「t」と表音文字列「トゥ」の各画像の表示位置が、同一のX座標上に表示されるように制御する。これにより、学習者は、最小発音単位を表す表音文字列発音と音素文字列との関係をより明確に理解することができる。
また、文字順学習処理において、単語の区分ごとに文字画像を表示してユーザに並べ替えをさせる態様について説明したが、単語の全区分の文字画像(すなわち、単語を構成する音素文字全て)を表示して並べ替える態様としてもよい。そして、1つの区分が完成するごとに、区分音素文字列を表示するとともに区分音声データを出力し、その後、後続する音素文字列の並べ替えを引き続き行うようにすればよい。
C: Modification (1) In the second embodiment described above, a plurality of minimum pronunciation units may be included in one division of a word, but one minimum pronunciation unit may be set as one division unit. That is, instead of dividing “tremendous” into “tre” (tule), “men” (men), and “dous” (dass), “t” (toe), “re” (re), “me” ( ), “N” (n), “dou” (da), and “s” (su). In this case, each of “t”, “re”, “me”, “n”, “dou”, “s” is classified as phoneme character string data, and “to”, “re”, “me”, “n” ”,“ Da ”, and“ su ”are stored in the word table TBL as segmented phonetic character string data. Then, when displaying on the
Further, in the character order learning process, a mode has been described in which a character image is displayed for each word segment and the user rearranges it. However, character images of all word segments (that is, all phonemic characters constituting the word) are displayed. It is good also as an aspect which displays and rearranges. Each time one segment is completed, the segmented phoneme character string is displayed and the segmented speech data is output, and then the subsequent phoneme character string is rearranged.
(2)上述した第2実施形態では、PDAを用いた携帯型の学習装置について説明したが、携帯型である必要はない。よって、例えば、固定型または可搬型のパーソナルコンピュータを用いて本発明の単語学習方法を実現してもよい。その場合、タッチパネル120aではなくマウスにより、上述した各操作を実行させるようにすればよい。
また、上述した第2実施形態では、単語テーブルTBLを電子機器100Bに記憶しておく態様について説明したが、学習対象の単語数が膨大な場合には、電子機器100Bの記憶容量を圧迫し、処理負荷が増大する。そこで、インターネットに接続されたサーバ装置に単語テーブルTBLを保持し、電子機器(ユーザ端末)との間で対話型の単語学習を実行させるようにしてもよい。具体的には、ユーザ端末はサーバ装置と通信する通信機能を有し、予めサーバ装置に接続することにより、上記実施形態の単語学習を実行するためのアプリケーションソフトウェアをダウンロードしておく。そして、ユーザ端末において当該ソフトウェアを実行することにより学習対象となる単語を指定すると、サーバ装置は、指定された単語に関する全表示データ、訳語データ、通し発音データ、区分音素文字列データ、区分表音文字列データ、区分音声データ、文字ピースデータ、文字順情報、最後フラグの各々をユーザ端末からの要求に応じて読み出してユーザ端末に送信するようにすればよい。あるいは、アプリケーションソフトウェアをダウンロードせずともブラウザ上で対話型の単語学習を実行してもよい。この態様によれば、ユーザ端末の負荷を軽減しつつ、多数の単語を学習することが可能であるとともに、サーバ装置側で単語データを容易に更新することができる。また、サーバ装置の記憶容量がユーザ端末よりも大きい場合が多いので、その場合には、例えば、中学英単語帳、高校英単語帳、TOEIC600点レベルの英単語帳など、各種の単語帳を記憶しておくことにより、ユーザは所望の単語帳を選び単語学習を行うことででき、学習の幅が広がる。
なお、サーバ装置とユーザ端末とが協働して本発明に係る単語学習処理を実現する場合には、単語学習処理の実現に必要な各手段をいずれの装置が担うようにしてもよく、上述の態様を自由に変形することができる。
(2) In the second embodiment described above, the portable learning device using the PDA has been described, but it is not necessary to be portable. Therefore, for example, the word learning method of the present invention may be realized using a fixed or portable personal computer. In that case, each operation described above may be executed by a mouse instead of the
Moreover, in 2nd Embodiment mentioned above, although the aspect which memorize | stores the word table TBL in the
When the server device and the user terminal cooperate to realize the word learning processing according to the present invention, any device may be responsible for each means necessary for realizing the word learning processing. The embodiment can be freely modified.
(3)上述した実施形態では、単語学習プログラムPが電子機器100BのROM140aに予め記憶されているものとしたが、電子機器100Bが通信機能を備える場合には、この単語学習プログラムPはインターネットに接続してダウンロードされたものであってもよい。この場合には、単語学習プログラムPのバージョンアップを容易に実行することができる。さらに、フロッピー(登録商標)ディスクやCD−ROMなどのコンピュータ読み取り可能な記録媒体に単語学習プログラムPを記録して、頒布するものであってもよい。
(3) In the above-described embodiment, the word learning program P is stored in advance in the
(4)上述した実施形態では、英単語を学習する場合を例にとって説明したが、英語に限られず、例えば、フランス語、ドイツ語など、日本語等の表音文字でその発音を1対1で表記することができる言語であればよい。 (4) In the above-described embodiment, the case of learning English words has been described as an example. However, the present invention is not limited to English. For example, the pronunciation is one-to-one with phonetic characters such as Japanese, such as French and German. Any language can be used.
10…ケース、10a…上箱、10b…下箱、20…文字ピース、30a,30b…係止具、100A…単語学習器具、100B…電子機器、110…CPU、120…表示部、120a…タッチパネル、130…音声出力部、140…記憶部、140a…ROM、140b…RAM、150…単語帳メモリカード、200…本体、210…電源スイッチ、220…タッチペン、230…スロット、TBL…単語テーブル。 DESCRIPTION OF SYMBOLS 10 ... Case, 10a ... Upper box, 10b ... Lower box, 20 ... Character piece, 30a, 30b ... Locking tool, 100A ... Word learning instrument, 100B ... Electronic device, 110 ... CPU, 120 ... Display part, 120a ... Touch panel , 130 ... voice output unit, 140 ... storage unit, 140 a ... ROM, 140 b ... RAM, 150 ... word book memory card, 200 ... main body, 210 ... power switch, 220 ... touch pen, 230 ... slot, TBL ... word table.
Claims (6)
画面の指定された二次元座標位置に画像を表示するための表示部と、
単語を1又は複数の音素文字を含む複数の部分に分割した各々を区分としたとき、当該区分を構成する音素文字列を指定する区分音素文字列データと、前記区分の発音を1又は複数の表音文字で表記した表音文字列を指定する区分表音文字列データとを対応づけて記憶する記憶手段と、
学習の対象となる単語が指定されると、前記記憶手段から当該単語に対応する区分音素文字列データおよび区分表音文字列データを読み出し、読み出した区分音素文字列データおよび区分表音文字列データに基づいて、当該単語の音素文字列と当該単語の発音を表記した表音文字列を前記表示部に表示するよう制御する制御部とを備え、
前記記憶手段は、前記区分の発音において発音の最小単位を最小発音単位としたとき、前記区分音素文字列データと前記区分表音文字列データとを、前記最小発音単位ごとに対応づけて記憶しており、
前記制御部は、第1の方向と平行に前記音素文字列と前記表音文字列とを配置し、かつ、前記最小発音単位ごとに、前記音素文字列の配列方向における当該音素文字列の中心と前記表音文字列の配列方向における当該表音文字列の中心とが前記第1の方向と直交する同一直線上に位置するように、前記単語の音素文字列と当該単語の発音を表記した表音文字列とを前記表示部に表示する、
単語学習装置。 A word learning device for learning a word composed of a sequence of phoneme characters,
A display unit for displaying an image at a specified two-dimensional coordinate position on the screen;
When each of a word divided into a plurality of parts including one or more phonemic characters is defined as a segment, segmented phoneme character string data specifying a phoneme character string constituting the segment, and one or a plurality of pronunciations of the segment Storage means for storing in association with segmented phonetic character string data specifying a phonetic character string expressed in phonetic characters;
When a word to be learned is specified, the segmented phoneme character string data and the segmented phonetic character string data corresponding to the word are read from the storage unit, and the segmented phoneme character string data and the segmented phonetic character string data read out A control unit for controlling the phoneme character string of the word and the phonetic character string describing the pronunciation of the word to be displayed on the display unit,
The storage means stores the segmented phoneme character string data and the segmented phonetic character string data in association with each minimum pronunciation unit when the minimum unit of pronunciation in the pronunciation of the segment is the minimum pronunciation unit. And
The control unit arranges the phoneme character string and the phonetic character string in parallel with a first direction, and the center of the phoneme character string in the arrangement direction of the phoneme character string for each minimum pronunciation unit. And the phoneme character string of the word and the pronunciation of the word are written such that the center of the phonetic character string in the arrangement direction of the phonetic character string is located on the same straight line orthogonal to the first direction. Display a phonetic string on the display unit;
Word learning device.
請求項1に記載の単語学習装置。 The sound of the minimum pronunciation unit is defined so as to correspond one-to-one with one or more phonetic characters representing the sound,
The word learning device according to claim 1.
当該単語学習装置は、前記区分音声データに基づいて音声を出力する音声出力部をさらに備え、
前記表示部はタッチパネルを含み、当該タッチパネルは、前記画面に対してユーザ操作が行われたときに、その押し下げ位置を検知することが可能であるとともに、前記押し下げ位置とは異なる位置において前記画面が押し下げられた状態から解放されたときの押し下げ解放位置を検知することが可能であり、
前記制御部は、1または複数の前記区分音素文字列データが表示されているときにユーザ操作が行われると、前記1または複数の区分音素文字列データのうち、前記押し下げ位置と前記押し下げ解放位置とに基づいて、前記ユーザ操作によって指示された区分音素文字列データを特定し、特定した区分音素文字列データに対応する前記区分音声データを前記音声出力部から出力する、
請求項1又は請求項2に記載の単語学習装置。 The storage means further stores segmented speech data corresponding to the segmented phoneme character string data and the segmented phonetic character string data;
The word learning device further includes a voice output unit that outputs a voice based on the segmented voice data,
The display unit includes a touch panel, and the touch panel can detect a pressed position when a user operation is performed on the screen, and the screen is displayed at a position different from the pressed position. It is possible to detect the depressing release position when released from the depressed state,
When a user operation is performed while one or more of the segmented phoneme character string data is displayed, the control unit includes the depressed position and the depressed release position of the one or more segmented phoneme character string data. And specifying the segmented phoneme string data instructed by the user operation, and outputting the segmented speech data corresponding to the identified segmented phoneme string data from the speech output unit,
The word learning device according to claim 1 or 2.
前記制御部は、前記区分に含まれる前記複数の文字単位画像を前記表示手段の前記画面上の異なる位置に表示し、当該複数の文字単位画像を並び替えるようにユーザに促し、前記複数の文字単位画像が前記第1の方向に配列されたときに、その配列順と、前記文字順情報とが一致しているか否かを判定する、
請求項1ないし請求項3のいずれか一項に記載の単語学習装置。 The storage means stores character unit image data representing each of the plurality of phonemic characters as a character unit image for each of the sections, and further stores character order information in the section of the plurality of character unit images. And
The control unit displays the plurality of character unit images included in the section at different positions on the screen of the display unit, prompts the user to rearrange the plurality of character unit images, and When unit images are arranged in the first direction, it is determined whether or not the arrangement order and the character order information match.
The word learning device according to any one of claims 1 to 3.
前記サーバ装置は、
単語を1又は複数の音素文字を含む複数の部分に分割した各々を区分としたとき、当該区分を構成する音素文字列を指定する区分音素文字列データと、前記区分の発音を1又は複数の表音文字で表記した表音文字列を指定する区分表音文字列データとを対応づけて記憶する記憶手段と、
前記ユーザ端末から学習の対象となる単語が指定されると、当該指定された単語に対応する区分音素文字列データおよび区分表音文字列データを前記記憶手段から読み出し、前記ユーザ端末に送信する送信手段と、
を備え、
前記ユーザ端末は、
画面の指定された二次元座標位置にデータを表示するための表示部と、
前記サーバ装置から前記区分音素文字列データおよび前記区分表音文字列データを受信すると、前記音素文字列と前記表音文字列とを前記表示部に配置する表示制御手段と、
を備え、
前記サーバ装置の前記記憶手段は、前記区分の発音において発音の最小単位を最小発音単位としたとき、前記区分音素文字列データと前記区分表音文字列データとを、前記最小発音単位ごとに対応づけて記憶しており、
前記ユーザ端末の表示制御部は、第1の方向と平行に前記音素文字列と前記表音文字列とを配置し、かつ、前記最小発音単位ごとに、前記音素文字列の配列方向における当該音素文字列の中心と前記表音文字列の配列方向における当該表音文字列の中心とが前記第1の方向と直交する同一直線上に位置するように、前記単語の音素文字列と当該単語の発音を表記した表音文字列とを前記表示部に表示するよう制御する、
対話型学習システム。 An interactive word learning system capable of executing a word learning process for learning a word composed of a plurality of phoneme character strings between a server device and a user terminal capable of communicating with the server device,
The server device
When each of a word divided into a plurality of parts including one or more phonemic characters is defined as a segment, segmented phoneme character string data specifying a phoneme character string constituting the segment, and one or a plurality of pronunciations of the segment Storage means for storing in association with segmented phonetic character string data specifying a phonetic character string expressed in phonetic characters;
When a word to be learned is designated from the user terminal, the segmented phoneme character string data and the segmented phonetic character string data corresponding to the designated word are read from the storage means and transmitted to the user terminal Means,
With
The user terminal is
A display unit for displaying data at a specified two-dimensional coordinate position on the screen;
When receiving the segmented phoneme character string data and the segmented phonetic character string data from the server device, display control means for arranging the phoneme character string and the phonetic character string on the display unit;
With
The storage means of the server device corresponds to the segmented phoneme character string data and the segmented phonetic character string data for each minimum pronunciation unit when the minimum unit of pronunciation in the pronunciation of the category is the minimum pronunciation unit. Remember,
The display control unit of the user terminal arranges the phoneme character string and the phonetic character string in parallel with a first direction, and the phoneme character string in the arrangement direction of the phoneme character string for each minimum pronunciation unit. The phoneme character string of the word and the word of the word are arranged so that the center of the character string and the center of the phonetic character string in the arrangement direction of the phonetic character string are located on the same straight line orthogonal to the first direction. Control to display the phonetic character string indicating the pronunciation on the display unit,
Interactive learning system.
画面の指定された二次元座標位置に画像を表示する表示部と記憶手段とを備える電子機器のコンピュータに、
単語を1又は複数の音素文字を含む複数の部分に分割した各々を区分とし、且つ、前記区分の発音において発音の最小単位を最小発音単位としたとき、当該区分を構成する音素文字列を指定する区分音素文字列データと、前記区分の発音を1又は複数の表音文字で表記した表音文字列を指定する区分表音文字列データとを、前記最小発音単位ごとに対応づけて前記記憶手段に記憶する機能と、
学習の対象となる単語が指定されると、前記記憶手段から当該単語に対応する区分音素文字列データおよび区分表音文字列データを読み出す機能と、
読み出した区分音素文字列データおよび区分表音文字列データに基づいて、第1の方向と平行に前記音素文字列と前記表音文字列とを配置し、かつ、前記最小発音単位ごとに、前記音素文字列の配列方向における当該音素文字列の中心と前記表音文字列の配列方向における当該表音文字列の中心とが前記第1の方向と直交する同一直線上に位置するように、前記単語の音素文字列と当該単語の発音を表記した表音文字列とを前記表示部に表示するよう制御する機能と、
を実現させるための単語学習プログラム。
A word learning program for learning a word composed of a sequence of phoneme characters,
In a computer of an electronic device comprising a display unit that displays an image at a designated two-dimensional coordinate position on the screen and a storage unit,
When each word divided into a plurality of parts including one or more phonemic characters is defined as a segment, and the minimum pronunciation unit is defined as the minimum pronunciation unit in the pronunciation of the segment, the phoneme character string constituting the segment is designated. The segmented phoneme character string data to be stored and the segmented phonetic character string data specifying the phonetic character string in which the pronunciation of the segment is expressed by one or more phonetic characters are associated with each minimum pronunciation unit and stored. A function to memorize the means;
When a word to be learned is specified, a function of reading the segmented phoneme character string data and the segmented phonetic character string data corresponding to the word from the storage unit;
Based on the read segmented phoneme character string data and the segmented phonetic character string data, the phoneme character string and the phonetic character string are arranged in parallel with the first direction, and for each minimum pronunciation unit, The center of the phoneme character string in the arrangement direction of the phoneme character string and the center of the phonetic character string in the arrangement direction of the phonetic character string are located on the same straight line orthogonal to the first direction. A function to control the display unit to display a phoneme character string of a word and a phonetic character string describing the pronunciation of the word;
A word learning program for realizing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007299077A JP4914808B2 (en) | 2007-11-19 | 2007-11-19 | Word learning device, interactive learning system, and word learning program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007299077A JP4914808B2 (en) | 2007-11-19 | 2007-11-19 | Word learning device, interactive learning system, and word learning program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009122581A JP2009122581A (en) | 2009-06-04 |
JP4914808B2 true JP4914808B2 (en) | 2012-04-11 |
Family
ID=40814757
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007299077A Active JP4914808B2 (en) | 2007-11-19 | 2007-11-19 | Word learning device, interactive learning system, and word learning program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4914808B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101217653B1 (en) * | 2009-08-14 | 2013-01-02 | 오주성 | English learning system |
JP2015036788A (en) * | 2013-08-14 | 2015-02-23 | 直也 内野 | Pronunciation learning device for foreign language |
JP6965535B2 (en) * | 2017-03-15 | 2021-11-10 | カシオ計算機株式会社 | Learning support device, learning support method and program |
US11361760B2 (en) | 2018-12-13 | 2022-06-14 | Learning Squared, Inc. | Variable-speed phonetic pronunciation machine |
CN113012525A (en) * | 2021-02-24 | 2021-06-22 | 邹春杰 | Programming type computer multifunctional module hardware assembly teaching device |
CN113947958A (en) * | 2021-08-30 | 2022-01-18 | 读书郎教育科技有限公司 | Word-back system and method based on natural spelling |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6433674A (en) * | 1987-07-30 | 1989-02-03 | Nec Corp | Unregistered word processing system |
JPH1010958A (en) * | 1996-06-27 | 1998-01-16 | Toshiba Corp | Word retrieval type playful learning device |
JP2000127647A (en) * | 1998-04-27 | 2000-05-09 | Nobuyuki Sotani | English vocabulary retrieval/check dictionary with kana heading and english vocabulary retrieval/check device |
JP3759919B2 (en) * | 2002-10-21 | 2006-03-29 | 辻本 旬子 | Foreign language learning program and foreign language learning apparatus |
JP2005189454A (en) * | 2003-12-25 | 2005-07-14 | Casio Comput Co Ltd | Text synchronous speech reproduction controller and program |
JP2007206317A (en) * | 2006-02-01 | 2007-08-16 | Yamaha Corp | Authoring method and apparatus, and program |
JP2008009507A (en) * | 2006-06-27 | 2008-01-17 | Hiroyuki Kabashima | Method for representing pronunciation of foreign language in katakana |
-
2007
- 2007-11-19 JP JP2007299077A patent/JP4914808B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2009122581A (en) | 2009-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8016596B2 (en) | Literacy system | |
US20060194181A1 (en) | Method and apparatus for electronic books with enhanced educational features | |
Marrapodi | What doesn’t work for the lowest level literacy learners and why? | |
JP4914808B2 (en) | Word learning device, interactive learning system, and word learning program | |
JP3230975U (en) | Phonics learning support tool | |
Baker et al. | Pronunciation pairs: an introduction to the sounds of English | |
KR101102520B1 (en) | The audio-visual learning system of its operating methods that based on hangul alphabet combining the metrics | |
CN109389873B (en) | Computer system and computer-implemented training system | |
JP7166580B2 (en) | language learning methods | |
JPWO2016129515A1 (en) | Foreign language learning program and method | |
JP2015036788A (en) | Pronunciation learning device for foreign language | |
KR100238451B1 (en) | A computer aided education system and control techniques for korean | |
US20050191604A1 (en) | Apparatus and method for teaching dyslexic individuals | |
KR101107472B1 (en) | Chinese education and recording medium for it | |
KR101094715B1 (en) | Braille Education Trainer for the Visually Handicapped | |
KR101080092B1 (en) | Method for studying foreign language word and installation using thereof | |
CN116627263A (en) | Multi-functional keyboard is used in middle and primary schools' teaching | |
JP2002207414A (en) | Teaching material for learning kanji | |
US20060110713A1 (en) | Initial teaching alphabet for teaching phonetics | |
Barbetta et al. | Learning to write: Technology for students with disabilities in secondary inclusive classrooms | |
KR200471528Y1 (en) | English Learning Material | |
JP7533525B2 (en) | Electronic device, learning support system, learning processing method and program | |
JP2005140879A (en) | Device and tool for learning english | |
KR102357900B1 (en) | Material for studying English Pronunciation | |
TW514840B (en) | Automatic grading system and method providing listening comprehension and written test |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101119 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111226 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120110 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120123 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4914808 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20180127 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |