JP4914808B2 - Word learning device, interactive learning system, and word learning program - Google Patents

Word learning device, interactive learning system, and word learning program Download PDF

Info

Publication number
JP4914808B2
JP4914808B2 JP2007299077A JP2007299077A JP4914808B2 JP 4914808 B2 JP4914808 B2 JP 4914808B2 JP 2007299077 A JP2007299077 A JP 2007299077A JP 2007299077 A JP2007299077 A JP 2007299077A JP 4914808 B2 JP4914808 B2 JP 4914808B2
Authority
JP
Japan
Prior art keywords
character string
word
segmented
phoneme
phonetic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007299077A
Other languages
Japanese (ja)
Other versions
JP2009122581A (en
Inventor
かおり 大友
Original Assignee
かおり 大友
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by かおり 大友 filed Critical かおり 大友
Priority to JP2007299077A priority Critical patent/JP4914808B2/en
Publication of JP2009122581A publication Critical patent/JP2009122581A/en
Application granted granted Critical
Publication of JP4914808B2 publication Critical patent/JP4914808B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Description

本発明は、外国語の単語を効果的に学習するための単語学習装置、対話型学習システムおよびプログラムに関する。   The present invention relates to a word learning device, an interactive learning system, and a program for effectively learning a foreign language word.

一般的に、外国語の単語の暗記方法としては、単語を発音しながらノートに繰り返し書いて綴りを覚えていくという学習法が効果的であると考えられている。しかしながら、この従来の学習法においては、単語を記憶するに際して、単語の綴りのみならず、発音と意味を同時に覚えるという作業が必要とされるため、この複合的な作業がどの学習者にも有効に作用するとは云えなかった。より効果的な学習方法として、例えば、特許文献1には、英単語の綴り、音声、意味(意味と関連したイラスト)、用例などをひとつの冊子に収めることにより、単語を多角的に学習することを可能とした技術が提案されている。
特開2004−198818号公報
In general, as a method of memorizing words in foreign languages, it is considered that a learning method in which words are repeatedly written in a notebook while a word is pronounced to learn spelling is effective. However, in this conventional learning method, when storing words, it is necessary to learn not only the spelling of words but also the pronunciation and meaning at the same time, so this complex work is effective for any learner. It could not be said that it would affect. As a more effective learning method, for example, in Patent Document 1, words are learned from various angles by putting spellings of English words, speech, meaning (illustrations related to meanings), examples, etc. in one booklet. Technologies that make this possible have been proposed.
JP 2004-198818 A

ところで、学習者の中には、「読み書き障害」(dyslexia:ディスレクシア)を持つ人たちが存在することがある。読み書き障害とは、会話や運動など、一般的な知能の発達には問題がないのに、文字を読んだり書いたりすることが非常に困難な障害のことで、学習障害(Learning Disability; LD)や発達障害の中心的な症状であるとされている。その数は、欧米で全人口の10%以上、日本でも5-10%存在すると言われており、決して少数ではない。症状としては、文字単位で読めてもそれが何かの単語であることがわからない、つまり、文字をまとまり(単語)として認識できない。すなわち、読み書き障害の傾向がある学習者は、文字という記号とその意味を結びつけるという外国語の学習に必須となる処理が苦手であり、それが原因で外国語に対する学習意欲を失ってしまう学習者も少なくない。
本発明は、上述した事情に鑑みてなされたものであり、ノートに単語を繰り返し書くという作業を必要とせず、健常者のみならず読み書き障害の傾向がある学習者でも、確実に単語を学習することができる単語学習装置、対話型学習システム、および単語学習プログラムを提供することを解決課題とする。
By the way, among learners, there are people who have “dyslexia”. Reading and writing disorders are learning disorders (Learning Disability; LD) that are very difficult to read and write, even though there is no problem with general intelligence development such as conversation and exercise. It is said to be a central symptom of developmental disorders. The number is said to be more than 10% of the total population in Europe and the United States, and 5-10% in Japan. As a symptom, even if it can be read in character units, it does not know that it is a word, that is, it cannot recognize characters as a group (word). In other words, learners who tend to have reading and writing disabilities are not good at the processing that is essential for foreign language learning to connect the symbols of letters and their meanings, and that causes them to lose their willingness to learn foreign languages. Not a few.
The present invention has been made in view of the above-described circumstances, and does not require the work of repeatedly writing a word in a notebook, so that not only a healthy person but also a learner who has a tendency to read / write disorder can learn a word reliably. A problem to be solved is to provide a word learning device, an interactive learning system, and a word learning program.

上述した課題を解決するため、本発明の単語学習装置(電子機器)は、複数の音素文字の列から成る単語を学習するための単語学習装置であって、画面の指定された二次元座標位置に画像を表示するための表示部と、単語を1又は複数の音素文字を含む複数の部分に分割した各々を区分としたとき、当該区分を構成する音素文字列を指定する区分音素文字列データと、前記区分の発音を1又は複数の表音文字で表記した表音文字列を指定する区分表音文字列データとを対応づけて記憶する記憶手段と、学習の対象となる単語が指定されると、前記記憶手段から当該単語に対応する区分音素文字列データおよび区分表音文字列データを読み出し、読み出した区分音素文字列データおよび区分表音文字列データに基づいて、当該単語の音素文字列と当該単語の発音を表記した表音文字列を前記表示部に表示するよう制御する制御部とを備え、前記記憶手段は、前記区分の発音において発音の最小単位を最小発音単位としたとき、前記区分音素文字列データと前記区分表音文字列データとを、前記最小発音単位ごとに対応づけて記憶しており、前記制御部は、第1の方向と平行に前記音素文字列と前記表音文字列とを配置し、かつ、前記最小発音単位ごとに、前記音素文字列の配列方向における当該音素文字列の中心と前記表音文字列の配列方向における当該表音文字列の中心とが前記第1の方向と直交する同一直線上に位置するように、前記単語の音素文字列と当該単語の発音を表記した表音文字列とを前記表示部に表示する。好ましくは、前記最小発音単位の音は、これを表記した1又は複数の表音文字と1対1で対応するように定められたものである。
ここで、最小発音単位とは、発音を区分したときの音の最小単位であり、この最小発音単位の音をさらに区分することはできない。具体的には、発音最小単位の音は、「1表音文字」(例えば、「キ」)、「1表音文字+1拗音」(例えば、「キャ」)、「1表音文字+1長母音」(例えば、「キー」)、「1表音文字+1促音」(例えば、「キッ」)、「1表音文字+1拗音+1長母音」(例えば、「キャー」)、「1表音文字+1拗音+1促音」(例えば、「キャッ」)、「1表音文字+1拗音+1長母音+1促音」(例えば、「キャーッ」)のいずれかによって表記され得る。
さらに、本発明は、電子機器のコンピュータを上述した手段として機能させるための単語学習プログラムとしても把握される。
In order to solve the above-described problem, a word learning device (electronic device) according to the present invention is a word learning device for learning a word composed of a plurality of phoneme character strings, and a specified two-dimensional coordinate position on a screen. A segmentation phoneme character string data that designates a phoneme character string that constitutes a segment when each segmented word is divided into a plurality of parts including one or a plurality of phoneme characters. And storage means for storing the categorical phonetic character string data specifying the phonic character string in which the pronunciation of the classification is expressed by one or a plurality of phonic characters, and a word to be learned are designated Then, the segmented phoneme character string data and the segmented phonetic character string data corresponding to the word are read from the storage means, and the phoneme character of the word is based on the read segmented phoneme character string data and the segmented phonetic character string data. Column A control unit that controls the display unit to display a phonetic character string that describes the pronunciation of the word, and the storage unit, when the minimum unit of pronunciation in the pronunciation of the section is the minimum pronunciation unit, The segmented phoneme string data and the segmented phonetic string data are stored in association with each minimum pronunciation unit, and the control unit stores the phoneme string and the phonetic sound in parallel with a first direction. And the center of the phoneme character string in the arrangement direction of the phoneme character string and the center of the phonetic character string in the arrangement direction of the phonetic character string for each minimum pronunciation unit, The phoneme character string of the word and the phonetic character string describing the pronunciation of the word are displayed on the display unit so as to be positioned on the same straight line orthogonal to the first direction. Preferably, the sound of the minimum pronunciation unit is determined so as to correspond one-to-one with one or a plurality of phonetic characters representing the sound.
Here, the minimum pronunciation unit is the minimum unit of sound when the pronunciation is divided, and the sound of the minimum pronunciation unit cannot be further divided. Specifically, the sound of the minimum pronunciation unit is “one phonetic character” (for example, “ki”), “one phonetic character + 1 stuttering” (for example, “ca”), “one phonetic character + 1 long vowel”. (For example, “key”), “one phonetic character + 1 prompting sound” (for example, “Kit”), “one phonetic character + 1 chorus + 1 long vowel” (for example, “car”), “one phonetic character + 1” It can be expressed by either “sound + +1 sound” (for example, “ka”) or “1 phonetic character + 1 sound + long vowel + 1 sound” (for example, “ca”).
Furthermore, the present invention can be understood as a word learning program for causing a computer of an electronic device to function as the above-described means.

本発明の単語学習装置および単語学習プログラムによれば、単語を複数の区分に分割して、その区分ごとに単語を記憶することを可能とし、且つ、その区分ごとに、1つの音を1通りの表記方法によってのみ表記する表音文字を用いて音素文字列の発音を表すので、学習者は、音素文字列とその発音との対応関係を簡単に記憶することができる。さらに、本発明によれば、区分音素文字列データと区分表音文字列データとを発音最小単位ごとに対応づけて記憶し、各音素文字列および表音文字列の各配列方向における中心が同一直線上に位置するので、電子機器の表示部の画面の横軸(X軸)方向を上記第1の方向としたとき、音素文字列と表音文字列とが最小発音単位ごとに上下に整列して表示される。よって、音素文字列と表音文字列との対応関係が最小発音単位ごとに明確に表示される。よって、当該単語学習装置を用いて(あるいは単語学習プログラムをコンピュータに実行させて)単語学習を実行することで、高い学習効果を得ることができる。特に、読み書き障害の傾向がある学習者は、綴りが長い単語を覚えることが困難な場合があり、それが原因で外国語の学習意欲を喪失してしまうことがある。しかしながら、本発明によれば、単語を複数の区分に分割して、その区分の綴りと発音との対応関係を視覚的に学習することができるので、ノートに単語を繰り返し書くという従来の暗記方法と比較して、より確実に単語を覚えることができる。また単語を暗記するストレスが緩和される。   According to the word learning device and the word learning program of the present invention, it is possible to divide a word into a plurality of sections and store a word for each section, and to make one sound for each section. The phonetic character string is expressed only by the notation method described above, so that the learner can easily store the correspondence between the phoneme character string and the pronunciation. Furthermore, according to the present invention, the segmented phoneme character string data and the segmented phonetic character string data are stored in association with each minimum pronunciation unit, and the center of each phoneme character string and the phonetic character string in each arrangement direction is the same. Because it is located on a straight line, when the horizontal axis (X-axis) direction of the screen of the display unit of the electronic device is the first direction, the phoneme character string and the phonetic character string are aligned vertically for each minimum pronunciation unit. Is displayed. Therefore, the correspondence between the phoneme character string and the phonetic character string is clearly displayed for each minimum pronunciation unit. Therefore, a high learning effect can be obtained by executing word learning using the word learning device (or causing the computer to execute a word learning program). In particular, learners who are prone to reading and writing disorders may find it difficult to learn words with long spelling, which may cause them to lose their willingness to learn foreign languages. However, according to the present invention, it is possible to divide a word into a plurality of sections and visually learn the correspondence between spelling and pronunciation of the sections. Compared with, you can remember words more reliably. The stress of memorizing words is alleviated.

本発明の好適な態様において、前記記憶手段は、前記区分音素文字列データと前記区分表音文字列データとに対応した区分音声データをさらに記憶し、当該単語学習装置は、前記区分音声データに基づいて音声を出力する音声出力部をさらに備え、前記表示部はタッチパネルを含み、当該タッチパネルは、前記画面に対してユーザ操作が行われたときに、その押し下げ位置を検知することが可能であるとともに、前記押し下げ位置とは異なる位置において前記画面が押し下げられた状態から解放されたときの押し下げ解放位置を検知することが可能であり、前記制御部は、1または複数の前記区分音素文字列データが表示されているときにユーザ操作が行われると、前記1または複数の区分音素文字列データのうち、前記押し下げ位置と前記押し下げ解放位置とに基づいて、前記ユーザ操作によって指示された区分音素文字列データを特定し、特定した区分音素文字列データに対応する前記区分音声データを前記音声出力部から出力する。
本発明によれば、タッチパネル上においてユーザ操作が行われたときに、当該ユーザ操作によって指示された区分音素文字列に対応する区分音声(すなわち、選択した区分の発音)が出力されるので、表音文字列で表記された区分の発音を視覚的に学習するのみでなく、音声で聴いて学習できる。よって、学習者がカタカナ読みの発音を覚えてしまうことを防ぎ、より自然な英語の発音を身につけることができる。好ましくは、ユーザ操作とは、音素文字列画像を文字列の配列方向に指でなぞる操作であり、学習者は、手の触感を使いながら、音素文字列の区分と、対応する表音文字列とを視覚的に捉え、且つ、耳で当該区分の発音を聴くことができる。よって、学習の効果はさらに増大する。
In a preferred aspect of the present invention, the storage means further stores segmented speech data corresponding to the segmented phoneme character string data and the segmented phonetic character string data, and the word learning device stores the segmented speech data in the segmented speech data. An audio output unit that outputs audio based on the display unit, the display unit including a touch panel, and the touch panel can detect a pressed position when a user operation is performed on the screen; In addition, it is possible to detect a depressing release position when the screen is released from a depressed state at a position different from the depressing position, and the control unit can detect one or a plurality of the segmented phoneme character string data. If a user operation is performed while is displayed, among the one or more segmented phoneme character string data, the depressed position and the On the basis of the lowered release position to said identified partitioning phoneme string data indicated by the user operation, and outputs the division voice data corresponding to the specified division phoneme string data from said sound output unit.
According to the present invention, when a user operation is performed on the touch panel, the segmented speech corresponding to the segmented phoneme character string designated by the user operation (that is, the pronunciation of the selected segment) is output. Not only can you visually learn the pronunciation of a section represented by a phonetic character string, but you can also learn by listening to it by voice. Therefore, it is possible to prevent the learner from learning the pronunciation of katakana reading and to acquire a more natural English pronunciation. Preferably, the user operation is an operation of tracing the phoneme character string image with a finger in the arrangement direction of the character string, and the learner can use the touch feeling of the hand and classify the phoneme character string and the corresponding phonetic character string. Can be visually recognized, and the pronunciation of the section can be heard with the ear. Therefore, the learning effect is further increased.

本発明の別の好適な態様において、前記記憶手段は、前記区分ごとに、前記複数の音素文字の各々を文字単位画像(文字画像)として表した文字単位画像データ(文字ピースデータ)を記憶するとともに、複数の前記文字単位画像の、前記区分における文字順情報をさらに記憶し、前記制御部は、前記区分に含まれる前記複数の文字単位画像を前記表示手段の前記画面上の異なる位置に表示し、当該複数の文字単位画像を並び替えるようにユーザに促し、前記複数の文字単位画像が前記第1の方向に配列されたときに、その配列順と前記文字順情報とが一致しているか否かを判定する。本態様によれば、ユーザは、文字単位画像を並べ替える作業を単語の区分ごとに行うことができ、各区分における音素文字列の文字の配列を確実に記憶することができる。   In another preferred aspect of the present invention, the storage means stores character unit image data (character piece data) representing each of the plurality of phonemic characters as a character unit image (character image) for each of the sections. And further storing character order information in the section of the plurality of character unit images, and the control unit displays the plurality of character unit images included in the section at different positions on the screen of the display means. And prompting the user to rearrange the plurality of character unit images, and when the plurality of character unit images are arranged in the first direction, whether the arrangement order matches the character order information. Determine whether or not. According to this aspect, the user can perform the operation of rearranging the character unit images for each word segment, and can reliably store the character arrangement of the phoneme character string in each segment.

加えて、上記課題を解決するため、本発明の対話型学習システムは、サーバ装置と、当該サーバ装置と通信可能なユーザ端末との間で、複数の音素文字の列から成る単語を学習する単語学習処理を実行することが可能な対話型単語学習システムであって、前記サーバ装置は、単語を1又は複数の音素文字を含む複数の部分に分割した各々を区分としたとき、当該区分を構成する音素文字列を指定する区分音素文字列データと、前記区分の発音を1又は複数の表音文字で表記した表音文字列を指定する区分表音文字列データとを対応づけて記憶する記憶手段と、前記ユーザ端末から学習の対象となる単語が指定されると、当該指定された単語に対応する区分音素文字列データおよび区分表音文字列データを前記記憶手段から読み出し、前記ユーザ端末に送信する送信手段とを備え、前記ユーザ端末は、画面の指定された二次元座標位置にデータを表示するための表示部と、前記サーバ装置から前記区分音素文字列データおよび前記区分表音文字列データを受信すると、前記音素文字列と前記表音文字列とを前記表示部に配置する表示制御手段と、を備え、前記サーバ装置の前記記憶手段は、前記区分の発音において発音の最小単位を最小発音単位としたとき、前記区分音素文字列データと前記区分表音文字列データとを、前記最小発音単位ごとに対応づけて記憶しており、前記ユーザ端末の表示制御部は、第1の方向と平行に前記音素文字列と前記表音文字列とを配置し、かつ、前記最小発音単位ごとに、前記音素文字列の配列方向における当該音素文字列の中心と前記表音文字列の配列方向における当該表音文字列の中心とが前記第1の方向と直交する同一直線上に位置するように、前記単語の音素文字列と当該単語の発音を表記した表音文字列とを前記表示部に表示するよう制御する。
本発明によれば、サーバ装置の記憶手段に区分音素文字列データと区分表音文字列データとを対応づけて記憶しておくので、ユーザ端末の記憶容量への負荷が軽減される。また、サーバ装置側で簡単に記憶内容を更新することができる。さらに、サーバ装置の記憶容量がユーザ端末よりも大きい場合には、各種の単語帳を記憶しておき、ユーザが所望の単語帳にアクセスして単語学習をすることができるので、学習の幅が広がる。
In addition, in order to solve the above-described problem, the interactive learning system of the present invention learns a word composed of a plurality of phonemic character strings between a server device and a user terminal that can communicate with the server device. An interactive word learning system capable of executing learning processing, wherein the server device configures each division when each of the words divided into a plurality of parts including one or more phonemic characters is classified A storage for storing the phoneme character string data specifying the phoneme character string to be associated with the phonetic character string data specifying the phonetic character string in which the pronunciation of the category is expressed by one or more phonetic characters. When a word to be learned is designated from the means and the user terminal, the segmented phoneme character string data and the segmented phonetic character string data corresponding to the designated word are read from the storage unit, and the user Transmitting means for transmitting to the terminal, wherein the user terminal includes a display unit for displaying data at a specified two-dimensional coordinate position on the screen, and the segmented phoneme character string data and the segmented phonetic sound from the server device. Receiving character string data, display control means for arranging the phoneme character string and the phonetic character string on the display unit, and the storage means of the server device has a minimum pronunciation in the pronunciation of the category When the unit is the minimum pronunciation unit, the segmented phoneme character string data and the segmented phonetic character string data are stored in association with each minimum pronunciation unit, and the display control unit of the user terminal The phoneme character string and the phonetic character string are arranged in parallel with the direction of 1, and the center of the phoneme character string in the arrangement direction of the phoneme character string and the phonetic character string for each minimum pronunciation unit of The phoneme character string of the word and the phonetic character string describing the pronunciation of the word so that the center of the phonetic character string in the column direction is located on the same straight line orthogonal to the first direction. Control to display on the display unit.
According to the present invention, since the segmented phoneme character string data and the segmented phonetic character string data are stored in the storage unit of the server device in association with each other, the load on the storage capacity of the user terminal is reduced. In addition, the stored contents can be easily updated on the server device side. Furthermore, when the storage capacity of the server device is larger than that of the user terminal, various word books are stored, and the user can access a desired word book to learn words, so that the learning range is wide. spread.

以下、添付の図面を参照しながら本発明に係る実施の形態を説明する。
A:第1実施形態
図1(a)および(b)は、第1実施形態に係る単語学習器具100Aの外観を示す斜視図である。図1(a)および(b)に示されるように、単語学習器具100Aは、各々にアルファベットが表示された複数の文字ピース20と、これらの文字ピース20を収容するための長方形のケース10とを備える。ケース10は上箱10Aおよび下箱10Bから成り、この上箱10Aと下箱10Bとは、各々の辺縁部のうち対向する一方の長辺がヒンジ(図示略)で結合されることにより、開閉自在となっている。ヒンジは、ケース10が全開のときに、上箱10Aおよび下箱10Bの両方が、当該学習器具が使用時に配置される机などの配置面に対して略水平となるように(すなわち、180度まで見開き可能なように)上箱10Aおよび下箱10Bを結合する。また、辺縁部のうち、もう一方の長辺側においてはその略中央部分に係止具30a,30bが設けられ、これにより、ケース10が閉じた状態において上箱10Aと下箱10Bを係止する。
Embodiments according to the present invention will be described below with reference to the accompanying drawings.
A: First Embodiment FIGS. 1A and 1B are perspective views showing an appearance of a word learning device 100A according to a first embodiment. As shown in FIGS. 1 (a) and 1 (b), the word learning device 100A includes a plurality of character pieces 20 each having an alphabet displayed thereon, and a rectangular case 10 for housing these character pieces 20. Is provided. The case 10 is composed of an upper box 10A and a lower box 10B. The upper box 10A and the lower box 10B are connected by hinges (not shown) of the long sides facing each other among the edge portions. It can be opened and closed freely. When the case 10 is fully opened, the hinge is such that both the upper box 10A and the lower box 10B are substantially horizontal with respect to the arrangement surface of a desk or the like on which the learning instrument is arranged in use (ie, 180 degrees). The upper box 10A and the lower box 10B are joined together (so that they can be spread up to). In addition, on the other long side of the side edges, locking tools 30a and 30b are provided at the substantially central portion, thereby engaging the upper box 10A and the lower box 10B with the case 10 closed. Stop.

本実施形態では、アルファベット小文字26文字が3セット、アルファベット大文字26文字が1セット、さらに5つの母音(a,i,u,e,o)が各4文字ずつの計124個が、文字ピース20としてケース10に収容される。各文字ピース20およびケース10は、手触りが心地よい木製であり、文字ピース20は厚さが略3mmかつ1.5cm四方の正方形、ケース10は15cm×23cmの長方形で上箱10Aおよび下箱10Bの各々が約1cmの深さ(すなわち内側側面部の短辺の長さが約1cm)を有するものであることが望ましい。なお、文字ピース20およびケース10の素材および大きさは、上述の態様に限られるものではなく、学習者が当該学習器具を用いて後述の単語学習法を行うにあたって扱い易いものであればよい。文字ピース20の厚みおよび大きさは、ひっくり返し易く、探し易いものが好ましい。さらに、手の触感により脳の活動をより活性化させ得るものであれば、なお良い。   In this embodiment, there are 3 sets of 26 lowercase alphabetic characters, 1 set of 26 uppercase alphabetic characters, and 5 vowels (a, i, u, e, o), 4 characters each, for a total of 124 character pieces 20. In the case 10. Each character piece 20 and the case 10 are made of wood that is comfortable to touch, the character piece 20 is approximately 3 mm in thickness and 1.5 cm square, and the case 10 is a rectangle of 15 cm × 23 cm in the upper box 10A and the lower box 10B. Each preferably has a depth of about 1 cm (ie, the length of the short side of the inner side surface is about 1 cm). Note that the material and size of the character piece 20 and the case 10 are not limited to the above-described modes, and may be any material that allows the learner to handle the word learning method described later using the learning tool. It is preferable that the thickness and size of the character piece 20 be easily turned over and easily searched. Furthermore, it is better if the activity of the brain can be further activated by the touch of the hand.

図2は、単語学習器具100Aを用いた英単語学習法の流れを示すフローチャートである。
学習者は、まず、ケース10の係止具30a,30bを開放し、ケース10を図1(b)に示されるような見開き状態とするとともに、文字ピース124個をすべて上箱10Aに置く。以下の説明では、教授者が本実施形態の単語学習器具100Aを用いて学習者に単語を教授する場合を想定する。
まず最初に、図2を参照して、当該学習方法の基本的な流れを説明する。まず、ステップS1およびS2において、教授者は、上箱10Aに置かれた文字ピース20の中から学習対象である単語の綴りを成すアルファベットを探し、発音しながら下箱10Bの底面部に順に並べる。この例では、単語「pencil」(読み:ペンスル、意味:鉛筆)を学習する。具体的には、ステップS1では、「p」「e」「n」「c」「i」「l」の各々が記載された文字ピース20を探し、ステップS2では「ぺ…ン…ス…ル」とゆっくりと発音しながらこれらの文字ピース20を正しい文字順でケース10の下箱10Bの内側底面部に配列する。なお、図2では、文字ピース20を探すステップ(S1)と発音しながら並べるステップ(S2)とが別々のステップとして記載したが、綴りの順に文字ピース20を1つずつ探し、見つかる度に1つずつ並べながら発音するようにしてもよい。図1(b)には、ケース10の長辺と略平行な方向を単語の文字ピース20の配列方向として並べた例が示されている。
FIG. 2 is a flowchart showing the flow of the English word learning method using the word learning device 100A.
First, the learner opens the locking tools 30a and 30b of the case 10, puts the case 10 in a spread state as shown in FIG. 1B, and places all 124 character pieces in the upper box 10A. In the following description, it is assumed that a professor teaches a learner a word using the word learning device 100A of the present embodiment.
First, the basic flow of the learning method will be described with reference to FIG. First, in steps S1 and S2, the professor searches the character pieces 20 placed in the upper box 10A for the alphabet that forms the spelling of the word to be learned, and arranges them in order on the bottom surface of the lower box 10B while sounding. . In this example, the word “pencil” (reading: pencil, meaning: pencil) is learned. Specifically, in step S1, the character piece 20 in which each of “p”, “e”, “n”, “c”, “i”, and “l” is described is searched, and in step S2, “pen ... These character pieces 20 are arranged on the inner bottom surface of the lower box 10B of the case 10 in the correct character order. In FIG. 2, the step of searching for the character piece 20 (S1) and the step of arranging while sounding (S2) are described as separate steps, but one character piece 20 is searched one by one in the order of spelling. You may be made to pronounce while arranging one by one. FIG. 1 (b) shows an example in which the direction substantially parallel to the long side of the case 10 is arranged as the arrangement direction of the word character pieces 20.

次に、ステップS3において、教授者は、並べた文字ピース20の配列の図中下側を手でなぞりながら、繰り返し発音する。このとき、単語の意味を口頭で導入する。次に、ステップS4において、文字ピース20をシャッフルし、学習者に並べ替えてみるように指示する。学習者は、シャッフルされた文字ピース20を発音しながら並べ(ステップS2)、正しい順序で並べる。次に、並べた文字ピース20の配列の図中下側を手でなぞりながら、繰り返し発音して覚える(ステップS4)。教授者は再び並べた文字ピース20をシャッフルし(ステップS4)、学習者に並べ替えるように指示する。そして、並べ替えが完了したら、単語の文字列の下側を手でなぞりながら発音するように指示する。こうして、ステップS2〜S4、S5;NOを所定回数(例えば、3回)繰り返す。所定回数を超えた場合(ステップS5;YES)には、ステップS6において、教授者は、学習対象の単語が覚えられたかどうか確認する。確認方法としては、例えば、紙に綴りを書かせる、意味を尋ねる、などがある。単語を暗記できたことが確認できない場合(ステップS6;NO)、教授者は、シャッフルした文字ピース20を再び学習者に並べ替えるように指示する(ステップS2)。教授者は、ステップS6の判定が否定的である限りステップS2〜S5を繰り返し、肯定的になると当該単語の学習を終了する。   Next, in step S3, the professor repeats pronunciation while tracing the lower side of the arrangement of the arranged character pieces 20 in the drawing. At this time, the meaning of the word is introduced orally. Next, in step S4, the character pieces 20 are shuffled and the learner is instructed to rearrange them. The learner arranges the shuffled character pieces 20 while sounding them (step S2) and arranges them in the correct order. Next, while repeatedly tracing the lower side of the arrangement of the arranged character pieces 20 with the hand, it is repeatedly pronounced and memorized (step S4). The professor shuffles the character pieces 20 arranged again (step S4), and instructs the learner to rearrange them. Then, when the rearrangement is completed, an instruction is given to pronounce the word string while tracing it by hand. Thus, steps S2 to S4, S5; NO are repeated a predetermined number of times (for example, three times). If the predetermined number of times has been exceeded (step S5; YES), in step S6, the professor checks whether or not the word to be learned is remembered. As the confirmation method, for example, spelling is made on paper, the meaning is asked, and the like. If it is not possible to confirm that the word has been memorized (step S6; NO), the professor instructs the learner to rearrange the shuffled character pieces 20 again (step S2). The professor repeats steps S2 to S5 as long as the determination in step S6 is negative, and when it becomes affirmative, it finishes learning the word.

ところで、英単語の綴りには、「forein」の「g」のような無音文字を含んでいたり、「address」のように子音文字が連続して用いられたり、また、「tremendous」の「ou」のように複数の母音文字で別の母音を表す場合などがある。これらの、必ずしも規則的とは言えない文字の組み合わせを含む単語を記憶するには、学習者は単語の綴りを丸暗記することしかない。このため、従来から単語を発音しながらその綴りと訳語を何度もノートに書いて暗記するという方法が英語の学習者の間で一般的に行われている。しかしながら、学習者が、「読み書き障害」(dyslexia)を持っている場合がある。読み書き障害とは、会話や運動など、一般的な知能の発達には問題がないのに、文字を読んだり書いたりすることが非常に困難な障害のことである。読み書き障害の傾向がある学習者は、文字をまとまり(単語)として認識することや、文字という記号とその意味を結びつけるという外国語の学習に必須となる処理が苦手である。このような学習者にとって、特に長い綴りの単語を暗記する場合に、ノートに綴りをひたすら書いて覚える従来の暗記方法が有効に作用しない場合があった。 Incidentally, the spelling of English words, or contain silent letters such as "g" in "Forei g n", or consonant characters are used successively as "a dd re ss", also " There are cases where a plurality of vowel characters represent different vowels such as “ou” in “trend ou s”. In order to memorize words that contain these non-regular character combinations, the learner can only memorize the spellings of the words. For this reason, it has been a common practice among English learners to write and memorize the spelling and translations of a word over and over again while pronouncing the word. However, the learner may have “dyslexia”. A literacy disorder is a disorder in which it is very difficult to read or write letters, even though there is no problem with general intelligence development such as conversation and exercise. Learners who have a tendency to read and write are not good at processing that is essential for learning foreign languages, such as recognizing letters as a group (word), or linking the meaning of a letter and its meaning. For such learners, particularly when memorizing long spelled words, the conventional memorizing method of writing and remembering spells on a notebook may not work effectively.

そこで、本実施形態の単語学習器具100Aでは、単語を学習する際に、その綴りを、複数の部分に分割し、分割した区分単位で綴りを覚える方法を用いる。例えば、図1(b)に図示されるように、ステップS2において、教授者は、学習対象の単語「pencil」を、「pen」と「cil」の2つの部分に分割して、下箱10Bの底面部上に並べる。すなわち、図示のように、「n」と「c」との間にスペースを空けて文字ピースを配置する。ステップS3においては、その区分単位で発音を導入する。すなわち、「pen」に対応する発音「ペン」と、「cil」に対応する発音「スル」を別々に導入する。したがって、学習者は、区分に分割された綴りを、その発音に対応させて記憶することができるので、長い綴りを通しで暗記しようとする場合と比較して、発音と綴りとの対応関係が認識し易く、記憶に定着し易い。   Therefore, in the word learning device 100A of the present embodiment, when learning a word, a method of dividing the spelling into a plurality of parts and learning the spelling in the divided division units is used. For example, as shown in FIG. 1B, in step S2, the professor divides the learning target word “pencil” into two parts, “pen” and “cil”, and lower box 10B Line up on the bottom of the. That is, as shown in the figure, a character piece is arranged with a space between “n” and “c”. In step S3, pronunciation is introduced for each segment. That is, the pronunciation “pen” corresponding to “pen” and the pronunciation “sul” corresponding to “cil” are separately introduced. Therefore, since the learner can store the spelling divided into the sections in correspondence with the pronunciation, the correspondence between the pronunciation and the spelling is compared with the case of memorizing through the long spelling. Easy to recognize and easy to fix in memory.

この単語の綴りの区分は、従来の音節による区切り方に捉われる必要はなく、例えば、「pe」(ペ)、「n」(ン)、「si」(ス)、「l」(ル)と音単位で分割してもよいし、音節よりも大きな(すなわち文字数が多い)単位に分割してもよい。個人によって一度に記憶できる文字数に違いがあるので、3〜4文字を1区分における文字数の基準とし、学習者に合った区分に分割するのがよい。本実施形態の単語学習器具100Aによれば、文字の各々が独立した文字ピース20に表示されているので、学習者の能力に応じて単語の綴りの区分を適宜変更することができ、教授者は学習者に適した区分で単語の綴りを区分して単語を教授するというきめ細やかな指導を行うことが可能となる。なお、教授者とは、英語専門の教師である必要はなく、他の科目を専門とする教師、また家庭学習においては父親、母親などでもよい。よって、教授者はCD−ROMやカセットテープなどに記憶された、ネイティブスピーカーなどによる単語の自然な発音を再生して聞かせるようにしてよい。   The spelling of the word need not be captured by the conventional syllable separation method. For example, “pe” (pe), “n” (n), “si” (su), “l” (le) And may be divided into units that are larger than the syllable (that is, the number of characters is larger). Since there are differences in the number of characters that can be stored at a time depending on the individual, it is better to divide 3 to 4 characters into categories suitable for the learner based on the number of characters in each category. According to the word learning device 100A of this embodiment, since each character is displayed on the independent character piece 20, the spelling division of the word can be changed as appropriate according to the ability of the learner, and the professor Makes it possible to provide detailed instruction to teach words by classifying the spelling of words in categories suitable for learners. The professor does not need to be a teacher who specializes in English, but may be a teacher who specializes in other subjects, or a father or mother in home study. Therefore, the professor may reproduce and listen to the natural pronunciation of words by a native speaker or the like stored on a CD-ROM or cassette tape.

本実施形態の単語学習器具は、学習者が独りで学習する独り学習の際の器具としても用いることができる。図3(a)および(b)は、独り学習のときに補助的に用いられる印刷物に表示された単語の例を示す。図3(a)に示す例では、学習対象の単語「pencil」を、「pen」と「cil」の2つの部分に分割されており、図3の(b)に示す例では、「tremendous」は「tre」(トゥレ)と「men」(メン)と「dous」(ダス)の3つの部分に分割されている。各単語の文字列の図中上側には、その発音がカタカナで表示されている。学習者は、この表示に従って、単語の綴りのアルファベットが表示された文字ピース20を探し(図2のステップS1)、カタカナで示された発音の表記にしたがって、単語を発音しながら、文字ピース20を正しい文字順に並べ替える(ステップS2)。   The word learning device of the present embodiment can also be used as a device for single learning where a learner learns alone. FIGS. 3A and 3B show examples of words displayed on a printed material that is used supplementarily when learning alone. In the example shown in FIG. 3A, the word “pencil” to be learned is divided into two parts “pen” and “cil”. In the example shown in FIG. 3B, “tremendous” Is divided into three parts, “tre”, “men”, and “dous”. The pronunciation is displayed in katakana on the upper side of the character string of each word. The learner searches for the character piece 20 on which the spelling of the word is displayed according to this display (step S1 in FIG. 2), and pronounces the word according to the pronunciation notation shown in katakana while the character piece 20 is being pronounced. Are rearranged in the correct character order (step S2).

ここで、言語で用いられる文字体系には、アルファベットのように母音と子音のそれぞれが字母(文字記号)を持ち、これらを組み合わせて発音を表すことで言語を表記する音素文字(または単音文字)がある。音素文字では、一般にひとつの音を1又は複数の文字記号で表記する。例えば、上述の例「pencil」は、4つの音を「pe」、「n」、「si」、「l」の各々で表記する。これに対し、表す音ごとに別の文字で表記する文字体系は表音文字と云われ、日本語のかな文字(カタカナおよびひらがな)はこの表音文字に該当する。表音文字では、原則として、ひとつの音をひとつの文字記号で表記する。上述の例では、4つの音を「ぺ」、「ン」、「ス」、「ル」の各々で表記する。このように、カタカナは、1つの発音に対してひと通りの表記しかないので、学習者は発音を理解しやすい。なお、カタカナの代わりにひらがなを用いた場合にも同様の効果が得られる。   Here, in the character system used in the language, each vowel and consonant has alphabets (letter symbols) like alphabets, and phonemes (or single phone characters) that express the language by combining these to represent pronunciation There is. In a phoneme character, one sound is generally expressed by one or more character symbols. For example, in the above example “pencil”, four sounds are represented by “pe”, “n”, “si”, and “l”, respectively. On the other hand, a character system that is expressed by different characters for each sound to be expressed is called a phonetic character, and Japanese Kana characters (Katakana and Hiragana) correspond to this phonetic character. In phonograms, as a rule, one sound is represented by one letter symbol. In the above example, the four sounds are represented by “pe”, “n”, “su”, and “le”. In this way, katakana has only one way of writing for one pronunciation, so that the learner can easily understand the pronunciation. The same effect can be obtained when hiragana is used instead of katakana.

なお、表音文字における1音1文字表記には例外がある。例えば、「tremendous」の「t」(トゥ)は2個の表音文字で1つの音を表わす。これは拗音と呼ばれ、小書きにして子音の後ろに添え字として表記されることにより一音を表すものである(例えば、「ゥ」、「ィ」、「ェ」、「ャ」、「ュ」、「ョ」、「ヮ」など)。ほかにも、長母音を表す「ー」や促音「ッ」のように、単独で音を表すことはなく他の音の後にだけ現れるものがある。このような拗音や、長母音、促音などの単独では音を表すことができない文字は、他の表音文字と組み合わせることによりはじめて「ひとつの音」の一部となり得る。すなわち、「ひとつの音」は、「1表音文字」(例えば、「キ」)、「1表音文字+1拗音」(例えば、「キャ」)、「1表音文字+1長母音」(例えば、「キー」)、「1表音文字+1促音」(例えば、「キッ」)、「1表音文字+1拗音+1長母音」(例えば、「キャー」)、「1表音文字+1拗音+1促音」(例えば、「キャッ」)、「1表音文字+1拗音+1長母音+1促音」(例えば、「キャーッ」)のいずれかによって表記され得る。本実施形態では、このような「ひとつの音」を発音の最小単位として捉え、「最小発音単位」と呼ぶ。すなわち、最小発音単位とは原則的には1つの表音文字で表記されるものを示すが、2〜4個の表音文字で表記されるものも含む。この最小発音単位は、1音1文字で表記する場合にも、1音2文字、1音3文字、1音4文字のいずれで表記する場合にも、ひとつの発音に対してひと通りの表記しかなく、学習者は発音を容易に理解することができる。   There is an exception to the notation of one sound per character in phonograms. For example, “t” (toe) of “tremendous” represents one sound by two phonetic characters. This is called roaring, and represents a single sound by writing it as a subscript after the consonant (for example, “u”, “i”, “e”, “a”, “ ”,“ Yo ”,“ ヮ ”, etc.). Others, such as “-” for long vowels and “tsu” for prompt sounds, do not represent sounds alone but appear only after other sounds. Characters that cannot be expressed by themselves, such as stuttering, long vowels, and prompting sounds, can be part of “one sound” only when combined with other phonetic characters. That is, “one phonetic character” includes “one phonetic character” (for example, “ki”), “one phonetic character + 1 stuttering” (for example, “ca”), “one phonetic character + 1 long vowel” (for example, , “Key”), “one phonetic character + 1 sounding sound” (for example, “Kit”), “one phonetic character + 1 stuttering sound + 1 long vowel” (for example, “car”), “one phonetic character + 1 sounding sound + 1 sounding sound” ”(For example,“ ka ”) or“ 1 phonetic character + 1 chorus +1 long vowel + 1 prompting sound ”(for example,“ ka ”). In the present embodiment, such “one sound” is regarded as a minimum unit of pronunciation and is referred to as “minimum pronunciation unit”. In other words, the minimum pronunciation unit indicates in principle one expressed by one phonogram, but also includes one expressed by 2 to 4 phonograms. This minimum pronunciation unit is a single expression for one pronunciation, whether it is expressed by one letter, one letter, two letters, three letters, or four letters. However, the learner can easily understand pronunciation.

さらに、図3に示されるように、単語の文字列の下側には、単語の区分をひとつのかたまりとして示す曲線(円弧)が描かれており、二重線はアクセントが置かれる区分を示す。この曲線は、単語の区分としてのかたまりを示すだけでなく、ステップS3において手でなぞりながら発音する際の指の動きの望ましい軌跡を示す。学習者は、この曲線の表示を参照しながら、一重曲線、二重曲線の部分を手でなぞり、これらの曲線で示される区分を単位として単語の綴りと発音とを覚えることができる。なお、この表示は必ずしも曲線である必要はなく、直線など他の種類の線でもよい。しかしながら、口に出して発音しながら指でなぞるという、口、耳、手を利用して単語の区分とその綴りおよび発音とを記憶に定着させる意味では、手の動きが英語の抑揚により合致する円弧を用いることが望ましい。また、区切りの始点と終点とが明確に示される曲線を用いた方が、綴りの区分を認識し易い。   Further, as shown in FIG. 3, a curve (arc) indicating the word segment as one lump is drawn below the character string of the word, and the double line indicates the segment where the accent is placed. . This curve not only shows a group of words as a segment, but also shows a desirable trajectory of finger movement when pronunciation while tracing by hand in step S3. While referring to the display of this curve, the learner can trace the single curve and double curve by hand, and can learn the spelling and pronunciation of words in units of segments indicated by these curves. This display does not necessarily need to be a curve, and may be another type of line such as a straight line. However, the movement of the hand matches with the inflection of English in the sense that the mouth, ears, and hands are used to trace the word classification and its spelling and pronunciation in memory, with the mouth and the pronunciation. It is desirable to use an arc. In addition, it is easier to recognize the spelling division if a curve in which the start and end points of the break are clearly shown is used.

なお、以上に述べた単語学習装置を用いた英語学習方法は、読み書き障害の傾向がある学習者のみならず、健常者にも有効である。
以上説明したように、本実施形態の単語学習装置は、学習の対象となる英単語を覚える際に、各々にアルファベットが表示された文字ピース20を単語の区分ごとに並べるという簡易な方法により、学習者の能力に適した長さの部分に単語を区分して学習することを可能とする。さらに、各区分の文字列は、最小発音単位の音に1対1で対応するカタカナやひらがなの表音文字で表記されるので、学習者にとって発音が理解しやすい。すなわち、音と綴りとの対応関係が明確となり、記憶に定着しやすい。加えて、本実施形態においては、手触りの良い木製の文字ピース20を使って「探す」「並べる」「なぞり」ながら、教授者の発音を聴いたり自分で発音したりするので、単語の綴りをノートに繰り返し書いて覚えるという単語の暗記学習のストレスが分散され、緩和される。
In addition, the English learning method using the word learning apparatus described above is effective not only for learners who have a tendency of reading and writing disorders but also for healthy persons.
As described above, the word learning device of the present embodiment, when learning the English word to be learned, by a simple method of arranging the character pieces 20 each displayed with an alphabet for each word division, It is possible to learn by dividing a word into parts of a length suitable for the learner's ability. Furthermore, since the character strings of the respective sections are represented by katakana and hiragana phonetic characters that correspond one-to-one to the sound of the minimum pronunciation unit, the pronunciation is easy for the learner to understand. That is, the correspondence between the sound and the spelling becomes clear and is easily fixed in memory. In addition, in the present embodiment, while listening to the professor's pronunciation or using the wooden character piece 20 that is easy to touch while “searching”, “lining up”, and “tracing”, the spelling of the word is made. The stress of learning to memorize words by repeatedly writing them in the notebook is dispersed and alleviated.

B:第2実施形態
次に、図4〜10を参照して本発明の第2実施形態について説明する。本実施形態においては、電子機器を用いて上記第1実施形態で説明した単語学習方法を実現する。
図4は、第2実施形態に係る電子機器100Bの外観を示す斜視図であり、図5は、図4に示す電子機器100Bの機能構成を示す機能ブロック図である。図4に示されるように、電子機器100Bは、例えば、PDA(Personal Digital Assistants)であり、本体200と、電源をオンまたはオフ状態とするための電源スイッチ210と、メモリカードが挿入されるスロット230と、タッチペン220と、表示部120とを備える。さらに、図5に示されるように、電子機器100Bは、音声出力部130と、記憶部140と、これら各部を制御するCPU110とを有し、各部はバスを介して相互に接続されている。
B: Second Embodiment Next, a second embodiment of the present invention will be described with reference to FIGS. In the present embodiment, the word learning method described in the first embodiment is realized using an electronic device.
FIG. 4 is a perspective view showing an appearance of the electronic device 100B according to the second embodiment, and FIG. 5 is a functional block diagram showing a functional configuration of the electronic device 100B shown in FIG. As shown in FIG. 4, the electronic device 100B is, for example, a PDA (Personal Digital Assistants), a main body 200, a power switch 210 for turning the power on or off, and a slot into which a memory card is inserted. 230, a touch pen 220, and a display unit 120. Furthermore, as shown in FIG. 5, the electronic device 100B includes an audio output unit 130, a storage unit 140, and a CPU 110 that controls these units, and these units are connected to each other via a bus.

表示部120は、例えば、LCD(Liquid Crystal Display)であり、CPU110から渡された画像をCPU110によって指定された二次元座標位置(X,Y)に表示するとともに、タッチパネル120aとしても機能する。タッチパネル120aは指やタッチペン220によるユーザからの指示入力を受け付け、指示入力に応じた信号を出力する。CPU110は、ユーザの指またはタッチペン220によるタッチパネル120aに対する操作(ユーザ操作)のタッチ点およびデタッチ点を検出する。すなわち、タッチパネル120aが押し下げられた後に当該押し下げが同一位置において解放された場合の押し下げ位置、また、押し下げられたまま別の位置に移動した場合の最初の押し下げ位置をタッチ点であると判定し、タッチパネル120aが押し下げられたままの状態で別の位置まで移動した後に押し下げが解放された場合の解放位置をデタッチ点であると判定する。CPU110は、タッチ点およびデタッチ点の各座標を検出可能である。CPU110は、1または複数の区分音素文字列が表示されているときにユーザ操作が行われると、タッチ点座標(押し下げ位置)とデタッチ点座標(押し下げ解放位置)に基づいて、ユーザ操作によって指示された区分音素文字列を特定することができる。さらに、タッチパネル120aでは、ユーザは画面上に表示された画像を指またはタッチペン220でドラッグおよびドロップすることができる。   The display unit 120 is an LCD (Liquid Crystal Display), for example, and displays an image delivered from the CPU 110 at a two-dimensional coordinate position (X, Y) designated by the CPU 110 and also functions as a touch panel 120a. The touch panel 120a accepts an instruction input from a user with a finger or the touch pen 220, and outputs a signal corresponding to the instruction input. CPU110 detects the touch point and detach point of operation (user operation) with respect to the touch panel 120a by a user's finger | toe or the touch pen 220. FIG. That is, after the touch panel 120a is pushed down, the push position when the push is released at the same position, and the first push position when moving to another position while being pushed down are determined as touch points, It is determined that the release position when the touch panel 120a is pressed down and then released to the other position after the touch panel 120a is pressed down is the detach point. The CPU 110 can detect the coordinates of the touch point and the detach point. When a user operation is performed while one or more segmented phoneme character strings are displayed, the CPU 110 is instructed by the user operation based on the touch point coordinates (pressed position) and the detach point coordinates (pressed release position). The segmented phoneme character string can be specified. Furthermore, on the touch panel 120a, the user can drag and drop an image displayed on the screen with a finger or the touch pen 220.

スロット230には、学習の対象となる単語の単語テーブルTBLを含む単語帳メモリカード150や、当該電子機器100Bで動作する任意のアプリケーションソフトウェアが記憶されたメモリカード等を挿入することができる。メモリカードに記憶されたデータは、スロット230にメモリカードが挿入された状態においてCPU110によって読み出され、各部に渡されて処理される。音声出力部130は、CPU110から渡された音声データを変換して音声として外部に出力する。本実施形態では、音声出力部130が処理する音声データは、学習対象となる単語の発音を示す音声データである。   In the slot 230, a word book memory card 150 including a word table TBL of words to be learned, a memory card storing arbitrary application software operating on the electronic device 100B, and the like can be inserted. The data stored in the memory card is read out by the CPU 110 in a state where the memory card is inserted into the slot 230, and transferred to each unit for processing. The audio output unit 130 converts the audio data delivered from the CPU 110 and outputs the converted audio data to the outside. In the present embodiment, the audio data processed by the audio output unit 130 is audio data indicating the pronunciation of a word to be learned.

記憶部140は、RAM(Random Access Memory)140bおよびROM(Read Only Memory)140aを備える。RAM140bは各種データを一時的に記憶するとともにCPU110のワークエリアとして機能する。CPU110はROM140aに記憶された単語学習プログラムPを実行することにより、本実施形態に係る単語学習処理を制御する手段として機能する。
CPU110は、図示せぬカウンタを備える。CPU110は、単語学習プログラムPが実行する文字順学習処理(後述)において、文字画像の並べ替え操作に応じてカウント値をインクリメントする。
The storage unit 140 includes a RAM (Random Access Memory) 140b and a ROM (Read Only Memory) 140a. The RAM 140b temporarily stores various data and functions as a work area for the CPU 110. The CPU 110 functions as means for controlling the word learning process according to the present embodiment by executing the word learning program P stored in the ROM 140a.
The CPU 110 includes a counter (not shown). In the character order learning process (described later) executed by the word learning program P, the CPU 110 increments the count value in accordance with the character image rearrangement operation.

図6は、単語帳メモリカード150に記憶された単語テーブルTBLの記憶内容の一例を示すものであり、図7は、電子機器100Bを用いた単語学習処理の流れを示すフローチャートである。図9〜図10は、単語学習処理における画面の表示例を示す。
本実施形態の単語帳メモリカード150は、中学校1年〜3年の英語教科書に準拠した単語を記憶している。単語帳メモリカード150では、学年ごとに単語データフォルダが設けられ、当該フォルダの中に単語テーブルTBLがUnitやLessonなどの単元ごとに収められる。図6は、中学3年生の「Unit 3」として記憶された単語テーブルTBLの一部を表示したものである。
FIG. 6 shows an example of the contents of the word table TBL stored in the word book memory card 150, and FIG. 7 is a flowchart showing the flow of word learning processing using the electronic device 100B. 9 to 10 show display examples of screens in the word learning process.
The word book memory card 150 of the present embodiment stores words compliant with English textbooks for junior high school first to third year. In the word book memory card 150, a word data folder is provided for each school year, and a word table TBL is stored in the folder for each unit such as Unit or Lesson. FIG. 6 shows a part of the word table TBL stored as “Unit 3” of the junior high school third grader.

図6に示されるように、単語テーブルTBLには、各単語について、複数種類のデータが対応づけられて記憶されている。説明の簡易のため、これら複数種類のデータを3つのグループA,B,Cに大別して説明する。グループAにおいては、学習の対象である単語の綴りと単語の上側に併記された単語の発音のカタカナ表記とを含む全表示データ、単語の訳語を示す訳語データ、および単語の通しの発音を示す通し音声データとが対応づけられて記憶されている。全表示データおよび訳語データは各々について表示されるべき座標位置が指定された座標位置指定情報を含む画像データであり、各画像は、図9の(a)に示されるように、座標位置指定情報によって指定された位置に表示される。座標位置指定情報は、全表示データが訳語データより画面の上部に表示されるように各全表示データおよび訳語データの各座標を指定する。すなわち、各全表示データおよび訳語データの各文字列の配列方向がX軸と平行であるとき、配列方向における文字列の中心、左端、または右端のいずれかが全表示データと訳語データとで同じX座標を有するように設定される。図9の(a)は、全表示データおよび訳語データの各文字列の中心が同じX座標を有する場合の例を示す。通し音声データは、全表示データおよび訳語データが表示されると、CPU110によって単語テーブルTBLから読み出されて音声出力部130から出力されることにより、表示中の単語の発音を音声により示す。   As shown in FIG. 6, the word table TBL stores a plurality of types of data in association with each word. For simplicity of explanation, these plural types of data will be roughly classified into three groups A, B, and C. In group A, all display data including the spelling of the word to be learned and the katakana notation of the pronunciation of the word written above the word, the translation data indicating the translation of the word, and the pronunciation of the word are shown. The sound data is stored in association with each other. All the display data and the translated word data are image data including coordinate position designation information in which coordinate positions to be displayed are designated, and each image has coordinate position designation information as shown in FIG. It is displayed at the position specified by. The coordinate position designation information designates each coordinate of each display data and each translation data so that all the display data is displayed at the top of the screen from the translation data. That is, when the arrangement direction of each character string of each full display data and translation data is parallel to the X axis, either the center, left end, or right end of the character string in the arrangement direction is the same for all display data and translation data. It is set to have an X coordinate. FIG. 9A shows an example in which the center of each character string of all display data and translated word data has the same X coordinate. When all the display data and the translated word data are displayed, the continuous voice data is read from the word table TBL by the CPU 110 and output from the voice output unit 130, thereby indicating the pronunciation of the word being displayed by voice.

ところで、第1実施形態において説明したように、アルファベットは子音と母音のそれぞれに字母が割り当てられ、これらの字母の組み合わせにより音を表記する音素文字である。音素文字においては、同じ音に対して異なる表記が使用される。例えば、「ティー」という音は「tee」とも「tea」とも綴られる。これに対し、カタカナやひらがなは、原則として音を1文字で表記する表音文字であり、例外的に1音を2文字〜4文字のいずれかで表記する場合においても、音と表記(1〜4文字のいずれか)とは1対1で対応するように定められている。すなわち、ひとつの音に対する表記はひと通りしか存在しない。したがって、音素文字を文字体系とする英単語を学習する際にその発音を表音文字であるカタカナ(又はひらがな)で表記すると、学習者は綴りと発音との対応関係を理解しやすい。すなわち、単語の綴りをその発音と対応づけて覚えることが容易となる。そこで、本実施形態では、単語を複数の部分に区分し、各区分における英単語の綴りを示す文字列(以下、「音素文字列」という)と、その発音を表記したカタカナ(以下、「表音文字列」)とを対応させて表示することにより、学習者が効果的に単語を学習できる構成としている。   By the way, as explained in the first embodiment, alphabets are phonemic characters in which letters are assigned to consonants and vowels, and sounds are expressed by combinations of these letters. In phonemic characters, different notations are used for the same sound. For example, the sound “tea” is spelled as “tee” or “tea”. On the other hand, katakana and hiragana are phonograms that represent a single character as a rule. In exceptional cases, even when a single sound is represented by any of two to four characters, it is represented as a sound (1 (Any one of 4 characters) is defined to correspond one-to-one. In other words, there is only one way of writing for one sound. Therefore, when learning an English word having a phoneme character as a character system, if the pronunciation is expressed in katakana (or hiragana) as a phonetic character, the learner can easily understand the correspondence between spelling and pronunciation. That is, it becomes easy to remember the spelling of a word in association with its pronunciation. Therefore, in this embodiment, a word is divided into a plurality of parts, a character string indicating the spelling of English words in each section (hereinafter referred to as “phoneme character string”), and a katakana (hereinafter referred to as “table”) indicating its pronunciation. By displaying the character string “) in correspondence with each other, the learner can effectively learn the word.

具体的には、単語テーブルTBLには、グループBにおいて、単語を1又は複数の音素文字を含む複数の部分に分割した各々を区分としたとき、区分を構成する音素文字列を指定する区分音素文字列データと、区分の発音を1又は複数の表音文字で表記した表音文字列を指定する区分表音文字列データと、区分の発音を音声で表した区分発音データとが対応づけて記憶されている。   Specifically, in the word table TBL, when each of the group B divided into a plurality of parts including one or more phoneme characters is defined as a segment, the segmented phoneme that designates the phoneme character string constituting the segment Character string data is associated with segmented phonetic character string data that specifies a phonetic character string in which the pronunciation of the segment is expressed by one or more phonetic characters, and segmented phonetic data that represents the pronunciation of the segment in speech. It is remembered.

図6に示す例において、単語の区分は、「tremendous」を3分割した「tre」、「men」、「dous」の各々であり、各区分に含まれる1又は複数の音素文字が、ひとかたまりの画像データ(区分音素文字列データ)として記憶される。図示の例においては、各画像データの文字列は長方形の枠内に表示され、枠の下側に、枠内に表示された文字列をひとかたまりの区分として示す曲線(円弧)が描かれている。二重曲線は単語の区分のうち発音のアクセントが置かれる部分を示す。第1実施形態において説明したように、曲線は単語の区分としてのかたまりを示すだけでなく、指またはタッチペン220でなぞりながら各区分を発音する際および各区分の発音を聴く際の指の動きの望ましい軌跡を示す。学習者は、タッチパネル120a上で、一重曲線、二重曲線上を手でなぞることにより、各曲線で示される区分を単位として単語の綴りと発音とを覚える作業を行うことができる。すなわち、口に出して発音しながら指でなぞるという、口、耳、手の感覚を使うことにより、単語の区分とその綴りおよび発音とをより効果的に記憶に定着させることができる。なお、この表示は必ずしも曲線である必要はなく、直線など他の種類の線でもよい。   In the example shown in FIG. 6, the word segments are “tre”, “men”, and “dous” obtained by dividing “tremendous” into three, and one or more phonemic characters included in each segment are a group. It is stored as image data (segmented phoneme character string data). In the illustrated example, the character strings of each image data are displayed in a rectangular frame, and a curve (arc) indicating the character strings displayed in the frame as a group of segments is drawn below the frame. . The double curve shows the portion of the word segment where the pronunciation accent is placed. As described in the first embodiment, the curve indicates not only a group of words as a segment, but also a finger movement when the segment is pronounced and the pronunciation of each segment is heard while tracing with the finger or the touch pen 220. Show the desired trajectory. The learner can perform the task of learning the spelling and pronunciation of words in units of segments indicated by each curve by tracing the single curve and double curve by hand on the touch panel 120a. In other words, by using the mouth, ears, and hand senses of uttering and tracing with a finger while sounding, it is possible to more effectively fix the word classification and its spelling and pronunciation in memory. This display does not necessarily need to be a curve, and may be another type of line such as a straight line.

区分音素文字列データには、さらに、図6において斜線またはドットのハッチングにより示す色指定情報が含まれることにより、区分音素文字列画像が表示されるときに、適宜色づけして表示することができる。なお、発音のアクセントが置かれる区分には赤などの強調色を用いることが望ましい。   The segmented phoneme character string data further includes color designation information indicated by hatching or dot hatching in FIG. 6 so that when the segmented phoneme character string image is displayed, it can be appropriately colored and displayed. . Note that it is desirable to use an emphasis color such as red for the section where the accent of pronunciation is placed.

区分表音文字列データは、区分音素文字列データに含まれる音素文字列の発音を表記した1又は複数の表音文字から成る表音文字列の画像データである。図10の(b)に表示されるように、区分表音文字列データは、当該区分表音文字列データの表音文字列によって表される音に対応する区分音素文字列の配列の図中上部に位置に表示される。さらに詳述すると、表示部120の画面上の位置を横軸Xと横軸Yの二次元座標で表したとき、区分音素文字列およびその音素文字列の発音を表記した表音文字列の各々は、X軸(第1の方向)と平行に配置され、かつ、区分音素文字列の配列方向における当該区分音素文字列の中心と区分表音文字列の配列方向における当該区分表音文字列の中心とがY軸に平行な(第1の方向と直交する)同一直線上に位置するように配置される。すなわち、区分音素文字列データと区分表音文字列データは、区分音素文字列の中心の座標を(X0,Y0)とし、区分表音文字列の中心の座標を(X1,Y1)としたとき、X0=X1且つY0+α=Y1となるように配置される。αは所定値であり、音素文字列と表音文字列とのY方向における間隔が近接しすぎず且つ離間しすぎない値が適宜定められる。 The segmented phonetic character string data is image data of a phonetic character string composed of one or a plurality of phonetic characters describing the pronunciation of the phoneme character string included in the segmented phoneme character string data. As shown in (b) of FIG. 10, the segmented phonetic character string data is an array of segmented phoneme character strings corresponding to sounds represented by the phonetic character string of the segmented phonetic character string data. Displayed at the top position. More specifically, when the position on the screen of the display unit 120 is represented by the two-dimensional coordinates of the horizontal axis X and the horizontal axis Y, each of the phonetic character strings describing the segmented phoneme character string and the pronunciation of the phoneme character string. Are arranged in parallel with the X axis (first direction) and the center of the segmented phoneme character string in the arrangement direction of the segmented phoneme string and the segmented phonetic character string in the arrangement direction of the segmented phonetic character string. The center is arranged so as to be located on the same straight line parallel to the Y axis (perpendicular to the first direction). That is, in the segmented phoneme string data and the segmented phonetic string data, the coordinates of the center of the segmented phoneme string are (X 0 , Y 0 ), and the coordinates of the center of the segmented phonetic string are (X 1 , Y 1). ), X 0 = X 1 and Y 0 + α = Y 1 . α is a predetermined value, and a value is determined as appropriate so that the distance between the phoneme character string and the phonetic character string in the Y direction is not too close and not too far apart.

区分音素文字列データおよび区分表音文字列データには、さらに、その単語の区分の音素文字列の発音を音声で表した区分音声データが対応づけられる。この区分音声データは、例えば、図10の(b)に示す画面において、区分文字列の下側に表示された曲線を指またはタッチペン220でなぞると、単語テーブルTBLから読み出されて音声出力部130から出力される。すなわち、音素文字列の下に表示される曲線は、当該音素文字列に対応する区分音声データを音声出力部130から出力させるための指示入力箇所を示す指示手段であると云うことができる。また、区分音声データは、図11の(c)に示す画面において、学習者が単語の並べ替えをしてひとつの区分文字列が完成した場合に、その完成をトリガとして単語テーブルTBLから読み出されて音声出力部130から出力される。   The segmented phoneme character string data and the segmented phonetic character string data are further associated with segmented speech data that expresses the pronunciation of the phoneme character string of the segment of the word. For example, in the screen shown in FIG. 10B, the segmented voice data is read from the word table TBL when the curve displayed below the segmented character string is traced with a finger or the touch pen 220, and the voice output unit 130. That is, it can be said that the curve displayed below the phoneme character string is an instruction means that indicates an instruction input location for causing the voice output unit 130 to output segmented speech data corresponding to the phoneme character string. Further, when the learner rearranges words and completes one segmented character string on the screen shown in FIG. 11C, the segmented speech data is read from the word table TBL using the completion as a trigger. And output from the audio output unit 130.

次に、図6に示す単語テーブルTBLにおいて、グループCにおいては、各区分音素文字列データについて、区分音素文字列データに含まれる音素文字の各文字画像(文字単位画像)が別個の文字ピースデータとして記憶され、各文字ピースデータには当該文字ピースデータによって表される音素文字の文字順情報が関連づけられて記憶されている。文字順情報は、区分音素文字列内の配列順である。さらに、各文字ピースデータには、当該文字ピースデータによって表される音素文字が区分音素文字列内の最後の文字か否かを示す情報(以下、「最後フラグ」という)が対応づけられて記憶されている。区分音素文字列内の最後の文字である場合には、最後フラグは「1」にセットされ、そうでない場合には「0」にセットされる。   Next, in the word table TBL shown in FIG. 6, in group C, for each segmented phoneme string data, each character image (character unit image) of the phoneme character included in the segmented phoneme string data is separate character piece data. Each character piece data is stored in association with character order information of phonemic characters represented by the character piece data. The character order information is an arrangement order in the segmented phoneme character string. Further, each character piece data is stored in association with information indicating whether or not the phoneme character represented by the character piece data is the last character in the segmented phoneme character string (hereinafter referred to as “last flag”). Has been. If it is the last character in the segmented phoneme string, the last flag is set to “1”, otherwise it is set to “0”.

図7は、電子機器100Bを用いた単語学習処理の流れを示すフローチャートである。CPU110は、ROM140aに記憶された単語学習プログラムPを実行することにより、当該単語学習処理を実行する。以下、図7〜図11を参照しながら、本実施形態に係る単語学習処理の動作を説明する。
まず、学習者であるユーザが単語帳メモリカード150を電子機器100Bのスロット230に挿入した状態で電源スイッチ210をオン状態にすると、CPU110は単語帳メモリカード150のデータを読み出して、図9の(a)に示される画面を表示部120に表示する。挿入された単語帳メモリカード150には、中学校の教科書に準拠した単語が記憶されているので、図9の(a)に示されるように、「中学教科書英単語」と中学1年〜3年の各学年を示す各ボックスが表示される。ユーザは、自己が学習したい学年のボックスを指またはタッチペン220で押し下げすることにより選択する。なお、以下の説明においては、ユーザは指でタッチパネル120aを操作することとし、操作に際して指またはタッチペン220のいずれかを用いるかについての説明は省略する。この例では、ユーザは「中学3年」が選択されたと仮定する。ユーザは、「中学3年」のボックスを選択状態とし、「次へ」ボタンを押し下げする。
FIG. 7 is a flowchart showing the flow of word learning processing using the electronic device 100B. The CPU 110 executes the word learning process by executing the word learning program P stored in the ROM 140a. Hereinafter, the operation of the word learning process according to the present embodiment will be described with reference to FIGS.
First, when the user who is a learner inserts the word book memory card 150 into the slot 230 of the electronic device 100B and turns on the power switch 210, the CPU 110 reads the data in the word book memory card 150 and reads the data shown in FIG. The screen shown in (a) is displayed on the display unit 120. Since the inserted word book memory card 150 stores words compliant with the textbooks of the junior high school, as shown in FIG. 9A, “junior high school textbook English words” and junior high school first to third years. Each box showing each grade of is displayed. The user selects a grade box that he / she wishes to learn by pressing it down with a finger or the touch pen 220. In the following description, it is assumed that the user operates the touch panel 120a with a finger, and description of whether to use either the finger or the touch pen 220 for the operation is omitted. In this example, it is assumed that the user selects “3rd grade”. The user selects the box “3rd year of junior high school” and presses the “next” button.

次に、図9の(b)に示される画面において、中学3年で学習する英単語の単元が各ボックスに表示される。ユーザはここで「Unit 3」を選択し、「次へ」ボタンを押し下げする。続いて、図9の(c)に示されるように、「Unit 3の単語学習を始めます」という確認メッセージが表示される。ユーザは、別の単元または別の学年の単語を学習したい場合には、「戻る」ボタンを押し下げして前の画面に戻り、再度選択操作を行う。Unit 3の単語学習を始めてよい場合には、「スタート」ボタンを押し下げする。なお、図9〜図11に示す各画面において、「次へ」ボタン、「戻る」ボタン、「やめる」ボタンが表示されている場合には、ユーザはこれらのボタンのいずれかを選択することにより、次の処理に進む、前の画面に戻る、あるいは単語学習を中止する、のいずれかを選択することができる。   Next, on the screen shown in FIG. 9B, units of English words learned in the third year of junior high school are displayed in each box. The user now selects “Unit 3” and presses the “Next” button. Subsequently, as shown in FIG. 9C, a confirmation message “Starting word learning of Unit 3” is displayed. When the user wants to learn another unit or a word of another grade, the user presses the “return” button to return to the previous screen and performs the selection operation again. If you are ready to start learning words for Unit 3, press and hold the Start button. In addition, when the “next” button, the “return” button, and the “quit” button are displayed on the screens shown in FIGS. 9 to 11, the user selects one of these buttons. It is possible to select one of proceeding to the next process, returning to the previous screen, or canceling word learning.

続いて、図9の(d)に示されるように、中学3年のUnit 3に収録されている単語の一覧が表示される。ユーザは、単語に付与された識別番号の左側に表示されたカーソル「?」を上下に移動させることにより、学習の対象となる単語を選択する。表示されたページに学習対象の単語がない場合には、「次頁」ボタンにより別のページに画面を遷移させることができる。この例では、ユーザは、「1.tremendous」を学習の対象として選択し、「次へ」を押し下げする。CPU110はこの単語の選択を受け付ける(図7のステップSA1)。   Subsequently, as shown in FIG. 9 (d), a list of words recorded in Unit 3 of the third grade is displayed. The user selects the word to be learned by moving the cursor “?” Displayed on the left side of the identification number assigned to the word up and down. When there is no word to be learned on the displayed page, the screen can be changed to another page by the “next page” button. In this example, the user selects “1. tremendous” as a learning target, and pushes down “next”. CPU 110 accepts selection of this word (step SA1 in FIG. 7).

続いて、ステップSA3において、CPU110はユーザによって選択された単語を表示部120に表示する。具体的には、図10(a)に示されるように、「tremendous」に対応して記憶されている全表示データおよび訳語データを単語テーブルTBLから読み出して表示部120の略中央部分に全表示データの画像を表示し、その図中下側に訳語データの画像を表示するとともに、通し音声データV1を読み出して音声出力部130から出力させる。この画面において、「発音を聴く」ボタンを押し下げすると、発音を繰り返し聴くことができる。ユーザは、発音を聴きながら、単語の表音文字列(カタカナ)および音素文字列(アルファベット)を読み、自分で発音し、且つ訳語を覚える作業をした後に、「次へ」ボタンを押し下げする。このステップにおいて、発音を聴きながらカタカナを見ることで、ユーザの当該単語の発音がカタカナ読みになることを防ぐことができる。   Subsequently, in step SA3, the CPU 110 displays the word selected by the user on the display unit 120. Specifically, as shown in FIG. 10A, all display data and translated word data stored in correspondence with “tremendous” are read from the word table TBL and displayed in a substantially central portion of the display unit 120. An image of the data is displayed, and an image of the translated word data is displayed on the lower side of the figure, and the through sound data V1 is read out and output from the sound output unit 130. On this screen, you can listen to the pronunciation repeatedly by depressing the “Listen to pronunciation” button. While listening to the pronunciation, the user reads the phonetic character string (katakana) and phoneme character string (alphabet) of the word, pronounces himself and learns the translated word, and then presses down the “next” button. In this step, it is possible to prevent the user's pronunciation of the word from being read in katakana by watching katakana while listening to the pronunciation.

次に、ステップSA5において、CPU110は、「tremendous」に対応して記憶されている「tre」、「men」、「dous」の各区分音素文字列データおよび各々に対応する区分表音文字列データを単語テーブルTBLから読み出す。そして、図10の(b)に示すように、表示部120の略中央部分に各区分音素文字列データの画像を表示し、その図中上側図中に、対応する区分表音文字列データの画像を表示する。具体的には、「tre」の上側に「トゥレ」、「men」の上側に「メン」、「dous」の上側に「ダス」と表示する。このとき、CPU110は、画面に「(曲線を)指でなぞりながら発音しましょう」と表示することにより、各区分音素文字の下側に表示された曲線を手でなぞるようにユーザに促す。ユーザが曲線を指でなぞると、CPU110は曲線がユーザによってなぞられたこと検知し、その区分音素文字列に対応する区分音声データ(V1−1、V1−1、V1−1のいずれか)を単語テーブルTBLから読み出して音声出力部130から出力する。このとき、CPU110はユーザの指のタッチ点およびデタッチ点を検知し、各タッチ点およびデタッチ点の座標を求める。そして、これらの座標に基づいて、どの区分音素文字列画像の曲線がなぞられたどうかを検出する。この検出は、例えば、タッチ点座標とデタッチ点座標と重なって表示されている区分音素文字列データを検出することにより行われる。
ユーザは、各区分表音文字列(カタカナ)および区分音素文字列(アルファベット)を読み、手でなぞりながら自分で発音し、且つ、発音を聴くことにより単語を覚える作業を行う。例えば、曲線をなぞりながら単語を3回どおり発音し、単語が覚えられたと自己で判断したら、「はい」ボタンを押し下げする。
Next, in step SA5, the CPU 110 stores each “phone” character string data of “tre”, “men”, and “dous” stored in correspondence with “tremendous” and the corresponding phonetic character string data corresponding to each. Are read from the word table TBL. Then, as shown in FIG. 10 (b), an image of each segmented phoneme character string data is displayed at a substantially central portion of the display unit 120, and the corresponding segmented phonetic character string data is displayed in the upper diagram in the figure. Display an image. Specifically, “Ture” is displayed above “tre”, “Men” is displayed above “Men”, and “Dass” is displayed above “Dous”. At this time, the CPU 110 prompts the user to trace the curve displayed below each segmented phoneme character by displaying “Let's pronounce while tracing with a finger” on the screen. When the user traces the curve with his / her finger, the CPU 110 detects that the curve is traced by the user, and the segmented voice data (any of V1-1, V1-1, V1-1) corresponding to the segmented phoneme character string is detected. Read from the word table TBL and output from the voice output unit 130. At this time, the CPU 110 detects the touch point and detach point of the user's finger, and obtains the coordinates of each touch point and detach point. Then, based on these coordinates, it is detected which segmented phoneme character string image has been traced. This detection is performed, for example, by detecting segmented phoneme character string data displayed overlapping the touch point coordinates and the detach point coordinates.
The user reads each segmented phonetic character string (katakana) and the segmented phoneme character string (alphabet), pronounces himself by tracing with his hand, and learns words by listening to the pronunciation. For example, a word is pronounced three times while tracing a curve, and if it is determined that the word has been memorized, the “Yes” button is depressed.

次に、ステップSA7において、CPU110は、文字順学習処理を実行する。図8は、文字順学習処理の詳細な流れを示すフローチャートである。図8のステップSB1において、CPU110は単語テーブルTBLから最初の区分音素文字列データ「tre」に対応して記憶されている文字ピースデータ「t」、「r」および「e」の文字画像を読み出し、各文字画像をシャッフル表示するとともに、ユーザにこれらの文字画像を正しい文字順に並べ替えるように指示する。すなわち、図10の(c)に示されるように、各文字画像を文字順がバラバラの状態で表示部120に表示するとともに、「発音しながら並べ替えてみましょう」と表示することにより、文字画像を並べ替えるようにユーザに促す。本実施形態では、このときの各文字画像は、枠内が黄色に配色されている。   Next, in step SA7, the CPU 110 executes a character order learning process. FIG. 8 is a flowchart showing a detailed flow of the character order learning process. In step SB1 of FIG. 8, the CPU 110 reads out character images of character piece data “t”, “r”, and “e” stored in correspondence with the first segmented phoneme character string data “tre” from the word table TBL. Each character image is shuffled and the user is instructed to rearrange these character images in the correct character order. That is, as shown in FIG. 10 (c), each character image is displayed on the display unit 120 in a state where the character order is disjoint, and “let's rearrange while sounding” is displayed. Prompt the user to rearrange the character images. In this embodiment, each character image at this time is colored yellow in the frame.

CPU110は1つの文字画像がドラッグされた後にドロップされたことを検知する(ステップSB3;YES)と、カウンタを1だけインクリメントする(ステップSB5)。なお、ステップSB3の判定処理は、文字画像のドラッグおよびドロップを検知するまで繰り返される(ステップSB3;NO)。次に、ステップSB7において、インクリメントされた後のカウンタ値(この場合、初期値「0」→「1」)と、ドラッグされた文字画像を表す文字ピースデータに対応づけて単語テーブルTBLに記憶されている文字順情報とを比較して、同一の場合には「正解」であると判断し(ステップSB7;YES)、ステップSB9に進む。一方、非同一の場合には「不正解」であると判断し(ステップSB7;NO)、ステップSB17に進む。   When CPU 110 detects that one character image is dropped after being dragged (step SB3; YES), CPU 110 increments the counter by 1 (step SB5). Note that the determination process in step SB3 is repeated until dragging and dropping of the character image is detected (step SB3; NO). Next, in step SB7, the incremented counter value (in this case, the initial value “0” → “1”) is stored in the word table TBL in association with the character piece data representing the dragged character image. The character order information is compared with each other, and if they are the same, it is determined that the answer is “correct” (step SB7; YES), and the process proceeds to step SB9. On the other hand, if they are not identical, it is determined that the answer is “incorrect” (step SB7; NO), and the process proceeds to step SB17.

この例では、ステップSB3において、文字画像「t」がドラッグおよびドロップされたとする。文字画像「t」の文字順情報は「1」なので、インクリメント後のカウンタ値「1」と同一である。よって、CPU110はステップSB7において正解であると判断し、ステップSB9において、「正解!」と表示するとともに文字画像「t」の枠内を黄色から緑色に変化させる(図10の(d))。次に、ステップSB11において、CPU110は正解の文字画像を表す文字ピースデータに対応づけて単語テーブルTBLに記憶されている最後フラグの値を参照することにより、当該文字画像が区分の最後であるか否かを判定する。この場合、文字画像「t」に対応づけられて単語テーブルTBLに記憶されている最後フラグの値は「0」なので、当該文字画像は区分の最後でないと判定され(ステップSB11;NO)、CPU110は再びステップSB3に戻り、同じ区分の次の文字画像の並べ替えを行う。   In this example, it is assumed that the character image “t” is dragged and dropped in step SB3. Since the character order information of the character image “t” is “1”, it is the same as the counter value “1” after the increment. Therefore, the CPU 110 determines that the answer is correct in step SB7, and displays “correct answer!” In step SB9 and changes the frame of the character image “t” from yellow to green ((d) in FIG. 10). Next, in step SB11, the CPU 110 refers to the value of the last flag stored in the word table TBL in association with the character piece data representing the correct character image to determine whether the character image is the last of the classification. Determine whether or not. In this case, since the value of the last flag associated with the character image “t” and stored in the word table TBL is “0”, it is determined that the character image is not the last of the classification (step SB11; NO), and the CPU 110 Returns to step SB3 again and rearranges the next character image in the same section.

次に、ステップSB3において、文字画像「e」がドラッグおよびドロップされて文字画像「t」の右横に配置されたとする。CPU110は、文字画像「e」のドラッグおよびドロップを検知すると(ステップSB3;YES)、ステップSB5において、カウンタ値を「1」から「2」にインクリメントする。しかし、ステップSB7において文字画像「e」の文字順情報は「3」と現在のカウント値「2」とを比較すると、両者は非同一であるので、「不正解」であると判断する(ステップSB7;NO)。そこで、ステップSB17において、CPU110は図11(a)に示されるように「残念。もう一度!」と画面に表示することにより、ユーザにもう一度文字画像を並べるよう促す。そして、文字画像がドラッグおよびドロップされたことを検知する(ステップSB19;YES)と、現在のカウンタ値(この場合「2」)と、ドラッグされた文字画像を表す文字ピースデータに対応づけて単語テーブルTBLに記憶されている文字順情報とを比較して、同一の場合には「正解」であると判断し(ステップSB21;YES)、非同一の場合には「不正解」であると判断する(ステップSB21;NO)。   Next, in step SB3, it is assumed that the character image “e” is dragged and dropped and placed on the right side of the character image “t”. When detecting dragging and dropping of the character image “e” (step SB3; YES), the CPU 110 increments the counter value from “1” to “2” in step SB5. However, when the character order information “3” of the character image “e” is compared with the current count value “2” in step SB7, they are not the same, and thus are determined to be “incorrect” (step SB7). SB7; NO). Therefore, in step SB17, the CPU 110 prompts the user to arrange the character images again by displaying “Unfortunate again!” On the screen as shown in FIG. When it is detected that the character image has been dragged and dropped (step SB19; YES), the word is associated with the current counter value (in this case “2”) and the character piece data representing the dragged character image. The character order information stored in the table TBL is compared, and if it is the same, it is determined that it is “correct” (step SB21; YES), and if it is not the same, it is determined that it is “incorrect”. (Step SB21; NO).

この例においては、ユーザは再び文字画像「e」をドラッグおよびドロップして文字画像「t」の右横に配置したとする。すると、現在のカウンタ値(「2」)と文字画像「e」の文字順情報「3」とは非同一なのでステップSB21においてNOと判定され、CPU110は処理をステップSB23に進める。するとCPU110は、図11(b)に示されるように「残念!」と表示するとともに、カウンタ値と同一の文字順情報を有する文字画像を選択し(この場合、文字画像「r」)、当該画像を黄色から緑色に変化させることにより正解画像として表示する(ステップSB23,図11(b))。続いて、処理はステップSB11に進む。この場合、文字画像「r」に対応づけられて単語テーブルTBLに記憶されている最後フラグの値は「0」なので、当該文字画像は区分の最後でないと判定され(ステップSB11;NO)、CPU110は再びステップSB3に戻り、同じ区分の次の文字画像の並べ替えを行う。
これに対し、ステップSB17の後に、ユーザが文字画像「r」をドラッグおよびドロップして文字画像「t」の右横に配置したとする。その場合には、ステップSB21においてYESと判定され、処理はステップSB9に進む。すなわち、画面に「正解!」と表示され、文字画像「r」の枠内を黄色から緑色に変化させる。
In this example, it is assumed that the user drags and drops the character image “e” again and arranges it on the right side of the character image “t”. Then, since the current counter value (“2”) and the character order information “3” of the character image “e” are not the same, it is determined NO in Step SB21, and the CPU 110 advances the process to Step SB23. Then, the CPU 110 displays “Sorry!” As shown in FIG. 11B and selects a character image having the same character order information as the counter value (in this case, the character image “r”). The image is displayed as a correct image by changing the color from yellow to green (step SB23, FIG. 11B). Subsequently, the process proceeds to step SB11. In this case, since the value of the last flag associated with the character image “r” and stored in the word table TBL is “0”, it is determined that the character image is not the last of the classification (step SB11; NO), and the CPU 110 Returns to step SB3 again and rearranges the next character image in the same section.
On the other hand, after step SB17, it is assumed that the user drags and drops the character image “r” and arranges it on the right side of the character image “t”. In that case, YES is determined in step SB21, and the process proceeds to step SB9. That is, “correct!” Is displayed on the screen, and the frame of the character image “r” is changed from yellow to green.

次に、当該区分における残りの文字画像「e」について、CPU110は順次同様の処理を行う(ステップSB3〜SB11、SB17〜SB23)。文字画像「e」に対応づけられた最後フラグの値は「1」であるので、ステップSB11において、当該文字画像が区分の最後であることが判定され(ステップSB11;YES)、CPU110はステップSB13においてカウンタ値を「0」にリセットするとともに、区分音素文字列データの画像「tre」を単語テーブルTBLから読み出して表示する(図11(c))。この画面において、ユーザが「tre」の下側に表示された曲線を指でなぞると、「tre」を囲む長方形の枠内の色が、例えば、緑色に変化し、当該区分の区分音声データV1−1が読み出されて音声出力部130から出力される。   Next, the CPU 110 sequentially performs the same processing for the remaining character image “e” in the section (steps SB3 to SB11, SB17 to SB23). Since the value of the last flag associated with the character image “e” is “1”, it is determined in step SB11 that the character image is the end of the classification (step SB11; YES), and the CPU 110 performs step SB13. The counter value is reset to “0” and the image “tre” of the segmented phoneme character string data is read from the word table TBL and displayed (FIG. 11C). In this screen, when the user traces the curve displayed below “tre” with his / her finger, the color in the rectangular frame surrounding “tre” changes to, for example, green, and the segmented audio data V1 of the segment −1 is read and output from the audio output unit 130.

続いて、ステップSB15において次の区分があるか否か判定する。この場合、「tre」には次の区分が存在するのでYESと判定され、処理はステップSB3に戻り、続いて、次の区分「men」についてステップSB3〜SB23の処理が順次実行される。
続いて、最後の区分「dous」についてもステップSB3〜SB23の処理が順次実行され、ステップSB15において次の区分がない旨が判定される(ステップSB15;NO)と、当該文字順学習処理が終了する。続いて、処理は図7のステップSA9に戻る。
Subsequently, in step SB15, it is determined whether or not there is a next section. In this case, since the next section exists in “tre”, it is determined YES, the process returns to step SB3, and then the processes of steps SB3 to SB23 are sequentially executed for the next section “men”.
Subsequently, the processes of steps SB3 to SB23 are sequentially executed for the last section “dous”, and when it is determined in step SB15 that there is no next section (step SB15; NO), the character order learning process is ended. To do. Subsequently, the process returns to step SA9 in FIG.

ステップSA9において、CPU110は、「tremendous」に対応して記憶されている区分音素文字列データ「tre」、「men」、「dous」の各区分音素文字列データおよび各々に対応する区分表音文字列データを単語テーブルTBLから読み出して、表示部120の略中央部分に各区分表音文字列データの画像をX軸方向に沿って一列に表示する(図11の(d))。さらに、訳語データを単語テーブルTBLから読み出して、区分表音文字列データの画像の下側(図中)に訳語を表示する。このとき、CPU110は画面に「(曲線を)指でなぞりながら発音しましょう」と表示することにより、各区分音素文字の下側に表示された曲線を手でなぞるようにユーザに促す。ユーザが曲線を指でなぞると、CPU110は曲線がユーザによってなぞられたこと検知し、その区分音素文字列に対応する区分音声データ(V1−1、V1−1、V1−1のいずれか)を単語テーブルTBLから読み出して音声出力部130から出力する。
図11の(d)に示された画面において、ユーザが「次の単語へ」ボタンを押し下げすると、図9の(d)に示された単語の選択画面に遷移し、「やめる」ボタンを押し下げすると、図9の(a)に示された初期画面に遷移する。以上で本実施形態の単語学習処理に関する動作が終了する。
In step SA9, the CPU 110 determines the segmented phoneme character string data “tre”, “men”, “duus” stored in correspondence with “tremendous” and the segmented phonetic character corresponding to each. The column data is read from the word table TBL, and the image of each segmented phonetic character string data is displayed in a line along the X-axis direction at the substantially central portion of the display unit 120 ((d) in FIG. 11). Further, the translated word data is read from the word table TBL, and the translated word is displayed on the lower side (in the drawing) of the segmented phonetic character string data image. At this time, CPU 110 prompts the user to trace the curve displayed below each segmented phoneme character by displaying “Let's pronounce while tracing with a finger” on the screen. When the user traces the curve with his / her finger, the CPU 110 detects that the curve is traced by the user, and the segmented voice data (any of V1-1, V1-1, V1-1) corresponding to the segmented phoneme character string is detected. Read from the word table TBL and output from the voice output unit 130.
In the screen shown in FIG. 11D, when the user presses down the “next word” button, the screen changes to the word selection screen shown in FIG. 9D, and the “quit” button is pressed down. Then, the screen changes to the initial screen shown in FIG. The operation relating to the word learning process of the present embodiment is thus completed.

以上説明したように、本実施形態によれば、上記第1実施形態と同様の効果が得られる。さらに、電子機器100Bを用いて単語学習を行うことが可能な構成としたので、単語の区分音素文字列に対応した表音文字列や区分発音を独りでも学習することができる。よって、教授者が不在の場合にも、教授者が付き添って学習する場合と同程度の効果を得ることができる。   As described above, according to the present embodiment, the same effect as in the first embodiment can be obtained. Furthermore, since it is configured to be able to perform word learning using the electronic device 100B, it is possible to learn alone a phonetic character string and a segmented pronunciation corresponding to a segmented phoneme character string of the word. Therefore, even when the professor is absent, the same effect as the case where the professor attends and learns can be obtained.

C:変形例
(1)上述した第2実施形態では、単語の1区分のなかに複数の最小発音単位を含んでもよい構成としていたが、1つの最小発音単位を1区分単位としてもよい。すなわち、「tremendous」を「tre」(トゥレ)と「men」(メン)と「dous」(ダス)に区分する代わりに、「t」(トゥ)、「re」(レ)、「me」(メ)、「n」(ン)、「dou」(ダ)、「s」(ス)に区分するようにしてもよい。その場合、「t」、「re」、「me」、「n」、「dou」、「s」の各々を区分音素文字列データとし、「トゥ」、「レ」、「メ」、「ン」、「ダ」、「ス」の各々を区分表音文字列データとして単語テーブルTBLに記憶しておく。そして、CPU110は、表示部120に表示する際には、音素文字列「t」と表音文字列「トゥ」の各画像の表示位置が、同一のX座標上に表示されるように制御する。これにより、学習者は、最小発音単位を表す表音文字列発音と音素文字列との関係をより明確に理解することができる。
また、文字順学習処理において、単語の区分ごとに文字画像を表示してユーザに並べ替えをさせる態様について説明したが、単語の全区分の文字画像(すなわち、単語を構成する音素文字全て)を表示して並べ替える態様としてもよい。そして、1つの区分が完成するごとに、区分音素文字列を表示するとともに区分音声データを出力し、その後、後続する音素文字列の並べ替えを引き続き行うようにすればよい。
C: Modification (1) In the second embodiment described above, a plurality of minimum pronunciation units may be included in one division of a word, but one minimum pronunciation unit may be set as one division unit. That is, instead of dividing “tremendous” into “tre” (tule), “men” (men), and “dous” (dass), “t” (toe), “re” (re), “me” ( ), “N” (n), “dou” (da), and “s” (su). In this case, each of “t”, “re”, “me”, “n”, “dou”, “s” is classified as phoneme character string data, and “to”, “re”, “me”, “n” ”,“ Da ”, and“ su ”are stored in the word table TBL as segmented phonetic character string data. Then, when displaying on the display unit 120, the CPU 110 controls the display positions of the images of the phoneme character string “t” and the phonetic character string “To” to be displayed on the same X coordinate. . Thus, the learner can more clearly understand the relationship between the phonetic character string pronunciation representing the minimum pronunciation unit and the phoneme character string.
Further, in the character order learning process, a mode has been described in which a character image is displayed for each word segment and the user rearranges it. However, character images of all word segments (that is, all phonemic characters constituting the word) are displayed. It is good also as an aspect which displays and rearranges. Each time one segment is completed, the segmented phoneme character string is displayed and the segmented speech data is output, and then the subsequent phoneme character string is rearranged.

(2)上述した第2実施形態では、PDAを用いた携帯型の学習装置について説明したが、携帯型である必要はない。よって、例えば、固定型または可搬型のパーソナルコンピュータを用いて本発明の単語学習方法を実現してもよい。その場合、タッチパネル120aではなくマウスにより、上述した各操作を実行させるようにすればよい。
また、上述した第2実施形態では、単語テーブルTBLを電子機器100Bに記憶しておく態様について説明したが、学習対象の単語数が膨大な場合には、電子機器100Bの記憶容量を圧迫し、処理負荷が増大する。そこで、インターネットに接続されたサーバ装置に単語テーブルTBLを保持し、電子機器(ユーザ端末)との間で対話型の単語学習を実行させるようにしてもよい。具体的には、ユーザ端末はサーバ装置と通信する通信機能を有し、予めサーバ装置に接続することにより、上記実施形態の単語学習を実行するためのアプリケーションソフトウェアをダウンロードしておく。そして、ユーザ端末において当該ソフトウェアを実行することにより学習対象となる単語を指定すると、サーバ装置は、指定された単語に関する全表示データ、訳語データ、通し発音データ、区分音素文字列データ、区分表音文字列データ、区分音声データ、文字ピースデータ、文字順情報、最後フラグの各々をユーザ端末からの要求に応じて読み出してユーザ端末に送信するようにすればよい。あるいは、アプリケーションソフトウェアをダウンロードせずともブラウザ上で対話型の単語学習を実行してもよい。この態様によれば、ユーザ端末の負荷を軽減しつつ、多数の単語を学習することが可能であるとともに、サーバ装置側で単語データを容易に更新することができる。また、サーバ装置の記憶容量がユーザ端末よりも大きい場合が多いので、その場合には、例えば、中学英単語帳、高校英単語帳、TOEIC600点レベルの英単語帳など、各種の単語帳を記憶しておくことにより、ユーザは所望の単語帳を選び単語学習を行うことででき、学習の幅が広がる。
なお、サーバ装置とユーザ端末とが協働して本発明に係る単語学習処理を実現する場合には、単語学習処理の実現に必要な各手段をいずれの装置が担うようにしてもよく、上述の態様を自由に変形することができる。
(2) In the second embodiment described above, the portable learning device using the PDA has been described, but it is not necessary to be portable. Therefore, for example, the word learning method of the present invention may be realized using a fixed or portable personal computer. In that case, each operation described above may be executed by a mouse instead of the touch panel 120a.
Moreover, in 2nd Embodiment mentioned above, although the aspect which memorize | stores the word table TBL in the electronic device 100B was demonstrated, when the number of words of learning object is enormous, the storage capacity of the electronic device 100B is pressed, Processing load increases. Therefore, the word table TBL may be held in a server device connected to the Internet, and interactive word learning may be executed with an electronic device (user terminal). Specifically, the user terminal has a communication function for communicating with the server device, and downloads application software for executing word learning of the above-described embodiment by connecting to the server device in advance. Then, when a word to be learned is specified by executing the software on the user terminal, the server device displays all display data, translated word data, through pronunciation data, segmented phoneme string data, segmented phonetic information regarding the specified word. Each of the character string data, the segmented voice data, the character piece data, the character order information, and the last flag may be read in response to a request from the user terminal and transmitted to the user terminal. Alternatively, interactive word learning may be executed on a browser without downloading application software. According to this aspect, it is possible to learn a large number of words while reducing the load on the user terminal, and it is possible to easily update word data on the server device side. In addition, since the storage capacity of the server device is often larger than that of the user terminal, various word books such as a junior high school English word book, a high school English word book, and a TOEIC 600-point English word book are stored. By doing so, the user can select a desired word book and perform word learning, thereby expanding the range of learning.
When the server device and the user terminal cooperate to realize the word learning processing according to the present invention, any device may be responsible for each means necessary for realizing the word learning processing. The embodiment can be freely modified.

(3)上述した実施形態では、単語学習プログラムPが電子機器100BのROM140aに予め記憶されているものとしたが、電子機器100Bが通信機能を備える場合には、この単語学習プログラムPはインターネットに接続してダウンロードされたものであってもよい。この場合には、単語学習プログラムPのバージョンアップを容易に実行することができる。さらに、フロッピー(登録商標)ディスクやCD−ROMなどのコンピュータ読み取り可能な記録媒体に単語学習プログラムPを記録して、頒布するものであってもよい。 (3) In the above-described embodiment, the word learning program P is stored in advance in the ROM 140a of the electronic device 100B. However, when the electronic device 100B has a communication function, the word learning program P is stored on the Internet. It may be downloaded by connecting. In this case, it is possible to easily upgrade the word learning program P. Further, the word learning program P may be recorded and distributed on a computer-readable recording medium such as a floppy (registered trademark) disk or a CD-ROM.

(4)上述した実施形態では、英単語を学習する場合を例にとって説明したが、英語に限られず、例えば、フランス語、ドイツ語など、日本語等の表音文字でその発音を1対1で表記することができる言語であればよい。 (4) In the above-described embodiment, the case of learning English words has been described as an example. However, the present invention is not limited to English. For example, the pronunciation is one-to-one with phonetic characters such as Japanese, such as French and German. Any language can be used.

第1実施形態に係る単語学習器具100Aの外観を示す斜視図である。It is a perspective view which shows the external appearance of 100 A of word learning instruments which concern on 1st Embodiment. 単語学習器具100Aを用いた単語学習法の流れを示すフローチャートである。It is a flowchart which shows the flow of the word learning method using 100 A of word learning instruments. 単語学習器具100Aを用いた英単語学習法で学習する単語の例を示す。The example of the word learned by the English word learning method using the word learning instrument 100A is shown. 第2実施形態に係る電子機器100Bの外観を示す斜視図である。It is a perspective view which shows the external appearance of the electronic device 100B which concerns on 2nd Embodiment. 電子機器100Bの機能構成を示す機能ブロック図である。It is a functional block diagram which shows the function structure of the electronic device 100B. 単語テーブルTBLの記憶内容の一例を示す。An example of the stored contents of the word table TBL is shown. 単語学習処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a word learning process. 文字順学習処理の詳細な流れを示すフローチャートである。It is a flowchart which shows the detailed flow of a character order learning process. 単語学習処理における画面の表示例を示す。The example of a display of the screen in a word learning process is shown. 単語学習処理における画面の表示例を示す。The example of a display of the screen in a word learning process is shown. 単語学習処理における画面の表示例を示す。The example of a display of the screen in a word learning process is shown.

符号の説明Explanation of symbols

10…ケース、10a…上箱、10b…下箱、20…文字ピース、30a,30b…係止具、100A…単語学習器具、100B…電子機器、110…CPU、120…表示部、120a…タッチパネル、130…音声出力部、140…記憶部、140a…ROM、140b…RAM、150…単語帳メモリカード、200…本体、210…電源スイッチ、220…タッチペン、230…スロット、TBL…単語テーブル。   DESCRIPTION OF SYMBOLS 10 ... Case, 10a ... Upper box, 10b ... Lower box, 20 ... Character piece, 30a, 30b ... Locking tool, 100A ... Word learning instrument, 100B ... Electronic device, 110 ... CPU, 120 ... Display part, 120a ... Touch panel , 130 ... voice output unit, 140 ... storage unit, 140 a ... ROM, 140 b ... RAM, 150 ... word book memory card, 200 ... main body, 210 ... power switch, 220 ... touch pen, 230 ... slot, TBL ... word table.

Claims (6)

複数の音素文字の列から成る単語を学習するための単語学習装置であって、
画面の指定された二次元座標位置に画像を表示するための表示部と、
単語を1又は複数の音素文字を含む複数の部分に分割した各々を区分としたとき、当該区分を構成する音素文字列を指定する区分音素文字列データと、前記区分の発音を1又は複数の表音文字で表記した表音文字列を指定する区分表音文字列データとを対応づけて記憶する記憶手段と、
学習の対象となる単語が指定されると、前記記憶手段から当該単語に対応する区分音素文字列データおよび区分表音文字列データを読み出し、読み出した区分音素文字列データおよび区分表音文字列データに基づいて、当該単語の音素文字列と当該単語の発音を表記した表音文字列を前記表示部に表示するよう制御する制御部とを備え、
前記記憶手段は、前記区分の発音において発音の最小単位を最小発音単位としたとき、前記区分音素文字列データと前記区分表音文字列データとを、前記最小発音単位ごとに対応づけて記憶しており、
前記制御部は、第1の方向と平行に前記音素文字列と前記表音文字列とを配置し、かつ、前記最小発音単位ごとに、前記音素文字列の配列方向における当該音素文字列の中心と前記表音文字列の配列方向における当該表音文字列の中心とが前記第1の方向と直交する同一直線上に位置するように、前記単語の音素文字列と当該単語の発音を表記した表音文字列とを前記表示部に表示する、
単語学習装置。
A word learning device for learning a word composed of a sequence of phoneme characters,
A display unit for displaying an image at a specified two-dimensional coordinate position on the screen;
When each of a word divided into a plurality of parts including one or more phonemic characters is defined as a segment, segmented phoneme character string data specifying a phoneme character string constituting the segment, and one or a plurality of pronunciations of the segment Storage means for storing in association with segmented phonetic character string data specifying a phonetic character string expressed in phonetic characters;
When a word to be learned is specified, the segmented phoneme character string data and the segmented phonetic character string data corresponding to the word are read from the storage unit, and the segmented phoneme character string data and the segmented phonetic character string data read out A control unit for controlling the phoneme character string of the word and the phonetic character string describing the pronunciation of the word to be displayed on the display unit,
The storage means stores the segmented phoneme character string data and the segmented phonetic character string data in association with each minimum pronunciation unit when the minimum unit of pronunciation in the pronunciation of the segment is the minimum pronunciation unit. And
The control unit arranges the phoneme character string and the phonetic character string in parallel with a first direction, and the center of the phoneme character string in the arrangement direction of the phoneme character string for each minimum pronunciation unit. And the phoneme character string of the word and the pronunciation of the word are written such that the center of the phonetic character string in the arrangement direction of the phonetic character string is located on the same straight line orthogonal to the first direction. Display a phonetic string on the display unit;
Word learning device.
前記最小発音単位の音は、これを表記した1又は複数の表音文字と1対1で対応するように定められた、
請求項1に記載の単語学習装置。
The sound of the minimum pronunciation unit is defined so as to correspond one-to-one with one or more phonetic characters representing the sound,
The word learning device according to claim 1.
前記記憶手段は、前記区分音素文字列データと前記区分表音文字列データとに対応した区分音声データをさらに記憶し、
当該単語学習装置は、前記区分音声データに基づいて音声を出力する音声出力部をさらに備え、
前記表示部はタッチパネルを含み、当該タッチパネルは、前記画面に対してユーザ操作が行われたときに、その押し下げ位置を検知することが可能であるとともに、前記押し下げ位置とは異なる位置において前記画面が押し下げられた状態から解放されたときの押し下げ解放位置を検知することが可能であり、
前記制御部は、1または複数の前記区分音素文字列データが表示されているときにユーザ操作が行われると、前記1または複数の区分音素文字列データのうち、前記押し下げ位置と前記押し下げ解放位置とに基づいて、前記ユーザ操作によって指示された区分音素文字列データを特定し、特定した区分音素文字列データに対応する前記区分音声データを前記音声出力部から出力する、
請求項1又は請求項2に記載の単語学習装置。
The storage means further stores segmented speech data corresponding to the segmented phoneme character string data and the segmented phonetic character string data;
The word learning device further includes a voice output unit that outputs a voice based on the segmented voice data,
The display unit includes a touch panel, and the touch panel can detect a pressed position when a user operation is performed on the screen, and the screen is displayed at a position different from the pressed position. It is possible to detect the depressing release position when released from the depressed state,
When a user operation is performed while one or more of the segmented phoneme character string data is displayed, the control unit includes the depressed position and the depressed release position of the one or more segmented phoneme character string data. And specifying the segmented phoneme string data instructed by the user operation, and outputting the segmented speech data corresponding to the identified segmented phoneme string data from the speech output unit,
The word learning device according to claim 1 or 2.
前記記憶手段は、前記区分ごとに、前記複数の音素文字の各々を文字単位画像として表した文字単位画像データを記憶するとともに、複数の前記文字単位画像の、前記区分における文字順情報をさらに記憶し、
前記制御部は、前記区分に含まれる前記複数の文字単位画像を前記表示手段の前記画面上の異なる位置に表示し、当該複数の文字単位画像を並び替えるようにユーザに促し、前記複数の文字単位画像が前記第1の方向に配列されたときに、その配列順と、前記文字順情報とが一致しているか否かを判定する、
請求項1ないし請求項3のいずれか一項に記載の単語学習装置。
The storage means stores character unit image data representing each of the plurality of phonemic characters as a character unit image for each of the sections, and further stores character order information in the section of the plurality of character unit images. And
The control unit displays the plurality of character unit images included in the section at different positions on the screen of the display unit, prompts the user to rearrange the plurality of character unit images, and When unit images are arranged in the first direction, it is determined whether or not the arrangement order and the character order information match.
The word learning device according to any one of claims 1 to 3.
サーバ装置と、当該サーバ装置と通信可能なユーザ端末との間で、複数の音素文字の列から成る単語を学習する単語学習処理を実行することが可能な対話型単語学習システムであって、
前記サーバ装置は、
単語を1又は複数の音素文字を含む複数の部分に分割した各々を区分としたとき、当該区分を構成する音素文字列を指定する区分音素文字列データと、前記区分の発音を1又は複数の表音文字で表記した表音文字列を指定する区分表音文字列データとを対応づけて記憶する記憶手段と、
前記ユーザ端末から学習の対象となる単語が指定されると、当該指定された単語に対応する区分音素文字列データおよび区分表音文字列データを前記記憶手段から読み出し、前記ユーザ端末に送信する送信手段と、
を備え、
前記ユーザ端末は、
画面の指定された二次元座標位置にデータを表示するための表示部と、
前記サーバ装置から前記区分音素文字列データおよび前記区分表音文字列データを受信すると、前記音素文字列と前記表音文字列とを前記表示部に配置する表示制御手段と、
を備え、
前記サーバ装置の前記記憶手段は、前記区分の発音において発音の最小単位を最小発音単位としたとき、前記区分音素文字列データと前記区分表音文字列データとを、前記最小発音単位ごとに対応づけて記憶しており、
前記ユーザ端末の表示制御部は、第1の方向と平行に前記音素文字列と前記表音文字列とを配置し、かつ、前記最小発音単位ごとに、前記音素文字列の配列方向における当該音素文字列の中心と前記表音文字列の配列方向における当該表音文字列の中心とが前記第1の方向と直交する同一直線上に位置するように、前記単語の音素文字列と当該単語の発音を表記した表音文字列とを前記表示部に表示するよう制御する、
対話型学習システム。
An interactive word learning system capable of executing a word learning process for learning a word composed of a plurality of phoneme character strings between a server device and a user terminal capable of communicating with the server device,
The server device
When each of a word divided into a plurality of parts including one or more phonemic characters is defined as a segment, segmented phoneme character string data specifying a phoneme character string constituting the segment, and one or a plurality of pronunciations of the segment Storage means for storing in association with segmented phonetic character string data specifying a phonetic character string expressed in phonetic characters;
When a word to be learned is designated from the user terminal, the segmented phoneme character string data and the segmented phonetic character string data corresponding to the designated word are read from the storage means and transmitted to the user terminal Means,
With
The user terminal is
A display unit for displaying data at a specified two-dimensional coordinate position on the screen;
When receiving the segmented phoneme character string data and the segmented phonetic character string data from the server device, display control means for arranging the phoneme character string and the phonetic character string on the display unit;
With
The storage means of the server device corresponds to the segmented phoneme character string data and the segmented phonetic character string data for each minimum pronunciation unit when the minimum unit of pronunciation in the pronunciation of the category is the minimum pronunciation unit. Remember,
The display control unit of the user terminal arranges the phoneme character string and the phonetic character string in parallel with a first direction, and the phoneme character string in the arrangement direction of the phoneme character string for each minimum pronunciation unit. The phoneme character string of the word and the word of the word are arranged so that the center of the character string and the center of the phonetic character string in the arrangement direction of the phonetic character string are located on the same straight line orthogonal to the first direction. Control to display the phonetic character string indicating the pronunciation on the display unit,
Interactive learning system.
複数の音素文字の列から成る単語を学習するための単語学習プログラムであって、
画面の指定された二次元座標位置に画像を表示する表示部と記憶手段とを備える電子機器のコンピュータに、
単語を1又は複数の音素文字を含む複数の部分に分割した各々を区分とし、且つ、前記区分の発音において発音の最小単位を最小発音単位としたとき、当該区分を構成する音素文字列を指定する区分音素文字列データと、前記区分の発音を1又は複数の表音文字で表記した表音文字列を指定する区分表音文字列データとを、前記最小発音単位ごとに対応づけて前記記憶手段に記憶する機能と、
学習の対象となる単語が指定されると、前記記憶手段から当該単語に対応する区分音素文字列データおよび区分表音文字列データを読み出す機能と、
読み出した区分音素文字列データおよび区分表音文字列データに基づいて、第1の方向と平行に前記音素文字列と前記表音文字列とを配置し、かつ、前記最小発音単位ごとに、前記音素文字列の配列方向における当該音素文字列の中心と前記表音文字列の配列方向における当該表音文字列の中心とが前記第1の方向と直交する同一直線上に位置するように、前記単語の音素文字列と当該単語の発音を表記した表音文字列とを前記表示部に表示するよう制御する機能と、
を実現させるための単語学習プログラム。

A word learning program for learning a word composed of a sequence of phoneme characters,
In a computer of an electronic device comprising a display unit that displays an image at a designated two-dimensional coordinate position on the screen and a storage unit,
When each word divided into a plurality of parts including one or more phonemic characters is defined as a segment, and the minimum pronunciation unit is defined as the minimum pronunciation unit in the pronunciation of the segment, the phoneme character string constituting the segment is designated. The segmented phoneme character string data to be stored and the segmented phonetic character string data specifying the phonetic character string in which the pronunciation of the segment is expressed by one or more phonetic characters are associated with each minimum pronunciation unit and stored. A function to memorize the means;
When a word to be learned is specified, a function of reading the segmented phoneme character string data and the segmented phonetic character string data corresponding to the word from the storage unit;
Based on the read segmented phoneme character string data and the segmented phonetic character string data, the phoneme character string and the phonetic character string are arranged in parallel with the first direction, and for each minimum pronunciation unit, The center of the phoneme character string in the arrangement direction of the phoneme character string and the center of the phonetic character string in the arrangement direction of the phonetic character string are located on the same straight line orthogonal to the first direction. A function to control the display unit to display a phoneme character string of a word and a phonetic character string describing the pronunciation of the word;
A word learning program for realizing.

JP2007299077A 2007-11-19 2007-11-19 Word learning device, interactive learning system, and word learning program Active JP4914808B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007299077A JP4914808B2 (en) 2007-11-19 2007-11-19 Word learning device, interactive learning system, and word learning program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007299077A JP4914808B2 (en) 2007-11-19 2007-11-19 Word learning device, interactive learning system, and word learning program

Publications (2)

Publication Number Publication Date
JP2009122581A JP2009122581A (en) 2009-06-04
JP4914808B2 true JP4914808B2 (en) 2012-04-11

Family

ID=40814757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007299077A Active JP4914808B2 (en) 2007-11-19 2007-11-19 Word learning device, interactive learning system, and word learning program

Country Status (1)

Country Link
JP (1) JP4914808B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101217653B1 (en) * 2009-08-14 2013-01-02 오주성 English learning system
JP2015036788A (en) * 2013-08-14 2015-02-23 直也 内野 Pronunciation learning device for foreign language
JP6965535B2 (en) * 2017-03-15 2021-11-10 カシオ計算機株式会社 Learning support device, learning support method and program
US11361760B2 (en) 2018-12-13 2022-06-14 Learning Squared, Inc. Variable-speed phonetic pronunciation machine
CN113012525A (en) * 2021-02-24 2021-06-22 邹春杰 Programming type computer multifunctional module hardware assembly teaching device
CN113947958A (en) * 2021-08-30 2022-01-18 读书郎教育科技有限公司 Word-back system and method based on natural spelling

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6433674A (en) * 1987-07-30 1989-02-03 Nec Corp Unregistered word processing system
JPH1010958A (en) * 1996-06-27 1998-01-16 Toshiba Corp Word retrieval type playful learning device
JP2000127647A (en) * 1998-04-27 2000-05-09 Nobuyuki Sotani English vocabulary retrieval/check dictionary with kana heading and english vocabulary retrieval/check device
JP3759919B2 (en) * 2002-10-21 2006-03-29 辻本 旬子 Foreign language learning program and foreign language learning apparatus
JP2005189454A (en) * 2003-12-25 2005-07-14 Casio Comput Co Ltd Text synchronous speech reproduction controller and program
JP2007206317A (en) * 2006-02-01 2007-08-16 Yamaha Corp Authoring method and apparatus, and program
JP2008009507A (en) * 2006-06-27 2008-01-17 Hiroyuki Kabashima Method for representing pronunciation of foreign language in katakana

Also Published As

Publication number Publication date
JP2009122581A (en) 2009-06-04

Similar Documents

Publication Publication Date Title
US8016596B2 (en) Literacy system
US20060194181A1 (en) Method and apparatus for electronic books with enhanced educational features
Marrapodi What doesn’t work for the lowest level literacy learners and why?
JP4914808B2 (en) Word learning device, interactive learning system, and word learning program
JP2019507913A (en) Educational toy simulator
WO2016129515A1 (en) Program and method for foreign language learning
KR101102520B1 (en) The audio-visual learning system of its operating methods that based on hangul alphabet combining the metrics
CN109389873B (en) Computer system and computer-implemented training system
Baker et al. Pronunciation pairs: an introduction to the sounds of English
JP7166580B2 (en) language learning methods
JP2015036788A (en) Pronunciation learning device for foreign language
KR100238451B1 (en) A computer aided education system and control techniques for korean
US20050191604A1 (en) Apparatus and method for teaching dyslexic individuals
JP3230975U (en) Phonics learning support tool
KR101107472B1 (en) Chinese education and recording medium for it
KR101094715B1 (en) Braille Education Trainer for the Visually Handicapped
KR101080092B1 (en) Method for studying foreign language word and installation using thereof
CN116627263A (en) Multi-functional keyboard is used in middle and primary schools' teaching
JP2002207414A (en) Teaching material for learning kanji
Barbetta et al. Learning to write: Technology for students with disabilities in secondary inclusive classrooms
US20060110713A1 (en) Initial teaching alphabet for teaching phonetics
KR200471528Y1 (en) English Learning Material
JP2005140879A (en) Device and tool for learning english
KR102357900B1 (en) Material for studying English Pronunciation
KR102112059B1 (en) Method for making hangul mark for chinese pronunciation on the basis of listening, and method for displaying the same, learning foreign language using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120110

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120123

R150 Certificate of patent or registration of utility model

Ref document number: 4914808

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20180127

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250