WO2018101067A1 - 学習支援システム、方法及びプログラム - Google Patents

学習支援システム、方法及びプログラム Download PDF

Info

Publication number
WO2018101067A1
WO2018101067A1 PCT/JP2017/041334 JP2017041334W WO2018101067A1 WO 2018101067 A1 WO2018101067 A1 WO 2018101067A1 JP 2017041334 W JP2017041334 W JP 2017041334W WO 2018101067 A1 WO2018101067 A1 WO 2018101067A1
Authority
WO
WIPO (PCT)
Prior art keywords
learning
phrase
user
storage
stored
Prior art date
Application number
PCT/JP2017/041334
Other languages
English (en)
French (fr)
Inventor
秀幸 松井
Original Assignee
秀幸 松井
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 秀幸 松井 filed Critical 秀幸 松井
Priority to EP17876645.7A priority Critical patent/EP3457386A4/en
Priority to CA3027337A priority patent/CA3027337C/en
Priority to US16/306,735 priority patent/US20210166581A1/en
Priority to CN201780031511.1A priority patent/CN109155111B/zh
Publication of WO2018101067A1 publication Critical patent/WO2018101067A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
    • G09B7/04Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student characterised by modifying the teaching programme in response to a wrong answer, e.g. repeating the question, supplying a further explanation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied

Definitions

  • the present invention relates to a learning support system, method, and program for changing a display mode of a phrase to be learned according to a user who learns a phrase in a foreign language.
  • a learning device that enhances the learning effect is known as a method for supporting foreign language learning by repeating the learning frequency more frequently for a problem of a foreign language word prepared in advance.
  • Patent Document 1 a learning device that enhances the learning effect is known as a method for supporting foreign language learning by repeating the learning frequency more frequently for a problem of a foreign language word prepared in advance.
  • the learning device described in Patent Literature 1 was the previous incorrect answer by controlling the frequency of iterative learning based on a variable indicating the number of learning times or elapsed time of the problem and a variable indicating the degree of correctness / incorrectness of the user's problem.
  • the problem is to make it easier to ask questions after the next time.
  • This learning apparatus determines the frequency of iterative learning according to a function called a forgetting function that represents that the amount of human memory decreases exponentially with time in order to enhance the learning effect.
  • the learning device described in Patent Document 1 has a drawback in that the similarity between a language phrase that a user learns and a corresponding native language phrase is not considered. That is, for example, learning difficulty differs between a user whose native language is Japanese learning English phrases and a user whose native language is English learning Japanese phrases.
  • the word to be learned is fixed as a foreign language in the user's native language, whether or not the user is familiar with the character type to be described such as alphabet, kana, or kanji, and the user corresponding to the word to be learned
  • the level of comprehension and memory of the user depending on whether the spelling is similar to the language of the native language and whether the pronunciation of the phrase to be learned and the corresponding language of the user's native language is similar. Therefore, the learning effect is not uniform. Therefore, since the learning device determines the frequency of repetitive learning without considering these circumstances, an effective learning effect cannot be obtained depending on the foreign language phrase to be learned.
  • the present invention has been made to solve such a problem, and determines the predetermined time to be learned next time based on the linguistic similarity to the native language of the phrase that the user learns. It is an object of the present invention to provide a learning support system, method, and program that provide an opportunity for repeated learning at a more appropriate time for each word to be learned in order to enhance the effectiveness of foreign language learning.
  • the learning support system includes a native language setting unit that sets a user's native language, a learned phrase storage unit that stores phrase information learned by the user together with a degree of learning, and the native language setting unit.
  • a predetermined time calculation unit that calculates a predetermined time based on the linguistic similarity of the phrase information that the user learns with respect to the input native language, and a degree of learning that is stored in the learned phrase storage unit is not yet learned.
  • Storage control means for storing in the first storage mode, storing in the second storage mode when learning is completed, and storing again in the first storage mode when the predetermined time has elapsed after completion of learning;
  • the phrase information learned by the user is output in the first and second output modes according to the first and second storage modes stored in the learned phrase storage unit by the storage control unit, respectively. Characterized in that and an output unit.
  • the learning support system further comprising a learning degree input unit that inputs a degree of learning from the user with respect to the phrase information that the user learns, and an input by the learning degree input unit is not yet completed. Is stored in the first storage mode, and when the learning is completed, the storage control unit stores the second storage mode so that the user's memory is ambiguous and the words to be learned are clear. Therefore, it is possible to provide an opportunity for repeated learning more effectively.
  • the learning support system a phrase information input unit that inputs phrase information that a user learns, a phrase related information storage unit that stores the related information including the similarity and related to the phrase, and the phrase Word / phrase collating means for collating whether or not the phrase information input by the information input means and stored in the learned phrase storage means is stored in the phrase-related information storage section, and the storage control means
  • the phrase that the user learns by storing the degree of learning in the first storage mode for the phrase information that is not stored in the phrase related information storage unit based on the matching result obtained by the phrase collating means When a new phrase that has not been learned in the past is included, the new phrase is clarified, so that an opportunity to effectively learn the new phrase can be provided.
  • the similarity includes whether or not the word information to be learned is a foreign language in the native language, and the character type indicating the word information to be learned is the character type of the native language. Whether it is similar, whether the spelling of the phrase information to be learned is similar to the spelling of the native language, and whether the pronunciation of the phrase information to be learned is similar to the pronunciation of the native language
  • the predetermined time calculation means determines the predetermined time accordingly, and based on the specific similarity between the words learned by the user and the corresponding words in the user's native language, Since the predetermined time is precisely calculated, it is possible to provide an opportunity for more accurate repeated learning.
  • the predetermined time calculation means determines the predetermined time based on the difficulty level of the words and phrases in the language that the user learns, so that the words and phrases that are learned in the upper grades and long spellings It is possible to provide an opportunity for more accurate repeated learning of words with high difficulty.
  • the learning support system wherein the predetermined time calculation means determines the predetermined time based on a user's learner level with respect to a language of a word to be learned, thereby obtaining the predetermined time according to the learner's level. Since the calculation is performed, it is possible to provide a learning support system that increases the effectiveness of foreign language learning for learners of a wide range of ages.
  • the learning support method sets a native language setting step for setting a user's native language, a learning phrase storing step for storing phrase information learned by the user together with a degree of learning, A predetermined time calculation step for calculating a predetermined time based on the linguistic similarity of the phrase information learned by the user with respect to the native language input in the native language setting step, and a degree of learning stored in the learning phrase storage step
  • learning is not completed, it is stored in the first storage mode.
  • learning When learning is completed, it is stored in the second storage mode.
  • the predetermined time has elapsed after completion of learning, it is stored again in the first storage mode.
  • the storage control step and the phrase information that the user learns correspond to the first and second storage modes stored in the learning phrase storage step by the storage control step. Te, and executes an output step of outputting at the respective first and second output modes, the.
  • the computer includes a native language setting means for setting a user's native language, a learned phrase storage means for storing phrase information learned by the user together with a degree of learning, and the native language setting means.
  • a predetermined time calculation means for calculating a predetermined time based on the linguistic similarity of the phrase information learned by the user with respect to the native language input by the step, and the degree of learning stored in the learned phrase storage means is not yet learned
  • Storage control means for storing in the first storage mode, storing in the second storage mode when learning is completed, and storing again in the first storage mode when the predetermined time has elapsed after completion of learning;
  • the first and second output modes respectively according to the first and second storage modes stored in the learned phrase storage unit by the storage control unit for the phrase information learned by the user Characterized in that to function as a learning support system and output means for outputting Te.
  • the present invention by calculating a predetermined time until the next learning should be performed based on the linguistic similarity of the phrase information that the user learns, for each phrase that is learned according to the user, at a more appropriate time. It is possible to provide a learning support system, method and program that provide an opportunity for repeated learning and enhance the effectiveness of foreign language learning.
  • the learning support system which concerns on Example 1 of this invention is a conversion table which shows the predetermined time corresponding to the learning level of a phrase. It is a flowchart which shows the process sequence which calculates the predetermined time and elapsed time with respect to the phrase which a user learns in the learning assistance system which concerns on Example 1 of this invention.
  • the learning support system which concerns on Example 1 of this invention it is a conversion table which shows the coefficient 1 corresponding to the difficulty level of a phrase.
  • the learning support system which concerns on Example 1 of this invention it is a conversion table which shows the coefficient 1 corresponding to a user's learner level.
  • Example 1 of this invention In the learning support system which concerns on Example 1 of this invention, it is a conversion table which shows the coefficient 1 corresponding to a difficulty level. It is a flowchart which shows the process sequence which calculates
  • Example 1 of this invention it is a sample example which shows the similarity with respect to the native language of the phrase which a user learns.
  • the learning support system which concerns on Example 1 of this invention it is a sample example which shows the similarity with respect to the native language of the phrase which a user learns.
  • FIGS. 1 to 18 are diagrams illustrating embodiments of the present invention.
  • the same reference numerals denote the same components, and the basic configuration and operation are the same. .
  • FIG. 1 is a diagram showing an overall configuration of a learning support system according to Embodiment 1 of the present invention.
  • the learning support system 1 includes a main control unit (CPU) 10 that controls the entire system, a storage unit 11 that stores various information, an input unit 13 including a keyboard and a mouse, and an output (display) unit such as a display. 14, a communication unit 15 connected to the network 4, and a bus line 12 connecting each unit.
  • CPU main control unit
  • storage unit 11 that stores various information
  • an input unit 13 including a keyboard and a mouse
  • an output (display) unit such as a display.
  • a communication unit 15 connected to the network 4
  • a bus line 12 connecting each unit.
  • the main control unit (CPU) 10 is a phrase extraction unit 101, a phrase collation unit 102, a predetermined time calculation unit 103, a storage control unit 104, and various processes by a program such as an operating system, a program that defines the procedure of the learning system, and the like. Means, judgment means, etc. are realized.
  • the storage unit 11 includes a volatile or non-volatile semiconductor element such as a RAM and a ROM, and an auxiliary storage device such as a hard disk and an optical disk, and includes a user setting storage unit 111, a learned phrase storage unit 112, and a phrase related information storage unit 113.
  • the input unit 13 includes a pointing device such as a keyboard, a mouse, and a trackball, and includes a native language setting unit 131 for setting and inputting the user's native language, a learner level, and the like, and phrase information input unit for inputting a phrase that the user learns 132, which is used when the user inputs various information, such as the learning degree input means 133 for inputting whether or not the user has completed learning of the phrase.
  • the phrase inputted from the phrase information input unit 132 includes file data read from the learning file storage unit 114 and electronic data read from the network 4 via the communication unit 15.
  • the output (display) unit 14 is used for monitoring data input by the user, displaying words to be learned, and the like.
  • the communication unit 15 is for enabling communication with the outside through the network 4 and is used, for example, when receiving phrase data learned from an external site using a protocol such as TCP / IP.
  • the phrase extraction unit 101 is a unit that automatically extracts a part of a phrase from the phrase stored in the learned phrase storage unit 112 using a morphological analysis method or the like, and operates on the main control unit (CPU) 10.
  • the phrase includes words, idioms, idiomatic phrases, sentences, sentences, and the like.
  • a part of the extracted words that is, the extracted words / phrases include words, idioms, idiomatic phrases and the like.
  • the phrase collating unit 102 is a unit that collates whether or not the extracted phrase extracted by the phrase extracting unit 101 is stored in the phrase related information storage unit 113, and is a program that operates on the main control unit (CPU) 10. As implemented.
  • the predetermined time calculation means 103 is a means for calculating a predetermined time from the completion of learning to providing the user with a learning opportunity again for the extracted phrase that the user has completed learning. It is implemented as an operating program.
  • the storage control unit 104 determines whether each of the extracted phrases extracted by the phrase extraction unit 101 from the phrases learned by the user is stored by the user and learning is completed, or has not been stored yet and learning has not been completed. It is means for storing and controlling as data in the learning phrase storage unit 112 and is implemented as a program that operates on the main control unit (CPU) 10.
  • FIG. 2 is a diagram schematically showing an example of the data structure in the storage unit according to the first embodiment of the present invention.
  • the user setting storage unit 111 mainly stores the user's native language data, learner level data indicating the years of learning experience or academic ability for the language to be learned, and the like on the RAM.
  • the learning phrase storage unit 112 holds phrases that the user learns, and for each of the extracted phrases extracted by the phrase extraction unit 101, appearance order data representing the order of appearance in the entire phrase, extracted extracted phrases Data, registration order data that refers to the order registered in the phrase related information storage unit 113 when it is verified that it is stored in the phrase related information storage unit 113 by the phrase verification unit 102, whether or not the user has stored
  • the storage mode data to be represented is mainly held on the RAM.
  • FIG. 3 shows a specific data structure example of the learning word storage unit according to the first embodiment of the present invention.
  • the extracted extracted phrase data is stored for each line.
  • the first column from the left is automatically assigned a numerical value that is incremented by 1, 2, 3, and so on, with the order of appearance in the entire phrase, that is, the order extracted by the morphological analysis method, etc. as the appearance ID.
  • Memorized In the second column, extracted extracted phrases, for example, “Hi”, “Michael”, and the like are stored.
  • the third column is a registration ID for referring to the order registered in the word / phrase related information storage unit 113. For example, in the case of “Hi” in the first row, the data structure example of the word / phrase related information storage unit in FIG.
  • the fourth column stores, for example, a flag such as “learning complete: 1” or “learning incomplete: 0” as storage mode data indicating whether or not the user has stored.
  • the phrase related information storage unit 113 stores, for each stored phrase, registration order data, language type data, phrase / utilization data, part of speech data, learning level data indicating the number of learning experiences of the user, and linguistic similarity to the native language. Degree data, phrase difficulty level data representing the difficulty level of a phrase based on the years of experience to be learned and the number of spelling characters, last learning time data representing the time when the user finally completed learning, and the like.
  • the phrase related information storage unit 113 is a database mainly constructed in an auxiliary storage device such as a hard disk or an optical disk, and the stored data such as words is subjected to predetermined operations such as search, addition, update, and deletion. Can do.
  • FIG. 4 shows a specific data structure example of the phrase related information storage unit according to the first embodiment of the present invention.
  • the phrase related information storage unit data is stored in one line for each phrase.
  • the first column from the left is a registration ID, and numerical values that are increased in order of 1, 2, 3, and 1 are automatically given and stored in the order stored in the phrase related information storage unit 113.
  • the second column indicates the language type of the registered phrase. For example, in the case of “door” in the first row, “English” is stored.
  • the original form of the phrase is stored in the third column, and the utilization data is stored in the subsequent 4th to 6th lines.
  • the noun “door” in the first row “door” is stored in the phrase original form in the third column
  • the plural form “doors” is stored in the fifth column as utilization data
  • the verb in the third row In the case of “meet”, “meet” is stored in the phrase original form in the third column, and “met” is stored in the fourth column as the past form.
  • verbs various inflected forms such as past participle form, third person singular present form, present participle form, etc., in the case of adjectives and adverbs, such as comparative grades can be stored.
  • the seventh column from the left is part-of-speech data. For example, in the case of “door” in the first row, “noun: 1”, in the case of “meet” in the third row, “verb: 2”, In the case of “nice”, numerical data corresponding to the part of speech such as “adjective: 3” is stored.
  • the eighth column represents the learning level indicating the number of learning experiences of the user. For example, the phrase having no learning experience is divided into nine levels from “0” to the phrase having learning experience, and “1” to “9”.
  • the learning level is “1”
  • the learning level is “0” because it is a new word.
  • the ninth to twelfth columns represent linguistic similarity data for the native language, whether or not it is a foreign language (Y: 1, N: 0), and whether the character types are similar (similarity). : 1, dissimilarity: 0), whether the spelling is similar (similarity: 2, analogy: 1, dissimilarity: 0), or whether the pronunciation is similar (similarity: 2, dissimilarity: 0) It is stored as numerical data in order. For example, in the case of the phrase original form “door” in the first line, the foreign word “Y: 1”, the character type similarity “dissimilarity: 0”, the spelling similarity “analogue possible: 1”, pronunciation similarity and “similarity: 2”. "Is stored respectively.
  • the second column from the right is the phrase difficulty level indicating the years of experience to be learned, and is stored in, for example, seven levels from “Junior high school 1st year: 1” to “University: 7”. For example, in the phrase original form “door” on the first line, “junior high school 2nd grade: 2” is stored because it is a phrase learned in the second grade of middle school.
  • the rightmost column is final learning time data indicating the time when learning is finally completed, and is stored as, for example, the year, month, day, and time of the year. For example, in the phrase original form “door” on the first line, “2016/9/20 10:05” is stored.
  • the language type, utilization data, part-of-speech data, linguistic similarity data for the native language in the 9th to 12th columns, phrase difficulty data, etc. stored in the phrase related information storage unit 113 are, for example, Even if the main control unit (CPU) 10 automatically collects and stores data from an electronic dictionary file in a learning support system (not shown) or an online electronic dictionary service on the network 4 via the communication unit 15. Of course, the user may input or edit information necessary for the input unit 13.
  • the learning file storage unit 114 holds file data in various languages in which words and phrases to be learned by the user are stored in advance. For each language type, for example, English file data, French file data, Chinese file data, Japanese Holds file data and the like. Each file data may be about separate items, and may include translations corresponding to the same items.
  • the learning file storage unit 114 is a database constructed mainly in an auxiliary storage device such as a hard disk or an optical disk, and stored file data can be subjected to predetermined operations such as search, addition, update, and deletion.
  • the correspondence table storage unit 115 is used to determine a predetermined time for which the user should learn words and phrases to be learned next time, a predetermined time correspondence table, a word difficulty level correspondence table, a learner level correspondence table, and a difficulty level correspondence table. And various correspondence table data such as a similarity total correspondence table.
  • the correspondence table storage unit 115 may be stored on a RAM or may be stored in an auxiliary storage device such as a hard disk or an optical disk.
  • FIG. 5 is a flowchart illustrating a procedure from the start of learning to reading of a phrase to be learned and extraction of the phrase in the learning support system according to the first embodiment of the present invention.
  • step S1 the main control unit (CPU) 10 receives setting information including the native language and the learner level from the user through the bus line 12 by the setting unit 131 such as the native language.
  • the main control unit (CPU) 10 stores the received setting information in the user setting storage unit 111 as native language data and learner level data.
  • the native language data includes, for example, “Japanese” and “English”
  • the learner level includes, for example, “second year of junior high school” and “second year of high school”.
  • step S ⁇ b> 2 the main control unit (CPU) 10 stores the phrase information learned by the user through the bus line 12 by the phrase information input unit 132 in the RAM of the storage unit 11.
  • the main control unit (CPU) 10 receives an instruction from the user through the phrase information input unit 132, reads file data recorded in the learning file storage unit 114 as phrase information to be learned in advance, and stores it in the RAM of the storage unit 11. You may remember.
  • the main control unit (CPU) 10 stores, for example, “Hi, Michael, nice to meet you!” In the RAM as words to be learned.
  • step S ⁇ b> 3 the main control unit (CPU) 10 extracts a part of the phrase as an extracted phrase sequentially from the phrase stored in the RAM of the storage unit 11 by, for example, a morphological analysis method, and appears in the learned phrase storage unit 112. Stores forward data and extracted phrase data.
  • the main control unit (CPU) 10 learns from the above-mentioned words and phrases such as the appearance ID “1”, the extracted word “Hi”, the appearance ID “2”, the extracted word “Michael”, and the like as in the data structure example of FIG. Store in the storage unit 112.
  • step S4 the main control unit (CPU) 10 collates the extracted extracted phrase with the phrase / utilization data stored in the phrase related information storage unit 113, and when collation is obtained (with collation), The registration order data stored in the phrase related information storage unit 113 is stored as reference data in the learning phrase storage unit 112, and the process proceeds to step S5. If collation cannot be obtained (no collation), the process proceeds to step S6.
  • the main control unit (CPU) 10 collates the extracted phrase “Hi” with the phrase original form “hi” stored in the registration ID “2” of the phrase related information storage unit data structure shown in FIG.
  • the registration ID “2” is stored in the registration ID (reference) in FIG.
  • step S5 the main control unit (CPU) 10 calculates a predetermined time and elapsed time for the matched word or the like by the predetermined time calculation means 103, and then proceeds to step S7.
  • the predetermined time is the time from when the user once completes learning until the opportunity for learning is provided again.
  • the elapsed time is the time from when the user completes learning once until the present time.
  • the time at which the user has completed learning is stored as final learning time data in the phrase related information storage unit data structure shown in FIG. 5, for example, “2016/9/20 10:05”.
  • a detailed calculation method of the predetermined time and the elapsed time will be described in (3) a processing procedure for calculating the predetermined time and the elapsed time for a word learned by the user, which will be described later.
  • step S ⁇ b> 6 the main control unit (CPU) 10 extracts extracted phrases that cannot be compared with the phrase / utilization data stored in the phrase related information storage unit 113, and stored in the phrase related information storage unit 113. -Store as a new phrase at the end of the utilization data. Then, the main control unit (CPU) 10 stores the registration order data stored in the phrase-related information storage unit 113 as reference data in the learning phrase storage unit 112, and proceeds to step S9. For example, the main control unit (CPU) 10 cannot check the appearance ID “2” extracted in step S3 and the extracted phrase “Michael”, and the 10th line in the bottom line of the phrase related information storage unit data structure shown in FIG.
  • a registration ID “10” is assigned to the eye, and the extracted phrase “Michael” is stored in the phrase original form. Then, the main control unit (CPU) 10 stores the assigned registration ID “10” as “10” in the registration ID (reference) of FIG. 3.
  • step S7 the main control unit (CPU) 10 compares the predetermined time obtained by the predetermined time calculation means 103 with the elapsed time in step S5, and the elapsed time does not exceed the predetermined time (N). If the elapsed time exceeds the predetermined time (Y), the learning is not completed and the process proceeds to step S9.
  • step S8 the main control unit (CPU) 10 stores the storage mode stored in the phrase related information storage unit 113 as “learning completed: 1”, and proceeds to step S10.
  • step S9 the main control unit (CPU) 10 stores the storage mode stored in the phrase related information storage unit 113 as “learning incomplete: 0”, and proceeds to step S10.
  • step S10 the main control unit (CPU) 10 determines whether or not a part of the phrase to be extracted from the phrase stored in the RAM of the storage unit 11 remains, and a part of the phrase to be extracted still remains. If it remains, the process returns to step S3 to continue the extraction process. If all of the phrases have been extracted, the extraction process ends.
  • FIG. 6 is a flowchart illustrating a processing procedure when the user learns in the learning support system according to the first embodiment of the present invention.
  • the learning phrase storage unit 112 stores an example of the data structure of the learning phrase storage unit shown in FIG. 3, and the phrase related information storage unit 113 stores the phrase related information shown in FIG. Assume that the data structure example of the storage unit is stored.
  • step S21 the main control unit (CPU) 10 determines the value stored in the storage mode for the extracted phrase stored in the phrase related information storage unit 113, and “learning incomplete: 0”. In the case of, the process proceeds to step S22, and in the case of “learning completion: 1”, the process proceeds to step S23.
  • step S ⁇ b> 22 the main control unit (CPU) 10 outputs (displays) the extracted words stored in the learned word storage unit 112 to the output (display) unit 14 with the display color 1.
  • step S23 the main control unit (CPU) 10 outputs (displays) the extracted word / phrase to the output (display) unit 14 in the display color 2.
  • step S24 the process proceeds to step S24. For example, in the case of the extracted word “Michael” in FIG.
  • the extracted word “Michael” is output (displayed) to the output (display) unit 14 in display color 1.
  • display color 1 various highlighting formats can be applied to words to be learned.
  • the character color of “Michael” may be red or purple
  • the character of “Michael” may be enclosed, bold, or italicized
  • the character of “Michael” may be underlined such as a double line or a wavy line
  • the background color of the character “” may be yellow or red.
  • step S ⁇ b> 24 the main control unit (CPU) 10 determines whether or not output has been performed for all extracted phrases stored in the learned phrase storage unit 112. When there is an extracted phrase that has not been output yet (N), the main control unit (CPU) 10 returns to step S21 and continues the output operation.
  • the main control unit (CPU) 10 proceeds to step S25 when all extracted words / phrases have been output (Y). That is, for example, the extracted phrase “Hi” on the first line in the example of the learning phrase storage unit data structure in FIG. 3 to the extracted phrase “you” on the bottom line are sequentially output (displayed) to the output (display) unit 14. Continue output work.
  • step S25 the main control unit (CPU) 10 determines whether or not there is an input to end learning from the user through the learning degree input means 133 or the phrase information input means 132, and the learning end input is received from the user. If there is (Y), the learning ends, and if not (N), the process proceeds to step S26.
  • step S26 it is determined whether or not the user has selected the extracted words / phrases that are output (displayed) by the learning degree input means 133. If the user selects the extracted words / phrases (Y), the process proceeds to step S27. If nothing has been selected (N), the process returns to step S25.
  • step S27 the main control unit (CPU) 10 waits for an input of the learning level from the learning level input means 133. If “learning complete: 1”, the main control unit (CPU) 10 proceeds to step S28, and “learning incomplete: 0”. If so, the process proceeds to step S31.
  • step S28 the main control unit (CPU) 10 adds 1 to the learning level data stored in the phrase related information storage unit 113 corresponding to the selected extracted phrase and stores it. If the result of addition exceeds 9, the learning level data is stored as “9”. Then, the process proceeds to step S29. For example, since the learning level of the phrase original “Michael” stored in the tenth line of the data structure example 10 of the phrase related information storage unit in FIG. 4 is “0”, 1 is added to add “1” to the new learning level.
  • the learning level of the phrase original “Michael” stored in the tenth line of the data structure example 10 of the phrase related information storage unit in FIG. 4 is “0”, 1 is added to add “1” to the new learning level.
  • step S29 the main control unit (CPU) 10 stores “learning complete: 1” in the storage mode stored in the learning phrase storage unit 112 corresponding to the selected extracted phrase. Then, the process proceeds to step S30.
  • step S30 the main control unit (CPU) 10 stores the system date and time of the learning support system 1 in the last learning time data stored in the phrase related information storage unit 113. And it returns to step S21 and continues a process.
  • step S31 is the case where “learning incomplete: 0” in step S27, and learning stored in the learning phrase storage unit 112 corresponding to the selected extracted phrase.
  • step S31 is the case where “learning incomplete: 0” in step S27, and learning stored in the learning phrase storage unit 112 corresponding to the selected extracted phrase.
  • Subtract 1 from the level data and store it. If the subtraction result is less than 1, the learning level data is stored as “1”. Then, the process proceeds to step S32. For example, since the learning level of the phrase original “nice” stored in the fifth line of the data structure example of the phrase related information storage unit in FIG. 4 is “5”, 1 is subtracted and “4” is set as a new learning level.
  • the learning level of the phrase original “nice” stored in the fifth line of the data structure example of the phrase related information storage unit in FIG. 4 is “5”, 1 is subtracted and “4” is set as a new learning level.
  • step S32 the main control unit (CPU) 10 stores “learning incomplete: 0” in the storage mode stored in the learning phrase storage unit 112 corresponding to the selected extracted phrase. And it returns to step S21 and continues a process.
  • the memory intensity S of the equation (2) is proportional to the number of learnings, for example, and maintains a constant memory degree R even after the time t has elapsed. In other words, it can be said that the time t for repeated learning in order to maintain the same memory degree gradually increases exponentially as the number of learning is increased.
  • Predetermined time coefficient 1 ⁇ Exp (coefficient 2 ⁇ learning level) (3)
  • coefficient 1 and coefficient 2 are adjustment coefficients, and the standard is 1 respectively.
  • FIG. 7 is a correspondence table showing a predetermined time corresponding to the learning level of the phrase in the learning support system according to the first embodiment of the present invention, and is stored in the correspondence table storage unit 115 in FIG.
  • the upper row represents the learning level of the phrase related information storage unit data structure example described with reference to FIG. 4 and is divided into 9 levels from 1 to 9.
  • the lower row represents a predetermined time.
  • both coefficient 1 and coefficient 2 are standard 1, they are obtained by calculation based on equation (3).
  • FIG. 8 is a flowchart showing a processing procedure for calculating a predetermined time and an elapsed time for a word learned by the user in the learning support system according to the first embodiment of the present invention.
  • the main control unit (CPU) 10 performs a coefficient 1 calculation process on the extracted extracted words.
  • the main control unit (CPU) 10 performs a coefficient 2 calculation process.
  • a detailed calculation method of the coefficient 1 will be described later using the flowchart of FIG. 12, and a detailed calculation method of the coefficient 2 will be described later using the flowchart of FIG.
  • step S43 the main control unit (CPU) 10 is predetermined based on the coefficient 1 obtained in step S41, the coefficient 2 obtained in step S42, and the learning level data stored in the phrase related information storage unit 113. Calculate time. For example, in the case of “internet” in the fourth line of the data structure example of the phrase related information storage unit shown in FIG. 4, the learning level is “4”, and therefore when the coefficient 1 and the coefficient 2 are both 1, the predetermined time is Calculated as “55” hours.
  • step S44 the main control unit (CPU) 10 calculates the difference between the last learning time data stored in the phrase related information storage unit 113 and the current date and time of the system as the elapsed time. Thereafter, the subroutine processing of FIG. 8 is finished, and the process proceeds to step S7 of FIG.
  • FIG. 9 is a correspondence table showing a coefficient 1 corresponding to the difficulty level of a phrase in the learning support system according to the first embodiment of the present invention, and is stored in the correspondence table storage unit 115 in FIG.
  • the upper two lines represent the difficulty level of the phrase.
  • the phrase difficulty level for example, a learning year indicating the years of experience to be learned and a character length of the phrase can be considered.
  • the learning year indicating the years of experience to be learned is used as the phrase difficulty level.
  • the middle row represents a word difficulty level corresponding to the word difficulty, and is divided into seven levels from 1 to 7. This phrase difficulty level is used when the coefficient 1 is obtained in consideration of other factors.
  • the lower row is a value of coefficient 1 corresponding to the word difficulty level of the middle row.
  • the numerical value of the coefficient 1 is set to 1 as described in the equation (3), and is less than 1 in increments of 0.05 as the word difficulty increases in order to provide an opportunity for repeated learning at a more appropriate time.
  • the value is taken and the minimum value is 0.7.
  • the lower coefficient 1 is used when the word difficulty level is set to the difficulty level described later.
  • FIG. 10 is a correspondence table showing the coefficient 1 corresponding to the user's learner level in the learning support system according to the first embodiment of the present invention, and is stored in the correspondence table storage unit 115 of FIG.
  • the upper row is the learning year representing the learner's years of learning experience or academic ability.
  • the middle row represents the learner level corresponding to the learning year of the upper learner, and is divided into seven stages 1 to 7 as in FIG. This learner level is used when the coefficient 1 is obtained in consideration of other factors.
  • the lower row is the value of the coefficient 1 corresponding to the learner level in the middle row. As in FIG. 9, the standard is 1, and as the learner level becomes higher, the value is less than 1 in 0.05 increments. The minimum value is 0.7. The lower value is used when the learner level is set to a difficulty level described later.
  • FIG. 11 is a correspondence table showing a coefficient 1 corresponding to the difficulty level combining the word difficulty level and the learner level in the learning support system according to the first embodiment of the present invention.
  • the upper row represents the difficulty level, which is a difference obtained by subtracting the learner level shown in FIG. 10 from the word difficulty level shown in FIG. Since there are 7 levels from 1 to 7 for both the word difficulty level and the learner level, the difference takes a value from -6 to +6, but by setting all negative values to 0, the difficulty level can be changed from 0 It is divided into 7 steps up to 6.
  • the lower row is the value of coefficient 1 corresponding to the upper difficulty level, the standard is 1, and as the difficulty increases, it takes a value less than 1 in 0.05 increments, and the lowest value is 0.7 .
  • FIG. 12 is a flowchart showing a processing procedure for obtaining a coefficient 1 for a predetermined time for a phrase learned by the user in the learning support system according to the first embodiment of the present invention.
  • the main control unit (CPU) 10 calculates a difficulty level obtained by subtracting the learner level from the phrase difficulty level for the extracted extracted words. Specifically, the main control unit (CPU) 10 obtains a difference between the phrase difficulty level stored in the phrase related information storage unit 113 and the learner level stored in the user setting storage unit 111.
  • step S52 the main control unit (CPU) 10 obtains a coefficient 1 from the difficulty level obtained in step S51 according to the correspondence table of FIG. For example, in the example of “internet” described above, “0.9” corresponding to the difficulty level “2” is obtained as the coefficient 1. Then, the subroutine processing of FIG. 12 is finished, and the process proceeds to step S42 of FIG.
  • FIG. 13 is a flowchart showing a processing procedure for obtaining a coefficient 2 for a predetermined time for a word learned by the user in the learning support system according to the first embodiment of the present invention.
  • the linguistic similarity to the native language of the phrase is, for example, whether or not the phrase is a foreign word, Whether the spelling is similar, whether the pronunciation is similar, and the like.
  • the similarity of the phrase is obtained from these four items stored in the phrase related information storage unit 113, and the coefficient 2 is adjusted so as to provide an opportunity for repeated learning earlier as the similarity is lower.
  • step S61 the main control unit (CPU) 10 determines whether or not the extracted extracted phrase is a foreign word.
  • the main control unit (CPU) 10 refers to the foreign language data stored in the phrase related information storage unit 113, and when it is a foreign language (Y), the level 1 is set to “1” (step S62). If it is not a foreign language (N), level 1 is set to “0” (step S63), stored in the RAM, and the process proceeds to step S64.
  • “internet” in the fourth line of the data structure example of the phrase related information storage unit of FIG. 4 stores the level 1 as “1” in the RAM because the foreign word string is “Y: 1”.
  • step S64 the main control unit (CPU) 10 determines whether or not the character types are similar.
  • the main control unit (CPU) 10 refers to the character type similarity stored in the word / phrase related information storage unit 113. If they are similar, level 2 is set to “1” (step S65). Stores level 2 as “0” (step S66) in the RAM and proceeds to step S67.
  • “internet” in the fourth line of the data structure example of the phrase related information storage unit in FIG. 4 has the character type similarity “dissimilarity: 0”, and therefore stores the level 2 in the RAM as “0”.
  • step S67 the main control unit (CPU) 10 refers to the spelling similarity stored in the phrase related information storage unit 113, and when the spelling is similar, level 3 is set to “2” (step S69). If the spelling can be inferred, level 3 is set to “1” (step S68), and if the spelling is dissimilar, level 3 is set to “0” (step S70) and stored in the RAM, and the process proceeds to step S71.
  • “internet” in the fourth line of the data structure example of the phrase related information storage unit in FIG. 4 has a spelling similarity of “analogue: 1”, so that level 3 is stored in the RAM as “1”.
  • step S71 the main control unit (CPU) 10 determines whether the pronunciation is similar.
  • the main control unit (CPU) 10 refers to the pronunciation similarity stored in the phrase related information storage unit 113. If they are similar, level 4 is set to “2” (step S72), and if they are dissimilar, Level 4 is set to “0” (step S73) and stored in the RAM, and the process proceeds to step S74.
  • “internet” in the fourth line of the data structure example of the phrase related information storage unit in FIG. 4 has a pronunciation similarity of “similarity: 2”, so that level 4 is stored in the RAM as “2”.
  • step S74 the main control unit (CPU) 10 calculates the sum of similarities by calculating the sum from level 1 to level 4 stored in the RAM and adding 1 to the sum.
  • “internet” in the fourth line of the data structure example of the phrase related information storage unit in FIG. 4 is “1” for level 1, “0” for level 2, “1” for level 3, and “2” for level 4. Therefore, the total similarity is “5”.
  • step S75 the main control unit (CPU) 10 obtains a coefficient 2 by referring to a similarity total versus coefficient 2 correspondence table in FIG. 14 described later based on the obtained similarity total. For example, in the case of the above “internet”, “0.9” corresponding to the similarity total “5” is obtained as the coefficient 2 from the correspondence table of FIG. Then, the subroutine processing of FIG. 13 is finished, and the process proceeds to step S43 of FIG.
  • FIG. 14 is a correspondence table showing the coefficient 2 corresponding to the total similarity to the native language of the words learned by the user in the learning support system according to the first embodiment of the present invention, which is stored in the correspondence table storage unit 115 in FIG. Has been.
  • the upper row represents the total similarity obtained in step S74 of the flowchart shown in FIG. 13, and is divided into seven stages 1 to 7.
  • the lower row represents the value of the coefficient 2 corresponding to the total similarity, the standard is 1, and in order to provide an opportunity to iteratively learn at a more appropriate time, from 1 in 0.05 increments as the similarity decreases A small value is taken, and the minimum value is 0.7.
  • FIG. 15 and FIG. 16 are sample examples showing the similarity of a phrase learned by the user to the native language in the learning support system according to the first embodiment of the present invention.
  • words and pronunciations that the user learns are written.
  • items of the user's native language are provided in the order of English, French, Japanese, Chinese in order from the top row, and the native language phrases corresponding to the learning phrases in the third and fourth columns from the left And its pronunciation.
  • four items for evaluating the similarity of the learning phrase to the native language that is, foreign words, character types, spelling, and pronunciation are provided in order, and the coefficient 2 in FIG. 13 is calculated.
  • the numerical value of each level according to the flowchart is described.
  • the total similarity used in the correspondence table in FIG. 14 is written in the rightmost column.
  • FIG. 15 shows the total similarity for each native country when learning the English “internet”. For example, for a learner whose native language is Japanese, look at the third line. The foreign word “Y: 1”, the character type “similarity: 0”, the spelling “analogue possible: 1”, the pronunciation “similarity: 2”, and the total similarity is “5”. On the other hand, in the case of a learner whose native language is English or French, the total similarity is “7”. The total similarity of learners whose native language is Chinese is “1”.
  • FIG. 16 shows the total similarity for each mother country when learning the Japanese “Internet”. For example, in the case of a learner whose native language is English, see the first line. The foreign word “Y: 1”, the character type “similarity: 0”, the spelling “similarity: 0”, the pronunciation “similarity: 2”, and the total similarity is “4”. On the other hand, in the case of a learner whose native language is Japanese, the total similarity is “7”. The total similarity of learners whose native language is Chinese is “1”. Since the coefficient 2 changes from 0.7 to 1 based on the correspondence table of FIG.
  • the predetermined time varies depending on the difference in the mother tongue and each word / phrase learned according to the user In addition, it is possible to provide an opportunity for iterative learning at a more appropriate time.
  • Equation (3) that is, the step of FIG. According to S43
  • the predetermined time was 55 hours.
  • the coefficient 1 becomes 0.9 when the word difficulty level and the learner level (in the example, second grader in the example) are taken into consideration, and the predetermined time according to the equation (3), that is, step S43 in FIG. Is calculated to 49 hours.
  • the factor 2 is 0.9 when considering the similarity of the phrase to the native language (Japanese in the example), and when the predetermined time is calculated, it is shortened to 33 hours. Therefore, by taking the above matters into consideration, it is possible to provide an opportunity for iterative learning at a more appropriate time for each word to be learned according to the user.
  • the first embodiment of the present invention by adopting the above configuration, it is possible to provide an opportunity to repeatedly learn at a more appropriate time for each word to be learned according to the user. It is possible to provide a learning support system, method, and program that enhance the effect of language learning.
  • FIG. 17 is a diagram illustrating an overall configuration of a learning support system according to the second embodiment of the present invention.
  • the learning support system 1 is configured by connecting a server 2 and a user terminal 3 to a network 4.
  • the server 2 includes a main control unit (CPU) 20 that comprehensively controls the entire system, a storage unit 21 that stores various types of information, and a communication unit 22 that transmits and receives data to and from the user terminal 3 via the network 4.
  • CPU main control unit
  • storage unit 21 that stores various types of information
  • communication unit 22 that transmits and receives data to and from the user terminal 3 via the network 4.
  • the main control unit (CPU) 20 includes a phrase extraction unit 201, a phrase collation unit 202, a predetermined time calculation unit 203, a storage control unit 204, and various processes according to a program such as an operating system and a program that defines the procedure of the learning system. Means, judgment means, etc. are realized.
  • the phrase extraction unit 201, the phrase collation unit 202, the predetermined time calculation unit 203, and the storage control unit 204 are the same as the phrase extraction unit 101, the phrase collation unit 102, the predetermined time calculation unit 103, and the storage control unit 104 in FIG. It has the function of.
  • the storage unit 21 includes a volatile or non-volatile semiconductor element such as a RAM and a ROM, and an auxiliary storage device such as a hard disk and an optical disk, and includes a user setting storage unit 211, a learned phrase storage unit 212, and a phrase related information storage unit 213. , A learning file storage unit 214, a correspondence table storage unit 215, and the like.
  • the communication unit 22 is for enabling communication with the user terminal 3 through the network 4. For example, setting data such as a native language transmitted from the user terminal 3 using a protocol such as TCP / IP is transmitted.
  • Native language setting means 221 for receiving, phrase information input means 222 for receiving phrase information input data, learning level input means 223 for receiving learning level input data, and output information for output to the display unit of user terminal 3 Is provided as a function of output means 224 for transmitting.
  • the user terminal 3 includes an input unit 31, a display unit 32, and a communication unit 33.
  • the input unit 31 includes a pointing device such as a keyboard, a mouse, and a trackball, and is used to input setting information such as the user's native language, phrase information learned by the user, or learning level information for the phrase.
  • the display unit 32 includes a display or the like, and is used to display information input from the input unit 31 and output information transmitted from the server 2.
  • the communication unit 33 is used to transmit various information data input from the input unit 31 to the server 2 and receive output information from the server 2 through the network 4.
  • FIG. 18 is a diagram schematically illustrating an example of a data structure in the storage unit according to the second embodiment of the present invention.
  • the learning phrase storage unit 212, the phrase related information storage unit 213, the learning file storage unit 214, and the correspondence table storage unit 215 correspond to the learning phrase storage unit 112, the phrase related information storage unit 113, the learning file storage unit 114, and the correspondence in FIG.
  • the same data as the table storage unit 115 is held.
  • the user setting storage unit 211 is different in that it holds user identification data in addition to the native language data and learner level data held by the user setting storage unit 111.
  • the user terminal 3 used by the user is connected to the server 2 through the network 4.
  • the user terminal 3 transmits setting information such as the mother language including user identification data, native language data, and learner level data, which is input by the user through the input unit 31, to the server 2 through the network 4 by the communication unit 33.
  • the server 2 receives the native language setting information transmitted from the user terminal 3 by the native language setting unit 221 of the communication unit 22 and stores it in the user setting storage unit 211.
  • the server 2 secures the learning phrase storage unit 212 on the RAM in the storage unit 21 based on the user identification data stored in the user setting storage unit 211, and the phrase-related information constructed through the past learning of the user.
  • the information storage unit 213 is specified.
  • movement it is the same as that of the learning assistance system of Example 1 of this invention.
  • the second embodiment of the present invention by adopting the above-described configuration, it is possible to repeatedly learn for a plurality of users at a more appropriate time for each word to be learned according to each user. Can be provided, and a learning support system, method, and program that enhance the effectiveness of foreign language learning can be provided.
  • this invention is not limited to said Example.
  • only the phrase difficulty level may be used as an index of the difficulty level used for calculating the coefficient 1.
  • the word difficulty level the character length of the word can also be used as an index.
  • an average of the learning year representing the years of experience to be learned and the character length of the word may be used.
  • the phrase difficulty level may be further divided into multiple levels, and for example, the value of the corresponding coefficient 1 may be set from 0.5 to 1.
  • the word difficulty level for example, a result of a questionnaire survey on the difficulty of storing each word may be used as an index.
  • the difficulty level for storing words varies greatly depending on the learner's native language. For example, 1000 people who speak various languages as their native language are asked to memorize each of the words to be learned, and the memory test is performed after a certain period of time. Based on the result of the above, the memory difficulty level is statistically obtained for each word.
  • the obtained memory difficulty level data may be used as the phrase difficulty level data.
  • any one item or a combination of foreign words, character types, spelling, and pronunciation may be used as the similarity index used for calculating the coefficient 2. Is possible.
  • the similarity of the phrase to the native language is used as an index used for calculating the coefficient 1
  • the phrase difficulty level or the learner level is used as an index used for calculating the coefficient 2. Also good.
  • any one of the coefficient 1 and the coefficient 2 may be a constant.
  • the predetermined time can be set more precisely or more gently, and the effect of learning a foreign language can be further enhanced according to the user.
  • the phrase difficulty level that is input from the user through the native language setting unit 131 and stored in the user setting storage unit 111 is too simple to review. You may memorize
  • learning phrase limiting level data for limiting the learning level may be stored in the user setting storage unit 111 together with or instead of the learning phrase level exclusion data.
  • part-of-speech specifying data for limiting or excluding part-of-speech of words to be learned may be stored in the user setting storage unit 111.
  • a determination procedure for excluding or limiting learning words / phrases is provided between step S4 and step S5. do it. By limiting the words to be learned, it is possible to provide an opportunity for more accurate repeated learning.
  • a third storage mode may be provided as storage data stored in the learning phrase storage unit 112, and the display color 3 corresponding thereto may be set.
  • the display color 3 is, for example, a highlighted display format different from the display color 1.
  • the highlighting format for example, the character color or background color of the word may be different from the display color 1, or the character of the word may be omitted, shaded, embossed, or embossed.
  • a branch of “learning not completed by current learning: 2” is provided as a third memory correspondence, and the procedure is to output to display color 3 if applicable.
  • the procedure may be such that “learning incomplete: 0” is replaced with “learning incomplete in current learning: 2” in the selection in step S27.
  • the last learning time data stored in the phrase related information storage unit 113 for example, the last date and time when the user selected a phrase may be stored.
  • a procedure for storing the system date and time of step S30 in the phrase related information storage unit 113 may be inserted between step S26 and step S27.
  • the learning support system can be used for learning a word book, text browsing, academic terms, and the like.
  • corresponding words and sentences in a plurality of languages may be output (displayed) simultaneously.
  • the second foreign language it becomes possible to simultaneously output (display) the native language and the first foreign language, and the learning effect of the foreign language can be further enhanced.
  • the learning support system when learning the second foreign language, not only the native language but also the similarity to the first foreign language learned earlier is taken into account for a predetermined time. It is also possible to calculate.
  • the first foreign language data is stored together with the native language data as data input from the user through the native language setting means 131 and stored in the user setting storage unit 111.
  • the coefficient 2 processing procedure of step S42 in FIG. 8 is performed for each of the native language and the first foreign language, and the obtained values of coefficient 2 may be averaged, or the minimum value of either one may be adopted. Also good.
  • the predetermined time can be calculated in consideration of the similarity to the second foreign language and the third foreign language.
  • the predetermined time may be calculated by weighting according to the proficiency level of the user for each foreign language. For example, 2/3 for the native language and 1/3 for the foreign language to be considered. Thereby, more suitable learning support can be provided according to the user who is learning a plurality of languages.
  • step S28 of the flowchart of FIG. You may memorize in the learning level. Then, at the next learning time, a phrase having a learning level exceeding 9 stored in the phrase related information storage unit 113 may be automatically set as learning phrase exclusion level data. In step S25, the phrase information whose learning level exceeds 9 may be deleted from the phrase related information storage unit 113 when the learning is ended. This makes it possible to clarify the words to be learned and to provide more effective learning support.
  • Predetermined time coefficient 1 ⁇ (coefficient 2 ⁇ learning level) n (4)
  • n is a natural number such as 1, 2, 3, for example.
  • the following fractional function or irrational function may be used for the calculation of the predetermined time.
  • Predetermined time coefficient 1 ⁇ (1 ⁇ coefficient 2 / learning level) (5)
  • Predetermined time coefficient 1 ⁇ ⁇ (coefficient 2 ⁇ learning level) (6)
  • the learning support system of the present invention is also realized by a program for causing a computer to function as a learning support system.
  • This program may be stored in a computer-readable recording medium.
  • the recording medium on which the program is recorded may be the ROM itself of the learning support system shown in FIG. 1, or a program reading device such as a CD-ROM drive is provided as an external storage device. It may be a CD-ROM or the like that can be read by inserting.
  • the recording medium may be a magnetic tape, a cassette tape, a flexible disk, a hard disk, an MO / MD / DVD, or a semiconductor memory.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Machine Translation (AREA)

Abstract

ユーザが学習する語句の母国語に対する言語的な類似度に基づき次回学習すべき所定時間を決定し、ユーザに応じて学習する語句ごとに、適切な時期に反復学習する機会を提供し、外国語学習の効果を高める学習支援システム、方法及びプログラムを提供する。ユーザの母国語を設定する母国語設定手段131と、ユーザが学習する語句情報を学習程度と共に記憶する学習語句記憶部112と、ユーザが学習する語句情報の母国語に対する言語的な類似度に基づき所定時間を計算する所定時間計算手段103と、学習語句記憶部112に記憶される学習程度を、学習未完了の場合は第1の記憶態様に、学習完了の場合は第2の記憶態様に、学習完了後に所定時間が経過した場合は再び第1の記憶態様に記憶する記憶制御手段104と、ユーザが学習する語句情報を学習語句記憶部112に記憶されている記憶態様に応じた出力態様で出力する出力手段14とを備える。 図1

Description

学習支援システム、方法及びプログラム
 本発明は、外国語の語句を学習するユーザに応じて学習する語句の表示態様を変更する学習支援システム、方法及びプログラムに関する。
 従来、例えば外国語学の学習を支援するものとして、予め用意された外国語の単語の問題において、ユーザが不正解となる問題ほど頻度よく学習回数を重ねることにより、学習効果を高める学習装置が知られている(例えば、特許文献1参照)。
 特許文献1に記載の学習装置は、問題の学習回数又は経過時間を示す変数とユーザの問題に対する正誤の程度を示す変数などに基づき反復学習の頻度を制御することによって、前回不正解であった問題は次回以降に出題され易くなるようにするものである。この学習装置は、学習効果を高めるために、人間の記憶量が時間の経過とともに指数関数的に減少するということを表した忘却関数と呼ばれる関数に従って、反復学習の頻度を決定するものである。
特開平6-289766号公報
 しかし、特許文献1に記載の学習装置は、ユーザが学習する言語の語句と対応する母国語の語句との類似性が考慮されていないという欠点がある。すなわち、例えば日本語を母国語とするユーザが英語の語句を学習する場合と、英語を母国語とするユーザが日本語の語句を学習する場合とでは、学習の困難性が異なる。具体的には、学習する語句がユーザの母国語に外来語として定着しているか否か、アルファベットや仮名、漢字など表記する文字種類をユーザが見慣れているか否か、学習する語句と対応するユーザの母国語の語句と綴りが似ているか否か、学習する語句と対応するユーザの母国語の語句との発音が似ているか否かによって、ユーザの理解度や記憶の定着に大きな差が生じるために学習効果は一様ではない。したがって上記の学習装置は、これらの事情を考慮せずに反復学習の頻度を決定しているために、学習する外国語の語句によっては効果的な学習効果を得ることができない。
 本発明は、このような課題を解決するためになされたものであり、ユーザが学習する語句の母国語に対する言語的な類似度に基づき次回学習すべき所定時間を決定することにより、ユーザに応じて学習する語句ごとに、より適切な時期に反復学習する機会を提供し、外国語学習の効果を高める学習支援システム、方法及びプログラムを提供することを目的とする。
 請求項1に記載の学習支援システムは、ユーザの母国語を設定する母国語設定手段と、ユーザが学習する語句情報を、学習の程度と共に記憶する学習語句記憶手段と、前記母国語設定手段によって入力された母国語に対する、ユーザが学習する語句情報の言語的な類似度に基づき所定時間を計算する所定時間計算手段と、前記学習語句記憶手段に記憶される学習の程度を、学習未完了の場合は第1の記憶態様に記憶し、学習完了の場合は第2の記憶態様に記憶し、学習完了後に前記所定時間が経過した場合は再び第1の記憶態様に記憶する記憶制御手段と、ユーザが学習する語句情報を、前記記憶制御手段によって前記学習語句記憶手段に記憶されている第1および第2の記憶態様に応じて、それぞれ第1および第2の出力態様にて出力する出力手段と、を備えることを特徴とする。
 請求項2に記載の学習支援システムは、ユーザが学習する語句情報に対する、ユーザからの学習の程度を入力する学習程度入力手段をさらに備え、前記学習程度入力手段による入力を、学習未完了の場合は、前記記憶制御手段が第1の記憶態様に記憶し、学習完了の場合は、前記記憶制御手段が第2の記憶態様に記憶することで、ユーザの記憶が曖昧な学習すべき語句が明確になるので、より効果的に反復学習の機会を提供することができる。
 請求項3に記載の学習支援システムは、ユーザが学習する語句情報を入力する語句情報入力手段と、前記類似度を含み、語句に関連する関連情報を記憶する語句関連情報記憶部と、前記語句情報入力手段により入力されて前記学習語句記憶手段に記憶される語句情報が、前記語句関連情報記憶部に記憶されているか否かを照合する語句照合手段と、をさらに備え、前記記憶制御手段は、前記語句照合手段により得られた照合結果に基づき、前記語句関連情報記憶部に記憶されていない語句情報ついて、学習の程度を前記第1の記憶態様に記憶することで、ユーザが学習する語句の中にこれまで学習したことがない新出の語句が含まれる場合、当該新出の語句が明確になるので、新出の語句を効果的に学習する機会を提供することができる。
 請求項4に記載の学習支援システムは、前記類似度には、学習する語句情報が母国語の外来語になっているか否か、学習する語句情報を表記する文字種類が母国語の文字種類と類似しているか否か、学習する語句情報の綴りが母国語の綴りと類似しているか否か、および学習する語句情報の発音が母国語の発音と類似しているか否かのいずれかを変数に含み、前記所定時間計算手段は、それに応じて前記所定時間を決定することで、ユーザが学習する語句と対応するユーザの母国語の語句との具体的な類似性に基づき次回学習時までの所定時間を精密に計算するので、より的確に反復学習する機会を提供することができる。
 請求項5に記載の学習支援システムは、前記所定時間計算手段は、ユーザが学習する言語における語句の難易度に基づき前記所定時間を決定することで、高学年で学習する語句や綴りの長い語句など難易度の高い語句について、より的確に反復学習する機会を提供することができる。
 請求項6に記載の学習支援システムは、前記所定時間計算手段は、学習する語句の言語に対するユーザの学習者レベルに基づき前記所定時間を決定することで、学習者のレベルに応じて所定時間を計算するので、幅広い年齢層の学習者に対して、外国語学習の効果を高める学習支援システムを提供することができる。
 請求項7に記載の学習支援方法は、学習支援システムが、ユーザの母国語を設定する母国語設定ステップと、ユーザが学習する語句情報を、学習の程度と共に記憶する学習語句記憶ステップと、前記母国語設定ステップによって入力された母国語に対する、ユーザが学習する語句情報の言語的な類似度に基づき所定時間を計算する所定時間計算ステップと、前記学習語句記憶ステップに記憶される学習の程度を、学習未完了の場合は第1の記憶態様に記憶し、学習完了の場合は第2の記憶態様に記憶し、学習完了後に前記所定時間が経過した場合は再び第1の記憶態様に記憶する記憶制御ステップと、ユーザが学習する語句情報を、前記記憶制御ステップによって前記学習語句記憶ステップに記憶されている第1および第2の記憶態様に応じて、それぞれ第1および第2の出力態様にて出力する出力ステップと、を実行することを特徴とする。
 請求項8に記載のプログラムは、コンピュータを、ユーザの母国語を設定する母国語設定手段と、ユーザが学習する語句情報を、学習の程度と共に記憶する学習語句記憶手段と、前記母国語設定手段によって入力された母国語に対する、ユーザが学習する語句情報の言語的な類似度に基づき所定時間を計算する所定時間計算手段と、前記学習語句記憶手段に記憶される学習の程度を、学習未完了の場合は第1の記憶態様に記憶し、学習完了の場合は第2の記憶態様に記憶し、学習完了後に前記所定時間が経過した場合は再び第1の記憶態様に記憶する記憶制御手段と、ユーザが学習する語句情報を、前記記憶制御手段によって前記学習語句記憶手段に記憶されている第1および第2の記憶態様に応じて、それぞれ第1および第2の出力態様にて出力する出力手段とを備える学習支援システムとして機能させることを特徴とする。
 本発明によれば、ユーザが学習する語句情報の言語的な類似度に基づき次回学習すべきときまでの所定時間を計算することにより、ユーザに応じて学習する語句ごとに、より適切な時期に反復学習する機会を提供し、外国語学習の効果を高める学習支援システム、方法及びプログラムを提供することができる。
本発明の実施例1に係る学習支援システムの全体構成を示す図である。 本発明の実施例1に係る記憶部内のデータ構造例を概略的に示す図である。 本発明の実施例1に係る学習語句記憶部の具体的なデータ構造例を示す図である。 本発明の実施例1に係る語句関連情報記憶部の具体的なデータ構造例を示す図である。 本発明の実施例1に係る学習支援システムにおいて、開始から学習する語句の読み込み、語句の抽出までの手順を示すフローチャートである。 本発明の実施例1に係る学習支援システムにおいて、ユーザが学習する際の処理手順を示すフローチャートである。 本発明の実施例1に係る学習支援システムにおいて、語句の学習レベルに対応する所定時間を示す対応表である。 本発明の実施例1に係る学習支援システムにおいて、ユーザが学習する語句に対する所定時間および経過時間を計算する処理手順を示すフローチャートである。 本発明の実施例1に係る学習支援システムにおいて、語句の難易度レベルに対応する係数1を示す対応表である。 本発明の実施例1に係る学習支援システムにおいて、ユーザの学習者レベルに対応する係数1を示す対応表である。 本発明の実施例1に係る学習支援システムにおいて、難易度レベルに対応する係数1を示す対応表である。 本発明の実施例1に係る学習支援システムにおいて、ユーザが学習する語句に対する所定時間の係数1を求める処理手順を示すフローチャートである。 本発明の実施例1に係る学習支援システムにおいて、ユーザが学習する語句に対する所定時間の係数2を求める処理手順を示すフローチャートである。 本発明の実施例1に係る学習支援システムにおいて、ユーザが学習する語句の母国語に対する類似度合計に対応する係数2を示す対応表である。 本発明の実施例1に係る学習支援システムにおいて、ユーザが学習する語句の母国語に対する類似度を示すサンプル例である。 本発明の実施例1に係る学習支援システムにおいて、ユーザが学習する語句の母国語に対する類似度を示すサンプル例である。 本発明の実施例2に係る学習支援システムの全体構成を示す図である。 本発明の実施例2に係る記憶部内のデータ構造例を概略的に示す図である。
 以下、添付図面を参照しながら本発明を実施するための形態について詳細に説明する。図1から図18は、本発明の実施の形態を例示する図であり、これらの図において、同一の符号を付した部分は同一物を表し、基本的構成及び動作は同様であるものとする。
 図1は、本発明の実施例1に係る学習支援システムの全体構成を示す図である。本学習支援システム1は、システム全体を統括的に制御する主制御部(CPU)10、各種情報を記憶する記憶部11、キーボードやマウス等からなる入力部13、ディスプレイ等の出力(表示)部14、及びネットワーク4に接続される通信部15、および各部を接続するバスライン12より構成される。
 主制御部(CPU)10は、オペレーティングシステム等のプログラム、本学習システムの手順を規定したプログラム等によって、語句抽出手段101、語句照合手段102、所定時間計算手段103、記憶制御手段104及び各種処理手段や判断手段等を実現している。
 記憶部11は、RAM、ROM等の揮発性又は不揮発性の半導体素子や、ハードディスク、光ディスク等の補助記憶装置から構成され、ユーザ設定記憶部111、学習語句記憶部112、語句関連情報記憶部113、学習ファイル記憶部114、対応表記憶部115等を備えている。
 入力部13は、キーボードやマウス、トラックボール等のポインティングデバイスからなり、ユーザの母国語、学習者レベル等を設定入力する母国語等設定手段131、ユーザが学習する語句を入力する語句情報入力手段132、ユーザが語句の学習を完了したか否かを入力する学習程度入力手段133等ユーザが各種情報の入力を行う際に用いられる。なお、語句情報入力手段132から入力される語句には、学習ファイル記憶部114から読み込まれるファイルデータ、ネットワーク4から通信部15を介して読み込まれる電子データも含まれる。
 出力(表示)部14は、ユーザが入力するデータのモニタや学習する語句等の表示に用いられる。通信部15は、ネットワーク4を通じて外部との通信を可能にするためのものであり、例えばTCP/IP等のプロトコルを利用して外部サイトから学習する語句データを受信する際に用いられる。
 語句抽出手段101は、学習語句記憶部112に記憶されている語句を形態素解析手法等を用いて自動的に語句の一部を抽出する手段であり、主制御部(CPU)10上で動作するプログラムとして実装されている。ここで語句には、単語、熟語、慣用句、文、文章等が含まれる。また、抽出された語句の一部、すなわち抽出語句には、単語、熟語、慣用句等が含まれる。
 語句照合手段102は、語句抽出手段101により抽出された抽出語句が、語句関連情報記憶部113に記憶されているか否かを照合する手段であり、主制御部(CPU)10上で動作するプログラムとして実装されている。
 所定時間計算手段103は、ユーザが一度学習を完了した抽出語句について、学習完了から再びユーザに学習の機会を提供するまでの所定時間を計算する手段であり、主制御部(CPU)10上で動作するプログラムとして実装されている。
 記憶制御手段104は、ユーザが学習する語句から語句抽出手段101によって抽出された抽出語句のそれぞれについて、ユーザが記憶して学習完了となったか、あるいはまだ記憶しておらず学習未完了なのかを学習語句記憶部112内のデータとして記憶制御する手段であり、主制御部(CPU)10上で動作するプログラムとして実装されている。
  図2は、本発明の実施例1に係る記憶部内のデータ構造例を概略的に示す図である。
 ユーザ設定記憶部111は、ユーザの母国語データ、学習する言語に対しての学習経験年数または学力を表す学習者レベルデータ等を主にRAM上に保持している。
 学習語句記憶部112は、ユーザが学習する語句を保持しており、語句抽出手段101によって抽出された抽出語句それぞれについて、語句全体の中で出現する順番を表す出現順データ、抽出された抽出語句データ、語句照合手段102によって語句関連情報記憶部113に記憶されていると照合された場合の語句関連情報記憶部113に登録された順番を参照する登録順データ、ユーザが記憶したか否かを表す記憶態様データを主にRAM上に保持している。
 図3に、本発明の実施例1に係る学習語句記憶部の具体的なデータ構造例を示す。抽出された抽出語句のデータは、1行ごとに記憶されている。
 左から1列目は、語句全体の中で出現する順番、すなわち、形態素解析手法等で抽出された順番を出現IDとして、1、2、3と1ずつ順に増加した数値が自動的に付与され、記憶される。2列目は、抽出された抽出語句、例えば「Hi」、「Michael」等が記憶される。3列目は、語句関連情報記憶部113に登録された順番を参照する登録IDで、例えば1行目の「Hi」の場合、後述する図4の語句関連情報記憶部のデータ構造例2行目に対応する語句原形に「hi」が記憶されているので、「2」が記憶される。最後に、4列目は、ユーザが記憶したか否かを表す記憶態様データとして、例えば、「学習完了:1」または「学習未完了:0」などのフラグが記憶される。
 語句関連情報記憶部113は、記憶される語句ごとに、登録順データ、言語種別データ、語句・活用形データ、品詞データ、ユーザの学習経験数を表す学習レベルデータ、母国語に対する言語的な類似度データ、学習すべき経験年数や綴りの文字数に基づく語句の難易度を表す語句難易度データ、ユーザが前回、最終的に学習を完了した時刻を表す最終学習時刻データ等を保持している。語句関連情報記憶部113は、主にハードディスク、光ディスク等の補助記憶装置に構築されたデータベースであり、記憶されている単語等のデータは検索、追加、更新、削除等の所定の操作を行うことができる。
 図4に、本発明の実施例1に係る語句関連情報記憶部の具体的なデータ構造例を示す。語句関連情報記憶部データは、語句ごとに1行で記憶されている。
 左から1列目は、登録IDで、語句関連情報記憶部113に記憶される順番に、1、2、3と1ずつ順に増加した数値が自動的に付与され、記憶される。2列目は、登録される語句の言語種別を表し、例えば1行目の「door」の場合、「英語」が記憶される。
 3列目には語句の原形が記憶され、続く4行目から6行目に活用形データが記憶される。例えば、1行目の名詞「door」の場合は、3列目の語句原形に「door」が記憶され、5列目に活用形データとして複数形「doors」が記憶され、3行目の動詞「meet」の場合は、3列目の語句原形に「meet」が記憶され、4列目に過去形として「met」が記憶される。なお、図4では図示していないが、動詞の場合、過去分詞形、三人称単数現在形、現在分詞形等、形容詞や副詞の場合、比較級などさまざまな活用形データを記憶することができる。
 左から7列目は、品詞データで、例えば、1行目の「door」の場合は「名詞:1」、3行目の「meet」の場合は「動詞:2」、5行目の「nice」の場合は「形容詞:3」等品詞に対応する数値データが記憶される。
 8列目は、ユーザの学習経験数を表す学習レベルを表し、例えば、学習経験がない語句は「0」、学習経験がある語句は「1」から「9」まで9段階のレベルに分けて記憶される。例えば、1行目の語句原形「door」の場合は学習レベルは「1」、10行目の語句原形「Michael」の場合は新出の語句なので学習レベルは「0」が記憶される。
 9列目から12列目は、母国語に対する言語的な類似度データを表し、外来語となっているか否か(Y:1、N:0)、文字種類が類似しているか否か(類似:1、非類似:0)、綴りが類似しているか(類似:2、類推可:1、非類似:0)、発音が類似しているか否か(類似:2、非類似:0)が順に数値データとして記憶される。例えば1行目の語句原形「door」の場合は、外来語「Y:1」、文字種類類似度「非類似:0」、綴り類似度「類推可:1」、発音類似と「類似:2」がそれぞれ記憶されている。
 右から2列目は、学習すべき経験年数を表す語句難易度レベルであり、例えば「中学1年:1」から「大学:7」まで7段階のレベルに分け記憶される。例えば、1行目の語句原形「door」では、中学2年生で習う語句なので「中学2年:2」が記憶されている。
 最右列は、最終的に学習を完了した時刻を表す最終学習時刻データであり、例えば、西暦年月日及び時刻として記憶されている。例えば、1行目の語句原形「door」では、「2016/9/20 10:05」と記憶されている。
 なお、語句関連情報記憶部113に記憶されている、言語種別、活用形データ、品詞データ、9列目から12列目の母国語に対する言語的な類似度データ、語句難易度データ等は、例えば、図示しない学習支援システム内の電子辞書ファイルや通信部15を介してネットワーク4上にあるオンライン電子辞書サービスなどから、主制御部(CPU)10がデータを自動的に収集して記憶してもよく、入力部13からユーザが必要な情報を入力や編集を行ってもよい。
 学習ファイル記憶部114は、ユーザが学習する語句を予め記憶している各種言語のファイルデータを保持しており、言語種別ごとに、例えば英語ファイルデータ、仏語ファイルデータ、中国語ファイルデータ、日本語ファイルデータ等を保持している。各ファイルデータは、別々の事項についてであってもよく、同じ事項について対応する翻訳文等を含んでいてもよい。学習ファイル記憶部114は、主にハードディスク、光ディスク等の補助記憶装置に構築されたデータベースであり、記憶されているファイルデータは検索、追加、更新、削除等の所定の操作を行うことができる。
 対応表記憶部115は、ユーザが学習する語句を次回学習すべき所定時間を決定するために用いられる、所定時間対応表、語句難易度レベル対応表、学習者レベル対応表、難易度レベル対応表、類似度合計対応表等の各種対応表データを保持している。対応表記憶部115は、RAM上に保持してもよく、ハードディスク、光ディスク等の補助記憶装置に記憶されてもよい。
 続いて、上述のように構成された本発明の実施例1に係る学習支援システムの動作について、(1)開始から学習する語句の読み込み、語句の抽出までの手順、(2)ユーザが学習する際の処理手順、(3)ユーザが学習する語句に対する所定時間および経過時間を計算する処理手順の順に図3乃至図15を用いて説明する。
(1)開始から学習する語句の読み込み、語句の抽出までの手順
 まず、図3および図4の具体的なデータ構造を例に、図5のフローチャートを用いて説明する。
 図5は、本発明の実施例1に係る学習支援システムにおいて、学習開始から学習する語句の読み込み、語句の抽出までの手順を示すフローチャートである。
 ステップS1では、主制御部(CPU)10は、母国語等設定手段131によりバスライン12を通じてユーザからの母国語、学習者レベルを含む設定情報を受信する。主制御部(CPU)10は、受信した設定情報をユーザ設定記憶部111に母国語データ、学習者レベルデータとして記憶する。母国語データとしては、例えば「日本語」、「英語」などがあり、学習者レベルとしては、例えば「中学1年」、「高校2年」などである。
 ステップS2では、主制御部(CPU)10は、語句情報入力手段132によりバスライン12を通じてユーザが学習する語句情報を記憶部11のRAMに記憶する。主制御部(CPU)10は、語句情報入力手段132によるユーザからの指示を受信し、予め学習する語句情報として学習ファイル記憶部114に記録されているファイルデータを読み込み、記憶部11のRAMに記憶してもよい。
 主制御部(CPU)10は、学習する語句として、例えば、「Hi, Michael, nice to meet you!」をRAMに記憶する。
 ステップS3では、主制御部(CPU)10は、記憶部11のRAMに記憶された語句から、例えば形態素解析手法等によって順に語句の一部を抽出語句として抽出し、学習語句記憶部112に出現順データおよび抽出語句データを記憶する。
 主制御部(CPU)10は、例えば上記の語句から、出現ID「1」、抽出語句「Hi」、出現ID「2」、抽出語句「Michael」など図3のデータ構造例のように学習語句記憶部112に記憶する。
 ステップS4では、主制御部(CPU)10は、抽出された抽出語句を語句関連情報記憶部113に記憶されている語句・活用形データと照合し、照合が取れた場合(照合あり)は、語句関連情報記憶部113に記憶されている登録順データを学習語句記憶部112に参照用データとして記憶し、ステップS5に進む。照合が取れない場合(照合なし)はステップS6に進む。
 主制御部(CPU)10は、例えば、上記の抽出語句「Hi」は、図4に示す語句関連情報記憶部データ構造の登録ID「2」に記憶されている語句原形「hi」と照合を取り、その登録ID「2」を図3の登録ID(参照)に記憶する。
 ステップS5では、主制御部(CPU)10は、照合が取れた単語等に対する所定時間および経過時間を所定時間計算手段103によって計算し、その後ステップS7に進む。ここで所定時間とは、ユーザが一度学習を完了した時から再び学習の機会を提供するまでの時間である。経過時間とは、ユーザが一度学習を完了した時から現在までの時間である。
 ユーザが一度学習を完了した時刻は、例えば「2016/9/20 10:05」のように、図5に示す語句関連情報記憶部データ構造の最終学習時刻データとして記憶されている。
 所定時間および経過時間の詳しい計算方法は、後述する(3)ユーザが学習する語句に対する所定時間および経過時間を計算する処理手順で説明する。
 ステップS6では、主制御部(CPU)10は、語句関連情報記憶部113に記憶されている語句・活用形データと照合が取れない抽出語句を、語句関連情報記憶部113に記憶されている語句・活用形データの最後尾に新出の語句として記憶する。そして主制御部(CPU)10は、語句関連情報記憶部113に記憶された登録順データを学習語句記憶部112に参照用データとして記憶し、ステップS9に進む。
 主制御部(CPU)10は、例えば、ステップS3で抽出した出現ID「2」、抽出語句「Michael」の照合を取れず、図4に示す語句関連情報記憶部データ構造の最下行の10行目に登録ID「10」を付与し、語句原形に抽出語句「Michael」を記憶する。そして主制御部(CPU)10は、付与した登録ID「10」を図3の登録ID(参照)に「10」と記憶する。
 つぎにステップS7では、主制御部(CPU)10は、ステップS5で所定時間計算手段103により得られた所定時間と経過時間とを比較し、経過時間が所定時間を超えていない場合(N)は学習完了のままとしてステップS8に進み、経過時間が所定時間を超えている場合(Y)は学習未完了としてステップS9に進む。
 ステップS8では、主制御部(CPU)10は、語句関連情報記憶部113に記憶されている記憶態様を「学習完了:1」のままとして記憶し、ステップS10に進む。
 ステップS9では、主制御部(CPU)10は、語句関連情報記憶部113に記憶されている記憶態様を「学習未完了:0」として記憶し、ステップS10に進む。
 ステップS10では、主制御部(CPU)10は、記憶部11のRAMに記憶された語句から抽出すべき語句の一部が残っているか否かを判断し、まだ抽出すべき語句の一部が残っている場合はステップS3に戻って抽出処理を続け、語句のすべてが抽出された場合は抽出処理を終了する。
(2)ユーザが学習する際の処理手順
 続いて、図3および図4の具体的なデータ構造を例に、図6のフローチャートを用いて説明する。
 図6は、本発明の実施例1に係る学習支援システムにおいて、ユーザが学習する際の処理手順を示すフローチャートである。
 ユーザが学習する語句について抽出処理が終了し、例えば、学習語句記憶部112に図3に示す学習語句記憶部のデータ構造例が記憶され、語句関連情報記憶部113に図4に示す語句関連情報記憶部のデータ構造例が記憶されているものとする。
 ステップS21では、主制御部(CPU)10は、語句関連情報記憶部113に記憶されている抽出語句に対して、その記憶態様に記憶されている値を判断し、「学習未完了:0」の場合はステップS22に進み、「学習完了:1」の場合はステップS23に進む。
 ステップS22では、主制御部(CPU)10は、学習語句記憶部112に記憶されている抽出語句を表示色1で出力(表示)部14に出力(表示)する。またステップS23では、主制御部(CPU)10は、抽出語句を表示色2で出力(表示)部14に出力(表示)する。出力(表示)部14に同一の抽出語句が複数出力される場合は、すべての同一の抽出語句に対して同じ表示色で出力(表示)する。出力後、ステップS24に進む。
  例えば、図3の抽出語句「Michael」の場合は記憶態様に「学習未完了:0」が記憶されているので、抽出語句「Michael」を表示色1で出力(表示)部14に出力(表示)する。表示色1として、学習すべき語句に様々な強調表示形式を施すことが可能である。例えば、「Michael」の文字色を赤色や紫色にしたり、「Michael」の文字を囲い文字や太字、斜体にしたり、「Michael」の文字に二重線や波線などの下線を施したり、「Michael」の文字の背景色を黄色や赤色などにしてもよい。
 一方、図3の抽出語句「Hi」の場合は、記憶態様に「学習完了:1」が記憶されているので、「Hi」については表示色2で出力(表示)部14に出力(表示)する。表示色2は通常表示とすることで、学習未完了の抽出語句だけが強調表示され、ユーザの印象に強く残ることになる。
 ステップS24では、主制御部(CPU)10は、学習語句記憶部112に記憶されているすべての抽出語句に対して出力がされたか否かを判断する。主制御部(CPU)10は、まだ出力されていない抽出語句がある場合(N)はステップS21に戻り、出力作業を続ける。主制御部(CPU)10は、すべての抽出語句を出力した場合(Y)にステップS25へ進む。
 すなわち、例えば、図3の学習語句記憶部データ構造例の1行目の抽出語句「Hi」から最下行の抽出語句「you」まで出力(表示)部14に出力(表示)されるように順に出力作業を続ける。
 ステップS25では、主制御部(CPU)10は、学習程度入力手段133または語句情報入力手段132等によりユーザからの学習を終了する入力があるか否かを判断し、ユーザから学習終了の入力があった場合(Y)は学習を終了し、ない場合(N)はステップS26に進む。
 ステップS26では、出力(表示)されている抽出語句を学習程度入力手段133によりユーザが選択したか否かを判断し、ユーザが抽出語句を選択した場合(Y)はステップS27に進み、ユーザが何も選択していない場合(N)はステップS25に戻る。
 ステップS27では、主制御部(CPU)10は、学習程度入力手段133からの学習の程度の入力を待ち、「学習完了:1」の場合はステップS28に進み、「学習未完了:0」の場合はステップS31に進む。
 ステップS28では、主制御部(CPU)10は、選択された抽出語句に対応する、語句関連情報記憶部113に記憶されている学習レベルデータに1を加算して記憶する。加算した結果が9超となった場合は、学習レベルデータを「9」として記憶する。そしてステップS29に進む。
 例えば、図4の語句関連情報記憶部のデータ構造例10行目に記憶されている語句原形「Michael」の学習レベルは「0」であるので、1加算して「1」を新たな学習レベルとして記憶する。
 ステップS29では、主制御部(CPU)10は、選択された抽出語句に対応する、学習語句記憶部112に記憶されている記憶態様に「学習完了:1」を記憶する。そしてステップS30に進む。
 ステップS30では、主制御部(CPU)10は、学習支援システム1のシステム日時を、語句関連情報記憶部113に記憶されている最終学習時刻データに記憶する。そして、ステップS21に戻り、処理を続ける。
 一方、主制御部(CPU)10は、ステップS27において「学習未完了:0」の場合として進んだステップS31では、選択された抽出語句に対応する、学習語句記憶部112に記憶されている学習レベルデータに1を減算して記憶する。減算した結果が1未満になる場合は、学習レベルデータを「1」として記憶する。そしてステップS32に進む。
 例えば、図4の語句関連情報記憶部のデータ構造例5行目に記憶されている語句原形「nice」の学習レベルは「5」であるので、1減算して「4」を新たな学習レベルとして記憶する。
 ステップS32では、主制御部(CPU)10は、選択された抽出語句に対応する、学習語句記憶部112に記憶されている記憶態様に「学習未完了:0」を記憶する。そして、ステップS21に戻り、処理を続ける。
(3)ユーザが学習する語句に対する所定時間および経過時間を計算する処理手順
 まず、所定時間および経過時間を計算する処理手順の説明に先立ち、所定時間を求める計算手法の概略について説明する。
 心理学者ヘルマン・エビングハウスが提唱した、人間の記憶量が時間経過とともに減少するという忘却曲線は、以下のような対数関数で表される。
 記憶量b(%)=100×係数k/[(log時間t)係数c+係数k]                                …(1)
 ここで、記憶量bは学習後に記憶が残っている量(%)であり、k、cはそれぞれ係数である。一般には、当該関数から近似的に導出され、例えば以下のような負の指数関数で忘却曲線は表される。
 記憶度R=Exp(-時間t/記憶強度S)         …(2)
 式(2)の記憶強度Sは、例えば学習回数に比例し、時間tが経過しても一定の記憶度Rを維持する。言い換えると、同じ記憶度を維持するために反復学習する時間tは、学習回数を重ねるにつれ指数関数的に漸増するといえる。
 そこで抽出語句について、学習完了から再びユーザに学習の機会を提供するまでの所定時間を、以下の計算式を用いて計算する。
 所定時間=係数1×Exp(係数2×学習レベル)      …(3)
 ここで係数1および係数2は調整係数であり、それぞれ標準を1とする。
 続いて、ユーザが学習する語句に対する所定時間および経過時間を計算する処理手順について、図7の対応表を用いて図8のフローチャートにより説明する。
 図7は、本発明の実施例1に係る学習支援システムにおいて、語句の学習レベルに対応する所定時間を示す対応表で、図2の対応表記憶部115に記憶されている。上段の行は図4で説明した語句関連情報記憶部データ構造例の学習レベルを表し、1から9までの9段階に分けられる。下段の行は所定時間を表し、係数1および係数2とも標準となる1のとき、式(3)に基づき計算することにより得られる。
 図8は、本発明の実施例1に係る学習支援システムにおいて、ユーザが学習する語句に対する所定時間および経過時間を計算する処理手順を示すフローチャートである。
  まず、図5でステップS5の所定時間計算処理に進むと、図8のサブルーチン処理に移行する。
 ステップS41では、主制御部(CPU)10は、抽出された抽出語句について係数1の計算処理を行う。続いて、ステップS42では、主制御部(CPU)10は、係数2の計算処理を行う。
 係数1の詳しい計算方法は図12のフローチャートを用いて、また係数2の詳しい計算方法は図13のフローチャートを用いて後述する。
 ステップS43では、主制御部(CPU)10は、ステップS41で得られた係数1、ステップS42で得られた係数2、および語句関連情報記憶部113に記憶されている学習レベルデータに基づいて所定時間を計算する。
 例えば、図4に示す語句関連情報記憶部のデータ構造例4行目の「internet」の場合、学習レベルが「4」であるので、係数1および係数2とも1の場合には、所定時間は「55」時間と計算される。
 ステップS44では、主制御部(CPU)10は、語句関連情報記憶部113に記憶されている最終学習時刻データとシステムの現在日時との差分を経過時間として計算する。その後、図8のサブルーチン処理を終え、図5のステップS7に進む。
<係数1の計算処理>
 続いて、係数1の計算処理手順について、図9から図11の対応表を用いて図12のフローチャートにより説明する。
 図9は、本発明の実施例1に係る学習支援システムにおいて、語句の難易度レベルに対応する係数1を示す対応表で、図2の対応表記憶部115に記憶されている。
 上段の2行は語句の難易度を表す。語句難易度には、例えば、学習すべき経験年数を表す学習年次と語句の文字長さが考えられる。図4で説明した語句関連情報記憶部のデータ構造例では、学習すべき経験年数を表す学習年次を語句難易度レベルに用いている。
 中段の行は、語句の難易度に対応する語句難易度レベルを表し、1から7までの7段階に分けられる。この語句難易度レベルは他の要素を考慮して係数1を求める際に用いられる。
 下段の行は、中段の語句難易度レベルに対応する係数1の値である。係数1の数値は、式(3)で述べたように標準は1とし、より適切な時期に反復学習する機会を提供するために、語句難易度が高くなるにつれ0.05刻みで1より小さい値を取り、最低値が0.7となる。なお、下段の係数1は、語句難易度レベルを単独で後述する難易度レベルとする場合に用いられる。
 図10は、本発明の実施例1に係る学習支援システムにおいて、ユーザの学習者レベルに対応する係数1を示す対応表で、図2の対応表記憶部115に記憶されている。
 上段の行は学習者の学習経験年数または学力を表す学習年次である。
 中段の行は、上段の学習者の学習年次に対応する学習者レベルを表し、図9と同様に、1から7までの7段階に分けられる。この学習者レベルは他の要素を考慮して係数1を求める際に用いられる。
 下段の行は、中段の学習者レベルに対応する係数1の値であり、図9と同様に、標準は1とし、学習者レベルが高くなるにつれ0.05刻みで1より小さい値を取り、最低値が0.7となる。なお、下段の値は、学習者レベルを単独で後述する難易度とする場合に用いられる。
 図11は、本発明の実施例1に係る学習支援システムにおいて、単語難易度レベルと学習者レベルとを組み合わせた難易度レベルに対応する係数1を示す対応表で、図2の対応表記憶部115に記憶されている。
 上段の行は難易度レベルを表し、図9に示す語句難易度レベルから図10に示す学習者レベルを差し引いた差分である。語句難易度レベルも学習者レベルも1から7までの7段階あるので、差分としては-6から+6までの値を取るが、負の値はすべて0とすることにより、難易度レベルは0から6までの7段階に分けられる。
 下段の行は上段の難易度レベルに対応する係数1の値であり、標準は1とし、難易度が高くなるにつれ0.05刻みで1より小さい値を取り、最低値が0.7となる。
 図12は、本発明の実施例1に係る学習支援システムにおいて、ユーザが学習する語句に対する所定時間の係数1を求める処理手順を示すフローチャートである。
 まず、図8でステップS41の係数1計算処理に進むと、図12のサブルーチン処理に移行する。
 ステップS51では、主制御部(CPU)10は、抽出された抽出語句について、語句難易度レベルから学習者レベルを差し引いた難易度レベルを計算する。主制御部(CPU)10は、具体的には、語句関連情報記憶部113に記憶されている語句難易度レベルと、ユーザ設定記憶部111に記憶されている学習者レベルとの差分を求める。主制御部(CPU)10は、図示しないが、差分が負の値である場合は0とする処理を合わせて行う。
 例えば、ユーザが中学2年生で、図4に示す語句関連情報記憶部のデータ構造例4行目にある「internet」の場合は、図10の対応表から学習者レベルは「2」、図4および図9の対応表から語句難易度レベルは「4」であるので、難易度レベルは「4-2=2」となる。
 ステップS52では、主制御部(CPU)10は、ステップS51で得られた難易度レベルから図11の対応表により係数1を得る。例えば、上述の「internet」の例では、難易度レベル「2」に対応する「0.9」が係数1として得られる。
 そして図12のサブルーチン処理を終え、図8のステップS42に進む。
 <係数2の計算処理>
 続いて、係数2の計算処理手順について、図13乃至図16により説明する。
 図13は、本発明の実施例1に係る学習支援システムにおいて、ユーザが学習する語句に対する所定時間の係数2を求める処理手順を示すフローチャートである。
 図4の語句関連情報記憶部のデータ構造例で説明したように、語句の母国語に対する言語的な類似度には、例えば、語句が外来語となっているか否か、文字種類が類似しているか否か、綴りが類似しているか否か、発音が類似しているか否か等がある。語句関連情報記憶部113に記憶されているこれら4つの項目から語句の類似度を求め、その類似度が低いほど、より早い時期に反復学習する機会を提供するように係数2を調整する。
 まず、図8でステップS42の係数2計算処理に進むと、図13のサブルーチン処理に移行する。
 ステップS61では、主制御部(CPU)10は、抽出された抽出語句について、外来語になっているか否かを判断する。主制御部(CPU)10は、語句関連情報記憶部113に記憶されている外来語データを参照し、外来語になっている場合(Y)はレベル1を「1」として(ステップS62)、外来語になっていない場合(N)はレベル1を「0」として(ステップS63)RAMに記憶し、ステップS64に進む。
 例えば、図4の語句関連情報記憶部のデータ構造例4行目にある「internet」は、外来語列が「Y:1」なので、レベル1を「1」としてRAMに記憶する。
 ステップS64では、主制御部(CPU)10は、文字種類が類似しているか否かを判断する。主制御部(CPU)10は、語句関連情報記憶部113に記憶されている文字種類類似度を参照し、類似している場合はレベル2を「1」として(ステップS65)、非類似の場合はレベル2を「0」として(ステップS66)RAMに記憶し、ステップS67に進む。
 例えば、図4の語句関連情報記憶部のデータ構造例4行目にある「internet」は、文字種類類似度が「非類似:0」なので、レベル2を「0」としてRAMに記憶する。
 ステップS67では、主制御部(CPU)10は、語句関連情報記憶部113に記憶されている綴り類似度を参照し、綴りが類似している場合はレベル3を「2」に(ステップS69)、綴りが類推可能である場合はレベル3を「1」として(ステップS68)、綴りが非類似である場合はレベル3を「0」として(ステップS70)RAMに記憶し、ステップS71に進む。
 例えば、図4の語句関連情報記憶部のデータ構造例4行目にある「internet」は、綴り類似度が「類推可:1」なので、レベル3を「1」としてRAMに記憶する。
 ステップS71では、主制御部(CPU)10は、発音が類似しているか否かを判断する。主制御部(CPU)10は、語句関連情報記憶部113に記憶されている発音類似度を参照し、類似している場合はレベル4を「2」として(ステップS72)、非類似の場合はレベル4を「0」として(ステップS73)RAMに記憶し、ステップS74に進む。
 例えば、図4の語句関連情報記憶部のデータ構造例4行目にある「internet」は、発音類似度が「類似:2」なので、レベル4を「2」としてRAMに記憶する。
 ステップS74では、主制御部(CPU)10は、RAMに記憶されているレベル1からレベル4までの和を求め、その和に1を加算することにより類似度合計を計算する。
 例えば、図4の語句関連情報記憶部のデータ構造例4行目にある「internet」は、レベル1が「1」、レベル2が「0」、レベル3が「1」、レベル4が「2」なので、類似度合計は「5」となる。
 ステップS75では、主制御部(CPU)10は、得られた類似度合計に基づき、後述する図14の類似度合計対係数2対応表を参照することにより、係数2を得る。例えば上記の「internet」の場合は、図14の対応表より類似度合計「5」に対応する「0.9」が係数2として得られる。
 そして図13のサブルーチン処理を終え、図8のステップS43に進む。
 図14は、本発明の実施例1に係る学習支援システムにおいて、ユーザが学習する語句の母国語に対する類似度合計に対応する係数2を示す対応表で、図2の対応表記憶部115に記憶されている。上段の行は図13に示すフローチャートのステップS74で得られる類似度合計を表し、1から7までの7段階に分けられる。下段の行は類似度合計に対応する係数2の値を表し、標準は1とし、より適切な時期に反復学習する機会を提供するために、類似度が低くなるにつれ0.05刻みで1より小さい値を取り、最低値が0.7となる。
 図15および図16は、本発明の実施例1に係る学習支援システムにおいて、ユーザが学習する語句の母国語に対する類似度を示すサンプル例である。
 図15、図16の上段2行には、ユーザが学習する語句とその発音が記されている。左側にはユーザの母国語の項目が、上段の行から順に、英語、仏語、日本語、中国語の順に設けられ、左から3列目および4列目に学習語句に対応する母国語の語句とその発音が記されている。左から5列目乃至8列目には、学習語句の母国語に対する類似度を評価する4つの項目、すなわち外来語、文字種類、綴り、発音が順に設けられ、図13の係数2を計算するフローチャートに沿った各レベルの数値が記されている。そして、右端の列に図14の対応表で用いる類似度合計が記されている。
 図15は、英語の「internet」を学習するときのそれぞれの母国者に対する類似度合計を表している。例えば、日本語を母国語とする学習者の場合は、3行目を見る。外来語「Y:1」、文字種類「類似:0」、綴り「類推可:1」、発音「類似:2」で類似度合計は「5」となる。一方、英語や仏語を母国語とする学習者の場合は、類似度合計は「7」となる。中国語を母国語とする学習者の類似度合計は「1」となる。
 図16は、日本語の「インターネット」を学習するときのそれぞれの母国者に対する類似度合計を表している。例えば、英語を母国語とする学習者の場合は、1行目を見る。外来語「Y:1」、文字種類「類似:0」、綴り「類似:0」、発音「類似:2」で類似度合計は「4」となる。一方、日本語を母国語とする学習者の場合は、類似度合計は「7」なる。中国語を母国語とする学習者の類似度合計は「1」となる。
 類似度合計によって係数2が図14の対応表に基づき0.7から1まで変化するので、同じ語句を学習する場合でも、母国語の違いにより所定時間が異なり、ユーザに応じて学習する語句ごとに、より適切な時期に反復学習する機会を提供することができる。
 これまで、(3)ユーザが学習する語句に対する所定時間および経過時間を計算する処理手順について、図8、図12、図13のフローチャートに沿って説明してきた。
 そして、例えば、図4の語句関連情報記憶部のデータ構造例5行目にある「internet」の場合、係数1および係数2とも標準の1であるときには、式(3)、すなわち図8のステップS43に従い、所定時間が55時間であった。一方、上述したように、語句難易度および学習者レベル(例では、中学2年生)を考慮した場合に係数1は0.9となり、式(3)、すなわち図8のステップS43に従い、所定時間を計算すると49時間に短縮される。さらに母国語(例では、日本語)に対する語句の類似度を考慮した場合に係数2は0.9となり、所定時間を計算すると33時間まで短縮される。したがって、上記の事項を考慮することで、ユーザに応じて学習する語句ごとに、より適切な時期に反復学習する機会を提供することが可能となる。
 このように、本発明の実施例1によれば、上記構成を採用することで、ユーザに応じて学習する語句ごとに、より適切な時期に反復学習する機会を提供することが可能となり、外国語学習の効果を高める学習支援システム、方法及びプログラムを提供することができる。
 図17は、本発明の実施例2に係る学習支援システムの全体構成を示す図である。
本学習支援システム1は、サーバ2とユーザ端末3とがネットワーク4に接続されて構成される。
 サーバ2は、システム全体を統括的に制御する主制御部(CPU)20、各種情報を記憶する記憶部21、ネットワーク4を通じてユーザ端末3と送受信するための通信部22より構成される。
 主制御部(CPU)20は、オペレーティングシステム等のプログラム、本学習システムの手順を規定したプログラム等によって、語句抽出手段201、語句照合手段202、所定時間計算手段203、記憶制御手段204及び各種処理手段や判断手段等を実現している。なお、語句抽出手段201、語句照合手段202、所定時間計算手段203、記憶制御手段204は、図1における、語句抽出手段101、語句照合手段102、所定時間計算手段103、記憶制御手段104と同様の機能を有する。
 記憶部21は、RAM、ROM等の揮発性又は不揮発性の半導体素子や、ハードディスク、光ディスク等の補助記憶装置から構成され、ユーザ設定記憶部211、学習語句記憶部212、語句関連情報記憶部213、学習ファイル記憶部214、対応表記憶部215等を備えている。
 通信部22は、ネットワーク4を通じてユーザ端末3との通信を可能にするためのものであり、例えばTCP/IP等のプロトコルを利用してユーザ端末3から送信される、母国語等の設定データを受信する母国語等設定手段221、語句情報入力データを受信する語句情報入力手段222、学習程度の入力データを受信する学習程度入力手段223、およびユーザ端末3の表示部に出力するための出力情報を送信する出力手段224としての機能を備える。
 ユーザ端末3は、入力部31、表示部32、通信部33から構成される。入力部31は、キーボードやマウス、トラックボール等のポインティングデバイスからなり、ユーザの母国語等の設定情報、ユーザが学習する語句情報、あるいは語句に対する学習程度情報等の入力に用いられる。表示部32は、ディスプレイ等からなり、入力部31から入力される情報やサーバ2から送信される出力情報の表示に用いられる。通信部33は、ネットワーク4を通じて、入力部31から入力された各種情報データのサーバ2への送信や、サーバ2からの出力情報の受信に用いられる。
  図18は、本発明の実施例2に係る記憶部内のデータ構造例を概略的に示す図である。学習語句記憶部212、語句関連情報記憶部213、学習ファイル記憶部214および対応表記憶部215は、図2における、学習語句記憶部112、語句関連情報記憶部113、学習ファイル記憶部114および対応表記憶部115と同様のデータを保持している。なお、ユーザ設定記憶部211は、ユーザ設定記憶部111が保持している母国語データ、学習者レベルデータに加え、ユーザ識別データを保持している点が異なる。これは、複数のユーザ端末3から複数のユーザがサーバを利用する場合、ユーザごとに学習語句記憶部212、語句関連情報記憶部213および学習ファイル記憶部214を記憶する必要があるためである。なお、学習語句記憶部212および語句関連情報記憶部213の具体的データ構造は、それぞれ図3および図4のデータ構造例と同様である。
 本発明の実施例2に係る学習支援システムの基本的な動作について、図17を用いて説明する。
 ユーザが使用するユーザ端末3は、ネットワーク4を通じてサーバ2に接続する。ユーザ端末3は、ユーザが入力部31により入力した、ユーザ識別データ、母国語データ、学習者レベルデータを含む母国語等設定情報を通信部33によりネットワーク4を通じてサーバ2に送信する。
 サーバ2は、ユーザ端末3より送信された母国語等設定情報を、通信部22の母国語等設定手段221により受信し、ユーザ設定記憶部211に記憶する。続いて、サーバ2は、ユーザ設定記憶部211に記憶したユーザ識別データに基づき、記憶部21内のRAM上に学習語句記憶部212を確保し、当該ユーザの過去の学習を通じて構築された語句関連情報記憶部213を特定する。以降の動作については、本発明の実施例1の学習支援システムと同様である。
 このように、本発明の実施例2によれば、上記構成を採用することで、複数のユーザに対して、それぞれのユーザに応じて学習する語句ごとに、より適切な時期に反復学習する機会を提供することが可能となり、外国語学習の効果を高める学習支援システム、方法及びプログラムを提供することができる。
 なお、本発明は、上記の実施例に限定されるものではない。
 例えば、本発明の実施例に係る学習支援システムでは、係数1の計算に用いる難易度レベルの指標として語句難易度レベルのみを用いてもよい。また、語句難易度として、語句の文字長さを指標として用いることもできる。さらに、語句難易度として、学習すべき経験年数を表す学習年次と語句の文字長さとの加算平均等を用いてもよい。また、語句難易度をさらに多段階のレベルに分け、例えば、対応する係数1の値を0.5から1に設定してもよい。
 さらに、語句難易度として、例えば、それぞれの語句を記憶する難しさについてアンケート調査した結果を指標として用いてもよい。語句を記憶する難易度は、学習者の母国語によって大きく異なるので、例えば、さまざまな言語を母国語とする1000人に対して、学習する語句のそれぞれについて記憶してもらい、一定時間後に記憶力テストを行った結果に基づき、それぞれの単語について統計的に記憶難易度を求める。得られた記憶難易度データを語句難易度データとして用いればよい。
 また、本発明の実施例に係る学習支援システムでは、係数2の計算に用いる類似度の指標として、外来語、文字種類、綴り、発音のうち、いずれか1項目または複数の組み合わせを用いることも可能である。
 さらに、本発明の実施例に係る学習支援システムでは、係数1の計算に用いる指標として語句の母国語に対する類似度を用い、係数2の計算に用いる指標として語句難易度や学習者レベルを用いてもよい。
 また、本発明の実施例に係る学習支援システムでは、係数1および係数2のうち、いずれかを定数としてもよい。
 これらにより、より精密にあるいはより緩やかに所定時間を設定することが可能となり、ユーザに応じて外国語学習の効果を一層高めることができる。
 本発明の実施例に係る学習支援システムでは、例えばユーザから母国語等設定手段131を通じて入力され、ユーザ設定記憶部111に記憶されるデータとして、簡単すぎて復習するまでもない語句難易度レベルや難し過ぎて学習する効果の少ない語句難易度レベルを設定する学習語句レベル除外データを記憶してもよい。
 また、学習語句レベル除外データとともに、あるいはそれに代えて、学習レベルを限定する学習語句限定レベルデータをユーザ設定記憶部111に記憶してもよい。
 さらに、学習する語句の品詞を限定、または除外する品詞特定データをユーザ設定記憶部111に記憶してもよい。
 図5のフローチャートにおいて、例えば、ステップS4とステップS5との間に学習語句の除外または限定する判断手順を設け、除外する語句についてはステップS9に進み、限定する語句についてはステップS5に進むようにすればよい。
 学習すべき語句が限定されることにより、より的確に反復学習する機会を提供することができる。
 本発明の実施例に係る学習支援システムでは、学習語句記憶部112に記憶される記憶データとして第3の記憶態様を設け、これに対応する表示色3を設定してもよい。表示色3は、例えば、表示色1とは異なる強調表示形式とする。強調表示形式としては、例えば、語句の文字色や背景色を表示色1と異なる色にしてもよく、語句の文字を中抜き、影付き、浮き出し、浮き彫りなどとしてもよい。
 図6のフローチャートにおいて、例えばステップS21で第3の記憶対応として「今回学習で学習未完了:2」の分岐を設け、該当する場合は表示色3に出力する手順とする。また、ステップS27の選択で「学習未完了:0」を「今回学習で学習未完了:2」に代える手順とすればよい。
 これにより、今回の学習時に学習が未完了とユーザが認識した語句が明確になり、ユーザに応じた学習支援の効果をさらに高めることができる。
 また、本発明の実施例に係る学習支援システムでは、語句関連情報記憶部113に記憶されている最終学習時刻データとして、例えば、ユーザが語句を選択した最終日時を記憶することとしてもよい。
 図6のフローチャートにおいて、ステップS26とステップS27との間に、ステップS30のシステム日時を語句関連情報記憶部113に記憶する手順を挿入すればよい。
 これにより、語句の学習完了・未完了を問わず、最後に語句を学習した日時を基準に経過時間を求め、所定時間と比較して表示態様を決定することができる。
 本発明の実施例に係る学習支援システムは、単語帳、文章閲覧、学術用語等の学習に利用することができる。また単一の言語の単語や文章だけの表示だけでなく、対応する複数の言語の単語や文章を同時に出力(表示)させるようにしてもよい。
これにより、例えば第2外国語を学習する際に、母国語と第1外国語も同時に出力(表示)させることが可能となり、外国語の学習効果をさらに高めることができる。
 また、本発明の実施例に係る学習支援システムでは、第2外国語を学習する際に、母国語だけでなく、先に学習している第1外国語に対する類似度も考慮して所定時間を計算することも可能である。
 例えば、ユーザから母国語等設定手段131を通じて入力され、ユーザ設定記憶部111に記憶されるデータとして、母国語データとともに第1外国語データを記憶する。図8のステップS42の係数2処理手順を、母国語と第1外国語についてそれぞれ行い、得られたそれぞれの係数2の値を加算平均してもよく、またどちらかの最小値を採用してもよい。
 さらに複数の言語をすでに学習しているユーザに対しては、第2外国語、第3外国語に対する類似度も考慮して所定時間を計算することも可能である。この際、各外国語に対するユーザの習熟度に応じて重みづけをして所定時間を計算してもよい。例えば、母国語に2/3、考慮する外国語に1/3の重みづけをするなどである。
 これにより、複数の言語を学習しているユーザに応じて、さらに適切な学習支援を提供することができる。
 また、本発明の実施例に係る学習支援システムでは、図6のフローチャートのステップS28において、学習レベルに1を加算した結果が「9」を越えた場合、その値をそのまま語句関連情報記憶部113の学習レベルに記憶してもよい。そして、次回学習時に、語句関連情報記憶部113に記憶されている、9を超える学習レベルの語句を、自動的に学習語句除外レベルデータとしてもよい。また、ステップS25において、学習を終了する際に学習レベルが9を超える語句情報を語句関連情報記憶部113から削除してもよい。
 これにより、学習すべき語句をより明確にし、さらに効果的な学習支援を提供することができる。
 本発明の実施例に係る学習支援システムでは、図7の学習レベルに対応する所定時間の計算に用いた式(3)の指数関数に代え、例えば、以下のようなn次関数を用いてもよい。
 所定時間=係数1×(係数2×学習レベル)         …(4)
 ここでnは、例えば1、2、3などの自然数である。
 さらに、所定時間の計算に、例えば、以下のような分数関数や無理関数等を用いてもよい。
 所定時間=係数1×(1-係数2/学習レベル)        …(5)
 所定時間=係数1×√(係数2×学習レベル)         …(6)
 以上、本発明の学習支援システムについて、具体的な実施の形態を示して説明したが、本発明はこれらに限定されるものではない。当業者であれば、本発明の要旨を逸脱しない範囲内において、上記各実施形態又は他の実施形態にかかる発明の構成及び機能に様々な変更・改良を加えることが可能である。
 本発明の学習支援システムは、コンピュータを学習支援システムとして機能させるためのプログラムでも実現される。このプログラムは、コンピュータで読み取り可能な記録媒体に格納されていてもよい。
 このプログラムを記録した記録媒体は、図1に示される学習支援システムのROMそのものであってもよいし、また、外部記憶装置としてCD-ROMドライブ等のプログラム読取装置が設けられ、そこに記録媒体を挿入することで読み取り可能なCD-ROM等であってもよい。
 また、上記記録媒体は、磁気テープ、カセットテープ、フレキシブルディスク、ハードディスク、MO/MD/DVD等、又は半導体メモリであってもよい。
 本明細書で引用したすべての刊行物、特許及び特許出願は、そのまま参考として、ここにとり入れるものとする。
 また、明細書、特許請求の範囲及び図面を含む2016年12月02日に出願の日本国特許出願2016-234721の開示は、そのまま参考として、ここにとり入れるものとする。
1   学習支援システム
2   サーバ
3   ユーザ端末
4   ネットワーク
10  主制御部(CPU)
11  記憶部
12  バスライン
13  入力部
14  出力(表示)部
15  通信部
20  主制御部(CPU)
21  記憶部
22  通信部
31  入力部
32  表示部
33  通信部
101 語句抽出手段
102 語句照合手段
103 所定時間計算手段
104 記憶制御手段
111 ユーザ設定記憶部
112 学習語句記憶部
113 語句関連情報記憶部
114 学習ファイル記憶部
115 対応表記憶部
131 母国語等設定手段
132 語句情報入力手段
133 学習程度入力手段
201 語句抽出手段
202 語句照合手段
203 所定時間計算手段
204 記憶制御手段
211 ユーザ設定記憶部
212 学習語句記憶部
213 語句関連情報記憶部
214 学習ファイル記憶部
215 対応表記憶部
221 母国語等設定手段
222 語句情報入力手段
223 学習程度入力手段
224 出力手段

Claims (8)

  1.  ユーザの母国語を設定する母国語設定手段と、
     ユーザが学習する語句情報を、学習の程度と共に記憶する学習語句記憶手段と、
     前記母国語設定手段によって入力された母国語に対する、ユーザが学習する語句情報の言語的な類似度に基づき所定時間を計算する所定時間計算手段と、
     前記学習語句記憶手段に記憶される学習の程度を、学習未完了の場合は第1の記憶態様に記憶し、学習完了の場合は第2の記憶態様に記憶し、学習完了後に前記所定時間が経過した場合は再び第1の記憶態様に記憶する記憶制御手段と、
     ユーザが学習する語句情報を、前記記憶制御手段によって前記学習語句記憶手段に記憶されている第1および第2の記憶態様に応じて、それぞれ第1および第2の出力態様にて出力する出力手段と、
    を備えることを特徴とする学習支援システム。
  2.  ユーザが学習する語句情報に対する、ユーザからの学習の程度を入力する学習程度入力手段をさらに備え、
     前記学習程度入力手段による入力を、
      学習未完了の場合は、前記記憶制御手段が第1の記憶態様に記憶し、
      学習完了の場合は、前記記憶制御手段が第2の記憶態様に記憶することを特徴とする、請求項1記載の学習支援システム。
  3.  ユーザが学習する語句情報を入力する語句情報入力手段と、
     前記類似度を含み、語句に関連する関連情報を記憶する語句関連情報記憶部と、
     前記語句情報入力手段により入力されて前記学習語句記憶手段に記憶される語句情報が、前記語句関連情報記憶部に記憶されているか否かを照合する語句照合手段と、をさらに備え、
     前記記憶制御手段は、前記語句照合手段により得られた照合結果に基づき、前記語句関連情報記憶部に記憶されていない語句情報ついて、学習の程度を前記第1の記憶態様に記憶することを特徴とする、請求項1又は2記載の学習支援システム。
  4.  前記類似度には、学習する語句情報が母国語の外来語になっているか否か、学習する語句情報を表記する文字種類が母国語の文字種類と類似しているか否か、学習する語句情報の綴りが母国語の綴りと類似しているか否か、および学習する語句情報の発音が母国語の発音と類似しているか否かのいずれかを変数に含み、
     前記所定時間計算手段は、それに応じて前記所定時間を決定することを特徴とする、請求項1乃至3いずれかに記載の学習支援システム。
  5.   前記所定時間計算手段は、ユーザが学習する言語における語句の難易度に基づき前記所定時間を決定することを特徴とする、請求項1乃至4いずれかに記載の学習支援システム。
  6.   前記所定時間計算手段は、学習する語句の言語に対するユーザの学習者レベルに基づき前記所定時間を決定することを特徴とする、請求項1乃至5いずれかに記載の学習支援システム。
  7.  学習支援システムが、
     ユーザの母国語を設定する母国語設定ステップと、
     ユーザが学習する語句情報を、学習の程度と共に記憶する学習語句記憶ステップと、
     前記母国語設定ステップによって入力された母国語に対する、ユーザが学習する語句情報の言語的な類似度に基づき所定時間を計算する所定時間計算ステップと、
     前記学習語句記憶ステップに記憶される学習の程度を、学習未完了の場合は第1の記憶態様に記憶し、学習完了の場合は第2の記憶態様に記憶し、学習完了後に前記所定時間が経過した場合は再び第1の記憶態様に記憶する記憶制御ステップと、
     ユーザが学習する語句情報を、前記記憶制御ステップによって前記学習語句記憶ステップに記憶されている第1および第2の記憶態様に応じて、それぞれ第1および第2の出力態様にて出力する出力ステップと、
    を実行することを特徴とする学習支援方法。
  8.  コンピュータを、
     ユーザの母国語を設定する母国語設定手段と、ユーザが学習する語句情報を、学習の程度と共に記憶する学習語句記憶手段と、前記母国語設定手段によって入力された母国語に対する、ユーザが学習する語句情報の言語的な類似度に基づき所定時間を計算する所定時間計算手段と、前記学習語句記憶手段に記憶される学習の程度を、学習未完了の場合は第1の記憶態様に記憶し、学習完了の場合は第2の記憶態様に記憶し、学習完了後に前記所定時間が経過した場合は再び第1の記憶態様に記憶する記憶制御手段と、ユーザが学習する語句情報を、前記記憶制御手段によって前記学習語句記憶手段に記憶されている第1および第2の記憶態様に応じて、それぞれ第1および第2の出力態様にて出力する出力手段とを備える学習支援システム
    として機能させるためのプログラム。
PCT/JP2017/041334 2016-12-02 2017-11-16 学習支援システム、方法及びプログラム WO2018101067A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP17876645.7A EP3457386A4 (en) 2016-12-02 2017-11-16 LEARNING SUPPORT SYSTEM, PROCESS AND PROGRAM
CA3027337A CA3027337C (en) 2016-12-02 2017-11-16 Learning support system, method and program
US16/306,735 US20210166581A1 (en) 2016-12-02 2017-11-16 Learning support system, method and program
CN201780031511.1A CN109155111B (zh) 2016-12-02 2017-11-16 学习支持系统、方法及非易失性的机器可读介质

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-234721 2016-12-02
JP2016234721A JP6174774B1 (ja) 2016-12-02 2016-12-02 学習支援システム、方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2018101067A1 true WO2018101067A1 (ja) 2018-06-07

Family

ID=59505294

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/041334 WO2018101067A1 (ja) 2016-12-02 2017-11-16 学習支援システム、方法及びプログラム

Country Status (7)

Country Link
US (1) US20210166581A1 (ja)
EP (1) EP3457386A4 (ja)
JP (1) JP6174774B1 (ja)
CN (1) CN109155111B (ja)
CA (1) CA3027337C (ja)
TW (1) TWI690907B (ja)
WO (1) WO2018101067A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7243778B1 (ja) 2021-09-24 2023-03-22 カシオ計算機株式会社 情報処理装置、情報処理方法およびプログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111260980A (zh) * 2020-03-23 2020-06-09 成都师范学院 一种教育纠错学习系统
JP2022035596A (ja) * 2020-08-21 2022-03-04 言語研究開発合同会社 言語学習支援装置、プログラム及び情報処理方法
JP7030231B1 (ja) * 2021-06-10 2022-03-04 株式会社バンダイ 知育玩具およびプログラム
CN113453072A (zh) * 2021-06-29 2021-09-28 王瑶 按级别拼合和播放多语言影音文件的方法、系统和介质
KR102507880B1 (ko) * 2022-07-12 2023-03-07 이정윤 기억률 산출 장치 및 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060228691A1 (en) * 2005-04-11 2006-10-12 Yao-Ting Chen Search method for discovery of individual best study period cycle
JP2012220988A (ja) * 2011-04-04 2012-11-12 Panasonic Corp 電子書籍装置、電子書籍システム、難易度判定方法、および難易度判定プログラム
JP2014516170A (ja) * 2011-05-10 2014-07-07 コーリ エーハウーエッフ 個々のユーザに対して言語学習をカスタマイズするように構成された言語学習システム
JP2015069160A (ja) * 2013-09-30 2015-04-13 大日本印刷株式会社 学習支援システム、プログラム、及び、学習支援方法
JP2016194683A (ja) * 2015-03-31 2016-11-17 富士通株式会社 ボキャブラリ学習サポートシステム

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06289766A (ja) * 1993-03-31 1994-10-18 Casio Comput Co Ltd 学習装置
US6022221A (en) * 1997-03-21 2000-02-08 Boon; John F. Method and system for short- to long-term memory bridge
JP2000019943A (ja) * 1998-06-30 2000-01-21 Shigezo Tatsumi 学習支援装置および学習支援方法
US6652283B1 (en) * 1999-12-30 2003-11-25 Cerego, Llc System apparatus and method for maximizing effectiveness and efficiency of learning retaining and retrieving knowledge and skills
US6419496B1 (en) * 2000-03-28 2002-07-16 William Vaughan, Jr. Learning method
TWI257593B (en) * 2004-09-29 2006-07-01 Inventec Corp Language learning system and method
US20090157672A1 (en) * 2006-11-15 2009-06-18 Sunil Vemuri Method and system for memory augmentation
JP5340584B2 (ja) * 2007-11-28 2013-11-13 インターナショナル・ビジネス・マシーンズ・コーポレーション 電子メッセージの読解を支援する装置及び方法
CN101231792A (zh) * 2008-01-28 2008-07-30 徐昭宇 婴呓外语
JP2011516905A (ja) * 2008-02-12 2011-05-26 ユ,ゴン‐サン 通信端末を介して使用者に学習情報をランダムに提供する装置及び方法
US20090317776A1 (en) * 2008-06-20 2009-12-24 Gregory Keim Economic Language Learning System
KR20100123209A (ko) * 2009-05-14 2010-11-24 윤주웅 온라인 학습 평가 방법 및 그 장치, 그 기록 매체
CN101996505A (zh) * 2009-08-12 2011-03-30 英业达股份有限公司 生字词汇的学习系统及其方法
CN101707020B (zh) * 2009-11-10 2011-11-16 无敌科技(西安)有限公司 汉字学习系统及其方法
US9177064B2 (en) * 2010-10-12 2015-11-03 Wespeke, Inc. Language learning exchange
US20120322043A1 (en) * 2011-06-17 2012-12-20 Microsoft Corporation Adaptively-spaced repetition learning system and method
TWM443248U (en) * 2011-11-21 2012-12-11 Palmforce Software Inc System for feedback learning language
CN102723077B (zh) * 2012-06-18 2014-07-09 北京语言大学 汉语教学语音合成方法及装置
US20140272820A1 (en) * 2013-03-15 2014-09-18 Media Mouth Inc. Language learning environment
KR101460449B1 (ko) * 2013-08-05 2014-11-20 포항공과대학교 산학협력단 자동 빈칸 채우기 문제 생성 방법 및 이를 수행하는 프로그램을 기록한 기록매체 장치
KR20150022602A (ko) * 2013-08-24 2015-03-04 이준상 언어학습장치
WO2016185289A1 (en) * 2015-05-21 2016-11-24 Gammakite, Llc Device for language teaching with time dependent data memory
CN105632249A (zh) * 2016-01-07 2016-06-01 刘玲 一种新型英语学习教具及学习方法
KR20170116467A (ko) * 2016-04-11 2017-10-19 정지훈 브릭을 이용한 외국어 학습 시스템 및 외국어 학습 제공 방법
JP6527653B2 (ja) * 2016-05-19 2019-06-05 小島 章利 情報処理装置及びその制御方法、コンピュータプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060228691A1 (en) * 2005-04-11 2006-10-12 Yao-Ting Chen Search method for discovery of individual best study period cycle
JP2012220988A (ja) * 2011-04-04 2012-11-12 Panasonic Corp 電子書籍装置、電子書籍システム、難易度判定方法、および難易度判定プログラム
JP2014516170A (ja) * 2011-05-10 2014-07-07 コーリ エーハウーエッフ 個々のユーザに対して言語学習をカスタマイズするように構成された言語学習システム
JP2015069160A (ja) * 2013-09-30 2015-04-13 大日本印刷株式会社 学習支援システム、プログラム、及び、学習支援方法
JP2016194683A (ja) * 2015-03-31 2016-11-17 富士通株式会社 ボキャブラリ学習サポートシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3457386A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7243778B1 (ja) 2021-09-24 2023-03-22 カシオ計算機株式会社 情報処理装置、情報処理方法およびプログラム
JP2023046441A (ja) * 2021-09-24 2023-04-05 カシオ計算機株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
CA3027337C (en) 2023-02-21
JP6174774B1 (ja) 2017-08-02
CA3027337A1 (en) 2018-06-07
CN109155111B (zh) 2020-11-03
EP3457386A1 (en) 2019-03-20
US20210166581A1 (en) 2021-06-03
TW201826233A (zh) 2018-07-16
TWI690907B (zh) 2020-04-11
EP3457386A4 (en) 2019-07-17
JP2018091978A (ja) 2018-06-14
CN109155111A (zh) 2019-01-04

Similar Documents

Publication Publication Date Title
JP6174774B1 (ja) 学習支援システム、方法及びプログラム
Chelliah et al. Handbook of descriptive linguistic fieldwork
JP4584148B2 (ja) 作文小論文の評価採点装置
Marzano et al. Vocabulary for the common core
CN105677822A (zh) 一种基于对话机器人的招生自动问答方法及系统
Pettitt et al. Following Roba: What happens when a low-educated adult immigrant learns to read
Loock et al. Machine translation literacy and undergraduate students in applied languages: report on an exploratory study
Demir et al. The role of teaching grammar in first language education
Page A new orthography in an unfamiliar script: A case study in participatory engagement strategies
Olmanson et al. The challenge of Chinese character acquisition: Leveraging multimodality in overcoming a centuries-old problem
Van Pinxteren Is Iraqw an easy language to learn?
Cuomo Medieval textbooks as a major source for historical sociolinguistic studies of (highregister) Medieval Greek
Dinca et al. ASSESSING LEARNERS’ACADEMIC PHRASEOLOGY IN THE DIGITAL AGE: A CORPUS-INFORMED APPROACH TO ESP TEXTS
Souzandehfar How to improve pronunciation? An in-depth contrastive investigation of sound-spelling systems in English and Persian
Harbusch et al. A computer-assisted writing tool for an extended variety of leichte sprache (easy-to-read german)
Indri Ayu et al. GRAMMATICAL ERRORS IN STUDENTS’WRITING: DESCRIPTIVE STUDY ON GRADE 7 STUDENTS
Hirsh Learning vocabulary
Palupi et al. An Analysis on Students’ Writing Problems in Academic Writing Class of English Department STKIP PGRI Tulungagung in Academic Year 2017/2018
Lewandowska The effectiveness of data-driven learning techniques in eliminating Polish advanced EFL learners’ interference errors
Holmberg Sjöling A corpus-based investigation of Swedish upper secondary school students’ vocabulary
Nghinanhongo A contrastive linguistic analysis of the essays of Oshindonga speaking grade 9 learners of Jan Möhr Secondary School
Wolthuis et al. Report on the Rapid Grammar Collection workshop in Konabéré (Bobo Madare North)
Basheer et al. Mapping Arabic Text Studying Material With The Most Suitable Student Grade
Pemberton Usage-based Second Language Instruction: A Context-driven Multimedia Learning Approach
KR20170008624A (ko) 외국어 문장 학습과정을 통한 단어 추출 학습방법 및 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17876645

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 3027337

Country of ref document: CA

ENP Entry into the national phase

Ref document number: 2017876645

Country of ref document: EP

Effective date: 20181213

NENP Non-entry into the national phase

Ref country code: DE