WO2022149195A1 - プログラム、情報処理装置及び情報処理方法 - Google Patents

プログラム、情報処理装置及び情報処理方法 Download PDF

Info

Publication number
WO2022149195A1
WO2022149195A1 PCT/JP2021/000131 JP2021000131W WO2022149195A1 WO 2022149195 A1 WO2022149195 A1 WO 2022149195A1 JP 2021000131 W JP2021000131 W JP 2021000131W WO 2022149195 A1 WO2022149195 A1 WO 2022149195A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
text data
word
characters
learning
Prior art date
Application number
PCT/JP2021/000131
Other languages
English (en)
French (fr)
Inventor
勝行 成田
Original Assignee
株式会社イーコミュニケーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社イーコミュニケーション filed Critical 株式会社イーコミュニケーション
Priority to JP2021555212A priority Critical patent/JP7036483B1/ja
Priority to PCT/JP2021/000131 priority patent/WO2022149195A1/ja
Publication of WO2022149195A1 publication Critical patent/WO2022149195A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student

Definitions

  • the present invention relates to a program, an information processing device, and an information processing method.
  • Patent Document 1 discloses a technique for creating learning content in which characters in a part of an area are erased by performing a process of hiding a highlighted portion in a document image read by an information terminal. ..
  • the present invention has been made in view of these points so that the user can create learning content in which some characters are erased by using a document image having no highlighted part.
  • the purpose is to do.
  • the computer has a data acquisition unit for acquiring initial text data including a plurality of words, and at least the plurality of words included in the initial text data from the initial text data.
  • a data creation unit that creates learning text data in which at least a part of subsequent characters of one or more subsequent characters other than the first character of some words is deleted, and a display processing unit that displays the learning text data on the display unit. And make it work as.
  • the program further causes the computer to function as an operation reception unit that accepts an operation for setting the difficulty level of the learning text data, and the data creation unit is the difficulty level that the operation reception unit accepts the setting.
  • the subsequent character to be deleted may be determined from the one or more subsequent characters based on the above.
  • the data creation unit may delete the number of subsequent characters corresponding to the difficulty level among the one or more subsequent characters.
  • the data creation unit may delete the succeeding characters at the positions corresponding to the difficulty levels among the one or more succeeding characters.
  • the program has a recognition unit that recognizes a voice or a character input by the display processing unit in a state where the display processing unit displays the learning text data on the display unit, and the program corresponds to the learning text data. By comparing at least a part of the words included in the initial text data with the word corresponding to the voice or the character recognized by the recognition unit, the part of the subsequent characters can be found in the learning text data.
  • the recognition unit further functions as a word identification unit that identifies a word corresponding to the voice or character recognized by the recognition unit, and the display processing unit performs the learning displayed on the display unit.
  • the word specified by the word identification unit may be updated from the non-displayed state to the displayed state.
  • the word identification unit compares the word following the word specified immediately before in the initial text data with the word corresponding to the voice or character recognized by the recognition unit, and specifies when the comparison results match.
  • the display processing unit displays information indicating that there is an error in the voice or character corresponding to the next word when the comparison results do not match. May be controlled.
  • the word identification unit starts from a comparison between a word corresponding to a position specified before the recognition unit starts recognizing a voice or a character and a word corresponding to the voice or a character recognized by the recognition unit. May be good.
  • the data creation unit can store at least a part of the plurality of words included in the initial text data.
  • the learning text data may be created by associating the part of the words with a figure stored in the storage unit.
  • the information processing apparatus includes a data acquisition unit that acquires initial text data including a plurality of words, and at least one of the plurality of words included in the initial text data from the initial text data.
  • a data creation unit that creates learning text data in which at least a part of subsequent characters of one or more subsequent characters other than the first character of a word in a part is deleted, and a display processing unit that displays the learning text data on a display unit. , Have.
  • the information processing method includes a step of acquiring initial text data including a plurality of words executed by a computer, and the plurality of words included in the initial text data from the initial text data.
  • FIG. 1 is a diagram for explaining an outline of an application program (hereinafter, referred to as “this application”) according to the present embodiment.
  • FIG. 1 is a diagram showing learning text data created by an information processing device that executes this application.
  • This application is a program executed by an information processing device such as a smartphone, tablet, personal computer or server.
  • This application is a program for creating content for learning a language. Specifically, when the information processing device executes this application, the information processing device processes the initial text data created in advance, and the information processing device processes at least a part of the plurality of words included in the initial text data. It is possible to create learning text data in which at least a part of subsequent characters other than the first character is invisible. In addition, the information processing device can recognize the voice input by the user who uses this application, check whether the word contained in the learning text data is correctly pronounced, and display the check result. ..
  • FIG. 1A shows an example of initial text data.
  • the text data including English words is shown in FIG. 1 (a)
  • the language is not limited to English and may be any language.
  • the language is not limited to the language currently used, and may be, for example, an ancient Japanese sentence.
  • FIG. 1B shows an example of learning text data created by an information processing apparatus.
  • the first character of all the words included in the initial text data is displayed, and the subsequent characters other than the first character are replaced with underlines.
  • the user reads aloud while looking at the learning text data shown in FIG. 1 (b).
  • many characters are not displayed, but since the first character of each word is displayed, it is easy for the user to remember what kind of word it was, so that the word is not fixed to the user. Suitable for learning.
  • the information processing apparatus determines the ratio of the succeeding characters to be displayed according to the difficulty level set by the user, for example.
  • the configuration and operation of the information processing apparatus will be described in detail.
  • FIG. 2 is a diagram showing the configuration of the information processing apparatus 1.
  • the information processing device 1 is a smartphone or tablet capable of capturing images of books such as textbooks and magazines.
  • the information processing device 1 includes an image pickup unit 11, a communication unit 12, an operation unit 13, a display unit 14, a voice input unit 15, a storage unit 16, and a control unit 17.
  • the control unit 17 includes an operation reception unit 171, a data acquisition unit 172, a data creation unit 173, a display processing unit 174, a voice recognition unit 175, and a word identification unit 176.
  • the image pickup unit 11 has an image pickup element, and creates initial text data by capturing a text such as a textbook or a magazine according to a user's operation.
  • the image pickup unit 11 inputs the created initial text data to the operation reception unit 171.
  • the communication unit 12 is a communication interface for transmitting and receiving data to and from an external device (for example, a computer).
  • the communication unit 12 has, for example, a wireless communication controller for accessing a mobile communication network or Wi-Fi (registered trademark).
  • the communication unit 12 receives, for example, initial text data from an external device, and inputs the received initial text data to the data acquisition unit 172.
  • the operation unit 13 is a device for receiving user operations, for example, a touch panel.
  • the operation unit 13 inputs information indicating the user's operation position to the operation reception unit 171.
  • the display unit 14 is a display for displaying various information.
  • the display unit 14 displays an operation screen for the user to create learning text data, and displays the created learning text data.
  • the voice input unit 15 is a microphone that converts the input sound into an electric signal.
  • the voice input unit 15 inputs, for example, an electric signal based on the voice input by the user to the voice recognition unit 175.
  • the voice input unit 15 may input a digital signal generated by analog / digital conversion of an electric signal to the voice recognition unit 175.
  • the storage unit 16 has a storage medium such as a ROM (Read Only Memory) and a RAM (Random Access Memory).
  • the storage unit 16 stores a program executed by the control unit 17. Further, the storage unit 16 stores initial text data and learning text data.
  • the control unit 17 has, for example, a CPU (Central Processing Unit). By executing the program stored in the storage unit 16, the control unit 17 functions as an operation reception unit 171, a data acquisition unit 172, a data creation unit 173, a display processing unit 174, a voice recognition unit 175, and a word identification unit 176. do.
  • a CPU Central Processing Unit
  • the operation reception unit 171 accepts the user's operation. Specifically, the operation reception unit 171 specifies the content of the user's operation based on the operation position input from the operation unit 13.
  • the operation reception unit 171 is, for example, an operation of operating the imaging unit 11 to acquire the initial text data, an operation of acquiring the initial text data from an external device, an operation of creating learning text data based on the initial text data, and the like. Accepts operations for setting the difficulty level of the learning text data to be created.
  • the data acquisition unit 172 acquires initial text data including a plurality of words in response to receiving an operation for acquiring initial text data from the operation unit 13.
  • the data acquisition unit 172 acquires initial text data from, for example, the image pickup unit 11, but may acquire initial text data from the communication unit 12.
  • the initial text data may be image data including an image of characters, or may be code data including code information corresponding to characters.
  • the data acquisition unit 172 inputs the acquired initial text data to the data acquisition unit 172.
  • the data creation unit 173 creates learning text data based on the initial text data input from the data acquisition unit 172.
  • the data creation unit 173 converts the initial text data of the image data into a character code by, for example, performing OCR (Optical Character Recognition) processing prior to creating the text data for learning. Convert to initial text data composed of.
  • OCR Optical Character Recognition
  • the data creation unit 173 specifies a plurality of words included in the initial text data in order to create the text data for learning.
  • the data creation unit 173 identifies a plurality of words based on, for example, the presence or absence of a space between letters.
  • the data creation unit 173 is for learning by deleting at least a part of the following characters of one or more succeeding characters other than the first character of at least a part of a plurality of words included in the initial text data from the initial text data.
  • Create text data As shown in FIG. 1 (b), the data creation unit 173 deletes all subsequent characters other than the first character of all the specified words and converts them into underlined characters, blanks, predetermined symbols, or the like. , Create learning text data in which some characters other than the first character of the word cannot be seen.
  • the data creation unit 173 inputs the created learning text data to the display processing unit 174.
  • the display processing unit 174 causes the display unit 14 to display the text data for learning. Further, although the details will be described later, when the user reads aloud, the display processing unit 174 does not display the word specified by the word identification unit 176 in the learning text data displayed on the display unit 14. Update to the displayed state.
  • the voice recognition unit 175 is a kind of recognition unit that recognizes the user's voice input from the voice input unit 15.
  • the voice recognition unit 175 recognizes characters corresponding to the input voice.
  • the voice recognition unit 175 may recognize a word corresponding to the input voice by referring to the voice recognition dictionary stored in the storage unit 16.
  • the voice recognition unit 175 recognizes the voice input while the display processing unit 174 displays the learning text data on the display unit 14.
  • the voice recognition unit 175 starts the voice recognition process in response to, for example, the display processing unit 174 displaying the learning text data on the display unit 14.
  • the voice recognition unit 175 notifies the word identification unit 176 in the order in which the user pronounces the words included in the recognized voice.
  • the word identification unit 176 identifies a word included in the learning text data among the words composed of the characters input from the voice recognition unit 175. First, the word identification unit 176 compares at least a part of the words included in the initial text data corresponding to the learning text data with the words corresponding to the voice recognized by the voice recognition unit 175. Based on the comparison result, the word identification unit 176 identifies a word corresponding to the voice recognized by the voice recognition unit 175 among a plurality of words from which some subsequent characters are deleted in the learning text data.
  • the learning text data may contain multiple same words. Therefore, the word identification unit 176 starts comparison with, for example, a word designated as a word to start pronunciation by the user and a word corresponding to the voice recognized by the voice recognition unit 175.
  • the word identification unit 176 includes, for example, a word corresponding to a position specified in the learning text data before the voice recognition unit 175 starts recognition of the voice, and a word corresponding to the voice recognized by the voice recognition unit 175. Start with a comparison.
  • FIG. 3 is a diagram for explaining the operation of the word identification unit 176.
  • FIG. 3 shows the state of the learning text data displayed on the display unit 14 when the user specifies the start position of the learning text data as the position to start pronunciation and reads aloud up to “Do you play the piano”. Is shown.
  • the word identification unit 176 corresponds to a position specified in the learning text data among a plurality of words in the learning text data that are not specified as words that match the words recognized by the voice recognition unit 175.
  • the words to be compared (for example, the first word) are compared sequentially.
  • the voice recognized by the voice recognition unit 175 is "do"
  • the first word of the first sentence is specified as the word pronounced by the user.
  • the voice recognized by the voice recognition unit 175 is "you”
  • the second word of the first sentence is specified as the word pronounced by the user.
  • the word specifying unit 176 controls the display processing unit 174 so that the specified word is displayed on the display unit 14 by notifying the display processing unit 174 of the specified word.
  • the word identification unit 176 compares the word following the word specified immediately before in the initial text data with the word corresponding to the voice recognized by the voice recognition unit 175, and when the comparison results match, the specified word. Is displayed on the display unit 14.
  • the word identification unit 176 controls the display processing unit 174 so that the display unit 14 displays information indicating that there is an error in the voice corresponding to the next word when the comparison results do not match.
  • the display processing unit 174 displays a frame line surrounding the "e____” portion as information indicating that the input voice has an error, so that the word pronounced by the user has an error. It is shown.
  • the means for displaying the information indicating that there is an error is not limited to the display of the frame line, but may be the display of the first character in a color different from other parts, the display of the warning text, or the like. By looking at such a display, the user can recognize that the word he pronounced was incorrect.
  • the word identification unit 176 continues to specify the word when the next word is input from the voice recognition unit 175 even after determining that the comparison results do not match. However, it is possible that a user who realizes that he / she has made a mistake wants to start over. Therefore, when the word identification unit 176 determines that the comparison results do not match, the display processing unit 174 displays an image for performing operations such as "start over from the beginning" and "start over from the beginning of the wrong sentence". It may be displayed in.
  • the display processing unit 174 displays the learning text data in the initial state shown in FIG. 1B again, and the word identification unit 176. Resumes from identifying the first word in the learning text data.
  • the display processing unit 174 returns the wrong sentence to the initial state shown in FIG. 1 (b) and identifies the word. Part 176 resumes from identifying the first word of the erroneous sentence.
  • the data creation unit 173 is not limited to the learning text data that displays only the first character of each word as shown in FIG. 1, and creates learning text data having different contents according to the user's setting or the user's level. You may. Hereinafter, variations of the learning text data created by the data creation unit 173 will be described.
  • the data creation unit 173 may determine the subsequent characters to be deleted from one or more subsequent characters based on the difficulty level at which the operation reception unit 171 accepts the setting. The data creation unit 173 deletes, for example, the number of subsequent characters corresponding to the difficulty level among one or more subsequent characters. The data creation unit 173 may delete the succeeding characters at the positions corresponding to the difficulty levels among one or more succeeding characters.
  • FIG. 4 is a diagram showing an example of learning text data created based on the set difficulty level.
  • FIG. 4A shows an example in which the number of subsequent characters to be deleted is determined by the difficulty level.
  • Level 1 corresponds to the easiest level and level 3 corresponds to the most difficult level.
  • the data creation unit 173 allows the user to start the practice from level 1 and gradually increase the difficulty level. Because it can be done, learning can proceed efficiently.
  • FIG. 4B shows an example in which the position of the succeeding character to be deleted is determined by the difficulty level.
  • the first letter of each word and the two letters following the first letter that is, the first three letters
  • the other letters are displayed.
  • the characters have been deleted.
  • the first character, the second character, and the fourth character from the beginning of each word are displayed, and other characters are deleted.
  • the number of characters displayed is the same as that of level 1, but it is more difficult than that of level 1 in which characters are continuously shown from the beginning.
  • the sentence corresponding to level 3 the first character, the third character, and the fifth character (odd-numbered characters) from the beginning of each word are displayed, and other characters are deleted.
  • the lack of continuous characters in this way makes it even more difficult than level 2.
  • the data creation unit 173 may change the combination of the number and position of the characters to be displayed among one or more subsequent characters according to the difficulty level set by the user. That is, the data creation unit 173 may delete the succeeding characters determined by the combination of the number and the position corresponding to the difficulty level. For example, the data creation unit 173 creates learning data in which the higher the difficulty level, the smaller the number of displayed characters, and the longer the average interval between the displayed characters. By creating learning text data based on the combination of the number and position of characters to be displayed in this way, the data creation unit 173 can create learning text data according to more difficulty levels. can.
  • FIG. 5 is a diagram showing an example of other learning text data.
  • the data creation unit 173 may create learning text data by deleting at least a part of the succeeding characters only for the words of the part of speech specified by the user.
  • FIG. 5A the characters following the noun are deleted.
  • FIG. 5B the characters following the verb are deleted.
  • the operation reception unit 171 may receive input of a plurality of words that the user wants to learn in advance, and may store the received plurality of words in the storage unit 16.
  • the data creation unit 173 may delete at least a part of the succeeding characters only for the words stored in the storage unit 16 as the words that the user wants to learn.
  • FIG. 6 is a diagram showing an example of other learning text data.
  • the data creation unit 173 stores at least a part of a plurality of words included in the initial text data by referring to the storage unit 16 that stores the word and the diagram showing the meaning of the word in association with each other.
  • the learning text data as shown in FIG. 6 may be created by replacing the figure stored in the storage unit 16 in association with the word of the unit.
  • the data creation unit 173 replaces "piano" in the initial text data with a piano figure and "guitar” with a guitar figure. Then, the data creation unit 173 deletes the succeeding characters for some other words.
  • the first letter of the word replaced with the figure may be displayed together with the figure so that the learner who has just started learning can easily remember the word.
  • the operation reception unit 171 accepts an operation of selecting whether to replace the word with a combination of the figure and the first character or the word with only the figure, and the data creation unit 173 responds to the user's selection operation. You may switch whether to display the first character with. By operating the data creation unit 173 in this way, it is possible to create learning text data suitable for the user according to the learning stage of the user.
  • FIG. 7 is a flowchart showing the flow of processing in the information processing apparatus 1. The flowchart shown in FIG. 7 starts from the time when the operation for creating the learning text data is performed.
  • the data acquisition unit 172 acquires the initial text data by, for example, operating the image pickup unit 11 (S11).
  • the data creation unit 173 creates learning text data by deleting at least a part of subsequent characters of at least a part of the initial text data (S12), and the display processing unit 174 is created.
  • the learning text data is displayed on the display unit 14 (S13).
  • the voice recognition unit 175 monitors whether or not the user has started pronunciation (S14). When the voice recognition unit 175 determines that the user has pronounced (YES in S14), the voice recognition unit 175 recognizes a word included in the input voice (S15). The word identification unit 176 identifies the same word as the word recognized by the voice recognition unit 175 in the learning text data (S16).
  • the word identification unit 176 compares the word corresponding to the input voice with the word in the learning text data and determines that the correct word is pronounced (YES in S17), the display processing unit 174 is pronounced. The characters of the word are displayed on the display unit 14 (S18). When the word identification unit 176 determines that the correct word has not been pronounced (NO in S17), the display processing unit 174 causes the display unit 14 to display information indicating that a mistake has been made (S19). The control unit 17 repeats the processes from S15 to S19 until the operation reception unit 171 accepts the operation of ending the learning using the learning text data (between NO in S20).
  • FIG. 8 is a diagram showing the configuration of the information processing apparatus 2 according to the modified example.
  • the information processing device 2 is a computer capable of communicating with a user terminal such as a smartphone or a tablet via a network such as the Internet and a mobile communication network.
  • the information processing apparatus 2 acquires initial text data from the user terminal and creates learning text data based on the acquired text data. Then, by transmitting the created learning text data to the user terminal, the learning text data is displayed on the user terminal.
  • the information processing device 2 has a communication unit 21 together with a storage unit 16 and a control unit 17 that the information processing device 1 shown in FIG. 2 has.
  • the communication unit 21 is a communication interface for transmitting and receiving data via a network.
  • the functions of the storage unit 16 and the control unit 17 are equivalent to the functions of each unit of the information processing apparatus 1 described with reference to FIG.
  • the information processing device is that the data acquisition unit 172 acquires the initial text data via the communication unit 21 and the display processing unit 174 transmits the learning data to the user terminal via the communication unit 21. It is different from 1.
  • the information processing device 1 and the information processing device 2 function in conjunction with each other as an information processing device, and are part of a data acquisition unit 172, a data creation unit 173, a display processing unit 174, a voice recognition unit 175, and a word identification unit 176.
  • the information processing device 1 may execute the function, and the information processing device 2 may execute the other functions.
  • the information processing device 1 and the information processing device 2 may have a character recognition unit that recognizes characters input by the user as a recognition unit in place of the voice recognition unit 175 or in addition to the voice recognition unit 175.
  • the character recognition unit recognizes the character input by the user with the pen in the operation unit 13 or the character specified by using the keyboard, and inputs the recognized character to the word identification unit 176.
  • the word identification unit 176 identifies a word by handling the character recognized by the character recognition unit in the same manner as the voice recognized by the voice recognition unit 175, and determines that the character input by the user has an error.
  • the display processing unit 174 is controlled so that the display unit 14 displays the information indicating that there is.
  • the data creation unit 173 deletes at least a part of the following characters of one or more succeeding characters other than the first character of at least a part of the plurality of words included in the initial text data.
  • the data is created, and the display processing unit 174 displays the learning text data on the display unit 14 that can be visually recognized by the user.
  • the user creates learning content in which some characters are erased using a document image having no highlighted portion. can. Therefore, the user can easily create the learning content in which some characters are not displayed without processing the initial text data, so that the learning efficiency is improved.
  • Information processing device 2 Information processing device 11 Image pickup unit 12 Communication unit 13 Operation unit 14 Display unit 15 Voice input unit 16 Storage unit 171 Operation reception unit 172 Data acquisition unit 173 Data creation unit 174 Display processing unit 175 Voice recognition unit 176 Word identification unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本発明のプログラムは、コンピュータを、複数の単語を含む初期テキストデータを取得するデータ取得部172と、初期テキストデータから、初期テキストデータに含まれる複数の単語の少なくとも一部の単語の先頭文字以外の一以上の後続文字の少なくとも一部の後続文字を削除した学習用テキストデータを作成するデータ作成部173と、学習用テキストデータを表示部に表示させる表示処理部174と、として機能させる。

Description

プログラム、情報処理装置及び情報処理方法
 本発明は、プログラム、情報処理装置及び情報処理方法に関する。
 従来、情報端末を使用して学習用のコンテンツを作成する方法が知られている。特許文献1には、情報端末が読み取った文書画像において強調表示されている箇所を隠す処理を施すことにより、一部の領域の文字が消された学習用コンテンツを作成する技術が開示されている。
特開2016-62442号公報
 従来の技術においては、強調表示されている箇所がない文書画像に基づいて、一部の文字が消された学習用コンテンツを作成することができないという問題があった。
 そこで、本発明はこれらの点に鑑みてなされたものであり、ユーザが、強調表示されている箇所がない文書画像を用いて、一部の文字が消された学習用コンテンツを作成できるようにすることを目的とする。
 本発明の第1の態様に係るプログラムは、コンピュータを、複数の単語を含む初期テキストデータを取得するデータ取得部と、前記初期テキストデータから、前記初期テキストデータに含まれる前記複数の単語の少なくとも一部の単語の先頭文字以外の一以上の後続文字の少なくとも一部の後続文字を削除した学習用テキストデータを作成するデータ作成部と、前記学習用テキストデータを表示部に表示させる表示処理部と、として機能させる。
 前記プログラムは、前記コンピュータを、前記学習用テキストデータの難易度を設定するための操作を受け付ける操作受付部としてさらに機能させ、前記データ作成部は、前記操作受付部が設定を受け付けた前記難易度に基づいて、前記一以上の後続文字のうち削除する後続文字を決定してもよい。
 前記データ作成部は、前記一以上の後続文字のうち前記難易度に対応する数の後続文字を削除してもよい。
 前記データ作成部は、前記一以上の後続文字のうち前記難易度に対応する位置の後続文字を削除してもよい。
 前記プログラムは、前記コンピュータを、前記表示処理部が前記学習用テキストデータを前記表示部に表示させた状態で入力された音声又は文字を認識する認識部と、前記学習用テキストデータに対応する前記初期テキストデータに含まれる前記複数の単語の少なくとも一部の単語と前記認識部が認識した音声又は文字に対応する単語とを比較することにより、前記学習用テキストデータにおいて前記一部の後続文字が削除された複数の単語のうち、前記認識部が認識した音声又は文字に対応する単語を特定する単語特定部と、としてさらに機能させ、前記表示処理部は、前記表示部に表示された前記学習用テキストデータにおいて、前記単語特定部が特定した単語を、表示されていない状態から表示された状態に更新してもよい。
 前記単語特定部は、前記初期テキストデータにおける、直前に特定した単語の次の単語と前記認識部が認識した音声又は文字に対応する単語とを比較し、比較した結果が一致した場合に、特定した単語を前記表示部に表示させ、比較した結果が一致しない場合に、前記次の単語に対応する音声又は文字に誤りがあることを示す情報を前記表示部に表示させるように前記表示処理部を制御してもよい。
 前記単語特定部は、前記認識部が音声又は文字の認識を開始する前に指定された位置に対応する単語と、前記認識部が認識した音声又は文字に対応する単語との比較から開始してもよい。
 前記データ作成部は、単語と、当該単語の意味を示す図と、を関連付けて記憶する記憶部を参照することにより、前記初期テキストデータに含まれる前記複数の単語の少なくとも一部の単語を、前記一部の単語に関連付けて前記記憶部に記憶された図に置換することにより前記学習用テキストデータを作成してもよい。
 本発明の第2の態様に係る情報処理装置は、複数の単語を含む初期テキストデータを取得するデータ取得部と、前記初期テキストデータから、前記初期テキストデータに含まれる前記複数の単語の少なくとも一部の単語の先頭文字以外の一以上の後続文字の少なくとも一部の後続文字を削除した学習用テキストデータを作成するデータ作成部と、前記学習用テキストデータを表示部に表示させる表示処理部と、を有する。
 本発明の第3の態様に係る情報処理方法は、コンピュータが実行する、複数の単語を含む初期テキストデータを取得するステップと、前記初期テキストデータから、前記初期テキストデータに含まれる前記複数の単語の少なくとも一部の単語の先頭文字以外の一以上の後続文字の少なくとも一部の後続文字を削除した学習用テキストデータを作成するステップと、前記学習用テキストデータを表示部に表示させるステップと、を有する。
 本発明によれば、ユーザが、強調表示されている箇所がない文書画像を用いて、一部の文字が消された学習用コンテンツを作成できるという効果を奏する。
情報処理装置が作成する学習用テキストデータを示す図である。 情報処理装置の構成を示す図である。 単語特定部の動作について説明するための図である。 設定された難易度に基づいて作成した学習用テキストデータの例を示す図である。 他の学習用テキストデータの例を示す図である。 他の学習用テキストデータの例を示す図である。 情報処理装置における処理の流れを示すフローチャートである。 変形例に係る情報処理装置の構成を示す図である。
[アプリケーションプログラムの概要]
 図1は、本実施形態に係るアプリケーションプログラム(以下、「本アプリ」という。)の概要を説明するための図である。図1は、本アプリを実行する情報処理装置が作成する学習用テキストデータを示す図である。本アプリは、スマートフォン、タブレット、パーソナルコンピュータ又はサーバ等の情報処理装置により実行されるプログラムである。
 本アプリは、言語を学習するためのコンテンツを作成するためのプログラムである。具体的には、情報処理装置が本アプリを実行することにより、情報処理装置は、予め作成された初期テキストデータを加工して、初期テキストデータに含まれる複数の単語の少なくとも一部の単語における先頭文字以外の後続文字の少なくとも一部を見えない状態にした学習用テキストデータを作成することができる。また、情報処理装置は、本アプリを利用するユーザが入力した音声を認識し、学習用テキストデータに含まれている単語が正しく発音されているかどうかをチェックし、チェック結果を表示することもできる。
 図1(a)は、初期テキストデータの一例を示している。図1(a)においては英語の単語を含むテキストデータを示しているが、言語は英語に限らず任意の言語でよい。言語は、現在使用されている言語に限らず、例えば日本の古文であってもよい。
 図1(b)は、情報処理装置が作成する学習用テキストデータの一例を示している。図1(b)に示す例においては、初期テキストデータに含まれる全ての単語の先頭文字が表示され、先頭文字以外の後続文字が下線に置換されている。ユーザは、図1(b)に示す学習用テキストデータを見ながら音読する。図1(b)においては多くの文字が表示されていないが、各単語の先頭文字が表示されていることにより、どのような単語であったかをユーザが思い出しやすいので、ユーザに定着していない単語の学習に好適である。
 詳細については後述するが、先頭文字以外の複数の後続文字のうち、一部の後続文字を表示してもよい。表示される後続文字の割合が低ければ低いほど難易度が上がるので、情報処理装置は、例えばユーザにより設定された難易度に応じて、表示させる後続文字の割合を決定する。以下、情報処理装置の構成及び動作を詳細に説明する。
[情報処理装置1の構成]
 図2は、情報処理装置1の構成を示す図である。情報処理装置1は、教科書や雑誌等の書籍の画像を撮影することができるスマートフォン又はタブレットである。情報処理装置1は、撮像部11と、通信部12と、操作部13と、表示部14と、音声入力部15と、記憶部16と、制御部17と、を有する。制御部17は、操作受付部171と、データ取得部172と、データ作成部173と、表示処理部174と、音声認識部175と、単語特定部176と、を有する。
 撮像部11は、撮像素子を有しており、ユーザの操作に応じて教科書又は雑誌等のテキストを撮像することにより初期テキストデータを作成する。撮像部11は、作成した初期テキストデータを操作受付部171に入力する。
 通信部12は、外部装置(例えばコンピュータ)との間でデータを送受信するための通信インターフェースである。通信部12は、例えば携帯通信網やWi-Fi(登録商標)にアクセスするための無線通信コントローラを有する。通信部12は、例えば外部装置から初期テキストデータを受信し、受信した初期テキストデータをデータ取得部172に入力する。
 操作部13は、ユーザの操作を受け付けるためのデバイスであり、例えばタッチパネルである。操作部13は、ユーザの操作位置を示す情報を操作受付部171に入力する。
 表示部14は、各種の情報を表示するためのディスプレイである。表示部14は、ユーザが学習用テキストデータを作成するための操作画面を表示したり、作成された学習用テキストデータを表示したりする。
 音声入力部15は、入力された音を電気信号に変換するマイクロフォンである。音声入力部15は、例えばユーザが入力した音声に基づく電気信号を音声認識部175に入力する。音声入力部15は、電気信号をアナログ/デジタル変換して生成したデジタル信号を音声認識部175に入力してもよい。
 記憶部16は、ROM(Read Only Memory)及びRAM(Random Access Memory)等の記憶媒体を有する。記憶部16は、制御部17が実行するプログラムを記憶している。また、記憶部16は、初期テキストデータ及び学習用テキストデータを記憶する。
 制御部17は、例えばCPU(Central Processing Unit)を有する。制御部17は、記憶部16に記憶されたプログラムを実行することにより、操作受付部171、データ取得部172、データ作成部173、表示処理部174、音声認識部175及び単語特定部176として機能する。
 操作受付部171は、ユーザの操作を受け付ける。具体的には、操作受付部171は、操作部13から入力された操作位置に基づいて、ユーザの操作の内容を特定する。操作受付部171は、例えば、初期テキストデータを取得するために撮像部11を動作させる操作、初期テキストデータを外部装置から取得させる操作、初期テキストデータに基づいて学習用テキストデータを作成させる操作、作成する学習用テキストデータの難易度を設定するための操作等を受け付ける。
 データ取得部172は、操作部13から、初期テキストデータを取得するための操作を受けたことに応じて、複数の単語を含む初期テキストデータを取得する。データ取得部172は、例えば撮像部11から初期テキストデータを取得するが、通信部12から初期テキストデータを取得してもよい。初期テキストデータは、文字の画像を含む画像データであってもよく、文字に対応するコード情報を含むコードデータであってもよい。データ取得部172は、取得した初期テキストデータをデータ取得部172に入力する。
 データ作成部173は、データ取得部172から入力された初期テキストデータに基づいて、学習用テキストデータを作成する。データ作成部173は、初期テキストデータが画像データである場合、学習用テキストデータの作成に先立って、例えばOCR(Optical Character Recognition)処理を実行することにより、画像データの初期テキストデータを、文字コードにより構成される初期テキストデータに変換する。
 データ作成部173は、学習用テキストデータを作成するために、初期テキストデータに含まれる複数の単語を特定する。データ作成部173は、例えば文字と文字との間のスペースの有無に基づいて複数の単語を特定する。データ作成部173は、初期テキストデータから、初期テキストデータに含まれる複数の単語の少なくとも一部の単語の先頭文字以外の一以上の後続文字の少なくとも一部の後続文字を削除することにより学習用テキストデータを作成する。データ作成部173は、例えば、特定した全ての単語の先頭文字以外の全ての後続文字を削除して下線、空白又は所定の記号等に変換することにより、図1(b)に示したように、単語の先頭文字以外の一部の文字が見えない状態の学習用テキストデータを作成する。データ作成部173は、作成した学習用テキストデータを表示処理部174に入力する。
 表示処理部174は、学習用テキストデータを表示部14に表示させる。また、詳細については後述するが、表示処理部174は、ユーザが音読をした場合、表示部14に表示された学習用テキストデータにおいて単語特定部176が特定した単語を、表示されていない状態から表示された状態に更新する。
 音声認識部175は、音声入力部15から入力されたユーザの音声を認識する認識部の一種である。音声認識部175は、入力された音声に対応する文字を認識する。音声認識部175は、記憶部16に記憶された音声認識用の辞書を参照することにより、入力された音声に対応する単語を認識してもよい。音声認識部175は、表示処理部174が学習用テキストデータを表示部14に表示させた状態で入力された音声を認識する。音声認識部175は、例えば、表示処理部174が学習用テキストデータを表示部14に表示させたことに応じて、音声認識処理を開始する。音声認識部175は、認識した音声に含まれている単語を、ユーザが発音した順番に単語特定部176に通知する。
 単語特定部176は、音声認識部175から入力された文字により構成される単語のうち、学習用テキストデータに含まれている単語を特定する。単語特定部176は、まず、学習用テキストデータに対応する初期テキストデータに含まれる複数の単語の少なくとも一部の単語と音声認識部175が認識した音声に対応する単語とを比較する。単語特定部176は、比較した結果に基づいて、学習用テキストデータにおいて一部の後続文字が削除された複数の単語のうち、音声認識部175が認識した音声に対応する単語を特定する。
 学習用テキストデータには、同じ単語が複数含まれている場合がある。そこで、単語特定部176は、例えば、ユーザが発音を開始する単語として指定した単語から、音声認識部175が認識した音声に対応する単語との比較を開始する。単語特定部176は、例えば、音声認識部175が音声の認識を開始する前に学習用テキストデータにおいて指定された位置に対応する単語と、音声認識部175が認識した音声に対応する単語との比較から開始する。
 図3は、単語特定部176の動作について説明するための図である。図3は、ユーザが、発音を開始する位置として学習用テキストデータの先頭位置を指定し、「Do you play the piano」までを音読した時点で表示部14に表示された学習用テキストデータの状態を示している。
 単語特定部176は、学習用テキストデータ内の複数の単語のうち、音声認識部175が認識した単語と一致する単語として特定されていない単語のうち、学習用テキストデータにおいて指定された位置に対応する単語(例えば、先頭の単語)から順次比較する。図3に示す例の場合、音声認識部175が認識した音声が「do」である場合に、1文目の先頭の単語を、ユーザが発音した単語として特定する。続いて、音声認識部175が認識した音声が「you」である場合に、1文目の2番目の単語を、ユーザが発音した単語として特定する。
 単語特定部176は、特定した単語を表示処理部174に通知することにより、特定した単語を表示部14に表示させるように表示処理部174を制御する。単語特定部176は、初期テキストデータにおける、直前に特定した単語の次の単語と音声認識部175が認識した音声に対応する単語とを比較し、比較した結果が一致した場合に、特定した単語を表示部14に表示させる。単語特定部176は、比較した結果が一致しない場合に、次の単語に対応する音声に誤りがあることを示す情報を表示部14に表示させるように表示処理部174を制御する。
 図3に示す例の場合、単語特定部176は、1文目の「piano」の後に音声認識部175が「each」を認識した場合、「each」が初期テキストデータにおける「piano」の次の単語と一致しないことから、比較した結果が一致しないと判定する。図3においては、入力された音声に誤りがあることを示す情報として、「e____」の部分を囲む枠線を表示処理部174が表示することにより、ユーザが発音した単語に誤りがあることが示されている。誤りがあることを示す情報を表示する手段は枠線の表示に限らず、他の箇所と異なる色による先頭文字の表示、又は警告テキストの表示等であってもよい。ユーザは、このような表示を見ることにより、自身が発音した単語が間違っていたということを認識することができる。
 単語特定部176は、比較した結果が一致しないと判定した後にも、次の単語が音声認識部175から入力されると、単語の特定を継続する。しかし、間違えたことに気付いたユーザが、最初からやり直したいと考えるということも想定される。そこで、単語特定部176が比較した結果が一致しないと判定した場合、表示処理部174は、「最初からやり直す」、「間違えた文の最初からやり直す」といった操作をするための画像を表示部14に表示させてもよい。
 操作受付部171が、「最初からやり直す」を選択する操作を受け付けた場合、表示処理部174は、図1(b)に示した初期状態の学習用テキストデータを再び表示し、単語特定部176は、学習用テキストデータの最初の単語の特定から再開する。操作受付部171が「間違えた文の最初からやり直す」を選択する操作を受け付けた場合、表示処理部174は、ユーザが間違えた文を図1(b)に示した初期状態に戻し、単語特定部176は、間違えた文の最初の単語の特定から再開する。
[学習用テキストデータのバリエーション]
 データ作成部173は、図1に示したように各単語の先頭文字だけを表示するという学習用テキストデータに限らず、ユーザの設定又はユーザのレベルに応じて異なる内容の学習用テキストデータを作成してもよい。以下、データ作成部173が作成する学習用テキストデータのバリエーションについて説明する。
 データ作成部173は、操作受付部171が設定を受け付けた難易度に基づいて、一以上の後続文字のうち削除する後続文字を決定してもよい。データ作成部173は、例えば、一以上の後続文字のうち難易度に対応する数の後続文字を削除する。データ作成部173は、一以上の後続文字のうち難易度に対応する位置の後続文字を削除してもよい。
 図4は、設定された難易度に基づいて作成した学習用テキストデータの例を示す図である。図4(a)は、難易度によって削除する後続文字の数が決定されているという例を示している。レベル1は最も簡単なレベルであり、レベル3は最も難しいレベルに対応している。
 図4(a)のレベル1に対応する文では、各単語の先頭文字と先頭文字に続く2文字(すなわち先頭から3文字)が表示されており、他の文字が削除されている。レベル2に対応する文では、各単語の先頭文字と先頭文字に続く1文字(すなわち先頭から2文字)が表示されており、他の文字が削除されている。レベル3に対応する文では、各単語の先頭文字のみが表示されており、他の文字が削除されている。データ作成部173が、このように、ユーザにより設定された難易度に応じて削除する文字の割合を変えることで、ユーザは、レベル1から練習を始めて、徐々に難易度を上げていくことができるので、効率良く学習を進めることができる。
 図4(b)は、難易度によって削除する後続文字の位置が決定されているという例を示している。図4(b)のレベル1に対応する文では、図4(a)と同様に、各単語の先頭文字と先頭文字に続く2文字(すなわち先頭から3文字)が表示されており、他の文字が削除されている。レベル2に対応する文では、各単語の先頭から1文字目、2文字目及び4文字目の文字が表示されており、他の文字が削除されている。表示される文字数はレベル1と同じであるが、先頭から連続して文字が示されているレベル1に比べて難しくなっている。レベル3に対応する文では、各単語の先頭から1文字目、3文字目、5文字目(奇数番目の文字)が表示されており、他の文字が削除されている。このように連続した文字が示されていないことで、レベル2よりもさらに難しくなっている。
 データ作成部173は、ユーザにより設定された難易度に応じて、一以上の後続文字のうち、表示する文字の数と位置の組み合わせを変えてもよい。すなわち、データ作成部173は、難易度に対応する数と位置の組み合わせにより定められる後続文字を削除してもよい。データ作成部173は、例えば、難易度が高いほど、表示される文字の数が少なく、表示される文字と文字との平均的な間隔が長い学習用データを作成する。データ作成部173がこのように、表示する文字の数と位置の組み合わせに基づいて学習用テキストデータを作成することにより、より多くの難易度の段階に応じた学習用テキストデータを作成することができる。
 図5は、他の学習用テキストデータの例を示す図である。データ作成部173は、ユーザにより指定された品詞の単語に限定して、後続文字の少なくとも一部の文字を削除することにより、学習用テキストデータを作成してもよい。図5(a)においては、名詞の後続文字が削除された状態になっている。図5(b)においては、動詞の後続文字が削除された状態になっている。データ作成部173がこのように特定の品詞の単語の後続文字を削除することにより、ユーザが品詞ごとに学習を進めることが可能になる。
 操作受付部171は、予め、ユーザが学習したい複数の単語の入力を受け付けて、受け付けた複数の単語を記憶部16に記憶させてもよい。この場合、データ作成部173は、ユーザが学習したい単語として記憶部16に記憶された単語に限定して、後続文字の少なくとも一部の文字を削除してもよい。情報処理装置1がこのように動作することで、ユーザは、自身が記憶できていない単語を重点的に学習することができる。
 図6は、他の学習用テキストデータの例を示す図である。データ作成部173は、単語と、当該単語の意味を示す図と、を関連付けて記憶する記憶部16を参照することにより、初期テキストデータに含まれる複数の単語の少なくとも一部の単語を、一部の単語に関連付けて記憶部16に記憶された図に置換することにより、図6に示すような学習用テキストデータを作成してもよい。
 図6に示す例の場合、記憶部16に、「piano」とピアノの図とが関連付けて記憶されており、「guitar」とギターの図とが関連付けて記憶されている。この場合、データ作成部173は、初期テキストデータにおける「piano」をピアノの図に置換し、「guitar」をギターの図に置換する。そして、データ作成部173は、他の一部の単語については、後続文字を削除している。データ作成部173がこのように単語に対応する図を含む学習用テキストデータを作成することで、視覚と聴覚とを使いながらユーザが学習することができるので、学習効果が向上する。
 なお、図6に示す学習用テキストデータにおいては、一部の単語が図に置換され、一部の単語の後続文字が削除されて下線に置換されていたが、一部の単語が図に置換され、他の単語は全ての文字が表示されていてもよい。
 また、学習を始めて間もない学習者が単語を思い出しやすいように、図に置換されている単語の先頭文字を図とともに表示されてもよい。操作受付部171は、単語を図と先頭文字の組み合わせに置換するか、単語を図のみに置換するかを選択する操作を受け付けて、データ作成部173は、ユーザの選択操作に応じて、図とともに先頭文字を表示するか否かを切り替えてもよい。データ作成部173がこのように動作することで、ユーザの学習段階に応じて、ユーザに適した学習用テキストデータを作成することができる。
[情報処理装置1における処理の流れ]
 図7は、情報処理装置1における処理の流れを示すフローチャートである。図7に示すフローチャートは、学習用テキストデータを作成する操作が行われた時点から開始している。
 学習用テキストデータを作成する操作が行われると、データ取得部172は、例えば撮像部11を動作させることにより初期テキストデータを取得する(S11)。データ作成部173は、初期テキストデータのうち、少なくとも一部の単語の少なくとも一部の後続文字を削除することにより、学習用テキストデータを作成し(S12)、表示処理部174が、作成された学習用テキストデータを表示部14に表示させる(S13)。
 表示部14に学習用テキストデータが表示された状態において、音声認識部175は、ユーザが発音を開始したかどうかを監視する(S14)。音声認識部175は、ユーザが発音したと判定すると(S14においてYES)、入力された音声に含まれる単語を認識する(S15)。単語特定部176は、音声認識部175が認識した単語と同じ単語を学習用テキストデータにおいて特定する(S16)。
 単語特定部176が、入力された音声に対応する単語を学習用テキストデータ内の単語と比較し、正しい単語が発音されたと判定した場合(S17においてYES)、表示処理部174は、発音された単語の文字を表示部14に表示させる(S18)。正しい単語が発音されなかったと単語特定部176が判定した場合(S17においてNO)、表示処理部174は、間違えたことを示す情報を表示部14に表示させる(S19)。制御部17は、学習用テキストデータを用いた学習を終了する操作を操作受付部171が受け付けるまでの間(S20においてNOの間)、S15からS19までの処理を繰り返す。
[第1変形例]
 以上の説明においては、情報処理装置が撮像部11を有するスマートフォン又はタブレット等の情報処理装置1である場合を例示したが、情報処理装置はクラウド上のコンピュータ又はサーバであってもよい。図8は、変形例に係る情報処理装置2の構成を示す図である。
 情報処理装置2は、インターネット及び携帯通信網等のネットワークを介してスマートフォン又はタブレット等のユーザ端末と通信することができるコンピュータである。情報処理装置2は、ユーザ端末から初期テキストデータを取得し、取得したテキストデータに基づいて学習用テキストデータを作成する。そして、作成した学習用テキストデータをユーザ端末に送信することにより、ユーザ端末に学習用テキストデータを表示させる。
 情報処理装置2は、図2に示した情報処理装置1が有していた記憶部16及び制御部17とともに通信部21を有する。通信部21は、ネットワークを介してデータを送受信するための通信インターフェースである。記憶部16及び制御部17の機能は、図2を参照しながら説明した情報処理装置1の各部の機能と同等である。ただし、データ取得部172が通信部21を介して初期テキストデータを取得するという点と、表示処理部174が、通信部21を介して学習用データをユーザ端末に送信するという点で情報処理装置1と異なっている。
 なお、情報処理装置1及び情報処理装置2が連動して情報処理装置として機能し、データ取得部172、データ作成部173、表示処理部174、音声認識部175及び単語特定部176の一部の機能を情報処理装置1が実行し、他の機能を情報処理装置2が実行するように構成されていてもよい。
[第2変形例]
 以上の説明においては、情報処理装置1及び情報処理装置2が認識部の一例として音声認識部175を有している場合を例示した。情報処理装置1及び情報処理装置2は、認識部として、音声認識部175に代えて又は音声認識部175に加えて、ユーザが入力した文字を認識する文字認識部を有してもよい。文字認識部は、ユーザが操作部13においてペン入力した文字、又はキーボードを使用指定入力した文字を認識し、認識した文字を単語特定部176に入力する。単語特定部176は、音声認識部175が認識した音声と同様に、文字認識部が認識した文字を扱うことにより単語を特定し、ユーザが入力した文字に誤りがあると判定した場合に、誤りがあることを示す情報を表示部14に表示させるように表示処理部174を制御する。
[第3変形例]
 以上の説明においては、撮像部11が撮像した画像に基づいて初期テキストデータを作成するという例を示したが、初期テキストデータの作成方法は任意である。例えば、情報処理装置1又は情報処理装置2が、映画若しくは音楽等のコンテンツに含まれる音声、又はユーザにより入力された音声を認識して初期テキストデータを作成してもよい。
[情報処理装置1及び情報処理装置2による効果]
 以上説明したように、データ作成部173は、初期テキストデータに含まれる複数の単語の少なくとも一部の単語の先頭文字以外の一以上の後続文字の少なくとも一部の後続文字を削除した学習用テキストデータを作成し、表示処理部174は、学習用テキストデータをユーザが視認できる表示部14に表示させる。情報処理装置1又は情報処理装置2がこのように構成されていることで、ユーザが、強調表示されている箇所がない文書画像を用いて、一部の文字が消された学習用コンテンツを作成できる。したがって、ユーザは、初期テキストデータを加工することなく、一部の文字が表示されていない学習用コンテンツを容易に作成できるので、学習効率が向上する。
 以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。
1 情報処理装置
2 情報処理装置
11 撮像部
12 通信部
13 操作部
14 表示部
15 音声入力部
16 記憶部
17 制御部
21 通信部
171 操作受付部
172 データ取得部
173 データ作成部
174 表示処理部
175 音声認識部
176 単語特定部
 

Claims (10)

  1.  コンピュータを、
     複数の単語を含む初期テキストデータを取得するデータ取得部と、
     前記初期テキストデータから、前記初期テキストデータに含まれる前記複数の単語の少なくとも一部の単語の先頭文字以外の一以上の後続文字の少なくとも一部の後続文字を削除した学習用テキストデータを作成するデータ作成部と、
     前記学習用テキストデータを表示部に表示させる表示処理部と、
     として機能させるためのプログラム。
  2.  前記コンピュータを、
     前記学習用テキストデータの難易度を設定するための操作を受け付ける操作受付部としてさらに機能させ、
     前記データ作成部は、前記操作受付部が設定を受け付けた前記難易度に基づいて、前記一以上の後続文字のうち削除する後続文字を決定する、
     請求項1に記載のプログラム。
  3.  前記データ作成部は、前記一以上の後続文字のうち前記難易度に対応する数の後続文字を削除する、
     請求項2に記載のプログラム。
  4.  前記データ作成部は、前記一以上の後続文字のうち前記難易度に対応する位置の後続文字を削除する、
     請求項2又は3に記載のプログラム。
  5.  前記コンピュータを、
     前記表示処理部が前記学習用テキストデータを前記表示部に表示させた状態で入力された音声又は文字を認識する認識部と、
     前記学習用テキストデータに対応する前記初期テキストデータに含まれる前記複数の単語の少なくとも一部の単語と前記認識部が認識した音声又は文字に対応する単語とを比較することにより、前記学習用テキストデータにおいて前記一部の後続文字が削除された複数の単語のうち、前記認識部が認識した音声又は文字に対応する単語を特定する単語特定部と、
     としてさらに機能させ、
     前記表示処理部は、前記表示部に表示された前記学習用テキストデータにおいて、前記単語特定部が特定した単語を、表示されていない状態から表示された状態に更新する、
     請求項1から4のいずれか一項に記載のプログラム。
  6.  前記単語特定部は、前記初期テキストデータにおける、直前に特定した単語の次の単語と前記認識部が認識した音声又は文字に対応する単語とを比較し、比較した結果が一致した場合に、特定した単語を前記表示部に表示させ、比較した結果が一致しない場合に、前記次の単語に対応する音声又は文字に誤りがあることを示す情報を前記表示部に表示させるように前記表示処理部を制御する、
     請求項5に記載のプログラム。
  7.  前記単語特定部は、前記認識部が音声又は文字の認識を開始する前に前記学習用テキストデータにおいて指定された位置に対応する単語と、前記認識部が認識した音声又は文字に対応する単語との比較から開始する、
     請求項5又は6に記載のプログラム。
  8.  前記データ作成部は、単語と、当該単語の意味を示す図と、を関連付けて記憶する記憶部を参照することにより、前記初期テキストデータに含まれる前記複数の単語の少なくとも一部の単語を、前記一部の単語に関連付けて前記記憶部に記憶された図に置換することにより前記学習用テキストデータを作成する、
     請求項1から7のいずれか一項に記載のプログラム。
  9.  複数の単語を含む初期テキストデータを取得するデータ取得部と、
     前記初期テキストデータから、前記初期テキストデータに含まれる前記複数の単語の少なくとも一部の単語の先頭文字以外の一以上の後続文字の少なくとも一部の後続文字を削除した学習用テキストデータを作成するデータ作成部と、
     前記学習用テキストデータを表示部に表示させる表示処理部と、
     を有する情報処理装置。
  10.  コンピュータが実行する、
     複数の単語を含む初期テキストデータを取得するステップと、
     前記初期テキストデータから、前記初期テキストデータに含まれる前記複数の単語の少なくとも一部の単語の先頭文字以外の一以上の後続文字の少なくとも一部の後続文字を削除した学習用テキストデータを作成するステップと、
     前記学習用テキストデータを表示部に表示させるステップと、
     を有する情報処理方法。
     
     
     
     
PCT/JP2021/000131 2021-01-05 2021-01-05 プログラム、情報処理装置及び情報処理方法 WO2022149195A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021555212A JP7036483B1 (ja) 2021-01-05 2021-01-05 プログラム、情報処理装置及び情報処理方法
PCT/JP2021/000131 WO2022149195A1 (ja) 2021-01-05 2021-01-05 プログラム、情報処理装置及び情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/000131 WO2022149195A1 (ja) 2021-01-05 2021-01-05 プログラム、情報処理装置及び情報処理方法

Publications (1)

Publication Number Publication Date
WO2022149195A1 true WO2022149195A1 (ja) 2022-07-14

Family

ID=81213498

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/000131 WO2022149195A1 (ja) 2021-01-05 2021-01-05 プログラム、情報処理装置及び情報処理方法

Country Status (2)

Country Link
JP (1) JP7036483B1 (ja)
WO (1) WO2022149195A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0962175A (ja) * 1995-08-21 1997-03-07 Casio Comput Co Ltd 文書処理装置
JP2003271047A (ja) * 2002-03-19 2003-09-25 Yasunori Takara コンピュータ画面による言語学習に用いる訓練方式

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0962175A (ja) * 1995-08-21 1997-03-07 Casio Comput Co Ltd 文書処理装置
JP2003271047A (ja) * 2002-03-19 2003-09-25 Yasunori Takara コンピュータ画面による言語学習に用いる訓練方式

Also Published As

Publication number Publication date
JPWO2022149195A1 (ja) 2022-07-14
JP7036483B1 (ja) 2022-03-15

Similar Documents

Publication Publication Date Title
US8108772B2 (en) User-tailorable romanized chinese text input systems and methods
KR102043419B1 (ko) 아동언어학습을 위한 음성인식 기반 학습 시스템 및 학습방법
WO2017200101A1 (ja) 情報処理装置及びその制御方法、コンピュータプログラム
US10733235B2 (en) Aid for dyslexic readers
JP2015176000A (ja) 電子機器およびプログラム
KR102145278B1 (ko) 게이미피케이션을 적용한 언어학습방법
KR101107472B1 (ko) 표의문자 학습방법 및 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
KR101871490B1 (ko) 성조 컬러표시 장치 및 방법
JP7036483B1 (ja) プログラム、情報処理装置及び情報処理方法
KR20180130743A (ko) 단어 연상 암기 방법 및 시스템
KR20130058840A (ko) 외국어 학습방법
KR20120139327A (ko) 문자 표시 장치 및 방법, 이를 이용한 온라인 한글 교육 시스템
JP2019174525A (ja) 学習支援装置、学習支援方法およびプログラム
CN114661196A (zh) 一种习题展示方法、装置、电子设备以及存储介质
JPH0830598A (ja) 学習または文書作成の支援装置
KR20140075994A (ko) 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법
KR20160086169A (ko) 알파벳과 한글 상호간 오버래핑 방식이 적용된 학습용 단말기를 이용한 파닉스 학습 방법 및 학습용 단말기를 이용한 파닉스 학습 방법을 실행시키는 프로그램이 기록된 기록매체
KR20110086320A (ko) 학습기능을 지원하는 어학 데이터 표시 장치 및 방법
US20060074636A1 (en) Language learning system and method
KR20230145684A (ko) 음절 분리를 통한 영어 학습 시스템
CN112926586A (zh) 一种文本识别的方法、装置、可读存储介质和电子设备
CN115904172A (zh) 电子设备、学习辅助系统、学习处理方法以及程序
KR20220161977A (ko) 단말기의 음성인식 기능과 tts 기능을 이용한 상호 음성전달에 의한 대화 형 외국어 학습방법
JP2016170219A (ja) 情報表示装置およびプログラム
JP6446801B2 (ja) 表示制御装置及びプログラム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2021555212

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21917423

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21917423

Country of ref document: EP

Kind code of ref document: A1