WO2020026754A1 - 情報処理装置、情報処理方法、および、プログラム - Google Patents

情報処理装置、情報処理方法、および、プログラム Download PDF

Info

Publication number
WO2020026754A1
WO2020026754A1 PCT/JP2019/027592 JP2019027592W WO2020026754A1 WO 2020026754 A1 WO2020026754 A1 WO 2020026754A1 JP 2019027592 W JP2019027592 W JP 2019027592W WO 2020026754 A1 WO2020026754 A1 WO 2020026754A1
Authority
WO
WIPO (PCT)
Prior art keywords
learner
conversation
displayed
control unit
information processing
Prior art date
Application number
PCT/JP2019/027592
Other languages
English (en)
French (fr)
Inventor
一弘 渡邊
慶彦 池長
真理香 野末
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US17/250,485 priority Critical patent/US20210295727A1/en
Priority to JP2020533384A priority patent/JP7380564B2/ja
Priority to CN201980050256.4A priority patent/CN112513958B/zh
Publication of WO2020026754A1 publication Critical patent/WO2020026754A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/046Interoperability with other network applications or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/08Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations
    • G09B5/12Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations different stations being capable of presenting different information simultaneously
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
    • G09B7/04Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student characterised by modifying the teaching programme in response to a wrong answer, e.g. repeating the question, supplying a further explanation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/02User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages

Definitions

  • the present disclosure relates to an information processing device, an information processing method, and a program.
  • Patent Literature 1 discloses that a problem is provided to a user according to the learning level of the user.
  • Patent Document 1 the learning degree is calculated based on the contents of the answer (the correct answer rate of the question, the time required for the answer, the questionnaire result for the question, etc.). It is also assumed that the contents of the sentence cannot be understood halfway. In the prior art, it has been difficult to understand how far the learner has read and understood the sentence.
  • an information processing apparatus an information processing method, and an information processing method that can give a feeling of immersion to a question and sequentially calculate a learner's understanding level more appropriately by sequentially displaying the question sentences in a conversation format. And suggest a program.
  • control to sequentially display question data in a conversation format and control to advance the display in the conversation format in accordance with a transition trigger operation by a learner, to display the conversation format displayed sequentially.
  • the present invention proposes an information processing apparatus including a control unit that records a place where an advice request operation is performed by the learner and calculates a degree of understanding of the learner based on the place of the advice request operation.
  • the processor sequentially displays the question data in a conversation format, advances the display in the conversation format in accordance with a transition trigger operation by a learner, and displays the conversation format in the sequentially displayed conversation format.
  • An information processing method comprising: recording a location where an advice request operation is performed by the learner on a display; and calculating the degree of understanding of the learner based on the location of the advice request operation. Suggest.
  • the computer controls the problem data to be sequentially displayed in a conversation format, and controls the display in the conversation format to proceed in accordance with a transition trigger operation by a learner, and the conversation format displayed sequentially.
  • FIG. 1 is a diagram for describing an outline of a learning support system according to an embodiment of the present disclosure. It is a block diagram showing an example of composition of a problem management server by this embodiment.
  • FIG. 4 is a diagram illustrating an example of question data according to the embodiment. It is a screen transition diagram explaining an example of the display of the question data in the conversation format according to the present embodiment. It is a screen transition diagram explaining an example of the display of the question data in the conversation format according to the present embodiment. It is a screen transition diagram explaining an example of the display of the question data in the conversation format according to the present embodiment.
  • FIG. 7 is a diagram illustrating an example of display of hint information registered in advance according to the embodiment.
  • FIG. 11 is a diagram illustrating another display example of a hammer of each learner in learning in a group format according to the present embodiment.
  • a learning support system gives a sense of immersion to a problem by sequentially displaying the problem sentences in a conversational style when presenting the problem to the learner using a computer, It is possible to calculate the degree of understanding more appropriately.
  • FIG. 1 is a diagram illustrating an overall configuration of a learning support system according to an embodiment of the present disclosure.
  • the learning support system according to the present embodiment includes an answer terminal 1 and a question management server 2, which are connected via a network 3. Further, a teacher terminal 4 may be connected to the network 3.
  • the answer terminal 1 is an information processing terminal, and is realized by, for example, a PC (personal computer), a tablet terminal, a smartphone, a mobile phone terminal, a transparent / non-transparent HMD (Head Mounted Display), or the like.
  • the answer terminal 1 displays the question data received from the question management server 2 on a display unit, and transmits the answer data input by the learner to the question management server 2.
  • the problem management server 2 has a database for storing the problem data.
  • the question data may be a question that has already been digitized, may be manually registered by the question creator, or may be hand-written or printed characters captured by a scanner or the like and digitized and registered. Is also good.
  • the “question data” includes data on the question (question data and the like) and data on the correct answer (correct answer and commentary data and the like).
  • the question data may be text, images (still images, moving images), and audio.
  • the question management server 2 transmits the question data to the answer terminal 1 and receives the answer data transmitted from the answer terminal 1.
  • the question management server 2 can also perform correction processing on the answer data. Specific functions of the problem management server 2 will be described later with reference to FIG.
  • the teacher terminal 4 is an information processing terminal similar to the answer terminal 1, and is realized by, for example, a PC (personal computer), a tablet terminal, a smartphone, a mobile phone terminal, a transparent / non-transparent HMD (Head Mounted Display), or the like. Is done.
  • a PC personal computer
  • a tablet terminal a smartphone
  • a mobile phone terminal a transparent / non-transparent HMD (Head Mounted Display), or the like. Is done.
  • HMD Head Mounted Display
  • FIG. 2 is a block diagram illustrating an example of the configuration of the problem management server 2 according to the present embodiment.
  • the problem management server 2 has a control unit 200, a communication unit 210, and a storage unit 220.
  • Control unit 200 The control unit 200 functions as an arithmetic processing device and a control device, and controls the overall operation in the problem management server 2 according to various programs.
  • the control unit 200 is realized by an electronic circuit such as a CPU (Central Processing Unit) and a microprocessor. Further, the control unit 200 may include a ROM (Read Only Memory) for storing a program to be used and calculation parameters and the like, and a RAM (Random Access Memory) for temporarily storing parameters and the like that change as appropriate.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the control unit 200 also functions as a question sentence conversion unit 201, a display control unit 202, a meta information setting unit 203, a learner information management unit 204, and an understanding level calculation unit 205.
  • the problem sentence conversion unit 201 performs a process of converting the problem data into a conversation format. Specifically, the question sentence conversion unit 201 performs, for example, a process of dividing a question sentence (text data) included in the question data according to a phrase, a paragraph, or the like, and changing the style to a conversation tone. In addition, the question sentence conversion unit 201 automatically inserts a learner's hammer, question, or the like into the conversation using the learner's name, icon image, or the like. Further, the question sentence conversion unit 201 can also insert the image information included in the question data as a part of the speech balloon of the conversation.
  • the question sentence conversion unit 201 can also insert the image information included in the question data as a part of the speech balloon of the conversation.
  • the problem sentence is converted into a conversational form to eliminate the monotony of the problem sentence, and by automatically inserting a learner's companion, the problem sentence can be converted into a conversation with the learner.
  • This makes it possible to read the book, thereby increasing the immersion of the learner and attracting the learner's interest.
  • information such as audio and video can be embedded in the balloon displayed as a conversation, in addition to text and images. The learner can maximize or reproduce by clicking on the embedded information.
  • the display control unit 202 controls the question terminal (conversation sentence) in the conversation format converted in this way so as to be sequentially displayed on the answering terminal 1. Specifically, the display control unit 202 controls the display so that the conversation is sequentially advanced in accordance with the transition trigger operation by the learner operating the answer terminal 1.
  • FIGS. 1-10 an example of changing the question data to the conversation format and displaying according to the present embodiment will be described with reference to FIGS.
  • FIG. 3 is a diagram showing an example of the question data 30 according to the present embodiment.
  • FIGS. 4 to 6 are screen transition diagrams for explaining an example of a display in a conversation format generated based on the question data 30 shown in FIG.
  • the question sentence conversion unit 201 for example, from the first sentence of the question sentence data as shown in FIG. 3 "connects five chains as shown in the figure to form one large loop.” (Insert image) and generate a conversation such as “Connect five chains to make one big circle.”
  • the display controller 202 and the teacher and the learner at the answer terminal 1 On the conversation screen of the teacher.
  • "But there are rules to connect chains. can be generated.
  • a connective word may be added to the conversation sentence as appropriate.
  • the algorithm for changing the conversation tone is not particularly limited, and an existing tone changing algorithm may be used.
  • the display control unit 202 performs display control for proceeding with a conversation in response to a transition trigger operation by a learner. Specifically, as shown in the screen transition diagrams of FIGS. 4 to 6, a “next” button is displayed, and the learner understands the content and taps the “next” button (ie, the transition trigger). When an operation is performed), the next sentence is displayed, so that the conversation is sequentially displayed.
  • the display control unit 202 displays a teacher icon image 401, a balloon image 402 that displays a dialogue message indicating the start of a question, and a “next” button 403, as shown in a screen 400 in FIG.
  • the learner's information here, the name "Akari-chan”
  • the display control unit 202 displays a learner icon image 411 and a balloon image displaying a companion such as “OK” as shown in a screen 410 of FIG. 412 is displayed, the learner's response is automatically performed on the conversation screen, and the teacher icon image 413 and the conversation sentence generated based on the first sentence of the question sentence data are displayed.
  • a balloon image 414 displaying "Look! Is displayed. Image information included in the question sentence data is also inserted into the balloon image 414.
  • the learner's companion or the like is automatically inserted into the conversation screen, and the next conversation is performed. Is displayed, the conversation between the subject and the learner is automatically established, and the immersive feeling of the learner who is watching can be increased.
  • the display control unit 202 displays a learner icon image 421 and a balloon image displaying a companion / question such as “what is this?” As shown in a screen 420 in FIG. 422 is automatically displayed.
  • the learner's companion / question to be automatically displayed may be randomly selected (or generated) from several patterns prepared in advance, or an appropriate companion to the previous question on the question side may be selected ( Or generation).
  • a keyword included in the immediately preceding question-side speech may be extracted to generate a companion / question. For example, for a question on the question side of “there is a rule XX”, a question is generated using “rule?” And the keyword “rule”.
  • the display control unit 202 connects the teacher icon image 423 and the conversation sentence “5 chains generated based on the first sentence of the question sentence data, as shown in a screen 420 of FIG.
  • a balloon image 424 indicating "Make a ring" is displayed.
  • the learner taps the “next” button 425 when the conversation so far is understood.
  • the screen 420 also displays an “unknown” button 426 to be selected when the conversation so far cannot be understood.
  • the “don't know” button 426 may be displayed when the corresponding hint information or class information is registered. The processing when the “don't know” button 426 is tapped will be described later with reference to FIG.
  • the “transition trigger operation by the learner” is not limited to tapping of the “next” button or the like.
  • a learning operation such as a predetermined touch operation (double tap or the like) on the screen, a scroll operation, a line of sight movement, or the like is performed. Any operation may be used as long as the user understands the content and instructs to proceed to the next conversation.
  • the display control unit 202 controls the display of the next conversation sentence every time the learner taps the “next” button, as shown in the screen 430 of FIG. 5, the screen 440 of FIG. 6, and the screen 450. Do. As the user proceeds to the screen 450 in FIG. 6, an "input answer" button 452 is displayed, and the learner can input an answer. If the answer is not known, the learner taps the "I do not know at all” button 451. When the “I don't know at all” button 451 is tapped, the problem management server 2 may display pre-registered hint information or a title with reduced difficulty, or notify the teacher terminal 4. Is also good.
  • the meta information setting unit 203 corrects the question data as meta information as hint information (explanatory text for assisting in understanding the problem) and difficulty information (difficulty of the problem.
  • Information, class information (class ID, etc.), problem category (for example, a keyword of knowledge (for example, two-digit addition, multiplication, squaring, etc.) asked for the problem), a premise knowledge keyword (two digits) , Multiplication, squaring, etc.) can be set.
  • the meta information may be set by the question creator or individually by a teacher who uses the question data.
  • the meta information may be set as appropriate for each conversation sentence generated by decomposing the question sentence data (text data) included in the question data.
  • the setting of the meta information in the teacher terminal 4 will be described later with reference to FIG.
  • the display control unit 202 displays an “unknown” button so that the learner can make an advice request as necessary. The processing when the “don't know” button is selected will be described below with reference to FIG.
  • FIG. 7 is a diagram illustrating an example of display of hint information registered in advance.
  • a balloon image showing a learner icon image 461 and a line such as “Well, tell me a little more?”
  • a screen 460. 462 is displayed, and further, a teacher icon image 463 and a balloon image 464 indicating hint information are displayed.
  • the learner taps the “next” button 465 when the question is solved by the hint information.
  • the display control unit 202 displays a continuation of the question sentence (for example, the screen 430 in FIG. 5).
  • a screen 460 displaying hint information is displayed.
  • a “don't know” button may be displayed.
  • the display control unit 202 may display hint information corresponding to the degree of understanding of the learner.
  • the understanding level can be calculated by the understanding level calculation unit 205 based on the learning history of the learner up to now (for example, the correct answer rate, the learning progress rate, the operation position of the “don't know” button, etc.).
  • the understanding level calculation unit 205 may present the type question, calculate the learner's level of understanding based on the answer to the type question, and display corresponding hint information (for example, the degree of difficulty is higher than that of the current question). Present a low typology question and display hint information for correct answer or hint information for wrong answer).
  • FIG. 8 is a diagram for explaining an example of displaying a type question registered in advance and having a lower degree of difficulty than the current question when the answer to the question is wrong.
  • the display control unit 202 displays the teacher icon image 472 and a balloon image 473 indicating a type problem whose difficulty is lower than the current problem. indicate. This allows a smooth transition to the subject.
  • the learner can tap the “input answer” button 474 shown on the screen 470 and input the answer.
  • the display control unit 202 can appropriately select a type problem to be displayed according to how to make a mistake. For example, first, some themes relating to knowledge (keywords) being asked in the current problem and having a lower degree of difficulty than the current problem are presented. Then, when the user mistakes these titles a plurality of times, the display control unit 202 presents a question asking the premise knowledge of the current problem as the subject.
  • the prerequisite knowledge can be preset in the current problem as one of the meta information.
  • control is performed to display a “don't know” button at a location where hint information or a class is registered in advance.
  • Button may be displayed so that the understanding status of the learner can be collected at any time.
  • the control unit 200 stores the operation of the “don't know” button in the storage unit 220 (as a learner action or learning history). In addition to recording, for example, notification may be made to the teacher terminal 4, transition to the class of the current question, or switching to the next question may be performed. If the teacher is checking the answer status of the student (learner) in real time, the teacher may be notified to the teacher terminal 4 so that the teacher can directly respond to points that the student does not know. The case where the teacher responds directly will be described below with reference to FIG.
  • FIG. 9 is a diagram illustrating an example of a case in which the teacher terminal 4 is notified when a “don't know” button is tapped.
  • the problem management server 2 notifies the teacher terminal 4 (notifies that the student is not known).
  • the teacher who operates the teacher terminal 4 can manually input the explanation.
  • the input description is displayed as a teacher icon image 481 (in this case, an actual teacher's icon image is displayed so that the teacher answers in real time, as shown on a screen 480 in FIG. 9). And a balloon image 482.
  • FIG. 10 is a view showing an example of a display screen of the teacher terminal 4.
  • progress information of participating learners is displayed in a list using, for example, learner icon images.
  • the progress information for example, a currently solved problem is displayed. If the progress is delayed (for example, from other learners), it may be indicated by a warning icon, a message, a background color, a character color, or the like.
  • the progress of “Akari-chan” is slower than the other students, so the progress information of “Akari-chan” is displayed in a different background color.
  • a warning icon when the learner operates the “don't know” button to notify the teacher, a warning icon, a message, a background color, a character color, or the like is used. You may make it. On the screen 600, it is notified by a warning icon and a message that "Nao-chan" is in a situation where the meaning of the problem is not understood.
  • the control unit 200 may register the explanatory text input (answered) by the teacher in this way as new meta information (hint information) in association with the conversational text. Thereby, when the student taps the “I do not know” button at the same place in the future, the registered explanatory note can be presented.
  • control unit 200 may notify the teacher terminal 4 even at a place where the explanatory note is registered in advance, and display the previously registered explanatory note when there is no response within a predetermined time. Good.
  • control unit 200 may preferentially select the explanatory text with a high correct answer rate according to the correct answer rate of the learner thereafter.
  • FIG. 11 is a diagram illustrating an example of the question editing screen according to the present embodiment.
  • a screen 500 in FIG. 11 is a screen (question editing screen) for editing the question sentence data automatically converted into the conversation format by the question sentence conversion unit 201. For example, it is displayed on the teacher terminal 4 or a creator terminal (not shown), and can be edited by the teacher or creator.
  • conversations “conversation-message” (sentences and images displayed in balloons) based on the question sentence data are sequentially displayed.
  • icon images (teacher icon image 511, learner icon image 516, etc.) to be displayed corresponding to each conversation are shown.
  • the conversation of the learner such as Atsumi is displayed on the right side, so that "right" is indicated.
  • the user can click the edit icon 512 to perform editing.
  • the edit icon 514 can perform editing.
  • registration can be performed by clicking an edit icon 514 at a location where a conversation to be associated (for example, a sentence 513) is displayed.
  • Such editing may be performed at an early stage or at a stage where learning has been performed to some extent.
  • the location where the learner has pressed the "I don't know" button and the number of people are clearly indicated by numerical values, icon size, color, type, etc. (for example, the display of the number of questionable people 517 displayed on the screen 500). 519).
  • the teacher can register the hint information or the thematic information at a place where the learner easily trips.
  • the learner information management unit 204 relates to the learner, such as the learner's profile (name, age, grade, gender, icon image, etc.) and the learning history (answer content, correct answer rate, learning progress, understanding, etc.). Information is recorded in the storage unit 220 and managed.
  • the learning history also includes an operation history such as where the "don't know" button was tapped (that is, where the advice request operation was performed in the conversation). By recording such an operation history, it is possible to more accurately grasp how far the learner has read (understood) the problem.
  • the understanding level calculation unit 205 calculates the learning understanding level based on the learning history of the learner. For example, the understanding level calculation unit 205 may calculate the understanding level based on the correct answer rate of the question or the progress (learning progress). In addition, the understanding level calculation unit 205 according to the present embodiment determines based on how far the learner understands the question sentence, that is, based on the timing of the advice request operation (whether the “unknown” button was tapped in the conversation). It is possible to accurately calculate the degree of understanding of learning.
  • question sentence data is displayed on one screen (or by scrolling or at once over a plurality of screens).
  • the question sentence data is sequentially displayed in a conversation format, and when the learner can understand the question sentence, the conversation is advanced by tapping the “next” button. If the learner does not understand the question sentence, at that time he taps the displayed "I do not know” button to obtain hint information and the like. In this way, in this way, the question sentence data is displayed sequentially in a conversational manner, and the learner's understanding of the question sentence can be more accurately determined based on the timing of the advice request operation such as tapping the "I don't know” button. In addition, it becomes possible to grasp.
  • the “advise request operation” is not limited to the tap operation of the “don't know” button, and may be any predetermined operation that indicates that the learner cannot understand the content and seeks advice.
  • the understanding level calculated by the understanding level calculation unit 205 is registered in the storage unit 220 as learner information.
  • the learner's understanding may be notified to the teacher terminal 4.
  • the understanding level calculation unit 205 may update the understanding level at any time according to the progress of the learner.
  • the display control unit 202 can change the difficulty level of the problem presented to the learner in accordance with the calculated degree of understanding, and can also present an appropriate explanation or explanation.
  • the display control unit 202 can improve the question sentence, appropriately select the next question, and dynamically give a theme according to the calculated understanding level.
  • the communication unit 210 transmits and receives data to and from an external device by wire or wirelessly.
  • the communication unit 210 includes, for example, a wired / wireless LAN (Local Area Network), or Wi-Fi (registered trademark), Bluetooth (registered trademark), a mobile communication network (LTE (Long Term Evolution), 3G (third generation mobile). With the communication method)), it is possible to communicate with the network 3 and transmit and receive data to and from the answer terminal 1 and the teacher terminal 4 via the network 3.
  • a wired / wireless LAN Local Area Network
  • Wi-Fi registered trademark
  • Bluetooth registered trademark
  • LTE Long Term Evolution
  • 3G third generation mobile
  • the storage unit 220 is realized by a ROM (Read Only Memory) that stores a program, an operation parameter, and the like used for the processing of the control unit 200, and a RAM (Random Access Memory) that temporarily stores appropriately changed parameters and the like.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the configuration of the problem management server 2 according to the present embodiment has been specifically described above.
  • the configuration of the problem management server 2 shown in FIG. 2 is an example, and the present embodiment is not limited to this.
  • at least a part of the configuration of the problem management server 2 may be in an external device, or at least a part of each function of the control unit 200 may be the answering terminal 1 or an information processing terminal whose communication distance is relatively close to the answering terminal 1 ( For example, it may be realized by a so-called edge server.
  • the question management server 2 does not necessarily have to have the question sentence conversion unit 201, and the data converted by the question sentence conversion unit 201 provided in the external device (for example, another server or the like) is stored in the question management server 201. May be transmitted.
  • the components of the control unit 200 and the storage unit 220 shown in FIG. 2 may be provided in the answering terminal 1, and all the processes of the learning support system according to the present embodiment may be executed by the application of the answering terminal 1.
  • FIG. 12 is a flowchart illustrating an example of a flow of an operation process of the learning support system according to the present embodiment.
  • the question management server 2 acquires question sentence data (step S103).
  • the question sentence data may be input from an information processing terminal (the teacher terminal 4 or the like) by a creator or a teacher, may be registered in the storage unit 220, or may be obtained from a network.
  • the question sentence conversion unit 201 of the question management server 2 converts the question sentence data into a conversation format (step S106).
  • the display control unit 202 of the question management server 2 starts displaying conversational question sentences on the learner's terminal (answer terminal 1) (step S109). Specifically, for example, the display control unit 202 causes the answer terminal 1 to display the screen 400 in FIG.
  • step S112 / No when the “don't know” button is pressed (step S112 / No), when the “next” button is pressed (tap, click, etc.) (step S121 / Yes), the display control unit 202 The process proceeds to the next conversation (step S124).
  • the display control unit 202 makes a transition to the screen 410 in FIG.
  • a learner icon image 411 and a balloon image 412 indicating a companion are displayed, followed by a teacher icon image 413 and a balloon image 414 indicating the next conversation.
  • the display control unit 202 sequentially displays the next conversation with a hammer or the like every time the “next” button is pressed (see FIGS. 4 to 6).
  • step S112 when the "don't know” button displayed on the conversation screen is pressed (tap, click, etc.) (step S112 / Yes), the learner information management unit 204 sets the "don't know” button as the learner's action history. Is recorded (step S115).
  • the display control unit 202 displays the hint information or the type problem registered corresponding to the location where the “I do not know” button is pressed (step S118). Specifically, for example, as shown in the screen transition diagram of FIG. 7, when the “don't know” button 426 displayed on the screen 420 is pressed, the display control unit 202 responds as shown on the screen 460. A balloon image 464 indicating the hint information is displayed.
  • control unit 200 determines whether the answer is correct and records it in the storage unit 220 as a learning history (step S130).
  • step S133 if the answer is incorrect (step S133 / No), the display control unit 202 displays the hint or the type question registered correspondingly (step S136).
  • step S133 if the answer is correct (step S133 / Yes), the display control unit 202 continues to display the next question in a conversation format until all questions are completed (step S139) (step S142).
  • the operation processing illustrated in FIG. 12 is an example, and the present disclosure is not limited to the example illustrated in FIG.
  • the present disclosure is not limited to the order of the steps illustrated in FIG.
  • At least one of the steps may be processed in parallel, or may be processed in the reverse order.
  • not all the processes illustrated in FIG. 12 need be executed.
  • all the processes illustrated in FIG. 12 need not always be performed by a single device.
  • the display control unit 202 may perform control to display a “don't know” button at a location where the corresponding hint information or the title information is registered. Further, the display control unit 202 may notify the teacher terminal 4 when the hint information or the thematic information is not registered at the position where the “don't know” button is pressed.
  • question data is sequentially displayed in a conversation tone on a conversation screen in which a plurality of learners participated.
  • a teacher icon image, a teacher conversation notifying the start of the question, and a “next” button are displayed in the same manner as shown in a screen 400 in FIG. .
  • icon images 621 and 623 of each learner who has tapped the “next” button and a balloon image 622 indicating the corresponding hammer , 624 are displayed.
  • the icon image 626 of the learner himself and the balloon image 627 showing the companion are displayed, and the icon group image 628 in which the icon images of the other learners are put together. May be displayed.
  • FIG. 14 is a diagram illustrating a display example when a “don't know” button is pressed in learning in the group format. For example, as shown in the screen 630 of FIG. 14, when another learner presses the “don't know” button, the icon image 631 of the learner and the balloon image 632 indicating the question are displayed on the answer terminals 1 of all participants. Will be displayed on the conversation screen.
  • a balloon image 634 indicating the corresponding hint information is displayed on the conversation screen of the answering terminal 1 of all participants together with the teacher icon image 633.
  • the answer information can also be hidden from other participants according to the settings.
  • the setting related to the display of the answer information may be set to display all, if the answer is incorrect, display / correct answer is not displayed, or not all display.
  • the teacher or the like may appropriately set display / non-display of the answer.
  • FIG. 16 is a diagram illustrating a case in which a class is set for a correct answerer.
  • the screen 650 in FIG. 16 is, for example, a conversation screen of the answering terminal 1 used by “Akari-chan”, and when “Akari-chan” inputs an answer and answers correctly, it is the same or difficult depending on the remaining time and the like.
  • a balloon image 653 indicating a higher class is displayed.
  • the message (speech balloon image) displayed on the conversation screen in the group learning described above may be stored in the storage unit 220 or the like together with the time information (it stores what message was displayed at what timing). Is done). In this way, even if another learner later solves the problem alone, by reproducing the flow of these messages, students who could not take the group study such as the class in real time in the same environment The problem can be solved.
  • FIG. 17 is a diagram illustrating a participant progress list screen in learning in a group format.
  • a progress button 705 is displayed as shown in a screen 700 in FIG.
  • a screen 720 showing a list of the progress statuses of the group study participants is displayed as shown on the right side of FIG.
  • the learner who has answered and the learner who has not answered are clearly indicated by the icon images.
  • the conversational display according to the present embodiment may be applied when displaying the commentary data.
  • the functions of the answer terminal 1, the question management server 2, or the teacher terminal 4 are exhibited by hardware such as the CPU, ROM, and RAM built in the answer terminal 1, the question management server 2, or the teacher terminal 4 described above. It is also possible to create a computer program for causing this to occur. Also, a computer-readable storage medium storing the computer program is provided.
  • a control to sequentially display the problem data in an interactive manner Controlling the display in the form of conversation in accordance with the transition trigger operation by the learner, For the conversational display that is sequentially displayed, the location where the advice request operation was performed by the learner is recorded,
  • An information processing apparatus comprising: a control unit that calculates a degree of understanding of the learner based on a position of the advice request operation.
  • the control unit includes: The information processing apparatus according to (1), which performs a process of converting the acquired question data into a conversation format.
  • the control unit includes: The information processing apparatus according to (2), wherein the question data is divided and the style is changed to a conversation tone as the conversion process into the conversation format.
  • the control unit includes: The information processing apparatus according to (3), wherein a conversion by the learner is automatically inserted as the conversion into the conversation format.
  • the control unit includes: A conversation based on the question data is displayed in association with a question side icon image, When the transition trigger operation is performed, the companion is displayed in association with the learner-side icon image, and the next conversation based on the question data is displayed in association with the question-side icon image.
  • the information processing apparatus according to 4).
  • the control unit includes: The information processing apparatus according to any one of (1) to (5), wherein, when the advice request operation is performed, advice information registered in advance in association with the information is displayed.
  • the control unit includes: The information processing apparatus according to (6), wherein hint information is displayed as the advice information.
  • the control unit includes: The information processing apparatus according to (6), wherein a title is displayed as the advice information.
  • the control unit includes: The information processing apparatus according to any one of (1) to (5), wherein a notification is sent to a teacher terminal when the advice request operation is performed.
  • the control unit includes: The information processing apparatus according to (9), wherein when there is no response from the teacher terminal for a predetermined time, the advice information registered and associated with a location where the advice request operation is performed is displayed.
  • the control unit includes: As described in any one of (1) to (10) above, a control is performed to display a learner progress list screen indicating the learner who has performed the advice request operation on the teacher terminal as the progress status of one or more learners.
  • the information processing apparatus according to any one of (1) to (11), wherein the display in the conversation format is shared by information processing terminals of a plurality of learners participating in group learning.
  • the processor Displaying the problem data sequentially in an interactive manner; Advancing the display in the form of conversation according to a transition trigger operation by a learner; For the conversational display that is sequentially displayed, recording a place where the learner has performed an advice request operation, Calculating an understanding level of the learner based on the location of the advice request operation.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

問題データを会話形式で順次表示する制御と、前記会話形式での表示を、学習者による遷移トリガ操作に応じて進めるよう制御し、前記順次表示される会話形式の表示に対し、前記学習者によりアドバイス要求操作が行われた箇所を記録し、前記アドバイス要求操作の箇所に基づいて、前記学習者の理解度を算出する、制御部(200)を備える、情報処理装置(2)。

Description

情報処理装置、情報処理方法、および、プログラム
 本開示は、情報処理装置、情報処理方法、および、プログラムに関する。
 近年、通信技術の発達により、インターネット等のネットワークを介してオンラインで利用者に授業を行ったり、問題を出題して解答させたりする技術が提案されている。
 例えば下記特許文献1には、利用者の学習度に応じた問題を利用者に提供することが開示されている。
国際公開第2016/088463号
 利用者に提示される問題の出題形式の一つとして、問題の条件や設問等が文章の形になっているものがある。このような文章題の文体は、「だ・である調」のような常体や、「です・ます調」のような敬体が用いられるが、いずれも文章が客観的に、単調に書かれており、学習者の没入感が少なく、退屈になり易く、集中力が続かないといったことがある。
 また、上記特許文献1では、解答内容(問題の正答率、解答への所要時間、および問題に対するアンケート結果等)に基づいて学習度を算出しているが、文章題の場合、学習者が問題文の内容を途中で理解できなくなっている場合も想定される。従来技術では、学習者が文章題をどこまで読み進めて理解しているかを把握することは困難であった。
 そこで、本開示では、問題文を会話形式で順次表示することで、問題への没入感を与えると共に、学習者の理解度をより適切に算出することが可能な情報処理装置、情報処理方法、およびプログラムを提案する。
 本開示によれば、問題データを会話形式で順次表示する制御と、前記会話形式での表示を、学習者による遷移トリガ操作に応じて進めるよう制御し、前記順次表示される会話形式の表示に対し、前記学習者によりアドバイス要求操作が行われた箇所を記録し、前記アドバイス要求操作の箇所に基づいて、前記学習者の理解度を算出する、制御部を備える、情報処理装置を提案する。
 本開示によれば、プロセッサが、問題データを会話形式で順次表示することと、前記会話形式での表示を、学習者による遷移トリガ操作に応じて進めることと、前記順次表示される会話形式の表示に対し、前記学習者によりアドバイス要求操作が行われた箇所を記録することと、前記アドバイス要求操作の箇所に基づいて、前記学習者の理解度を算出することと、を含む、情報処理方法を提案する。
 本開示によれば、コンピュータを、問題データを会話形式で順次表示する制御と、前記会話形式での表示を、学習者による遷移トリガ操作に応じて進めるよう制御し、前記順次表示される会話形式の表示に対し、前記学習者によりアドバイス要求操作が行われた箇所を記録し、前記アドバイス要求操作の箇所に基づいて、前記学習者の理解度を算出する、制御部として機能させるための、プログラムを提案する。
 以上説明したように本開示によれば、問題文を会話形式で順次表示することで、問題への没入感を与えると共に、学習者の理解度をより適切に算出することが可能となる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態による学習支援システムの概要について説明する図である。 本実施形態による問題管理サーバの構成の一例を示すブロック図である。 本実施形態による問題データの一例を示す図である。 本実施形態による問題データの会話形式での表示の一例について説明する画面遷移図である。 本実施形態による問題データの会話形式での表示の一例について説明する画面遷移図である。 本実施形態による問題データの会話形式での表示の一例について説明する画面遷移図である。 本実施形態による予め登録されたヒント情報の表示の一例について説明する図である。 本実施形態による予め登録された難易度の低い類型問題の表示の一例について説明する図である。 本実施形態による「わからない」ボタンがタップされた場合に、先生端末へ通知する場合の一例について説明する図である。 本実施形態による先生端末の表示画面例を示す図である。 本実施形態による問題編集画面の一例を示す図である。 本実施形態による学習支援システムの動作処理の流れの一例を示すフローチャートである。 本実施形態によるグループ形式での学習における各学習者の相槌の表示例を示す図である。 本実施形態によるグループ形式での学習における各学習者の相槌の他の表示例を示す図である。 本実施形態によるグループ形式での学習において「わからない」ボタンが押された場合の表示例について説明する図である。 本実施形態によるグループ形式での学習において他の参加者の正解解答を非表示にする例について説明する図である。 本実施形態によるグループ形式での学習における正解者に対して類題を出題する場合について説明する図である。 本実施形態によるグループ形式での学習における参加者進捗状況の一覧画面について説明する図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、説明は以下の順序で行うものとする。
 1.本開示の一実施形態による学習支援システムの概要
 2.問題管理サーバ2の構成例
 3.動作処理
 4.グループ形式の学習への適用例
 5.まとめ
 <1.本開示の一実施形態による学習支援システムの概要>
 本開示の一実施形態による学習支援システムは、コンピュータを用いて学習者に問題を提示する際に、問題文を会話形式で順次表示することで、問題への没入感を与えると共に、学習者の理解度をより適切に算出することを可能とする。
 図1は、本開示の一実施形態による学習支援システムの全体構成を説明する図である。図1に示すように、本実施形態による学習支援システムは、解答端末1と、問題管理サーバ2とを含み、これらはネットワーク3を介して接続されている。また、ネットワーク3には、さらに先生端末4が接続されていてもよい。
 解答端末1は情報処理端末であって、例えばPC(パーソナルコンピュータ)、タブレット端末、スマートフォン、携帯電話端末、透過型/非透過型のHMD(Head Mounted Display)等により実現される。解答端末1は、問題管理サーバ2から受信した問題データを表示部に表示したり、学習者により入力された解答データを問題管理サーバ2へ送信したりする。
 問題管理サーバ2は、問題データを格納するデータベースを有する。問題データは、既にデジタル化している問題をインポートしてもよいし、問題制作者により手動で登録されてもよいし、手書きや印刷した文字をスキャナ等で取り込み電子化して登録したものであってもよい。「問題データ」には、問題に関するデータ(問題文データなど)と、正解に関するデータ(正解や解説文データなど)が含まれる。また、問題データは、テキスト、画像(静止画、動画)、音声であってもよい。問題管理サーバ2は、問題データを解答端末1に送信したり、解答端末1から送信された解答データを受信したりする。また、問題管理サーバ2は、解答データに対して添削処理を行うことも可能である。問題管理サーバ2の具体的な機能については、図2を参照して後述する。
 先生端末4は、解答端末1と同様に情報処理端末であって、例えばPC(パーソナルコンピュータ)、タブレット端末、スマートフォン、携帯電話端末、透過型/非透過型のHMD(Head Mounted Display)等により実現される。先生端末4では、解答端末1を利用している各学習者の進捗状況や解答内容を確認したり、各学習者とメッセージのやり取りを行ったりすることが可能である。
 以上、本開示の一実施形態による学習支援システムの概要について説明した。続いて、本実施形態による学習支援システムに含まれる問題管理サーバ2の具体的な構成について説明する。
 <2.問題管理サーバ2の構成例>
 図2は、本実施形態による問題管理サーバ2の構成の一例を示すブロック図である。図2に示すように、問題管理サーバ2は、制御部200、通信部210、および記憶部220を有する。
 (制御部200)
 制御部200は、演算処理装置および制御装置として機能し、各種プログラムに従って問題管理サーバ2内の動作全般を制御する。制御部200は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部200は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
 また、本実施形態による制御部200は、問題文変換部201、表示制御部202、メタ情報設定部203、学習者情報管理部204、および理解度算出部205としても機能する。
 問題文変換部201は、問題データを会話形式に変換する処理を行う。具体的には、問題文変換部201は、例えば問題データに含まれる問題文(テキストデータ)を、文節や段落等に応じて区切り、文体を会話口調に変更する処理を行う。また、問題文変換部201は、学習者の氏名やアイコン画像等を用いて、学習者による相槌や質問等を自動的に会話に挿入する。また、問題文変換部201は、問題データに含まれる画像情報も、会話の吹き出しの一部として挿入し得る。このように、問題文を会話形式に変換することで問題文の単調さを解消し、また、学習者の相槌等を自動的に挿入することで、学習者との会話という形態で問題文を読ませることが可能となり、学習者の没入感を高め、また、学習者の興味を引くことが期待できる。なお、会話として表示する吹き出しには、テキストや画像の他、音声やビデオといった情報も埋め込むことが可能である。学習者は、埋め込まれた情報をクリックすることで最大化したり、再生したりすることができる。
 表示制御部202は、このように変換された会話形式の問題データ(会話文)を、解答端末1で順次表示するよう制御する。具体的には、表示制御部202は、解答端末1を操作する学習者による遷移トリガ操作に応じて、会話を順次進めるよう表示制御する。ここで、本実施形態による問題データの会話形式への変更、および表示の一例について、図3~図6を参照して説明する。
 図3は、本実施形態による問題データ30の一例を示す図である。また、図4~図6は、図3に示す問題データ30に基づいて生成した会話形式での表示の一例について説明する画面遷移図である。
 問題文変換部201は、例えば図3に示すような問題文データの第一文「図のように5本のチェーンをつないで、1つの大きな輪を作ります。」から、「まずは、この画像を見てみて(画像を挿入)」、「5本のチェーンをつないで、1つの大きな輪を作るんだ」といった会話文を生成し、表示制御部202により、解答端末1における先生と学習者の会話画面に、先生の発言として表示する。また、問題文データの第二文、「チェーンを開いたり、つないだりするには、下のようなルールがあります。」から、「でも、チェーンをつないだりするには、ルールがあるんだよ」といった会話文を生成し得る。会話文には、適宜、接続語を加えてもよい。会話口調への変更アルゴリズムについては特に限定せず、既存の口調変更アルゴリズムを用いてもよい。
 また、表示制御部202は、上述したように、学習者による遷移トリガ操作に応じて会話を進める表示制御を行う。具体的には、図4~図6の画面遷移図に示すように、「つぎへ」ボタンを表示し、学習者が内容を理解して「つぎへ」ボタンをタップした場合(すなわち、遷移トリガ操作を行った場合)に、次の会話文を表示することで、会話文を順次表示する。
 例えば、まず表示制御部202は、図4の画面400に示すように、先生アイコン画像401と、問題の開始を知らせるセリフを表示する吹き出し画像402と、「次へ」ボタン403を表示する。問題の開始を知らせるセリフには、学習者の情報(ここでは、氏名「あかりちゃん」)を用いて、「あかりちゃん、次の問題だよ!」と、学習者の氏名を出して呼び掛けることで、学習者の注意や興味を引き起こすことができる。
 次いで、学習者が、「次へ」ボタン403をタップすると、表示制御部202は、図4の画面410に示すように、学習者アイコン画像411と、「オッケー」等の相槌を表示する吹き出し画像412を表示し、学習者側の応答を自動的に会話画面上で行い、さらに、先生アイコン画像413と、問題文データの第一文に基づいて生成した会話文「まずは、この画像を見てみて」を表示する吹き出し画像414を表示する。吹き出し画像414には、問題文データに含まれる画像情報も挿入される。このように、学習者が内容を理解して次の文章へ進むことを示す「次へ」ボタン403のタップに応じて、学習者の相槌等を自動的に会話画面に挿入し、次の会話を表示することで、出題側と学習者の会話が自動で成立し、視聴している学習者の没入感を高めることが可能となる。
 次に、学習者は、表示された内容を理解できた場合、「次へ」ボタン415をタップする。「次へ」ボタン415がタップされると、表示制御部202は、図5の画面420に示すように、学習者アイコン画像421と、「何これ?」等の相槌/質問を表示する吹き出し画像422を自動的に表示する。自動的に表示する学習者側の相槌/質問は、予め用意したいくつかのパターンからランダムに選択(または生成)してもよいし、直前の出題側のセリフに対して適切な相槌を選択(または生成)してもよい。また、直前の出題側のセリフに含まれるキーワードを抽出して相槌/質問を生成してもよい。例えば、「○○というルールがあります」という出題側のセリフに対して、「ルールって?」とキーワード『ルール』を用いた質問を生成する。
 次いで、表示制御部202は、図5の画面420に示すように、先生アイコン画像423と、問題文データの第一文に基づいて生成した会話文「5本のチェーンをつないで、1つの大きな輪を作るんだ」を示す吹き出し画像424を表示する。学習者は、ここまでの会話が理解できた場合は「次へ」ボタン425をタップする。また、画面420には、ここまでの会話が理解できない場合に選択する「わからない」ボタン426が表示されている。「わからない」ボタン426は、対応するヒント情報や類題情報が登録されている場合に表示するようにしてもよい。「わからない」ボタン426をタップした場合の処理については、図7を参照して後述する。なお、「学習者による遷移トリガ操作」は、「次へ」ボタン等のタップに限定されず、例えば、画面への所定のタッチ操作(ダブルタップ等)や、スクロール操作、視線の動き等、学習者が内容を理解して次の会話へ進むことを指示する所定の操作であればよい。
 そして、表示制御部202は、図5の画面430、図6の画面440、および画面450に示すように、学習者が「次へ」ボタンをタップする度に次の会話文を表示する制御を行う。図6の画面450まで読み進めると、「答えを入力」ボタン452が表示され、学習者は解答を入力することが可能となる。解答がわからない場合、学習者は「全然わからない」ボタン451をタップする。「全然わからない」ボタン451をタップされた場合、問題管理サーバ2は、予め登録されているヒント情報や、難易度を下げた類題を表示してもよいし、先生端末4に通知するようにしてもよい。
 次に、ヒント情報や類題情報等の、問題データに対するメタ情報の設定について説明する。本実施形態によるメタ情報設定部203は、問題データに、メタ情報として、ヒント情報(問題理解を助けるための説明文)、難易度情報(問題の難易度。正解率に応じて随時補正してもよい)、類題情報(類題のID等)、または、問題カテゴリ(例えば問題で問われている知識のキーワード(2桁の足し算、掛け算、つるかめ算など)、前提となる知識のキーワード(2桁の足し算、掛け算、つるかめ算など))等を設定することが可能である。
 メタ情報の設定は、問題制作者が行ってもよいし、当該問題データを利用する先生が個別に行ってもよい。メタ情報は、問題データに含まれる問題文データ(テキストデータ)を分解して生成した会話文毎に、適宜対応付けて設定されてもよい。先生端末4におけるメタ情報の設定に関しては、図11を参照して後述する。表示制御部202は、ヒント情報や類題情報等のアドバイス情報が対応付けて登録されている会話を表示する際、必要に応じて学習者がアドバイス要求を行えるよう、「わからない」ボタンを表示する。「わからない」ボタンが選択された場合の処理について、以下、図7を参照して説明する。
 図7は、予め登録されたヒント情報の表示の一例について説明する図である。図7に示すように、画面420の「わからない」ボタン426がタップされると、画面460に示すように、学習者アイコン画像461と、「うーん、もう少し詳しく教えて?」といったセリフを示す吹き出し画像462が表示され、さらに、先生アイコン画像463と、ヒント情報を示す吹き出し画像464が表示される。学習者は、ヒント情報により疑問が解消された場合、「次へ」ボタン465をタップする。かかる「次へ」ボタン465がタップされた場合、表示制御部202は、問題文の続き(例えば、図5の画面430)を表示する。なお、さらなるヒント情報や類型問題が設定されている場合、また、先生端末4への通知が可能な場合、若しくは、単に学習者の理解度を把握するため、ヒント情報を表示した画面460に、「わからない」ボタンを表示してもよい。
 また、表示制御部202は、学習者の理解度に対応するヒント情報を表示するようにしてもよい。かかる理解度は、学習者のこれまでの学習履歴(例えば、正答率、学習進度、「わからない」ボタンの操作箇所等)に基づいて、理解度算出部205により算出され得る。なお、理解度算出部205は、類型問題を提示し、当該類型問題の解答に基づいて学習者の理解度を算出し、対応するヒント情報を表示してもよい(例えば現問題より難易度の低い類型問題を提示し、これが正解した場合向けのヒント情報、若しくは、これを間違えた場合向けのヒント情報などを表示する)。
 なお、本実施形態では、図6に示す画面450で「答えを入力」ボタン452をタップして入力した解答が間違っていた場合にも、対応して登録されたヒント情報や、類題を表示するようにしてもよい。図8は、問題の解答を間違えた場合に、予め登録された、現問題よりも難易度が低い類型問題を表示する例について説明する図である。
 図8の画面470に示すように、学習者が入力した解答が間違っていた場合、表示制御部202は、先生アイコン画像472と、現問題より難易度を下げた類型問題を示す吹き出し画像473を表示する。これによりスムーズに類題へ移行することが可能となる。類題への解答を入力する場合、学習者は、画面470に示す「答えを入力」ボタン474をタップし、解答を入力することが可能である。
 また、この際、表示制御部202は、問題の間違え方に応じて、表示する類型問題を適宜選択することも可能である。例えば、まずは現問題で問われている知識(キーワード)に関する類題であって、かつ、現問題より難易度が低い類題を、いくつか提示する。そして、これらの類題を複数回間違えた場合、表示制御部202は、現問題の前提知識を問う問題を類題として提示する。前提知識については、メタ情報の一つとして現問題に予め設定され得る。
 本実施形態では、一例として、予めヒント情報や類題が登録されている箇所に「わからない」ボタンを表示する制御を行っているが、本実施形態はこれに限定されず、例えば、常時、「わからない」ボタンを表示し、学習者の理解状況をどのタイミングでも収集できるようにしてもよい。
 ヒント情報が登録されていない箇所に表示された「わからない」ボタンがタップされた場合、制御部200は、「わからない」ボタンの操作があったことを記憶部220に(学習者行動または学習履歴として)記録すると共に、例えば、先生端末4へ通知したり、現問題の類題に移行したり、次の問題に切り替えるようにしてもよい。先生がリアルタイムで生徒(学習者)の解答状況を確認している場合、先生端末4へ通知し、生徒のわからない箇所について先生が直接応答できるようにしてもよい。このように先生が直接応答する場合について、以下、図9を参照して説明する。
 図9は、「わからない」ボタンがタップされた場合に、先生端末4へ通知する場合の一例について説明する図である。図9の画面420に示すように、「わからない」ボタン426がタップされると、問題管理サーバ2は、先生端末4へ通知(生徒がわからない状態にあることを通知)する。先生端末4を操作する先生は、手動で説明文を入力し得る。入力された説明文は、図9の画面480に示すように、先生アイコン画像481(この場合、リアルタイムで先生が答えてくれていることが分かるようにするため、実際の先生のアイコン画像を表示するようにしてもよい)と共に、吹き出し画像482で表示される。
 また、先生端末4から解答端末1における生徒(学習者)の入力モードを切り替えることも可能である。例えば解答端末1における生徒による自由入力を許可した場合、生徒は、会話画面上で、先生と自由に会話をしながら(すなわち、メッセージを手動入力しながら)、質疑を行うことが可能である。
 図10は、先生端末4の表示画面例を示す図である。先生端末4では、画面600に示すように、参加している学習者の進捗情報が、例えば学習者アイコン画像を用いて一覧表示される。進捗情報としては、例えば、現在解いている問題が表示される。進捗が(例えば他の学習者より)遅れている場合、警告アイコンや、メッセージ、また、背景色や文字色等で明示してもよい。画面600では、「あかりちゃん」の進捗が他の生徒より遅いため、「あかりちゃん」の進捗情報が異なる背景色で表示されている。
 また、図9を参照して説明したように、学習者が「わからない」ボタンを操作し、先生への通知を行う場合にも、警告アイコンや、メッセージ、また、背景色や文字色等で明示するようにしてもよい。画面600では、「なおちゃん」が問題の意味がわからない状況であることが警告アイコンとメッセージにより通知されている。
 学習者がグループ(複数人)で参加している場合も想定される。この場合、例えば画面600の「さゆきちゃん、さらちゃん」のように、複数のアイコン画像と名前が表示される。
 学習者アイコン画像をクリックすると、その学習者との会話画面に画面遷移する。例えば図10の画面600に表示されている「なおちゃん」のアイコン画像をクリックすると、「なおちゃん」との会話画面である画面610に画面遷移する。「なおちゃん」は、「わからない」ボタンを操作した状態であり、先生は、メッセージ入力欄611に説明文を手動で入力し、「送信」ボタン612をタップして自由にメッセージを送信することが可能である。
 制御部200は、このように先生が入力(応答)した説明文を、新たなメタ情報(ヒント情報)として、会話文に対応付けて登録してもよい。これにより、今後同じ箇所で生徒が「わからない」ボタンをタップした場合に、当該登録した説明文を提示することが可能となる。
 また、制御部200は、説明文が予め登録されている箇所でも、先生端末4への通知を行い、一定時間内に応答がない場合は予め登録されている説明文を表示するようにしてもよい。
 また、制御部200は、予め登録されている説明文が複数ある場合、その後の学習者の正解率に応じて、正解率が高い説明文を優先的に選択するようにしてもよい。
 ここで、メタ情報の登録方法について、図11を参照して説明する。図11は、本実施形態による問題編集画面の一例を示す図である。図11の画面500は、問題文変換部201により会話形式に自動変換した問題文データの編集を行うための画面(問題編集画面)である。例えば先生端末4や制作者端末(不図示)に表示され、先生や制作者により編集され得る。
 図11に示す画面500には、問題文データに基づく各会話「conversation-message」(吹き出しに表示される文章や画像)が順次表示されている。また、各会話に対応して表示するアイコン画像(先生アイコン画像511、学習者アイコン画像516など)が示されている。また、例えば会話画面の左側にアイコン画像と吹き出しを表示することが基本の場合、相槌等の学習者の会話は右側に表示されるため「right」と示される。アイコン画像や表示位置等の編集を行う場合、編集アイコン512をクリックして編集を行い得る。また、会話の内容を編集する場合、編集アイコン514をクリックして編集を行い得る。また、メタ情報を登録する場合も、対応付ける会話(例えば文章513)が表示されている箇所の編集アイコン514をクリックして登録を行い得る。
 このような編集は、初期の段階で行ってもよいし、ある程度学習を行った段階で行ってもよい。画面500では、学習者が「分からない」ボタンを押した箇所とその人数が、数値やアイコンの大きさ、色、種類等により明示される(例えば、画面500に表示される疑問人数の表示517、519)。これにより、例えば先生は、学習者が躓きやすい箇所にヒント情報や類題情報を登録することが可能である。
 学習者情報管理部204は、学習者のプロファイル(氏名、年齢、学年、性別、アイコン画像等)や、学習履歴(解答内容、正答率、学習進度、理解度等)など、学習者に関連する情報を、記憶部220に記録して管理する。学習履歴には、どこで「わからない」ボタンをタップしたか(すなわち、会話のどの場所でアドバイス要求操作を行ったか)といった操作履歴も含まれる。このような操作履歴を記録することで、学習者がどこまで問題を読み進めたか(理解したか)をより正確に把握することが可能となる。
 理解度算出部205は、学習者の学習履歴に基づいて学習の理解度を算出する。例えば理解度算出部205は、問題の正答率や、進捗状況(学習進度)に基づいて理解度を算出してもよい。また、本実施形態による理解度算出部205は、学習者が問題文をどこまで理解しているか、すなわち、アドバイス要求操作のタイミング(会話のどこで「わからない」ボタンがタップされたか)に基づいて、より正確に、学習の理解度を算出することが可能である。
 従来は、図3に示すように問題文データを一画面で(またはスクロールしたり複数画面に渡って一度に)表示していたが、本実施形態では、図4~図6に示すように、問題文データを会話形式で順次表示し、学習者が問題文を理解できた場合に「次へ」ボタンをタップして会話を進めるようにしている。学習者は、問題文を理解できなかった場合、その時点で、表示されている「わからない」ボタンをタップし、ヒント情報等を得る。本システムでは、このように、問題文データを会話形式で順次表示すると共に、学習者が問題文をどこまで理解できたかを、「わからない」ボタンのタップといったアドバイス要求操作のタイミングに基づいて、より正確に、把握することが可能となる。なお、「アドバイス要求操作」は、「わからない」ボタンのタップ操作に限定されず、学習者が内容を理解できずアドバイスを求めていることを示す所定の操作であればよい。
 理解度算出部205により算出された理解度は、学習者情報として記憶部220に登録される。また、学習者の理解度は、先生端末4に通知されてもよい。また、理解度算出部205は、学習者の進捗に応じて、随時、理解度を更新してもよい。また、表示制御部202は、算出された理解度に応じて学習者に提示する問題の難易度を変更したり、適切な説明文や解説文を提示したりすることも可能である。また、表示制御部202は、算出された理解度に応じて、問題文の改善や、次の問題の適切な選定、また、類題を動的に出題したりすることができる。
 (通信部210)
 通信部210は、有線または無線により外部装置とデータの送受信を行う。通信部210は、例えば有線/無線LAN(Local Area Network)、またはWi-Fi(登録商標)、Bluetooth(登録商標)、携帯通信網(LTE(Long Term Evolution)、3G(第3世代の移動体通信方式))等により、ネットワーク3と通信接続し、ネットワーク3を介して解答端末1や先生端末4とデータの送受信を行い得る。
 (記憶部220)
 記憶部220は、制御部200の処理に用いられるプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、および適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)により実現される。
 以上、本実施形態による問題管理サーバ2の構成について具体的に説明した。なお図2に示す問題管理サーバ2の構成は一例であって、本実施形態はこれに限定されない。例えば問題管理サーバ2の少なくとも一部の構成が外部装置にあってもよいし、制御部200の各機能の少なくとも一部が解答端末1または通信距離が比較的解答端末1に近い情報処理端末(例えば、いわゆるエッジサーバなど)により実現されてもよい。例えば、問題管理サーバ2は必ずしも問題文変換部201を有していなくともよく、外部装置(例えば、他のサーバ等)に設けられた問題文変換部201により変換されたデータが、問題管理サーバに送信されるようにしてもよい。また、図2に示す制御部200の各構成および記憶部220を解答端末1に設け、本実施形態による学習支援システムの処理を解答端末1のアプリケーションで全て実行するようにしてもよい。
 <3.動作処理>
 続いて、本実施形態による学習支援システムの動作処理について、図12を参照して具体的に説明する。図12は、本実施形態による学習支援システムの動作処理の流れの一例を示すフローチャートである。
 図12に示すように、まず、問題管理サーバ2は、問題文データを取得する(ステップS103)。問題文データは、制作者や先生により情報処理端末(先生端末4など)から入力されてもよいし、記憶部220に登録されていてもよいし、ネットワーク上から取得されてもよい。
 次に、問題管理サーバ2の問題文変換部201は、問題文データを会話形式へ変換する(ステップS106)。
 次いで、問題管理サーバ2の表示制御部202は、学習者の端末(解答端末1)に、会話形式の問題文の表示を開始する(ステップS109)。具体的には、例えば表示制御部202は、図4の画面400を解答端末1に表示させる。
 次に、「わからない」ボタンが押された場合(ステップS112/No)、「次へ」ボタンが押された(タップ、クリック等がされた)場合(ステップS121/Yes)、表示制御部202は、次の会話に進める(ステップS124)。具体的には、例えば図4の画面400に表示する「次へ」ボタン403がタップされた場合、表示制御部202は、図4の画面410に遷移させる。画面410では、学習者アイコン画像411と、相槌を示す吹き出し画像412が表示され、その次に、先生アイコン画像413と、次の会話を示す吹き出し画像414が表示されている。
 表示制御部202は、「次へ」ボタンが押される度に、相槌等を挟んで、次の会話を順次表示する(図4~図6参照)。
 次いで、会話画面に表示されている「わからない」ボタンが押された(タップ、クリック等)場合(ステップS112/Yes)、学習者情報管理部204は、学習者の行動履歴として、「わからない」ボタンが押されたことを記録する(ステップS115)。
 次に、表示制御部202は、「わからない」ボタンが押された箇所に対応して登録されているヒント情報または類型問題を表示する(ステップS118)。具体的には、例えば図7の画面遷移図に示すように、画面420に表示されている「わからない」ボタン426が押された場合、表示制御部202は、画面460に示すように、対応するヒント情報を示す吹き出し画像464を表示する。
 続いて、解答が入力された場合(ステップS127/Yes)、制御部200は、解答の正誤を判断し、学習履歴として記憶部220に記録する(ステップS130)。
 次いで、不正解の場合(ステップS133/No)、表示制御部202は、対応して登録されているヒントまたは類型問題を表示する(ステップS136)。
 一方、正解の場合(ステップS133/Yes)、表示制御部202は、全ての問題が終了するまで(ステップS139)、引き続き、次の問題の会話形式での表示を開始する(ステップS142)。
 以上、本実施形態による動作処理の一例を説明した。なお図12に示す動作処理は一例であって、本開示は図12に示す例に限定されない。例えば、本開示は、図12に示すステップの順序に限定されない。少なくともいずれかのステップが並列に処理されてもよいし、逆の順番で処理されてもよい。また、図12に示す全ての処理が必ずしも実行されてなくともよい。また、図12に示す全ての処理が必ずしも単一の装置で行われなくともよい。
 具体的には、例えば表示制御部202は、対応するヒント情報や類題情報が登録されている箇所に「わからない」ボタンを表示するよう制御してもよい。また、表示制御部202は、「わからない」ボタンが押された箇所にヒント情報や類題情報が登録されていない場合、先生端末4に通知を行ってもよい。
 <4.グループ形式の学習への適用例>
 次に、会話形式での問題データの表示をグループ形式での学習に適用する場合について説明する。グループ形式での学習では、複数人で同一の問題を解くことが可能であり、質問等が全員に共有される。
 このようなグループ形式での学習の場合、複数の学習者が参加した会話画面において、問題データが会話口調で順次表示される。各学習者が所持する解答端末1の画面では、図4の画面400に示すような、先生アイコン画像と、問題の開始を知らせる先生の会話と、「次へ」ボタンが、同様に表示される。各学習者が「次へ」ボタンをタップすると、図13Aの画面620に示すように、「次へ」ボタンをタップした各学習者のアイコン画像621、623と、対応する相槌を示す吹き出し画像622、624がそれぞれ表示される。
 これによりグループ内の他の学習者も理解したことを、一の学習者も把握することができる。
 参加者が多い場合は、図13Bの画面625に示すように、学習者自身のアイコン画像626と相槌を示す吹き出し画像627を表示すると共に、他の学習者のアイコン画像をまとめたアイコン群画像628を表示するようにしてもよい。
 また、一の学習者により「わからない」ボタンが押された場合等、質問はグループ学習に参加している者全員に共有される。図14は、グループ形式での学習において「わからない」ボタンが押された場合の表示例について説明する図である。例えば図14の画面630に示すように、他の学習者が「わからない」ボタンが押した場合、その学習者のアイコン画像631と、質問を示す吹き出し画像632が、全ての参加者の解答端末1の会話画面に表示される。
 そして、「わからない」ボタンが押されたことに応じて、対応するヒント情報を示す吹き出し画像634が、先生アイコン画像633と共に、全ての参加者の解答端末1の会話画面に表示される。
 ヒント情報を理解した学習者が「次へ」ボタン635を押すと、全ての参加者の解答端末1の会話画面に、学習者アイコン画像638と、相槌を示す吹き出し画像639とが表示される。一方、ヒント情報を見ても理解できない学習者が「わからない」ボタンを押すと、全ての参加者の解答端末1の会話画面に、わからない旨を示す吹き出し画像637とアイコン画像636が表示される。
 これにより、問題文を読み進めるステップのどの段階で、参加者のうち誰が理解して誰が理解していないかを互いに把握することが可能である。なお、同様の画面は先生端末4側でも閲覧することが可能であり、これにより、先生は、問題文を読み進めるステップのどの段階で、参加者のうち誰が理解して誰が理解していないかを把握することが可能である。
 また、解答情報は、設定に応じて他の参加者には伏せるようにすることも可能である。解答情報の表示に関する設定は、すべて表示、不正解なら表示・正解は非表示、すべて非表示等が考え得る。また、先生等が、適宜、解答の表示/非表示を設定してもよい。
 「不正解なら表示・正解は非表示」に設定されている場合、例えば図15に示すように、他の学習者により入力された不正解の解答は、吹き出し画像641において表示されている。一方、他の学習者により入力された正解の解答は、吹き出し画像643において非表示にされている(例えば空欄、塗り潰し、伏字等を用いる)。また、不正解者に対するヒント情報や難易度を下げた類題を示す吹き出し画像642も、参加者全員に共有される。
 また、早めに正解した学習者に対して、時間を有効利用するため、その学習者の理解度や残り時間等を考慮して、同程度または難易度を上げた類題を出題してもよい。類題は、正答者のみに表示するようにしてもよい。図16は、正解者に対して類題を出題する場合について説明する図である。図16の画面650は、例えば「あかりちゃん」が利用する解答端末1の会話画面であって、「あかりちゃん」が解答を入力し、正解した場合、残り時間等に応じて、同程度または難易度を上げた類題を示す吹き出し画像653が表示される。これにより、「あかりちゃん」は、グループ学習に参加している他の学習者が解答し終えるまでの時間を、新たな問題を解くことに利用し、学習を進めることができる。
 なお、以上説明したグループ学習において会話画面上に表示されたメッセージ(吹き出し画像)は、時間情報と共に記憶部220等に保持されてもよい(どのようなメッセージがどのようなタイミングで表示されたかが記憶される)。これにより、後から別の学習者が一人で問題を解く場合にも、これらのメッセージの流れを再現することで、その授業等のグループ学習をリアルタイムで受講できなかった生徒も同じような環境で問題を解くことが可能となる。
 また、先生端末4では、グループ学習の参加者の進捗状況(ステータス)を一覧で確認することも可能である。図17は、グループ形式での学習における参加者進捗状況の一覧画面について説明する図である。先生端末4に表示される会話画面には、図17の画面700に示すように、進捗ボタン705が表示されている。進捗ボタン705がタップされると、図17の右側に示すように、グループ学習参加者の進捗状況を一覧で示す画面720が表示される。画面720では、例えば解答済みの学習者と未解答の学習者がアイコン画像により明示される。
 <5.まとめ>
 上述したように、本開示の実施形態による情報処理システムでは、問題文を会話形式で順次表示することで、問題への没入感を与えると共に、学習者の理解度をより適切に算出することが可能となる。
 なお、本実施形態による会話形式での表示を、解説文データを表示する際に適用してもよい。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、上述した解答端末1、問題管理サーバ2、または先生端末4に内蔵されるCPU、ROM、およびRAM等のハードウェアに、解答端末1、問題管理サーバ2、または先生端末4の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、本技術は以下のような構成も取ることができる。
(1)
 問題データを会話形式で順次表示する制御と、
 前記会話形式での表示を、学習者による遷移トリガ操作に応じて進めるよう制御し、
 前記順次表示される会話形式の表示に対し、前記学習者によりアドバイス要求操作が行われた箇所を記録し、
 前記アドバイス要求操作の箇所に基づいて、前記学習者の理解度を算出する、制御部を備える、情報処理装置。
(2)
 前記制御部は、
  取得した問題データを会話形式に変換する処理を行う、前記(1)に記載の情報処理装置。
(3)
 前記制御部は、
  前記会話形式への変換処理として、前記問題データを区切り、文体を会話口調に変更する、前記(2)に記載の情報処理装置。
(4)
 前記制御部は、
  前記会話形式への変換処理として、さらに、前記学習者による相槌を自動的に挿入する、前記(3)に記載の情報処理装置。
(5)
 前記制御部は、
  前記問題データに基づく会話を、出題側アイコン画像に対応付けて表示し、
  前記遷移トリガ操作が行われた場合、学習者側アイコン画像に対応付けて、前記相槌を表示し、前記問題データに基づく次の会話を、前記出題側アイコン画像に対応付けて表示する、前記(4)に記載の情報処理装置。
(6)
 前記制御部は、
  前記アドバイス要求操作が行われた場合、予め対応付けて登録されたアドバイス情報を表示する、前記(1)~(5)のいずれか1項に記載の情報処理装置。
(7)
 前記制御部は、
 前記アドバイス情報として、ヒント情報を表示する、前記(6)に記載の情報処理装置。
(8)
 前記制御部は、
 前記アドバイス情報として、類題を表示する、前記(6)に記載の情報処理装置。
(9)
 前記制御部は、
  前記アドバイス要求操作が行われた場合、先生端末への通知を行う、前記(1)~(5)のいずれか1項に記載の情報処理装置。
(10)
 前記制御部は、
  前記先生端末から一定時間応答がない場合、前記アドバイス要求操作が行われた箇所に対応付けて登録されたアドバイス情報を表示する、前記(9)に記載の情報処理装置。
(11)
 前記制御部は、
  1以上の学習者の進捗状況として、前記アドバイス要求操作を行った学習者を明示する学習者進捗一覧画面を先生端末に表示する制御を行う、前記(1)~(10)のいずれか1項に記載の情報処理装置。
(12)
 前記会話形式での表示は、グループ学習に参加する複数の学習者の情報処理端末で共有される、前記(1)~(11)のいずれか1項に記載の情報処理装置。
(13)
 プロセッサが、
  問題データを会話形式で順次表示することと、
 前記会話形式での表示を、学習者による遷移トリガ操作に応じて進めることと、
 前記順次表示される会話形式の表示に対し、前記学習者によりアドバイス要求操作が行われた箇所を記録することと、
 前記アドバイス要求操作の箇所に基づいて、前記学習者の理解度を算出することと、を含む、情報処理方法。
(14)
 コンピュータを、
 問題データを会話形式で順次表示する制御と、
 前記会話形式での表示を、学習者による遷移トリガ操作に応じて進めるよう制御し、
 前記順次表示される会話形式の表示に対し、前記学習者によりアドバイス要求操作が行われた箇所を記録し、
 前記アドバイス要求操作の箇所に基づいて、前記学習者の理解度を算出する、制御部として機能させるための、プログラム。
 1 解答端末
 2 問題管理サーバ
 200 制御部
 201 問題文変換部
 202 表示制御部
 203 メタ情報設定部
 204 学習者情報管理部
 205 理解度算出部
 210 通信部
 220 記憶部

Claims (14)

  1.  問題データを会話形式で順次表示する制御と、
     前記会話形式での表示を、学習者による遷移トリガ操作に応じて進めるよう制御し、
     前記順次表示される会話形式の表示に対し、前記学習者によりアドバイス要求操作が行われた箇所を記録し、
     前記アドバイス要求操作の箇所に基づいて、前記学習者の理解度を算出する、制御部を備える、情報処理装置。
  2.  前記制御部は、
      取得した問題データを会話形式に変換する処理を行う、請求項1に記載の情報処理装置。
  3.  前記制御部は、
      前記会話形式への変換処理として、前記問題データを区切り、文体を会話口調に変更する、請求項2に記載の情報処理装置。
  4.  前記制御部は、
      前記会話形式への変換処理として、さらに、前記学習者による相槌を自動的に挿入する、請求項3に記載の情報処理装置。
  5.  前記制御部は、
      前記問題データに基づく会話を、出題側アイコン画像に対応付けて表示し、
      前記遷移トリガ操作が行われた場合、学習者側アイコン画像に対応付けて、前記相槌を表示し、前記問題データに基づく次の会話を、前記出題側アイコン画像に対応付けて表示する、請求項4に記載の情報処理装置。
  6.  前記制御部は、
      前記アドバイス要求操作が行われた場合、予め対応付けて登録されたアドバイス情報を表示する、請求項1に記載の情報処理装置。
  7.  前記制御部は、
     前記アドバイス情報として、ヒント情報を表示する、請求項6に記載の情報処理装置。
  8.  前記制御部は、
     前記アドバイス情報として、類題を表示する、請求項6に記載の情報処理装置。
  9.  前記制御部は、
      前記アドバイス要求操作が行われた場合、先生端末への通知を行う、請求項1に記載の情報処理装置。
  10.  前記制御部は、
      前記先生端末から一定時間応答がない場合、前記アドバイス要求操作が行われた箇所に対応付けて登録されたアドバイス情報を表示する、請求項9に記載の情報処理装置。
  11.  前記制御部は、
      1以上の学習者の進捗状況として、前記アドバイス要求操作を行った学習者を明示する学習者進捗一覧画面を先生端末に表示する制御を行う、請求項1に記載の情報処理装置。
  12.  前記会話形式での表示は、グループ学習に参加する複数の学習者の情報処理端末で共有される、請求項1に記載の情報処理装置。
  13.  プロセッサが、
      問題データを会話形式で順次表示することと、
     前記会話形式での表示を、学習者による遷移トリガ操作に応じて進めることと、
     前記順次表示される会話形式の表示に対し、前記学習者によりアドバイス要求操作が行われた箇所を記録することと、
     前記アドバイス要求操作の箇所に基づいて、前記学習者の理解度を算出することと、を含む、情報処理方法。
  14.  コンピュータを、
     問題データを会話形式で順次表示する制御と、
     前記会話形式での表示を、学習者による遷移トリガ操作に応じて進めるよう制御し、
     前記順次表示される会話形式の表示に対し、前記学習者によりアドバイス要求操作が行われた箇所を記録し、
     前記アドバイス要求操作の箇所に基づいて、前記学習者の理解度を算出する、制御部として機能させるための、プログラム。
PCT/JP2019/027592 2018-08-03 2019-07-11 情報処理装置、情報処理方法、および、プログラム WO2020026754A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/250,485 US20210295727A1 (en) 2018-08-03 2019-07-11 Information processing apparatus, information processing method, and program
JP2020533384A JP7380564B2 (ja) 2018-08-03 2019-07-11 情報処理装置、情報処理方法、および、プログラム
CN201980050256.4A CN112513958B (zh) 2018-08-03 2019-07-11 信息处理装置、信息处理方法和程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-147106 2018-08-03
JP2018147106 2018-08-03

Publications (1)

Publication Number Publication Date
WO2020026754A1 true WO2020026754A1 (ja) 2020-02-06

Family

ID=69231068

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/027592 WO2020026754A1 (ja) 2018-08-03 2019-07-11 情報処理装置、情報処理方法、および、プログラム

Country Status (4)

Country Link
US (1) US20210295727A1 (ja)
JP (1) JP7380564B2 (ja)
CN (1) CN112513958B (ja)
WO (1) WO2020026754A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6829509B1 (ja) * 2020-09-17 2021-02-10 株式会社フォーサイト 学習支援システムおよび学習支援方法
JP2021128181A (ja) * 2020-02-10 2021-09-02 株式会社Hrコミュニケーション 学習支援装置及び学習支援方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000242159A (ja) * 1999-02-17 2000-09-08 Nippon Steel Corp 教育システムおよび記録媒体
JP2013210448A (ja) * 2012-03-30 2013-10-10 Denso It Laboratory Inc 情報提供システム
JP2017161784A (ja) * 2016-03-10 2017-09-14 富士通株式会社 学習支援プログラム、学習支援装置及び学習支援方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000089653A (ja) * 1998-09-11 2000-03-31 Ai Soft Kk 対話型学習応答装置、対話型学習応答方法および対話型学習の応答制御プログラムを記録した媒体
US20040018479A1 (en) * 2001-12-21 2004-01-29 Pritchard David E. Computer implemented tutoring system
WO2007016325A1 (en) * 2005-07-28 2007-02-08 Hull David M Instructional systems and methods for interactive tutorials and test-preparation
US20080050704A1 (en) * 2006-08-10 2008-02-28 Kitty Kit King Hau Computer-aided method for guided teaching of language
US20130052631A1 (en) * 2010-05-04 2013-02-28 Moodeye Media And Technologies Pvt Ltd Customizable electronic system for education
US9471872B2 (en) * 2012-06-29 2016-10-18 International Business Machines Corporation Extension to the expert conversation builder
TWM455227U (zh) * 2013-01-17 2013-06-11 Tzu-Hua Wang 即時提問與回饋互動學習系統
CN106991094A (zh) * 2016-01-21 2017-07-28 何钰威 外语口语说话学习系统、方法及电脑程序
US20180131643A1 (en) * 2016-11-04 2018-05-10 Microsoft Technology Licensing, Llc Application context aware chatbots
US10146770B2 (en) * 2016-12-01 2018-12-04 International Business Machines Corporation Cognitive agent for capturing referential information during conversation muting
CN107053208B (zh) * 2017-05-24 2018-06-01 北京无忧创新科技有限公司 一种主动交互式对话机器人系统及该系统主动对话的方法
CN107705643B (zh) * 2017-11-16 2024-01-02 四川文理学院 一种机器人主持教学方法及其装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000242159A (ja) * 1999-02-17 2000-09-08 Nippon Steel Corp 教育システムおよび記録媒体
JP2013210448A (ja) * 2012-03-30 2013-10-10 Denso It Laboratory Inc 情報提供システム
JP2017161784A (ja) * 2016-03-10 2017-09-14 富士通株式会社 学習支援プログラム、学習支援装置及び学習支援方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"I tried programming learning application "codebelle"", TECHACADEMY MAGAZINE, 8 March 2016 (2016-03-08), XP055683677, Retrieved from the Internet <URL:https://techacademy.jp/magazine/7074> [retrieved on 20190823] *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021128181A (ja) * 2020-02-10 2021-09-02 株式会社Hrコミュニケーション 学習支援装置及び学習支援方法
JP6829509B1 (ja) * 2020-09-17 2021-02-10 株式会社フォーサイト 学習支援システムおよび学習支援方法
JP2022049800A (ja) * 2020-09-17 2022-03-30 株式会社フォーサイト 学習支援システムおよび学習支援方法

Also Published As

Publication number Publication date
JPWO2020026754A1 (ja) 2021-08-12
CN112513958A (zh) 2021-03-16
US20210295727A1 (en) 2021-09-23
CN112513958B (zh) 2023-05-23
JP7380564B2 (ja) 2023-11-15

Similar Documents

Publication Publication Date Title
Milne et al. Development of a virtual agent based social tutor for children with autism spectrum disorders
Anagnostopoulos et al. The decentered teacher and the construction of social space in the virtual classroom
Boster et al. Designing augmentative and alternative communication applications: The results of focus groups with speech-language pathologists and parents of children with autism spectrum disorder
KR20080021594A (ko) 언어학습시스템 및 방법
WO2017200101A1 (ja) 情報処理装置及びその制御方法、コンピュータプログラム
CN110136032B (zh) 基于课件的课堂交互数据处理方法及计算机存储介质
Holland et al. How to use apps clinically in the treatment of aphasia
US9802125B1 (en) On demand guided virtual companion
Daugvilaite Exploring perceptions and experiences of students, parents and teachers on their online instrumental lessons
US20170340256A1 (en) Requesting assistance based on user state
WO2020026754A1 (ja) 情報処理装置、情報処理方法、および、プログラム
Zarraonandia et al. Augmented presentations: Supporting the communication in presentations by means of augmented reality
Senner et al. Effects of parent instruction in partner-augmented input on parent and child speech generating device use
JP2005293280A (ja) チャットシステム、通信装置、その制御方法及びプログラム
Kohnke Using technology to design ESL/EFL microlearning activities
Wood Communicating in virtual worlds through an accessible Web 2.0 solution
JP2015102557A (ja) 学習賛助プログラム
Pavlov et al. Mobile graphical user interface with people with verbal communication disorders
JP2018120109A (ja) 学習支援プログラム、学習支援方法および学習支援装置
JP5833280B1 (ja) 学習支援装置、学習支援システム及び学習支援方法
Tufan Internet usage habits as a part of distance higher education
JP5807132B1 (ja) メッセージ送受信装置及びメッセージ送受信方法
US20210247894A1 (en) Social Matching Games in Dating Software
Sherlock Becoming ready to use a voice output communication aid
Niemants et al. The human viewpoint and the system’s viewpoint

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19843729

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020533384

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19843729

Country of ref document: EP

Kind code of ref document: A1