WO2022024742A1 - プログラム、方法及び情報処理装置 - Google Patents

プログラム、方法及び情報処理装置 Download PDF

Info

Publication number
WO2022024742A1
WO2022024742A1 PCT/JP2021/026210 JP2021026210W WO2022024742A1 WO 2022024742 A1 WO2022024742 A1 WO 2022024742A1 JP 2021026210 W JP2021026210 W JP 2021026210W WO 2022024742 A1 WO2022024742 A1 WO 2022024742A1
Authority
WO
WIPO (PCT)
Prior art keywords
student
information
teacher
learning state
students
Prior art date
Application number
PCT/JP2021/026210
Other languages
English (en)
French (fr)
Inventor
俊二 菅谷
Original Assignee
株式会社オプティム
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社オプティム filed Critical 株式会社オプティム
Publication of WO2022024742A1 publication Critical patent/WO2022024742A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances

Definitions

  • This disclosure relates to programs, methods and information processing devices.
  • Patent Document 1 describes a technique for evaluating a participant's concentration on a story that progresses while changing the content, such as a lecture.
  • a video of a group consisting of a plurality of participants to talk to is acquired, and the degree of concentration of the participants is grasped as a whole based on the video.
  • Patent Document 1 does not consider supporting online lessons.
  • the purpose of this disclosure is to provide technology that can support online lessons while grasping the learning status of students taking online lessons in real time.
  • a program for causing a computer including a processor and a memory to execute has a first step of acquiring first information about the behavior of a student taking an online lesson from the processor, and a first step of evaluating the learning state of the student with respect to the online lesson based on the first information.
  • the two steps and the third step of presenting the teacher with the second information to assist the progress of the online lesson based on the learning state of the student are executed.
  • System 1 is a system for conducting online lessons between students and teachers.
  • FIG. 1 is a diagram showing the overall configuration of the system 1 of the first embodiment.
  • the system 1 includes a terminal device 10A operated by a student, a terminal device 10B operated by a teacher, and a server 20.
  • the terminal device 10A, the terminal device 10B, and the server 20 are connected to each other so as to be able to communicate with each other via the network 80 by using a wired or wireless communication standard.
  • the terminal device 10A and the terminal device 10B are realized by a mobile terminal such as a smartphone or a tablet compatible with a mobile communication system.
  • the terminal device 10A and the terminal device 10B may be, for example, a stationary PC (Personal Computer) or a laptop PC.
  • the terminal device 10A and the terminal device 10B include a communication IF (interface) 12, an input device 13, an output device 14, a memory 15, a storage unit 16, and a processor 19. To prepare for.
  • IF interface
  • the terminal device 10A and the terminal device 10B include a communication IF (interface) 12, an input device 13, an output device 14, a memory 15, a storage unit 16, and a processor 19.
  • the communication IF 12 is an interface for inputting / outputting signals because the terminal device 10A and the terminal device 10B communicate with an external device.
  • the input device 13 is an input device (for example, a touch panel, a touch pad, a pointing device such as a mouse, a keyboard, etc.) for receiving an input operation from a user (student or teacher).
  • the output device 14 is an output device (display, speaker, etc.) for presenting information to the user.
  • the memory 15 is for temporarily storing a program, data processed by the program, or the like, and is, for example, a volatile memory such as a DRAM (Dynamic Random Access Memory).
  • the storage unit 16 is a storage device for storing data, for example, a flash memory or an HDD (Hard Disc Drive).
  • the processor 19 is hardware for executing an instruction set described in a program, and is composed of an arithmetic unit, registers, peripheral circuits, and the like.
  • the server 20 is a device that manages student information, teacher information, and the like.
  • the server 20 is a computer connected to the network 80.
  • the server 20 includes a communication IF 22, an input / output IF 23, a memory 25, a storage 26, and a processor 29.
  • the communication IF 22 is an interface for inputting / outputting signals because the server 20 communicates with an external device.
  • the input / output IF 23 functions as an interface with an input device for receiving an input operation from the user and an output device for presenting information to the user.
  • the memory 25 is for temporarily storing a program, data processed by the program, or the like, and is, for example, a volatile memory such as a DRAM (Dynamic Random Access Memory).
  • the storage 26 is a storage device for storing data, for example, a flash memory or an HDD (Hard Disc Drive).
  • the processor 29 is hardware for executing an instruction set described in a program, and is composed of an arithmetic unit, registers, peripheral circuits, and the like.
  • FIG. 2 is a block diagram of a terminal device 10A operated by a student, which constitutes the system 1 of the first embodiment.
  • the terminal device 10A operates with a plurality of antennas (antenna 111, antenna 112) and a wireless communication unit (first wireless communication unit 121, second wireless communication unit 122) corresponding to each antenna.
  • Reception unit 130 including touch sensitive device 131 and display 132
  • voice processing unit 140 voice processing unit 140
  • microphone 141 microphone 141
  • speaker 142 position information sensor 150
  • camera 160 storage unit 170A
  • control unit 180A control unit
  • the terminal device 10A also has functions and configurations (for example, a battery for holding electric power, a power supply circuit for controlling the supply of electric power from the battery to each circuit, and the like) which are not particularly shown in FIG. As shown in FIG. 2, each block included in the terminal device 10A is electrically connected by a bus or the like.
  • the antenna 111 radiates a signal emitted by the terminal device 10A as a radio wave. Further, the antenna 111 receives radio waves from the space and gives a received signal to the first wireless communication unit 121.
  • the antenna 112 radiates a signal emitted by the terminal device 10A as a radio wave. Further, the antenna 112 receives radio waves from the space and gives a received signal to the second radio communication unit 122.
  • the first wireless communication unit 121 performs modulation / demodulation processing for transmitting / receiving signals via the antenna 111.
  • the second wireless communication unit 122 performs modulation / demodulation processing for transmitting / receiving signals via the antenna 112.
  • the first wireless communication unit 121 and the second wireless communication unit 122 are communication modules including a tuner, an RSSI (Received Signal Strength Indicator) calculation circuit, a CRC (Cyclic Redundancy Check) calculation circuit, a high frequency circuit, and the like.
  • the first wireless communication unit 121 and the second wireless communication unit 122 perform modulation / demodulation and frequency conversion of the wireless signal transmitted / received by the terminal device 10A, and supply the received signal to the control unit 180A.
  • the operation reception unit 130 has a mechanism for receiving an input operation of the operator.
  • the operation receiving unit 130 is configured as a touch screen and includes a touch sensitive device 131 and a display 132. Further, the operation reception unit 130 may include a mouse, a keyboard, and the like.
  • the touch-sensitive device 131 accepts an input operation of the operator of the terminal device 10A.
  • the touch-sensitive device 131 detects the contact position of the operator with respect to the touch panel, for example, by using a capacitive touch panel.
  • the touch-sensitive device 131 outputs a signal indicating the contact position of the operator detected by the touch panel to the control unit 180A as an input operation.
  • the display 132 displays data such as images, moving images, and texts according to the control of the control unit 180A.
  • the display 132 is realized by, for example, an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) display.
  • the voice processing unit 140 performs modulation / demodulation of the voice signal.
  • the voice processing unit 140 modulates the signal given from the microphone 141 and gives the modulated signal to the control unit 180A. Further, the voice processing unit 140 gives a voice signal to the speaker 142.
  • the voice processing unit 140 is realized by, for example, a processor for voice processing.
  • the microphone 141 receives the voice input and gives the voice signal corresponding to the voice input to the voice processing unit 140.
  • the speaker 142 converts the voice signal given from the voice processing unit 140 into voice and outputs the voice to the outside of the terminal device 10A.
  • the position information sensor 150 is a sensor that detects the position of the terminal device 10A, and is, for example, a GPS (Global Positioning System) module.
  • the GPS module is a receiving device used in a satellite positioning system.
  • the satellite positioning system receives signals from at least three or four satellites and detects the current position of the terminal device 10A on which the GPS module is mounted based on the received signals.
  • the camera 160 is a device for receiving light by a light receiving element and outputting it as a captured image.
  • the camera 160 is, for example, a depth camera that can detect the distance from the camera 160 to the shooting target.
  • the storage unit 170A is composed of, for example, a flash memory or the like, and stores data and programs used by the terminal device 10A. In a certain aspect, the storage unit 170A stores the student information 171.
  • Student information 171 is information about students taking online lessons using the terminal device 10A.
  • the student information 171 includes, for example, the student identification information (student ID), the student name, the identification information of the terminal device 10A (terminal ID), the identification information of the online class that the student is taking (class ID), and the student. Includes a history of operating the terminal device 10A, a student image taken by the terminal device 10A, and the like.
  • the control unit 180A controls the operation of the terminal device 10A by reading the program stored in the storage unit 170A and executing the instruction included in the program.
  • the control unit 180A is, for example, an application installed in the terminal device 10A in advance. By operating according to the program, the control unit 180A exhibits functions as an input operation reception unit 181, a transmission / reception unit 182, and a sensing unit 183.
  • the input operation receiving unit 181 performs a process of receiving an operator's input operation for an input device such as a touch sensitive device 131.
  • the input operation reception unit 181 is based on the information of the coordinates when the operator touches the touch-sensitive device 131 with a finger or the like, and the operator's operation is a flick operation, a tap operation, or a drag ( Swipe) Determine the type of operation, such as whether it is an operation.
  • the transmission / reception unit 182 performs processing for the terminal device 10A to transmit / receive data to / from an external device such as a server 20 according to a communication protocol.
  • the sensing unit 183 performs a process of sensing the first information regarding the behavior of the students taking the online class.
  • the first information includes, for example, information on the operation history of the student operating the terminal device 10A, information based on the student's video data taken by the camera, information on the student's response operation to the exercise included in the online class, and the like. Can be mentioned.
  • the first information sensed by the sensing unit 183 is transmitted to the server 20 via the transmission / reception unit 182.
  • the log of operating the hardware includes, for example, information indicating which key was input by the keyboard, the number of times the key was input, and the like.
  • information on the position detected by a pointing device such as a mouse, touch pad, or touch panel, and information on the operation content of the student determined based on the information on the position (for example, dragging or swiping). , Flick, long tap, etc.) etc. are included.
  • information indicating which location information was clicked by a pointing device such as a mouse, trackball, or touch-sensitive device, the number of clicks, voice information input by a microphone, and remarks.
  • the number of times, information about the flick operation of the touch panel, the number of times of the flick operation, etc. can be adopted.
  • the log of operating the application includes the log of the operation input by the student when using the application for taking online lessons.
  • the sensing unit 183 takes notes by inputting characters, an operation in which the student started the course, an operation in which the course was completed, an operation of pressing the "raise hand” button, a history of chatting with other students, and an operation. Record history etc.
  • the log of operating the application contains information on the answer operation in which the student answers the exercise included in the online lesson using the application.
  • the information regarding the answer operation specifically includes the time required to answer each exercise, the input contents, the number of characters input, the number of times the answer has been corrected, and the like.
  • information on the activation of the application In the log of operating the OS, information on the activation of the application, information on changing the settings of the OS, information on putting the information processing device 10 to sleep, information on waking up from the sleep state, and information on the usage status of hardware resources. (For example, CPU usage rate, memory usage rate, network usage status, etc.) and the like are included.
  • the information based on the student's video data taken by the camera is, for example, the information about the operation that the student started the camera, the facial image data showing the orientation and facial expression of the student's face, and the facial composition extracted by image analysis.
  • FIG. 3 is a block diagram of a terminal device 10B operated by a teacher, which constitutes the system 1 of the first embodiment. Since the terminal device 10B is configured in the same manner as the terminal device 10A shown in FIG. 2, except for the storage unit 170B and the control unit 180B, the description thereof will be omitted. Hereinafter, the storage unit 170B and the control unit 180B will be described.
  • the storage unit 170B is composed of, for example, a flash memory or the like, and stores data and programs used by the terminal device 10B. In a certain aspect, the storage unit 170B stores the teacher information 172.
  • Teacher information 172 is information about a teacher in charge of an online lesson using the terminal device 10B.
  • the teacher information 172 includes, for example, teacher identification information (teacher ID), teacher name, teacher experience value, terminal device 10B identification information (terminal ID), online class identification information (class ID), and teacher is a terminal. Includes a history of operating the device 10B.
  • the teacher's experience value represents the teacher's evaluation given based on the teacher's experience.
  • the experience value is set based on, for example, the history of the lessons taught by the teacher, the license held, the qualification, and the like. It should be noted that, instead of the experience value, the history of the lessons taught by the teacher, the licenses possessed, the qualifications, and the like may be stored.
  • the control unit 180B controls the operation of the terminal device 10B by reading the program stored in the storage unit 170B and executing the instruction included in the program.
  • the control unit 180B is, for example, an application installed in the terminal device 10A in advance. Since the control unit 180B is configured in the same manner as the control unit 180A shown in FIG. 2, except for the display control unit 184, the description thereof will be omitted. Hereinafter, the display control unit 184 will be described.
  • the display control unit 184 performs a process of controlling the display of the terminal device 10B so as to present the teacher with the second information that assists the progress of the online lesson.
  • the display control unit 184 receives an instruction to display the second information from the server 20 via the transmission / reception unit 182, and displays the second information on the terminal device 10B.
  • the details of the second information will be described later, but for example, information about each student, instruction information to appoint a predetermined student, instruction information to explain in detail what the teacher explained, and a break. Instruction information to the effect that should be entered is mentioned.
  • FIG. 4 is a diagram showing a functional configuration of the server 20 constituting the system 1 of the first embodiment.
  • the server 20 functions as a communication unit 201, a storage unit 202, and a control unit 203.
  • the communication unit 201 performs processing for the server 20 to communicate with an external device.
  • the storage unit 202 stores data and programs used by the server 20.
  • the storage unit 202 stores the student information database 281 and the teacher information database 282.
  • the student information database 281 is a database for holding information about students taking online lessons. Details will be described later.
  • the teacher information database 282 is a database for holding information about teachers in charge of online lessons. Details will be described later.
  • the control unit 203 exerts the functions shown as various modules by the processor of the server 20 performing processing according to the program.
  • the reception control module 2031 controls the process in which the server 20 receives a signal from an external device according to a communication protocol.
  • the transmission control module 2032 controls a process in which the server 20 transmits a signal to an external device according to a communication protocol.
  • the first information acquisition module 2033 acquires the first information regarding the behavior of the student taking the online class sensed by the sensing unit 183 of the terminal device 10A from the terminal device 10A operated by the student.
  • the first information includes, for example, information on the operation history of the student operating the terminal device 10A, information based on the student's video data taken by the camera, information on the student's response operation to the exercise included in the online class, and the like. Can be mentioned.
  • the first information acquired by the first information acquisition module 2033 is stored in the student information database 281.
  • the learning state evaluation module 2034 evaluates the learning state of the student for the online lesson based on the first information.
  • the learning state of the student is specifically evaluated by the degree of concentration, understanding, behavioral characteristics, etc. of the student in the online lesson. Concentration indicates whether the student is focused on the online lesson. The degree of comprehension indicates whether or not the content of the lesson is understood. Behavioral characteristics indicate whether or not the behavior is characteristic of that of other students.
  • the learning state evaluation module 2034 evaluates the degree of concentration of students by estimating the degree to which the students are concentrating on the online class based on, for example, the video data of the students taken by the camera or the operation history of the students.
  • the learning state evaluation module 2034 uses face image data or feature point data about the composition of the face to determine whether the student is gazing at the display 132. The learning state evaluation module 2034 evaluates how much the student is concentrating on the online lesson based on the degree of gaze of the display 132. Further, the learning state evaluation module 2034 determines whether or not an application other than the online lesson is operated based on, for example, the operation history of the student. The learning state evaluation module 2034 evaluates how much the student is focused on the online lesson based on the degree of operation of other applications.
  • the learning state evaluation module 2034 evaluates the concentration of students at each time with a numerical value of 0 to 100, for example, based on the first information.
  • the learning state evaluation module 2034 evaluates the degree of understanding of the student by estimating the degree of understanding based on, for example, the answer operation of the student or the video data of the student.
  • the learning state evaluation module 2034 specifies, for example, the time required to answer each exercise and the correct answer rate based on the student's answer operation to the student's exercise.
  • the learning state evaluation module 2034 evaluates how well the student understands the lesson content based on the specified time and correct answer rate.
  • the learning state evaluation module 2034 analyzes the facial expression or movement of the student based on, for example, the video data of the student.
  • the learning state evaluation module 2034 makes, for example, a facial expression (for example, smiling) indicating that the student understands the lesson content, or an action (for example, shaking the head up and down). Evaluate whether the student understands the content of the lesson based on what they are doing.
  • the learning state evaluation module 2034 evaluates the comprehension level of the student at each time with a numerical value from 0 to 100, for example, based on the first information.
  • the learning state evaluation module 2034 evaluates a student's behavioral characteristics by determining whether or not the student is taking a characteristic behavior in comparison with other students, based on, for example, the student's video data or the student's operation history. do.
  • the learning state evaluation module 2034 is used, for example, when there is a student who operates the operation reception unit 130 much more frequently than other students based on the operation history of the student (for example, the mouse is frequently used). (For example, by clicking on), it is judged that the behavior of the student is characteristic compared to the behavior of other students. Further, for example, in the learning state evaluation module 2034, there is a student who does not operate the operation reception unit 130 at all while other students frequently operate the operation reception unit 130 based on the operation history of the student. If so, it is determined that the behavior of the student is characteristic compared to the behavior of other students.
  • the learning state evaluation module 2034 when there is a student who is walking while another student is seated based on the student's video data, the behavior of the student is the behavior of the other student. Judged to be characteristic compared to. Further, for example, in the learning state evaluation module 2034, when there is a student who is not writing at all while another student is writing based on the video data of the student, the behavior of the student is taken. Judge that it is characteristic compared to the behavior of other students.
  • the learning state evaluation module 2034 is characterized in the behavior of the student as compared with the behavior of other students when the time required for the answer is short and the correct answer rate is low based on the response history of the student to the exercise. Judge that.
  • the learning state evaluation module 2034 evaluates the behavioral characteristics of the student at each time as "normal” or "abnormal” based on, for example, the first information. Further, the learning state evaluation module 2034 may evaluate the behavioral characteristics of the student at each time with a numerical value of 0 to 100 as the degree of synchronization, for example, based on the first information. A high degree of synchronization indicates that the student is behaving in the same way as other students, and a low degree of synchronization indicates that the student is behaving differently from other students.
  • the learning state evaluation module 2034 evaluates the learning state by inputting the operation history, the video data, or the answer history into the evaluation model learned in advance. For example, if there is an operation log of another application while the online lesson is being conducted, it is considered that the students are not concentrated. Also, when the user is not looking at the screen, it is considered that he / she is not concentrated. Therefore, the degree of concentration can be, for example, the ratio of the line of sight toward the terminal device 10A within a predetermined time. In the present embodiment, since the camera 160 periodically captures the eyes of the user, the degree of concentration can be specified by analyzing the video data of the student. As the evaluation model, such an image analysis model may be adopted. In order to specify such an image feature amount, for example, CNN (Convolution Neural Network) can be adopted as an evaluation model.
  • CNN Convolution Neural Network
  • the evaluation model may be a trained model in which the machine learning model is trained based on the past operation history, video data, or response history.
  • the evaluation model is input with an operation history, video data, or answer history about the student, and outputs a degree of concentration or a degree of understanding.
  • the learning state evaluation module 2034 may be compared with the learning state of other students taking the same online lesson.
  • the learning state evaluation module 2034 compares the evaluation values of the degree of concentration among the students. Further, for example, the learning state evaluation module 2034 compares the evaluation values of comprehension among the students.
  • the learning state evaluation module 2034 may calculate the average value or the median value of the learning states of all the students taking the same online lesson and evaluate the overall learning state. Further, the learning state evaluation module 2034 may evaluate the learning state of each student by the deviation in the whole student.
  • the second information presentation module 2035 presents the second information to the teacher to assist the progress of the online lesson based on the learning state of the student.
  • the second information presentation module 2035 assists the progress of the online lesson by specifically presenting the second information to the teacher as follows.
  • the second information presentation module 2035 presents information about a predetermined student to the teacher in a manner distinguishable from other students based on the student's learning state.
  • the second information presentation module 2035 presents information about each student to the teacher in ascending order of concentration, or highlights information about students with low concentration, based on the concentration of each student.
  • the low concentration student means, for example, a student whose concentration level is lower than a predetermined value, a few students with a low concentration level, and a student whose concentration level is low and biased in terms of the overall concentration level.
  • the highlighting indicates, for example, enlarging and displaying information about the student, displaying the information about the student with a frame, a predetermined number of students from the lower to the lowest concentration ratio, and the like.
  • the second information presentation module 2035 presents information about each student to the teacher in ascending order of comprehension, or highlights information about students with low comprehension, based on the comprehension of each student.
  • a student with a low level of understanding means, for example, a student whose level of comprehension is lower than a predetermined value, a predetermined number of students from the lower level with a low level of comprehension, and a student whose level of comprehension is low and biased in terms of the overall level of comprehension. ..
  • the second information presentation module 2035 highlights information about a student whose behavior is characteristic as compared with other students, based on the behavioral characteristics of each student.
  • the second information presentation module 2035 may present the second information based on the change along the time series of the learning state of the student.
  • the second information presentation module 2035 highlights students whose concentration has decreased as the lesson progresses. In addition, the second information presentation module 2035 highlights students whose comprehension level has declined as the lesson progresses. The second information presentation module 2035 also highlights students whose behavioral entrainment has declined as the lesson progresses.
  • the second information presentation module 2035 presents instruction information to the teacher that a predetermined student should be nominated as the second information based on the learning state of the students. For example, the second information presentation module 2035 may present a student with a low evaluation of learning status to the teacher as a student to be nominated. Students with a low evaluation of learning status are, for example, students whose evaluation value of learning status is lower than a predetermined value, students of the lower few students whose evaluation value of learning status is low, and students whose evaluation value is low when viewed from the overall evaluation value. Represents a biased student.
  • the second information presentation module 2035 presents a student with a low concentration as a student to be nominated. Further, for example, the second information presentation module 2035 presents a student with a low level of understanding as a student to be nominated. Further, for example, the second information presentation module 2035 presents a student whose behavior is characteristic, for example, a student having a low degree of synchronization of behavior, as a student to be nominated.
  • the second information presentation module 2035 may present information about the student to be nominated to the teacher based on the number of times the student is nominated in the same online class. For example, the second information presentation module 2035 stores the number of times each student has been nominated, and nominates a student with a small number of names or a student who has not been nominated among a plurality of students with a low evaluation of learning status. Present as a student to be.
  • the second information presentation module 2035 may present the second information based on the change along the time series of the learning state of the student.
  • the second information presentation module 2035 presents a student whose concentration level has decreased as the lesson progresses as a student to be nominated.
  • the second information presentation module 2035 presents a student whose comprehension level has decreased as the lesson progresses as a student to be nominated.
  • the second information presentation module 2035 presents a student whose behavioral conformity has decreased as the lesson progresses as a student to be nominated.
  • the second information presentation module 2035 uses the instruction information that the teacher should explain in detail based on the learning state of the student as the second information. Present to.
  • the second information presentation module 2035 may present instructional information that the content explained by the teacher should be explained in detail based on the number of students having a low evaluation of the learning state.
  • the second information presentation module 2035 presents instruction information to the teacher that the explanation should be repeated when the number of students whose concentration ratio is lower than the predetermined value exceeds the preset number. ..
  • the second information presentation module 2035 presents instruction information to the teacher that the explanation should be repeated when the number of students whose comprehension level is lower than the predetermined value exceeds the preset number. If the number of people exceeds the preset ratio instead of the preset number, the teacher may be presented with instruction information to repeat the explanation.
  • the second information presentation module 2035 may calculate the average value or the median value of the learning states of all the students and present the second information based on the average value or the median value.
  • the second information presentation module 2035 presents instruction information to the teacher that the explanation should be repeated when the average value (or median value) of the concentration of the entire student becomes 60 points or less. .. Further, for example, the second information presentation module 2035 presents instruction information to the teacher that the explanation should be repeated when the average value (or the median value) of the comprehension level of all the students becomes 60 points or less.
  • the second information presentation module 2035 may present the second information based on the change along the time series of the learning state of the student.
  • the second information presentation module 2035 presents instruction information to the teacher that the explanation should be repeated when the concentration level of the entire student decreases as the lesson progresses.
  • the second information presentation module 2035 presents instruction information to the teacher that the explanation should be repeated when the comprehension level of the entire student deteriorates as the lesson progresses.
  • the second information presentation module 2035 presents instruction information to the effect that a break should be taken to the teacher as the second information based on the learning state of the student. For example, it presents instructional information that a break should be taken based on the number of students with a low evaluation of learning status.
  • the second information presentation module 2035 presents instruction information to the teacher that a break should be taken when the number of students whose concentration ratio is lower than a predetermined value exceeds a preset number. ..
  • the second information presentation module 2035 presents to the teacher instruction information that a break should be taken when the number of students whose comprehension level is lower than the predetermined value exceeds the preset number of students. If the number of people exceeds the preset ratio instead of the preset number, the teacher may be presented with instruction information to take a break.
  • the second information presentation module 2035 may calculate the average value or the median value of the learning states of all the students and present the second information based on the average value or the median value.
  • the second information presentation module 2035 presents instruction information to the teacher that a break should be taken when the average value (or median value) of the concentration of all the students is 60 points or less. .. Further, for example, the second information presentation module 2035 presents instruction information to the teacher that a break should be taken when the average value (or median value) of the comprehension level of all the students is 60 points or less.
  • the second information presentation module 2035 may present the second information based on the change along the time series of the learning state of the student.
  • the second information presentation module 2035 presents instruction information to the teacher that a break should be taken when the concentration level of the entire student decreases as the lesson progresses.
  • the second information presentation module 2035 presents instruction information to the teacher that a break should be taken when the comprehension level of the entire student deteriorates as the lesson progresses.
  • the second information presentation module 2035 may output the second information by inputting the learning state of the student into the pre-learned model.
  • the trained model is, for example, trained by a machine learning model as input data for data related to a learning state and correct output data for a correspondence taken by a skilled teacher in the learning state.
  • the machine learning model for example, CNN (Convolutional Neural Network) is used.
  • FIG. 5 is a diagram showing a data structure of the student information database 281 stored in the server 20.
  • each of the records in the student information database 281 has an item “student ID”, an item “name”, an item “terminal ID”, an item “class ID”, an item “operation history”, and an item “video data”. , Includes the item “learning state”.
  • the item "Student ID” is information that identifies each student.
  • the item "name” is information indicating the name of each student.
  • terminal ID is information that identifies the terminal device 10A operated by each student.
  • class ID is information that identifies the online class that each student is taking. Students with the same class ID are considered to be students taking the same online class.
  • the item "operation history” is information indicating the operation history in which each student operates the terminal device 10A.
  • the server 20 stores the operation history of the student at each time.
  • the operation history contains information about the student's response operations to the exercises included in the online lesson.
  • the item "video data” is information indicating the student's video taken by the camera of each terminal device 10A.
  • the server 20 stores the video data of the student at each time.
  • the item "learning status" is information indicating the learning status of each student for online lessons.
  • the server 20 numerically evaluates the concentration, comprehension, and behavioral characteristics (behavioral synchronization) of the students at each time, and then calculates and stores the comprehensive evaluation value of the learning state.
  • the behavioral characteristics may be evaluated by parameters such as "normal” or "abnormal” as shown in FIG. 5, instead of a numerical value such as the degree of synchronization.
  • the server 20 calculates the overall evaluation value based on, for example, the acquired concentration level, comprehension level, and behavioral synchronization level. Specifically, for example, the server 20 multiplies each of the acquired concentration level, comprehension level, and behavioral synchronization level by a predetermined weight and adds them to calculate a comprehensive evaluation value. The server 20 does not have to calculate the comprehensive evaluation value of the learning state.
  • FIG. 6 is a diagram showing the data structure of the teacher information database 282 stored in the server 20.
  • each of the records in the teacher information database 282 has an item "teacher ID”, an item “name”, an item “experience value”, an item “terminal ID”, an item “class ID”, and an item “operation history”. "including.
  • the item "teacher ID” is information that identifies each teacher.
  • the item "name” is information indicating the name of each teacher.
  • the item "experience value” is information indicating the experience of each teacher.
  • terminal ID is information for identifying the terminal device 10B operated by each teacher.
  • class ID is information that identifies the online class taught by each teacher.
  • the lesson ID is used as a key for associating information between other databases, and associates a teacher who teaches the same lesson with a student who is taking the lesson.
  • the item "operation history” is information indicating the operation history in which each teacher operates the terminal device 10A at each time.
  • Examples of the operation history of the teacher include an operation in which the teacher taps information about a predetermined student to nominate the student, or an operation in which the "take a break" button is pressed to take a break.
  • FIG. 7 is a flowchart showing an example of the flow of assisting the progress of the online lesson by the system 1.
  • step S711 the sensing unit 183 of the terminal device 10A operated by the student senses the first information regarding the behavior of the student taking the online lesson.
  • the first information as described above, for example, information on the operation history of the student operating the terminal device 10A, information based on the student's video data taken by the camera, or the student's exercise included in the online lesson. Information on answer operations can be mentioned.
  • the terminal device 10A transmits the first information to the server 20.
  • step S721 the first information acquisition module 2033 of the server 20 acquires the first information regarding the behavior of the student taking the online class from the terminal device 10A.
  • step S722 the learning state evaluation module 2034 of the server 20 evaluates the learning state of the student for the online lesson based on the first information. As described above, the learning state evaluation module 2034 evaluates the degree of concentration, the degree of understanding, and the behavioral characteristics of the learning state of the student.
  • the second information presentation module 2035 of the server 20 presents the second information to the teacher to assist the progress of the online lesson based on the learning state of the student.
  • the second information presentation module 2035 includes information about each student, instruction information to appoint a predetermined student, instruction information to explain in detail what the teacher explained, or Present the teacher with instructional information that a break should be taken.
  • step S731 the display control unit 184 of the terminal device 10B operated by the teacher displays the second information assisting the progress of the online lesson on the terminal device 10B.
  • ⁇ 4 screen example> 8 to 11 are diagrams showing screen examples of the terminal device 10B operated by the teacher.
  • FIG. 8 is a diagram showing a phase of presenting the learning state of the student in the terminal device 10B.
  • the lecture screen 132A showing the lecture of the online lesson
  • the progress assist screen 132B for assisting the progress of the online lesson are displayed on the same screen.
  • the progress assistance screen 132B displays the average value of the learning states (concentration, comprehension, behavioral synchronization, or total value) of all the students taking the online lesson in the area 132C.
  • the camera image of each student and the evaluation value of the learning state are displayed, and the information about the student with the lowest learning state is enlarged and displayed based on the learning state of the student.
  • the students displayed in area 132D may be all students taking online lessons or some students selected based on their learning status.
  • the display of the progress assistance screen 132B shown in FIG. 8 is not limited to this.
  • the display of the region 132C shown in FIG. 8 is not limited to the average value, but may be the median value. Further, the area 132C may not be displayed.
  • the enlarged display is not limited to the information about the student with the lowest learning state. Information about students whose learning status assessment is lower than the average learning status may be magnified. In addition, information about students who have performed characteristic behavior may be enlarged and displayed.
  • FIG. 9 is a diagram showing a situation in which a student to be nominated is presented in the terminal device 10B.
  • the lecture screen 132A showing the lecture of the online lesson and the progress assist screen 132B for assisting the progress of the online lesson are displayed on the same screen.
  • the names of the students to be nominated are displayed in the area 132E.
  • the student displayed in area 132E is, for example, the student with the lowest learning status.
  • the camera image of each student and the evaluation value of the learning state are displayed, and the information about the student with the lowest learning state is enlarged and displayed based on the learning state of the student.
  • the teacher can nominate the student by tapping the camera image of the student with the name displayed in the area 132E.
  • the display of the progress assistance screen 132B shown in FIG. 9 is not limited to this.
  • the display of the area 132E shown in FIG. 9 is not limited to the name of the student to be nominated, but an instruction to nominate a predetermined student, for example, "Nominate a student with a low concentration (or understanding)". , Or "Please nominate a student who has a characteristic behavior.”
  • information about several students with a low evaluation of the learning state is enlarged and displayed.
  • the teacher can nominate one of the students with a low evaluation of learning status by tapping one of the enlarged camera images of the students.
  • Information about several students with low evaluations of learning status may be displayed in ascending order of evaluation. In addition, they may be displayed in ascending order of the number of times they have been nominated in the online class.
  • FIG. 10 is a diagram showing a phase in which the terminal device 10B is presented to the effect that it should be explained in detail.
  • the lecture screen 132A showing the lecture of the online lesson
  • the progress assist screen 132B for assisting the progress of the online lesson are displayed on the same screen.
  • the camera image of each student and the evaluation value of the learning state are displayed, and the information about the student with the lowest learning state is enlarged and displayed based on the learning state of the student.
  • the students displayed in area 132D may be all students taking online lessons or some students selected based on their learning status.
  • the display of the progress assistance screen 132B shown in FIG. 10 is not limited to this.
  • the display of the area 132F shown in FIG. 10 is not limited to "Please repeat the explanation.”
  • a unit in which the explanation should be repeated may also be displayed. The displayed unit is set based on, for example, the progress of the online lesson and the time-series change of the student's learning state.
  • the enlarged display is not limited to the information about the student with the lowest learning state. Information about several students with low learning status ratings may be magnified. In addition, information about students who have performed characteristic behavior may be enlarged and displayed.
  • FIG. 11 is a diagram showing a phase in which a break should be taken in the terminal device 10B.
  • the lecture screen 132A showing the lecture of the online lesson
  • the progress assist screen 132B for assisting the progress of the online lesson are displayed on the same screen.
  • instruction information indicating that a break should be taken is displayed in the area 132G.
  • the camera image of each student and the evaluation value of the learning state are displayed, and the information about the student having the lowest learning state is enlarged and displayed based on the learning state of the student.
  • the transmission / reception unit 182 of the terminal device 10B sends an instruction to the server 20 that the break has occurred.
  • the display control unit 184 of the terminal device 10B displays the "end of break” object on the progress assist screen 132B.
  • the first information acquisition module 2033 of the server device 20 receives the instruction to the effect that the break has occurred from the terminal device 10B, the first information acquisition module 2033 stops the acquisition of the first information from the terminal device 10A.
  • the teacher determines that a sufficient break has been taken, he presses the "end of break” object displayed on the progress assistance screen 132B.
  • the transmission / reception unit 182 of the terminal device 10B transmits an instruction to the effect that the break is over to the server 20.
  • the first information acquisition module 2033 of the server device 20 receives the instruction that the break has ended from the terminal device 10B, the first information acquisition module 2033 resumes the acquisition of the first information from the terminal device 10A.
  • the display of the progress assistance screen 132B shown in FIG. 11 is not limited to this.
  • the display of the area 132G shown in FIG. 11 is not limited to the instruction information indicating that a break should be taken, and may be a display calling attention to the current learning state such as "the learning state is deteriorating.”
  • the enlarged display is not limited to the information about the student with the lowest learning state. Information about several students with low learning status ratings may be magnified. In addition, information about students who have performed characteristic behavior may be enlarged and displayed.
  • the "break end" object does not necessarily have to be displayed on the progress assistance screen 132B.
  • the break time is set in advance.
  • the countdown to the end of the break may be started, and the remaining time of the break may be displayed on the progress assist screen 132B.
  • the trained model may be relearned based on the progress of the online lesson by the veteran teacher.
  • the terminal device 10B operated by the teacher senses the operation history of the teacher.
  • the server 20 stores the operation history of the teacher in association with the experience value of the teacher and the learning state of the student at the time corresponding to the operation history. For example, it is assumed that a teacher who has an experience value higher than a preset experience value presses the "take a break" object 132H to take a break when the average value of the concentration of all the students reaches 70 points.
  • the server 20 remembers that a highly experienced teacher took a break when the average concentration of all students reached 70 points.
  • the server 20 relearns the trained model of the second information presentation module 2035 based on the operation history of the veteran teacher. This makes it possible to relearn the trained model based on the behavior of skilled teachers in online lessons.
  • the second information presentation module 2035 stores the teacher's operation history in association with the teacher's experience value and the student's learning state at the time corresponding to the operation history. , The second information may be presented based on the stored information.
  • Appendix 1 A program for causing a computer equipped with a processor and a memory to execute the program, the first step of acquiring the first information regarding the behavior of a student taking an online lesson from the processor. And, based on the first information, the second step of evaluating the learning state of the student with respect to the online lesson, and the second information of assisting the progress of the online lesson based on the learning state of the student are presented to the teacher. The third step and the program to be executed.
  • the online lesson includes an exercise, and in the first step, the information regarding the answer operation in which the student answers the exercise is acquired as the first information, as described in (Appendix 1) or (Appendix 2). Program.

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】オンライン授業を受講している生徒の学習状態をリアルタイムに把握しつつ、オンライン授業を支援する。 【解決手段】プロセッサと、メモリとを備えるコンピュータに実行させるためのプログラムであって、前記プログラムは、前記プロセッサに、オンライン授業を受講している生徒の行動に関する第1情報を取得する第1ステップと、前記第1情報に基づき、前記オンライン授業に対する前記生徒の学習状態を評価する第2ステップと、前記生徒の学習状態に基づき、前記オンライン授業の進捗を補助する第2情報を教師に提示する第3ステップと、実行させる。

Description

プログラム、方法及び情報処理装置
 本開示は、プログラム、方法及び情報処理装置に関する。
 近年、教育現場で情報通信技術の活用が進むなか、1人1台端末環境で授業のオンライン化も加速している。しかしながら、オンライン授業は、教室での対面の授業に比べて、生徒が授業を理解しているのか、集中しているのかなど、生徒の学習状態を把握するのが難しくなると考えられている。
 上記の状況を考慮して、生徒の理解度や集中度を評価する技術が提案されている。例えば、特許文献1には、講義など、内容の変化を伴いながら進行する話に対する参加者の集中度を評価するための技術は記載されている。特許文献1には、話の相手である複数の参加者からなるグループの映像を取得し、当該映像に基づき、参加者の集中度を全体的に把握する。
特開2018-205638号公報
 オンライン授業を効果的に進めるために、生徒の学習状態を把握することだけではなく、生徒の学習状態に応じて、教師あるいは管理システムから適切なフォローを行ったり、オンライン授業の進捗を支援したりすることも必要である。しかしながら、特許文献1には、オンライン授業を支援することについて考慮されていない。
 そこで、本開示は、オンライン授業を受講している生徒の学習状態をリアルタイムに把握しつつ、オンライン授業を支援することができる技術を提供することを目的とする。
 本開示の一実施形態によると、プロセッサと、メモリとを備えるコンピュータに実行させるためのプログラムが提供される。前記プログラムは、前記プロセッサに、オンライン授業を受講している生徒の行動に関する第1情報を取得する第1ステップと、前記第1情報に基づき、前記オンライン授業に対する前記生徒の学習状態を評価する第2ステップと、前記生徒の学習状態に基づき、前記オンライン授業の進捗を補助する第2情報を教師に提示する第3ステップと、実行させる。
 本開示によれば、オンライン授業を受講している生徒の学習状態をリアルタイムに把握しつつ、オンライン授業を支援することができる。
第1の実施形態のシステム1の全体の構成を示す図である。 第1の実施形態のシステム1を構成する、生徒が操作する端末装置10Aのブロック図である。 第1の実施形態のシステム1を構成する、教師が操作する端末装置10Bのブロック図である。 第1の実施形態のシステム1を構成するサーバ20の機能的な構成を示す図である。 サーバ20が記憶する生徒情報データベース281のデータ構造を示す図である。 サーバ20が記憶する教師情報データベース282のデータ構造を示す図である。 システム1により、オンライン授業の進捗を補助する流れの一例を示すフローチャートである。 端末装置10Bの画面例の図である。 端末装置10Bの画面例の図である。 端末装置10Bの画面例の図である。 端末装置10Bの画面例の図である。
 以下、図面を参照しつつ、本開示の実施形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称及び機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
 <第1の実施形態>
 <1 システム1の全体構成>
 システム1は、生徒と教師の間にオンライン授業を実施するためのシステムである。図1は、第1の実施形態のシステム1の全体の構成を示す図である。
 図1に示すように、システム1は、生徒が操作する端末装置10Aと、教師が操作する端末装置10Bと、サーバ20とを含む。端末装置10Aと、端末装置10Bと、サーバ20とは、有線又は無線の通信規格を用いて、ネットワーク80を介して相互に通信可能に接続されている。
 端末装置10A及び端末装置10Bは、移動体通信システムに対応したスマートフォン、タブレット等の携帯端末などにより実現される。この他に、端末装置10A及び端末装置10Bは、例えば据え置き型のPC(Personal Computer)、ラップトップPCであるとしてもよい。
 図1に端末装置10Bとして示すように、端末装置10A及び端末装置10Bは、通信IF(Interface)12と、入力装置13と、出力装置14と、メモリ15と、記憶部16と、プロセッサ19とを備える。
 通信IF12は、端末装置10A及び端末装置10Bが外部の装置と通信するため、信号を入出力するためのインタフェースである。入力装置13は、ユーザ(生徒又は教師)からの入力操作を受け付けるための入力装置(例えば、タッチパネル、タッチパッド、マウス等のポインティングデバイス、キーボード等)である。出力装置14は、ユーザに対し情報を提示するための出力装置(ディスプレイ、スピーカ等)である。メモリ15は、プログラム、および、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。記憶部16は、データを保存するための記憶装置であり、例えばフラッシュメモリ、HDD(Hard Disc Drive)である。プロセッサ19は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路などにより構成される。
 サーバ20は、生徒の情報及び教師の情報などを管理する装置である。サーバ20は、ネットワーク80に接続されたコンピュータである。
 図1に示すように、サーバ20は、通信IF22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29とを備える。
 通信IF22は、サーバ20が外部の装置と通信するため、信号を入出力するためのインタフェースである。入出力IF23は、ユーザからの入力操作を受け付けるための入力装置、および、ユーザに対し情報を提示するための出力装置とのインタフェースとして機能する。メモリ25は、プログラム、および、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。ストレージ26は、データを保存するための記憶装置であり、例えばフラッシュメモリ、HDD(Hard Disc Drive)である。プロセッサ29は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路などにより構成される。
 <1.1 端末装置10Aの構成>
 図2は、第1の実施形態1のシステム1を構成する、生徒が操作する端末装置10Aのブロック図である。図2に示すように、端末装置10Aは、複数のアンテナ(アンテナ111、アンテナ112)と、各アンテナに対応する無線通信部(第1無線通信部121、第2無線通信部122)と、操作受付部130(タッチ・センシティブ・デバイス131およびディスプレイ132を含む)と、音声処理部140と、マイク141と、スピーカ142と、位置情報センサ150と、カメラ160と、記憶部170Aと、制御部180Aと、を含む。端末装置10Aは、図2では特に図示していない機能及び構成(例えば、電力を保持するためのバッテリー、バッテリーから各回路への電力の供給を制御する電力供給回路など)も有している。図2に示すように、端末装置10Aに含まれる各ブロックは、バス等により電気的に接続される。
 アンテナ111は、端末装置10Aが発する信号を電波として放射する。また、アンテナ111は、空間から電波を受信して受信信号を第1無線通信部121へ与える。
 アンテナ112は、端末装置10Aが発する信号を電波として放射する。また、アンテナ112は、空間から電波を受信して受信信号を第2無線通信部122へ与える。
 第1無線通信部121は、端末装置10Aが他の無線機器と通信するため、アンテナ111を介して信号を送受信するための変復調処理などを行う。第2無線通信部122は、端末装置10Aが他の無線機器と通信するため、アンテナ112を介して信号を送受信するための変復調処理などを行う。第1無線通信部121と第2無線通信部122とは、チューナー、RSSI(Received Signal Strength Indicator)算出回路、CRC(Cyclic Redundancy Check)算出回路、高周波回路などを含む通信モジュールである。第1無線通信部121と第2無線通信部122とは、端末装置10Aが送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部180Aへ与える。
 操作受付部130は、操作者の入力操作を受け付けるための機構を有する。具体的には、操作受付部130は、タッチスクリーンとして構成され、タッチ・センシティブ・デバイス131と、ディスプレイ132とを含む。また、操作受付部130は、マウス、キーボード等を含むこととしてもよい。
 タッチ・センシティブ・デバイス131は、端末装置10Aの操作者の入力操作を受け付ける。タッチ・センシティブ・デバイス131は、例えば静電容量方式のタッチパネルを用いることによって、タッチパネルに対する操作者の接触位置を検出する。タッチ・センシティブ・デバイス131は、タッチパネルにより検出した操作者の接触位置を示す信号を入力操作として制御部180Aへ出力する。
 ディスプレイ132は、制御部180Aの制御に応じて、画像、動画、テキストなどのデータを表示する。ディスプレイ132は、例えばLCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイによって実現される。
 音声処理部140は、音声信号の変復調を行う。音声処理部140は、マイク141から与えられる信号を変調して、変調後の信号を制御部180Aへ与える。また、音声処理部140は、音声信号をスピーカ142へ与える。音声処理部140は、例えば音声処理用のプロセッサによって実現される。マイク141は、音声入力を受け付けて、当該音声入力に対応する音声信号を音声処理部140へ与える。スピーカ142は、音声処理部140から与えられる音声信号を音声に変換して当該音声を端末装置10Aの外部へ出力する。
 位置情報センサ150は、端末装置10Aの位置を検出するセンサであり、例えばGPS(Global Positioning System)モジュールである。GPSモジュールは、衛星測位システムで用いられる受信装置である。衛星測位システムでは、少なくとも3個または4個の衛星からの信号を受信し、受信した信号に基づいて、GPSモジュールが搭載される端末装置10Aの現在位置を検出する。
 カメラ160は、受光素子により光を受光して、撮影画像として出力するためのデバイスである。カメラ160は、例えば、カメラ160から撮影対象までの距離を検出できる深度カメラである。
 記憶部170Aは、例えばフラッシュメモリ等により構成され、端末装置10Aが使用するデータおよびプログラムを記憶する。ある局面において、記憶部170Aは、生徒情報171を記憶する。
 生徒情報171は、端末装置10Aを用いてオンライン授業を受講している生徒に関する情報である。生徒情報171としては、例えば、生徒の識別情報(生徒ID)、生徒の氏名、端末装置10Aの識別情報(端末ID)、生徒が受講しているオンライン授業の識別情報(授業ID)、生徒が端末装置10Aを操作した履歴、端末装置10Aにより撮影した生徒の映像などを含む。
 制御部180Aは、記憶部170Aに記憶されるプログラムを読み込んで、プログラムに含まれる命令を実行することにより、端末装置10Aの動作を制御する。制御部180Aは、例えば予め端末装置10Aにインストールされているアプリケーションである。制御部180Aは、プログラムに従って動作することにより、入力操作受付部181と、送受信部182と、センシング部183としての機能を発揮する。
 入力操作受付部181は、タッチ・センシティブ・デバイス131等の入力装置に対する操作者の入力操作を受け付ける処理を行う。入力操作受付部181は、タッチ・センシティブ・デバイス131に対して操作者が指などを接触させた座標の情報に基づき、操作者の操作がフリック操作であるか、タップ操作であるか、ドラッグ(スワイプ)操作であるか等の操作の種別を判定する。
 送受信部182は、端末装置10Aが、サーバ20等の外部の装置と、通信プロトコルに従ってデータを送受信するための処理を行う。
 センシング部183は、オンライン授業を受講している生徒の行動に関する第1情報をセンシングする処理を行う。第1情報としては、例えば、生徒が端末装置10Aを操作した操作履歴に関する情報、カメラで撮影した生徒の映像データに基づく情報、又は、オンライン授業に含まれる演習への生徒の回答操作に関する情報などが挙げられる。センシング部183によりセンシングされた第1情報は、送受信部182を介してサーバ20に送信される。
 操作履歴に関する情報は、具体的には、生徒が端末装置10Aの入力装置13(ハードウェア)を操作したログ、オンライン授業を受講するためのアプリケーションを操作したログ、又はOS(Operating System)を操作したログ等が含まれる。
 ハードウェアを操作したログには、例えば、キーボードによりどのキーが入力されたかを示す情報、キーの入力回数等が含まれる。また、ハードウェアを操作したログには、マウス、タッチパッド、タッチパネル等のポインティングデバイスにより検出される位置の情報、当該位置の情報に基づき判別される生徒の操作内容の情報(例えば、ドラッグ、スワイプ、フリック、ロングタップ等)等が含まれる。具体的には、ハードウェアを操作したログには、マウスやトラックボール、タッチセンシティブデバイスなどのポインティングデバイスによりどの位置情報がクリックされたかを示す情報、クリック回数、マイクにより入力された音声情報、発言回数、タッチパネルのフリック操作等についての情報、フリックの操作等の回数等を採用することができる。
 アプリケーションを操作したログには、オンライン授業を受講するためのアプリケーションを使用した際に生徒から入力される操作のログが含まれる。例えば、センシング部183は、生徒が受講を開始した操作、受講を終了した操作、「手を挙げる」ボタンを押した操作、他の生徒とチャットした履歴、及び、文字を入力してノートを取る履歴などを記録する。
 また、アプリケーションを操作したログには、生徒がアプリケーションを用いて、オンライン授業に含まれる演習へ回答する回答操作に関する情報が含まれる。当該回答操作に関する情報には、具体的に、各演習問題への回答にかかる時間と、入力した内容と、入力した文字数と、回答を修正した回数となどが含まれる。
 OSを操作したログには、アプリケーションがアクティブになった情報、OSの設定変更情報、情報処理装置10をスリープにした情報、スリープ状態から復帰させた情報、及び、ハードウェア資源の利用状況の情報(例えば、CPU使用率、メモリ使用率、ネットワークの使用状況など)などが含まれる。
 カメラで撮影した生徒の映像データに基づく情報は、例えば、生徒がカメラを起動した操作に関する情報と、生徒の顔の向き及び表情を示す顔画像データと、顔の構成を画像解析により抽出して特徴点の動きとして表した特徴点データと、生徒の動き(授業中の立ち歩きなど)を示す動作データと、体の構成を画像解析により抽出して特徴点の動きとして表した特徴点データとなどが含まれる。なお、これらのデータは、映像データに基づく情報にすべてが含まれなくてもよい。
 <1.2 端末装置10Bの構成>
 図3は、第1の実施形態のシステム1を構成する、教師が操作する端末装置10Bのブロック図である。端末装置10Bは、記憶部170B及び制御部180B以外、図2に示す端末装置10Aと同じように構成されているので、その説明を省略する。以下、記憶部170B及び制御部180Bについて説明する。
 記憶部170Bは、例えばフラッシュメモリ等により構成され、端末装置10Bが使用するデータおよびプログラムを記憶する。ある局面において、記憶部170Bは、教師情報172を記憶する。
 教師情報172は、端末装置10Bを用いてオンライン授業を担当する教師に関する情報である。教師情報172としては、例えば、教師の識別情報(教師ID)、教師の氏名、教師の経験値、端末装置10Bの識別情報(端末ID)、オンライン授業の識別情報(授業ID)、教師が端末装置10Bを操作した履歴などを含む。教師の経験値は、教師の経験に基づいて付される教師の評価を表す。経験値は例えば、これまで教師が担当した授業の履歴、有している免許、及び資格などに基づいて設定される。なお、経験値ではなく、これまで教師が担当した授業の履歴、有している免許、及び資格などが記憶されていてもよい。
 制御部180Bは、記憶部170Bに記憶されるプログラムを読み込んで、プログラムに含まれる命令を実行することにより、端末装置10Bの動作を制御する。制御部180Bは、例えば予め端末装置10Aにインストールされているアプリケーションである。制御部180Bは、表示制御部184以外、図2に示す制御部180Aと同じように構成されているので、その説明を省略する。以下、表示制御部184について説明する。
 表示制御部184は、オンライン授業の進捗を補助する第2情報を教師に提示するように、端末装置10Bの表示を制御する処理を行う。表示制御部184は、送受信部182を介して、サーバ20から第2情報を表示するような指示を受信し、第2情報を端末装置10Bに表示する。第2情報について詳細は後述するが、例えば、各生徒に関する情報、所定の生徒を指名すべき旨の指示情報、教師が説明していた内容を詳細に説明すべき旨の指示情報、及び、休憩を入れるべき旨の指示情報などが挙げられる。
 <1.3 サーバ20の機能的な構成>
 図4は、第1の実施形態のシステム1を構成するサーバ20の機能的な構成を示す図である。図4に示すように、サーバ20は、通信部201と、記憶部202と、制御部203としての機能を発揮する。
 通信部201は、サーバ20が外部の装置と通信するための処理を行う。
 記憶部202は、サーバ20が使用するデータ及びプログラムを記憶する。記憶部202は、生徒情報データベース281及び教師情報データベース282を記憶する。
 生徒情報データベース281は、オンライン授業を受講している生徒に関する情報を保持するためのデータベースである。詳細は後述する。
 教師情報データベース282は、オンライン授業を担当する教師に関する情報を保持するためのデータベースである。詳細は後述する。
 制御部203は、サーバ20のプロセッサがプログラムに従って処理を行うことにより、各種モジュールとして示す機能を発揮する。
 受信制御モジュール2031は、サーバ20が外部の装置から通信プロトコルに従って信号を受信する処理を制御する。
 送信制御モジュール2032は、サーバ20が外部の装置に対し通信プロトコルに従って信号を送信する処理を制御する。
 第1情報取得モジュール2033は、生徒が操作する端末装置10Aから、端末装置10Aのセンシング部183によりセンシングされた、オンライン授業を受講している生徒の行動に関する第1情報を取得する。第1情報としては、例えば、生徒が端末装置10Aを操作した操作履歴に関する情報、カメラで撮影した生徒の映像データに基づく情報、又は、オンライン授業に含まれる演習への生徒の回答操作に関する情報などが挙げられる。第1情報取得モジュール2033により取得した第1情報は、生徒情報データベース281に記憶されている。
 学習状態評価モジュール2034は、第1情報に基づき、オンライン授業に対する生徒の学習状態を評価する。生徒の学習状態は、具体的に、オンライン授業に対する生徒の集中度、理解度及び行動特性等により評価される。集中度は、生徒がオンライン授業に集中しているかどうかを表す。理解度は、授業の内容を理解できているかどうかを表す。行動特性は、他の生徒の行動と比べて特徴的な行動をしているかどうかを表す。
 生徒の集中度について、学習状態評価モジュール2034は、例えば、カメラで撮影した生徒の映像データ、又は生徒の操作履歴に基づき、生徒がオンライン授業に集中している程度を推定することで評価する。
 具体的には、例えば、学習状態評価モジュール2034は、顔画像データ、又は顔の構成についての特徴点データを利用し、生徒がディスプレイ132を注視しているかを判断する。学習状態評価モジュール2034は、ディスプレイ132の注視の程度に基づき、生徒がオンライン授業にどれだけ集中しているかを評価する。また、学習状態評価モジュール2034は、例えば、生徒の操作履歴に基づき、オンライン授業以外のアプリケーションを操作しているかを判断する。学習状態評価モジュール2034は、他のアプリケーションの操作の程度に基づき、生徒がオンライン授業にどれだけ集中しているかを評価する。
 学習状態評価モジュール2034は、例えば、第1情報に基づき、各時刻における生徒の集中度を、0から100の数値で評価する。
 生徒の理解度について、学習状態評価モジュール2034は、例えば、生徒の回答操作、又は生徒の映像データに基づき、理解の程度を推定することで評価する。
 具体的には、学習状態評価モジュール2034は、例えば、生徒の演習への生徒の回答操作に基づき、各演習問題への回答にかかる時間及び正解率を特定する。学習状態評価モジュール2034は、特定した時間及び正解率に基づき、生徒が授業内容をどれだけ理解しているかを評価する。また、学習状態評価モジュール2034は、例えば、生徒の映像データに基づき、生徒の表情、又は動作を解析する。学習状態評価モジュール2034は、生徒が、例えば、授業内容を理解していることを表す表情(例えば、微笑んでいるなど)をしているか、又は、動作(例えば、頭を上下に振るなど)をしているかに基づき、生徒が授業の内容を理解しているかを評価する。
 学習状態評価モジュール2034は、例えば、第1情報に基づき、各時刻における生徒の理解度を、0から100の数値で評価する。
 生徒の行動特性について、学習状態評価モジュール2034は、例えば、生徒の映像データ、又は生徒の操作履歴に基づき、他の生徒と比較して特徴的な行動を取っているかどうかを判断することで評価する。
 具体的には、学習状態評価モジュール2034は、例えば、生徒の操作履歴に基づき、他の生徒と比べて遥かに頻繁に操作受付部130を操作している生徒がいる場合(例えば、マウスを頻繁にクリックしているなど)に、当該生徒の行動が他の生徒の行動と比べて特徴的であると判断する。また、例えば、学習状態評価モジュール2034は、生徒の操作履歴に基づき、他の生徒が頻繁に操作受付部130を操作しているのに対し、全く操作受付部130を操作していない生徒がいる場合、当該生徒の行動が他の生徒の行動と比べて特徴的であると判断する。
 また、例えば、学習状態評価モジュール2034は、生徒の映像データに基づき、他の生徒が着席しているのに対し、立ち歩いている生徒がいる場合に、当該生徒の行動が他の生徒の行動と比べて特徴的であると判断する。また、例えば、学習状態評価モジュール2034は、生徒の映像データに基づき、他の生徒が筆記動作をしているのに対し、全く筆記動作をしていない生徒がいる場合に、当該生徒の行動が他の生徒の行動と比べて特徴的であると判断する。
 また、例えば、学習状態評価モジュール2034は、演習への生徒の回答履歴に基づき、回答にかかる時間が短くて正解率が低い場合に、当該生徒の行動が他の生徒の行動と比べて特徴的であると判断する。
 学習状態評価モジュール2034は、例えば、第1情報に基づき、各時刻における生徒の行動特性を、「正常」、又は「異常」で評価する。また、学習状態評価モジュール2034は、例えば、第1情報に基づき、各時刻における生徒の行動特性を、同調度として0から100の数値で評価してもよい。同調度が高い場合、他の生徒と同様の行動を取っていることを表し、同調度が低い場合、他の生徒と異なる行動を取っていることを表す。
 さらに具体的には、学習状態評価モジュール2034は、予め学習された評価モデルに、操作履歴、映像データ、又は回答履歴を入力することにより、学習状態を評価する。例えば、オンライン授業が実施している間に他のアプリケーションの操作ログがある場合には、生徒が集中していないと考えられる。また、ユーザがスクリーンを見ていない場合等に、集中していないと考えられる。よって、集中度は、例えば、所定時間内に視線が端末装置10Aに向いている割合とすることができる。本実施形態では、カメラ160がユーザの目を定期的に撮影しているため、生徒の映像データを解析することにより、集中度を特定することができる。評価モデルは、このような画像解析モデルを採用すればよい。このような画像特徴量を特定するため、評価モデルとして、例えばCNN(Convolution Neural Network)を採用することができる。
 また、評価モデルは、機械学習モデルが過去の操作履歴、映像データ、又は回答履歴に基づいて学習された学習済みモデルであっても構わない。評価モデルは、生徒についての操作履歴、映像データ、又は回答履歴を入力され、集中度、又は理解度を出力する。
 学習状態評価モジュール2034は、同一のオンライン授業を受講している他の生徒の学習状態と比較してもよい。
 例えば、学習状態評価モジュール2034は、生徒間において、集中度の評価値を比較する。また、例えば、学習状態評価モジュール2034は、生徒間において理解度の評価値を比較する。
 学習状態評価モジュール2034は、同一のオンライン授業を受講している全ての生徒の学習状態の平均値又は中央値を算出して、全体の学習状態を評価してもよい。また、学習状態評価モジュール2034は、各生徒の学習状態を、生徒全体の中での偏差で評価してもよい。
 第2情報提示モジュール2035は、生徒の学習状態に基づき、オンライン授業の進捗を補助する第2情報を教師に提示する。第2情報提示モジュール2035は、具体的に以下のように第2情報を教師に提示することで、オンライン授業の進捗を補助する。
 (ア)生徒の学習状態の提示
 第2情報提示モジュール2035は、生徒の学習状態に基づき、所定の生徒に関する情報を、他の生徒と区別可能な態様で教師に提示する。
 例えば、第2情報提示モジュール2035は、各生徒の集中度に基づき、集中度の低い順に各生徒に関する情報を教師に提示したり、集中度が低い生徒に関する情報を強調表示したりする。集中度が低い生徒とは、例えば、集中度が所定の数値よりも低い生徒、集中度が低い下位数人の生徒、全体の集中度から見て集中度が低く偏っている生徒などを表す。強調表示は、例えば、生徒に関する情報を拡大して表示すること、生徒に関する情報に枠を付して表示すること、集中度が低い下位から所定数の生徒などを表す。
 また、例えば、第2情報提示モジュール2035は、各生徒の理解度に基づき、理解度の低い順に各生徒に関する情報を教師に提示したり、理解度度が低い生徒に関する情報を強調表示したりする。理解度が低い生徒とは、例えば、理解度が所定の数値よりも低い生徒、理解度が低い下位から所定数の生徒、全体の理解度から見て理解度が低く偏っている生徒などを表す。
 また、例えば、第2情報提示モジュール2035は、各生徒の行動特性に基づき、行動が他の生徒と比べて特徴的な生徒に関する情報を強調表示する。
 また、第2情報提示モジュール2035は、生徒の学習状態の時系列に沿った変化に基づき、第2情報を提示してもよい。
 具体的には、例えば、第2情報提示モジュール2035は、集中度が授業の進行につれて低下した生徒を強調表示する。また、第2情報提示モジュール2035は、理解度が授業の進行につれて低下した生徒を強調表示する。また、第2情報提示モジュール2035は、行動の同調度が授業の進行につれて低下した生徒を強調表示する。
 これにより、生徒の学習状態をリアルタイムに把握しつつ、注目すべき生徒を教師に提示することができる。
 (イ)指名すべき生徒の提示
 第2情報提示モジュール2035は、生徒の学習状態に基づき、所定の生徒を指名すべき旨の指示情報を、第2情報として教師に提示する。例えば、第2情報提示モジュール2035は、学習状態の評価が低い生徒を、指名すべき生徒として教師に提示してよい。学習状態の評価が低い生徒とは、例えば、学習状態の評価値が所定の数値よりも低い生徒、学習状態の評価値が低い下位数人の生徒、全体の評価値から見て評価値が低く偏っている生徒などを表す。
 具体的には、例えば、第2情報提示モジュール2035は、集中度が低い生徒を、指名すべき生徒として提示する。また、例えば、第2情報提示モジュール2035は、理解度が低い生徒を、指名すべき生徒として提示する。また、例えば、第2情報提示モジュール2035は、行動が特徴的、例えば、行動の同調度の低い生徒を、指名すべき生徒として提示する。
 また、第2情報提示モジュール2035は、同一のオンライン授業で生徒が指名された回数に基づき、指名すべき生徒に関する情報を教師に提示してよい。例えば、第2情報提示モジュール2035は、各生徒が指名された回数を記憶し、学習状態の評価が低い複数の生徒のうち、氏名回数が少ない生徒、又はまだ指名されていない生徒を、指名すべき生徒として提示する。
 また、第2情報提示モジュール2035は、生徒の学習状態の時系列に沿った変化に基づき、第2情報を提示してもよい。
 例えば、第2情報提示モジュール2035は、集中度が授業の進行につれて低下した生徒を、指名すべき生徒として提示する。また、第2情報提示モジュール2035は、理解度が授業の進行につれて低下した生徒を、指名すべき生徒として提示する。また、第2情報提示モジュール2035は、行動の同調度が授業の進行につれて低下した生徒を、指名すべき生徒として提示する。
 これにより、生徒の学習状態をリアルタイムに把握しつつ、教師が生徒を適切に指名することができる。
 (ウ)詳細に説明すべき旨の提示
 第2情報提示モジュール2035は、生徒の学習状態の基づき、教師が説明していた内容を詳細に説明すべき旨の指示情報を、第2情報として教師に提示する。例えば、第2情報提示モジュール2035は、学習状態の評価が低い生徒の人数に基づき、教師が説明していた内容を詳細に説明すべき旨の指示情報を提示してよい。
 具体的には、例えば、第2情報提示モジュール2035は、集中度が所定値より低い生徒の人数が、予め設定された人数を超えた場合、説明を繰り返すべき旨の指示情報を教師に提示する。また、第2情報提示モジュール2035は、理解度が所定値より低い生徒の人数が、予め設定された人数を超えた場合、説明を繰り返すべき旨の指示情報を教師に提示する。なお、予め設定された人数ではなく、予め設定された割合を超えた場合、説明を繰り返すべき旨の指示情報を教師に提示してもよい。
 また、第2情報提示モジュール2035は、全ての生徒の学習状態の平均値又は中央値を算出して、当該平均値又は中央値に基づき、第2情報を提示してもよい。
 具体的には、例えば、第2情報提示モジュール2035は、生徒全体の集中度の平均値(又は中央値)が60点以下になった場合、説明を繰り返すべき旨の指示情報を教師に提示する。また、例えば、第2情報提示モジュール2035は、生徒全体の理解度の平均値(又は中央値)が60点以下になった場合、説明を繰り返すべき旨の指示情報を教師に提示する。
 また、第2情報提示モジュール2035は、生徒の学習状態の時系列に沿った変化に基づき、第2情報を提示してもよい。
 具体的には、例えば、第2情報提示モジュール2035は、生徒全体の集中度が授業の進行につれて低下した場合に、説明を繰り返すべき旨の指示情報を教師に提示する。また、第2情報提示モジュール2035は、生徒全体の理解度が授業の進行につれて低下した場合に、説明を繰り返すべき旨の指示情報を教師に提示する。
 これにより、生徒の学習状態をリアルタイムに把握しつつ、教師が適切なペースでオンライン授業を進めて、オンライン授業の効果を高めることができる。
 (エ)休憩を入れるべき旨の提示
 第2情報提示モジュール2035は、生徒の学習状態に基づき、休憩を入れるべき旨の指示情報を、第2情報として教師に提示する。例えば、学習状態の評価が低い生徒の人数に基づき、休憩を入れるべき旨の指示情報を提示する。
 具体的には、例えば、第2情報提示モジュール2035は、集中度が所定値より低い生徒の人数が、予め設定された人数を超えた場合、休憩を入れるべき旨の指示情報を教師に提示する。また、第2情報提示モジュール2035は、理解度が所定値より低い生徒の人数が、予め設定された人数を超えた場合、休憩を入れるべき旨の指示情報を教師に提示する。なお、予め設定された人数ではなく、予め設定された割合を超えた場合、休憩を入れるべき旨の指示情報を教師に提示してもよい。
 また、第2情報提示モジュール2035は、全ての生徒の学習状態の平均値又は中央値を算出して、当該平均値又は中央値に基づき、第2情報を提示してもよい。
 具体的には、例えば、第2情報提示モジュール2035は、生徒全体の集中度の平均値(又は中央値)が60点以下になった場合、休憩を入れるべき旨の指示情報を教師に提示する。また、例えば、第2情報提示モジュール2035は、生徒全体の理解度の平均値(又は中央値)が60点以下になった場合、休憩を入れるべき旨の指示情報を教師に提示する。
 また、第2情報提示モジュール2035は、生徒の学習状態の時系列に沿った変化に基づき、第2情報を提示してもよい。
 具体的には、例えば、第2情報提示モジュール2035は、生徒全体の集中度が授業の進行につれて低下した場合に、休憩を入れるべき旨の指示情報を教師に提示する。また、第2情報提示モジュール2035は、生徒全体の理解度が授業の進行につれて低下した場合に、休憩を入れるべき旨の指示情報を教師に提示する。
 また、第2情報提示モジュール2035は、予め学習された学習済みモデルに、生徒の学習状態を入力することにより、第2情報を出力するようにしてもよい。学習済みモデルは、例えば、機械学習モデルが、学習状態に関するデータを入力データ、当該学習状態の際に熟練の教師が取る対応を正解出力データとして学習されてなる。機械学習モデルは、例えば、CNN(Convolution Neural Network)が用いられる。
 これにより、生徒の学習状態をリアルタイムに把握しつつ、教師が適切なタイミングで休憩を入れられることができる。
 <2 データ構造>
 図5は、サーバ20が記憶する生徒情報データベース281のデータ構造を示す図である。
 図5に示すように、生徒情報データベース281のレコードのそれぞれは、項目「生徒ID」、項目「氏名」、項目「端末ID」、項目「授業ID」、項目「操作履歴」、項目「映像データ」、項目「学習状態」を含む。
 項目「生徒ID」は、それぞれの生徒を識別する情報である。
 項目「氏名」は、それぞれの生徒の名前を示す情報である。
 項目「端末ID」は、それぞれの生徒が操作している端末装置10Aを識別する情報である。
 項目「授業ID」は、それぞれの生徒が受講しているオンライン授業を識別する情報である。授業IDが同一な生徒を、同一のオンライン授業を受講している生徒とする。
 項目「操作履歴」は、それぞれの生徒が端末装置10Aを操作した操作履歴を示す情報である。サーバ20は、各時刻における生徒の操作履歴を記憶する。操作履歴には、オンライン授業に含まれる演習への生徒の回答操作に関する情報を含む。
 項目「映像データ」は、それぞれの端末装置10Aのカメラで撮影した生徒の映像を示す情報である。サーバ20は、各時刻における生徒の映像データを記憶する。
 項目「学習状態」は、それぞれの生徒の、オンライン授業に対する学習状態を示す情報である。サーバ20は、例えば、各時刻における生徒の集中度、理解度及び行動特性(行動の同調度)をそれぞれ数値で評価したうえで、学習状態の総合的な評価値を算出して記憶する。なお、行動特性については、同調度のような数値ではなく、図5で示すような、「正常」又は「異常」などのパラメータで評価してもよい。サーバ20は、総合的な評価値を、例えば、取得された集中度、理解度、及び行動の同調度に基づいて算出する。具体的には、例えば、サーバ20は、取得された集中度、理解度、及び行動の同調度のそれぞれに所定の重みをかけて加算し、総合的な評価値を算出する。なお、サーバ20は、学習状態の総合的な評価値を算出しなくても構わない。
 図6は、サーバ20が記憶する教師情報データベース282のデータ構造を示す図である。
 図6に示すように、教師情報データベース282のレコードのそれぞれは、項目「教師ID」、項目「氏名」、項目「経験値」、項目「端末ID」、項目「授業ID」、項目「操作履歴」を含む。
 項目「教師ID」は、それぞれの教師を識別する情報である。
 項目「氏名」は、それぞれの教師の名前を示す情報である。
 項目「経験値」は、それぞれの教師の経験を示す情報である。
 項目「端末ID」は、それぞれの教師が操作している端末装置10Bを識別する情報である。
 項目「授業ID」は、それぞれの教師が教えているオンライン授業を識別する情報である。授業IDは、他のデータベース間において情報を紐づけるためのキーとして利用され、同一の授業を教える教師と、受講している生徒とを関連付ける。
 項目「操作履歴」は、それぞれの教師が各時刻において端末装置10Aを操作した操作履歴を示す情報である。教師の操作履歴としては、例えば、教師が所定の生徒に関する情報をタップして当該生徒を指名する操作、又は、「休憩を入れる」ボタンを押して休憩を入れる操作などが挙げられる。
 <3 動作>
 以下、図7を参照しながら、システム1により、オンライン授業を支援する処理について説明する。
 図7は、システム1により、オンライン授業の進捗を補助する流れの一例を示すフローチャートである。
 ステップS711において、生徒が操作する端末装置10Aのセンシング部183は、オンライン授業を受講している生徒の行動に関する第1情報をセンシングする。第1情報としては、前述したように、例えば、生徒が端末装置10Aを操作した操作履歴に関する情報、カメラで撮影した生徒の映像データに基づく情報、又は、オンライン授業に含まれる演習への生徒の回答操作に関する情報などが挙げられる。端末装置10Aは、第1情報をサーバ20へ送信する。
 ステップS721において、サーバ20の第1情報取得モジュール2033は、端末装置10Aから、オンライン授業を受講している生徒の行動に関する第1情報を取得する。
 ステップS722において、サーバ20の学習状態評価モジュール2034は、第1情報に基づき、オンライン授業に対する生徒の学習状態を評価する。学習状態評価モジュール2034は、前述したように、生徒の学習状態について、集中度、理解度及び行動特性をそれぞれ評価する。
 ステップS723において、サーバ20の第2情報提示モジュール2035は、生徒の学習状態に基づき、オンライン授業の進捗を補助する第2情報を教師に提示する。第2情報提示モジュール2035は、前述したように、各生徒に関する情報、所定の生徒を指名すべき旨の指示情報、教師が説明していた内容を詳細に説明すべき旨の指示情報、又は、休憩を入れるべき旨の指示情報を教師に提示する。
 ステップS731において、教師が操作する端末装置10Bの表示制御部184は、オンライン授業の進捗を補助する第2情報を端末装置10Bに表示する。
 これにより、オンライン授業を受講している生徒の学習状態に基づき、オンライン授業の進捗を補助する情報を提示することができる。そのため、生徒の学習状態をリアルタイムに把握しつつ、オンライン授業を支援する。
 <4 画面例>
 図8から図11は、教師が操作する端末装置10Bの画面例を示す図である。
 図8は、端末装置10Bにおいて、生徒の学習状態を提示する局面を示す図である。図8に示すように、端末装置10Bのディスプレイ132において、オンライン授業の講義を示す講義画面132Aと、オンライン授業の進捗を補助する進捗補助画面132Bとは、同一な画面に表示されている。
 進捗補助画面132Bには、領域132Cにおいて、オンライン授業を受講している全ての生徒の学習状態(集中度、理解度、行動の同調度、又は総合値)の平均値が表示されている。
 領域132Dにおいて、各生徒のカメラ映像及び学習状態の評価値が表示され、かつ、生徒の学習状態の基づき、学習状態が一番低い生徒に関する情報が拡大して表示されている。領域132Dに表示されている生徒は、オンライン授業を受講している全ての生徒であってもよいし、学習状態に基づいて選択した一部の生徒であってもよい。
 なお、図8に示す進捗補助画面132Bの表示はこれに限定されない。例えば、図8に示す領域132Cの表示は平均値に限らず、中央値であってもよい。また、領域132Cの表示はなくても構わない。
 また、例えば、領域132Dにおいて、拡大表示されるのは、学習状態が一番低い生徒に関する情報に限定されない。学習状態の評価が、学習状態の平均値よりも低い生徒に関する情報が拡大して表示されてもよい。また、特徴的な行動をした生徒に関する情報が拡大して表示されてもよい。
 これにより、生徒の学習状態をリアルタイムに把握しつつ、注目すべき生徒を教師に提示することができる。
 図9は、端末装置10Bにおいて、指名すべき生徒を提示する局面を示す図である。図9に示すように、端末装置10Bのディスプレイ132において、オンライン授業の講義を示す講義画面132Aと、オンライン授業の進捗を補助する進捗補助画面132Bとは、同一な画面に表示されている。
 進捗補助画面132Bには、領域132Eにおいて、指名すべき生徒の名前が表示されている。領域132Eで表示される生徒は、例えば、学習状態が一番低い生徒である。
 領域132Dにおいて、各生徒のカメラ映像及び学習状態の評価値は表示され、かつ、生徒の学習状態の基づき、学習状態が一番低い生徒に関する情報は拡大して表示されている。
 教師は領域132Eで表示される名前の生徒のカメラ映像をタップすることで、当該生徒を指名することができる。
 なお、図9に示す進捗補助画面132Bの表示はこれに限定されない。例えば、図9に示す領域132Eの表示は指名するべき生徒の名前に限らず、所定の生徒を指名する旨の指示、例えば、「集中度(又は理解度)の低い生徒を指名してください。」、又は「特徴的な行動を取っている生徒を指名してください。」であってもよい。
 このとき、例えば、領域132Dにおいて、学習状態の評価が低い数人の生徒に関する情報が拡大表示される。教師は、拡大表示されている複数の生徒のカメラ映像のうちのいずれかをタップすることで、学習状態の評価が低い生徒のうちいずれかを指名することができる。なお、学習状態の評価が低い数人の生徒に関する情報は、評価が低い順に表示されていてもよい。また、当該オンライン授業において指名された回数が少ない順に表示されていてもよい。
 これにより、生徒の学習状態をリアルタイムに把握しつつ、教師が生徒を適切に指名することができる。
 図10は、端末装置10Bにおいて、詳細に説明すべき旨を提示する局面を示す図である。図10に示すように、端末装置10Bのディスプレイ132において、オンライン授業の講義を示す講義画面132Aと、オンライン授業の進捗を補助する進捗補助画面132Bとは、同一な画面に表示されている。
 進捗補助画面132Bには、領域132Fにおいて、教師が説明した内容をもう一度詳細に説明すべき旨の指示情報が表示されている。
 領域132Dにおいて、各生徒のカメラ映像及び学習状態の評価値が表示され、かつ、生徒の学習状態の基づき、学習状態が一番低い生徒に関する情報が拡大して表示されている。領域132Dに表示されている生徒は、オンライン授業を受講している全ての生徒であってもよいし、学習状態に基づいて選択した一部の生徒であってもよい。
 なお、図10に示す進捗補助画面132Bの表示はこれに限定されない。例えば、図10に示す領域132Fの表示は「説明を繰り返してください。」に限らず、説明を繰り返すべき単元も表示してもよい。表示される単元は、例えば、オンライン授業の進捗と、生徒の学習状態の時系列変化とに基づいて設定される。
 また、例えば、領域132Dにおいて、拡大表示されるのは、学習状態が一番低い生徒に関する情報に限定されない。学習状態の評価が低い数人の生徒に関する情報が拡大表示されてもよい。また、特徴的な行動をした生徒に関する情報が拡大して表示されてもよい。
 これにより、生徒の学習状態をリアルタイムに把握しつつ、教師が適切なペースでオンライン授業を進めて、オンライン授業の効果を高めることができる。
 図11は、端末装置10Bにおいて、休憩を入れるべき旨を提示する局面を示す図である。図11に示すように、端末装置10Bのディスプレイ132において、オンライン授業の講義を示す講義画面132Aと、オンライン授業の進捗を補助する進捗補助画面132Bとは、同一な画面に表示されている。
 進捗補助画面132Bには、領域132Gにおいて、休憩を入れるべき旨の指示情報が表示されている。領域132Dにおいて、各生徒のカメラ映像及び学習状態の評価値が表示され、かつ、生徒の学習状態の基づき、学習状態が一番低い生徒に関する情報は拡大して表示されている。
 教師が「休憩を入れる」オブジェクト132Hを押すと、端末装置10Bの送受信部182は、休憩となった旨の指示をサーバ20へ送信する。「休憩を入れる」オブジェクト132Hが押されると、端末装置10Bの表示制御部184は、「休憩終了」オブジェクトを進捗補助画面132Bに表示させる。
 サーバ装置20の第1情報取得モジュール2033は、休憩となった旨の指示を端末装置10Bから受信すると、端末装置10Aからの第1情報の取得を停止する。
 教師は、十分な休憩が取れたと判断すると、進捗補助画面132Bに表示される「休憩終了」オブジェクトを押す。教師が「休憩終了」オブジェクトを押すと、端末装置10Bの送受信部182は、休憩が終わった旨の指示をサーバ20へ送信する。
 サーバ装置20の第1情報取得モジュール2033は、休憩が終わった旨の指示を端末装置10Bから受信すると、端末装置10Aからの第1情報の取得を再開する。
 なお、図11に示す進捗補助画面132Bの表示はこれに限定されない。例えば、図11に示す領域132Gの表示は休憩を入れるべき旨の指示情報に限らず、「学習状態が悪化しています。」等の現状の学習状態に対する注意を促す表示であってもよい。
 また、例えば、領域132Dにおいて、拡大表示されるのは、学習状態が一番低い生徒に関する情報に限定されない。学習状態の評価が低い数人の生徒に関する情報が拡大表示されてもよい。また、特徴的な行動をした生徒に関する情報が拡大して表示されてもよい。
 また、教師により「休憩を入れる」オブジェクト132Hが押された後、「休憩終了」オブジェクトが必ずしも進捗補助画面132Bに表示される必要はない。例えば、休憩時間が予め設定されているとする。教師により「休憩を入れる」オブジェクト132Hが押されると、休憩終了までのカウントダウンが開始され、進捗補助画面132Bに休憩時間の残り時間が表示されてもよい。
 これにより、生徒の学習状態をリアルタイムに把握しつつ、教師が適切なタイミングで休憩を入れられることができる。
 <変形例>
 以下、教師の操作履歴及び経験値に基づき、オンライン授業の進捗を補助する情報を提示する変形例について説明する。
 サーバ20の第2情報提示モジュール2035が学習済みモデルを利用して第2情報を出力する場合、学習済みモデルは、ベテラン教師によるオンライン授業の進行に基づいて再学習されてもよい。
 具体的には、教師が操作する端末装置10Bは、教師の操作履歴をセンシングする。サーバ20は、教師の操作履歴を、教師の経験値と、当該操作履歴に対応する時刻における生徒の学習状態とに関連付けて記憶する。例えば、予め設定した経験値よりも高い経験値を有する教師が、生徒全体の集中度の平均値が70点となったときに、「休憩を入れる」オブジェクト132Hを押して休憩を入れたとする。サーバ20は、経験値が高い教師が、生徒全体の集中度の平均値が70点となったときに休憩を入れたことを記憶する。
 サーバ20は、ベテラン教師の操作履歴に基づき、第2情報提示モジュール2035の学習済みモデルを再学習する。これにより、学習済みモデルを、熟練教師のオンライン授業での挙動に基づいて再学習することが可能となる。
 なお、学習済みモデルの再学習に限らず、第2情報提示モジュール2035は、教師の操作履歴を、教師の経験値と、当該操作履歴に対応する時刻における生徒の学習状態とに関連付けて記憶し、記憶した情報に基づいて第2情報を提示するようにしてもよい。
 これにより、熟練した教師の経験を活用して、オンライン授業の進捗を効果的に補助することができる。
 以上のように、本開示によると、オンライン授業を受講している生徒の学習状態をリアルタイムに把握しつつ、オンライン授業を支援することができる。
 <付記>
 以上の各実施の形態で説明した事項を以下に付記する。
 (付記1)プロセッサと、メモリとを備えるコンピュータに実行させるためのプログラムであって、前記プログラムは、前記プロセッサに、オンライン授業を受講している生徒の行動に関する第1情報を取得する第1ステップと、前記第1情報に基づき、前記オンライン授業に対する前記生徒の学習状態を評価する第2ステップと、前記生徒の学習状態に基づき、前記オンライン授業の進捗を補助する第2情報を教師に提示する第3ステップと、実行させる、プログラム。
 (付記2)前記第1ステップにおいて、前記生徒の操作履歴に関する情報と、カメラで撮影した前記生徒の映像データに基づく情報とを前記第1情報として取得する、(付記1)に記載のプログラム。
 (付記3)前記オンライン授業は演習を含み、前記第1ステップにおいて、前記生徒が前記演習へ回答する回答操作に関する情報を前記第1情報として取得する、(付記1)又は(付記2)に記載のプログラム。
 (付記4)前記第2ステップにおいて、前記生徒の学習状態を数値で評価し、同一のオンライン授業を受講している他の生徒の学習状態と比較する、(付記1)から(付記3)のいずれかに記載のプログラム。
 (付記5)前記第3ステップにおいて、前記生徒の学習状態の基づき、所定の生徒に関する情報を、他の生徒と区別可能な態様で教師に提示する、(付記1)から(付記4)のいずれかに記載のプログラム。
 (付記6)前記第3ステップにおいて、前記生徒の学習状態の時系列に沿った変化に基づき、所定の生徒に関する情報を、他の生徒と区別可能な態様で教師に提示する、(付記1)から(付記5)のいずれかに記載のプログラム。
 (付記7)前記第3ステップにおいて、前記生徒の学習状態の基づき、所定の生徒を指名すべき旨の指示情報を、第2情報として教師に提示する、(付記1)から(付記6)のいずれかに記載のプログラム。
 (付記8)前記第3ステップにおいて、前記学習状態を評価する数値が所定の数値以下になる生徒を、指名すべき生徒として教師に提示する、(付記7)に記載のプログラム。
 (付記9)前記第3ステップにおいて、同一のオンライン授業で生徒が指名された回数に基づき、指名すべき生徒に関する情報を教師に提示する、(付記7)または(付記8)に記載のプログラム。
 (付記10)前記第3ステップにおいて、前記生徒の学習状態の基づき、教師が説明していた内容を詳細に説明すべき旨の指示情報を、第2情報として教師に提示する、(付記1)から(付記9)のいずれかに記載のプログラム。
 (付記11)前記第3ステップにおいて、前記学習状態を評価する数値が所定の数値以下になる生徒の人数に基づき、教師が説明していた内容を詳細に説明すべき旨の指示情報を提示する、(付記10)に記載のプログラム。
 (付記12)前記第3ステップにおいて、前記生徒の学習状態の基づき、休憩を入れるべき旨の指示情報を、第2情報として教師に提示する、(付記1)から(付記11)のいずれかに記載のプログラム。
 (付記13)前記第3ステップにおいて、前記学習状態を評価する数値が所定の数値以下になる生徒の人数に基づき、休憩を入れるべき旨の指示情報を提示する、(付記12)に記載のプログラム。
 10A、10B 端末装置、20 サーバ、80 ネットワーク、12 通信IF、13 入力装置、14 出力装置、15 メモリ、16 記憶部、19 プロセッサ、201 通信部、202 記憶部、281 生徒情報データベース、282 教師情報データベース、203 制御部。

 

Claims (15)

  1.  プロセッサと、メモリとを備えるコンピュータに実行させるためのプログラムであって、前記プログラムは、前記プロセッサに、
     オンライン授業を受講している生徒の行動に関する第1情報を取得する第1ステップと、
     前記第1情報に基づき、前記オンライン授業に対する前記生徒の学習状態を評価する第2ステップと、
     前記生徒の学習状態に基づき、前記オンライン授業の進捗を補助する第2情報を教師に提示する第3ステップと、実行させる、プログラム。
  2.  前記第1ステップにおいて、前記生徒の操作履歴に関する情報と、カメラで撮影した前記生徒の映像データに基づく情報とを前記第1情報として取得する、請求項1に記載のプログラム。
  3.  前記オンライン授業は演習を含み、
     前記第1ステップにおいて、前記生徒が前記演習へ回答する回答操作に関する情報を前記第1情報として取得する、請求項1又は2に記載のプログラム。
  4.  前記第2ステップにおいて、前記生徒の学習状態を数値で評価し、同一のオンライン授業を受講している他の生徒の学習状態と比較する、請求項1から3のいずれかに記載のプログラム。
  5.   前記第3ステップにおいて、前記生徒の学習状態に基づき、所定の生徒に関する情報を、他の生徒と区別可能な態様で教師に提示する、請求項1から4のいずれかに記載のプログラム。
  6.  前記第3ステップにおいて、前記生徒の学習状態の時系列に沿った変化に基づき、所定の生徒に関する情報を、他の生徒と区別可能な態様で教師に提示する、請求項1から5のいずれかに記載のプログラム。
  7.  前記第3ステップにおいて、前記生徒の学習状態に基づき、所定の生徒を指名すべき旨の指示情報を、第2情報として教師に提示する、請求項1から6のいずれかに記載のプログラム。
  8.  前記第3ステップにおいて、前記学習状態を評価する数値が所定の数値以下になる生徒を、指名すべき生徒として教師に提示する、請求項7に記載のプログラム。
  9.  前記第3ステップにおいて、同一のオンライン授業で生徒が指名された回数に基づき、指名すべき生徒に関する情報を教師に提示する、請求項7または8に記載のプログラム。
  10.  前記第3ステップにおいて、前記生徒の学習状態に基づき、教師が説明していた内容を詳細に説明すべき旨の指示情報を、第2情報として教師に提示する、請求項1から9のいずれかに記載のプログラム。
  11.  前記第3ステップにおいて、前記学習状態を評価する数値が所定の数値以下になる生徒の人数に基づき、教師が説明していた内容を詳細に説明すべき旨の指示情報を提示する、請求項10に記載のプログラム。
  12.  前記第3ステップにおいて、前記生徒の学習状態の基づき、休憩を入れるべき旨の指示情報を、第2情報として教師に提示する、請求項1から11のいずれかに記載のプログラム。
  13.  前記第3ステップにおいて、前記学習状態を評価する数値が所定の数値以下になる生徒の人数に基づき、休憩を入れるべき旨の指示情報を提示する、請求項12に記載のプログラム。
  14.  プロセッサと、メモリとを備えるコンピュータにより実行される方法であって、
     前記方法は、前記プロセッサが、前記メモリに記憶されるプログラムを読み込んで実行することにより、
     オンライン授業を受講している生徒の行動に関する第1情報を取得する第1ステップと、
     前記第1情報に基づき、前記オンライン授業に対する前記生徒の学習状態を評価する第2ステップと、
     前記生徒の学習状態に基づき、前記オンライン授業の進捗を補助する第2情報を教師に提示する第3ステップと、実行させる、方法。
  15.  制御部と、記憶部とを備える情報処理装置であって、
     前記制御部が、前記記憶部に記憶されるプログラムに基づいて動作することにより、
     オンライン授業を受講している生徒の行動に関する第1情報を取得する第1ステップと、
     前記第1情報に基づき、前記オンライン授業に対する前記生徒の学習状態を評価する第2ステップと、
     前記生徒の学習状態に基づき、前記オンライン授業の進捗を補助する第2情報を教師に提示する第3ステップと、実行させる、情報処理装置。

     
PCT/JP2021/026210 2020-07-29 2021-07-13 プログラム、方法及び情報処理装置 WO2022024742A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-127915 2020-07-29
JP2020127915A JP6898502B1 (ja) 2020-07-29 2020-07-29 プログラム、方法及び情報処理装置

Publications (1)

Publication Number Publication Date
WO2022024742A1 true WO2022024742A1 (ja) 2022-02-03

Family

ID=76650024

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/026210 WO2022024742A1 (ja) 2020-07-29 2021-07-13 プログラム、方法及び情報処理装置

Country Status (2)

Country Link
JP (2) JP6898502B1 (ja)
WO (1) WO2022024742A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230089322A (ko) * 2021-12-13 2023-06-20 주식회사우경정보기술 동작 추정과 c3d가 결합된 앙상블 기법이 적용된 아동 비대면 학습 집중도 측정 장치 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004229948A (ja) * 2003-01-31 2004-08-19 Hitachi Ltd 学習時状況判断プログラム及びユーザ状況判断システム
JP2017151554A (ja) * 2016-02-22 2017-08-31 株式会社ベネッセコーポレーション プログラム、情報処理方法、及びサーバ装置
US20200126444A1 (en) * 2017-06-23 2020-04-23 Beijing Yizhen Xuesi Education Technology Co., Ltd. Method and apparatus for monitoring learning and electronic device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004229948A (ja) * 2003-01-31 2004-08-19 Hitachi Ltd 学習時状況判断プログラム及びユーザ状況判断システム
JP2017151554A (ja) * 2016-02-22 2017-08-31 株式会社ベネッセコーポレーション プログラム、情報処理方法、及びサーバ装置
US20200126444A1 (en) * 2017-06-23 2020-04-23 Beijing Yizhen Xuesi Education Technology Co., Ltd. Method and apparatus for monitoring learning and electronic device

Also Published As

Publication number Publication date
JP2022027477A (ja) 2022-02-10
JP2022025223A (ja) 2022-02-10
JP6898502B1 (ja) 2021-07-07

Similar Documents

Publication Publication Date Title
CN108090855B (zh) 一种学习计划推荐方法及移动终端
US10657836B2 (en) Information processing device and information processing method for estimation of acceptance ability
JP6573765B2 (ja) 学習支援システム、情報処理装置、情報処理方法及びプログラム
CN111556371A (zh) 笔记记录方法及电子设备
CN111507220A (zh) 一种直播教学中用户信息确定与反馈的方法及装置
WO2022024742A1 (ja) プログラム、方法及び情報処理装置
US20150301726A1 (en) Systems and Methods for Displaying Free-Form Drawing on a Contact-Sensitive Display
JP2017173418A (ja) 学習支援システム、プログラム、情報処理方法、及び情報処理装置
JP6777999B2 (ja) プログラム、情報処理方法、及びサーバ装置
Sharma et al. Smart learning system based on eeg signals
WO2022009875A1 (ja) 集中度判別プログラム
KR20150051090A (ko) 학습 관리 서버 및 학습 관리 방법
CN116800919A (zh) 一种智慧触屏互动的教学设备
CN112286411A (zh) 显示模式的控制方法、装置、存储介质以及电子设备
JP2014145893A (ja) 情報処理装置、情報処理方法およびプログラム
JP2021108046A (ja) 学習支援システム
CN115690867A (zh) 课堂专注度检测方法、装置、设备及存储介质
Harada et al. Predicting online student effort with accelerometer, heart rate sensors, and camera using random forest regression model
KR20130086032A (ko) 학습 플랜 분석 방법, 장치 및 시스템
US20220406216A1 (en) Deep learning-based pedagogical word recommendation method for predicting and improving vocabulary skills of foreign language learners
Hossen et al. Attention monitoring of students during online classes using XGBoost classifier
JP6230338B2 (ja) 情報処理装置、学習支援システム、及び学習支援プログラム
US9786195B2 (en) System and method for evaluating reading fluency using underlining
JP6391221B2 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2023029125A1 (zh) 笔迹位置的确定方法、装置、终端设备及存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21851012

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21851012

Country of ref document: EP

Kind code of ref document: A1