WO2022158160A1 - 支援システム、支援方法、及びプログラム - Google Patents

支援システム、支援方法、及びプログラム Download PDF

Info

Publication number
WO2022158160A1
WO2022158160A1 PCT/JP2021/045528 JP2021045528W WO2022158160A1 WO 2022158160 A1 WO2022158160 A1 WO 2022158160A1 JP 2021045528 W JP2021045528 W JP 2021045528W WO 2022158160 A1 WO2022158160 A1 WO 2022158160A1
Authority
WO
WIPO (PCT)
Prior art keywords
training
subject
degree
concentration
tension
Prior art date
Application number
PCT/JP2021/045528
Other languages
English (en)
French (fr)
Inventor
克洋 金森
スクサコン ブンヨン
元貴 吉岡
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Publication of WO2022158160A1 publication Critical patent/WO2022158160A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education

Definitions

  • the present disclosure generally relates to assistance systems, assistance methods, and programs. More particularly, the present disclosure relates to assistance systems, assistance methods, and programs that assist in training a subject to master an academic or technical subject.
  • Patent Document 1 discloses a learning material recommendation device.
  • This learning material recommendation device includes a concentration level estimation unit, an understanding level log preprocessing unit, and a learning material recommendation unit.
  • the concentration estimation unit applies a prediction model to the learner feature vector and the learning material feature vector to calculate a concentration prediction score when the learner learns the learning material.
  • the comprehension log preprocessing unit generates a comprehension performance score from the log data of performance values scored in the confirmation test for the learner.
  • the learning material recommendation unit recommends a learning material that the learner should learn next based on the concentration prediction score and the comprehension performance score.
  • the learning material recommendation device disclosed in Patent Document 1 only recommends the optimal learning material for the learner based on the degree of concentration and the degree of understanding (results). is nothing more than a device for ⁇ everyday learning,'' so to speak. For example, even if the learner was mentally relaxed and solved the problem when studying at home, he or she will feel the tension of the actual exam (final exam, entrance exam, national exam, mock exam, etc.). In some environments, it may not be possible to solve. Therefore, support for more practical mastery training is desired.
  • the present disclosure is made in view of the above reasons, and aims to provide a support system, support method, and program that can support more practical acquisition training.
  • a support system supports a subject's learning or training in learning or technology.
  • the assistance system includes a presentation unit, a first estimation unit, a second estimation unit, and a generation unit.
  • the presentation unit presents training material for use in a training process performed by the subject.
  • the first estimation unit estimates a degree of concentration of the subject who deals with the training material.
  • a said 2nd estimation part estimates the said subject's tension degree which deals with the said training material.
  • the generating unit generates training information related to a training process to be performed next to the training process, based on the degree of concentration and the degree of tension.
  • a support system supports a subject's learning or training in learning or technology.
  • the support system includes a first estimator, a second estimator, a concentration inducer, and a tension inducer.
  • the first estimation unit estimates a degree of concentration of the subject who deals with the training materials presented when the subject performs the training process.
  • a said 2nd estimation part estimates the said subject's tension degree which deals with the said training material.
  • the concentration inducer induces an increase in the concentration.
  • the tension inducer induces an increase in the tension.
  • a support method of one aspect of the present disclosure supports a subject's learning or training related to learning or technology.
  • the assistance method includes a presentation step, a first estimation step, a second estimation step, and a generation step.
  • the presenting step presents training material for use in a training process performed by the subject.
  • the degree of concentration of the subject who deals with the training material is estimated.
  • the degree of tension of the subject who deals with the training material is estimated.
  • training information regarding a training process to be performed next to the training process is generated based on the degree of concentration and the degree of tension.
  • a support method of another aspect of the present disclosure supports a subject's learning or training in learning or technology.
  • the support method includes a first estimation step, a second estimation step, a concentration inducement step, and a tension inducement step.
  • the first estimation step the degree of concentration of the subject who deals with the training materials presented when the subject performs the training process is estimated.
  • the second estimation step the degree of tension of the subject who deals with the training material is estimated.
  • the concentration inducing step induces an increase in the concentration.
  • the tonicity inducing step induces an increase in the tonicity.
  • a program of one aspect of the present disclosure is a program for causing one or more processors to execute any one of the above support methods.
  • FIG. 1 is a schematic configuration diagram of a learning management system that includes a support system according to one embodiment.
  • FIG. 2 is a diagram for explaining an ideal curriculum in the same support system.
  • FIG. 3 is a diagram for explaining another ideal curriculum in the same support system.
  • FIG. 4 is a conceptual diagram for explaining the tension level inducing function in the same support system.
  • FIG. 5 is a conceptual diagram for explaining a proposal function in the same support system.
  • FIG. 6 is a conceptual diagram for explaining a proposal function in the same support system.
  • FIG. 7 is a diagram for explaining the operation of the support system;
  • FIG. 8 is a diagram for explaining a modification (mock interview) of the support system;
  • the support system 1 is configured to support acquisition training of a subject M1 (see FIG. 1) regarding learning or technology.
  • the support system 1 supports learning training related to "learning”. Therefore, the target person M1 corresponds to, for example, "learners” such as elementary school students, junior high school students, high school students, vocational school students, cram school students, or preparatory school students. may apply to humans.
  • the subjects of study are not particularly limited, and if the target person M1 is a junior high school student, for example, national language, mathematics, English, science, social studies, art, music, or the like may be used.
  • the support target of support system 1 may be not only “academic” but also "technology”.
  • the “skills” here include skills required for work, hobbies (crafts, arts, cooking, games, etc.), and competitions (sports, e-sports, etc.). Skills that exist as an intermediate or final goal of mastery training are desirable. For example, “skills” may also include conversational skills required for job hunting toward the ultimate goal of a corporate interview.
  • the support system 1 includes a presentation unit 30, a first estimation unit 31, a second estimation unit 32, and a generation unit 41, as shown in FIG.
  • the presentation unit 30 presents the training material Q1 (see FIGS. 4 and 5) used in the training process P0 (see FIG. 7) performed by the subject M1.
  • the function of the presentation unit 30 is provided in the learning terminal 2 (information terminal).
  • the study terminal 2 is, for example, a tablet terminal equipped with a touch panel display (screen 20).
  • the learning terminal 2 is not limited to a tablet terminal, and may be a smart phone, a notebook computer, a stationary personal computer, or the like.
  • the presentation unit 30 presents the training material Q1 from the screen 20 of the learning terminal 2 .
  • the training material Q1 is, for example, a set of mathematics problems, and is a teaching material that includes exercise problems (hereinafter simply referred to as "problems") as one or more subjects.
  • the "training process” here is a process in which the subject M1 deals with the presented training material Q1.
  • the subject M1 it is assumed that two or more training processes P0 are performed by the subject M1.
  • the training material Q1 is a collection of mathematics problems
  • the subject M1 completes the presented collection of mathematics problems from beginning to end during the period during which the training process is implemented (implementation period T1: see FIG. 7). It is recommended to work through.
  • the first estimation unit 31 estimates the degree of concentration of the subject M1 who deals with the training material Q1.
  • the second estimation unit 32 estimates the degree of tension of the subject M1 who deals with the training material Q1. That is, the support system 1 has a function of estimating the degree of concentration and the degree of tension of the subject M1 while the subject M1 is working on, for example, a collection of math problems (training material Q1).
  • the support system 1 of the present embodiment acquires image data from an imaging device C1 (see FIG. 1) that images the subject M1 during the implementation period T1, and estimates the degree of concentration and the degree of tension of the subject M1 from the image data. do.
  • the generation unit 41 generates training information related to the training process P0 to be performed next to the training process P0 based on the degree of concentration and the degree of tension. For example, the generator 41 generates training information so as to select or change the training material Q1 to be used in the next training process P0.
  • the presenting unit 30 presents the training material Q1 having contents corresponding to the training information from the screen 20 in the next training process P0.
  • training information may be called a "learning recipe.”
  • Live testing may also include so-called "remote testing”. Also, not only in exams, but also in interviews, competitions, etc., there is a possibility that even if one succeeds in daily training, he/she fails in the real world. Therefore, it is important to consider the mental state of the subject M1 in the training stage so as not to fail in the actual performance.
  • training information regarding the next training process P0 is generated based on the degree of concentration and the degree of tension of the subject M1. Therefore, unlike the case in which the optimal learning material for the learner is recommended based on the degree of concentration and the degree of comprehension (results) as in Patent Literature 1 described above, the training process P0 is performed in consideration of the mental state of the subject M1. easier. As a result, it is possible to support more practical acquisition training.
  • the support method supports learning or training for the target person M1 regarding learning or technology.
  • the assistance method includes a presentation step, a first estimation step, a second estimation step, and a generation step.
  • the presenting step the training material Q1 used in the training process P0 performed by the subject M1 is presented.
  • the first estimation step the degree of concentration of the subject M1 who deals with the training material Q1 is estimated.
  • the second estimation step the degree of tension of the subject M1 who deals with the training material Q1 is estimated.
  • training information relating to the training process P0 to be executed next to the training process P0 is generated based on the degree of concentration and the degree of tension.
  • This configuration it is possible to provide a support method capable of supporting more practical acquisition training.
  • This support method is used on a computer system (support system 1 having a generator 41). That is, this support method can also be embodied by a program.
  • a program according to the present embodiment is a program for causing one or more processors to execute this support method.
  • a support system includes a first estimator 31, a second estimator 32, a concentration inducer 6, and a tension inducer 7.
  • the first estimation unit 31 estimates the degree of concentration of the subject M1 who deals with the training materials Q1 presented when the subject M1 performs the training process P0.
  • the second estimation unit 32 estimates the degree of tension of the subject M1 who deals with the training material Q1.
  • the concentration inducer 6 induces an increase in concentration.
  • the tension inducer 7 induces an increase in tension. According to this configuration, since the concentration inducer 6 and the tension inducer 7 are provided, the subject M1 can be experienced in an environment such as a real test, an interview, a game, etc. at the training stage. It can be simulated to a state as close as possible to a feeling of tension. As a result, it is possible to support more practical acquisition training.
  • a support method includes a first estimation step, a second estimation step, a concentration level inducing step, and a tension level inducing step.
  • the first estimation step the degree of concentration of the subject M1 who deals with the training materials Q1 presented when the subject M1 performs the training process P0 is estimated.
  • the second estimation step the degree of tension of the subject M1 who deals with the training material Q1 is estimated.
  • an increase in concentration is induced.
  • the tension induction step induces an increase in tension.
  • This assisting method is used on a computer system (assisting system 1 comprising a concentration inducer 6 and a tension inducer 7). That is, this support method can also be embodied by a program.
  • a program according to the present embodiment is a program for causing one or more processors to execute this support method.
  • the support system 1 includes a generator 41, a concentration inducer 6, and a tension inducer 7 will be described.
  • the learning management system 100 includes one or more learning terminals 2 (only one is shown in FIG. 1), a server 200, and one or more environment formation terminals.
  • device E1 only one is shown in FIG. 1).
  • the functions of the support system 1 are distributed to the learning terminal 2 and the server 200 (the first support unit 1A and the second support unit 1B in FIG. 1).
  • all the functions of the support system 1 may be provided in only one of the learning terminal 2 and the server 200 .
  • the "server” referred to here is composed of one server device.
  • the functions of a part of the support system 1 (the second support unit 1B) are provided in one server device.
  • the "server” may be composed of a plurality of server devices.
  • a plurality of server devices may construct, for example, a cloud (cloud computing).
  • the learning terminal 2 is a tablet terminal equipped with a touch panel display (screen 20).
  • the learning terminal 2 is a terminal used by the target person M1 who is a learner for online learning.
  • the subject M1 uses the learning terminal 2 to study within the subject area R1 (management area) within the facility 300 .
  • the facility 300 is the home of the subject M1 who is a learner, and the target region R1 is the subject M1's own room.
  • the facility 300 is not limited to the target person M1's home, and may be a school or cram school attended by the target person M1, in which case the target region R1 may be a classroom.
  • the subject M1 performs a touch operation (tap) or swipe operation on the screen 20 using his or her fingertips to work on the training material Q1 (see FIGS. 4 and 5: for example, a collection of math problems).
  • the training materials Q1 are materials including questions (subjects) that require the subject M1 to answer.
  • the support system 1 supports learning training of the subject M1 regarding learning
  • the training materials Q1 are materials including exercises (problems) that require the subject M1 to answer.
  • the number of questions included in the training materials Q1 imposed in one training process P0 may be one or more.
  • the content (difficulty) of questions included in the training material Q1, the number of questions, or the order of presented questions may differ between the plurality of training processes P0.
  • training material Q ⁇ b>1 including questions of corresponding contents (difficulty) among a plurality of contents (difficulty) is presented (displayed) on the screen 20 of the learning terminal 2 . 4 and 5, for convenience of explanation, an exemplary screen display of "Problem 1" of mathematics, which is part of the training material Q1, is shown.
  • the training material Q1 includes one or more subjects (here, questions).
  • the training material Q1 may be a collection of questions about a certain subject (here, mathematics) that high school students need in preparation for university entrance examinations, or a collection of questions narrowed down to grades from 1st to 3rd year of high school.
  • the training material Q1 may be a collection of problems focused on a particular area of mathematics within a subject, such as factorization problems, set problems, quadratic function problems, or graphic problems. As an example below, it is assumed that the training material Q1 is a collection of questions specialized in factorization problems.
  • the subject M1 selects the correct answer from the plurality of options by tapping.
  • the answer to the question is a method of directly filling in the entry fields
  • the subject M1 uses his/her fingertip or a pen-shaped operation member (a so-called touch pen) to fill in the entry fields displayed on the screen 20. Enter your answer in the area.
  • the support system 1 includes an input unit 5 for the subject M1 to input an answer to the question. ) as well as the function of the input unit 5 .
  • the server 200 is installed outside the facility 300 (home of the subject M1), for example, in a facility of an individual, an organization, or a company that manages the learning status of one or more subjects M1. If facility 300 is, for example, a school or cram school, server 200 may be installed within facility 300 .
  • the study terminal 2 is connected to an external wide area network NT1 including the Internet via a router or the like installed in the facility 300.
  • a server 200 is also connected to the wide area network NT1.
  • Dedicated application software for communicating with the server 200 is pre-installed in the study terminal 2 .
  • Study terminal 2 and server 200 can communicate bi-directionally via wide area network NT1. Detailed configurations of each of the learning terminal 2 and the server 200 will be described later.
  • the environment forming device E1 is installed in the facility 300.
  • the environment forming device E1 is installed in the target area R1 (for example, the room of the target person M1) within the facility 300 .
  • the environment forming device E1 is configured to form an environment related to at least one of lighting, temperature, humidity, air quality, wind volume, music, and vibration within the target area R1 where the target person M1 who deals with the training material Q1 is present.
  • the environment forming device E1 is a lighting device that executes environment formation regarding “lighting”.
  • the environment forming device E1 may be an air conditioner that creates an environment for "temperature/humidity" and "air volume", or an air cleaner or a ventilation fan that creates an environment for "air quality”.
  • the environment forming device E1 may be a wind generating device such as a fan that creates an environment related to air volume (or wind speed), a speaker device (for example, a smart speaker) that creates an environment related to "music", or a "vibration It may be a massage machine that performs environment formation regarding ".
  • a wind generating device such as a fan that creates an environment related to air volume (or wind speed)
  • a speaker device for example, a smart speaker
  • It may be a massage machine that performs environment formation regarding ".
  • the environment forming device E1 is installed in the facility 300, for example, and is connected to the wide area network NT1 via a HEMS (Home Energy Management System) controller, communication adapter, router, etc. that manages a plurality of electric devices in the facility 300. It is connected.
  • the environment forming apparatus E1 and the server 200 are capable of two-way communication via the wide area network NT1.
  • the study terminal 2 includes a processing section 3, an input section 5, and an imaging device C1.
  • the study terminal 2 further includes a communication interface for communicating with the server 200 and the like, and a storage unit F1 including a rewritable nonvolatile memory such as an EEPROM (Electrically Erasable Programmable Read-Only Memory).
  • the memory of the processing unit 3 may be used as the storage unit F1.
  • the input unit 5 includes a touch panel display (screen 20), and has a function of presenting (screen display) the training material Q1 and a function of receiving input operations such as touch operations.
  • the display is, for example, a liquid crystal display or an organic EL (Electro-Luminescence) display.
  • the learning terminal 2 may include a mouse, keyboard, pointing device, etc. as the input unit 5 .
  • the imaging device C1 is a camera that has an imaging element and captures an image of a subject.
  • an RGB camera is adopted as the imaging device C1.
  • the imaging device is, for example, a two-dimensional image sensor such as a CCD (Charge Coupled Devices) image sensor or a CMOS (Complementary Metal-Oxide-Semiconductor) image sensor.
  • the imaging device C1 further has an optical system such as a lens, and the optical system forms an image of the light from the subject (here, the subject M1) on the imaging surface (light receiving surface) of the imaging device. An image is generated by converting light from an object into an electrical signal.
  • the imaging device C1 is attached above the screen 20 on the front surface of the learning terminal 2 (the surface on which the screen 20 is located), as shown in FIGS.
  • the subject M1 is learning using the learning terminal 2
  • at least the face of the subject M1 is within the angle of view of the imaging device C1.
  • the imaging device C1 photographs the subject M1 under the control of the processing unit 3, which will be described later, while the subject M1 is performing the training process P0.
  • the processing unit 3 can be realized by a computer system including one or more processors (microprocessors) and one or more memories. That is, one or more processors function as the processing unit 3 by executing one or more programs (applications) stored in one or more memories.
  • the program is pre-recorded in the memory of the processing unit 3 here, it may be provided through an electric communication line such as the Internet or recorded in a non-temporary recording medium such as a memory card.
  • the processing unit 3 is configured to execute control processing of the input unit 5, control processing of the imaging device C1, and control processing related to communication with the server 200.
  • the processing unit 3 is also configured to execute control processing regarding the screen 20 .
  • the processing unit 3 has a function of executing a presentation process, a first estimation process, a second estimation process, and an acquisition process. It has an estimation unit 31 , a second estimation unit 32 and an acquisition unit 33 .
  • the presentation unit 30, the first estimation unit 31, the second estimation unit 32, and the acquisition unit 33 configure the first support unit 1A, and configure the support system 1 together with the second support unit 1B on the server 200 side, which will be described later. (See Figure 1).
  • the presentation unit 30 is configured to present the training material Q1 used in the training process P0 performed by the subject M1.
  • the support method in this embodiment includes a presentation step of presenting the training material Q1 used in the training process P0 performed by the subject M1.
  • the number of training processes P0 is not particularly limited, but is preferably two or more.
  • they may be referred to as a first training process P1, a second training process P2, a third training process P3, and a fourth training process P4 in order from the left. .
  • the first training process P1 is the initial process, after which the processes progress in the order of the second training process P2, the third training process P3, and the fourth training process P4.
  • the training materials Q1 for the first time (first training process P1) include, for example, problems with a standard level of difficulty.
  • the number of questions and the degree of difficulty of the initial training material Q1 may be appropriately selected by the subject M1 via the input unit 5 .
  • the questions after the second training process P2 are automatically determined based on the information (contents) generated by the generation unit 41 of the support system 1, as will be described later.
  • the subject M1 is recommended to complete all of the plurality of training processes P0.
  • the processing unit 3 receives the training material Q1 data related to each training process P0 transmitted from the server 200 and stores (stores) it in the storage unit F1.
  • the data of the training material Q1 are linked with the process ID assigned to the corresponding training process P0.
  • the processing unit 3 may receive all of the questions included in the training material Q1 at once, or may receive each question at the timing of presenting the questions.
  • the acquisition unit 33 is configured to acquire image data from the imaging device C1 that images the subject M1 who deals with the training material Q1.
  • the processing unit 3 controls the imaging device C1 at the start of each training process P0 to start photographing the subject M1 with the imaging device C1.
  • each training process P0 is started, for example, when the subject M1 performs a tap operation on a “start” operation area (image area) displayed on the screen 20 .
  • the processing unit 3 presents the first question of the corresponding training material Q1, and starts photographing the subject M1 with the imaging device C1. At least one (here, both) of the degree of concentration and the degree of tension of the target person M1, which will be described later, is estimated from the image data.
  • the subject M1 answers the final question of the corresponding training material Q1, and the subject M1 taps the operation area (image area) of "end” displayed on the screen 20, for example. ends with
  • the processing unit 3 ends the presentation of the training material Q1 corresponding to the training process P0, and ends the imaging of the subject M1 by the imaging device C1.
  • the acquisition unit 33 associates the image data captured in each training process P0 with the process ID of the corresponding training process P0 and stores (stores) them in the storage unit F1.
  • the image data is moving image data.
  • Moving image data also includes image data in which the interval between one frame (frame) and one frame is relatively long (frame advance).
  • the image data may be one frame, that is, one still image data at a certain moment while the subject M1 is performing the training process P0.
  • An end time (for example, 60 minutes) is set in advance for each training process P0, and when the end time elapses from the start, the training process P0 is automatically terminated.
  • the end time is appropriately changed depending on the type of training material Q1, the amount of questions, the degree of difficulty, and the like.
  • a time limit (eg, 10 minutes, etc.) is set in advance not only for the unit of the training process P0, but also for each question.
  • the time limit is appropriately changed depending on the type of question, difficulty level, and the like.
  • the first estimation unit 31 is configured to estimate the degree of concentration of the subject M1 who deals with the training material Q1 during the implementation period T1 of each training process P0.
  • the support method in this embodiment includes a first estimation step of estimating the degree of concentration of the subject M1 who deals with the training material Q1.
  • the first estimation unit 31 estimates (calculates) the degree of concentration of the subject M1 from the image data generated during the execution period T1 of each training process P0.
  • the first estimating unit 31 is not limited to the image data (raw data) generated by the imaging device C1. ) may be used to estimate the degree of concentration.
  • the first estimation unit 31 performs image analysis on the image data, and detects the positions, sizes, etc. of the subject M1's face, fingers, and the like. Then, the first estimating unit 31, based on the detection results regarding the face, fingers, etc. of the target person M1, determines the facial expression (including blinking and movement of the line of sight), face orientation, posture, motion (gesture such as fingers, etc.) of the target person M1. ) is extracted, and the degree of concentration of the subject M1 is estimated.
  • the biometric information of the subject M1 can include not only the facial expression, face direction, posture, and motion at a certain moment, but also information regarding changes in the facial expression, face direction, and motion over time.
  • the first estimation unit 31 may also use voice data of the subject M1 input via the microphone as one piece of biometric information to estimate the degree of concentration.
  • the degree of concentration is indicated, for example, as a percentage (percent). It can be said that the closer the concentration degree is to 100%, the more concentrated the subject M1 is working on the problem.
  • the first estimation unit 31 calculates the degree of concentration using a predetermined arithmetic expression such that the degree of concentration decreases as the amount of change per unit time in the facial expression, face direction, posture, and movement of the subject M1 increases. You may (estimate).
  • the first estimation unit 31 calculates the degree of concentration for each question.
  • An ID (problem ID) is assigned to each question, and the first estimation unit 31 associates the degree of concentration with the corresponding question ID.
  • the first estimator 31 may measure the transition of the degree of concentration during the implementation period T1 and calculate the average value (or the maximum value or the minimum value).
  • the first estimating unit 31 uses image data generated during the implementation period T1 of each training process P0 generated during the implementation period T1 of each training process P0 as input data, and a learned model (first 1 classifier) may be used to estimate concentration. That is, the first classifier outputs concentration degree data as a classification result based on feature amounts relating to the facial expression, face direction, posture, and motion of the subject M1 in the image data.
  • a learned model first 1 classifier
  • the processing unit 3 associates the estimation result (concentration degree data) of the first estimation unit 31 with the process ID, the problem ID, and the terminal ID of the learning terminal 2 (which may be the user ID assigned to the subject M1). and transmits it to the server 200 .
  • the timing of transmitting the estimation result (concentration degree data) of the first estimation unit 31 to the server 200 is not particularly limited. At the timing when the training process P0 ends, it may be transmitted together with the answers to all the questions, or at the timing when the answer to one question ends, it may be transmitted together with the answer to the question each time. . Also, the estimation result of the first estimation unit 31 may be transmitted to the server 200 at a timing different from that of the answer.
  • the second estimation unit 32 is configured to estimate the degree of tension (stress level) of the subject M1 who deals with the training material Q1 during the implementation period T1 of each training process P0.
  • the support method in this embodiment includes a second estimation step of estimating the degree of tension of the subject M1 who deals with the training material Q1.
  • the second estimation unit 32 estimates (calculates) the degree of tension of the subject M1 from the image data generated during the execution period T1 of each training process P0, similarly to the degree of concentration.
  • the second estimation unit 32 may estimate the degree of tension using not only image data (raw data) generated by the imaging device C1, but also image data processed by the processing unit 3 after imaging.
  • the second estimation unit 32 performs image analysis on the image data, and detects the positions, sizes, etc. of the subject M1's face, fingers, etc. Then, the second estimation unit 32 measures the pulse rate of the target person M1 based on the detection results regarding the face, fingers, etc. of the target person M1, and estimates the degree of tension from the pulse rate.
  • the pulse rate can be measured by using the image data generated by the imaging device C1, which is an RGB camera. In other words, the pulse rate can be measured, for example, by using changes in luminance values of R, G, and B in each pixel of image data corresponding to changes in color signals over time, that is, changes in the skin color of the face. Data indicating the correspondence relationship between the pulse rate and the degree of tension is stored in the storage unit F1.
  • the second estimating unit 32 may estimate the degree of tension from facial expressions (for example, changes in eye movements such as blinking and line of sight movement) or posture.
  • the second estimation unit 32 may use information regarding changes in voice frequency analyzed from the voice data of the subject M1 input via the microphone to estimate the degree of tension.
  • the degree of tension is indicated, for example, as a percentage (percent). It can be said that the closer the degree of tension is to 100%, the more nervous the subject M1 is in dealing with the problem.
  • the second estimation unit 32 calculates the degree of tension for each question, and associates the degree of tension with the corresponding question ID.
  • the second estimating unit 32 may measure the transition of the degree of stress during the implementation period T1 and calculate the average value (or the maximum value or the minimum value).
  • the second estimating unit 32 uses image data generated during the implementation period T1 of each training process P0 as input data, and uses a trained model (second classifier) that has completed machine learning to estimate the degree of tension.
  • a trained model that has completed machine learning to estimate the degree of tension.
  • the second classifier outputs tension level data as a classification result based on the feature amount relating to changes in the luminance values of R, G, and B in the image data.
  • the processing unit 3 associates the estimation result (strain level data) of the second estimation unit 32 with the process ID, the problem ID, and the terminal ID (or user ID) of the learning terminal 2, and transmits the result to the server 200.
  • the estimation result of the second estimation unit 32 is preferably transmitted to the server 200 together with the estimation result (concentration degree data) of the first estimation unit 31 .
  • the timing of transmitting the estimation result (strain level data) of the second estimation unit 32 to the server 200 is not particularly limited. At the timing when the training process P0 ends, it may be transmitted together with the answers to all the questions, or at the timing when the answer to one question ends, it may be transmitted together with the answer to the question each time. . Also, the estimation result of the second estimation unit 32 may be transmitted to the server 200 at a timing different from that of the answer.
  • the server 200 includes a processing unit 4 and a storage unit G1 (indicated as "problem database” in FIG. 1).
  • the server 200 further includes a communication interface for communicating with one or more study terminals 2 and the like.
  • the storage unit G1 includes a rewritable non-volatile memory such as EEPROM.
  • the memory of the processing unit 4 may be used as the storage unit G1.
  • the storage unit G1 functions as a question database that manages a large number of questions and answers (correct answers) corresponding to various subjects.
  • the question database can be updated as new questions are created.
  • the processing unit 4 can be realized by a computer system including one or more processors (microprocessors) and one or more memories. That is, one or more processors function as the processing unit 4 by executing one or more programs (applications) stored in one or more memories.
  • the program is pre-recorded in the memory of the processing unit 4 here, it may be provided through an electric communication line such as the Internet or recorded in a non-temporary recording medium such as a memory card.
  • the processing unit 4 is configured to execute control processing related to communication with each learning terminal 2 .
  • the processing unit 4 extracts the most suitable questions for the subject M1 from the question database in the storage unit G1, generates training material Q1 data, and transmits the data to the learning terminal 2 corresponding to the subject M1.
  • the processing unit 4 has a function of executing an acquisition process, a generation process, and a correct/wrong judgment process, and as shown in FIG. have.
  • the processing unit 4 has a function of executing a concentration inducing process and a tension inducing process, and has a concentration inducing unit 6 and a tension inducing unit 7 as shown in FIG.
  • the acquisition unit 40, the generation unit 41, the correctness determination unit 42, the concentration inducer 6, and the tension inducer 7 constitute the second support unit 1B, and together with the first support unit 1A on the learning terminal 2 side, A support system 1 is configured (see FIG. 1).
  • the acquisition unit 40 is configured to acquire data related to each training process P0 (hereinafter referred to as "answer data") from the learning terminal 2 through communication with the learning terminal 2.
  • the answer data includes the terminal ID (or user ID) of the learning terminal 2, the process ID, the problem ID, and data related to the subject M1's answer, degree of concentration, degree of tension, etc. linked to each problem ID. That is, the acquisition unit 40 acquires (information about) the answer given by the subject M1 to the question.
  • the generation unit 41 generates training information related to the training process P0 to be performed next to the training process P0 based on the degree of concentration and the degree of tension.
  • the support method in this embodiment includes a generation step of generating training information regarding the training process P0 to be performed next to the training process P0 based on the degree of concentration and the degree of tension.
  • the generation unit 41 generates training information regarding the next second training process P2 based on the degree of concentration and the degree of tension estimated in the first training process P1.
  • the generation unit 41 also generates training information regarding the next third training process P3 based on the degree of concentration and the degree of tension estimated in the second training process P2.
  • the generation unit 41 generates training information regarding the next fourth training process P4 based on the degree of concentration and the degree of tension estimated in the third training process P3.
  • the generator 41 selects questions to be actually used in the next training process P0 from among the plurality of questions.
  • the generation unit 41 includes the selected questions in the training material Q1 of the next training process P0 and transmits it to the learning terminal 2. Then, the presentation unit 30 of the learning terminal 2 presents the training material Q1 on the screen 20 when the next training process P0 is performed. In short, the presenting unit 30 presents the training material Q1 to be used in the training process P0 that follows the training process P0, based on the training information generated by the generating unit 41.
  • FIG. The server 200 transmits the selected questions to an information terminal owned by a supervisor (for example, a school teacher, a cram school lecturer, or a parent) who supervises the learning of the subject M1, and causes the supervisor to check it in advance. may be transmitted to the learning terminal 2 after obtaining approval from the supervisor (for example, a school teacher, a cram school lecturer, or a parent) who supervises the learning of the subject M1, and causes the supervisor to check it in advance. may be transmitted to the learning terminal 2 after obtaining approval from the supervisor.
  • a supervisor for example,
  • the correctness/wrongness determination unit 42 is configured to determine the correctness/wrongness of the obtained answer.
  • the generation unit 41 generates training information based on the determination result of the correctness determination unit 42 in addition to the degree of concentration and the degree of tension.
  • the correctness determination unit 42 searches the question database stored in the storage unit G1 and extracts the reference answer associated with the question ID.
  • the correct/wrong determination unit 42 compares the extracted reference answer with the answer input by the subject M1, and determines whether it is a "correct answer” or an "wrong answer.” How the training information is generated by combining the degree of concentration, the degree of tension, and the determination result of correctness or wrongness will be described later.
  • the generation unit 41 of the present embodiment selects questions to be used in the next training process P0 from the question database along with a predetermined curriculum B1 (see arrow in FIG. 2) and drafts a learning recipe (training information).
  • the learning recipe will be described in detail below.
  • Figure 2 shows four quadrants (first quadrant A1 to fourth quadrant A4) divided by setting the degree of concentration on the X-axis and the degree of tension on the Y-axis.
  • the coordinate origin of (degree of concentration, degree of tension) in the quadrant diagram of FIG. 2 is set at (50%, 50%).
  • the first quadrant A1 is a moderate area where both the degree of tension and the degree of concentration are higher than the degree of tension and concentration at the coordinate origin.
  • the first quadrant A1 is an area corresponding to the actual test, and is an area in which high performance can be expected even if the subject M1 is in a tense state.
  • the first quadrant A1 is utilized as an area to be a goal achievement point in the curriculum B1.
  • the goal of mastery training is for the subject M1 to be able to correctly solve all problems even when he is finally in a tense/concentrated state within the area of the first quadrant A1. Too much tension during the training process P0 leads to panic, which is undesirable. Therefore, the questions are preferably selected so as not to make the subject M1 extremely tense.
  • the second quadrant A2 is a distraction area where the degree of tension is higher and moderate than that of the coordinate origin, but the degree of concentration is lower than that of the coordinate origin.
  • a second quadrant A2 is an area through which the curriculum B1 does not pass.
  • the third quadrant A3 is an area where both the degree of tension and the degree of concentration are lower than the degree of tension and degree of concentration at the coordinate origin.
  • the third quadrant A3 is the area of tension/concentration corresponding to the early stage of learning of the subject M1.
  • the third quadrant A3 is used as a starting point for learning in the curriculum B1.
  • the fourth quadrant A4 is an area where the degree of concentration is higher and moderate than the degree of concentration at the origin of coordinates, and the degree of tension is lower than the degree of tension at the origin of coordinates.
  • the fourth quadrant A4 is the area of tension/concentration corresponding to the middle stage of learning of subject M1.
  • the fourth quadrant A4 is utilized as an intermediate learning area in the curriculum B1.
  • the generation unit 41 as the first, second, third, and fourth training processes proceed, the tension/concentration state of the subject M1 as in the curriculum B1 is generated in the third quadrant A3. and the fourth quadrant A4 to the first quadrant A1.
  • the generation unit 41 sets the same questions as the questions used in the previous training process P0 in the next training process P0, omits the questions, or changes them to other questions.
  • the generation unit 41 goes through a process of transitioning from a first state in which both the degree of concentration and the degree of tension are low to a second state in which the degree of concentration is high and the degree of tension is low, and a third state in which both the degree of concentration and the degree of tension are high.
  • the training information is generated so that the presentation unit 30 repeatedly presents the training material Q1 with the same content until the subject M1 can appropriately deal with the training material Q1.
  • the generation unit 41 classifies each question in the answer data as shown in Table 1 below, and drafts a learning recipe for the next training process P0.
  • the generation unit 41 determines which state (one of the first quadrant A1 to the fourth quadrant A4) corresponds to the tension level and concentration level estimated for each question in the previous training process P0, and It is determined whether the answer to the question corresponds to a correct answer or an incorrect answer, and the question to be used in the next training process P0 is determined.
  • Classification patterns such as those shown in Table 1 are merely examples and are not limiting.
  • “(2) Solve” in Table 1 means that the question will be included in the training material Q1 in the next training process P0 as well. If both the concentration level and the tension level are high and the target problem is "wrong answer", the generation unit 41 generates If the degree of tension is low and the answer is "wrong", the question is classified as "(2) Rework”. In the next training process P0, the generation unit 41 repeats the same questions and draws up a learning recipe so that the state of the subject M1 moves toward the fourth quadrant A4.
  • Fig. 3 shows four quadrants (first quadrant A1 to fourth quadrant A4) divided by setting the degree of concentration on the X-axis and the degree of tension on the Y-axis in the same manner as in Fig. 2.
  • the generation unit 41 preferably drafts a learning recipe so that the tension/concentration state of the subject M1 changes along the curriculum B1 of FIG.
  • the generation unit 41 may plan the learning recipe so that the tension/concentration state of the subject M1 changes within the triangular range (curriculum B2) shown in FIG.
  • the coordinate origin of (degree of concentration, degree of tension) in the quadrant diagram of FIG. 3 is set at (50%, 50%) as in FIG.
  • the triangular range (curriculum B2) in Fig. 3 is defined, for example, based on the Yerkes-Dodson's law, which is the basic law of physiological psychology. According to this law, regarding motivation for learning activities, the higher the degree of tension (stress) is, the higher the learning performance increases until it exceeds a certain amount of the optimal level, while the learning performance decreases when it exceeds a certain amount. It has been suggested that For example, the tension level of 0% (MIN) and the tension level of 100% (MAX) are determined on the Y-axis, and the tension level at which the concentration level of 100% (MAX) is defined as 50% from the Yerkes-Dodson law. Next, the degree of concentration at 0% tension and 100% tension is defined as 0%.
  • the middle point between the degree of concentration 0% and the degree of concentration 100% on the X axis is defined as 50%.
  • the position of the Y-axis of the tension level is set so that the Y-axis of the tension level passes through the position of 50% concentration.
  • the Y-axis indicated by the two-dot chain line arrow in FIG. 3 is translated and set to the Y-axis indicated by the solid line arrow passing through the position where the degree of concentration is 50%.
  • a triangular range (curriculum B2) is defined on a quadrant diagram in which the coordinate origin of (concentration, tension) is set to (50%, 50%). be.
  • the concentration inducer 6 of this embodiment is configured to induce an increase in the concentration of the subject M1.
  • the support method in this embodiment includes a concentration inducing step of inducing an increase in the concentration of the subject M1.
  • the concentration level inducer 6 induces an increase in the concentration level so that the concentration level becomes equal to or higher than the threshold (concentration level feedback processing).
  • the concentration inducer 6 controls the environment forming device E1 to induce an increase in the concentration.
  • the environment forming device E1 is, as described above, a lighting device installed in the target area R1 (for example, the room of the target person M1) in the facility 300.
  • the concentration inducer 6 transmits a control signal to the environment forming device E1 (lighting device) via the wide area network NT1 and HEMS controller, etc., and forms the environment so that the concentration of the target person M1 increases. It controls the device E1 (lighting equipment).
  • the concentration inducer 6 controls the brightness or color temperature of the illumination by the lighting equipment to form a lighting environment that induces an increase in the concentration.
  • Correlation information between the degree of concentration of people and the optimum brightness or color temperature of lighting is stored in the memory in server 200 (which may be storage unit G1).
  • the concentration inducer 6 refers to the correlation information when inducing an increase in the concentration so as to achieve a value (target value) higher than the concentration of the subject M1 estimated by the first estimator 31.
  • a brightness or color temperature target value corresponding to the concentration target value is determined, and a control signal is transmitted to the environment forming device E1 side.
  • the concentration inducer 6 may acquire the correlation information from another server.
  • the concentration inducer 6 analyzes the spatial data of the target region R1 (the positional relationship between the lighting device and the target person M1 and the learning terminal 2, the posture of the target person M1, etc.), and based on the analysis result, determines the target region R1.
  • the brightness or color temperature of the illumination of the target region R1 may be controlled by controlling the lighting equipment of .
  • the concentration inducer 6 may use image data captured by the imaging device C1 as the spatial data.
  • the concentration inducer 6 accumulates data on the concentration of the target person M1 estimated by the first estimation unit 31, analyzes the transition of the concentration of the target person M1, and uses the analysis result to control the environment forming device E1. can be reflected in
  • the environment forming device E1 may be an air conditioner, in which case the concentration inducer 6 controls the air conditioner to control the temperature/humidity or the air volume of the target region R1 to induce an increase in the degree of concentration. create a comfortable air-conditioned environment.
  • the environment forming device E1 may be an air purifier or a ventilation fan. In that case, the concentration inducer 6 starts operating the air purifier or the ventilation fan to create an optimal air quality environment that induces an increase in concentration. form.
  • the environment forming device E1 may be a wind generator such as an electric fan. In this case, the concentration inducer 6 applies an air flow to the target person M1 at the timing when the concentration is lowered to increase the concentration.
  • the environment forming device E1 may be a speaker device (for example, a smart speaker), and in that case, the concentration inducer 6 selects a piece of music that enhances concentration and forms an optimal music environment. Also, the environment forming device E1 may be a massage machine, which vibrates the target person M1 at the timing when the degree of concentration is lowered to form an optimum vibration environment that induces an increase in the degree of concentration.
  • the tension level inducer 7 of the present embodiment is configured to induce an increase in the tension level of the subject M1.
  • the support method in this embodiment includes a tension level induction step for inducing an increase in the tension level of the subject M1.
  • the tension inducer 7 when the tension in the result of estimation by the second estimator 32 is lower than a certain threshold, the tension inducer 7 induces an increase in the tension so that the tension exceeds the threshold (tension level feedback processing).
  • the tension inducer 7 provides the subject M1 with information on the difficulty level of one or more subjects (questions), information on the order in which the one or more subjects (questions) are presented, and how to deal with the training material Q1.
  • At least one of information about the designation of the period for performing the exercise and information about a subject other than the subject M1 is presented to induce an increase in the degree of tension.
  • presentation regarding the difficulty level of questions, presentation regarding the order of questions, presentation regarding designation of a period (here, the time limit for solving a question), and presentation regarding other's information will be described.
  • FIG. 4 is a schematic diagram of the screen 20 of the learning terminal 2, and exemplarily shows "question 1" of the training material Q1 presented from the screen 20.
  • FIG. 4 is a schematic diagram of the screen 20 of the learning terminal 2, and exemplarily shows "question 1" of the training material Q1 presented from the screen 20.
  • the screen 20 includes a first image area D1 displaying the content of "question 1".
  • the first image area D1 includes a second image area D2 indicating difficulty level information (“standard level” in the illustrated example) corresponding to the question.
  • the tension induction unit 7 causes the presentation unit 30 of the learning terminal 2 to present information on the difficulty level linked to the question ID, thereby inducing an increase in the tension level of the subject M1.
  • the subject M1 tends to intuitively judge whether or not he/she can solve the presented problem the moment he/she sees it. You can feel the tension.
  • the screen 20 includes a third image area D3 and a fourth image area D4 that respectively display the degree of concentration (70% in the illustrated example) and the degree of tension (90% in the illustrated example) of the target person M1 in real time.
  • the presentation unit 30 presents the estimation results estimated by the first estimation unit 31 and the second estimation unit 32 through the third image area D3 and the fourth image area D4.
  • the subject M1 can know his/her current degree of concentration and degree of tension.
  • the current level of concentration and tension may be presented not by the difference in numerical value, but by the difference in shade of color or the like.
  • the screen 20 also includes a fifth image area D5 showing information on the time limit ("60 (sec)" in the illustrated example) corresponding to the problem.
  • the tension induction unit 7 causes the presentation unit 30 of the learning terminal 2 to present information on the time limit linked to the question ID and displays it in the fifth image area D5, thereby increasing the tension of the subject M1. provoke.
  • the time limit is displayed in such a manner that it decreases moment by moment with the passage of time.
  • the screen 20 also includes a sixth image area D6 that shows information about the other person (another target person) corresponding to the problem.
  • the sixth image area D6 includes the information "80% of all examinees answered this question correctly! .
  • the processing unit 4 of the server 200 collects information about the correct/wrong judgment results (judgment results of the correct/wrong judgment unit 42) of many subjects who have dealt with this problem in the past (including, for example, the examinees of the previous year). The percentage of correct answers is obtained by tallying and stored in the storage unit G1 in association with the question ID.
  • the tension induction unit 7 extracts the correct answer rate linked to the question ID, presents it on the presentation unit 30 of the learning terminal 2, and displays it in the sixth image area D6, thereby increasing the tension of the subject M1. provoke For example, when the subject M1 learns that the other person has a relatively high percentage of correct answers to the question, he or she may feel a sense of tension that "it is natural to solve the question.”
  • the tension inducer 7 presents a plurality of questions included in the training material Q1 in a simple manner in the order in which they are presented in such a manner that the types or titles of the questions can be understood. is presented on the screen 20.
  • the tension inducer 7 may convert the remaining number of questions and the questions to be presented next into thumbnails and display them in the corners of the screen 20 .
  • the support system 1 preferably has a function of making suggestions to develop the optimum degree of concentration and the degree of tension for the individual subject.
  • screen 20 includes a seventh image area D7 containing a suggested message to calm subject M1.
  • the processing unit 4 of the server 200 or the processing unit 3 of the learning terminal 2 may be used
  • the screen 20 of the learning terminal 2 may present advice on improvement of facial expression, body movement, posture, breathing method, relaxation method, and the like.
  • the screen 20 also includes an image area D10 showing information on the model solution corresponding to the problem.
  • image area D10 showing information on the model solution corresponding to the problem.
  • only part of the information of the model solution is displayed.
  • the user can move down a vertically movable scroll bar BA1 beside image area D10 to display the rest of the exemplary solution.
  • FIG. 7 shows that one problem collection is learned from the first round (first learning cycle) to the fourth round (fourth learning cycle), and finally the concentration and tension levels for all problems in one problem collection shows a training process group PG1 aiming at solving even when both are high (a state close to the state of the actual test).
  • the training process group PG1 includes, for example, four training processes P0 in chronological order, and each round (learning cycle) here corresponds to a cycle in which one training process P0 is performed.
  • the implementation period T1 assigned as the period for implementing each training process P0 is the same as each other, but may be different. In particular, the implementation period T1 may vary depending on the type of question set, the difficulty level, and the number of questions.
  • the implementation period T1 can be several tens of minutes to several hours, and the collection of problems in the field of mathematics required for the university entrance examination , the implementation period T1 can be several days to several weeks.
  • the support system 1 drafts a training process group PG1 along the curriculum B1 of FIG. Specifically, the support system 1 causes the subject M1 to deal with (challenge) all the problems in the problem set regardless of whether they can be solved in the first training process P1 (first round) or not.
  • the support system 1 causes the subject M1 to mainly deal with problems that could not be solved in the first training process P1 as study of solutions.
  • the concentration/tensed state of the subject M1 may vary in the first quadrant A1 to the fourth quadrant A4 in FIG. 2 for each question. .
  • the support system 1 In the third training process P3 (third round), the support system 1 has the subject M1 deal with the problem in the state of the fourth quadrant A4 of FIG. Finally, in a fourth training process P4 (fourth round), the support system 1 has the subject M1 deal with the problem in the state of the first quadrant A1 of FIG.
  • the number of training processes P0 in the training process group PG1 is variable according to the progress of the understanding level of the subject M1. More training processes P0 may be added. A specific operation of the support system 1 in each round will be described below.
  • the support system 1 prepares a plurality of questions (here, as an example, five questions of "problem 1" to "problem 5") of the contents of the initial setting (standard difficulty level). ) is selected from the learning terminal 2 as the training material Q1.
  • the support system 1 estimates the degree of concentration and the degree of tension based on the image data of the subject M1 captured by the imaging device C1. Each of the degree of concentration and the degree of tension is estimated at a predetermined sampling period. Each of the degree of concentration and the degree of tension fluctuates from moment to moment while the subject M1 is solving the problem, and the support system 1, as shown in FIGS. The degree of tension is presented on the screen 20.
  • the support system 1 obtains, for example, an average value for each question for each of the fluctuating degree of concentration and degree of tension, and associates it with the question ID.
  • the answer, the degree of concentration (average value), and the degree of tension (average value) input for each question are linked with the terminal ID, the process ID, the question ID, etc. by the first support unit 1A, and the answer data , is transmitted from the learning terminal 2 to the server 200 .
  • Estimation of the degree of concentration and degree of tension, and transmission of answer data to the server 200 are also performed in each of the second to fourth rounds thereafter.
  • the support system 1 Based on this classification result, the support system 1 generates a learning recipe for the next training process P0, that is, the second training process P2 (second round). In the example of FIG. 7, the support system 1 deletes (omits) "problem 1" and "problem 5" from the next and subsequent learning recipes. In addition, the support system 1 selects again the learning recipe of the second training process P2 in order to re-solve "problem 2" and "problem 3". In particular, the support system 1 selects again, including explanations based on theorems, formulas, calculation methods, etc., because "Problem 4" was answered “wrongly" even though the degree of concentration was high and the degree of tension was low.
  • the second training process P2 (second round) is, as described above, a process that focuses on dealing with problems that could not be solved in the first training process P1.
  • the support system 1 selects a plurality of questions (here, three questions, "questions 2" to "questions 4") based on the learning recipes generated according to the results of the first round.
  • the collected problem collection is presented from the learning terminal 2 as the training material Q1.
  • the support system 1 Based on this classification result, the support system 1 generates a learning recipe for the next training process P0, that is, the third training process P3 (third round).
  • the support system 1 again selects "problem 2" and "problem 3" in the learning recipe of the third training process P3 in order to re-solve them.
  • the support system 1 uses theorems, formulas, calculation methods, etc. in order to focus on strengthening learning in the subsequent processes, because there is a possibility that the subject M1 is not good at "problem 4". Select again, including the commentary based on.
  • the support system 1 uses the concentration inducer 6 to create a learning recipe in the direction of inducing an increase in the concentration of the subject M1 so as to deal with the problem in the fourth quadrant A4. draft.
  • the third training process P3 (third round) is, as described above, the process of dealing with problems in the fourth quadrant A4.
  • the support system 1 selects a plurality of questions (here, three questions, "questions 2" to "questions 4") based on the learning recipes generated according to the results of the second round.
  • the collected problem collection is presented from the learning terminal 2 as the training material Q1.
  • the concentration inducer 6 controls the environment forming device E1 based on the learning recipe to induce an increase in the concentration of the subject M1.
  • the support system 1 Based on this classification result, the support system 1 generates a learning recipe for the next training process P0, that is, the fourth training process P4 (fourth round). In the example of FIG. 7, in the next fourth round, the support system 1 answers the three questions "Question 2" to "Question 4" set after the second training process P2 in the first quadrant A1.
  • the support system 1 uses the concentration inducer 6 and the tension inducer 7 to formulate a learning recipe for inducing an increase in the concentration and tension of the subject M1.
  • the fourth training process P4 (fourth round) is, as described above, a process for dealing with problems in the first quadrant A1.
  • the support system 1 issues a plurality of questions (here, "question 2" to “question 4”) is presented from the learning terminal 2 as the training material Q1.
  • the concentration inducer 6 controls the environment forming device E1 based on the learning recipe to induce an increase in the concentration of the subject M1.
  • the tension inducer 7 presents the difficulty level of the questions, the order of the questions, the time limit, and other information from the screen 20 to induce an increase in the tension of the subject M1.
  • the support system 1 completes the series of training processes P0 when the first quadrant A1, that is, a "correct answer" is obtained for all questions in a state of high concentration and tension.
  • the support system 1 adds a fifth round if there is even one problem that does not result in such a result in the fourth round.
  • the support system 1 can support more practical learning training in consideration of the mental state of the subject M1.
  • training information is generated based on the determination results of the correctness determination unit 42 in addition to the degree of concentration and the degree of tension, so a more appropriate training process P0 can be easily implemented.
  • the training material Q1 used in the training process P0 to be carried out next is presented by the presentation unit 30 based on the training information. , the next stepped-up training material Q1 is likely to be presented.
  • the support system 1 of the present embodiment includes the concentration inducer 6 that induces an increase in the concentration of the target person M1, it is possible to support learning training in the direction of increasing the learning efficiency of the target person M1 working on the training material Q1. can do Furthermore, since the support system 1 of the present embodiment includes the tension inducer 7 that induces an increase in the tension of the subject M1, the mental state of the subject M1 working on the training material Q1 approaches a more practical state. It can support direction acquisition training.
  • the support system 1 of the present embodiment plans training information in line with the curriculum B1 shown in FIG.
  • the support system 1 in the present disclosure includes a computer system.
  • a computer system is mainly composed of a processor and a memory as hardware.
  • the function of the support system 1 in the present disclosure is realized by the processor executing a program recorded in the memory of the computer system.
  • the program may be recorded in advance in the memory of the computer system, may be provided through an electric communication line, or may be recorded in a non-temporary recording medium such as a computer system-readable memory card, optical disk, or hard disk drive. may be provided.
  • a processor in a computer system consists of one or more electronic circuits, including semiconductor integrated circuits (ICs) or large scale integrated circuits (LSIs).
  • Integrated circuits such as ICs or LSIs are called differently depending on the degree of integration, and include integrated circuits called system LSI, VLSI (Very Large Scale Integration), or ULSI (Ultra Large Scale Integration).
  • FPGAs Field-Programmable Gate Arrays
  • a plurality of electronic circuits may be integrated into one chip, or may be distributed over a plurality of chips.
  • a plurality of chips may be integrated in one device, or may be distributed in a plurality of devices.
  • a computer system includes a microcontroller having one or more processors and one or more memories. Accordingly, the microcontroller also consists of one or more electronic circuits including semiconductor integrated circuits or large scale integrated circuits.
  • the multiple functions of the support system 1 are integrated in one housing.
  • the components of the support system 1 may be distributed over a plurality of housings.
  • multiple functions of the support system 1 may be integrated into one housing. Furthermore, at least part of the functions of the support system 1, for example, part of the functions of the support system 1 may be realized by the cloud (cloud computing) or the like.
  • both the degree of concentration and the degree of tension are estimated from the image data.
  • the configuration for estimating the degree of concentration and the degree of tension from image data is not essential for the support system 1 .
  • at least one of the degree of concentration and the degree of tension may be estimated from a measurement result from a contact-type sensor provided on a wearable terminal worn on the body of the subject M1.
  • the wearable terminal may be a watch-type device, a wristband-type device, an eyeglass-type device, or a headgear-type device.
  • the support system uses the measurement results of a sensor that measures the heart rate or pulse rate of the subject M1, a sensor that measures brain waves of the subject M1, or a sensor that measures the blinks of the subject M1, At least one of concentration and tension may be estimated.
  • concentration and tension may be estimated.
  • the configuration in which both the degree of concentration and the degree of tension are estimated from the image data can be simplified compared to the configuration in which the measurement results from the contact-type sensor are used.
  • the basic example is an example in which the support system 1 is applied to learning training in which the target person M1 inputs an answer to a question (character string data) presented on the screen 20 with a fingertip or a touch pen.
  • the support system 1 may be applied to interview training (mock interview) for an interview, as shown in FIG. 8, for example.
  • This "interview” may be an interview (a hearing interview in English may be used) in which the interviewer conducts a dialogue as part of the entrance examination, or a job interview in which the interviewer dialogues with the personnel department of the company.
  • COVID-19 new coronavirus
  • remote interviews are increasing.
  • the support system 1 may also be applied to interview training for remote interviews (remote mock interviews).
  • the screen 20 of the learning terminal 2 includes an eighth image area D8 showing two interviewers J1 and J2.
  • the screen 20 also has a third image area D3 and a fourth image area D3 that respectively display the degree of concentration (70% in the illustrated example) and the degree of tension (90% in the illustrated example) of the target person M1 in real time, as in the basic example. Includes area D4.
  • the images of the interviewers J1 and J2 may be actual images or CG.
  • the training material Q1 may include one or more questions (voice data) from the interviewers J1 and J2 instead of the questions displayed on the screen (character string data). .
  • voice data voice data
  • the material included in the training material Q1 was exercises, but in this case, it becomes a question.
  • the presentation unit 30 presents the training material Q1 to the subject M1 by outputting a question (voice) from a speaker attached to the learning terminal 2 .
  • the subject M1 looks at the interviewers J1 and J2 on the screen 20 and aloud answers to the presented questions.
  • the answer (voice) of the subject M1 is input from a microphone attached to the learning terminal 2 .
  • the support system 1 may analyze not only the image data of the image data but also the voice frequency of the voice data of the reply, and use it to estimate the degree of concentration and the degree of tension. Then, the support system 1 generates training information (next question) regarding the training process P0 to be carried out next based on the degree of concentration and the degree of tension.
  • the support system 1 is also applicable to training for competitions such as e-Sports.
  • the training materials Q1 presented from the screen during training include movements (materials) of characters in the game.
  • a target person M1 (competitor) uses a controller or the like to respond to the movement (subject) of a character in the game.
  • the support system 1 generates training information (next character movement) regarding the training process P0 to be executed next, based on the degree of concentration and the degree of tension of the subject M1 who responds using a controller or the like.
  • a support system (1) supports learning or training of the subject (M1) regarding learning or technology.
  • a support system (1) includes a presentation unit (30), a first estimation unit (31), a second estimation unit (32), and a generation unit (41).
  • a presentation unit (30) presents training materials (Q1) used in a training process (P0) performed by a subject (M1).
  • a first estimation unit (31) estimates the degree of concentration of a subject (M1) who deals with the training material (Q1).
  • a second estimation unit (32) estimates the degree of tension of the subject (M1) who deals with the training material (Q1).
  • a generation unit (41) generates training information regarding a training process (P0) to be performed next to the training process (P0) based on the degree of concentration and the degree of tension.
  • the generating unit (41) generates training information regarding the training process (P0) based on the degree of concentration and the degree of tension. As a result, it is possible to support more practical acquisition training.
  • the training materials (Q1) are materials containing questions that require the subject (M1) to answer.
  • the support system (1) further comprises an acquisition unit (40) that acquires the answer given by the subject (M1) to the question, and a correct/wrong judgment unit (42) that judges whether the obtained answer is correct or incorrect.
  • a generation unit (41) generates training information based on the determination result of the correctness determination unit (42) in addition to the degree of concentration and the degree of tension.
  • the presentation unit (30) performs Present the training material (Q1) to be used.
  • the target person (M1) is more likely to be presented with the next stepped-up training material (Q1) at a more appropriate timing.
  • the concentration inducer (6) includes a target region (R1) in which a target person (M1) who deals with the training material (Q1) exists. Controlling an ambience shaping device (E1) that performs ambience shaping regarding at least one of lighting, temperature, humidity, air quality, wind volume, music, and vibration in the room to induce an increase in concentration.
  • the support system (1) according to the sixth aspect in any one of the first to fifth aspects, further comprises a tension inducer (7) that induces an increase in the tension of the subject (M1). .
  • the training material (Q1) includes one or more subjects.
  • the tension inducer (7) provides the subject (M1) with information on the difficulty level of one or more subjects, information on the order of presenting one or more subjects, and training materials (Q1). At least one of information about designation of a period (implementation period T1) and information about a subject other than the subject (M1) is presented to induce an increase in tension.
  • the generating unit (41) generates the concentration Through the process of transitioning to the second state with high and low tension, until the subject (M1) can appropriately deal with the training material (Q1) even in the third state with both high concentration and tension, Training information is generated so that training materials (Q1) of the same content are repeatedly presented from a presentation unit (30).
  • a support system (1) in any one of the first to eighth aspects, from an imaging device (C1) that images a subject (M1) who deals with training materials (Q1)
  • An acquisition unit (33) for acquiring image data is further provided. At least one of the degree of concentration and the degree of tension is estimated from the image data.
  • the configuration can be simplified compared to the case of estimating the degree of concentration and the degree of tension from the measurement results from a contact-type sensor worn on the body of the subject (M1).
  • the support system (1) supports learning training of the target person (M1) regarding learning in any one of the first to ninth aspects.
  • the training material (Q1) is material containing exercises that ask the subject (M1) to answer.
  • the support system (1) supports learning or training of subjects (M1) regarding learning or technology.
  • a support system (1) comprises a first estimator (31), a second estimator (32), a concentration inducer (6), and a tension inducer (7).
  • a first estimation unit (31) estimates the degree of concentration of a subject (M1) who deals with training material (Q1) presented when the subject (M1) implements the training process (P0).
  • a second estimation unit (32) estimates the degree of tension of the subject (M1) who deals with the training material (Q1).
  • a concentration inducer (6) induces an increase in concentration.
  • the tension inducer (7) induces an increase in tension.
  • the support method supports the target person (M1)'s acquisition training related to learning or technology.
  • the assistance method includes a presentation step, a first estimation step, a second estimation step, and a generation step.
  • the presenting step the training material (Q1) used in the training process (P0) performed by the subject (M1) is presented.
  • the first estimation step the degree of concentration of the subject (M1) who deals with the training material (Q1) is estimated.
  • the second estimation step the degree of tension of the subject (M1) who deals with the training material (Q1) is estimated.
  • training information relating to the training process (P0) to be executed next to the training process (P0) is generated based on the degree of concentration and the degree of tension.
  • the support method supports the subject's acquisition training related to learning or technology.
  • the support method includes a first estimation step, a second estimation step, a concentration level induction step, and a tension level induction step.
  • the first estimation step the degree of concentration of the subject (M1) who deals with the training materials (Q1) presented when the subject (M1) performs the training process (P0) is estimated.
  • the second estimation step the degree of tension of the subject (M1) who deals with the training material (Q1) is estimated.
  • concentration inducing step an increase in concentration is induced.
  • the tension induction step induces an increase in tension.
  • a program according to the fourteenth aspect is a program for causing one or more processors to execute the support method according to the twelfth or thirteenth aspect.
  • the configurations according to the second to tenth aspects are not essential configurations for the support system (1) according to the first aspect, and can be omitted as appropriate.

Abstract

課題は、より実践的な習得訓練の支援を図ることである。支援システム(1)は、学問又は技術に関する対象者(M1)の習得訓練を支援する。支援システム(1)は、提示部(30)と、第1推定部(31)と、第2推定部(32)と、生成部(41)と、を備える。提示部(30)は、対象者(M1)が実施する訓練プロセスで用いる訓練材料を提示する。第1推定部(31)は、訓練材料の対処を行う対象者(M1)の集中度を推定する。第2推定部(32)は、訓練材料の対処を行う対象者(M1)の緊張度を推定する。生成部(41)は、集中度及び緊張度に基づいて、訓練プロセスの次に実施する訓練プロセスに関する訓練情報を生成する。

Description

支援システム、支援方法、及びプログラム
 本開示は、一般に、支援システム、支援方法、及びプログラムに関する。より詳細には本開示は、学問又は技術に関する対象者の習得訓練を支援する支援システム、支援方法、及びプログラムに関する。
 特許文献1には、学習材推薦装置が開示されている。この学習材推薦装置は、集中度推定部と、理解度ログ前処理部と、学習材推薦部とを備える。集中度推定部は、学習者特徴ベクトルと学習材特徴ベクトルに予測モデルを適用して、学習者が学習材を学習する際の集中度予測スコアを計算する。理解度ログ前処理部は、学習者に対する確認テストで採点された実績値のログデータから理解度実績スコアを生成する。学習材推薦部は、集中度予測スコアと理解度実績スコアとから、学習者が次に学習すべき学習材を推薦する。
 特許文献1に開示された学習材推薦装置によれば、集中度及び理解度(成績)から学習者の最適な学習材が推薦されるだけであり、特許文献1に記載された学習材推薦装置は、いわば「日常的な学習」向けの装置にすぎない。学習者は、例えば自宅等での学習時には精神的にリラックスしていて解けていた問題であっても、実際の試験(学期末試験、入学試験、国家試験、模擬試験等)のような緊張感のある環境では、解けない可能性がある。したがって、より実践的な習得訓練の支援が望まれる。
国際公開第2018/168220号
 本開示は上記事由に鑑みてなされ、より実践的な習得訓練の支援を図ることができる、支援システム、支援方法、及びプログラムを提供することを目的とする。
 本開示の一態様の支援システムは、学問又は技術に関する対象者の習得訓練を支援する。前記支援システムは、提示部と、第1推定部と、第2推定部と、生成部と、を備える。前記提示部は、前記対象者が実施する訓練プロセスで用いる訓練材料を提示する。前記第1推定部は、前記訓練材料の対処を行う前記対象者の集中度を推定する。前記第2推定部は、前記訓練材料の対処を行う前記対象者の緊張度を推定する。前記生成部は、前記集中度及び前記緊張度に基づいて、前記訓練プロセスの次に実施する訓練プロセスに関する訓練情報を生成する。
 本開示の別の一態様の支援システムは、学問又は技術に関する対象者の習得訓練を支援する。前記支援システムは、第1推定部と、第2推定部と、集中度誘発部と、緊張度誘発部と、を備える。前記第1推定部は、前記対象者が訓練プロセスを実施する際に提示された前記訓練材料の対処を行う前記対象者の集中度を推定する。前記第2推定部は、前記訓練材料の対処を行う前記対象者の緊張度を推定する。前記集中度誘発部は、前記集中度の増加を誘発する。前記緊張度誘発部は、前記緊張度の増加を誘発する。
 本開示の一態様の支援方法は、学問又は技術に関する対象者の習得訓練を支援する。前記支援方法は、提示ステップと、第1推定ステップと、第2推定ステップと、生成ステップと、を含む。前記提示ステップでは、前記対象者が実施する訓練プロセスで用いる訓練材料を提示する。前記第1推定ステップでは、前記訓練材料の対処を行う前記対象者の集中度を推定する。前記第2推定ステップでは、前記訓練材料の対処を行う前記対象者の緊張度を推定する。前記生成ステップでは、前記集中度及び前記緊張度に基づいて、前記訓練プロセスの次に実施する訓練プロセスに関する訓練情報を生成する。
 本開示の別の一態様の支援方法は、学問又は技術に関する対象者の習得訓練を支援する。前記支援方法は、第1推定ステップと、第2推定ステップと、集中度誘発ステップと、緊張度誘発ステップと、を含む。前記第1推定ステップでは、前記対象者が訓練プロセスを実施する際に提示された前記訓練材料の対処を行う前記対象者の集中度を推定する。前記第2推定ステップでは、前記訓練材料の対処を行う前記対象者の緊張度を推定する。前記集中度誘発ステップでは、前記集中度の増加を誘発する。前記緊張度誘発ステップでは、前記緊張度の増加を誘発する。
 本開示の一態様のプログラムは、1以上のプロセッサに、上記いずれか一方の支援方法を実行させるためのプログラムである。
図1は、一実施形態に係る支援システムを備える学習管理システムの概略構成図である。 図2は、同上の支援システムにおける理想的なカリキュラムを説明するための図である。 図3は、同上の支援システムにおける別の理想的なカリキュラムを説明するための図である。 図4は、同上の支援システムにおける緊張度誘発機能を説明するための概念図である。 図5は、同上の支援システムにおける提案機能を説明するための概念図である。 図6は、同上の支援システムにおける提案機能を説明するための概念図である。 図7は、同上の支援システムの動作を説明するための図である。 図8は、同上の支援システムの変形例(模擬面接)を説明するための図である。
 (1)概要
 本実施形態の一態様に係る支援システム1は、学問又は技術に関する対象者M1(図1参照)の習得訓練を支援するように構成される。本実施形態では一例として、支援システム1が「学問」に関する習得訓練を支援することを想定する。したがって、対象者M1は、例えば、小学生、中学生、高校生、専門学校生、塾生、又は予備校生等の「学習者」に該当するが、年齢等は特に限定されず、国家試験に挑む大学生や社会人に該当してよい。また対象となる学問も特に限定されず、対象者M1が例えば中学生なら、国語、数学、英語、理科、社会、美術、又は音楽等でもよい。
 また支援システム1の支援対象は「学問」だけでなく「技術」でもよい。ここでいう「技術」は、仕事、趣味(工芸、美術、料理、ゲーム等)、競技(スポーツ、e-Sports等)に要求される技術を含み、特に本番の試験や面接、試合等が、習得訓練の中間的、又は最終的な目標(ゴール)として存在する技術が望ましい。例えば「技術」は、最終的な目標である企業面接に向けての就職活動に必要とされる対話技術も含み得る。
 支援システム1は、図1に示すように、提示部30と、第1推定部31と、第2推定部32と、生成部41と、を備える。
 提示部30は、対象者M1が実施する訓練プロセスP0(図7参照)で用いる訓練材料Q1(図4及び図5参照)を提示する。本実施形態では一例として、提示部30の機能は、学習端末2(情報端末)に設けられている。学習端末2は、例えばタッチパネル式のディスプレイ(画面20)を備えるタブレット端末である。学習端末2は、タブレット端末に限定されず、スマートフォン、ノートパソコン、又は据置型のパソコン等でもよい。提示部30は、訓練材料Q1を学習端末2の画面20から提示する。以下では、訓練材料Q1は、例えば数学の問題集を想定し、1又は複数の題材として、演習問題(以下、単に「問題」とよぶ)を含む教材である。
 ここでいう「訓練プロセス」は、対象者M1が提示された訓練材料Q1への対処を行うプロセスである。本実施形態では、二つ以上の訓練プロセスP0を対象者M1に実施させることを想定する。例えば訓練材料Q1が数学の問題集であれば、対象者M1は、その訓練プロセスを実施する期間(実施期間T1:図7参照)内で、提示された数学の問題集を始めから終わりまで一通り解くことが推奨される。
 第1推定部31は、訓練材料Q1の対処を行う対象者M1の集中度を推定する。第2推定部32は、訓練材料Q1の対処を行う対象者M1の緊張度を推定する。つまり、支援システム1は、対象者M1が例えば数学の問題集(訓練材料Q1)に取り組んでいる最中における対象者M1の集中度及び緊張度を推定する機能を有する。本実施形態の支援システム1は、実施期間T1中の対象者M1を撮像する撮像装置C1(図1参照)から画像データを取得して、画像データから対象者M1の集中度及び緊張度を推定する。
 生成部41は、集中度及び緊張度に基づいて、訓練プロセスP0の次に実施する訓練プロセスP0に関する訓練情報を生成する。例えば生成部41は、次の訓練プロセスP0で用いる訓練材料Q1の選択、又は変更等を行うように訓練情報を生成する。提示部30は、訓練情報に応じた内容の訓練材料Q1を次の訓練プロセスP0で画面20から提示する。以下では、訓練情報を「学習レシピ」と呼ぶことがある。
 ところで、人によっては、例えば日常的な学習時には精神的にリラックスしていて解けていた問題であっても、本番の試験(学期末試験、入学試験、国家試験、模擬試験等)のような緊張感のある環境では、問題をうまく解けずに失敗する可能性がある。本番の試験は、いわゆる「リモート試験」も含み得る。また試験に限らず、面接、試合等でも同様に、日常的な訓練時には成功していても、本番では失敗する可能性がある。したがって、本番で失敗しないためにも、訓練の段階で、対象者M1の精神状態に配慮することは重要である。
 これに対して、本実施形態では、上述の通り、対象者M1の集中度及び緊張度に基づいて、次に実施する訓練プロセスP0に関する訓練情報が生成される。そのため、上述した特許文献1のように集中度及び理解度(成績)から学習者の最適な学習材が推薦されるケースと違って、対象者M1の精神状態に配慮した訓練プロセスP0が実施されやすくなる。結果的に、より実践的な習得訓練の支援を図ることができる。
 また本実施形態に係る支援方法は、学問又は技術に関する対象者M1の習得訓練を支援する。支援方法は、提示ステップと、第1推定ステップと、第2推定ステップと、生成ステップと、を含む。提示ステップでは、対象者M1が実施する訓練プロセスP0で用いる訓練材料Q1を提示する。第1推定ステップでは、訓練材料Q1の対処を行う対象者M1の集中度を推定する。第2推定ステップでは、訓練材料Q1の対処を行う対象者M1の緊張度を推定する。生成ステップでは、集中度及び緊張度に基づいて、訓練プロセスP0の次に実施する訓練プロセスP0に関する訓練情報を生成する。この構成によれば、より実践的な習得訓練の支援を図ることが可能な支援方法を提供できる。この支援方法は、コンピュータシステム(生成部41を備える支援システム1)上で用いられる。つまり、この支援方法は、プログラムでも具現化可能である。本実施形態に係るプログラムは、この支援方法を、1以上のプロセッサに実行させるためのプログラムである。
 また本実施形態の別の一態様に係る支援システムは、第1推定部31と、第2推定部32と、集中度誘発部6と、緊張度誘発部7と、を備える。第1推定部31は、対象者M1が訓練プロセスP0を実施する際に提示された訓練材料Q1の対処を行う対象者M1の集中度を推定する。第2推定部32は、訓練材料Q1の対処を行う対象者M1の緊張度を推定する。集中度誘発部6は、集中度の増加を誘発する。緊張度誘発部7は、緊張度の増加を誘発する。この構成によれば、集中度誘発部6及び緊張度誘発部7が設けられていることで、対象者M1を、訓練の段階で、例えば本番の試験、面接、試合等の環境で経験するような緊張感に少しでも近い状態へ擬似的に誘発できる。結果的に、より実践的な習得訓練の支援を図ることができる。
 また本実施形態の別の一態様に係る支援方法は、第1推定ステップと、第2推定ステップと、集中度誘発ステップと、緊張度誘発ステップと、を含む。第1推定ステップでは、対象者M1が訓練プロセスP0を実施する際に提示された訓練材料Q1の対処を行う対象者M1の集中度を推定する。第2推定ステップでは、訓練材料Q1の対処を行う対象者M1の緊張度を推定する。集中度誘発ステップでは、集中度の増加を誘発する。緊張度誘発ステップでは、緊張度の増加を誘発する。この構成によれば、より実践的な習得訓練の支援を図ることが可能な支援方法を提供できる。この支援方法は、コンピュータシステム(集中度誘発部6及び緊張度誘発部7を備える支援システム1)上で用いられる。つまり、この支援方法は、プログラムでも具現化可能である。本実施形態に係るプログラムは、この支援方法を、1以上のプロセッサに実行させるためのプログラムである。
 以下の実施形態では、支援システム1が、生成部41と、集中度誘発部6及び緊張度誘発部7とを備える場合について説明する。
 (2)詳細
 以下、本実施形態に係る支援システム1、及びその周辺構成を含んだ全体のシステム(学習管理システム100)について、図1を参照しながら詳しく説明する。なお、周辺構成の少なくとも一部が、支援システム1の構成に含まれてもよい。
 (2.1)全体構成
 学習管理システム100は、図1に示すように、1又は複数台の学習端末2(図1では1台のみ図示)と、サーバ200と、1又は複数台の環境形成装置E1(図1では1台のみ図示)とを備える。本実施形態では一例として、支援システム1の機能が、学習端末2とサーバ200とに分散的に設けられている(図1の第1支援部1A、第2支援部1B)。ただし、支援システム1の機能の全てが、学習端末2及びサーバ200のいずれか一方のみに設けられてもよい。ここでいう「サーバ」は、1台のサーバ装置から構成されることを想定する。つまり、支援システム1の一部(第2支援部1B)の機能が、1台のサーバ装置に設けられていることを想定する。ただし、「サーバ」は、複数台のサーバ装置から構成されてもよい。また複数台のサーバ装置が、例えばクラウド(クラウドコンピューティング)を構築してもよい。
 学習端末2は、上述の通り、タッチパネル式のディスプレイ(画面20)を備えるタブレット端末である。学習端末2は、学習者である対象者M1がオンライン学習をするために利用する端末である。図1の例では、施設300内の対象領域R1(管理領域)内で、対象者M1が学習端末2を用いて学習する。例えば、施設300は学習者である対象者M1の自宅であり、対象領域R1は対象者M1の自室であるとする。ただし、施設300は、対象者M1の自宅に限定されず、対象者M1が通う学校又は塾でもよく、その場合、対象領域R1は教室でもよい。
 対象者M1は、自身の指先を用いて、画面20上にタッチ操作(タップ)又はスワイプ操作等を行って訓練材料Q1(図4及び図5参照:例えば数学の問題集)に取り組む。ここでは訓練材料Q1は、対象者M1に対して解答を求める問題(題材)を含む材料である。特に上述の通り一例として、支援システム1は、学問に関する対象者M1の習得訓練を支援し、訓練材料Q1は、対象者M1に対して解答を求める演習問題(問題)を含む材料である。1つの訓練プロセスP0(図7参照)で課せられる訓練材料Q1に含まれる問題の数は、1つでも複数でもよい。特に複数の訓練プロセスP0間で訓練材料Q1に含まれる問題の内容(難易度)、問題の数、又は提示される問題の順番は、異なることもある。各訓練プロセスP0にて、複数の内容(難易度)のうち、対応する内容(難易度)の問題を含む訓練材料Q1が、学習端末2の画面20にて提示(画面表示)される。図4及び図5では、説明の便宜上、訓練材料Q1の一部である数学の「問題1」が例示的に画面表示されている様子を示す。
 訓練材料Q1は、1又は複数の題材(ここでは問題)を含む。訓練材料Q1は、ある教科(ここでは数学)に関して、高校生が大学入試に向けて必要とする範囲の問題集でもよいし、高校1年~3年の学年別に絞られた問題集でもよい。或いは、訓練材料Q1は、ある教科の中で、例えば因数分解問題、集合問題、2次関数問題、又は図形問題といった、数学の中でもある分野に絞られた問題集でもよい。以下では一例として、訓練材料Q1は、因数分解の問題に特化した問題集であることを想定する。
 問題に対する解答が、予め用意された複数の選択肢から1つ又は複数を選択する選択方式であれば、対象者M1は複数の選択肢から正しいと思う解答をタップ操作で選択する。また問題に対する解答が、記入欄へ直接記入する方式であれば、対象者M1は、自身の指先或いはペン型の操作部材(いわゆるタッチペン)を用いて、画面20上に表示されている記入欄の領域に解答を入力する。つまり、支援システム1は、対象者M1が問題に対する解答を入力する入力部5を備え、本実施形態では、学習端末2のタッチパネル式のディスプレイ(画面20)が、訓練材料Q1の提示(画面表示)の機能だけでなく、入力部5の機能を兼ねている。
 サーバ200は、施設300(対象者M1の自宅)の外部、例えば1又は複数の対象者M1の学習状況の管理を行う個人、団体、又は企業等の施設に設置される。施設300が例えば学校又は塾であれば、サーバ200は、施設300内に設置されてもよい。
 学習端末2は、施設300内に設置されるルータ等を介して、インターネットを含む外部の広域ネットワークNT1に接続されている。広域ネットワークNT1には、サーバ200も接続されている。学習端末2には、サーバ200と通信するための専用のアプリケーションソフトが予めインストールされる。学習端末2とサーバ200とは、広域ネットワークNT1を介して、双方向に通信可能である。学習端末2及びサーバ200の各々の詳細な構成については後述する。
 環境形成装置E1は、施設300内に設置される。特に環境形成装置E1は、施設300内の対象領域R1(例えば対象者M1の自室)に設置される。環境形成装置E1は、訓練材料Q1の対処を行う対象者M1が存在する対象領域R1内における照明、温度、湿度、空気質、風量、音楽、及び振動の少なくとも1つに関する環境形成を実行するように構成される。ここでは一例として、環境形成装置E1は、「照明」に関する環境形成を実行する照明機器である。環境形成装置E1は、「温湿度」及び「風量」に関する環境形成を実行する空調機器でもよいし、「空気質」に関する環境形成を実行する空気清浄機又は換気扇でもよい。環境形成装置E1は、風量(風速でもよい)に関する環境形成を実行する扇風機等の風発生装置でもよいし、「音楽」に関する環境形成を実行するスピーカ機(例えばスマートスピーカ)でもよいし、「振動」に関する環境形成を実行するマッサージ機でもよい。
 環境形成装置E1は、例えば、施設300内に設置されて、施設300内の複数の電気機器を管理するHEMS(Home Energy Management System)のコントローラ、通信アダプタ及びルータ等を介して、広域ネットワークNT1に接続されている。環境形成装置E1とサーバ200とは、広域ネットワークNT1を介して、双方向に通信可能である。
 (2.2)学習端末
 学習端末2は、図1に示すように、処理部3、入力部5、及び撮像装置C1を備える。また学習端末2は、サーバ200等と通信するための通信インタフェース、及び、EEPROM(Electrically Erasable Programmable Read-Only Memory)のような書き換え可能な不揮発性メモリを含む記憶部F1を更に備える。記憶部F1は、処理部3のメモリでもよい。
 入力部5は、上述の通り、タッチパネル式のディスプレイ(画面20)を含み、訓練材料Q1を提示(画面表示)する機能とタッチ操作等の入力操作を受け付ける機能とを兼ね備える。ディスプレイは、例えば液晶ディスプレイ又は有機EL(Electro-Luminescence)ディスプレイである。学習端末2は、入力部5として、マウス、キーボード、及びポインティングデバイス等を備えてもよい。
 撮像装置C1は、撮像素子を有し、被写体を撮像するためのカメラである。本実施形態では、撮像装置C1として、RGBカメラを採用する。撮像素子は、例えばCCD(Charge Coupled Devices)イメージセンサ、又はCMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサ等の二次元イメージセンサである。また撮像装置C1は、レンズ等の光学系を更に有し、被写体(ここでは対象者M1)からの光をその光学系によって撮像素子の撮像面(受光面)上に結像させ、撮像素子にて被写体からの光を電気信号に変換することで、画像を生成する。
 撮像装置C1は、図4及び図5に示すように、例えば、学習端末2の正面(画面20がある面)上における画面20よりも上部に取り付けられている。その結果、対象者M1が学習端末2を用いて学習を行っている最中には、撮像装置C1の画角内に、対象者M1の少なくとも顔が入ることになる。撮像装置C1は、対象者M1が訓練プロセスP0を実施している間、後述する処理部3の制御下で対象者M1を撮影する。
 処理部3は、1以上のプロセッサ(マイクロプロセッサ)と1以上のメモリとを含むコンピュータシステムにより実現され得る。つまり、1以上のプロセッサが1以上のメモリに記憶された1以上のプログラム(アプリケーション)を実行することで、処理部3として機能する。プログラムは、ここでは処理部3のメモリに予め記録されているが、インターネット等の電気通信回線を通じて、又はメモリカード等の非一時的な記録媒体に記録されて提供されてもよい。
 処理部3は、入力部5の制御処理、撮像装置C1の制御処理、及び、サーバ200との通信に関する制御処理を実行するように構成される。また処理部3は、画面20に関する制御処理を実行するように構成される。
 また本実施形態では、処理部3は、提示処理、第1推定処理、第2推定処理、及び取得処理を実行する機能を有しており、図1に示すように、提示部30、第1推定部31、第2推定部32、及び取得部33を有する。提示部30、第1推定部31、第2推定部32、及び取得部33は、第1支援部1Aを構成し、後述するサーバ200側の第2支援部1Bと共に、支援システム1を構成する(図1参照)。
 提示部30は、対象者M1が実施する訓練プロセスP0で用いる訓練材料Q1を提示するように構成される。言い換えると、本実施形態における支援方法は、対象者M1が実施する訓練プロセスP0で用いる訓練材料Q1を提示する提示ステップを含む。本実施形態では、図7に示すように、訓練プロセスP0が4つ用意されるケースを例示する。訓練プロセスP0の数は、特に限定されないが、2つ以上であることが好ましい。以下では、4つの訓練プロセスP0について互いに区別する場合には、左側から順に、第1訓練プロセスP1、第2訓練プロセスP2、第3訓練プロセスP3、及び第4訓練プロセスP4とそれぞれ呼ぶことがある。
 第1訓練プロセスP1は、初回のプロセスであり、その後、第2訓練プロセスP2、第3訓練プロセスP3、及び第4訓練プロセスP4の順でプロセスが進行する。初回(第1訓練プロセスP1)の訓練材料Q1は、例えば難易度が標準レベル程度の問題を含む。初回の訓練材料Q1の問題の数や難易度は、入力部5を介して、対象者M1が適宜に選択できてもよい。なお、第2訓練プロセスP2以降の問題は、後述の通り、支援システム1の生成部41が生成する情報(内容)に基づき、自動的に決定される。対象者M1には、複数の訓練プロセスP0を全て終了することが推奨される。
 処理部3は、サーバ200から送信される各訓練プロセスP0に関する訓練材料Q1のデータを受信して、記憶部F1に記憶(格納)する。訓練材料Q1のデータは、対応する訓練プロセスP0に割り当てられているプロセスIDと紐づけされている。処理部3は、訓練材料Q1に含まれる複数の問題を全て一括で受信してもよいし、問題を提示するタイミングで問題ごとに都度受信してもよい。
 取得部33は、訓練材料Q1の対処を行う対象者M1を撮像する撮像装置C1から画像データを取得するように構成される。処理部3は、各訓練プロセスP0の開始と共に撮像装置C1を制御して撮像装置C1による対象者M1の撮影を開始する。具体的には、各訓練プロセスP0は、例えば画面20上に表示される「開始」の操作領域(画像領域)を対象者M1がタップ操作することで開始される。処理部3は、訓練プロセスP0の開始に連動して、対応する訓練材料Q1の第1問目の問題を提示すると共に、撮像装置C1による対象者M1の撮影を開始する。後述する対象者M1の集中度及び緊張度の少なくとも一方(ここでは両方)は、画像データから推定される。
 各訓練プロセスP0は、対象者M1が対応する訓練材料Q1の最終問題に対する解答を行って、例えば画面20上に表示される「終了」の操作領域(画像領域)を対象者M1がタップ操作することで終了する。処理部3は、訓練プロセスP0の終了に連動して、当該訓練プロセスP0に対応する訓練材料Q1の提示を終えると共に、撮像装置C1による対象者M1の撮影を終了する。
 取得部33は、各訓練プロセスP0で撮像された画像データを、対応する訓練プロセスP0のプロセスIDと紐づけして、記憶部F1に記憶(格納)する。ここでは、画像データは、動画像データであることを想定する。動画像データは、1コマ(フレーム)と1コマの間隔が比較的長い(コマ送り)画像データも含む。画像データは、対象者M1が訓練プロセスP0を実施中のある瞬間の1コマ、すなわち1枚の静止画像データでもよい。
 各訓練プロセスP0には予め開始から終了までの終了時間(例えば60分等)が設定されており、開始から終了時間が経過すると、その訓練プロセスP0は自動的に強制終了する。終了時間は、訓練材料Q1の種類、問題量、及び難易度等によって適宜変更される。
 訓練プロセスP0の単位だけでなく、各問題に対しても予め制限時間(例えば10分等)が設定されている。制限時間は、その問題の種類、難易度等によって適宜変更される。対象者M1が、ある問題を取り組んでいる最中に制限時間が経過すると、処理部3は、その問題に対する解答の入力が完了していなくても、次の問題に移る。
 第1推定部31は、各訓練プロセスP0の実施期間T1中にて訓練材料Q1の対処を行う対象者M1の集中度を推定するように構成される。言い換えると、本実施形態における支援方法は、訓練材料Q1の対処を行う対象者M1の集中度を推定する第1推定ステップを含む。ここでは、第1推定部31は、各訓練プロセスP0の実施期間T1中に生成された画像データから、対象者M1の集中度を推定(算出)する。第1推定部31は、撮像装置C1で生成された画像データ(生データ)に限らず、撮像後に処理部3でなんらかの加工処理(拡大、縮小、回転、反転、補間、エッジ処理等の画像処理)が施された画像データを用いて集中度を推定してよい。
 第1推定部31は、例えば、画像データに対する画像解析を行い、対象者M1の顔、手指等の位置、及び大きさ等を検出する。そして、第1推定部31は、対象者M1の顔、手指等に関する検出結果を基に、対象者M1の表情(瞬きや視線移動も含む)、顔の向き、姿勢、動作(手指等のジェスチャ)に関する生体情報を抽出し、対象者M1の集中度を推定する。対象者M1の生体情報は、ある瞬間の表情、顔の向き、姿勢、及び動作だけでなく、時間経過に伴う表情、顔の向き、及び動作の変化に関する情報を含み得る。「ある瞬間」とは、例えば問題が画面20に提示された瞬間等である。学習端末2がマイクロホンを備える場合、第1推定部31は、マイクロホンを介して入力される対象者M1の音声データも、生体情報の1つとして、集中度の推定に用いてよい。
 集中度は、例えば百分率(パーセント)で示される。集中度が100%に近いほど、対象者M1は、集中して問題の取り組みを行っているといえる。第1推定部31は、対象者M1の表情、顔の向き、姿勢、及び動作の、単位時間当たりの変化量が大きいほど、集中度が下がるような所定の演算式を用いて集中度を算出(推定)してもよい。第1推定部31は、各問題の単位で集中度を算出する。各問題にはID(問題ID)が割り当てられていて、第1推定部31は、集中度と対応する問題IDとを紐づけする。第1推定部31は、実施期間T1中における集中度の推移を測定して、その平均値(又は最大値でも最小値でもよい)を算出してもよい。
 第1推定部31は、各訓練プロセスP0の実施期間T1中に生成された各訓練プロセスP0の実施期間T1中に生成された画像データを入力データとして、機械学習が完了した学習済みモデル(第1分類器)を用いて、集中度を推定してもよい。すなわち、第1分類器は、画像データ内における対象者M1の表情、顔の向き、姿勢、動作に関する特徴量を基に、集中度データを分類結果として出力する。
 処理部3は、第1推定部31の推定結果(集中度データ)を、プロセスID、問題ID、及び学習端末2の端末ID(対象者M1に割り当てられたユーザIDでもよい)と対応付けして、サーバ200に送信する。
 第1推定部31の推定結果(集中度データ)のサーバ200への送信タイミングは、特に限定されない。訓練プロセスP0が終了したタイミングで、全ての問題に対する解答と併せて送信されてもよいし、或いは1つの問題に対する解答が終了したタイミングで、当該問題に対する解答と併せてその都度送信されてもよい。また第1推定部31の推定結果は、解答とは異なるタイミングでサーバ200へ送信されてよい。
 第2推定部32は、各訓練プロセスP0の実施期間T1中にて訓練材料Q1の対処を行う対象者M1の緊張度(ストレス度)を推定するように構成される。言い換えると、本実施形態における支援方法は、訓練材料Q1の対処を行う対象者M1の緊張度を推定する第2推定ステップを含む。ここでは、第2推定部32は、集中度と同様に、各訓練プロセスP0の実施期間T1中に生成された画像データから、対象者M1の緊張度を推定(算出)する。第2推定部32は、撮像装置C1で生成された画像データ(生データ)に限らず、撮像後に処理部3で加工処理が施された画像データを用いて緊張度を推定してよい。
 第2推定部32は、例えば、画像データに対する画像解析を行い、対象者M1の顔、手指等の位置、及び大きさ等を検出する。そして、第2推定部32は、対象者M1の顔、手指等に関する検出結果を基に、対象者M1の脈拍数を測定し、脈拍数から緊張度を推定する。人は、緊張が増すと、血液の流れに影響を及ぼし、顔の肌色が僅かに変化する。RGBカメラである撮像装置C1で生成された画像データを用いることで、脈拍数は測定可能である。つまり、脈拍数は、例えばカラー信号の時間変動、すなわち顔の肌色の変化に対応する画像データの各画素におけるR、G、Bの輝度値の変化を用いて測定することができる。脈拍数と緊張度との対応関係を示すデータが記憶部F1に記憶されている。
 第2推定部32は、脈拍数に加えて又は代わりに、顔の表情(例えば瞬き、視線移動等の目の動きの変化)又は姿勢から、緊張度を推定してもよい。学習端末2がマイクロホンを備える場合、第2推定部32は、マイクロホンを介して入力される対象者M1の音声データから解析される音声周波数の変化に関する情報を、緊張度の推定に用いてよい。
 緊張度は、例えば百分率(パーセント)で示される。緊張度が100%に近いほど、対象者M1は、緊張しながら問題に対する取り組みを行っているといえる。第2推定部32は、各問題の単位で緊張度を算出し、緊張度と対応する問題IDとを紐づけする。第2推定部32は、実施期間T1中における緊張度の推移を測定して、その平均値(又は最大値でも最小値でもよい)を算出してもよい。
 第2推定部32は、各訓練プロセスP0の実施期間T1中に生成された画像データを入力データとして、機械学習が完了した学習済みモデル(第2分類器)を用いて、緊張度を推定してもよい。すなわち、第2分類器は、画像データ内におけるR、G、Bの輝度値の変化に関する特徴量を基に、緊張度データを分類結果として出力する。
 処理部3は、第2推定部32の推定結果(緊張度データ)を、プロセスID、問題ID、及び学習端末2の端末ID(ユーザIDでもよい)と対応付けして、サーバ200に送信する。第2推定部32の推定結果は、第1推定部31の推定結果(集中度データ)と合わせてサーバ200へ送信されることが好ましい。
 第2推定部32の推定結果(緊張度データ)のサーバ200への送信タイミングは、特に限定されない。訓練プロセスP0が終了したタイミングで、全ての問題に対する解答と併せて送信されてもよいし、或いは1つの問題に対する解答が終了したタイミングで、当該問題に対する解答と併せてその都度送信されてもよい。また第2推定部32の推定結果は、解答とは異なるタイミングでサーバ200へ送信されてよい。
 (2.3)サーバ
 サーバ200は、図1に示すように、処理部4、及び格納部G1(図1では、「問題データベース」と表記している)を備える。またサーバ200は、1又は複数の学習端末2等と通信するための通信インタフェースを更に備える。
 格納部G1は、EEPROMのような書き換え可能な不揮発性メモリを含む。格納部G1は、処理部4のメモリでもよい。格納部G1は、種々の科目に対応する大量の問題及びその答え(正答)に関するデータを管理する問題データベースとして機能する。問題データベースは、新しい問題が作成されると、更新され得る。
 処理部4は、1以上のプロセッサ(マイクロプロセッサ)と1以上のメモリとを含むコンピュータシステムにより実現され得る。つまり、1以上のプロセッサが1以上のメモリに記憶された1以上のプログラム(アプリケーション)を実行することで、処理部4として機能する。プログラムは、ここでは処理部4のメモリに予め記録されているが、インターネット等の電気通信回線を通じて、又はメモリカード等の非一時的な記録媒体に記録されて提供されてもよい。
 処理部4は、各学習端末2との通信に関する制御処理を実行するように構成される。処理部4は、格納部G1内の問題データベースから、対象者M1に最適な問題を抽出して、訓練材料Q1のデータを生成し、対象者M1に対応する学習端末2に送信する。
 本実施形態では、処理部4は、取得処理、生成処理、正誤判定処理を実行する機能を有しており、図1に示すように、取得部40、生成部41、及び正誤判定部42を有する。また処理部4は、集中度誘発処理、及び緊張度誘発処理を実行する機能を有しており、図1に示すように、集中度誘発部6、及び緊張度誘発部7を有する。
 取得部40、生成部41、正誤判定部42、集中度誘発部6、及び緊張度誘発部7は、第2支援部1Bを構成し、上述した学習端末2側の第1支援部1Aと共に、支援システム1を構成する(図1参照)。
 取得部40は、学習端末2との通信により、学習端末2から、各訓練プロセスP0に関するデータ(以下、「解答データ」と呼ぶ)を取得するように構成される。解答データは、学習端末2の端末ID(ユーザIDでもよい)、プロセスID、問題ID、並びに、各問題IDに紐づけられた対象者M1の解答、集中度及び緊張度等に関するデータを含む。つまり、取得部40は、対象者M1が問題に対して行った解答(に関する情報)を取得する。
 生成部41は、集中度及び緊張度に基づいて、訓練プロセスP0の次に実施する訓練プロセスP0に関する訓練情報を生成する。言い換えると、本実施形態における支援方法は、集中度及び緊張度に基づいて、訓練プロセスP0の次に実施する訓練プロセスP0に関する訓練情報を生成する生成ステップを含む。
 具体的には、生成部41は、第1訓練プロセスP1で推定された集中度及び緊張度に基づいて、次の第2訓練プロセスP2に関する訓練情報を生成する。また生成部41は、第2訓練プロセスP2で推定された集中度及び緊張度に基づいて、次の第3訓練プロセスP3に関する訓練情報を生成する。さらに生成部41は、第3訓練プロセスP3で推定された集中度及び緊張度に基づいて、次の第4訓練プロセスP4に関する訓練情報を生成する。本実施形態では一例として、生成部41が、複数の問題の中から、次の訓練プロセスP0で実際に使用する問題を選択する。
 生成部41は、選択した問題を次の訓練プロセスP0の訓練材料Q1に含めて、学習端末2に送信する。そして、学習端末2の提示部30は、次の訓練プロセスP0の実施時に画面20に訓練材料Q1を提示する。要するに、提示部30は、生成部41が生成した訓練情報に基づき、訓練プロセスP0の次に実施する訓練プロセスP0で用いる訓練材料Q1を提示する。サーバ200は、選択された問題を、対象者M1の学習を監督する監督者(例えば学校の先生、塾の講師又は親)が所有する情報端末に送信して事前にチェックさせて、その監督者から了承を得てから学習端末2に送信してもよい。
 正誤判定部42は、取得した解答の正誤に関する判定を行うように構成される。本実施形態では、生成部41は、集中度及び緊張度に加えて正誤判定部42の判定結果に基づいて、訓練情報を生成する。正誤判定部42は、着目する問題の問題IDを基に、格納部G1に格納される問題データベースを検索して、問題IDに対応付けされている基準解答を抽出する。正誤判定部42は、抽出した基準解答と、対象者M1が入力した解答と比較して、「正答」か「誤答」かを判定する。集中度及び緊張度と正誤の判定結果とをどのように組み合わせて訓練情報が生成されるかについては、後述する。
 本実施形態の生成部41は、所定のカリキュラムB1(図2の矢印参照)に沿って、次の訓練プロセスP0で用いる問題を問題データベースから選択し学習レシピ(訓練情報)を立案する。以下、学習レシピについて詳細に説明する。
 図2は、X軸に集中度を、Y軸に緊張度をそれぞれ設定して区分けした4つの象限(第1象限A1~第4象限A4)を示す。図2の象限図における(集中度,緊張度)の座標原点は(50%,50%)に設定される。
 第1象限A1は、緊張度及び集中度がいずれも座標原点の緊張度及び集中度より高く、適度な領域である。第1象限A1は、本番の試験に対応する領域であり、対象者M1が緊張状態でも高いパフォーマンスが期待できる領域である。第1象限A1は、カリキュラムB1において、目標到達地点となる領域として活用される。対象者M1が最終的に第1象限A1の領域内の緊張/集中状態でも、全ての問題について正しく解けることが、習得訓練の目標とされる。訓練プロセスP0の実施中に、緊張度が極度に高くなりすぎることはパニックに陥ることに繋がり、望まれない。したがって、問題は、対象者M1の緊張度が極度に高くならないように選択されることが好ましい。
 第2象限A2は、緊張度は座標原点の緊張度より高く適度で、しかし集中度は座標原点の集中度より低い注意散漫な領域である。第2象限A2は、カリキュラムB1が通らない領域である。
 第3象限A3は、緊張度及び集中度がいずれも座標原点の緊張度及び集中度より低い領域である。第3象限A3は、対象者M1の学習の初期段階に対応する緊張/集中状態の領域である。第3象限A3は、カリキュラムB1において、学習のスタート地点となる領域として活用される。
 第4象限A4は、集中度は座標原点の集中度より高く適度で、緊張度が座標原点の緊張度より低い領域である。第4象限A4は、対象者M1の学習の中期段階に対応する緊張/集中状態の領域である。第4象限A4は、カリキュラムB1において、学習の中間地点となる領域として活用される。
 生成部41は、理想的には、第1、第2、第3、第4訓練プロセス・・・と進行するにつれて、カリキュラムB1のように対象者M1の緊張/集中状態が、第3象限A3及び第4象限A4を経て第1象限A1に向かうように学習レシピを立案することが好ましい。生成部41は、例えば、前回の訓練プロセスP0で使用した問題と同じ問題を次の訓練プロセスP0でも出題したり、その問題を省いたり、或いは別の問題に変更したりする。生成部41は、集中度及び緊張度がいずれも低い第1状態から、集中度が高くかつ緊張度が低い第2状態へ移行する過程を経て、集中度及び緊張度がいずれも高い第3状態でも対象者M1が訓練材料Q1を適切に対処可能となるまで、同じ内容の訓練材料Q1を提示部30から繰り返し提示するように、訓練情報を生成する。
 具体例を挙げると、生成部41は、解答データの各問題について下の表1に示すような分類を行って、次回の訓練プロセスP0の学習レシピを立案する。表1の例では、生成部41は、前回の訓練プロセスP0の問題ごとに推定された緊張度及び集中度がどの状態(第1象限A1~第4象限A4のいずれか)に該当し、その問題に対する解答が正答又は誤答のいずれに該当するかを判断し、次回の訓練プロセスP0で使用する問題を決定する。表1に示すような分類パターンは、単なる一例であり、これに限定されない。
Figure JPOXMLDOC01-appb-T000001
 表1の「(1)次回、省く」は、その問題を次の訓練プロセスP0では、訓練材料Q1に含めないことを意味する。生成部41は、対象となる問題に対して、集中度及び緊張度がいずれも高く「正答」だった場合、本番の試験でも十分解けると判断し、その問題を、「(1)次回、省く」に分類する。生成部41は、次の訓練プロセスP0で、該当する問題を削除するように学習レシピを立案する。
 表1の「(2)解きなおし」は、その問題を次の訓練プロセスP0でも訓練材料Q1に含めて出題することを意味する。生成部41は、対象となる問題に対して、集中度及び緊張度がいずれも高く「誤答」だった場合、集中度が低く、緊張度が高く「誤答」だった場合、集中度及び緊張度がいずれも低く「誤答」だった場合、その問題を「(2)解きなおし」に分類する。生成部41は、次の訓練プロセスP0で、同じ問題を繰り返して出題し、対象者M1の状態が第4象限A4に移行する方向となるように学習レシピを立案する。
 表1の「(3)解きなおし」も、その問題を次の訓練プロセスP0でも訓練材料Q1に含めて出題することを意味する。生成部41は、対象となる問題に対して、集中度が高く、緊張度が低く「正答」だった場合、集中度及び緊張度がいずれも低く「正答」だった場合、その問題を、「(3)解きなおし」に分類する。「(3)解きなおし」は、対象者M1がリラックス状態であったことで解けた可能性があることを意味する。生成部41は、次の訓練プロセスP0で、対象者M1の状態が第1象限A1に移行する方向となるように学習レシピを立案する。
 表1の「(4)解法を勉強」は、その問題の解き方を対象者M1に重点的に学習させることを意味し、例えば、その解き方の解説(例えば模範解法:図6参照)が表示される。模範解法の表示に加えて再度同じ問題が出題されてもよい。生成部41は、対象となる問題に対して、集中度が高く、緊張度が低いにも関わらず、「誤答」だった場合、対象者M1にとって難易度が高い問題と判断して、その問題を、「(4)解法を勉強」に分類する。特にこの問題は、対象者M1が苦手とする可能性が高い。生成部41は、次の訓練プロセスP0でも、前回の訓練プロセスP0と同様に定理、公式、計算方法等を踏まえた解説を含めて同じ問題或いは類似問題を含む学習レシピを立案する。
 表1の「(5)次回、省く」は、その問題を次の訓練プロセスP0では、訓練材料Q1に含めないことを意味する。生成部41は、対象となる問題に対して、集中度が低く、緊張度が高く「正答」だった場合、対象者M1にとって難易度が低い問題と判断して、その問題を、「(5)次回、省く」に分類する。生成部41は、次の訓練プロセスP0で、該当する問題を削除するように学習レシピを立案する。
 図3は、図2と同様に、X軸に集中度を、Y軸に緊張度をそれぞれ設定して区分けした4つの象限(第1象限A1~第4象限A4)を示す。生成部41は、理想的には、図2のカリキュラムB1に沿って、対象者M1の緊張/集中状態が推移するように学習レシピを立案することが好ましい。ただし、生成部41は、図3に示す三角形の範囲(カリキュラムB2)内で、対象者M1の緊張/集中状態が移行するように、学習レシピを立案してもよい。図3の象限図における(集中度,緊張度)の座標原点は、図2と同様に(50%,50%)に設定される。
 図3の三角形の範囲(カリキュラムB2)は、例えば、生理心理学の基本法則であるヤーキーズ・ドットソンの法則(Yerkes-Dodson's law)に基づいて定義される。この法則によれば、学習活動に対する動機づけに関して、緊張度(ストレス)が、最適水準の一定量を超えるまでは高いほど学習パフォーマンスは上昇する一方で、一定量を超えると逆に学習パフォーマンスは低下する点が提唱されている。例えばY軸上で緊張度0%(MIN)と緊張度100%(MAX)を決定し、ヤーキーズ・ドットソンの法則から、集中度100%(MAX)になる緊張度を50%と定義する。次に、緊張度0%と緊張度100%における集中度を0%と定義する。そして、X軸上で集中度0%と集中度100%の中間点を、50%と定義する。緊張度のY軸が集中度50%の位置を通るように緊張度のY軸の位置を設定する。例えば図3の二点鎖線矢印のY軸を平行移動させて、集中度50%の位置を通る実線矢印のY軸に設定する。このようにヤーキーズ・ドットソンの法則に基づき、(集中度,緊張度)の座標原点が(50%,50%)に設定された象限図上にて、三角形の範囲(カリキュラムB2)が定義される。
 ところで、問題の選択、変更だけでは、対象者M1の緊張/集中状態を、例えば第1象限A1や第4象限A4等へ移行させるようにコントロールすることは容易ではない場合がある。
 本実施形態の集中度誘発部6は、対象者M1の集中度の増加を誘発するように構成される。言い換えると、本実施形態における支援方法は、対象者M1の集中度の増加を誘発する集中度誘発ステップを含む。集中度誘発部6は、例えば、第1推定部31による推定結果の集中度が、ある閾値より低い場合に、閾値以上となるように集中度の増加を誘発する(集中度フィードバック処理)。ここでは集中度誘発部6は、環境形成装置E1を制御して、集中度の増加を誘発する。環境形成装置E1は、上述の通り、施設300内の対象領域R1(例えば対象者M1の自室)に設置される照明機器である。集中度誘発部6は、広域ネットワークNT1及びHEMSのコントローラ等を介して、環境形成装置E1(照明機器)へ制御信号を送信し、対象者M1の集中度が増加する方向に向かうように環境形成装置E1(照明機器)を制御する。
 例えば、集中度誘発部6は、照明機器による照明の明るさ又は色温度を制御して、集中度の増加を誘発するような照明環境を形成させる。人の集中度と最適な照明の明るさ又は色温度の相関情報が、サーバ200内のメモリ(格納部G1でもよい)に記憶されている。集中度誘発部6は、第1推定部31で推定した対象者M1の集中度よりも高い値(目標値)になるように集中度の増加を誘発させる場合、相関情報を参照して、その集中度の目標値に対応する明るさ又は色温度の目標値を決定し、制御信号を環境形成装置E1側へ送信する。集中度誘発部6は、相関情報を別のサーバから取得してもよい。
 集中度誘発部6は、対象領域R1の空間データ(照明機器と対象者M1及び学習端末2との位置関係、対象者M1の姿勢等)を分析して、その分析結果に基づいて対象領域R1の照明機器を制御することで対象領域R1の照明の明るさ又は色温度を制御してもよい。集中度誘発部6は、空間データとして、撮像装置C1で撮像された画像データを用いてもよい。集中度誘発部6は、第1推定部31で推定した対象者M1の集中度のデータを蓄積して、その対象者M1の集中度の推移を分析し、分析結果を環境形成装置E1の制御に反映させてもよい。
 環境形成装置E1は空調機器でもよく、その場合、集中度誘発部6は、空調機器を制御することで対象領域R1の温湿度又は風量を制御して、集中度の増加を誘発するような最適な空調環境を形成させる。また環境形成装置E1は空気清浄機又は換気扇でもよく、その場合、集中度誘発部6は、空気清浄機又は換気扇の稼働を開始させて、集中度の増加を誘発するような最適な空気質環境を形成させる。また環境形成装置E1は、扇風機等の風発生装置でもよく、その場合、集中度誘発部6は、集中度が低下したタイミングで対象者M1に対して空気流を当てて、集中度の増加を誘発するような最適な気流環境を形成させる。また環境形成装置E1は、スピーカ機(例えばスマートスピーカ)でもよく、その場合、集中度誘発部6は、集中度を高める楽曲を選択して、最適な音楽環境を形成させる。また環境形成装置E1は、マッサージ機でもよく、集中度が低下したタイミングで対象者M1に対して振動を与え、集中度の増加を誘発するような最適な振動環境を形成させる。
 本実施形態の緊張度誘発部7は、対象者M1の緊張度の増加を誘発するように構成される。言い換えると、本実施形態における支援方法は、対象者M1の緊張度の増加を誘発する緊張度誘発ステップを含む。緊張度誘発部7は、例えば、第2推定部32による推定結果の緊張度が、ある閾値より低い場合に、閾値以上となるように、緊張度の増加を誘発する(緊張度フィードバック処理)。ここでは緊張度誘発部7は、対象者M1に対して、1又は複数の題材(問題)の難易度に関する情報、1又は複数の題材(問題)を提示する順序に関する情報、訓練材料Q1の対処を行う期間の指定に関する情報、及び対象者M1とは別の対象者に関する情報の少なくとも1つを提示して、緊張度の増加を誘発する。以下に、問題の難易度に関する提示、問題順番に関する提示、期間の指定(ここでは問題を解く制限時間)に関する提示、他者の情報に関する提示についてそれぞれ説明する。
 例えば図4は、学習端末2の画面20の模式的な図であり、画面20から提示される訓練材料Q1の「問題1」を例示的に示す。
 図4では、画面20は、「問題1」の内容を表示する第1画像領域D1を含む。第1画像領域D1は、その問題に対応する難易度の情報(図示例では「標準レベル」)を示す第2画像領域D2を含む。緊張度誘発部7は、問題IDに紐づけされた難易度の情報を、学習端末2の提示部30に提示させることで、対象者M1の緊張度の増加を誘発する。対象者M1は、提示された問題が目に入った瞬間に、自分に解けそうか否かを直感的に判断する傾向があり、その際にその問題の難易度を知ることで、より一層の緊張感を覚え得る。
 また図4では、画面20は、対象者M1の集中度(図示例では70%)及び緊張度(図示例では90%)をリアルタイムでそれぞれ表示する第3画像領域D3、及び第4画像領域D4を含む。提示部30は、第3画像領域D3、及び第4画像領域D4を通じて、第1推定部31及び第2推定部32で推定される推定結果を提示する。対象者M1は、現在の自身の集中度及び緊張度を知ることができる。現在の集中度及び緊張度の高低は、数値の大小の違いではなく、色の濃淡の違い等で提示されてもよい。
 また図4では、画面20は、その問題に対応する制限時間の情報(図示例では「60(sec)」)を示す第5画像領域D5を含む。緊張度誘発部7は、問題IDに紐づけされた制限時間の情報を、学習端末2の提示部30に提示させ第5画像領域D5に表示させることで、対象者M1の緊張度の増加を誘発する。ここでは実際に時間経過に伴って制限時間が刻一刻と減っていく態様で表示されることで、対象者M1に本番の試験のような緊張感を与え得る。
 また図4では、画面20は、その問題に対応する他者(別の対象者)の情報を示す第6画像領域D6を含む。図示例では、第6画像領域D6は、第1画像領域D1上に重畳される態様で、正解率を含んだ「この問題は全受験者の80%が正解しています!」という情報を含む。本実施形態ではサーバ200の処理部4は、過去にこの問題の対処を行った多数の対象者(例えば前年の受験者も含む)の正誤判定結果(正誤判定部42の判定結果)に関する情報を集計して正解率を求め、問題IDと紐づけて格納部G1に保存している。緊張度誘発部7は、問題IDに紐づけされた正解率を抽出して、学習端末2の提示部30に提示させ第6画像領域D6に表示させることで、対象者M1の緊張度の増加を誘発する。対象者M1は、例えば、その問題の他者の正解率が比較的高いことを知ることで、「解けて当たり前」という緊張感を覚え得る。
 図4では図示を省略するが、問題順番に関する提示について、例えば、緊張度誘発部7は、訓練材料Q1に含まれる複数の問題を、その種類又はタイトル等が分かる態様で、提示される順に簡易的に画面20に提示させる。緊張度誘発部7は、残りの問題の数、次に提示される問題をサムネイル化して画面20の隅に表示させてもよい。
 支援システム1は、集中度及び緊張度の増加を誘発する機能以外にも、対象者個人に最適な集中度及び緊張度が発現するような提案を行う機能を有することが好ましい。対象者によっては、問題の難易度に問わず、学習中、常時緊張し過ぎている可能性もある。例えば図5では、画面20は、対象者M1を落ち着かせるための提案メッセージを含んだ第7画像領域D7を含む。第2推定部32で推定された緊張度が所定値よりも高い場合、サーバ200の処理部4(学習端末2の処理部3でもよい)が、「この問題は緊張度40%ぐらいで解きましょう」という提案メッセージを、学習端末2の画面20から提示させる。提案メッセージの内容は特に限定されない。より具体的に顔の表情や体動、姿勢に関する改善のアドバイス、呼吸法、又はリラックス法等が学習端末2の画面20から提示されてもよい。
 また図6では、画面20は、その問題に対応する模範解法の情報を示す画像領域D10を含む。図6の例では、模範解法の情報の一部のみが表示されている。ユーザは、画像領域D10の横にあり、上下に移動可能なスクロールバーBA1を下に移動させて模範解法の残りの部分を表示させることができる。
 (2.4)動作
 以下、支援システム1に関する動作について図7を参照しながら説明する。以下の動作例における動作の順序は単なる一例であり、特に限定されない。
 図7は、1つの問題集を第1周(第1学習サイクル)~第4周(第4学習サイクル)にかけて学習して、最終的に1の問題集の全ての問題について集中度及び緊張度がいずれも高い状態(本番の試験の状態に近い状態)でも解けることを目指す訓練プロセス群PG1を示す。訓練プロセス群PG1は、一例として、時系列に4つの訓練プロセスP0を含み、ここでいう各周(学習サイクル)は、1つの訓練プロセスP0が実施されるサイクルに相当する。図示例では、各訓練プロセスP0を実施する期間として割り当てられた実施期間T1は、互いに同じであるが、異なってもよい。特に、実施期間T1は、問題集の種類、難易度、問題数により異なり得る。問題集が学期末試験に必要となる数学の分野の問題であれば、実施期間T1は数十分~数時間程度になり得るし、問題集が大学入試試験に必要となる数学の分野の問題を含む場合、実施期間T1は数日~数週間にもなり得る。
 図7では、支援システム1は、図2のカリキュラムB1に沿うように、訓練プロセス群PG1を立案する。具体的には、支援システム1は、第1訓練プロセスP1(第1周目)で先ずは解ける解けないに関わらず、問題集内の全ての問題について一度対象者M1に対処(チャレンジ)させる。次に、支援システム1は、第2訓練プロセスP2(第2周目)で、対象者M1に、主に解法の勉強として、第1訓練プロセスP1で解けなかった問題を重点的に対処させる。第1訓練プロセスP1及び第2訓練プロセスP2では、対象者M1の集中/緊張状態は、各問題で図2の第1象限A1~第4象限A4の中でばらついた状態となる可能性がある。支援システム1は、第3訓練プロセスP3(第3周目)で、対象者M1に、図2の第4象限A4の状態の中で問題を対処させる。最後に、支援システム1は、第4訓練プロセスP4(第4周目)で、対象者M1に、図2の第1象限A1の状態の中で問題を対処させる。対象者M1の理解度の進行状況に応じて、訓練プロセス群PG1中の訓練プロセスP0の数は可変である。訓練プロセスP0が更に追加されていく可能性がある。以下、各周における支援システム1の具体的な動作を説明する。
 [第1周目]
 第1訓練プロセスP1(第1周目)では、支援システム1は、初期設定(難易度が標準レベル)の内容の複数の問題(ここでは一例として「問題1」~「問題5」の5つ)が選択された問題集を、訓練材料Q1として、学習端末2から提示する。
 対象者M1は、第1訓練プロセスP1にて、順次提示される「問題1」~「問題5」を一通り解いていく。その際に、支援システム1は、撮像装置C1で撮像された対象者M1の画像データを基に、集中度及び緊張度を推定する。集中度及び緊張度の各々は、所定のサンプリング周期で推定される。集中度及び緊張度の各々は、対象者M1が問題を解いている間、刻一刻と変動しており、支援システム1は、図4及び図5で示した通り、リアルタイムで変動する集中度及び緊張度を画面20上に提示する。支援システム1は、変動する集中度及び緊張度の各々について、問題ごとに例えば平均値を求め、問題IDと紐づけする。
 各問題に対して入力された解答、集中度(平均値)、及び緊張度(平均値)は、第1支援部1Aによって、端末IDや、プロセスID、問題ID等と紐づけされ、解答データとして、学習端末2からサーバ200へ送信される。集中度及び緊張度の推定、及び解答データのサーバ200への送信は、以降の第2周目~第4周目の各々でも行われる。
 図7の例では、第1訓練プロセスP1で出題された「問題1」に対する集中/緊張状態及び正誤判定結果から、「問題1」は、表1の「(1)次回、省く」に分類されている。また「問題2」~「問題5」は、それぞれ表1の「(2)解きなおし」、「(3)解きなおし」、「(4)解法を勉強」、及び「(5)次回、省く」に分類されている。
 支援システム1は、この分類結果に基づき、次の訓練プロセスP0、すなわち第2訓練プロセスP2(第2周目)に関する学習レシピを生成する。図7の例では、支援システム1は、「問題1」及び「問題5」について、次回以降の学習レシピから削除(省略)する。また支援システム1は、「問題2」及び「問題3」について、解きなおしをさせるために、第2訓練プロセスP2の学習レシピで再度選択する。特に支援システム1は、「問題4」について、集中度が高く緊張度が低いにも関わらず「誤答」だったため、定理、公式、計算方法等を踏まえた解説を含めて再度選択する。
 [第2周目]
 第2訓練プロセスP2(第2周目)は、上述の通り、第1訓練プロセスP1で解けなかった問題を重点的に対処させるプロセスである。第2周目では、支援システム1は、第1周目の結果に応じて生成された学習レシピに基づく内容の複数の問題(ここでは「問題2」~「問題4」の3つ)が選択された問題集を、訓練材料Q1として、学習端末2から提示する。
 図7の例では、第2訓練プロセスP2で出題された「問題2」及び「問題3」に対する集中/緊張状態及び正誤判定結果から、「問題2」及び「問題3」は、依然として「(2)解きなおし」、「(3)解きなおし」にそれぞれ分類されている。「問題4」については、集中/緊張状態を問わず、対象者M1が苦手とする問題の可能性があることから、分類対象から除外されている。
 支援システム1は、この分類結果に基づき、次の訓練プロセスP0、すなわち第3訓練プロセスP3(第3周目)に関する学習レシピを生成する。図7の例では、支援システム1は、「問題2」及び「問題3」について、解きなおしをさせるために、第3訓練プロセスP3の学習レシピで再度選択する。特に支援システム1は、「問題4」について、対象者M1が苦手とする問題の可能性があるため、更に以降のプロセスでも重点的に学習の強化を目指すために、定理、公式、計算方法等を踏まえた解説を含めて再度選択する。
 さらに支援システム1は、第3周目では、第4象限A4の中で問題を対処させるように、集中度誘発部6を用いて対象者M1の集中度の増加を誘発させる方向の学習レシピを立案する。
 [第3周目]
 第3訓練プロセスP3(第3周目)は、上述の通り、第4象限A4の中で問題を対処させるプロセスである。第3周目では、支援システム1は、第2周目の結果に応じて生成された学習レシピに基づく内容の複数の問題(ここでは「問題2」~「問題4」の3つ)が選択された問題集を、訓練材料Q1として、学習端末2から提示する。さらに集中度誘発部6は、学習レシピに基づき、環境形成装置E1を制御して、対象者M1の集中度の増加を誘発させる。
 図7の例では、第3訓練プロセスP3で出題された「問題3」に対する集中/緊張状態及び正誤判定結果から、「問題3」は、依然として「(3)解きなおし」に分類されている。「問題2」については、「誤答」から「正答」になったことで、「(2)解きなおし」が解消されている。「問題4」については、集中/緊張状態を問わず、対象者M1が苦手とする問題の可能性があることから、分類対象から除外されている。
 支援システム1は、この分類結果に基づき、次の訓練プロセスP0、すなわち第4訓練プロセスP4(第4周目)に関する学習レシピを生成する。図7の例では、支援システム1は、次の第4周目では、第2訓練プロセスP2以降に出題された「問題2」~「問題4」の3つについて、第1象限A1の中で問題を対処させるように学習レシピを立案する。すなわち、支援システム1は、集中度誘発部6及び緊張度誘発部7を用いて対象者M1の集中度及び緊張度の増加を誘発させる方向の学習レシピを立案する。
 [第4周目]
 第4訓練プロセスP4(第4周目)は、上述の通り、第1象限A1の中で問題を対処させるプロセスである。第4周目では、支援システム1は、第3周目と同様に、第2周目の結果に応じて生成された学習レシピに基づく内容の複数の問題(ここでは「問題2」~「問題4」の3つ)が選択された問題集を、訓練材料Q1として、学習端末2から提示する。集中度誘発部6は、学習レシピに基づき、環境形成装置E1を制御して、対象者M1の集中度の増加を誘発させる。緊張度誘発部7は、画面20から、問題の難易度、問題順番、制限時間、及び他者の情報を提示させて、対象者M1の緊張度の増加を誘発させる。
 そして最終的に、支援システム1は、全ての問題について第1象限A1、すなわち集中度も緊張度も高い状態で「正答」という結果が得られると、一連の訓練プロセスP0を終了する。支援システム1は、第4周目でそのような結果とならない問題が1問でも存在すれば、第5周目を追加する。
 <利点>
 本実施形態の支援システム1では、上述の通り、対象者M1の集中度及び緊張度に基づいて、次に実施する訓練プロセスP0に関する訓練情報が生成される。そのため、上述した特許文献1のように集中度及び理解度(成績)から学習者の最適な学習材が推薦されるケースと違って、対象者M1の精神状態に配慮された訓練プロセスP0が実施されやすくなる。結果的に、より実践的な習得訓練の支援を図ることができる。
 特に日常的な学習時には精神的にリラックスしていて解けていた問題であっても、本番の試験のような緊張感のある環境では、問題をうまく解けずに失敗する可能性がある。しかし、支援システム1は、対象者M1の精神状態に配慮して、より実践的な習得訓練の支援を図ることができる。
 また本実施形態の支援システム1では、集中度及び緊張度に加えて正誤判定部42の判定結果に基づいて、訓練情報が生成されるため、より適切な訓練プロセスP0が実施されやすくなる。
 また本実施形態の支援システム1では、次に実施する訓練プロセスP0で用いる訓練材料Q1が、訓練情報に基づいて、提示部30によって提示されるため、対象者M1に対して、より適切なタイミングで次のステップアップされた訓練材料Q1が提示されやすくなる。
 また本実施形態の支援システム1は、対象者M1の集中度の増加を誘発する集中度誘発部6を備えるため、訓練材料Q1に取り組む対象者M1の習得効率を高める方向の習得訓練の支援を行える。さらに本実施形態の支援システム1は、対象者M1の緊張度の増加を誘発する緊張度誘発部7を備えるため、訓練材料Q1に取り組む対象者M1の精神的状態をより実践的な状態に近づける方向の習得訓練の支援を行える。
 特に本実施形態の支援システム1は、図2に示すカリキュラムB1に沿うように訓練情報を立案するため、より質の高い習得訓練の支援を行える。
 (3)変形例
 上記実施形態は、本開示の様々な実施形態の一つに過ぎない。上記実施形態は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。また、上記実施形態に係る支援システム1と同様の機能は、支援方法、コンピュータプログラム、又はコンピュータプログラムを記録した非一時的記録媒体等で具現化されてもよい。
 以下、上記実施形態の変形例を列挙する。以下に説明する変形例は、適宜組み合わせて適用可能である。以下では、上記実施形態を「基本例」と呼ぶこともある。
 本開示における支援システム1は、コンピュータシステムを含んでいる。コンピュータシステムは、ハードウェアとしてのプロセッサ及びメモリを主構成とする。コンピュータシステムのメモリに記録されたプログラムをプロセッサが実行することによって、本開示における支援システム1としての機能が実現される。プログラムは、コンピュータシステムのメモリに予め記録されてもよく、電気通信回線を通じて提供されてもよく、コンピュータシステムで読み取り可能なメモリカード、光学ディスク、ハードディスクドライブ等の非一時的記録媒体に記録されて提供されてもよい。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1ないし複数の電子回路で構成される。ここでいうIC又はLSI等の集積回路は、集積の度合いによって呼び方が異なっており、システムLSI、VLSI(Very Large Scale Integration)、又はULSI(Ultra Large Scale Integration)と呼ばれる集積回路を含む。さらに、LSIの製造後にプログラムされる、FPGA(Field-Programmable Gate Array)、又はLSI内部の接合関係の再構成若しくはLSI内部の回路区画の再構成が可能な論理デバイスについても、プロセッサとして採用することができる。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。ここでいうコンピュータシステムは、1以上のプロセッサ及び1以上のメモリを有するマイクロコントローラを含む。したがって、マイクロコントローラについても、半導体集積回路又は大規模集積回路を含む1ないし複数の電子回路で構成される。
 また、支援システム1における複数の機能が、1つのハウジング内に集約されていることは必須の構成ではない。例えば、支援システム1の構成要素は、複数のハウジングに分散して設けられていてもよい。
 反対に、支援システム1における複数の機能が、1つのハウジング内に集約されてもよい。さらに、支援システム1の少なくとも一部の機能、例えば、支援システム1の一部の機能がクラウド(クラウドコンピューティング)等によって実現されてもよい。
 基本例では、集中度及び緊張度の両方が、画像データから推定される。しかし、支援システム1にとって、画像データから集中度及び緊張度を推定する構成は必須ではない。例えば、集中度及び緊張度の少なくとも一方が、対象者M1の身体に装着するようなウェアラブル端末に設けられた接触型のセンサからの計測結果から推定されてもよい。ウェアラブル端末は、時計型デバイス、リストバンド型デバイス、眼鏡型デバイス、ヘッドギア型デバイスのいずれでもよい。支援システム1は、例えば、対象者M1の心拍数又は脈拍数を測定するセンサ、対象者M1の脳波を測定するセンサ、或いは、対象者M1の瞬き等を測定するセンサの測定結果を用いて、集中度及び緊張度の少なくとも一方を推定してよい。ただし、基本例のように、集中度及び緊張度の両方を画像データから推定する構成の方が、接触型のセンサからの計測結果から推定する構成に比べて、構成の簡素化を図れる。
 基本例では、支援システム1が、画面20から提示される問題(文字列データ)に対して、対象者M1が指先やタッチペン等で解答を入力するという学習の訓練に適用された例である。しかし、支援システム1は、例えば、図8に示すように、面接に対する面接訓練(模擬面接)に適用されてもよい。この「面接」は、入学試験の一環として実施される試験面接官と対話する面接(英語のヒアリング面接でもよい)、或いは、企業の人事部の面接官と対話する就職面接でもよい。また近年、特に最近では世界中に蔓延しつつある新型コロナウィルス(COVID-19)の影響により、いわゆる「リモート面接」が増えつつある。支援システム1は、リモート面接に対する面接訓練(リモート模擬面接)にも適用されてもよい。
 図8の例では、学習端末2の画面20は、二人の面接官J1、J2を示す第8画像領域D8を含む。また画面20は、基本例と同様に、対象者M1の集中度(図示例では70%)及び緊張度(図示例では90%)をリアルタイムでそれぞれ表示する第3画像領域D3、及び第4画像領域D4を含む。面接官J1、J2の画像は、実写でもCGでもよい。
 支援システム1が面接訓練に適用される場合、訓練材料Q1は、画面表示される問題(文字列データ)に代わって、面接官J1、J2からの1又は複数の質問(音声データ)を含み得る。つまり、基本例では、訓練材料Q1が含む題材は、演習問題であったが、この場合、質問となる。提示部30は、質問(音声)を学習端末2に付設されるスピーカから出力することで訓練材料Q1を対象者M1に提示する。対象者M1は、画面20上の面接官J1、J2を見ながら、提示された質問に対して、声を出して回答する。対象者M1の回答(音声)は、学習端末2に付設されるマイクロホンから入力される。この場合、支援システム1は、画像データの画像解析だけでなく、回答された音声データの音声周波数を解析して、集中度及び緊張度の推定に利用してよい。そして、支援システム1は、集中度及び緊張度に基づいて、次に実施する訓練プロセスP0に関する訓練情報(次の質問)を生成する。
 このように支援システム1が面接訓練(模擬面接)に適用される場合でも、より実践的な習得訓練の支援を図ることができる。
 支援システム1は、その他にも、e-Sports等の競技に対する訓練にも適用可能である。訓練中に画面から提示される訓練材料Q1は、ゲーム内のキャラクタの動き(題材)を含む。対象者M1(競技者)が、ゲーム内のキャラクタの動き(題材)に対してコントローラ等を使って応答する。支援システム1は、コントローラ等を使って応答する対象者M1の集中度及び緊張度に基づいて、次に実施する訓練プロセスP0に関する訓練情報(次のキャラクタの動き)を生成する。このように支援システム1がe-Sports等の競技に適用される場合でも、より実践的な習得訓練の支援を図ることができる。
 (4)まとめ
 以上説明したように、第1の態様に係る支援システム(1)は、学問又は技術に関する対象者(M1)の習得訓練を支援する。支援システム(1)は、提示部(30)と、第1推定部(31)と、第2推定部(32)と、生成部(41)と、を備える。提示部(30)は、対象者(M1)が実施する訓練プロセス(P0)で用いる訓練材料(Q1)を提示する。第1推定部(31)は、訓練材料(Q1)の対処を行う対象者(M1)の集中度を推定する。第2推定部(32)は、訓練材料(Q1)の対処を行う対象者(M1)の緊張度を推定する。生成部(41)は、集中度及び緊張度に基づいて、訓練プロセス(P0)の次に実施する訓練プロセス(P0)に関する訓練情報を生成する。
 この態様によれば、生成部(41)により、集中度及び緊張度に基づいた訓練プロセス(P0)に関する訓練情報が生成される。結果的に、より実践的な習得訓練の支援を図ることができる。
 第2の態様に係る支援システム(1)に関して、第1の態様において、訓練材料(Q1)は、対象者(M1)に対して解答を求める問題を含む材料である。支援システム(1)は、対象者(M1)が問題に対して行った解答を取得する取得部(40)と、取得した解答の正誤に関する判定を行う正誤判定部(42)と、を更に備える。生成部(41)は、集中度及び緊張度に加えて正誤判定部(42)の判定結果に基づいて、訓練情報を生成する。
 この態様によれば、より適切な訓練プロセス(P0)が実施されやすくなる。
 第3の態様に係る支援システム(1)に関して、第1又は第2の態様において、提示部(30)は、訓練情報に基づき、訓練プロセス(P0)の次に実施する訓練プロセス(P0)で用いる訓練材料(Q1)を提示する。
 この態様によれば、対象者(M1)に対して、より適切なタイミングで次のステップアップされた訓練材料(Q1)が提示されやすくなる。
 第4の態様に係る支援システム(1)は、第1~第3の態様のいずれか1つにおいて、対象者(M1)の集中度の増加を誘発する集中度誘発部(6)を更に備える。
 この態様によれば、訓練材料(Q1)に対処する対象者(M1)の習得効率を高める方向の習得訓練の支援を行える。
 第5の態様に係る支援システム(1)に関して、第4の態様において、集中度誘発部(6)は、訓練材料(Q1)の対処を行う対象者(M1)が存在する対象領域(R1)内における照明、温度、湿度、空気質、風量、音楽、及び振動の少なくとも1つに関する環境形成を実行する環境形成装置(E1)を制御して、集中度の増加を誘発する。
 この態様によれば、より実用性の高い環境形成により、訓練材料(Q1)に取り組む対象者(M1)の習得効率を高めることができる。
 第6の態様に係る支援システム(1)は、第1~第5の態様のいずれか1つにおいて、対象者(M1)の緊張度の増加を誘発する緊張度誘発部(7)を更に備える。
 この態様によれば、訓練材料(Q1)に対処する対象者(M1)の精神的状態をより実践的な状態に近づける方向の習得訓練の支援を行える。
 第7の態様に係る支援システム(1)に関して、第6の態様において、訓練材料(Q1)は、1又は複数の題材を含む。緊張度誘発部(7)は、対象者(M1)に対して、1又は複数の題材の難易度に関する情報、1又は複数の題材を提示する順序に関する情報、訓練材料(Q1)の対処を行う期間(実施期間T1)の指定に関する情報、及び対象者(M1)とは別の対象者に関する情報の少なくとも1つを提示して、緊張度の増加を誘発する。
 この態様によれば、より実用性の高い環境形成により、訓練材料(Q1)に取り組む対象者(M1)の精神的状態を実践的な状態に近づけることができる。
 第8の態様に係る支援システム(1)に関して、第1~第7の態様のいずれか1つにおいて、生成部(41)は、集中度及び緊張度がいずれも低い第1状態から、集中度が高くかつ緊張度が低い第2状態へ移行する過程を経て、集中度及び緊張度がいずれも高い第3状態でも対象者(M1)が訓練材料(Q1)を適切に対処可能となるまで、同じ内容の訓練材料(Q1)を提示部(30)から繰り返し提示するように、訓練情報を生成する。
 この態様によれば、より質の高い習得訓練の支援を行える。
 第9の態様に係る支援システム(1)は、第1~第8の態様のいずれか1つにおいて、訓練材料(Q1)の対処を行う対象者(M1)を撮像する撮像装置(C1)から画像データを取得する取得部(33)を更に備える。集中度及び緊張度の少なくとも一方は、画像データから推定される。
 この態様によれば、例えば対象者(M1)の身体に装着するような接触型のセンサからの計測結果から、集中度及び緊張度を推定する場合に比べて、構成の簡素化を図れる。
 第10の態様に係る支援システム(1)は、第1~第9の態様のいずれか1つにおいて、学問に関する対象者(M1)の習得訓練を支援する。訓練材料(Q1)は、対象者(M1)に対して解答を求める演習問題を含む材料である。
 この態様によれば、より実践的な学習支援を図ることができる。
 第11の態様に係る支援システム(1)は、学問又は技術に関する対象者(M1)の習得訓練を支援する。支援システム(1)は、第1推定部(31)と、第2推定部(32)と、集中度誘発部(6)と、緊張度誘発部(7)と、を備える。第1推定部(31)は、対象者(M1)が訓練プロセス(P0)を実施する際に提示された訓練材料(Q1)の対処を行う対象者(M1)の集中度を推定する。第2推定部(32)は、訓練材料(Q1)の対処を行う対象者(M1)の緊張度を推定する。集中度誘発部(6)は、集中度の増加を誘発する。緊張度誘発部(7)は、緊張度の増加を誘発する。
 この態様によれば、より実践的な習得訓練の支援を図ることができる。
 第12の態様に係る支援方法は、学問又は技術に関する対象者(M1)の習得訓練を支援する。支援方法は、提示ステップと、第1推定ステップと、第2推定ステップと、生成ステップと、を含む。提示ステップでは、対象者(M1)が実施する訓練プロセス(P0)で用いる訓練材料(Q1)を提示する。第1推定ステップでは、訓練材料(Q1)の対処を行う対象者(M1)の集中度を推定する。第2推定ステップでは、訓練材料(Q1)の対処を行う対象者(M1)の緊張度を推定する。生成ステップでは、集中度及び緊張度に基づいて、訓練プロセス(P0)の次に実施する訓練プロセス(P0)に関する訓練情報を生成する。
 この態様によれば、より実践的な習得訓練の支援を図ることが可能な支援方法を提供できる。
 第13の態様に係る支援方法は、学問又は技術に関する対象者の習得訓練を支援する。支援方法は、第1推定ステップと、第2推定ステップと、集中度誘発ステップと、緊張度誘発ステップと、を含む。第1推定ステップでは、対象者(M1)が訓練プロセス(P0)を実施する際に提示された訓練材料(Q1)の対処を行う対象者(M1)の集中度を推定する。第2推定ステップでは、訓練材料(Q1)の対処を行う対象者(M1)の緊張度を推定する。集中度誘発ステップでは、集中度の増加を誘発する。緊張度誘発ステップでは、緊張度の増加を誘発する。
 この態様によれば、より実践的な習得訓練の支援を図ることが可能な支援方法を提供できる。
 第14の態様に係るプログラムは、1以上のプロセッサに、第12又は第13の態様における支援方法を実行させるためのプログラムである。
 この態様によれば、より実践的な習得訓練の支援を図ることが可能な機能を提供できる。
 第2~10の態様に係る構成については、第1の態様に係る支援システム(1)に必須の構成ではなく、適宜省略可能である。
 1 支援システム
 30 提示部
 31 第1推定部
 32 第2推定部
 33 取得部
 40 取得部
 41 生成部
 42 正誤判定部
 6 集中度誘発部
 7 緊張度誘発部
 C1 撮像装置
 E1 環境形成装置
 M1 対象者
 P0 訓練プロセス
 Q1 訓練材料
 R1 対象領域

Claims (14)

  1.  学問又は技術に関する対象者の習得訓練を支援する支援システムであって、
     前記対象者が実施する訓練プロセスで用いる訓練材料を提示する提示部と、
     前記訓練材料の対処を行う前記対象者の集中度を推定する第1推定部と、
     前記訓練材料の対処を行う前記対象者の緊張度を推定する第2推定部と、
     前記集中度及び前記緊張度に基づいて、前記訓練プロセスの次に実施する訓練プロセスに関する訓練情報を生成する生成部と、
    を備える、
     支援システム。
  2.  前記訓練材料は、前記対象者に対して解答を求める問題を含む材料であり、
     前記対象者が前記問題に対して行った解答を取得する取得部と、
     取得した前記解答の正誤に関する判定を行う正誤判定部と、
    を更に備え、
     前記生成部は、前記集中度及び前記緊張度に加えて前記正誤判定部の判定結果に基づいて、前記訓練情報を生成する、
     請求項1に記載の支援システム。
  3.  前記提示部は、前記訓練情報に基づき、前記訓練プロセスの次に実施する前記訓練プロセスで用いる前記訓練材料を提示する、
     請求項1又は請求項2に記載の支援システム。
  4.  前記対象者の前記集中度の増加を誘発する集中度誘発部を更に備える、
     請求項1~3のいずれか1項に記載の支援システム。
  5.  前記集中度誘発部は、前記訓練材料の対処を行う前記対象者が存在する対象領域内における照明、温度、湿度、空気質、風量、音楽、及び振動の少なくとも1つに関する環境形成を実行する環境形成装置を制御して、前記集中度の増加を誘発する、
     請求項4に記載の支援システム。
  6.  前記対象者の前記緊張度の増加を誘発する緊張度誘発部を更に備える、
     請求項1~5のいずれか1項に記載の支援システム。
  7.  前記訓練材料は、1又は複数の題材を含み、
     前記緊張度誘発部は、前記対象者に対して、前記1又は複数の題材の難易度に関する情報、前記1又は複数の題材を提示する順序に関する情報、前記訓練材料の対処を行う期間の指定に関する情報、及び前記対象者とは別の対象者に関する情報の少なくとも1つを提示して、前記緊張度の増加を誘発する、
     請求項6に記載の支援システム。
  8.  前記生成部は、前記集中度及び前記緊張度がいずれも低い第1状態から、前記集中度が高くかつ前記緊張度が低い第2状態へ移行する過程を経て、前記集中度及び前記緊張度がいずれも高い第3状態でも前記対象者が前記訓練材料を適切に対処可能となるまで、同じ内容の前記訓練材料を前記提示部から繰り返し提示するように、前記訓練情報を生成する、
     請求項1~7のいずれか1項に記載の支援システム。
  9.  前記訓練材料の対処を行う前記対象者を撮像する撮像装置から画像データを取得する取得部を更に備え、
     前記集中度及び前記緊張度の少なくとも一方は、前記画像データから推定される、 
     請求項1~8のいずれか1項に記載の支援システム。
  10.  前記支援システムは、前記学問に関する前記対象者の習得訓練を支援し、
     前記訓練材料は、前記対象者に対して解答を求める演習問題を含む材料である、
     請求項1~9のいずれか1項に記載の支援システム。
  11.  学問又は技術に関する対象者の習得訓練を支援する支援システムであって、
     前記対象者が訓練プロセスを実施する際に提示された訓練材料の対処を行う前記対象者の集中度を推定する第1推定部と、
     前記訓練材料の対処を行う前記対象者の緊張度を推定する第2推定部と、
     前記集中度の増加を誘発する集中度誘発部と、
     前記緊張度の増加を誘発する緊張度誘発部と、
    を備える、
     支援システム。
  12.  学問又は技術に関する対象者の習得訓練を支援する支援方法であって、
     前記対象者が実施する訓練プロセスで用いる訓練材料を提示する提示ステップと、
     前記訓練材料の対処を行う前記対象者の集中度を推定する第1推定ステップと、
     前記訓練材料の対処を行う前記対象者の緊張度を推定する第2推定ステップと、
     前記集中度及び前記緊張度に基づいて、前記訓練プロセスの次に実施する訓練プロセスに関する訓練情報を生成する生成ステップと、
    を含む、
     支援方法。
  13.  学問又は技術に関する対象者の習得訓練を支援する支援方法であって、
     前記対象者が訓練プロセスを実施する際に提示された訓練材料の対処を行う前記対象者の集中度を推定する第1推定ステップと、
     前記訓練材料の対処を行う前記対象者の緊張度を推定する第2推定ステップと、
     前記集中度の増加を誘発する集中度誘発ステップと、
     前記緊張度の増加を誘発する緊張度誘発ステップと、
    を含む、
     支援方法。
  14.  1以上のプロセッサに、請求項12又は請求項13に記載の支援方法を実行させるためのプログラム。
PCT/JP2021/045528 2021-01-19 2021-12-10 支援システム、支援方法、及びプログラム WO2022158160A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-006611 2021-01-19
JP2021006611 2021-01-19

Publications (1)

Publication Number Publication Date
WO2022158160A1 true WO2022158160A1 (ja) 2022-07-28

Family

ID=82548327

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/045528 WO2022158160A1 (ja) 2021-01-19 2021-12-10 支援システム、支援方法、及びプログラム

Country Status (1)

Country Link
WO (1) WO2022158160A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180113509A1 (en) * 2015-05-12 2018-04-26 Samsung Electronics Co., Ltd. Method and device for providing content
WO2020203350A1 (ja) * 2019-03-29 2020-10-08 パナソニックIpマネジメント株式会社 集中度計測装置、集中度計測方法、及び、プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180113509A1 (en) * 2015-05-12 2018-04-26 Samsung Electronics Co., Ltd. Method and device for providing content
WO2020203350A1 (ja) * 2019-03-29 2020-10-08 パナソニックIpマネジメント株式会社 集中度計測装置、集中度計測方法、及び、プログラム

Similar Documents

Publication Publication Date Title
US10643487B2 (en) Communication and skills training using interactive virtual humans
Radhakrishnan et al. A systematic review of immersive virtual reality for industrial skills training
Ofli et al. Design and evaluation of an interactive exercise coaching system for older adults: lessons learned
CN110890140A (zh) 基于虚拟现实的自闭症康复训练及能力评估系统及方法
Gerofsky Seeing the graph vs. being the graph
US20050255434A1 (en) Interactive virtual characters for training including medical diagnosis training
Wolf et al. The embodiment of photorealistic avatars influences female body weight perception in virtual reality
Kassner et al. PUPIL: constructing the space of visual attention
Mumford et al. An access technology delivery protocol for children with severe and multiple disabilities: A case demonstration
Rahimi et al. The relationship between reading strategy use and reading comprehension as mediated by reading rate: the case of eye movement training by rapid serial visual presentation (RSVP).
RU2708114C1 (ru) Система и способ мониторинга и обучения детей с расстройствами аутистического спектра
US11682317B2 (en) Virtual reality training application for surgical scrubbing-in procedure
Faltaous et al. Understanding Challenges and Opportunities of Technology-Supported Sign Language Learning
Nguyen et al. An experimental training support framework for eye fundus examination skill development
US20220198952A1 (en) Assessment and training system
WO2022158160A1 (ja) 支援システム、支援方法、及びプログラム
Palestra et al. Assistive robot, RGB-D sensor and graphical user interface to encourage communication skills in ASD population
US20230360548A1 (en) Assist system, assist method, and assist program
Giannakos et al. Sensing-based analytics in education: The rise of multimodal data enabled learning systems
Yang et al. Prototyping virtual reality interactions in medical simulation employing speech recognition
Uribe-Quevedo et al. Customization of a low-end haptic device to add rotational DOF for virtual cardiac auscultation training
Chan et al. A Preliminary Usability Comparison of Augmented and Virtual Reality User Interactions for Direct Ophthalmoscopy
Webel Multimodal Training of Maintenance andAssembly Skills Based on Augmented Reality
Fuyuno Using Immersive Virtual Environments for Educational Purposes: Applicability of Multimodal Analysis
Kassner et al. Pupil

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21921262

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21921262

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP