WO2023067751A1 - 情報共有システム、方法、及びプログラム - Google Patents

情報共有システム、方法、及びプログラム Download PDF

Info

Publication number
WO2023067751A1
WO2023067751A1 PCT/JP2021/038895 JP2021038895W WO2023067751A1 WO 2023067751 A1 WO2023067751 A1 WO 2023067751A1 JP 2021038895 W JP2021038895 W JP 2021038895W WO 2023067751 A1 WO2023067751 A1 WO 2023067751A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
display
information sharing
status
content
Prior art date
Application number
PCT/JP2021/038895
Other languages
English (en)
French (fr)
Inventor
毓珮 洪
司 能美
昭一 末
Original Assignee
株式会社ワコム
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ワコム filed Critical 株式会社ワコム
Priority to CN202180075988.6A priority Critical patent/CN116490846A/zh
Priority to PCT/JP2021/038895 priority patent/WO2023067751A1/ja
Publication of WO2023067751A1 publication Critical patent/WO2023067751A1/ja
Priority to US18/310,197 priority patent/US20230266856A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/08Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations
    • G09B5/12Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations different stations being capable of presenting different information simultaneously
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0383Remote input, i.e. interface arrangements in which the signals generated by a pointing device are transmitted to a PC at a remote location, e.g. to a PC in a LAN
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Definitions

  • the present invention relates to an information sharing system, method, and program.
  • Patent Literature 1 discloses a web conference system in which a plurality of information processing devices and a server device are communicably connected. More specifically, the server device controls to display the images of the participants of the web conference on the divided screens based on the information regarding the participation order of the participants of the web conference.
  • This type of information sharing system is not limited to the web conference described above, and can be applied to online group work, for example.
  • the size of the group increases, the number of members increases, and the mutual interest tends to decrease accordingly.
  • group work is expected to produce a synergistic effect through cooperation, there is a problem that individual members are not so motivated.
  • the present invention was made in view of such problems, and its purpose is to provide an information sharing system, method, and program that can improve the motivation of members in online group work.
  • An information sharing system comprises a plurality of terminal devices, and an information sharing device configured to be capable of communicating with each of the terminal devices, wherein the terminal device comprises a display unit for displaying content; a display control unit that performs display control on the display unit, wherein the information sharing device classifies a plurality of users into groups based on evaluation results of stroke data indicating content handwritten by a user of the terminal device. a user classification unit; and a display instruction unit that instructs each of the terminal devices corresponding to the members to display a status information column indicating the status of two or more members belonging to the group classified by the user classification unit. And prepare.
  • An information sharing method is performed by an information sharing system comprising a plurality of terminal devices having display units for displaying content, and an information sharing device configured to communicate with each of the terminal devices. a classification step in which the information sharing device classifies a plurality of users into groups based on evaluation results of stroke data representing content handwritten by a user of the terminal device; and an instruction step of instructing each of the terminal devices corresponding to the members to display a status information column indicating the status of two or more members.
  • An information sharing program is applied to an information sharing system comprising a plurality of terminal devices having display units for displaying content, and an information sharing device configured to communicate with each of the terminal devices.
  • FIG. 1 is an overall configuration diagram of an information sharing system in one embodiment of the present invention
  • FIG. 2 is a block diagram showing an example of a configuration of a server device in FIG. 1
  • FIG. FIG. 4 is a sequence diagram showing an example of the operation of the information sharing system
  • 2 is a diagram showing an example of content created using the student terminals of FIG. 1
  • FIG. 2 is a diagram showing an example of a data structure of digital ink in FIG. 1
  • FIG. FIG. 10 is a diagram showing an example of a result of classifying answer creation patterns
  • 3 is a diagram showing an example of a data structure of user information in FIG. 2
  • FIG. 3 is a diagram showing an example of a data structure of group information in FIG. 2;
  • FIG. 10 is a diagram showing a first form of screen display during self-study.
  • FIG. 10 is a diagram showing a second form of screen display during self-study.
  • FIG. 10 is a diagram showing a first form of screen display during exercise;
  • FIG. 10 is a diagram showing a second form of screen display during exercise;
  • 3 is a detailed block diagram of a classification processing unit and analysis information of FIG. 2;
  • FIG. 14 is a functional block diagram of a tag generator shown in FIG. 13;
  • FIG. 4 is a flow chart showing a classification operation by the server device;
  • 14 is a diagram showing an example of a data structure of the tag set of FIG. 13;
  • FIG. 17 is a conceptual diagram of a graph structure indicated by the graph structure data of FIG. 16;
  • 14 is a diagram showing an example of a data structure of evaluation result information of FIG. 13;
  • FIG. 1 is an overall configuration diagram of an information sharing system 10 according to one embodiment of the present invention.
  • the information sharing system 10 is provided to provide a "learning support service" for supporting online learning through information sharing among a plurality of users.
  • This user is, for example, a person who is educated at school, and more specifically, is a child, student, student, or the like.
  • this information sharing system 10 includes one or more student terminals 12 (corresponding to “terminal devices”), one or more electronic pens 14, and a server device 16 ("information sharing device ) and a teacher terminal 18 .
  • the student terminal 12 can generate ink data (that is, digital ink Ink) for expressing handwritten content, and supply the digital ink Ink to the server device 16 via the network NT.
  • ink data that is, digital ink Ink
  • the so-called "ink description language” examples include WILL (Wacom Ink Layer Language), InkML (Ink Markup Language), and ISF (Ink Serialized Format).
  • the student terminal 12 is a computer owned by a user (here, a student) who uses the learning support service, and has a function of detecting the position indicated by the electronic pen 14 .
  • the student terminal 12 is composed of, for example, a tablet, a smart phone, a personal computer, or the like.
  • the student terminal 12 specifically includes a processor 21 , a memory 22 , a communication unit 23 , a display unit 24 and a touch sensor 25 .
  • the processor 21 is composed of arithmetic processing units including a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and an MPU (Micro-Processing Unit).
  • the processor 21 reads out the programs and data stored in the memory 22 to perform generation processing for generating digital ink Ink, rendering processing for displaying drawing content (that is, handwritten content) indicated by digital ink Ink, or processing to be described later. Performs display control processing and the like for performing the "mutual display function".
  • the memory 22 stores programs and data necessary for the processor 21 to control each component.
  • the memory 22 is composed of non-transitory and computer-readable storage media.
  • computer-readable storage media include [1] storage devices such as hard disks (HDD: Hard Disk Drives) and solid state drives (SSDs: Solid State Drives) built into computer systems, [2] magneto-optical disks , ROM, CD-ROM, flash memory, and other portable media.
  • the communication unit 23 has a communication function of performing wired communication or wireless communication with an external device. As a result, the student terminal 12 can exchange various data including digital ink Ink with the server device 16, for example.
  • the display unit 24 can visually display content including images or videos, and is composed of, for example, a liquid crystal panel, an organic EL (Electro-Luminescence) panel, and electronic paper. By giving flexibility to the display unit 24, the user can perform various writing operations while the touch surface of the student terminal 12 is being curved or bent.
  • a liquid crystal panel an organic EL (Electro-Luminescence) panel
  • electronic paper By giving flexibility to the display unit 24, the user can perform various writing operations while the touch surface of the student terminal 12 is being curved or bent.
  • the touch sensor 25 is a capacitive sensor in which a plurality of sensor electrodes are arranged in a plane.
  • the touch sensor 25 includes, for example, a plurality of X-line electrodes for detecting the X-axis position of the sensor coordinate system and a plurality of Y-line electrodes for detecting the Y-axis position. be done.
  • the touch sensor 25 may be a self-capacitance sensor in which block-like electrodes are arranged in a two-dimensional lattice instead of the above-described mutual capacitance sensor.
  • the electronic pen 14 is a pen-type pointing device, and is configured to be able to communicate with the student terminals 12 in one direction or two directions.
  • the electronic pen 14 is, for example, an active electrostatic coupling (AES) or electromagnetic induction (EMR) stylus.
  • a student as a user can write pictures, letters, and the like on the student terminal 12 by holding the electronic pen 14 and moving the pen tip while pressing it against the touch surface of the student terminal 12 .
  • the server device 16 is a computer that performs comprehensive control related to learning support, and may be either a cloud type or an on-premise type.
  • the server device 16 is illustrated as a single computer, the server device 16 may alternatively be a group of computers constructing a distributed system.
  • the teacher's terminal 18 is a computer owned by the user (here, the teacher) who uses the learning support service, and is composed of, for example, a personal computer, a tablet, a smartphone, and the like.
  • the teacher's terminal 18 can bi-directionally communicate with the server device 16 via the network NT.
  • FIG. 2 is a block diagram showing an example of the configuration of the server device 16 in FIG. 1. As shown in FIG. The server device 16 specifically includes a communication section 30 , a control section 32 and a storage section 34 .
  • the communication unit 30 is an interface that transmits and receives electrical signals to and from an external device.
  • the server device 16 can acquire the state data 58 generated by each student terminal 12 and provide the shared data 60 generated by itself to the student terminal 12 .
  • the control unit 32 is configured by a processor such as a CPU or GPU.
  • the control unit 32 functions as a classification processing unit 40 and a sharing processing unit 42 by reading and executing programs and data stored in the storage unit 34 .
  • the classification processing unit 40 classifies a plurality of users into groups based on evaluation results of stroke data representing handwritten content created by the user of the student terminal 12 . A specific configuration and operation of the classification processing unit 40 will be described later in detail with reference to FIGS. 13 to 18. FIG.
  • the sharing processing unit 42 performs information processing (hereinafter referred to as sharing processing) for sharing various information for supporting learning among a plurality of users.
  • the shared processing unit 42 specifically includes a state acquisition unit 44 , a data generation unit 46 , and a display instruction unit 48 .
  • the status acquisition unit 44 acquires the status of two or more members belonging to the group classified by the sharing processing unit 42. Specifically, the status acquisition unit 44 analyzes the status data 58 periodically or irregularly transmitted from the student terminal 12 to acquire the status of members in various learning scenes.
  • "status" during self-study includes presence/absence, studying, taking a break, subject/subject being studied, study time (for example, start time, end time, elapsed time), and the like.
  • the "status” during the exercise includes presence/absence, the number of the problem being worked on, the degree of progress with respect to the whole, the degree of progress with respect to each problem (for example, not yet started, in progress, completed, etc.).
  • the data generation unit 46 generates shared data 60 including the members' states acquired by the state acquisition unit 44 .
  • the data generator 46 may generate shared data 60 common to a plurality of destinations, or may generate shared data 60 customized for each destination.
  • the data generation unit 46 evaluates the relationship between members in the group, and shared data 60 including information (hereinafter referred to as "relationship information") indicating a combination of members with a relatively high relationship. may be generated.
  • Relationship information information
  • Evaluation items for this relationship include, for example, objective items such as degree of understanding, grades, and pairing history, and subjective items such as competitiveness, admiration, favorability, and personality.
  • the display instruction unit 48 instructs the display of the status information columns 84 (FIG. 9) and 93 (FIG. 11) indicating the status of two or more members belonging to the group classified by the classification processing unit 40. Specifically, the display instruction unit 48 instructs the student terminals 12 corresponding to the members to display the status information columns 84 and 93 by collectively transmitting the shared data 60 described above.
  • the storage unit 34 stores programs and data necessary for the control unit 32 to control each component.
  • the storage unit 34 is composed of a non-transitory computer-readable storage medium.
  • a database hereinafter referred to as an ink DB 50 related to digital ink Ink (FIG. 1) is constructed in the storage unit 34, and analysis information 52, user information 54, multiple group information 56, and multiple states Data 58 and shared data 60 are stored.
  • the analysis information 52 includes data related to analysis of the digital ink Ink, such as parameters for evaluating the content 62 and evaluation results of the content 62 . A specific configuration of the analysis information 52 will be described later in detail with reference to FIGS. 13 and 16 to 18. FIG.
  • the user information 54 includes various information about the user, such as [1] user identification information, [2] user personal information, or [3] study group classification information.
  • Examples of the “user identification information” include a service account, identification information of the student terminal 12 (that is, device ID), identification information of the electronic pen 14 (that is, pen ID), and the like.
  • Examples of "user's personal information” include real name information including full name, anonymous information including nickname, affiliation including school name, grade, and class, gender, grades, and the like.
  • Examples of the “classification information” include a group ID, subject/subject type, proficiency level, and the like.
  • the group information 56 includes various information related to the group, such as [1] group identification information, [2] member information related to members, or [3] status information indicating various states.
  • Examples of the "group information” include the above-described classification information.
  • Examples of “member information” include member identification information and personal information.
  • the "status information” includes not only the status of the member, but also the status of the student terminal 12, the status of the electronic pen 14, and the like.
  • the status data 58 includes various information that can identify the status of the member, the student terminal 12, or the electronic pen 14, such as [1] input information input by the user, [2] detection information indicating detection results of various statuses. and so on.
  • Examples of “input information” include user control operation information, content being displayed, and the like.
  • Examples of the "detected information” include the on/off state of the device, the presence or absence of login, and images captured by a web camera.
  • the shared data 60 includes information (hereinafter referred to as shared information) shared among the members of the group.
  • the shared information includes group identification information, member information, status information, relationship information, and the like.
  • the shared data 60 may include personal information that can identify an individual (name, student ID, etc.), or only anonymous information that cannot identify an individual (nickname, handle name, etc.). .
  • the information sharing system 10 in this embodiment is configured as described above. Next, the operation of the information sharing system 10 will be described with reference to the sequence of FIG. 3 and FIGS. 4 to 8. FIG. Here, a case where information is shared within a group to which member A belongs will be described as an example.
  • step SP10 of FIG. 3 the classification processing unit 40 of the server device 16 performs evaluation processing on the stroke data 70 (FIG. 5), and classifies the users into groups based on the obtained evaluation results.
  • FIG. 4 is a diagram showing an example of content 62 created using the student terminal 12 of FIG.
  • This handwritten content 62 shows the answer to the math problem of finding the length of the hypotenuse of a right triangle.
  • the content 62 includes a content element 64 showing a figure, a content element 66 showing a formula relating to the Pythagorean theorem, and a content element 68 showing a calculation process.
  • FIG. 5 is a diagram showing an example of the data structure of the digital ink Ink of FIG.
  • Digital ink Ink includes [1] document metadata, [2] ink semantics, [3] devices, [4] strokes, [5] classification data ( groups), and [6] context data (contexts) arranged sequentially.
  • the stroke data 70 is data for describing individual strokes that make up the content 62 .
  • one stroke is described by a plurality of point data sequentially arranged within the ⁇ trace> tag.
  • Each point data consists of at least the indicated position (X coordinate, Y coordinate) and is delimited by a delimiter such as a comma.
  • a delimiter such as a comma.
  • This point data may include the order of writing, the writing pressure of the electronic pen 14, the posture, etc., in addition to the indicated position described above.
  • FIG. 6 is a diagram showing an example of the result of classifying the answer creation patterns.
  • five stages of P1, P2, P3, P4, and P5 are prepared as production patterns.
  • Pattern "P1" corresponds to the pattern created by the student with the lowest degree of comprehension.
  • the pattern "P5" corresponds to the pattern created by the student with the highest degree of understanding.
  • the answer creation pattern is divided into three solution steps from the first to the third.
  • the first step corresponds to the process of creating auxiliary graphics.
  • the second step corresponds to the process of formulating equations according to formulas.
  • the third step corresponds to the process of finding a solution from the equation.
  • Each step has items for "statement” and “correctness of content”. That is, the execution level of each step is divided into three levels: [1] no description, [2] description but incorrect content, and [3] description but correct content.
  • the reason for "no description” there are cases where the content cannot be written because the content is not remembered, and there are cases where the content is not written because the content is fully understood. Which reason is not described is determined according to the performance level of the next step.
  • the sharing processing unit 42 of the server device 16 starts a control mode (that is, sharing mode) for sharing information within one group.
  • a control mode that is, sharing mode
  • the sharing processing unit 42 acquires and refers to the user information 54 to specify the group and members to which the sharing mode is applied.
  • FIG. 7 is a diagram showing an example of the data structure of the user information 54 of FIG.
  • the user information 54 is a table showing correspondence among [1] "user ID” which is identification information of the user, [2] "personal information” of the user, and [3] "classification information" of the study group. format data.
  • the personal information includes name, nickname, affiliation (school name, grade, class) and the like.
  • the classification information includes a group name for each subject or subject (for example, mathematics groups M1 to M3).
  • step SP14 of FIG. 3 the sharing processing unit 42 (more specifically, the data generating unit 46) uses the group information 56 to generate shared data 60 including information shared within the group.
  • FIG. 8 is a diagram showing an example of the data structure of the group information 56 of FIG.
  • the group information 56 is tabular data, and is provided for each group.
  • the group information 56 consists of "user ID”, which is member identification information, member's "nickname”, member's "status”, and "ink file name” being created. It shows the correspondence between In the initial state of the shared mode, the state acquisition unit 44 has not acquired the state data 58, so default values are stored in the "state” and "ink file name" of the shared data 60, respectively.
  • step SP16 of FIG. 3 the sharing processing unit 42 instructs each student terminal 12 corresponding to the member to display the status information column 84 (FIG. 9) indicating the status of two or more members belonging to the group. do.
  • the server device 16 batch-transmits the shared data 60 generated in step SP14 to the corresponding two or more student terminals 12 .
  • the shared data 60 is received by the student terminals 12 of the members of the group (member A and other members).
  • the student terminal 12 uses the shared data 60 transmitted at step SP16 to display the status information column 84 (see FIG. 9) together with the content 82.
  • the processor 21 uses the shared data 60 to generate a display signal including the status information column 84, and supplies this display signal to the display unit 24 to perform desired display control.
  • the processor 21 of the student terminal 12 acquires the status data 58 indicating the current status of the members.
  • the student terminal 12 transmits the latest state data 58 acquired at step SP20 to the server device 16.
  • the status acquisition unit 44 of the server device 16 acquires the latest status of each member through the reception of the status data 58 .
  • the group information 56 is updated to the latest state.
  • the state acquisition unit 44 since the state acquisition unit 44 has acquired the state data 58, the "state" and "ink file name" of the shared data 60 are overwritten with the latest values from the default values.
  • the information sharing system 10 generates the shared data 60 (SP24), instructs display (SP26), displays the status information column 84 (SP28), acquires the status data 58 (SP30), transmits the status data 58 (SP32). ) are repeated sequentially. Thereby, information is shared within the group.
  • the "mutual display function” means a function for mutually displaying the states of students belonging to the same group. Through this function, it is possible to make students aware of the learning situation of students whose abilities and understanding levels are similar to one's own, so it is expected to have the effect of promoting the desire to learn.
  • the processor 21 in FIG. 1 functions as a “display controller” that controls the display of the display unit 24 .
  • the processor 21 performs display control to display the status information column 84 indicating the status of two or more members of the group to which the user of the student terminal 12 belongs.
  • “Two or more members” means [1] all members, [2] all other members excluding the applicable user, [3] some of the other members excluding the applicable user , can be considered.
  • “Some of the other members” may be determined according to a predetermined rule, or may be randomly determined.
  • the processor 21 may perform display control so that the status information column 84 is arranged at any place within the display area 80 of the display unit 24, for example, at the periphery of the display area 80.
  • the status information column 84 is, for example, a collection of individual information columns 86 to 88 that indicate individual statuses of members.
  • the individual information columns 86 to 88 may be provided as integral columns, or may be provided as independent columns.
  • Each of the individual information columns 86 to 88 displays member information and status information in a manner associated with each other. From the viewpoint of protecting personal information, it is desirable that the member information be content that cannot identify individuals (for example, nicknames, etc.).
  • the processor 21 may perform display control so that the display mode of the individual information columns 86 to 86 can be changed for each member.
  • the processor 21 may perform display control so that one or more individual information columns 88 in the status information column 84 are emphasized more than the other individual information columns 86 and 87 .
  • the emphasis method [1] relatively increase the contrast of the display color, [2] relatively thicken the line width, [3] relatively increase the size of characters and frames, [4] Giving a special mark, and [5] arranging in a position where the user can easily see it can be mentioned.
  • the processor 21 may perform display control so as to emphasize one or more individual information columns 86 to 88 according to a predetermined operation by the user. An example of this operation is clicking, touching, dragging, etc. of the relevant portion.
  • the processor 21 may perform display control so as to restore the display mode of the individual information columns 86 to 88 that have been manually emphasized in response to a predetermined operation by the user.
  • the processor 21 may perform display control so as to emphasize one or more individual information columns 86 to 88 according to instructions from the server device 16 . This instruction is performed by receiving shared data 60 including relationship information. In addition, the processor 21 may perform display control so as to change the display mode of the individual information columns 86 to 88 that are automatically emphasized according to a predetermined operation by the user.
  • FIG. 9 is a diagram showing a first form of screen display during self-study. Here, it is assumed that four students are classified into the same group and registered with nicknames A, D, G, and K, respectively.
  • a handwritten content 82 here, a formula
  • a status information column 84 is provided on the right edge of the display area 80 .
  • the status information column 84 consists of three individual information columns 86, 87, 88 which are arranged side by side in the vertical direction. Individual information columns 86, 87, and 88 indicate the statuses of students D, G, and K belonging to the same group as student A, respectively.
  • FIG. 10 is a diagram showing a second form of screen display during self-study.
  • the status information column 84 in the second form differs from the first form (FIG. 9) in that [1] the individual information column 88e is enlarged, and [2] the individual information column 88e is arranged at the top. different.
  • [1] the individual information column 88e is enlarged, and [2] the individual information column 88e is arranged at the top. different.
  • student A can more easily grasp the state of student K, who is of great interest to him, by customizing the display.
  • a "chemical reaction" occurs in which student A's motivation to learn is promoted.
  • the processor 21 of FIG. 1 performs display control to display the status information column 93 indicating the status of two or more members of the group to which the user of the student terminal 12 belongs.
  • This display control is basically the same as the above-described "operation during self-study" except that the content 90 is displayed in a different manner.
  • the processor 21 may switch between a "single display mode" for single display and a "multi display mode” for multi display according to the user's operation.
  • the processor 21 divides the display area 80 into two or more sub-areas R1-R4 (FIG. 12) so that each student terminal 12 corresponding to the member can display the content 90. , and perform display control so as to perform multi-display in the corresponding sub-regions R1 to R4.
  • the size, shape, division number, position or arrangement of sub-regions can be changed as needed.
  • FIG. 11 is a diagram showing a first form of screen display during exercise.
  • a handwritten content 90 here, a formula
  • a status information column 93 including three individual information columns 92, a button 94 labeled [Display all], and a button 95 labeled [Complete] are provided on the upper peripheral edge of the display area 80.
  • Three individual information columns 92 indicate the statuses of student D, student G, and student K from left to right.
  • both student D and student G are in the middle of the exercise, while student G has completed the exercise.
  • the individual information column 92 of student G is emphasized using a thicker frame line than the other individual information columns 92 .
  • student A touches the [full display] button 94 in order to check the progress of other students. Then, the processor 21 switches to the multi-display mode, and the display form of the student terminal 12 is changed from FIG. 11 to FIG. 12 .
  • FIG. 12 is a diagram showing a second form of screen display during self-study.
  • multi-display is performed for each of sub-areas R1 to R4 of 2 rows and 2 columns.
  • Contents 90 displayed by the student terminal 12 of the student A and an individual information column 92 corresponding to the student A are displayed together in the lower left sub-region R1.
  • Contents 90 displayed by the student terminal 12 of the student D and an individual information column 92 corresponding to the student D are displayed together in the upper left sub-region R2.
  • Contents 90 displayed by the student terminal 12 of the student G and an individual information column 92 corresponding to the student G are displayed together in the upper right sub-region R3.
  • Contents 90 displayed by the student terminal 12 of the student K and an individual information column 92 corresponding to the student K are displayed together in the lower right sub-region R4.
  • the information sharing system 10 in this embodiment includes a plurality of terminal devices (here, student terminals 12) and an information sharing device (here, and a server device 16).
  • the student terminal 12 includes a display unit 24 that displays content within a display area 80 and a processor 21 that controls the display of the display unit 24 .
  • the server device 16 classifies a plurality of users into groups based on the evaluation result for the stroke data 70 indicating the content 62 handwritten by the user of the student terminal 12, and the classification processing unit 40 classifies the users.
  • a display instructing unit 48 for instructing each of the student terminals 12 corresponding to the members to display the status information columns 84 and 93 indicating the states of two or more members belonging to the selected group.
  • the computer (here, the server device 16) generates a plurality of A classifying step (SP10 in FIG. 3) for classifying users into groups and displaying status information columns 84 and 93 indicating the status of two or more members belonging to the classified group are displayed on student terminals corresponding to the members. and an instruction step (SP16, SP26) for instructing each of the 12.
  • a plurality of users are classified into groups based on the evaluation results for the stroke data 70, and the status information columns 84 and 93 indicating the states of two or more members belonging to the group are displayed for students corresponding to the members.
  • the status information columns 84 and 93 indicating the states of two or more members belonging to the group are displayed for students corresponding to the members.
  • the processor 21 displays the individual information columns 86-88 (92). Display control may be performed so that the mode can be changed for each member. Thereby, the visibility of the individual information columns 86 to 88 (92) can be customized for each member.
  • the processor 21 may perform display control so that one or more individual information columns 88e of the status information column 84 are emphasized more than the other individual information columns 86 and 87. This makes it easier to grasp the status of a specific member compared to the case of uniform display regardless of the individual information fields 86-88.
  • the processor 21 may perform display control so as to emphasize one or more individual information columns 88e according to the user's operation.
  • the processor 21 may perform display control so as to emphasize one or more individual information columns 88e in accordance with an instruction from the server device 16. FIG.
  • the display instruction unit 48 instructs each student terminal 12 corresponding to each member to display the status information columns 84 and 93 by collectively transmitting the shared data 60 including the states of two or more members. may By standardizing the data to be transmitted to the student terminals 12, the time required for transmission can be shortened.
  • the processor 21 may perform display control so that the anonymous information is displayed in the status information columns 84 and 93 together with the member's status. This reduces the awareness that one's own status is being displayed on other student terminals 12, so that the display function of the status information columns 84 and 93 can be accepted more easily.
  • the processor 21 controls the display to display the status information columns 84 and 93 indicating the states of other members excluding the user of the student terminal 12 among the two or more members specified by the shared data 60. may be performed. This reduces the awareness that one's own status is being displayed on other student terminals 12, so that the display function of the status information columns 84 and 93 can be accepted more easily.
  • the processor 21 may perform display control so that the status information columns 84 and 93 are arranged on the periphery of the display area 80 . As a result, when the contents 82 and 90 are displayed, interference between the areas with the status information columns 84 and 93 is less likely to occur.
  • the processor 21 divides the display area 80 into two or more sub-areas R1 to R4, and divides the contents 90 being displayed by the student terminals 12 corresponding to the members into the corresponding sub-areas R1 to R4, respectively. Display control may be performed so that the multi-display is performed within the
  • the member's status may include the study time of the student.
  • the member's status may include the student's exercise progress. Through visualization of learning time or progress, it becomes easier to become more aware of other students.
  • FIG. 13 is a detailed block diagram of the classification processing unit 40 and the analysis information 52 of FIG.
  • the classification processing section 40 includes a data acquisition section 130 , a tag generation section 132 , a content evaluation section 134 , a creator classification section 136 and an output processing section 138 .
  • the data acquisition unit 130 acquires stroke data 70 (FIG. 5) that indicates the shapes of strokes that constitute the handwritten content 62 (FIG. 4) and the stroke order of the strokes.
  • the stroke data 70 is included in digital ink Ink accumulated in the ink DB 50, for example.
  • the content 62 is a collection of content elements such as graphics, text, mathematical formulas, etc., and is, for example, answers to mathematics and arithmetic problems.
  • the tag generation unit 132 generates a tag information group (hereinafter referred to as a “tag set 142”) that indicates the types of tags indicating the semantic attributes of the group of strokes and the order in which the tags appear, from the stroke data 70 obtained by the data obtaining unit 130. ). Detailed functions of the tag generator 132 will be described later with reference to FIG.
  • the content evaluation unit 134 evaluates the content 62 (FIG. 4) based on the relationship between the types of tags that make up the tag set 142 generated by the tag generation unit 132 or the relationship in order of appearance of the tags.
  • the object of evaluation by the content evaluation unit 134 may be a creation pattern relating to the creation process of the content 62, or a step-by-step degree of comprehension of a solution to a problem.
  • An example of an evaluation index is the degree of similarity between graph structure data included in the tag set 142 (for example, graph distance based on the graph edit distance method, graph distance based on the maximum common subgraph method, Adamic/Adal similarity, etc.). be done.
  • the similarity between the contents 62 increases as the rate of matching or similar tag types increases, while the similarity between the contents 62 decreases as the rate of matching or similar tag types decreases.
  • the evaluation index is weighted.
  • the similarity between the contents 62 increases as the order of appearance of tags with matching or similar types becomes closer, while the similarity between the contents 62 decreases as the order of appearance of tags with matching or similar types becomes farther.
  • the evaluation index is weighted.
  • the creator classification unit 136 classifies the creators of the content 62 into a plurality of groups according to the evaluation result by the content evaluation unit 134. For example, when the content evaluation unit 134 evaluates creation patterns regarding the creation process of the content 62, the creator classification unit 136 classifies the creators of the content 62 into groups for each creation pattern. Also, when the content evaluation unit 134 evaluates the level of comprehension of the solution to the problem in stages, the creator classification unit 136 classifies the creators of the content 62 into groups according to the level of understanding.
  • the output processing unit 138 outputs information indicating the evaluation result by the content evaluation unit 134 (that is, the evaluation result information 146) to the outside.
  • this "output" includes information directed to an external device such as the student terminal 12 or the teacher terminal 18 in FIG. This also includes cases where the
  • the analysis information 52 includes a plurality of tag sets 142, a reference tag set 144, and evaluation result information 146. These pieces of information will be described later in detail with reference to FIGS. 16-18.
  • FIG. 14 is a functional block diagram of the tag generator 132 shown in FIG. 13. As shown in FIG. The tag generator 132 includes an attribute estimator 150 , a switch 152 , a graphic identifier 154 , a text identifier 156 , a formula identifier 158 and a tag combiner 160 .
  • the attribute estimator 150 is a learning device that receives as input stroke data representing a set of strokes and outputs semantic attributes of a set of strokes. Attribute estimation is performed, for example, by the method disclosed in International Publication No. 2020/090356 pamphlet. Types of attributes include, for example, figures, texts, formulas, chemical formulas, non-applicable, and the like.
  • the switch 152 has one input terminal and three output terminals, and switches the output destination according to the attribute supplied from the attribute estimator 150. Specifically, when the attribute is “graphic”, the stroke data is supplied to the input side of graphic identifier 154 via switch 152 . If the attribute is "text”, the stroke data is fed via switch 152 to the input side of text identifier 156 . If the attribute is "formula”, the stroke data is fed to the input of formula identifier 158 via switch 152 .
  • the graphic identifier 154 is a learning device that receives stroke data as an input and outputs a graphic tag indicating identification information of a graphic.
  • Various artificial intelligence techniques including hierarchical neural networks, convolutional neural networks, may be used for shape identification.
  • a graphic tag may be, for example, a graphic element such as a circle, a triangle, or a line segment, or an object such as a dog, cat, tree, or pencil.
  • the text identifier 156 is a learning device that receives stroke data as an input and outputs a text tag that indicates text identification information.
  • Various artificial intelligence techniques may be used for text identification, including hierarchical neural networks, convolutional neural networks.
  • the text tag may be, for example, letters such as "A”, "B", "C”, words or sentences composed of a plurality of letters, or languages such as Japanese, English, and Chinese. .
  • the formula identifier 158 is a learning device that receives stroke data as input and outputs a text tag indicating identification information of the formula.
  • Various artificial intelligence techniques including hierarchical neural networks, convolutional neural networks, may be used to identify mathematical expressions.
  • the type of formula such as the final solution may be used.
  • the tag integrator 160 sequentially integrates the “graphic tag” from the graphic identifier 154, the “text tag” from the text identifier 156, and the “mathematical expression tag” from the mathematical expression identifier 158, and associates them with the appearance order of the tags.
  • the tag set 142 is output in this state. If there is some relationship between consecutive tags, it may be output as graph structure data with each tag as a node.
  • the calculation rule of the tag generation unit 132 may be uniform regardless of the student as the creator of the content 62 (FIG. 4), or may be customized for each student. In the latter case, the learning parameter group that defines the calculation rule of the tag generation unit 132 is stored in advance in association with the identification information that can identify the student, and is read out in a timely manner using the identification information included in the digital ink Ink. is desirable.
  • the identification information for example, various IDs related to a learning support service account, the electronic pen 14, or the student terminal 12 are used.
  • step SP40 of FIG. 15 the data acquisition unit 130 extracts the digital ink Ink to be evaluated by referring to the ink DB 40 (FIG. 2), and acquires the stroke data 70 (FIG. 5) included in the digital ink Ink. do.
  • step SP40 when generating digital ink Ink, document metadata, device data, stroke data, and context data have already been determined, but semantic data and classification data have not yet been determined. That is, when step SP40 is executed, stroke classification and semantic attributes have not yet been assigned to the digital ink Ink.
  • the tag generation unit 132 performs analysis processing on the stroke data 70 acquired at step SP40. Specifically, stroke classification by the attribute estimator 150 of FIG. 14 (step SP42A), tagging by various classifiers (step SP42B), and tag integration by the tag integrator 160 (step SP42C) are sequentially performed. As a result, a tag set 142 corresponding to the content 62 is generated and, if necessary, this tag set 142 is stored in a predetermined location (semantic data and classification data) of the digital ink Ink.
  • FIG. 16 is a diagram showing an example of the data structure of the tag set 142 of FIG.
  • the tag set 142 is data in a table format showing the correspondence between the order of appearance of tags, tag information, and graph structure data.
  • the tag information includes tag content (eg, "X") and tag type (eg, "alphabet” for mathematical tags).
  • tag content eg, "X”
  • tag type eg, "alphabet” for mathematical tags.
  • the reference tag set 144 (FIG. 13) also has a data structure similar to that of the tag set 142.
  • FIG. 13 also has a data structure similar to that of the tag set 142.
  • FIG. 17 is a conceptual diagram of the graph structure 170 indicated by the graph structure data of FIG.
  • the graph structure 170 is a tree structure that branches as the hierarchy becomes deeper.
  • This graph structure 170 illustrates the formula for the Pythagorean theorem, content element 66 of FIG.
  • the content evaluation unit 134 evaluates the creation pattern regarding the creation process of the content 62 using the tag set 142 generated at step SP42. Specifically, the content evaluator 134 calculates the similarity of the graph structure 170 between the tag set 142 and the reference tag set 144 .
  • step SP46 the creator classification unit 136 classifies the creators of the content 62 into groups for each creation pattern using the plurality of degrees of similarity calculated in step SP44.
  • the control unit 32 (FIG. 2) generates evaluation result information 146 indicating the evaluation result by the content evaluation unit 134 and the classification result by the creator classification unit 136.
  • FIG. 18 is a diagram showing an example of the data structure of the evaluation result information 146 of FIG.
  • the evaluation result information 146 is, for example, data in a table format showing the correspondence between the "author” of the answer, the "similarity" of each created pattern, and the "group” to be classified.
  • group names here, groups M1 to M5 corresponding to the stages of the created pattern (patterns P1 to P5) are assigned.
  • the classification processing unit 40 of the server device 16 acquires the stroke data 70 indicating the shapes of strokes constituting the handwritten content 62 and the stroke order of the strokes, and the data acquisition unit 130 Using the acquired stroke data 70, a tag generating unit 132 generates a tag set 142 indicating the types of tags indicating the semantic attributes of stroke groups and the order in which the tags appear, and the tags generated by the tag generating unit 132. and a content evaluator 134 for evaluating the content 62 using the set 142 .
  • the tag type can be evaluated for various types of content 62 Alternatively, it is possible to perform useful evaluation considering the order of appearance.
  • the content evaluation unit 134 may evaluate the content 62 based on the relationship between the types of tags forming the tag set 142 generated by the tag generation unit 132 and/or the relationship in order of appearance of the tags. . Furthermore, when the storage unit 34 stores a reference tag set 144 that indicates the reference of the tag set 142, the content evaluation unit 134 stores the graph structure of the tag set 142 generated by the tag generation unit 132 and the graph structure that is stored in the storage unit 34. The content 62 may be evaluated using similarity to the graph structure of the reference tag set 144 that has been identified.
  • the contents 62, 82, and 90 are examples of arithmetic or answers to mathematical problems, but the types of contents are not limited to this.
  • the content may be an answer or report for general scientific problems such as science, physics, or chemistry, or may be various deliverables including memos for collecting the user's own thoughts.
  • the data format of the content may be vector format or raster format.
  • the type of content is not limited to handwritten images, and may be electronic books, moving images, and the like.
  • the reference tag set 144 of FIG. 13 is stored in advance has been described as an example, but the location of the reference tag set 144 is not limited to this.
  • the content evaluation unit 134 may cluster a plurality of tag sets 142 and create a reference tag set 144 suitable for the population.
  • the content evaluation unit 134 in FIG. 13 evaluates the content 62 using the tag set 142
  • the input information used for evaluation is not limited to this.
  • measurement values such as the author's heart rate, pulse rate, body temperature, and grip pressure of the electronic pen 14 in the input information
  • the author's physical condition, psychological condition, or changes in these conditions are also included. can be evaluated.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本発明は、情報共有システム、方法、及びプログラムに関する。情報共有システム(10)の一部を構成する情報共有装置(16)は、端末装置(12)のユーザが手書きしたコンテンツ(62)を示すストロークデータ(70)に対する評価結果に基づいて複数のユーザをグループ毎に分類する分類処理部(40)と、分類処理部(40)により分類されたグループに属する2以上の構成員の状態を示すステータス情報欄(84)の表示を、構成員に対応する各々の端末装置(12)に指示する表示指示部(48)と、を備える。

Description

情報共有システム、方法、及びプログラム
 本発明は、情報共有システム、方法、及びプログラムに関する。
 従来から、複数のユーザ間で様々な情報を共有するための情報共有システムが知られている。例えば、特許文献1には、複数の情報処理装置とサーバ装置とが通信可能に接続されたウェブ会議システムが開示されている。より詳しくは、サーバ装置は、ウェブ会議の参加者の参加順序に関する情報に基づいて、分割された画面にウェブ会議の参加者の画像を表示するよう制御する。
特開2020-144725号公報
 この種の情報共有システムは、上記したウェブ会議に限られず、例えば、オンラインでのグループワークにも適用され得る。しかしながら、グループの規模が大きくなるにつれて構成員の数が増え、その分だけ相互の関心度が低くなる傾向がみられる。その結果、協働による相乗効果が期待されるグループワークにもかかわらず、個々の構成員にとって意欲がそれほど高まらないという問題がある。
 本発明はこのような問題に鑑みてなされたものであり、その目的は、オンラインによるグループワークにおいて構成員の意欲を向上可能な情報共有システム、方法、及びプログラムを提供することにある。
 第1の本発明における情報共有システムは、複数の端末装置と、前記端末装置のそれぞれと通信可能に構成される情報共有装置と、を備え、前記端末装置は、コンテンツを表示する表示ユニットと、前記表示ユニットに対する表示制御を行う表示制御部と、を備え、前記情報共有装置は、前記端末装置のユーザが手書きしたコンテンツを示すストロークデータに対する評価結果に基づいて複数のユーザをグループ毎に分類するユーザ分類部と、前記ユーザ分類部により分類された前記グループに属する2以上の構成員の状態を示すステータス情報欄の表示を、前記構成員に対応する各々の前記端末装置に指示する表示指示部と、を備える。
 第2の本発明における情報共有方法は、コンテンツを表示する表示ユニットを有する複数の端末装置と、前記端末装置のそれぞれと通信可能に構成される情報共有装置と、を備える情報共有システムにより行われる方法であって、前記情報共有装置が、前記端末装置のユーザが手書きしたコンテンツを示すストロークデータに対する評価結果に基づいて複数のユーザをグループ毎に分類する分類ステップと、分類された前記グループに属する2以上の構成員の状態を示すステータス情報欄の表示を、前記構成員に対応する各々の前記端末装置に指示する指示ステップと、を実行する。
 第3の本発明における情報共有プログラムは、コンテンツを表示する表示ユニットを有する複数の端末装置と、前記端末装置のそれぞれと通信可能に構成される情報共有装置と、を備える情報共有システムに適用されるプログラムであって、前記情報共有装置に、前記端末装置のユーザが作成した手書きコンテンツを示すストロークデータに対する評価結果に基づいて複数のユーザをグループ毎に分類する分類ステップと、分類された前記グループに属する2以上の構成員の状態を示すステータス情報欄の表示を、前記構成員に対応する各々の前記端末装置に指示する指示ステップと、を実行させる。
 本発明によれば、オンラインによるグループワークにおいて構成員の意欲を向上させることができる。
本発明の一実施形態における情報共有システムの全体構成図である。 図1におけるサーバ装置の構成の一例を示すブロック図である。 情報共有システムの動作の一例を示すシーケンス図である。 図1の生徒用端末を用いて作成されたコンテンツの一例を示す図である。 図1のデジタルインクが有するデータ構造の一例を示す図である。 答案の作成パターンを分類した結果の一例を示す図である。 図2のユーザ情報が有するデータ構造の一例を示す図である。 図2のグループ情報が有するデータ構造の一例を示す図である。 自習時における画面表示の第1形態を示す図である。 自習時における画面表示の第2形態を示す図である。 演習時における画面表示の第1形態を示す図である。 演習時における画面表示の第2形態を示す図である。 図2の分類処理部及び解析情報に関する詳細ブロック図である。 図13に示すタグ生成部の機能ブロック図である。 サーバ装置による分類動作を示すフローチャートである。 図13のタグセットが有するデータ構造の一例を示す図である。 図16のグラフ構造データが示すグラフ構造の概念図である。 図13の評価結果情報が有するデータ構造の一例を示す図である。
 以下、添付図面を参照しながら本発明の実施形態について説明する。説明の理解を容易にするため、各図面において同一の構成要素に対しては可能な限り同一の符号を付して、重複する説明は省略する。
[情報共有システム10の構成]
<全体構成>
 図1は、本発明の一実施形態における情報共有システム10の全体構成図である。情報共有システム10は、複数のユーザ同士の情報共有を通じてオンライン学習を支援するための「学習支援サービス」を提供するために設けられる。このユーザは、例えば、学校で教育を受けている者であり、具体的には、児童、生徒、学生などである。
 この情報共有システム10は、具体的には、1つ又は複数の生徒用端末12(「端末装置」に相当)と、1本又は複数本の電子ペン14と、サーバ装置16(「情報共有装置」に相当)と、先生用端末18と、を含んで構成される。
 生徒用端末12は、手書きによるコンテンツを表現するためのインクデータ(すなわち、デジタルインクInk)を生成し、ネットワークNTを介して、デジタルインクInkをサーバ装置16に供給することができる。デジタルインクInkのデータ形式、いわゆる「インク記述言語」として、例えば、WILL(Wacom Ink Layer Language)、InkML(Ink Markup Language)、ISF(Ink Serialized Format)が挙げられる。
 生徒用端末12は、学習支援サービスを利用するユーザ(ここでは、生徒)が所有するコンピュータであって、電子ペン14による指示位置を検出する機能を有する。生徒用端末12は、例えば、タブレット、スマートフォン、パーソナルコンピュータなどから構成される。生徒用端末12は、具体的には、プロセッサ21と、メモリ22と、通信ユニット23と、表示ユニット24と、タッチセンサ25と、を含んで構成される。
 プロセッサ21は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、MPU(Micro-Processing Unit)を含む演算処理装置によって構成される。プロセッサ21は、メモリ22に格納されたプログラム及びデータを読み出すことで、デジタルインクInkを生成する生成処理、デジタルインクInkが示す描画内容(つまり、手書きコンテンツ)を表示させるレンダリング処理、あるいは、後述する「お互い表示機能」を遂行するための表示制御処理などを行う。
 メモリ22は、プロセッサ21が各構成要素を制御するのに必要なプログラム及びデータを記憶している。メモリ22は、非一過性であり、かつ、コンピュータ読み取り可能な記憶媒体から構成される。ここで、コンピュータ読み取り可能な記憶媒体は、[1]コンピュータシステムに内蔵されるハードディスク(HDD:Hard Disk Drive)、ソリッドステートドライブ(SSD:Solid State Drive)などの記憶装置、[2]光磁気ディスク、ROM、CD-ROM、フラッシュメモリなどの可搬媒体などから構成される。
 通信ユニット23は、外部装置との間で有線通信又は無線通信を行う通信機能を有する。これにより、生徒用端末12は、例えば、サーバ装置16との間でデジタルインクInkを含む様々なデータのやり取りを行うことができる。
 表示ユニット24は、画像又は映像を含むコンテンツを可視的に表示可能であり、例えば、液晶パネル、有機EL(Electro-Luminescence)パネル、電子ペーパーから構成される。なお、表示ユニット24に可撓性をもたせることで、ユーザは、生徒用端末12のタッチ面を湾曲又は屈曲させた状態のまま、様々な筆記操作を行うことができる。
 タッチセンサ25は、複数のセンサ電極を面状に配置してなる静電容量方式のセンサである。このタッチセンサ25は、例えば、センサ座標系のX軸の位置を検出するための複数本のXライン電極と、Y軸の位置を検出するための複数本のYライン電極と、を含んで構成される。なお、タッチセンサ25は、上記した相互容量方式のセンサに代えて、ブロック状の電極を二次元格子状に配置した自己容量方式のセンサであってもよい。
 電子ペン14は、ペン型のポインティングデバイスであり、生徒用端末12との間で一方向又は双方向に通信可能に構成される。この電子ペン14は、例えば、アクティブ静電結合方式(AES)又は電磁誘導方式(EMR)のスタイラスである。ユーザとしての生徒は、電子ペン14を把持し、生徒用端末12が有するタッチ面にペン先を押し当てながら移動させることで、生徒用端末12に絵や文字などを書き込むことができる。
 サーバ装置16は、学習の支援に関する統括的な制御を行うコンピュータであり、クラウド型あるいはオンプレミス型のいずれであってもよい。ここで、サーバ装置16を単体のコンピュータとして図示しているが、サーバ装置16は、これに代わって分散システムを構築するコンピュータ群であってもよい。
 先生用端末18は、学習支援サービスを利用するユーザ(ここでは、先生)が所有するコンピュータであって、例えば、パーソナルコンピュータ、タブレット、スマートフォンなどから構成される。先生用端末18は、ネットワークNTを介して、サーバ装置16と双方向に通信することができる。
<サーバ装置16のブロック図>
 図2は、図1におけるサーバ装置16の構成の一例を示すブロック図である。サーバ装置16は、具体的には、通信部30と、制御部32と、記憶部34と、を備える。
 通信部30は、外部装置に対して電気信号を送受信するインターフェースである。これにより、サーバ装置16は、各々の生徒用端末12により生成された状態データ58を取得するとともに、自身が生成した共有データ60を生徒用端末12に提供することができる。
 制御部32は、CPUやGPUなどのプロセッサによって構成される。制御部32は、記憶部34に格納されたプログラム及びデータを読み出して実行することで、分類処理部40及び共有処理部42として機能する。
 分類処理部40は、生徒用端末12のユーザが作成した手書きコンテンツを示すストロークデータに対する評価結果に基づいて複数のユーザをグループ毎に分類する。分類処理部40の具体的な構成及び動作については、図13~図18を参照しながら後で詳しく説明する。
 共有処理部42は、学習を支援するための様々な情報を複数のユーザ間で共有するための情報処理(以下、共有処理)を行う。共有処理部42は、具体的には、状態取得部44と、データ生成部46と、表示指示部48と、を含んで構成される。
 状態取得部44は、共有処理部42により分類されたグループに属する2以上の構成員の状態を取得する。具体的には、状態取得部44は、生徒用端末12から定期的又は不定期に送信された状態データ58を解析することで、様々な学習シーンにおける構成員の状態を取得する。例えば、自習時の「状態」には、在席/不在、勉強中、休憩中、学習中の教科・科目、学習時間(例えば、開始時刻、終了時刻、経過時間)などが含まれる。また、演習時の「状態」には、在席/不在、取組中の問題番号、全体に対する進捗度、個々の問題に対する進捗度(例えば、未着手・演習中・完了など)などが含まれる。
 データ生成部46は、状態取得部44により取得された構成員の状態を含む共有データ60を生成する。データ生成部46は、複数の送信先に共通する共有データ60を生成してもよいし、送信先毎にカスタマイズされた共有データ60を生成してもよい。データ生成部46は、グループ内の構成員同士の関係性をそれぞれ評価し、この関係性が相対的に高い構成員の組み合わせを示す情報(以下、「関係性情報」という)を含む共有データ60を生成してもよい。この関係性の評価項目として、例えば、理解度・成績や、ペアリングの履歴などの客観的項目や、競争意識・憧れ・好意・性格などの主観的項目が挙げられる。
 表示指示部48は、分類処理部40により分類されたグループに属する2以上の構成員の状態を示すステータス情報欄84(図9),93(図11)の表示を指示する。具体的には、表示指示部48は、上記した共有データ60を一括送信することで、構成員に対応する各々の生徒用端末12にステータス情報欄84,93の表示を指示する。
 記憶部34は、制御部32が各構成要素を制御するのに必要なプログラム及びデータを記憶している。記憶部34は、非一過性であり、かつ、コンピュータ読み取り可能な記憶媒体で構成されている。図2の例では、記憶部34には、デジタルインクInk(図1)に関するデータベース(以下、インクDB50)が構築されるとともに、解析情報52、ユーザ情報54、複数のグループ情報56、複数の状態データ58、及び共有データ60が格納されている。
 解析情報52には、デジタルインクInkの解析に関するデータ、例えば、コンテンツ62を評価するためのパラメータや、コンテンツ62の評価結果が含まれる。解析情報52の具体的構成については、図13及び図16~図18を参照しながら後で詳しく説明する。
 ユーザ情報54には、ユーザに関する様々な情報、例えば、[1]ユーザの識別情報、[2]ユーザの個人情報、又は[3]学習グループの分類情報などが含まれる。「ユーザの識別情報」の一例として、サービスアカウント、生徒用端末12の識別情報(つまり、装置ID)、電子ペン14の識別情報(つまり、ペンID)などが挙げられる。「ユーザの個人情報」の一例として、氏名を含む実名情報、ニックネームを含む匿名情報、学校名・学年・学級を含む所属、性別、成績などが挙げられる。「分類情報」の一例として、グループID、教科・科目の種類、習熟度などが挙げられる。
 グループ情報56には、グループに関する様々な情報、例えば、[1]グループの識別情報、[2]構成員に関する構成員情報、又は[3]各種状態を示す状態情報などが挙げられる。「グループ情報」の一例として、上記した分類情報などが挙げられる。「構成員情報」の一例として、構成員の識別情報や個人情報などが挙げられる。「状態情報」には、構成員の状態のみならず、生徒用端末12の状態、電子ペン14の状態などが含まれる。
 状態データ58は、構成員、生徒用端末12又は電子ペン14の状態を特定可能な各種情報、例えば、[1]ユーザ自身が入力した入力情報、[2]各種状態の検出結果を示す検出情報などを含む。「入力情報」の一例として、ユーザコントロールの操作情報、表示中のコンテンツなどが挙げられる。「検出情報」の一例として、機器のオン・オフ状態、ログインの有無、ウェブカメラによる撮影画像などが挙げられる。
 共有データ60は、グループ内の構成員同士で共有する情報(以下、共有情報)を含む。共有情報には、グループの識別情報、構成員情報、状態情報、関係性情報などが含まれる。なお、共有データ60には、個人を特定可能な個人情報(氏名や学生IDなど)が含まれてもよいし、個人を特定できない匿名情報(ニックネームやハンドルネームなど)のみが含まれてもよい。
<情報共有システム10の動作>
 この実施形態における情報共有システム10は以上のように構成される。続いて、情報共有システム10の動作について、図3のシーケンス及び図4~図8を参照しながら説明する。ここでは、構成員Aが属するグループ内で情報を共有する場合を例に挙げて説明する。
 図3のステップSP10において、サーバ装置16の分類処理部40は、ストロークデータ70(図5)に対して評価処理を行い、得られた評価結果に基づいて複数のユーザをグループ毎に分類する。
 図4は、図1の生徒用端末12を用いて作成されたコンテンツ62の一例を示す図である。この手書きによるコンテンツ62は、直角三角形の斜辺の長さを求める数学の問題に対する答案を示している。コンテンツ62は、図形を示すコンテンツ要素64と、三平方の定理に関する公式を示すコンテンツ要素66と、計算過程を示すコンテンツ要素68と、を含む。
 図5は、図1のデジタルインクInkが有するデータ構造の一例を示す図である。デジタルインクInkは、[1]文書メタデータ(document metadata)、[2]意味データ(ink semantics)、[3]装置データ(devices)、[4]ストロークデータ(strokes)、[5]分類データ(groups)、及び[6]文脈データ(contexts)を順次配列してなるデータ構造を有する。
 ストロークデータ70は、コンテンツ62を構成する個々のストロークを記述するためのデータである。図5から理解されるように、1本のストロークは、<trace>タグ内に順次配列される複数のポイントデータにより記述される。各々のポイントデータは、少なくとも指示位置(X座標、Y座標)からなり、カンマなどのデリミタで区切られる。図示の便宜上、ストロークの始点及び終点を示すポイントデータのみを表記し、複数の経由点を示すポイントデータを省略している。このポイントデータには、上記した指示位置の他に、筆記の順序、電子ペン14の筆圧、姿勢などが含まれてもよい。
 図6は、答案の作成パターンを分類した結果の一例を示す図である。ここでは、作成パターンとして、P1,P2,P3,P4,P5の5段階が準備されている。パターン「P1」は、理解度が最も低い生徒による作成パターンに相当する。一方、パターン「P5」は、理解度が最も高い生徒による作成パターンに相当する。
 例えば、直角三角形の斜辺の長さを求める数学の問題が出題された場合、答案の作成パターンは、第1から第3までの3つの解法ステップに区分される。第1ステップは、補助図形を作成する過程に相当する。第2ステップは、公式に従って方程式を立てる過程に相当する。第3ステップは、方程式から解を求める過程に相当する。
 各ステップには、「記載の有無」及び「内容の正誤」の項目が設けられる。すなわち、各ステップの遂行レベルが、[1]記載がない、[2]記載があるが内容が誤っている、[3]記載があって内容が正しい、の3段階に分けられる。なお、「記載がない」理由として、その内容を覚えていないために書けない場合や、その内容を十分に理解しているのであえて書かない場合がある。記載がない理由がどちらであるかは、次のステップの遂行レベルに応じて判定される。
 図3のステップSP12において、サーバ装置16の共有処理部42は、1つのグループ内で情報を共有するための制御モード(つまり、共有モード)を開始する。この共有モードの開始に伴い、共有処理部42は、ユーザ情報54を取得して参照することで、共有モードの適用対象であるグループ及び構成員を特定する。
 図7は、図2のユーザ情報54が有するデータ構造の一例を示す図である。ユーザ情報54は、[1]ユーザの識別情報である「ユーザID」と、[2]ユーザの「個人情報」と、[3]学習グループの「分類情報」との間の対応関係を示すテーブル形式のデータである。本図の例では、個人情報には、氏名、ニックネーム、所属(学校名・学年・学級)などが含まれる。本図の例では、分類情報には、教科毎又は科目毎のグループ名(例えば、数学のグループM1~M3)が含まれる。
 図3のステップSP14において、共有処理部42(より詳しくは、データ生成部46)は、グループ情報56を用いて、グループ内で共有する情報を含む共有データ60を生成する。
 図8は、図2のグループ情報56が有するデータ構造の一例を示す図である。グループ情報56は、テーブル形式のデータであり、グループ単位で設けられる。本図の例では、グループ情報56は、構成員の識別情報である「ユーザID」と、構成員の「ニックネーム」と、構成員の「状態」と、作成中の「インクファイル名」との間の対応関係を示している。なお、共有モードの初期状態では、状態取得部44が状態データ58を取得していないので、共有データ60の「状態」及び「インクファイル名」には、それぞれデフォルト値が格納される。
 図3のステップSP16において、共有処理部42は、グループに属する2以上の構成員の状態を示すステータス情報欄84(図9)の表示を、構成員に対応する各々の生徒用端末12に指示する。具体的には、サーバ装置16は、ステップSP14で生成された共有データ60を該当する2以上の生徒用端末12に向けて一括送信する。これにより、共有データ60は、グループの構成員(構成員A及びその他の構成員)が有する生徒用端末12によりそれぞれ受信される。
 ステップSP18において、生徒用端末12は、ステップSP16により送信された共有データ60を用いて、コンテンツ82と併せてステータス情報欄84(図9参照)を表示する。具体的には、プロセッサ21は、共有データ60を用いてステータス情報欄84を含む表示信号を生成し、この表示信号を表示ユニット24に供給することで所望の表示制御を行う。
 ステップSP20において、生徒用端末12のプロセッサ21は、現時点における構成員の状態を示す状態データ58を取得する。
 ステップSP22において、生徒用端末12は、ステップSP20で取得された最新の状態データ58をサーバ装置16に向けて送信する。これにより、サーバ装置16の状態取得部44は、状態データ58の受信を通じて、各々の構成員における最新の状態を取得する。この取得を通じて、グループ情報56は最新の状態に更新される。ここで、状態取得部44が状態データ58を取得しているので、共有データ60の「状態」及び「インクファイル名」には、デフォルト値から最新の値に上書き更新される。
 以下、情報共有システム10は、共有データ60の生成(SP24)、表示の指示(SP26)、ステータス情報欄84の表示(SP28)、状態データ58の取得(SP30)、状態データ58の送信(SP32)を順次繰り返す。これにより、グループ内での情報の共有が行われる。
[お互い表示機能の一例]
 続いて、生徒用端末12によるお互い表示機能の一例について、図9~図12を参照しながら説明する。ここで、「お互い表示機能」とは、同一のグループに属する生徒の状態を相互に表示させる機能を意味する。この機能を通じて、自分の能力や理解度が近い生徒の学習状況を意識させることができるので、学習意欲の促進効果が期待される。
<自習時の動作>
 第1に、クラス内で自習を行う場合を想定したお互い表示機能について、図9及び図10を参照しながら詳細に説明する。
(A.プロセッサ21の動作)
 図1のプロセッサ21は、表示ユニット24に対して表示制御を行う「表示制御部」として機能する。プロセッサ21は、生徒用端末12のユーザが属するグループのうちの2以上の構成員の状態を示すステータス情報欄84を表示するように表示制御を行う。「2以上の構成員」とは、[1]すべての構成員、[2]該当するユーザを除いた他のすべての構成員、[3]該当するユーザを除いた他の構成員の一部、が考えられる。「他の構成員の一部」は、所定の規則に従って決定されてもよいし、無作為に決定されてもよい。
 プロセッサ21は、表示ユニット24が有する表示領域80内の任意の場所、例えば、表示領域80の周縁部にステータス情報欄84を配置するように表示制御を行ってもよい。ステータス情報欄84は、例えば、構成員の個々の状態を示す個別情報欄86~88の集合体である。個別情報欄86~88は、一体不可分な欄として設けられてもよいし、それぞれ独立した欄として設けられてもよい。各々の個別情報欄86~88には、構成員情報と状態情報とが対応付けられた態様で表示される。個人情報の保護の観点で、構成員情報は、個人を特定できない内容(例えば、ニックネームなど)であることが望ましい。
 プロセッサ21は、上記した個別情報欄86~86の表示態様を構成員毎に変更可能となるように表示制御を行ってもよい。この場合、プロセッサ21は、ステータス情報欄84のうちの1つ又は2つ以上の個別情報欄88を、他の個別情報欄86,87よりも強調するように表示制御を行ってもよい。強調方法の一例として、[1]表示色のコントラストを相対的に高くする、[2]線幅を相対的に太くする、[3]文字や枠のサイズを相対的に大きくする、[4]特別なマークを付与する、[5]ユーザがより視認しやすい位置に配置する、などが挙げられる。
 プロセッサ21は、ユーザによる所定の操作に応じて、1つ以上の個別情報欄86~88を強調するように表示制御を行ってもよい。この操作の一例として、該当箇所のクリック、タッチ、ドラッグなどが挙げられる。また、プロセッサ21は、ユーザによる所定の操作に応じて、手動により強調された個別情報欄86~88の表示態様を元に戻すように表示制御を行ってもよい。
 プロセッサ21は、サーバ装置16の指示に応じて、1つ以上の個別情報欄86~88を強調するように表示制御を行ってもよい。この指示は、関係性情報を含む共有データ60を受信することで行われる。また、プロセッサ21は、ユーザによる所定の操作に応じて、自動により強調された個別情報欄86~88の表示態様を変更するように表示制御を行ってもよい。
(B.画面の表示例)
 図9は、自習時における画面表示の第1形態を示す図である。ここでは、4名の生徒が同じグループに分類されるとともに、それぞれA、D、G、Kのニックネームで登録されている場合を想定する。表示ユニット24の表示領域80内には、生徒Aによる手書きのコンテンツ82(ここでは、数式)が表示されている。表示領域80の右周縁部には、ステータス情報欄84が設けられている。ステータス情報欄84は、上下方向に並んで配置される3つの個別情報欄86,87,88からなる。個別情報欄86,87,88は、生徒Aと同じグループに属する生徒D、生徒G、生徒Kの状態をそれぞれ示している。
 現時点では、生徒D、生徒Kはともに勉強中である一方、生徒Gは休憩中である。この場合、個別情報欄86,88は、他の個別情報欄87と比べてより太い枠線を用いて強調的に表示される。例えば、生徒Aが、生徒Kに対して高い関心(具体的には、競争意識、憧れ・好意など)を持っている場合を想定する。生徒Aは、生徒Kに対応する個別情報欄88に対してドラッグ操作を行うと、生徒用端末12の表示形態は、図9から図10に遷移される。
 図10は、自習時における画面表示の第2形態を示す図である。第2形態におけるステータス情報欄84は、[1]個別情報欄88eが拡大された点、及び[2]個別情報欄88eが一番上に配置された点が第1形態(図9)とは異なる。このように、生徒Aは、表示のカスタマイズを通じて、自分にとって関心が高い生徒Kの状態をより把握しやすくなる。その結果、生徒Aの学習意欲が促進されるという「化学反応」が起こる。
<演習時の動作>
 第2に、クラス内で同じ演習に取り組む場合を想定したお互い表示機能について、図11及び図12を参照しながら詳細に説明する。
(A.プロセッサ21の動作)
 図1のプロセッサ21は、生徒用端末12のユーザが属するグループのうちの2以上の構成員の状態を示すステータス情報欄93を表示するように表示制御を行う。この表示制御は、コンテンツ90の表示態様が異なる点を除いて、上記した「自習時の動作」の場合と基本的には同様である。
 プロセッサ21は、ユーザによる操作に応じて、シングル表示を行う「シングル表示モード」とマルチ表示を行う「マルチ表示モード」を切り替えて実行してもよい。マルチ表示モードの実行中、プロセッサ21は、表示領域80を2つ以上のサブ領域R1~R4(図12)に分割し、構成員に対応する各々の生徒用端末12が表示中のコンテンツ90を、それぞれ対応するサブ領域R1~R4内にマルチ表示するように表示制御を行う。サブ領域のサイズ、形状、分割数、位置又は配置は、必要に応じて適宜変更され得る。
(B.画面の表示例)
 図11は、演習時における画面表示の第1形態を示す図である。ここでは、4名の生徒が同じグループに分類されるとともに、それぞれA、D、G、Kのニックネームで登録されている場合を想定する。表示ユニット24の表示領域80内には、生徒Aによる手書きのコンテンツ90(ここでは、数式)が表示されている。表示領域80の上周縁部には、3つの個別情報欄92を含むステータス情報欄93と、[全体表示]と表記されたボタン94と、[完了]と表記されたボタン95と、が設けられている。3つの個別情報欄92は、左側から右側にわたって、生徒D、生徒G、生徒Kの状態をそれぞれ示している。
 現時点では、生徒D、生徒Gはともに演習の途中である一方、生徒Gは演習が完了している。この場合、生徒Gの個別情報欄92は、他の個別情報欄92と比べてより太い枠線を用いて強調的に表示される。例えば、生徒Aが、他の生徒の進捗状況を確認するため、[全体表示]ボタン94のタッチ操作を行う。そうすると、プロセッサ21がマルチ表示モードに切り替えることで、生徒用端末12の表示形態は、図11から図12に遷移される。
 図12は、自習時における画面表示の第2形態を示す図である。表示ユニット24の表示領域80内にて、2行2列のサブ領域R1~R4毎のマルチ表示が行われる。左下のサブ領域R1には、生徒Aの生徒用端末12が表示しているコンテンツ90と、生徒Aに対応する個別情報欄92と、が併せて表示される。左上のサブ領域R2には、生徒Dの生徒用端末12が表示しているコンテンツ90と、生徒Dに対応する個別情報欄92と、併せて表示される。右上のサブ領域R3には、生徒Gの生徒用端末12が表示しているコンテンツ90と、生徒Gに対応する個別情報欄92と、が併せて表示される。右下のサブ領域R4には、生徒Kの生徒用端末12が表示しているコンテンツ90と、生徒Kに対応する個別情報欄92と、が併せて表示される。これにより、生徒Aは、他の生徒の進捗度合いを一見して把握することができる。
 生徒Aが[戻る]ボタン94のタッチ操作を行と、プロセッサ21がシングル表示モードに切り替えることで、生徒用端末12の表示形態は、図12から図11に遷移される。演習を終えた生徒Aが[完了]ボタン95(図11)のタップ操作を行うことで、生徒Aの状態が「演習中」から「完了」に移行される。
[情報共有システム10による効果]
 以上のように、この実施形態における情報共有システム10は、複数の端末装置(ここでは、生徒用端末12)と、生徒用端末12のそれぞれと通信可能に構成される情報共有装置(ここでは、サーバ装置16)と、を含んで構成される。生徒用端末12は、表示領域80内にコンテンツを表示する表示ユニット24と、表示ユニット24に対する表示制御を行うプロセッサ21と、を備える。
 そして、サーバ装置16は、生徒用端末12のユーザが手書きしたコンテンツ62を示すストロークデータ70に対する評価結果に基づいて複数のユーザをグループ毎に分類する分類処理部40と、分類処理部40により分類されたグループに属する2以上の構成員の状態を示すステータス情報欄84,93の表示を、構成員に対応する生徒用端末12のそれぞれに指示する表示指示部48と、を備える。
 また、この実施形態における情報共有方法及びプログラムによれば、コンピュータ(ここでは、サーバ装置16)が、生徒用端末12のユーザが手書きしたコンテンツ62を示すストロークデータ70に対する評価結果に基づいて複数のユーザをグループ毎に分類する分類ステップ(図3のSP10)と、分類されたグループに属する2以上の構成員の状態を示すステータス情報欄84,93の表示を、構成員に対応する生徒用端末12のそれぞれに指示する指示ステップ(SP16,SP26)と、を実行する。
 このように、ストロークデータ70に対する評価結果に基づいて複数のユーザをグループ毎に分類し、グループに属する2以上の構成員の状態を示すステータス情報欄84,93の表示を構成員に対応する生徒用端末12のそれぞれに指示することで、ステータス情報欄84,93の表示を通じて、グループの構成員の状態が視認しやすくなる。これにより、手書きしたコンテンツから何らかの共通性が認められる構成員毎の現状を相互に意識させることが可能となり、オンラインによるグループワークにおいて構成員の意欲を向上させることができる。
 また、ステータス情報欄84(93)が、構成員の個々の状態を示す個別情報欄86~88(92)の集合体である場合、プロセッサ21は、個別情報欄86~88(92)の表示態様を構成員毎に変更可能となるように表示制御を行ってもよい。これにより、個別情報欄86~88(92)の視認性を構成員毎にカスタマイズできる。
 また、プロセッサ21は、ステータス情報欄84のうちの1つ以上の個別情報欄88eを、他の個別情報欄86,87よりも強調するように表示制御を行ってもよい。これにより、個別情報欄86~88にかかわらず一律な表示を行う場合と比べて、特定の構成員の状態をより把握しやすくなる。
 また、プロセッサ21は、ユーザによる操作に応じて、1つ以上の個別情報欄88eを強調するように表示制御を行ってもよい。あるいは、プロセッサ21は、サーバ装置16の指示に応じて、1つ以上の個別情報欄88eを強調するように表示制御を行ってもよい。
 また、表示指示部48は、2以上の構成員の状態を含む共有データ60を一括送信することで、構成員に対応する各々の生徒用端末12にステータス情報欄84,93の表示を指示してもよい。生徒用端末12に送信すべきデータの共通化により、送信までの所要時間をより短くすることができる。
 また、共有データ60に構成員の匿名情報が含まれる場合、プロセッサ21は、構成員の状態と併せて匿名情報をステータス情報欄84,93に表示するように表示制御を行ってもよい。これにより、自分の状態が他の生徒用端末12に表示されているという意識が薄れるので、その分だけステータス情報欄84,93の表示機能を受け入れやすくなる。
 また、プロセッサ21は、共有データ60により特定される2以上の構成員のうち生徒用端末12のユーザを除外した他の構成員の状態を示すステータス情報欄84,93を表示するように表示制御を行ってもよい。これにより、自分の状態が他の生徒用端末12に表示されているという意識が薄れるので、その分だけステータス情報欄84,93の表示機能を受け入れやすくなる。
 また、プロセッサ21は、表示領域80の周縁部にステータス情報欄84,93を配置するように表示制御を行ってもよい。これにより、コンテンツ82,90を表示する際にステータス情報欄84,93との間の領域の干渉が起こりにくくなる。
 また、プロセッサ21は、表示領域80を2つ以上のサブ領域R1~R4に分割し、構成員に対応する各々の生徒用端末12が表示中のコンテンツ90を、それぞれ対応するサブ領域R1~R4内にマルチ表示するように表示制御を行ってもよい。
 また、構成員が就学者である場合、構成員の状態には、就学者の学習時間が含まれてもよい。あるいは、構成員が就学者である場合、構成員の状態には、就学者の演習の進捗度が含まれてもよい。学習時間又は進捗度の可視化を通じて、他の就学者に対する意識がより高まりやすくなる。
[ユーザの分類動作]
 続いて、サーバ装置16が実行するユーザの分類動作について、図13~図18を参照しながら詳細に説明する。この分類動作は、図3のステップSP10にて実行される。
<詳細ブロック図>
 図13は、図2の分類処理部40及び解析情報52に関する詳細ブロック図である。分類処理部40は、データ取得部130と、タグ生成部132と、コンテンツ評価部134と、作成者分類部136と、出力処理部138と、を含んで構成される。
 データ取得部130は、手書きによるコンテンツ62(図4)を構成するストロークの形状及び該ストロークの書き順を示すストロークデータ70(図5)を取得する。ストロークデータ70は、例えば、インクDB50に蓄積されるデジタルインクInkに含まれる。コンテンツ62は、図形、テキスト、数式などのコンテンツ要素の集合体であり、例えば、数学や算数の問題に対する答案である。
 タグ生成部132は、データ取得部130により取得されたストロークデータ70から、ストロークの纏まりの意味属性を示すタグの種類及び該タグの出現順を示すタグ情報群(以下、「タグセット142」という)を生成する。タグ生成部132の詳細な機能については図14で後述する。
 コンテンツ評価部134は、タグ生成部132により生成されたタグセット142を構成するタグの種類の関係性又は該タグの出現順の関係性に基づいてコンテンツ62(図4)を評価する。コンテンツ評価部134の評価対象は、コンテンツ62の作成過程に関する作成パターンであってもよいし、問題の解法に関する段階的な理解度であってもよい。
 また、評価指標の一例として、タグセット142が有するグラフ構造データ同士の類似度(例えば、Graph edit distance法に基づくグラフ距離、Maximum common subgraph法に基づくグラフ距離、Adamic/Adal類似度など)が挙げられる。この場合、ノードの個数、リンクの本数・密度、階層の深さ・幅などの構造の類似性のみならず、各ノードに紐付けられたタグ情報(種類や出現順など)の類似性が併せて考慮される。具体的には、タグの種類が一致又は類似する割合が多くなるほどコンテンツ62同士の類似度が高くなる一方、タグの種類が一致又は類似する割合が少なくなるほどコンテンツ62同士の類似度が低くなるように、評価指標に重み付けがなされる。また、種類が一致又は類似するタグの出現順が近くなるほどコンテンツ62同士の類似度が高くなる一方、種類が一致又は類似するタグの出現順が遠くなるほどコンテンツ62同士の類似度が低くなるように、評価指標に重み付けがなされる。
 作成者分類部136は、コンテンツ評価部134による評価結果に従って、コンテンツ62の作成者を複数のグループに分類する。例えば、コンテンツ評価部134がコンテンツ62の作成過程に関する作成パターンを評価する場合、作成者分類部136は、コンテンツ62の作成者を作成パターン毎のグループに分類する。また、コンテンツ評価部134が問題の解法に関する段階的な理解度を評価する場合、作成者分類部136は、コンテンツ62の作成者を理解度毎のグループに分類する。
 出力処理部138は、コンテンツ評価部134による評価結果を示す情報(つまり、評価結果情報146)を外部に出力する。この「出力」には、サーバ装置16が有する出力デバイス(不図示)に可視情報又は可聴情報として出力する場合の他に、図1の生徒用端末12や先生用端末18などの外部装置に向けて送信する場合も含まれる。
 一方、解析情報52は、複数のタグセット142と、基準タグセット144と、評価結果情報146と、を含んで構成される。これらの情報については、図16~図18を参照しながら後で詳述する。
<タグ生成部132の機能ブロック>
 図14は、図13に示すタグ生成部132の機能ブロック図である。タグ生成部132は、属性推定器150と、スイッチ152と、図形識別器154と、テキスト識別器156と、数式識別器158と、タグ統合器160と、を含んで構成される。
 属性推定器150は、ストロークの集合体を示すストロークデータを入力とし、ストロークの纏まりの意味属性を出力とする学習器である。属性の推定は、例えば、国際公開第2020/090356号パンフレットに開示された手法により行われる。属性の種類は、例えば、図形、テキスト、数式、化学式、非該当などが挙げられる。
 スイッチ152は、1つの入力端子及び3つの出力端子を有し、属性推定器150から供給される属性に応じて出力先を切り替える。具体的には、属性が「図形」である場合、ストロークデータは、スイッチ152を介して、図形識別器154の入力側に供給される。属性が「テキスト」である場合、ストロークデータは、スイッチ152を介して、テキスト識別器156の入力側に供給される。属性が「数式」である場合、ストロークデータが、スイッチ152を介して、数式識別器158の入力側に供給される。
 図形識別器154は、ストロークデータを入力とし、図形の識別情報を示す図形タグを出力とする学習器である。図形の識別には、階層型ニューラルネットワーク、畳み込みニューラルネットワークを含む様々な人工知能技術が用いられてもよい。図形タグは、例えば、円形・三角計・線分などの図形要素であってもよいし、犬・猫・木・鉛筆などのオブジェクトであってもよい。
 テキスト識別器156は、ストロークデータを入力とし、テキストの識別情報を示すテキストタグを出力とする学習器である。テキストの識別には、階層型ニューラルネットワーク、畳み込みニューラルネットワークを含む様々な人工知能技術が用いられてもよい。テキストタグは、例えば、「A」「B」「C」などの文字や、複数の文字からなる単語や文章であってもよいし、日本語・英語・中国語などの言語であってもよい。
 数式識別器158は、ストロークデータを入力とし、数式の識別情報を示すテキストタグを出力とする学習器である。数式の識別には、階層型ニューラルネットワーク、畳み込みニューラルネットワークを含む様々な人工知能技術が用いられてもよい。数式タグは、例えば、「X」「Y」などの文字、「1」「2」「3」などの数字、あるいは「+」「=」などの演算子であってもよいし、定理・変形・最終解などの式の種類であってもよい。
 タグ統合器160は、図形識別器154からの「図形タグ」、テキスト識別器156からの「テキストタグ」及び数式識別器158からの「数式タグ」を順次統合し、タグの出現順と対応付けた状態にてタグセット142として出力する。連続するタグ同士に何らかの関係がある場合、各々のタグをノードとするグラフ構造データとして出力してもよい。
 なお、タグ生成部132の演算規則は、コンテンツ62(図4)の作成者としての生徒によらず一律であってもよいし、生徒毎にカスタマイズされてもよい。後者の場合、タグ生成部132の演算規則を定める学習パラメータ群が、生徒を特定可能な識別情報と対応付けて予め記憶されており、デジタルインクInkに含まれる識別情報を用いて適時に読み出されることが望ましい。識別情報として、例えば、学習支援サービスの利用アカウント、電子ペン14、又は生徒用端末12に関する各種IDが用いられる。
<分類動作の説明>
 続いて、サーバ装置16による分類動作について、図13の構成図、図15のフローチャート及び図16~図18を参照しながら説明する。
 図15のステップSP40において、データ取得部130は、インクDB40(図2)を参照して評価対象のデジタルインクInkを抽出するとともに、当該デジタルインクInkに含まれるストロークデータ70(図5)を取得する。
 なお、デジタルインクInkの生成時には、文書メタデータ、装置データ、ストロークデータ、及び文脈データが既に決定されているが、意味データ及び分類データがまだ決定されていない。つまり、ステップSP40の実行時点では、デジタルインクInkには、ストロークの分類及び意味属性の付与がまだ行われていない。
 ステップSP42において、タグ生成部132は、ステップSP40で取得されたストロークデータ70に対して解析処理を施す。具体的には、図14の属性推定器150によるストロークの分類(ステップSP42A)、各種識別器によるタグの付与(ステップSP42B)、タグ統合器160によるタグの統合(ステップSP42C)が順次行われる。これにより、コンテンツ62に対応するタグセット142が生成されるとともに、必要に応じて、このタグセット142が、デジタルインクInkの所定の箇所(意味データ及び分類データ)に格納される。
 図16は、図13のタグセット142が有するデータ構造の一例を示す図である。タグセット142は、タグの出現順と、タグ情報と、グラフ構造データの対応関係を示すテーブル形式のデータである。タグ情報は、タグの内容(例えば「X」など)及びタグの種類(例えば、数式タグでは「アルファベット」など)を含む。なお、基準タグセット144(図13)も、タグセット142と同様のデータ構造を有する。
 図17は、図16のグラフ構造データが示すグラフ構造170の概念図である。ここでは、グラフ構造170は、階層が深くなるほど枝分かれしていくツリー構造である。このグラフ構造170は、三平方の定理に関する公式、つまり図4のコンテンツ要素66を示している。
 図15のステップSP44において、コンテンツ評価部134は、ステップSP42で生成されたタグセット142を用いて、コンテンツ62の作成過程に関する作成パターンを評価する。具体的には、コンテンツ評価部134は、タグセット142と基準タグセット144との間のグラフ構造170の類似度を算出する。
 ステップSP46において、作成者分類部136は、ステップSP44で算出された複数の類似度を用いて、コンテンツ62の作成者を作成パターン毎のグループに分類する。一連の解析処理が終了した後、制御部32(図2)は、コンテンツ評価部134による評価結果及び作成者分類部136による分類結果を示す評価結果情報146を生成する。
 図18は、図17の評価結果情報146が有するデータ構造の一例を示す図である。評価結果情報146は、例えば、答案の「作成者」と、作成パターン毎の「類似度」と、分類される「グループ」の間の対応関係を示すテーブル形式のデータである。ここでは、作成パターンの段階(パターンP1~P5)に対応するグループ名(ここでは、グループM1~M5)が付与されている。
 例えば、生徒Yが、図4に示すコンテンツ62(つまり、答案)を作成したとする。この答案は、図6の第1及び第2ステップにて「記載があって内容が正しい」ものの、第3ステップにて「記載があるが内容が間違っている」(正解はz=5)。この場合、図6における作成パターン「P3」に最も近いと評価される。つまり、生徒Yの答案における類似度が(P1/P2/P3/P4/P5)=(0.3/0.5/0.7/0.6/0.4)である場合、生徒Yは、類似度が最大であるグループ「M3」に分類される。
 このように、算数又は数学の授業において、所与の問題に対する答案の内容から、能力・思考パターン・理解度が近い生徒同士でグルーピングすることができる。これにより、ピアラーニングを効率的に行うことができる。
<分類動作による効果>
 以上のように、サーバ装置16の分類処理部40は、手書きによるコンテンツ62を構成するストロークの形状及び該ストロークの書き順を示すストロークデータ70を取得するデータ取得部130と、データ取得部130により取得されたストロークデータ70を用いて、ストロークの纏まりの意味属性を示すタグの種類及び該タグの出現順を示すタグセット142を生成するタグ生成部132と、タグ生成部132により生成されたタグセット142を用いてコンテンツ62を評価するコンテンツ評価部134と、を備える。
 このように、ストロークの纏まりの意味属性を示すタグの種類及び該タグの出現順を示すタグセット142を用いてコンテンツ62を評価することで、様々な種類のコンテンツ62に対して、タグの種類又は出現順を考慮した有用な評価を行うことができる。
 また、コンテンツ評価部134は、タグ生成部132により生成されたタグセット142を構成するタグの種類の関係性及び/又は該タグの出現順の関係性に基づいてコンテンツ62を評価してもよい。さらに、記憶部34がタグセット142の基準を示す基準タグセット144を記憶する場合、コンテンツ評価部134は、タグ生成部132により生成されたタグセット142が有するグラフ構造と、記憶部34に記憶されている基準タグセット144が有するグラフ構造との間の類似度を用いてコンテンツ62を評価してもよい。
[変形例]
 なお、本発明は、上記した実施形態に限定されるものではなく、この発明の主旨を逸脱しない範囲で自由に変更できることは勿論である。あるいは、技術的に矛盾が生じない範囲で各々の構成を任意に組み合わせてもよい。あるいは、技術的に矛盾が生じない範囲でフローチャートを構成する各ステップの実行順を変更してもよい。
 上記した実施形態では、コンテンツ62,82,90は、算数又は数学の問題に対する答案である場合を例に挙げて説明したが、コンテンツの種類はこれに限られない。例えば、コンテンツは、理科・物理・化学などの科学全般の問題に対する答案やレポートであってもよいし、ユーザ自身の考えを纏めるためのメモ書きを含む様々な成果物であってもよい。また、コンテンツのデータ形式は、ベクトル形式又はラスタ形式のいずれであってもよい。また、コンテンツの種類は、手書きによる画像に限られず、電子書籍や動画などであってもよい。
 上記した実施形態では、図13の基準タグセット144が事前に記憶されている場合を例に挙げて説明したが、基準タグセット144の所在はこれに限られない。例えば、コンテンツ評価部134が、複数のタグセット142に対してクラスタリング処理を施し、その母集団に適した基準タグセット144を作成してもよい。
 上記した実施形態では、図13のコンテンツ評価部134がタグセット142を用いてコンテンツ62を評価する場合を例に挙げて説明したが、評価に用いられる入力情報はこれに限られない。例えば、作成者の心拍数、脈拍数、体温、電子ペン14のグリップ圧力などの測定値を入力情報に含めることで、作成者の身体的状態、心理的状態、又はこれらの状態変化も併せて評価することができる。
[符号の説明]
 10…情報共有システム、12…生徒用端末(端末装置)、16…サーバ装置(情報共有装置)、21…プロセッサ、24…表示ユニット、40…分類処理部、44…状態取得部、46…データ生成部、48…表示指示部、62,82,90…コンテンツ、70…ストロークデータ、80…表示領域、84,93…ステータス情報欄

Claims (16)

  1.  複数の端末装置と、
     前記端末装置のそれぞれと通信可能に構成される情報共有装置と、
     を備え、
     前記端末装置は、
      表示領域内にコンテンツを表示する表示ユニットと、
      前記表示ユニットに対する表示制御を行うプロセッサと、
     を備え、
     前記情報共有装置は、
      前記端末装置のユーザが手書きしたコンテンツを示すストロークデータに対する評価結果に基づいて複数のユーザをグループ毎に分類する分類処理部と、
      前記分類処理部により分類された前記グループに属する2以上の構成員の状態を示すステータス情報欄の表示を、前記構成員に対応する各々の前記端末装置に指示する表示指示部と、
     を備える、情報共有システム。
  2.  前記ステータス情報欄は、前記構成員の個々の状態を示す個別情報欄の集合体であり、
     前記プロセッサは、前記個別情報欄の表示態様を前記構成員毎に変更可能となるように前記表示制御を行う、
     請求項1に記載の情報共有システム。
  3.  前記プロセッサは、前記ステータス情報欄のうちの1つ以上の個別情報欄を、他の個別情報欄よりも強調するように前記表示制御を行う、
     請求項2に記載の情報共有システム。
  4.  前記プロセッサは、前記ユーザによる操作に応じて、前記1つ以上の個別情報欄を強調するように前記表示制御を行う、
     請求項3に記載の情報共有システム。
  5.  前記プロセッサは、前記情報共有装置の指示に応じて、前記1つ以上の個別情報欄を強調するように前記表示制御を行う、
     請求項3に記載の情報共有システム。
  6.  前記表示指示部は、前記2以上の構成員の状態を含む共有データを一括送信することで、前記構成員に対応する各々の前記端末装置に前記ステータス情報欄の表示を指示する、
     請求項1に記載の情報共有システム。
  7.  前記共有データには、前記構成員の匿名情報が含まれ、
     前記プロセッサは、前記構成員の状態と併せて前記匿名情報を前記ステータス情報欄に表示するように前記表示制御を行う、
     請求項6に記載の情報共有システム。
  8.  前記プロセッサは、前記共有データにより特定される前記2以上の構成員のうち前記端末装置のユーザを除外した他の構成員の状態を示す前記ステータス情報欄を表示するように前記表示制御を行う、
     請求項6に記載の情報共有システム。
  9.  前記プロセッサは、前記表示領域の周縁部に前記ステータス情報欄を配置するように前記表示制御を行う、
     請求項1に記載の情報共有システム。
  10.  前記プロセッサは、前記表示領域を2つ以上のサブ領域に分割し、前記構成員に対応する各々の前記端末装置が表示中のコンテンツを、それぞれ対応する前記サブ領域内にマルチ表示するように前記表示制御を行う、
     請求項9に記載の情報共有システム。
  11.  前記構成員は、就学者であり、
     前記構成員の状態には、前記就学者の学習時間が含まれる、
     請求項1に記載の情報共有システム。
  12.  前記構成員は、就学者であり、
     前記構成員の状態には、前記就学者の演習の進捗度が含まれる、
     請求項1に記載の情報共有システム。
  13.  前記分類処理部は、
      前記コンテンツを構成するストロークの形状及び該ストロークの書き順を示すストロークデータを取得するデータ取得部と、
      前記データ取得部により取得された前記ストロークデータから、前記ストロークの纏まりの意味属性を示すタグの種類及び該タグの出現順を示すタグセットを生成するタグ生成部と、
      前記タグ生成部により生成された前記タグセットを用いて前記コンテンツを評価するコンテンツ評価部と、を備える、
     請求項1~12のいずれか1項に記載の情報共有システム。
  14.  前記情報共有装置は、前記タグセットの基準を示す基準タグセットを記憶する記憶部をさらに備え、
     前記コンテンツ評価部は、前記タグ生成部により生成された前記タグセットが有するグラフ構造と、前記記憶部に記憶されている前記基準タグセットが有するグラフ構造との間の類似度を用いて前記コンテンツを評価する、
     請求項13に記載の情報共有システム。
  15.  コンテンツを表示する表示ユニットを有する複数の端末装置と、前記端末装置のそれぞれと通信可能に構成される情報共有装置と、を備える情報共有システムにより行われる情報共有方法であって、
     前記情報共有装置が、
      前記端末装置のユーザが手書きしたコンテンツを示すストロークデータに対する評価結果に基づいて複数のユーザをグループ毎に分類する分類ステップと、
      分類された前記グループに属する2以上の構成員の状態を示すステータス情報欄の表示を、前記構成員に対応する各々の前記端末装置に指示する指示ステップと、
     を実行する、情報共有方法。
  16.  コンテンツを表示する表示ユニットを有する複数の端末装置と、前記端末装置のそれぞれと通信可能に構成される情報共有装置と、を備える情報共有システムに適用される情報共有プログラムであって、
     前記情報共有装置に、
      前記端末装置のユーザが手書きしたコンテンツを示すストロークデータに対する評価結果に基づいて複数のユーザをグループ毎に分類する分類ステップと、
      分類された前記グループに属する2以上の構成員の状態を示すステータス情報欄の表示を、前記構成員に対応する各々の前記端末装置に指示する指示ステップと、
     を実行させる、情報共有プログラム。
PCT/JP2021/038895 2021-10-21 2021-10-21 情報共有システム、方法、及びプログラム WO2023067751A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202180075988.6A CN116490846A (zh) 2021-10-21 2021-10-21 信息共享系统、方法及程序
PCT/JP2021/038895 WO2023067751A1 (ja) 2021-10-21 2021-10-21 情報共有システム、方法、及びプログラム
US18/310,197 US20230266856A1 (en) 2021-10-21 2023-05-01 Information sharing system, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/038895 WO2023067751A1 (ja) 2021-10-21 2021-10-21 情報共有システム、方法、及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/310,197 Continuation US20230266856A1 (en) 2021-10-21 2023-05-01 Information sharing system, method, and program

Publications (1)

Publication Number Publication Date
WO2023067751A1 true WO2023067751A1 (ja) 2023-04-27

Family

ID=86057973

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/038895 WO2023067751A1 (ja) 2021-10-21 2021-10-21 情報共有システム、方法、及びプログラム

Country Status (3)

Country Link
US (1) US20230266856A1 (ja)
CN (1) CN116490846A (ja)
WO (1) WO2023067751A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006221127A (ja) * 2005-01-17 2006-08-24 Fujitsu Ltd 学習プログラム、方法及び装置
JP2013142718A (ja) * 2012-01-06 2013-07-22 Flens Co Ltd 学習支援サーバ、学習支援システム、及び学習支援プログラム
JP2018180194A (ja) * 2017-04-10 2018-11-15 株式会社Z会 学習支援システム、学習支援方法、及び学習者端末

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4451079B2 (ja) * 2003-05-30 2010-04-14 株式会社日立製作所 情報管理サーバ及び情報配信システム
US20120254773A1 (en) * 2011-01-07 2012-10-04 Subramanian V Touch screen based interactive media sharing
US10216472B2 (en) * 2015-04-29 2019-02-26 Toshiba Client Solutions CO., LTD. Electronic device and method for processing audio data
US20160321025A1 (en) * 2015-04-30 2016-11-03 Kabushiki Kaisha Toshiba Electronic apparatus and method
JP6147825B2 (ja) * 2015-09-29 2017-06-14 株式会社東芝 電子機器および方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006221127A (ja) * 2005-01-17 2006-08-24 Fujitsu Ltd 学習プログラム、方法及び装置
JP2013142718A (ja) * 2012-01-06 2013-07-22 Flens Co Ltd 学習支援サーバ、学習支援システム、及び学習支援プログラム
JP2018180194A (ja) * 2017-04-10 2018-11-15 株式会社Z会 学習支援システム、学習支援方法、及び学習者端末

Also Published As

Publication number Publication date
US20230266856A1 (en) 2023-08-24
CN116490846A (zh) 2023-07-25

Similar Documents

Publication Publication Date Title
Drucker Visualization and interpretation: Humanistic approaches to display
MacKenzie Human-computer interaction: An empirical research perspective
Hamad et al. How virtual reality technology has changed our lives: an overview of the current and potential applications and limitations
Harold et al. Cognitive and psychological science insights to improve climate change data visualization
Grainger et al. Environmental data visualisation for non-scientific contexts: Literature review and design framework
Kim et al. South Korean digital textbook project
Moreno-Armella et al. From static to dynamic mathematics: Historical and representational perspectives
Kim et al. Multimodal interaction systems based on internet of things and augmented reality: A systematic literature review
Schutera et al. On the potential of augmented reality for mathematics teaching with the application cleARmaths
CN109657204A (zh) 使用非对称度量学习的自动配对字体
Di Mitri et al. Detecting mistakes in CPR training with multimodal data and neural networks
Bryfczynski BeSocratic: An intelligent tutoring system for the recognition, evaluation, and analysis of free-form student input
Limbu et al. Can you ink while you blink? Assessing mental effort in a sensor-based calligraphy trainer
Bornschein et al. Digital drawing tools for blind users: A state-of-the-art and requirement analysis
US20220027026A1 (en) Ink annotation sharing method and system
JP2014044231A (ja) 速読訓練装置、速読訓練方法および速読訓練プログラム
Korycka-Skorupa et al. Numbers on thematic maps: helpful simplicity or too raw to Be useful for map reading?
Wang et al. Design of an interactive mind calligraphy system by affective computing and visualization techniques for real-time reflections of the writer’s emotions
Papadopoulou Art, technology, education: Synergy of modes, means, tools of communication
Fujiwara et al. Competent and cold: a directed content analysis of warmth and competence dimensions to identify and categorise stereotypes of scientists portrayed in meme-based GIFs
Liu et al. MapOnLearn: the use of maps in online learning systems for education sustainability
Orr et al. Informal learning with extended reality environments: Current trends in museums, heritage, and tourism
WO2023067751A1 (ja) 情報共有システム、方法、及びプログラム
Cafaro et al. Data through Movement: Designing Embodied Human-Data Interaction for Informal Learning
Thompson et al. An alternative visualization of the demographic transition model

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2023513426

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 202180075988.6

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21961403

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE