WO2020235730A1 - 동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 방법 - Google Patents

동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 방법 Download PDF

Info

Publication number
WO2020235730A1
WO2020235730A1 PCT/KR2019/006354 KR2019006354W WO2020235730A1 WO 2020235730 A1 WO2020235730 A1 WO 2020235730A1 KR 2019006354 W KR2019006354 W KR 2019006354W WO 2020235730 A1 WO2020235730 A1 WO 2020235730A1
Authority
WO
WIPO (PCT)
Prior art keywords
learner
video
gaze
learning
script
Prior art date
Application number
PCT/KR2019/006354
Other languages
English (en)
French (fr)
Inventor
조일현
김지현
Original Assignee
이화여자대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이화여자대학교 산학협력단 filed Critical 이화여자대학교 산학협력단
Publication of WO2020235730A1 publication Critical patent/WO2020235730A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Definitions

  • the following explanations are about a method of predicting learning outcomes based on a learner's scan pattern in a video learning environment.
  • Learning is an interaction between a learning object and a learning subject, and may be a process of exchanging messages between a teacher and various learning materials and learners.
  • the learner does not always pay attention to the instructor's explanation, but can learn dynamically according to various factors such as his or her learning strategy/prior knowledge/learning attitude.
  • a psychological time difference may occur between the instructor's explanation and the learner's processing of information. Therefore, when the psychological parallax between the learner and the instructor is identified and the gazing region of the display where the learner's video is played is patterned, the learning outcome can be predicted.
  • the present invention may be a method of predicting learning outcomes based on a scan pattern of a learner in a video learning environment in which a learner's three-dimensional learning process is tracked in a video learning process by using the learner's visual information collected through a gaze tracker.
  • the present invention may be a method for predicting learning outcomes based on a scan pattern of a learner in a video learning environment in which a portion representing a cognitive load and attention is searched by using gaze coordinates in which gaze fixing occurs.
  • the present invention may be a method for predicting learning outcomes based on a scan pattern of learners in a video learning environment that optimizes learning of learners through prediction of learning outcomes using the learner's visual information.
  • identifying a pixel corresponding to an area of interest (AOI) displaying related information on the video Acquiring visual information by tracking the gaze of a learner watching the video; Matching the visual information corresponding to the learner's gaze with the pixel; And detecting a scan pattern for predicting learning outcomes according to the learner's visual behavior using the matched visual information and pixels.
  • AOI area of interest
  • a learning outcome prediction method based on the learner's scan pattern. have.
  • the visual information may be a method of predicting learning outcomes based on a scan pattern of a learner in a video learning environment, including information on the gaze coordinates and duration of the learner.
  • the visual information is a video learning environment that excludes visual information corresponding to a case outside a preset distance range between the gaze tracker and the learner's eyes, or out of a preset time range of the learner's duration fixed gaze It may be a method of predicting learning outcomes based on a learner's scan pattern in.
  • the region of interest indicates a region for displaying a past script indicating a past viewpoint of the video, a current script indicating a current viewpoint of the video, and a future script indicating a future viewpoint of the video. It may be a method of predicting based learning outcomes.
  • the past script, the current script, and the future script may be a method of predicting learning outcomes based on a scan pattern of a learner in a video learning environment, displayed in a pre-set area of the region of interest.
  • the apparatus for predicting learning outcomes includes a processor and a memory including instructions that can be read by a computer, and when the instruction is executed in the processor, the processor, when a video related to learning is played, the Identify a pixel corresponding to an area of interest (AOI) displaying related information about the video, track the gaze of the learner watching the video to obtain visual information, and A learning outcome prediction device based on a learner's scan pattern in a video learning environment that matches visual information and the pixel, and detects a pattern for predicting learning outcomes according to the learner's visual behavior using the matched visual information and pixels Can be
  • AOI area of interest
  • the visual information may be a device for predicting learning outcomes based on a scan pattern of a learner in a video learning environment, including information on the gaze coordinates and duration of the learner.
  • the visual information is a video learning environment that excludes visual information corresponding to a case outside a preset distance range between the gaze tracker and the learner's eyes, or out of a preset time range of the learner's duration fixed gaze It may be a device for predicting learning outcomes based on a learner's scan pattern.
  • the region of interest indicates a region for displaying a past script indicating a past viewpoint of the video, a current script indicating a current viewpoint of the video, and a future script indicating a future viewpoint of the video. It may be a device for predicting based learning outcomes.
  • the past script, the current script, and the future script may be a device for predicting learning outcomes based on a scan pattern of a learner in a video learning environment that is displayed in a pre-set area of the region of interest.
  • the present invention for predicting learning outcomes based on a learner's scan pattern in a video learning environment can track a learner's three-dimensional learning process in a video learning process using the learner's visual information collected through a gaze tracker. have.
  • the present invention for predicting learning outcomes based on a scan pattern of a learner in a video learning environment may search for a portion representing a cognitive load and concentration of attention by using gaze coordinates in which gaze fixing occurs.
  • the present invention for predicting learning outcomes based on a learner's scan pattern in a video learning environment may optimize learning of a learner through prediction of learning outcomes using the learner's visual information.
  • FIG. 1 is a diagram illustrating a learner who learns through a video according to an embodiment.
  • FIG. 2 is a diagram illustrating a method for predicting learning outcomes based on a learner's perspective in a video learning environment, according to an exemplary embodiment.
  • FIG. 3 is a diagram illustrating a frequency table of a partial character string pattern according to an embodiment.
  • FIG. 4 is a diagram illustrating a visualization of prediction results in a frequency table according to an embodiment.
  • FIG. 5 is a diagram illustrating a video and a script displayed on a display according to an exemplary embodiment.
  • FIG. 6 shows a time series graph of an individual learner's gaze fixed according to an embodiment.
  • FIG. 7 shows a time series graph of fixed gazes of all learners according to an embodiment.
  • FIG. 8 illustrates detection of a pattern predicting learning outcomes using a fixed gaze time series graph of an individual learner according to an embodiment.
  • FIG. 9 illustrates detection of a pattern for predicting learning outcomes using a fixed gaze time series graph of all learners, according to an embodiment.
  • FIG. 10 illustrates a method of tracking a learner's gaze position, according to an embodiment.
  • FIG. 11 is a diagram illustrating a method of tracking a learner's gaze position according to another exemplary embodiment.
  • first or second may be used to describe various components, but these terms should be understood only for the purpose of distinguishing one component from other components.
  • a first component may be referred to as a second component, and similarly, a second component may be referred to as a first component.
  • FIG. 1 is a diagram illustrating a learner who learns through a video according to an embodiment.
  • the display 110 may display a video to be played back.
  • the video is a multimedia learning content expressing the movement of an object through text, voice, picture, and animation, and the learner 130 can learn by using the video.
  • the learner 130 may experience a different learning process depending on where and how to gaze at the display 110. For example, even if a plurality of learners watch the same video, each learner 130 may experience a different learning process.
  • the gaze tracker 120 may track the gaze of the learner 130.
  • the gaze tracker 120 may be mounted on the display 110, attached to the learner 130, or located in a separate place.
  • the gaze tracker 120 to track the gaze of the learner 130
  • An electrode is attached around the eye to measure the potential difference between the retina and the cornea to calculate the gaze position, or Attach a non-slip lens to the cornea and attach a magnetic coil or mirror to it to calculate the gaze position, or Mount a small camera under the headband or helmet to calculate the gaze position, or There is a method of calculating the gaze position using an externally rotatable camera or a camera with a zoom function and lighting.
  • there are a plurality of methods in which the gaze tracker 120 tracks the gaze of the learner 130 an example of which will be described in detail with reference to FIGS. 8 and 9.
  • the gaze tracker 120 tracks the gaze of the learner 130 to determine where and how to gaze on the display 110, the learning outcome of the learner 130 learning through the video may be predicted.
  • the apparatus for predicting learning outcomes may be embedded in a gaze tracker, a display, or may be embedded in a separate external device.
  • the apparatus for predicting learning outcomes includes a processor and a memory including instructions readable by a computer, and when the instructions are executed by the processor, the processor may execute the following steps.
  • attention is a cognitive activity ability that focuses consciousness on a stimulus according to video learning, and corresponds to a cognitive activity that focuses consciousness by selecting a specific visual stimulus.
  • the cognitive load may represent a mental load experienced by processing information displayed on a display when learning a video.
  • the apparatus for predicting learning outcomes may identify a pixel corresponding to an area of interest (AOI) displaying related information about the video.
  • AOI area of interest
  • the ROI is an area set in advance and may be an area to which a past script/current script/future script for a video is allocated.
  • a pixel corresponding to the region of interest may be identified. That is, a pixel corresponding to a past script, a pixel corresponding to a current script, and a pixel corresponding to a future script may be identified.
  • a pixel corresponding to a past script may be (0,0) to (1920, 360)
  • a pixel corresponding to a current script may be (0, 360) to (1920, 720)
  • a future script The pixels corresponding to may be preset as (0, 720) to (1920, 1080).
  • visual information may be obtained by tracking the gaze of a learner watching the video.
  • the visual information may include information on the learner's gaze coordinates and duration.
  • the gaze coordinates represent coordinates on the display at which the learner gazes
  • the duration represents the time during which the learner maintains the coordinates gaze.
  • visual information corresponding to a case outside a preset distance range between the eye tracker and the learner's eyes may be excluded.
  • the gaze tracker has a preset distance range (recommended distance range) for stable gaze tracking, the accuracy of the measured visual information may be low when the distance range is deviated from the preset distance range. Accordingly, the measured visual information may be excluded when deviating from a preset distance range.
  • visual information corresponding to a case in which the duration of the eye gaze fixation is out of a preset time range may be excluded.
  • the accuracy of the measured visual information may be low when the time range is deviated from the preset time range. Accordingly, the measured time information may be excluded when it deviates from the preset time range.
  • the apparatus for predicting learning outcomes may match visual information corresponding to the learner's gaze with pixels.
  • the gaze coordinates that the learner gazes at and the identified pixels of the region of interest may be matched. Accordingly, it may be determined whether the area in which the learner is gazing is a past script/current script/future script.
  • the learner gazes at the past script when the gaze coordinates at which the learner is gaze and the pixels of the identified region of interest are matched it indicates that the learner gazes at the part inconsistent with the content of the currently played video.
  • the learner gazes at the current script when the gaze coordinates at which the learner is gaze and the pixels of the identified region of interest are matched it indicates that the learner gazes at the part that matches the content of the currently played video.
  • the learner gazes at the future script when the gaze coordinates at which the learner gazes are matched with the pixels of the identified region of interest it indicates that the learner gazes at a portion inconsistent with the content of the currently played video.
  • the apparatus for predicting learning outcomes may detect a scan pattern for predicting learning outcomes according to the learner's visual behavior using the matched visual information and pixels.
  • the learning outcome prediction apparatus may classify a video section according to temporal density and spatial dispersion of gaze fixation.
  • the temporal density indicates how long the gaze fixation event lasts, and may be calculated as the sum of the gaze fixation duration in the analysis section.
  • spatial dispersion indicates how many different regions of interest the gaze fixation event has occurred, and can be calculated as the degree of spread of the hit frequency for each AOI of gaze fixation within the analysis section.
  • the apparatus for predicting learning outcomes may divide a video section that becomes an analysis unit by applying a sliding window of 60 seconds, for example.
  • the learning outcome prediction apparatus may calculate temporal density and spatial variance for each analysis section.
  • the learning outcome prediction device High temporal density, large spatial variance High temporal density, low spatial variance Low temporal density, large spatial variance Analysis sections can be classified into low temporal density and low spatial dispersion sections.
  • the apparatus for predicting learning outcomes may detect a scan pattern that predicts learning outcomes for each analysis section. Specifically, 1) the learning outcome prediction device can convert the scan path data matched with the AOI into one single subject per learner, and 2) one string object into a set of N substrings Tokenization can be performed by dividing into.
  • N represents the number of strings that tokenize adjacent strings in the analysis section.
  • N the whole string object with fixed gaze
  • the learning outcome prediction apparatus may generate a frequency table of a substring pattern by deriving a stream pattern of learners for each analysis section.
  • the frequency table of the character string pattern is shown in FIG. 3. Specifically, the x-axis of FIG.
  • the y-axis may represent the AOI of the gaze fixing event occurring at the n-th time index
  • the number written in each cell is an analysis of the corresponding gaze fixing pattern. It can indicate the frequency of occurrence within a section. For example, '3321' in which the two arrows shown in FIG. 3 are orthogonal indicates that the'de' pattern has occurred 3321 times.
  • D current scripts
  • E to J future scripts It indicates that 3321 times the frequency of fixing the eyes of the script area (D) (d) and then fixing the eyes of the future script area (E) (e) sequentially occurred 3321 times.
  • the learning outcome prediction device uses a Classification and Regression Tree (CART) to generate a decision tree representing the effect of the frequency (explained variable) for each scan pattern on the learning outcome (response variable) in time density. It can be created for each of 4 types of analysis intervals according to and spatial variance.
  • the classification regression tree can be used to determine the effect on the response variable (dependent variable) by making full use of the nonlinearity and interactions of the explanatory variable.
  • the classification regression tree can be used even when the response variable is a binomial variable/polynomial variable, etc.
  • the apparatus for predicting learning outcomes may determine a model with the highest performance by generating a prediction model according to the number of tokenization reference strings (N). In this case, when the prediction result is visualized in the generated frequency table, it may be displayed as shown in FIG. 4.
  • FIG. 5 is a diagram illustrating a video and a script displayed on a display according to an exemplary embodiment.
  • the script 530 may be displayed on the display together as related information about the video.
  • the script 530 may include a current script 533 for the currently played video, a past script 531 corresponding to a viewpoint past the present, and a future script 535 corresponding to a viewpoint future than the present.
  • the script 530 may be allocated to a certain area of the display, and all of the past script 531 / current script 533 / future script 535 may be displayed in the previously allocated area.
  • Areas of the past script 531 and the future script 535 allocated to the display may be set in advance. Specifically, depending on the nature of the video 510 being played, the past script 531 is assigned more areas than the future script 535, or the past script 531 and the future script 535 are assigned the same area Or, the past script 531 may be assigned a smaller area than the future script 535. For example, when the connection between the present and the past is important when learning through the played video 510, the past script 531 may be allocated more areas than the future script 535.
  • the area to which the script 530 is allocated is an area of interest (AOI) and may be set in advance. Specifically, a pixel corresponding to the region of interest in which the region is set in advance may be identified. A pixel corresponding to the past script 531, a pixel corresponding to the current script 533, and a pixel corresponding to the future script 535 may be identified. For example, pixels corresponding to the past script 531 may be (0,0) to (1920, 360), and pixels corresponding to the current script 533 may be (0, 360) to (1920, 720) The pixels corresponding to the future script 535 may be (0, 720) to (1920, 1080).
  • AOI area of interest
  • the learner gazes at the past script 531 as a result of tracking the learner's gaze it indicates that the learner gazes at a portion inconsistent with the content of the currently played video.
  • the learner gazes at the current script 533 as a result of tracking the learner's gaze it indicates that the learner gazes at a portion that matches the content of the currently played video.
  • the learner gazes at the future script 535 as a result of tracking the learner's gaze it indicates that the learner gazes at a portion inconsistent with the content of the currently played video.
  • the learner's gaze may be'fixed gaze' fixed to a specific area of the display for a certain period of time or'gaze leap' moving without being fixed to a specific area of the display.
  • the visual information may include information on gaze coordinates and duration.
  • the learner's gaze is maintained at a specific coordinate for a certain duration or longer, it may indicate'fixed gaze', and when the learner's gaze is moved without being maintained at a specific coordinate for a certain duration or longer, it may indicate a “gaze leap”.
  • gaze fixation may be used as an index of attention
  • gaze leap may be used as an index indicating a learner's cognitive strategy or problem solving process. Fixing the gaze in which the gaze is stopped at a specific part may indicate that cognitive processing is taking place. Therefore, by using information on which gaze fixation occurs, an index indicating a learner's cognitive load and attention can be detected.
  • FIG. 6 shows a time series graph of an individual learner's gaze fixed according to an embodiment.
  • the x-axis represents time
  • the y-axis represents a fixed line of sight.
  • the regions corresponding to the past script are A, B, and C, and the regions may be distinguished according to the degree of separation from the current time.
  • regions corresponding to future scripts are E, F, and G, and the regions can be distinguished according to the degree of separation from the current time.
  • the learner is fixing his gaze on the area D corresponding to the current script of the video played during times t1 to t2. After that, the learner does not fix his gaze for the time period t2 to t3, but leaps to the area C corresponding to the past script. Thereafter, the learner is fixing his gaze on the region C corresponding to the past script of the video played during times t3 to t4. Thereafter, the learner does not fix his gaze during t4 to t5, and is taking his gaze to the area D corresponding to the current script. Thereafter, the learner fixes his gaze on the area D corresponding to the current script of the video played during t5 to t6.
  • the learner does not fix his gaze during t6 to t7, and is taking his gaze to the area G corresponding to the future script. Thereafter, the learner is fixing his gaze on the area G corresponding to the future script, not the current script of the video played during t7 to t8. Thereafter, an area in which the learner's gaze is fixed is referred to FIG. 6.
  • the gaze is not always fixed on the area corresponding to the current script, and the gaze area can be changed according to the learner's judgment.
  • FIG. 7 shows a time series graph of fixed gaze of all learners according to an embodiment.
  • Student 1 fixes his gaze to the areas d and d corresponding to the current script, then leaps to the areas g and f corresponding to the future script to fix his gaze, then leaps to the area d corresponding to the current script and fixes his gaze.
  • gaze leaps to the area f corresponding to the script to fix the gaze then gaze leaps to the areas d and d corresponding to the current script to fix the gaze, then leaps to the area g corresponding to the future script to fix the gaze, and then responds to the current script
  • the gaze leaps to the area d to fix the gaze the gaze leaps to the area c corresponding to the past script to fix the gaze, then the gaze jumps to the area g corresponding to the future script to fix the gaze, and then gazes to the area a corresponding to the past script. He jumped and fixed his gaze.
  • FIG. 8 illustrates detection of a pattern predicting learning outcomes using a fixed gaze time series graph of an individual learner according to an embodiment.
  • N a substring pattern is derived, and a classification regression tree (CART) is applied according to the number of frequencies of each pattern to predict learning outcomes as positive (+) and negative (-) patterns. It corresponds to the time series graph that detected the pattern.
  • CART classification regression tree
  • 'ga' means predicting learning outcomes with (-)
  • 'bd' and'dc' means predicting learning outcomes with (+). This may indicate that learning outcomes are predicted as negative (-) as the gaze leap increases, and learning outcomes are predicted as positive (+) when gaze is fixed by intersecting the current domain with the past domain.
  • the high attention period indicates that the gaze fixing event lasted for a long time
  • the low attention period indicates that the gaze fixing event lasted relatively short
  • the high dispersion period indicates that the gaze fixing event occurred in various areas of interest
  • low The variance interval indicates that the gaze fixation event occurred in a relatively small region of interest.
  • the gaze tracker 120 to track the gaze of the learner 130, an example of which will be described below with reference to FIGS. 10 and 11.
  • the gaze tracking method described in FIGS. 10 and 11 is only an example, and the present invention is not limited to the scope of the right to the gaze tracking method described in FIGS. 10 and 11.
  • the gaze tracker is disposed on the left/right side of the learner's face, recognizes the learner's face image, and detects left/right eyes from the face image.
  • the gaze tracker can track the user's gaze by deriving the areas of the pupil (Pupil) and the iris (Iris), the area of the sclera, and the angle between the eyelids from the image of the left eye and the image of the right eye.
  • the gaze tracker can detect the pupil and iris regions from the image of the left eye and the image of the right eye, and estimate the area of each region.
  • the gaze tracker can detect the white region from the image of the left eye and the image of the right eye, and estimate the area of the white region.
  • the gaze tracker may track the learner's left and right gaze by using the ratio of the areas of the pupil and iris areas and the areas of the white area.
  • the gaze tracker is parallel to the horizontal plane and based on the reference line passing through the center of the pupil of the learner's left/right eye, whether the line of sight has moved from the baseline according to the ratio of the area of the pupil and iris area to the area of the white area, You can determine how far you have moved.
  • the exact position of the left that the learner is looking at can be determined by using the ratio of the area of the pupil and iris area of the left/right eye and the area of the white area.
  • the correct position of the right side that the learner is looking at can be determined by using the ratio of the area of the pupil and iris area of the left/right eye and the area of the white area.
  • the learner can determine the exact position of the front view.
  • the gaze tracker is disposed on the left/right side of the learner's face, recognizes the learner's face image, and detects left/right eyes from the face image.
  • the gaze tracker can track the user's gaze by deriving the areas of the pupil (Pupil) and the iris (Iris), the area of the sclera, and the angle between the eyelids from the image of the left eye and the image of the right eye.
  • the gaze tracker is the angle between the learner's upper eyelid and the baseline. And the angle between the user's lower eyelid and the baseline Using the ratio of, you can determine the position of the learner's upper and lower gaze. For example, in Figure 1110, where the learner is looking upward, the angle between the upper eyelid and the baseline And the angle between the lower eyelid and the baseline The ratio of is relatively large. If the user gazes further upward, the angle between the upper eyelid and the baseline And the angle between the lower eyelid and the baseline The ratio of will increase relatively further. As another example, in Figure 1120, where the learner is looking forward, the angle between the upper eyelid and the baseline And the angle between the lower eyelid and the baseline Can be similar.
  • the gaze tracker may accurately determine a position actually viewed by the learner based on the learner's left and right gaze tracking and the top and bottom gaze tracking.
  • a method of tracking a learner's gaze through left and right gaze tracking and up and down gaze tracking is only an example, and the scope of the present invention is not limited thereto.
  • the apparatus described above may be implemented as a hardware component, a software component, and/or a combination of a hardware component and a software component.
  • the devices and components described in the embodiments include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It can be implemented using one or more general purpose computers or special purpose computers, such as a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions.
  • the processing device may execute an operating system (OS) and one or more software applications executed on the operating system.
  • the processing device may access, store, manipulate, process, and generate data in response to the execution of software.
  • OS operating system
  • the processing device may access, store, manipulate, process, and generate data in response to the execution of software.
  • the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include.
  • the processing device may include a plurality of processors or one processor and one controller.
  • other processing configurations are possible, such as a parallel processor.
  • the software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to behave as desired or processed independently or collectively. You can command the device.
  • Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodyed in a transmitted signal wave.
  • the software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.
  • the method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium.
  • the computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination.
  • the program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks.
  • -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like.
  • Examples of the program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.
  • the hardware device described above may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • General Engineering & Computer Science (AREA)
  • Marketing (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Primary Health Care (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Ophthalmology & Optometry (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측하기 위해, 시선 추적기를 통해 수집된 학습자의 시각 정보를 이용하여 동영상 학습 과정에서 학습자의 입체적 학습 과정을 추적하고, 시선 고정이 일어나는 시선 좌표를 활용하여 인지 부하와 주의 집중을 나타내는 부분을 탐색할 수 있다. 따라서, 학습자의 시각 정보를 이용한 학습 성과 예측을 통해 학습자의 학습을 최적화할 수 있다.

Description

동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 방법
아래 설명들은 동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 방법에 관한 것이다.
학습이란 학습 객체(object)와 학습 주체(subject) 간의 상호 작용으로서, 교수자 및 각종 학습 자료와 학습자 간의 메시지 교환 과정일 수 있다. 교수-학습 상황에서 학습자는 언제나 교수자의 설명에만 주의를 기울이지 않고, 자신의 학습전략/사전지식/학습태도등 다양한 요인에 따라 역동적인 학습을 할 수 있다. 이로 인해 교수자의 설명과 학습자의 정보 처리 사이에는 심리적 시차(time difference)가 발생될 수 있다. 따라서, 학습자-교수자 간의 심리적 시차를 규명하고, 학습자의 동영상이 재생되는 디스플레이의 응시하는 영역을 패턴화할 경우, 학습 성과는 예측될 수 있다.
본 발명은 시선 추적기를 통해 수집된 학습자의 시각 정보를 이용하여, 동영상 학습 과정에서 학습자의 입체적 학습 과정을 추적하는 동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 방법일 수 있다.
본 발명은 시선 고정이 일어나는 시선 좌표를 활용하여, 인지 부하와 주의 집중을 나타내는 부분을 탐색하는 동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 방법일 수 있다.
본 발명은 학습자의 시각 정보를 이용한 학습 성과 예측을 통해 학습자의 학습을 최적화하는 동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 방법일 수 있다.
일 실시예에 따르면, 학습과 관련된 동영상이 플레이될 때, 상기 동영상에 대한 관련 정보를 표시하는 관심 영역(Area of Interest, AOI)에 대응하는 픽셀을 식별하는 단계; 상기 동영상을 시청하는 학습자의 시선을 추적하여, 시각 정보를 획득하는 단계; 상기 학습자의 시선에 대응하는 상기 시각 정보와 상기 픽셀을 매칭하는 단계; 및 상기 매칭된 시각 정보와 픽셀을 이용하여, 상기 학습자의 시각 행동에 따른 학습 성과를 예측하는 스캔 패턴을 검출하는 단계를 포함하는, 동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 방법일 수 있다.
상기 시각 정보는, 상기 학습자의 시선 좌표와 지속 시간에 대한 정보를 포함하는, 동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 방법일 수 있다.
상기 시각 정보는, 시선 추적기와 상기 학습자의 눈 사이의 미리 설정된 거리 범위를 벗어나거나 또는, 시선 고정한 상기 학습자의 지속 시간의 미리 설정된 시간 범위를 벗어나는 경우에 대응하는 시각 정보를 제외하는, 동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 방법일 수 있다.
상기 관심 영역은, 상기 동영상의 과거 시점을 나타내는 과거 스크립트와 상기 동영상의 현재 시점을 나타내는 현재 스크립트와 상기 동영상의 미래 시점을 나타내는 미래 스크립트를 표시하는 영역을 나타내는, 동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 방법일 수 있다.
상기 과거 스크립트, 상기 현재 스크립트, 상기 미래 스크립트는, 상기 관심 영역의 사전에 설정된 영역에 표시되는, 동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 방법일 수 있다.
일 실시예에 따르면, 학습 성과 예측 장치는 프로세서 및 컴퓨터에서 읽을 수 있는 명령어를 포함하는 메모리를 포함하고, 상기 명령어가 상기 프로세서에서 실행되면, 상기 프로세서는, 학습과 관련된 동영상이 플레이될 때, 상기 동영상에 대한 관련 정보를 표시하는 관심 영역(Area of Interest, AOI)에 대응하는 픽셀을 식별하고, 상기 동영상을 시청하는 학습자의 시선을 추적하여 시각 정보를 획득하고, 상기 학습자의 시선에 대응하는 상기 시각 정보와 상기 픽셀을 매칭하고, 상기 매칭된 시각 정보와 픽셀을 이용하여, 상기 학습자의 시각 행동에 따른 학습 성과를 예측하는 패턴을 검출하는 동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 장치일 수 있다.
상기 시각 정보는, 상기 학습자의 시선 좌표와 지속 시간에 대한 정보를 포함하는, 동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 장치일 수 있다.
상기 시각 정보는, 시선 추적기와 상기 학습자의 눈 사이의 미리 설정된 거리 범위를 벗어나거나 또는, 시선 고정한 상기 학습자의 지속 시간의 미리 설정된 시간 범위를 벗어나는 경우에 대응하는 시각 정보를 제외하는, 동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 장치일 수 있다.
상기 관심 영역은, 상기 동영상의 과거 시점을 나타내는 과거 스크립트와 상기 동영상의 현재 시점을 나타내는 현재 스크립트와 상기 동영상의 미래 시점을 나타내는 미래 스크립트를 표시하는 영역을 나타내는, 동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 장치일 수 있다.
상기 과거 스크립트, 상기 현재 스크립트, 상기 미래 스크립트는, 상기 관심 영역의 사전에 설정된 영역에 표시되는, 동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 장치일 수 있다.
일 실시예에 따르면, 동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측하는 본 발명은 시선 추적기를 통해 수집된 학습자의 시각 정보를 이용하여, 동영상 학습 과정에서 학습자의 입체적 학습 과정을 추적할 수 있다.
일 실시예에 따르면, 동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측하는 본 발명은 시선 고정이 일어나는 시선 좌표를 활용하여, 인지 부하와 주의 집중을 나타내는 부분을 탐색할 수 있다.
일 실시예에 따르면, 동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측하는 본 발명은 학습자의 시각 정보를 이용한 학습 성과 예측을 통해 학습자의 학습을 최적화할 수 있다.
도 1은 일 실시예에 따른, 동영상을 통해 학습하는 학습자를 나타낸 도면이다.
도 2는 일 실시예에 따른, 동영상 학습 환경에서 학습자의 시각에 기초한 학습 성과 예측 방법을 나타낸 도면이다.
도 3은 일 실시예에 따른, 부분 문자열 패턴의 빈도 테이블을 나타낸 도면이다.
도 4는 일 실시예에 따른, 빈도 테이블에 예측 결과를 시각화한 것을 나타낸 도면이다.
도 5은 일 실시예에 따른, 디스플레이에 표시되는 동영상 및 스크립트를 나타낸 도면이다.
도 6는 일 실시예에 따른, 개별 학습자의 시선 고정 시계열 그래프를 나타낸다.
도 7는 일 실시예에 따른, 전체 학습자의 시선 고정 시계열 그래프를 나타낸다.
도 8은 일 실시예에 따른, 개별 학습자의 시선 고정 시계열 그래프를 이용하여 학습 성과를 예측하는 패턴 탐지하는 것을 나타낸다.
도 9은 일 실시예에 따른, 전체 학습자의 시선 고정 시계열 그래프를 이용하여 학습 성과를 예측하는 패턴 탐지하는 것을 나타낸다.
도 10은 일 실시예에 따른, 학습자의 시선 위치를 추적하는 방법을 나타낸다.
도 11는 다른 일 실시예에 따른, 학습자의 시선 위치를 추적하는 방법을 나타낸다.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
아래 설명하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1 또는 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 이해되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수 개의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 일 실시예에 따른, 동영상을 통해 학습하는 학습자를 나타낸 도면이다.
디스플레이(110)은 재생하는 동영상을 표시할 수 있다. 동영상은 텍스트, 음성, 그림, 애니메이션을 통해 객체의 움직임을 표현하는 멀티미디어 학습 콘텐츠로서, 동영상을 이용하여 학습자(130)는 학습할 수 있다.
동영상을 이용하여 학습자(130)가 물리적으로 동일한 영상에 노출되더라도, 학습자(130)는 디스플레이(110)의 어디를, 어떻게 응시하는지에 따라 다른 학습 과정을 경험할 수 있다. 예를 들면, 동일한 동영상을 복수의 학습자가 시청하더라도, 학습자(130) 마다 서로 다른 학습 과정을 경험할 수 있다.
시선 추적기(120)는 학습자(130)의 시선을 추적할 수 있다. 여기서, 시선 추적기(120)는 디스플레이(110)에 장착되거나, 또는 학습자(130)에 부착되거나, 또는 이외의 별도의 장소에 위치할 수 있다.
시선 추적기(120)가 학습자(130)의 시선을 추적하는 방법의 일례로서,
Figure PCTKR2019006354-appb-img-000001
눈 주변에 전극을 부착하여 망막과 각막 사이의 전위차를 측정하여 시선 위치를 계산하거나, 또는
Figure PCTKR2019006354-appb-img-000002
각막에 미끄러지지 않는 렌즈를 부착하고 여기에 자기장 코일이나 거울을 부착하여 시선 위치를 계산하거나, 또는
Figure PCTKR2019006354-appb-img-000003
헤드 밴드 또는 헬멧 밑에 작은 카메라를 장착하여 시선 위치를 계산하거나, 또는
Figure PCTKR2019006354-appb-img-000004
외부에 회전이 가능한 카메라나 줌(zoom) 기능을 가지는 카메라와 조명을 이용하여 시선 위치를 계산하는 방법이 있다. 이외에도, 시선 추적기(120)가 학습자(130)의 시선을 추적하는 복수의 방법이 있으며, 그 중 일례에 대해 도 8과 도 9에서 자세히 설명한다.
따라서, 시선 추적기(120)가 학습자(130)의 시선을 추적하여 디스플레이(110)상의 어디를, 어떻게 응시하는지 판단한 경우, 동영상을 통해 학습하는 학습자(130)의 학습 성과를 예측할 수 있다.
도 2는 일 실시예에 따른, 동영상 학습 환경에서 학습자의 시각에 기초한 학습 성과 예측 방법을 나타낸 도면이다. 여기서, 학습 성과 예측 장치는 시선 추적기, 디스플레이에 내장될 수 있거나, 또는 별도의 외부의 기기에 내장될 수 있다. 학습 성과 예측 장치는 프로세서 및 컴퓨터에서 읽을 수 있는 명령어를 포함하는 메모리를 포함하고, 명령어가 프로세서에서 실행되면, 프로세서는 아래의 단계를 실행할 수 있다.
여기서, 주의 집중은 동영상 학습에 따른 자극에 의식을 집중하는 인지활동 능력으로서, 특정 시각 자극을 선택하여 의식을 집중하는 인지 활동에 해당한다. 또한, 인지 부하는 동영상 학습시 디스플레이에 표시되는 정보를 처리하며 경험하는 정신적 부하를 나타낼 수 있다.
단계(210)에서, 학습 성과 예측 장치는 학습과 관련된 동영상이 플레이될 때, 동영상에 대한 관련 정보를 표시하는 관심 영역(Area of Interest, AOI)에 대응하는 픽셀을 식별할 수 있다.
여기서, 관심 영역은 사전에 설정된 영역으로서, 동영상에 대한 과거 스크립트/현재 스크립트/미래 스크립트가 할당되는 영역일 수 있다. 이때, 관심 영역에 대응하는 픽셀은 식별될 수 있다. 즉, 과거 스크립트에 대응하는 픽셀, 현재 스크립트에 대응하는 픽셀, 미래 스크립트에 대응하는 픽셀은 식별될 수 있다. 예를 들면, 과거 스크립트에 대응하는 픽셀은 (0,0) ~ (1920, 360)일 수 있고, 현재 스크립트에 대응하는 픽셀은 (0, 360) ~ (1920, 720)일 수 있고, 미래 스크립트에 대응하는 픽셀은 (0, 720) ~ (1920, 1080)로서 사전에 설정될 수 있다.
단계(220)에서, 동영상을 시청하는 학습자의 시선을 추적하여, 시각 정보를 획득할 수 있다. 여기서, 시선 추적기가 학습자의 시선을 추적하는 일례는 이하에서 설명한다. 시각 정보는 학습자의 시선 좌표와 지속 시간에 대한 정보를 포함할 수 있다. 예를 들면, 시선 좌표는 학습자가 응시하는 디스플레이상의 좌표를 나타내고, 지속 시간은 학습자가 좌표 응시를 유지하는 시간을 나타낸다.
이때, 시선 추적기와 학습자의 눈 사이의 미리 설정된 거리 범위를 벗어난 경우에 대응하는 시각 정보가 제외될 수 있다. 구체적으로, 시선 추적기가 안정적인 시선 추적을 위한 미리 설정된 거리 범위(권장 거리 범위)가 존재하므로, 미리 설정된 거리 범위를 이탈한 경우 측정된 시각 정보의 정확도는 낮을 수 있다. 따라서, 미리 설정된 거리 범위를 이탈한 경우 측정된 시각 정보는 제외될 수 있다.
또한, 시선 고정의 지속 시간이 미리 설정된 시간 범위를 벗어난 경우에 대응하는 시각 정보가 제외될 수 있다. 구체적으로, 시선 고정 지속 시간의 정상 범위(미리 설정된 시간 범위)가 존재하므로, 미리 설정된 시간 범위를 이탈한 경우 측정된 시각 정보의 정확도는 낮을 수 있다. 따라서, 미리 설정된 시간 범위를 이탈한 경우 측정된 시각 정보는 제외될 수 있다.
단계(230)에서, 학습 성과 예측 장치는 학습자의 시선에 대응하는 시각 정보와 픽셀을 매칭할 수 있다.
시각 정보는 시선 좌표와 지속 시간을 포함하고 있으므로, 학습자가 응시하는 시선 좌표와 식별된 관심 영역의 픽셀을 매칭할 수 있다. 따라서, 학습자가 응시하는 영역이 과거 스크립트/현재 스크립트/미래 스크립트 인지 여부가 결정될 수 있다.
학습자가 응시하는 시선 좌표와 식별된 관심 영역의 픽셀을 매칭하였을 때 학습자가 과거 스크립트를 응시하는 경우, 현재 재생되는 동영상의 내용과 불일치한 부분을 학습자가 응시하는 것을 나타낸다. 또한, 학습자가 응시하는 시선 좌표와 식별된 관심 영역의 픽셀을 매칭하였을 때 학습자가 현재 스크립트를 응시하는 경우, 현재 재생되는 동영상의 내용과 일치한 부분을 학습자가 응시하는 것을 나타낸다. 또한, 학습자가 응시하는 시선 좌표와 식별된 관심 영역의 픽셀을 매칭하였을 때 학습자가 미래 스크립트를 응시하는 경우, 현재 재생되는 동영상의 내용과 불일치한 부분을 학습자가 응시하는 것을 나타낸다.
단계(240)에서, 학습 성과 예측 장치는 매칭된 시각 정보와 픽셀을 이용하여, 학습자의 시각 행동에 따른 학습 성과를 예측하는 스캔 패턴을 검출할 수 있다.
학습 성과 예측 장치는 시선 고정의 시간적 밀도(density)와 공간적 분산(dispersion)에 따른 동영상 구간을 분류할 수 있다. 여기서, 시간적 밀도(density)는 시선 고정(fixation) 이벤트가 얼마나 오래 지속되었는지를 나타내는 것으로서, 분석 구간 내 시선 고정 지속 시간의 총합(sum of fixation duration)으로 산출될 수 있다. 또한, 공간적 분산(dispersion)은 시선 고정 이벤트가 얼마나 다양한 관심 영역에서 발생했는지를 나타내는 것으로서, 분석 구간 내 시선고정의 AOI별 hit 빈도의 퍼짐 정도로 산출될 수 있다.
학습 성과 예측 장치는 일례로 60초 단위의 슬라이딩 윈도우(sliding window)를 적용하여 분석 단위가 되는 동영상 구간을 나눌 수 있다. 이때, 학습 성과 예측 장치는 분석 구간 별로 시간적 밀도와 공간적 분산을 산출할 수 있다. 여기서, 학습 성과 예측 장치는
Figure PCTKR2019006354-appb-img-000005
높은 시간적 밀도, 큰 공간적 분산 구간
Figure PCTKR2019006354-appb-img-000006
높은 시간적 밀도, 낮은 공간적 분산 구간
Figure PCTKR2019006354-appb-img-000007
낮은 시간적 밀도, 큰 공간적 분산 구간
Figure PCTKR2019006354-appb-img-000008
낮은 시간적 밀도, 낮은 공간적 분산 구간으로 분석 구간을 분류할 수 있다.
학습 성과 예측 장치는 분석 구간 별로 학습 성과를 예측하는 스캔 패턴(scan pattern)을 검출할 수 있다. 구체적으로, 1) 학습 성과 예측 장치는 AOI가 매칭된 시선 경로(scan path) 데이터를 학습자마다 하나의 문자열 객체(single subject)로 변환할 수 있고, 2) 하나의 문자열 객체를 N개의 부분 문자열 집합으로 나누는 토큰화(tokenization)를 수행할 수 있다.
여기서, N은 분석 구간 내 인접하는 문자열을 토큰화하는 문자열의 개수를 나타낸다. 예를 들면, 어떤 학습자의 특정한 분석 구간에서 시선 고정 전체 문자열 객체가 " abjiddhbba"인 경우, N=2라면 ab, bj, ji, id, dd, dh ~ 로 토큰화되고, N=3라면 abj, bji, jid, idd, ddh ~로 토큰화될 수 있다. 3) 학습 성과 예측 장치는 분석 구간 별로 학습자들의 스트림 패턴을 도출하여 부분 문자열 패턴의 빈도 테이블을 생성할 수 있다. 일례로서, N=2인 경우 문자열 패턴의 빈도 테이블은 도 3과 같다. 구체적으로, 도 3의 x축은 (n-1)번째 타임 인덱스에서의 AOI, y축은 n번째 타임 인덱스에서 발생한 시선 고정 이벤트의 AOI를 나타낼 수 있고, 각 셀에 적힌 숫자는 해당 시선 고정 패턴의 분석 구간 내 발생 빈도를 나타낼 수 있다. 예를 들면, 도 3에 표시된 두개의 화살표가 직교하는 '3321'은 'de' 패턴이 3321회 발생하였음을 나타내는 것으로서, A~C가 과거 스크립트 D가 현재 스크립트 E~J가 미래 스크립트인 경우 현재 스크립트 영역(D)에 대한 시선 고정(d) 이후 미래 스크립트 영역(E)에 대한 시선 고정(e)이 차례로 발생한 빈도가 3321회 발생하였음을 나타낸다.
4) 학습 성과 예측 장치는 분류회귀트리(Classification and Regression Tree, CART)를 이용하여 학습 성과(반응 변수)에 대한 스캔 패턴 별로 빈도(설명변수)의 영향을 나타내는 결정 트리(decision tree)를 시간적 밀도와 공간적 분산에 따라 4개 유형의 분석 구간 별로 생성할 수 있다. 여기서, 분류회귀트리는 설명변수의 비선형성(nonlinearity)과 상호작용(interactions)을 최대한 활용하여 반응 변수(종속변수)에 대한 영향을 판단할 때 이용될 수 있다. 설명변수를 중요도 기준에 따라 줄기(branch)를 만들어 나가며, 마지막 노드(node)에서 반응 변수에 대해 판단을 내리는 방식으로서, 반응 변수가 이항변수/다항변수 등인 경우에도 분류회귀트리는 사용될 수 있다. 학습 성과 예측 장치는 토큰화 기준 문자열 수(N)에 따라 예측 모형을 생성하여 가장 성과가 높은 모형을 결정할 수 있다. 이때, 생성된 빈도 테이블에 예측 결과를 시각화할 경우, 도 4와 같이 표시될 수 있다.
도 5은 일 실시예에 따른, 디스플레이에 표시되는 동영상 및 스크립트를 나타낸 도면이다.
동영상(510)이 재생될 때, 동영상에 대한 관련 정보로서 스크립트(530)가 함께 디스플레이에 표시될 수 있다. 스크립트(530)는 현재 재생되는 동영상에 대한 현재 스크립트(533), 현재 보다 과거 시점에 대응하는 과거 스크립트(531), 현재 보다 미래 시점에 대응하는 미래 스크립트(535)를 포함할 수 있다. 이때, 스크립트(530)는 디스플레이의 일정한 영역에 할당될 수 있고, 과거 스크립트(531)/현재 스크립트(533)/미래 스크립트(535) 모두 사전에 할당된 영역에 표시될 수 있다.
디스플레이에 할당되는 과거 스크립트(531), 미래 스크립트(535)의 영역은 사전에 설정될 수 있다. 구체적으로, 재생되는 동영상(510)의 성격에 따라, 과거 스크립트(531)가 미래 스크립트(535) 보다 많은 영역을 할당받거나, 또는 과거 스크립트(531)과 미래 스크립트(535)가 동일한 영역을 할당받거나, 또는 과거 스크립트(531)가 미래 스크립트(535) 보다 적은 영역을 할당받을 수 있다. 예를 들면, 재생되는 동영상(510)을 통해 학습할 때 현재와 과거의 연계성이 중요한 경우 과거 스크립트(531)가 미래 스크립트(535) 보다 많은 영역을 할당받을 수 있다.
이때, 스크립트(530)가 할당되는 영역은 관심 영역(Area of Interest, AOI)으로서, 사전에 설정될 수 있다. 구체적으로, 사전에 영역이 설정된 관심 영역에 대응하는 픽셀은 식별될 수 있다. 과거 스크립트(531)에 대응하는 픽셀, 현재 스크립트(533)에 대응하는 픽셀, 미래 스크립트(535)에 대응하는 픽셀은 식별될 수 있다. 예를 들면, 과거 스크립트(531)에 대응하는 픽셀은 (0,0) ~ (1920, 360)일 수 있고, 현재 스크립트(533)에 대응하는 픽셀은 (0, 360) ~ (1920, 720)일 수 있고, 미래 스크립트(535)에 대응하는 픽셀은 (0, 720) ~ (1920, 1080)일 수 있다.
학습자의 시선을 추적한 결과 학습자가 과거 스크립트(531)를 응시하는 경우, 현재 재생되는 동영상의 내용과 불일치한 부분을 학습자가 응시하는 것을 나타낸다. 또한, 학습자의 시선을 추적한 결과 학습자가 현재 스크립트(533)을 응시하는 경우, 현재 재생되는 동영상의 내용과 일치한 부분을 학습자가 응시하는 것을 나타낸다. 또한, 학습자의 시선을 추적한 결과 학습자가 미래 스크립트(535)를 응시하는 경우, 현재 재생되는 동영상의 내용과 불일치한 부분을 학습자가 응시하는 것을 나타낸다.
학습자의 시선은 디스플레이의 특정한 영역에 일정한 시간 동안 고정되는 '시선 고정' 또는 디스플레이의 특정한 영역에 고정되지 않고 이동하는 '시선 도약'될 수 있다. 구체적으로, 학습자의 시선을 추적하여 시각 정보를 획득할 경우, 시각 정보는 시선 좌표와 지속 시간에 대한 정보를 포함할 수 있다. 학습자의 시선이 특정한 좌표에 일정한 지속 시간 이상 유지된 경우 '시선 고정'을 나타낼 수 있고, 학습자의 시선이 특정한 좌표에 일정한 지속 시간 이상 유지되지 않고 이동하는 경우 '시선 도약'을 나타낼 수 있다.
여기서, 시선 고정은 주의 집중의 지표로 활용되며, 시선 도약은 학습자의 인지 전략 또는 문제 해결 과정을 나타내는 지표로 활용될 수 있다. 시선이 특정 부분에 멈추어 있는 시선 고정은 해당 내용에 대한 인지적 처리가 발생하고 있음을 나타낼 수 있다. 따라서, 시선 고정이 일어나는 정보를 활용하여, 학습자의 인지 부하와 주의 집중을 나타내는 지표를 검출할 수 있다.
따라서, 학습자의 시선 추적에 따른 스크립트 내에서의 시선 고정/시선 도약을 추적하여, 학습자의 시각 행동에 따른 학습 성과를 예측하는 패턴을 검출할 수 있다.
도 6은 일 실시예에 따른, 개별 학습자의 시선 고정 시계열 그래프를 나타낸다. 도 6의 x축은 시간, y축은 시선 고정한 영역을 나타낸다. 여기서, 과거 스크립트에 대응하는 영역은 A, B, C로서, 현재 시간으로부터 이격된 정도에 따라 영역이 구별될 수 있다. 또한 미래 스크립트에 대응하는 영역은 E, F, G로서, 현재 시간으로부터 이격된 정도에 따라 영역이 구별될 수 있다.
구체적으로, 학습자는 시간 t1 ~ t2 동안 재생되는 동영상의 현재 스크립트에 대응하는 영역 D에 시선 고정하고 있다. 이후, 학습자는 시간 t2 ~ t3 동안 시선 고정하지 않고, 과거 스크립트에 대응하는 영역 C로 시선 도약하고 있다. 이후, 학습자는 시간 t3 ~ t4 동안 재생되는 동영상의 과거 스크립트에 대응하는 영역 C에 시선 고정하고 있다. 이후, 학습자는 t4 ~ t5 동안 시선 고정하지 않고, 현재 스크립트에 대응하는 영역 D로 시선 도약하고 있다. 이후, 학습자는 t5 ~ t6 동안 재생되는 동영상의 현재 스크립트에 대응하는 영역 D에 시선 고정하고 있다. 이후, 학습자는 t6 ~ t7 동안 시선 고정하지 않고, 미래 스크립트에 대응하는 영역 G로 시선 도약하고 있다. 이후, 학습자는 t7 ~ t8 동안 재생되는 동영상의 현재 스크립트가 아닌, 미래 스크립트에 대응하는 영역 G에 시선 고정하고 있다. 이후, 학습자가 시선 고정하는 영역은 도 6를 참조한다.
즉, 이와 같이 학습자는 동영상을 이용하여 학습할 때, 항상 현재 스크립트에 대응하는 영역에 시선 고정하지 않고 학습자의 판단에 따라 응시하는 영역을 변경할 수 있다.
도 7은 일 실시예에 따른, 전체 학습자의 시선 고정 시계열 그래프를 나타낸다.
학생 1은 현재 스크립트에 대응하는 영역 d, d에 시선 고정한 이후, 미래 스크립트에 대응하는 영역 g, f로 시선 도약하여 시선 고정한 이후, 현재 스크립트에 대응하는 영역 d로 시선 도약하여 시선 고정한 이후, 미래 스크립트에 대응하는 영역 f로 시선 도약하여 시선 고정한 이후, 현재 스크립트에 대응하는 영역 d, d로 시선 도약하여 시선 고정한 이후, 미래 스크립트에 대응하는 영역 g로 시선 도약하여 시선 고정한 이후, 현재 스크립트에 대응하는 영역 d로 시선 도약하여 시선 고정한 이후, 과거 스크립트에 대응하는 영역 c로 시선 도약하여 시선 고정한 이후, 미래 스크립트에 대응하는 영역 g로 시선 도약하여 시선 고정한 이후, 과거 스크립트에 대응하는 영역 a로 시선 도약하여 시선 고정하였다.
학생 2 ~ 학생 6의 시선 도약 및 시선 고정은 도 7을 참조한다.
도 8은 일 실시예에 따른, 개별 학습자의 시선 고정 시계열 그래프를 이용하여 학습 성과를 예측하는 패턴 탐지하는 것을 나타낸다. 구체적으로 N=2일 때 부분 문자열 패턴을 도출하고, 각 패턴의 빈도 수에 따라 분류회귀트리(CART)를 적용하여, 학습 성과를 정적(+)으로 예측하는 패턴과 부적(-)으로 예측하는 패턴을 검출한 시계열 그래프에 해당한다. 여기서, 'ga'는 (-)로 학습성과를 예측하고, 'bd' 및 'dc'는 (+)로 학습 성과를 예측하는 것을 나타낸다. 이는 시선 도약이 클수록 학습성과가 부적(-)으로 예측되고, 현재 영역을 과거 영역과 교차하며 시선 고정이 일어날 때 학습성과가 정적(+)으로 예측되는 것을 나타낼 수 있다.
도 9는 일 실시예에 따른, 전체 학습자의 시선 고정 시계열 그래프를 이용하여 학습 성과를 예측하는 패턴 탐지하는 것을 나타낸다. 여기서, 높은 주의 구간은 시선 고정 이벤트가 오래 지속된 것을 나타내며, 낮은 주의 구간은 시선 고정 이벤트가 상대적으로 짧게 지속된 것을 나타내고, 높은 분산 구간은 시선 고정 이벤트가 다양한 관심 영역에서 발생하였음을 나타내고, 낮은 분산 구간은 시선 고정 이벤트가 상대적으로 적은 관심 영역에서 발생하였음을 나타낸다.
시선 추적기(120)가 학습자(130)의 시선을 추적하는 복수의 방법이 있으며, 그 중 일례에 대해 이하, 도 10과 도 11에서 설명한다. 도 10과 도 11에 기재된 시선 추적 방법은 일례에 불과하며, 본 발명은 도 10과 도 11에 기재된 시선 추적 방법으로 권리범위가 한정되는 것은 아니다.
도 10은 일 실시예에 따른, 학습자의 시선 위치를 추적하는 방법을 나타낸다. 시선 추적기는 학습자의 얼굴 좌/우측에 배치되어, 학습자의 얼굴 영상을 인식하고, 얼굴 영상에서 좌/우측 눈을 탐지할 수 있다. 시선 추적기는 좌측 눈의 영상 및 우측 눈의 영상으로부터 동공(Pupil) 및 홍채(Iris)의 면적과 흰자위(Sclera)의 면적 및 눈꺼풀의 사이각을 도출하여 사용자의 시선을 추적할 수 있다.
시선 추적기는 좌측 눈의 영상 및 우측 눈의 영상으로부터 동공 및 홍채 영역을 검출할 수 있고, 각 영역의 면적을 추정할 수 있다. 또한, 시선 추적기는 좌측 눈의 영상 및 우측 눈의 영상으로부터 흰자위 영역을 검출할 수 있고, 흰자위 영역의 면적을 추정할 수 있다.
이후, 시선 추적기는 동공 및 홍채 영역의 면적과 흰자위 영역의 면적의 비율을 이용하여, 학습자의 좌우 시선을 추적할 수 있다. 구체적으로, 시선 추적기는 수평면과 평행하며 학습자의 좌/우측 눈의 동공의 중심을 지나는 기준선을 기준으로, 동공 및 홍채 영역의 면적과 흰자위 영역의 면적의 비율에 따라 기준선으로부터 시선이 이동하였는지 여부, 얼마나 이동하였는지 여부를 결정할 수 있다.
예를 들면, 학습자가 좌측을 보고 있는 그림 1010의 경우, 좌/우측 눈의 동공 및 홍채 영역의 면적과 흰자위 영역의 면적의 비율 이용하여, 학습자가 보고 있는 좌측의 정확한 위치를 결정할 수 있다. 다른 예를 들면, 학습자가 우측을 보고 있는 그림 1030의 경우, 좌/우측 눈의 동공 및 홍채 영역의 면적과 흰자위 영역의 면적의 비율 이용하여, 학습자가 보고 있는 우측의 정확한 위치를 결정할 수 있다. 다른 예를 들면, 학습자가 정면을 보고 있는 그림 1020의 경우, 좌/우측 눈의 동공 및 홍채 영역의 면적과 흰자위 영역의 면적의 비율 이용하여, 학습자가 보고 있는 정면의 정확한 위치를 결정할 수 있다.
도 11는 다른 일 실시예에 따른, 학습자의 시선 위치를 추적하는 방법을 나타낸다. 시선 추적기는 학습자의 얼굴 좌/우측에 배치되어, 학습자의 얼굴 영상을 인식하고, 얼굴 영상에서 좌/우측 눈을 탐지할 수 있다. 시선 추적기는 좌측 눈의 영상 및 우측 눈의 영상으로부터 동공(Pupil) 및 홍채(Iris)의 면적과 흰자위(Sclera)의 면적 및 눈꺼풀의 사이각을 도출하여 사용자의 시선을 추적할 수 있다.
구체적으로, 시선 추적기는 학습자의 윗 눈꺼풀과 기준선이 이루는 각
Figure PCTKR2019006354-appb-img-000009
및 사용자의 아래 눈꺼풀과 기준선이 이루는 각
Figure PCTKR2019006354-appb-img-000010
의 비율을 이용하여, 학습자의 상하 시선 위치를 결정할 수 있다. 예를 들면, 학습자가 위쪽을 보고 있는 그림 1110의 경우, 정면을 볼 때보다 윗 눈꺼풀과 기준선이 이루는 각
Figure PCTKR2019006354-appb-img-000011
와 아래 눈꺼풀과 기준선이 이루는 각
Figure PCTKR2019006354-appb-img-000012
의 비율이 상대적으로 크다. 만약, 사용자가 더 위쪽을 응시할수록 윗 눈꺼풀과 기준선이 이루는 각
Figure PCTKR2019006354-appb-img-000013
와 아래 눈꺼풀과 기준선이 이루는 각
Figure PCTKR2019006354-appb-img-000014
의 비율이 상대적으로 더 증가할 것이다. 다른 예를 들면, 학습자가 정면을 보고 있는 그림 1120의 경우, 윗 눈꺼풀과 기준선이 이루는 각
Figure PCTKR2019006354-appb-img-000015
와 아래 눈꺼풀과 기준선이 이루는 각
Figure PCTKR2019006354-appb-img-000016
은 비슷할 수 있다. 다른 예를 들면, 학습자가 아래쪽을 보고 있는 그림 1130의 경우, 정면을 볼 때보다 윗 눈꺼풀과 기준선이 이루는 각
Figure PCTKR2019006354-appb-img-000017
와 아래 눈꺼풀과 기준선이 이루는 각
Figure PCTKR2019006354-appb-img-000018
의 비율이 상대적으로 작다. 만약, 사용자가 더 아래쪽을 응시할수록 윗 눈꺼풀과 기준선이 이루는 각
Figure PCTKR2019006354-appb-img-000019
와 아래 눈꺼풀과 기준선이 이루는 각
Figure PCTKR2019006354-appb-img-000020
의 비율이 상대적으로 더 감소할 것이다. 즉, 시선 추적기는 학습자의 상하 시선을 추적할 수 있다.
일 실시예에 따르면, 시선 추적기는 학습자의 좌우 시선 추적 및 상하 시선 추적에 기초하여, 학습자가 실제로 보고 있는 위치를 정확하게 결정할 수 있다. 좌우 시선 추적 및 상하 시선 추적을 통한 학습자의 시선 추적 방법은 일례에 불과하며, 본 발명의 권리범위는 이에 한정되는 것은 아니다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.

Claims (11)

  1. 학습과 관련된 동영상이 플레이될 때, 상기 동영상에 대한 관련 정보를 표시하는 관심 영역(Area of Interest, AOI)에 대응하는 픽셀을 식별하는 단계;
    상기 동영상을 시청하는 학습자의 시선을 추적하여, 시각 정보를 획득하는 단계;
    상기 학습자의 시선에 대응하는 상기 시각 정보와 상기 픽셀을 매칭하는 단계; 및
    상기 매칭된 시각 정보와 픽셀을 이용하여, 상기 학습자의 시각 행동에 따른 학습 성과를 예측하는 스캔 패턴을 검출하는 단계
    를 포함하는,
    동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 방법.
  2. 제1항에 있어서,
    상기 시각 정보는,
    상기 학습자의 시선 좌표와 지속 시간에 대한 정보를 포함하는,
    동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 방법.
  3. 제1항에 있어서,
    상기 시각 정보는,
    시선 추적기와 상기 학습자의 눈 사이의 미리 설정된 거리 범위를 벗어나거나 또는, 시선 고정한 상기 학습자의 지속 시간의 미리 설정된 시간 범위를 벗어나는 경우에 대응하는 시각 정보를 제외하는,
    동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 방법.
  4. 제1항에 있어서,
    상기 관심 영역은, 상기 동영상의 과거 시점을 나타내는 과거 스크립트와 상기 동영상의 현재 시점을 나타내는 현재 스크립트와 상기 동영상의 미래 시점을 나타내는 미래 스크립트를 표시하는 영역을 나타내는,
    동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 방법.
  5. 제4항에 있어서,
    상기 과거 스크립트, 상기 현재 스크립트, 상기 미래 스크립트는, 상기 관심 영역의 사전에 설정된 영역에 표시되는,
    동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 방법.
  6. 하드웨어와 결합되어 제1항 내지 제5항 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.
  7. 학습 성과 예측 장치는 프로세서 및 컴퓨터에서 읽을 수 있는 명령어를 포함하는 메모리를 포함하고,
    상기 명령어가 상기 프로세서에서 실행되면,
    상기 프로세서는,
    학습과 관련된 동영상이 플레이될 때, 상기 동영상에 대한 관련 정보를 표시하는 관심 영역(Area of Interest, AOI)에 대응하는 픽셀을 식별하고,
    상기 동영상을 시청하는 학습자의 시선을 추적하여 시각 정보를 획득하고,
    상기 학습자의 시선에 대응하는 상기 시각 정보와 상기 픽셀을 매칭하고,
    상기 매칭된 시각 정보와 픽셀을 이용하여, 상기 학습자의 시각 행동에 따른 학습 성과를 예측하는 스캔 패턴을 검출하는
    동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 장치.
  8. 제7항에 있어서,
    상기 시각 정보는,
    상기 학습자의 시선 좌표와 지속 시간에 대한 정보를 포함하는,
    동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 장치.
  9. 제7항에 있어서,
    상기 시각 정보는,
    시선 추적기와 상기 학습자의 눈 사이의 미리 설정된 거리 범위를 벗어나거나 또는, 시선 고정한 상기 학습자의 지속 시간의 미리 설정된 시간 범위를 벗어나는 경우에 대응하는 시각 정보를 제외하는,
    동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 장치.
  10. 제7항에 있어서,
    상기 관심 영역은, 상기 동영상의 과거 시점을 나타내는 과거 스크립트와 상기 동영상의 현재 시점을 나타내는 현재 스크립트와 상기 동영상의 미래 시점을 나타내는 미래 스크립트를 표시하는 영역을 나타내는,
    동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 장치.
  11. 제10항에 있어서,
    상기 과거 스크립트, 상기 현재 스크립트, 상기 미래 스크립트는, 상기 관심 영역의 사전에 설정된 영역에 표시되는,
    동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 장치.
PCT/KR2019/006354 2019-05-23 2019-05-28 동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 방법 WO2020235730A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0060674 2019-05-23
KR1020190060674A KR102262662B1 (ko) 2019-05-23 2019-05-23 동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 방법

Publications (1)

Publication Number Publication Date
WO2020235730A1 true WO2020235730A1 (ko) 2020-11-26

Family

ID=73458617

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/006354 WO2020235730A1 (ko) 2019-05-23 2019-05-28 동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 방법

Country Status (2)

Country Link
KR (1) KR102262662B1 (ko)
WO (1) WO2020235730A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102266476B1 (ko) * 2021-01-12 2021-06-17 (주)이루미에듀테크 시선 추적 기술을 활용한 온라인 학습 능력 향상 방법, 장치 및 시스템
KR20220114849A (ko) 2021-02-09 2022-08-17 (주)엔플러스에듀 아이트래킹 기반 학습도 모니터링 방법, 장치 및 시스템
KR20240075116A (ko) 2022-11-21 2024-05-29 스퀘어네트 주식회사 학습자 그룹별 학습자 학습 패턴 기반 적정 강좌 예측 시스템

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140046652A (ko) * 2012-10-09 2014-04-21 경북대학교 산학협력단 학습 모니터링 장치 및 학습 모니터링 방법
KR20140052263A (ko) * 2012-10-24 2014-05-07 에스케이플래닛 주식회사 콘텐츠 서비스 시스템, 그 시스템에서의 콘텐츠 서비스를 위한 장치 및 방법
KR20150120540A (ko) * 2014-04-17 2015-10-28 한국과학기술원 사용자의 학습 내역을 기반으로 한 학습 콘텐츠 강조 방법 및 그 시스템
KR20170143387A (ko) * 2016-06-21 2017-12-29 현대자동차주식회사 시선 추적을 이용한 운전자 집중도 감시 장치 및 방법
KR20180107576A (ko) * 2017-03-22 2018-10-02 이화여자대학교 산학협력단 학습 동영상을 시청하는 학습자의 시각 행동을 이용한 학업 성취 예측 방법 및 학업 성취 예측 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140046652A (ko) * 2012-10-09 2014-04-21 경북대학교 산학협력단 학습 모니터링 장치 및 학습 모니터링 방법
KR20140052263A (ko) * 2012-10-24 2014-05-07 에스케이플래닛 주식회사 콘텐츠 서비스 시스템, 그 시스템에서의 콘텐츠 서비스를 위한 장치 및 방법
KR20150120540A (ko) * 2014-04-17 2015-10-28 한국과학기술원 사용자의 학습 내역을 기반으로 한 학습 콘텐츠 강조 방법 및 그 시스템
KR20170143387A (ko) * 2016-06-21 2017-12-29 현대자동차주식회사 시선 추적을 이용한 운전자 집중도 감시 장치 및 방법
KR20180107576A (ko) * 2017-03-22 2018-10-02 이화여자대학교 산학협력단 학습 동영상을 시청하는 학습자의 시각 행동을 이용한 학업 성취 예측 방법 및 학업 성취 예측 장치

Also Published As

Publication number Publication date
KR102262662B1 (ko) 2021-06-09
KR20200134751A (ko) 2020-12-02

Similar Documents

Publication Publication Date Title
Alemdag et al. A systematic review of eye tracking research on multimedia learning
WO2020235730A1 (ko) 동영상 학습 환경에서 학습자의 스캔 패턴에 기초한 학습 성과 예측 방법
Shadiev et al. A review study on eye-tracking technology usage in immersive virtual reality learning environments
WO2023120840A1 (ko) 가상현실 기술을 이용하여 노인에게 인지재활 컨텐츠를 제공하기 위한 방법 및 이를 이용한 컴퓨팅 장치
Ahn et al. Towards predicting reading comprehension from gaze behavior
WO2021071335A1 (ko) 스마트 안경의 시선 트래킹 시스템 및 그 방법
Sharma et al. Keep calm and do not carry-forward: Toward sensor-data driven AI agent to enhance human learning
Cheong et al. FaceSync: Open source framework for recording facial expressions with head-mounted cameras
WO2020122439A1 (ko) 인지 과제 생성 방법 및 장치
Orlosky et al. Using eye tracked virtual reality to classify understanding of vocabulary in recall tasks
Faisal et al. Towards a reference model for sensor-supported learning systems
Chen et al. Inter-brain coupling analysis reveals learning-related attention of primary school students
Metcalfe et al. Using the technology: Introducing point of view video glasses into the simulated clinical learning environment
Hassanain A multimedia big data retrieval framework to detect dyslexia among children
Thilderkvist et al. On current limitations of online eye-tracking to study the visual processing of source code
WO2020222350A1 (ko) 온라인 학습 환경에서 학습자의 시각 행동을 활용한 학습 유형 진단 장치 및 방법
Kamikubo et al. Exploring the role of tunnel vision simulation in the design cycle of accessible interfaces
WO2019199035A1 (ko) 시선 추적 시스템 및 방법
JP2022550396A (ja) 言語教授機械
Song et al. Development of a personalized learning system using gaze tracking system
Maravić Čisar et al. Application of eye movement monitoring technique in teaching process
Zermiani et al. InteRead: An Eye Tracking Dataset of Interrupted Reading
WO2022080551A1 (ko) 객체 인식을 이용한 시선 기반의 부정행위 검출 방법과 이를 실행하기 위한 컴퓨팅 장치 및 시스템
Yokoyama et al. Operating Room Surveillance Video Analysis for Group Activity Recognition
WO2023033545A1 (ko) 시야손상 환자의 선호망막부위 탐색 및 훈련 장치, 방법 및 프로그램

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19929807

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19929807

Country of ref document: EP

Kind code of ref document: A1